Wie reagieren Kunden auf KI-generierte Inhalte?

Verhaltensökonomische Antworten für Marketing, Sales & Service, um die Potenziale von KI für eine bessere Kundenbeziehung zu nutzen.

Eine Frau, die auf ihrem Handy eine Umfrage beantwortet.

Warum Menschen oft nicht rational auf KI-Inhalte reagieren

Angenommen Sie wüssten, dieser Text wurde von einer KI geschrieben, welche Gedanken und Gefühle würde das bei Ihnen auslösen?

Und stellen Sie sich nun vor, der Text wurde ausschließlich von einem Menschen geschrieben: Wie würde sich Ihre Antwort ändern? (ob dieser Text von einer KI oder einem Menschen geschrieben wurde, erfahren Sie weiter unten)

Wenn Sie so wie die meisten Menschen ticken, dann sollten Sie sich Folgendermaßen verhalten:

  1. Wenn Sie wissen, dass ein Text von einem Menschen geschrieben wurde, bewerten Sie ihn besser als den Text, der von einer KI geschrieben wurde. Und zwar um bis zu 30% (Zhu et al. 2024).
  2. Wenn Sie nicht wissen, welcher Text von der KI oder einem Menschen stammt, bewerten Sie die Texte mindestens gleich gut oder den Text von der KI sogar besser.

Wir entscheiden also nicht rational über die Qualität eines KI-generierten Inhaltes, sondern psychologisch.

Und das kann soweit führen, dass wir uns Inhalte, Produktfeatures oder andere neue Services erst gar nicht anschauen, wenn sie vorab schon wissen, dass sie von einer KI stammen. Auch wenn sie noch so gut sind.

Doch das ist nicht alles.

KI-generierte Inhalte können auch die zwischenmenschliche Beziehung direkt beeinflussen. Ich habe von einem Fall gehört, in dem der CFO eines Unternehmens mit einem Kunden über eine hohe Rechnung per Email diskutierte.

Der CFO war für seine knapp formulierten, nicht immer fehlerfreien E-Mails bekannt, doch plötzlich schrieb er eine lange, schön ausformulierte Email, die offensichtlich mit KI erstellt wurde. Das kam beim Kunden gar nicht gut an.

Ein Grund dafür ist, dass KI-generierte Inhalte häufiger als weniger wertvoll wahrgenommen werden (siehe die Diskussion zu AI Slop). Und wenn ich als Kunde einen wenig wertvollen KI-Inhalt erhalte, dann ist es nicht mehr weit, dass ich mich auch weniger wertgeschätzt fühle.

Welche Lösungen gibt es, damit Kunden positiv auf KI-generierte Inhalte reagieren? 

Lassen Sie uns zuerst einen Schritt zurück machen, denn folgende Szenarien finde ich wichtig:

Es könnte zum einen sein, dass wir uns mit der Zeit daran gewöhnen, KI-Inhalte zugespielt zu bekommen und wir die Aversion gegen Algorithmen und KI irgendwann ablegen.

Zum anderen stellt sich die Frage, ob Kunden überhaupt unterscheiden können, ob etwas von einer KI oder einem Menschen stammt. Falls nicht, löst sich das “Problem” vermutlich in Luft auf.

Es könnte allerdings auch sein, dass Unternehmen durch den EU AI Act ab dem 02. August 2026 dazu verpflichtet werden, KI in der Kundeninteraktion offenzulegen und dies in der Praxis auch tatsächlich geschieht. Das sage ich deswegen, da der EU AI Act im Artikel 50 so formuliert ist, dass der Einsatz von KI nur dann offengelegt werden muss, wenn der KI-Gebrauch für Kunden nicht “offensichtlich” ist.

Für die Kennzeichnung von KI-generierten Texten zeichnet sich derzeit ab, dass eine Prüfung von einem Menschen vor der Aussendung ausreicht und keine weitere Kennzeichnung notwendig ist (WKO 2025). Bei anderen Inhalten wie Bilder und Videos scheint die Auslegung noch offen zu sein. Hier gilt es abzuwarten, wie die Rechtsprechung in der Praxis umgesetzt wird und ob Unternehmen bei einem Verstoß tatsächlich verurteilt werden.

Wollen oder müssen Unternehmen den Einsatz von KI offenlegen, gibt es aus verhaltensökonomischer Sicht drei konkrete Handlungsempfehlungen:

1. Den Experience Gap schließen

Kunden sollten zuerst selbst erfahren, dass ein KI-Inhalt nützlich ist, bevor sie verfrüht urteilen, dass er sowieso nicht so gut wie ein menschlich generierter Inhalt ist. So kann man den Experience Gap schließen, der entsteht, wenn Menschen voreingenommen über KI-Inhalte oder -Features  urteilen, ohne sie gesehen oder ausprobiert zu haben.

2. Reframing von “KI-generiert” zu “mit menschlicher Expertise generiert”

Zum anderen kann ein “Reframing” eine mögliche Lösung sein: anstatt so zu tun, als wäre etwas von Menschen gemacht und in Wahrheit stammt es von einer KI, kann ein Inhalt oder Output bewusst als KI gekennzeichnet, aber der menschliche Input bzw. die menschliche Expertise hervorgehoben werden, die hineingeflossen ist.

In einer Studie von Acar et al. 2025 kam beispielsweise heraus, dass ein KI-Coach besser bewertet wurde, wenn der menschliche Input bei der Ausarbeitung hervorgehoben wurde, auch wenn der KI-Coach jedes Mal in verschiedenen Vergleichsgruppen genau der Gleiche war.

3. Menschliche Geschichten erhöhen den wahrgenommenen Wert

Auch diesem Ansatz liegt die Idee zugrunde, dass Menschlichkeit den Wert von KI-generiertem Output steigern kann. Die philosophische Auffassung des Essenzialismus geht bspw. davon aus, dass Dinge eine Essenz, ein Wesen haben. So kann es zum Beispiel sein, dass ein Schaukelstuhl bei Ikea 30 € kostet, während ein Schaukelstuhl, auf dem John F. Kennedy saß, im Jahr 2016 um 74.000 US Dollar versteigert wurde. Der Unterschied liegt nicht im besonderen Material des Schaukelstuhls, sondern in der menschlichen Geschichte und der Verbindung zu einem Menschen, die den Schaukelstuhl so besonders macht (Johnson 2024).

Für die Ausarbeitung von KI-Output bedeutet diese Erkenntnis, dass es eine große Chance gibt, den Wert von KI-Output massiv zu erhöhen, indem menschliche Verbindungen und Geschichten viel stärker in den Vordergrund gestellt werden, anstatt nur die technische Lösung zu betonen. 

Was es zu beachten gilt: der Kontext entscheidet über Erfolg oder Nicht-Erfolg von KI-Output

Nun wäre es zu kurz gegriffen, wenn ich sagen würde (ja, der Beitrag wurde von mir persönlich geschrieben), dass bei jeglichem KI-Output die Verbindung zu einem Menschen oder dessen Input in den Vordergrund gestellt werden muss.

Die Reaktionen von Menschen auf KI sind nicht schwarz-weiß. Als Gegenpart zur Algorithm Aversion gibt es auch die Algorithm Appreciation (Logg et al. 2019). Diese besagt, dass Menschen KI bevorzugen, wenn es um “objektive” und nicht um “subjektive” Aufgaben geht (Castelo et al. 2019). Möchte jemand beispielsweise eine Datenanalyse erstellen oder Empfehlungen zu Finanzinvestitionen erhalten, vertrauen Menschen tendenziell lieber auf KI-Lösungen.

Für den Einsatz von KI in Marketing, Vertrieb & Kundenservice bedeutet dies vor allem Eines: context matters.

Während KI-Inhalte in einem Kontext positiv aufgenommen werden, kann es in einem anderen Kontext genau umgekehrt sein. Es gilt also herauszufinden, wie sich Kunden in einer bestimmten Situation verhalten und was ihre Bedürfnisse sind. Denn nur so kann KI-generierter Output so gestaltet werden, dass er positiv ankommt und die Kundenbeziehungen nachhaltig stärkt.

Meiner Erfahrung nach sollte in KI-Projekten, bei denen es um Kunden geht, deswegen unbedingt folgendes Vorgehen gewählt werden:

  1. Initial die Bedürfnisse und Verhaltenstreiber von Kunden im Kontext von KI bestmöglich verstehen
  2. Lösungen ausarbeiten, die auf die Verhaltenstreiber der Kunden einzahlen
  3. Vertesten der Lösungen in möglichst realistischen Szenarien, um das Verhalten der Kunden beobachten zu können (und nicht nur Meinung)
  4. Iterative Umsetzung mit Möglichkeiten zum Lernen und Optimieren

Durch dieses Vorgehen wird sichergestellt, dass die Irrationalitäten des menschlichen Verhaltens Teil der Lösung sind, wenn KI-generierte Inhalte an Kunden ausgespielt werden. Um das Beste aus dem Zusammenspiel aus KI und Mensch herauszuholen.

Ich freue mich über ihre nachricht

Kontakt

Schreiben Sie mir eine Nachricht oder besuchen Sie meine LinkedIn-Seite. Ich rufe Sie zurück oder antworte Ihnen digital - wie es Ihnen lieber ist!

Vielen Dank, Ihre Nachricht wurde gesendet!
Ich werde mich bei Ihnen innerhalb der nächsten 24 Stunden melden.
Oops! Da hat etwas nicht funktioniert.