Der Vertrauensverlust durch KI-Content: Warum Erklärung wieder menschlich werden muss

Featured Image

KI-generierte Inhalte durchdringen mittlerweile nahezu jeden Bereich der Unternehmenskommunikation. Texte, Videos, Präsentationen, Schulungsunterlagen und Produktbeschreibungen entstehen heute in einer Geschwindigkeit und Menge, die vor wenigen Jahren noch undenkbar gewesen wäre. Was auf den ersten Blick nach einem gewaltigen Effizienzgewinn aussieht, entpuppt sich bei genauerem Hinsehen als zweischneidiges Schwert. Denn während die Produktionskosten sinken und die Skalierbarkeit steigt, schwindet auf der Empfängerseite etwas, das sich mit keinem Algorithmus ersetzen lässt: Vertrauen.

Eine groß angelegte Studie der Melbourne Business School, die zwischen November 2024 und Januar 2025 über 48.000 Menschen in 47 Ländern befragte, zeichnet ein ernüchterndes Bild. Obwohl bereits 66 Prozent der Befragten regelmäßig KI nutzen, ist weniger als die Hälfte bereit, ihr auch tatsächlich zu vertrauen. Im Vergleich zu einer früheren Erhebung vor dem Start von ChatGPT im Jahr 2022 zeigt sich ein klarer Trend: Mit steigender Nutzung wächst nicht das Vertrauen, sondern die Skepsis (vgl. Melbourne Business School, Global AI Trust Study 2025).

Wenn Maschinen erklären, aber nichts meinen

Das eigentliche Problem liegt nicht in der Qualität der KI-generierten Inhalte. Viele sind grammatikalisch einwandfrei, strukturell schlüssig und inhaltlich korrekt. Was ihnen fehlt, ist etwas, das sich schwer quantifizieren lässt, aber sofort spürbar wird: Haltung. KI kann erklären, sie kann strukturieren und vereinfachen. Was sie nicht kann, ist meinen. Sie hat kein eigenes Verhältnis zum Inhalt, keine Verantwortung für die Konsequenzen einer Aussage und kein Bewusstsein für den Kontext jenseits statistischer Wahrscheinlichkeit.

Für den Empfänger macht genau das einen entscheidenden Unterschied. Menschliche Erklärung trägt immer ein implizites Versprechen: Ich stehe dafür ein. KI-Content trägt dieses Versprechen nicht. Er wirkt wie eine glatte Oberfläche, hinter der niemand sichtbar wird. In sensiblen Bereichen wie Strategiekommunikation, Compliance und Change Management oder komplexen Technologiethemen ist genau das problematisch. Menschen vertrauen nicht Inhalten – sie vertrauen Absendern. Wo kein erkennbarer Absender ist, entsteht Distanz.

Der AI-Authorship-Effekt: Wenn Authentizität verloren geht

Wie tiefgreifend dieses Misstrauen tatsächlich ist, hat eine wegweisende Studie im Journal of Business Research dokumentiert. Kirk und Givi (2025) wiesen in sieben vorregistrierten Experimenten nach, was sie den „AI-Authorship Effect" nennen: Sobald Konsumenten glauben, dass emotionale Marketingkommunikation von einer KI verfasst wurde, sinken positive Mundpropaganda und Kundenloyalität signifikant. Der Mechanismus dahinter ist bemerkenswert – KI-generierte Inhalte werden als weniger authentisch wahrgenommen, was bei den Empfängern „moralischen Ekel" auslöst und die Markenbindung nachhaltig beschädigt (vgl. Kirk & Givi, 2025, Journal of Business Research).

Besonders aufschlussreich: Der Effekt trat bei emotionalen Botschaften deutlich stärker auf als bei rein sachlichen Informationen. Was bedeutet das für Unternehmen? Es bedeutet, dass gerade dort, wo Kommunikation am meisten wirken soll – bei der emotionalen Verbindung mit der Zielgruppe – KI-Content die größte Schwachstelle offenbart.

Austauschbarkeit untergräbt Glaubwürdigkeit

Ein weiteres Kernproblem von KI-generiertem Content ist seine Austauschbarkeit. Inhalte ähneln sich in Ton, Struktur und Argumentation. Sie sind sauber formuliert, aber generisch. Je mehr solcher Inhalte konsumiert werden, desto weniger Gewicht hat der einzelne Beitrag. Das Nuremberg Institute for Market Decisions (NIM) hat in einer Untersuchung aus dem Jahr 2024 festgestellt, dass 100 Prozent der befragten 600 Marketingprofessionellen bereits KI in ihren Aktivitäten einsetzen. Gleichzeitig zeigen ihre Forschungsergebnisse, dass allein das Kennzeichnen eines Inhalts als KI-generiert zu einer kritischeren Bewertung führt – selbst wenn der Content inhaltlich identisch mit menschlich erstelltem Material ist. Dr. Fabian Buder, Leiter der Future & Trends Research am NIM, bringt es auf den Punkt: „Transparenz allein löst nicht das grundlegende Problem" (vgl. NIM, Transparency Without Trust, 2024).

Das führt zu einem paradoxen Effekt: Je mehr erklärt wird, desto weniger wird geglaubt. Erklärung verliert ihren Wert, wenn sie nicht erkennbar aus Erfahrung, Haltung oder Verantwortung heraus entsteht. Selbst technisch einwandfreier KI-Content unterliegt einer Art „Trust Penalty" – einer systematischen Vertrauensstrafe, die einsetzt, sobald Empfänger den Eindruck gewinnen, dass hinter einer Botschaft kein Mensch steht, sondern ein Algorithmus. Vertrauen bildet sich nicht durch Wiederholung generischer Botschaften, sondern durch Einordnung. Menschen wollen wissen, warum etwas hier gilt, für sie relevant ist und jetzt wichtig wird. KI-Content bleibt oft auf einer allgemeinen Ebene. Er erklärt das Richtige, aber nicht das Entscheidende.

Warum Erklärung ein Beziehungsangebot ist

Erklärung ist kein neutraler, technischer Vorgang. Sie ist immer ein Beziehungsangebot. Wer erklärt, sagt implizit: Ich habe verstanden und helfe dir, zu verstehen. Diese Beziehungsebene fehlt in rein automatisierten Inhalten vollständig.

Menschliche Erklärung erkennt Unsicherheiten, setzt Prioritäten und lässt bewusst Dinge weg. Sie sagt nicht alles, sondern das Relevante. Genau diese Auswahl ist ein Zeichen von Verantwortung. Wenn Unternehmen erklären, ohne erkennbar zu wählen, zu gewichten oder Stellung zu beziehen, entsteht Misstrauen – nicht, weil die Inhalte falsch wären, sondern weil sie beliebig wirken.

Die Getty-Images-Studie „Building Trust in the Age of AI", die über 30.000 Erwachsene in 25 Ländern befragte, bestätigt diesen Befund aus visueller Perspektive: 98 Prozent der Befragten halten authentische Bilder und Videos für entscheidend, um Vertrauen aufzubauen. Nahezu 90 Prozent fordern Transparenz beim Einsatz von KI-Bildern (vgl. Getty Images, Building Trust in the Age of AI, 2024). Die Botschaft ist klar: Dort, wo visuelle Kommunikation Vertrauen schaffen soll, ist menschliche Handschrift kein Luxus – sie ist eine Notwendigkeit.

Heller gelber Hintergrund mit lila 'KI', Play-Button, Papierflieger und abstrakten Linien, symbolisiert digitale Kommunikation.
Farbkräftiges KI-Logo, das digitale Kommunikation und Vernetzung symbolisiert. Ideal für Tech- und KI-Branding.

Illustration und Erklärvideo: Vertrauen durch sichtbare Entscheidungen

Genau hier können Illustration und das Erklärvideo-Format eine entscheidende Rolle spielen. Nicht, weil sie per se emotionaler wären als Text, sondern weil sie Haltung sichtbar machen. Ein gut konzipiertes Erklärvideo zeigt, was wichtig ist, wie Zusammenhänge gedacht sind und wo Grenzen liegen. Jede Illustration ist das Ergebnis einer bewussten Entscheidung: Was zeigen wir? Was lassen wir weg? In welcher Reihenfolge? Mit welchem Fokus?

Diese gestalterischen Entscheidungen sind alles andere als trivial. Sie erfordern ein tiefes Verständnis des Themas, der Zielgruppe und der kommunikativen Absicht. Genau deshalb sind sie ein menschliches Signal – sie zeigen, dass jemand Verantwortung für Struktur und Bedeutung übernommen hat. Animation und Motion Design werden dabei nicht als dekorativer Effekt eingesetzt, sondern als Mittel zur Orientierung.

Wenn ein Illustrator eine komplexe Prozesskette in eine klare visuelle Dramaturgie übersetzt, geschieht etwas, das keine KI leisten kann: Er trifft eine Auswahl, die auf Erfahrung, Empathie und Kontextwissen basiert. Er weiß, wo der Betrachter stolpert, wo Verwirrung entsteht und wo ein visueller Ankerpunkt benötigt wird. Ein Charakter, der den Zuschauer durch ein Onboarding-Video begleitet, eine isometrische Infografik, die einen Produktionsprozess auf das Wesentliche verdichtet, oder eine metaphorische Bildwelt, die ein abstraktes Konzept greifbar macht – all das sind gestalterische Leistungen, die weit über das hinausgehen, was ein Prompt generieren kann.

Diese Form der bewussten Reduktion – das Weglassen des Unwichtigen zugunsten des Wesentlichen – ist der eigentliche Kern menschlicher Erklärung. Und sie ist es, die den Unterschied zwischen einer Information und einer Botschaft ausmacht. Wer seine Zielgruppe kennt und die visuelle Sprache bewusst auf sie abstimmt, schafft etwas, das KI-Content strukturell nicht leisten kann: Relevanz durch Perspektive.

Menschlichkeit liegt nicht im Tonfall, sondern in der Verantwortung

Oft wird versucht, KI-Content „menschlicher" zu machen, indem man die Sprache lockerer, freundlicher oder emotionaler gestaltet. Das greift fundamental zu kurz. Menschlichkeit entsteht nicht durch den richtigen Tonfall, sondern durch die Übernahme von Verantwortung. Eine Erklärung wirkt menschlich, wenn sie begrenzt, klar und bewusst ist. Wenn sie zeigt, dass jemand verstanden hat, was schwierig ist – und genau dort ansetzt.

Die Forschung bestätigt das eindrücklich: KI-Content mit menschlicher strategischer Aufsicht schneidet deutlich besser ab als vollständig automatisierte Inhalte. Hybride Ansätze, bei denen KI als Werkzeug dient, der kreative und strategische Prozess aber in menschlicher Hand bleibt, erweisen sich als die überlegene Lösung (vgl. Deloitte, Connected Consumer Survey 2024). Das ist eine wichtige Erkenntnis für jeden, der über den Einsatz von KI in der Unternehmenskommunikation nachdenkt.

Gerade im Bereich des Erklärvideos zeigt sich diese Hybridstrategie besonders wirkungsvoll. KI kann bei der Recherche unterstützen, Skriptentwürfe beschleunigen oder Animationsvorlagen generieren. Aber die inhaltliche Verdichtung, die visuelle Erzählstruktur und die illustrative Gestaltung – all das bleibt Aufgabe erfahrener Kreativer, die nicht nur wissen, was technisch möglich ist, sondern was kommunikativ wirkt. Ein professioneller Erklärvideoprozess verbindet genau diese Ebenen: strategische Beratung, redaktionelle Tiefe und gestalterische Kompetenz.

Vertrauen als kommunikative Aufgabe

Der aktuelle Vertrauensverlust durch KI-Content ist kein technisches Problem. Er ist ein kommunikatives. Unternehmen haben Erklärung zu stark automatisiert und zu wenig verantwortet. Erklärung ist keine Nebenleistung, die man an einen Algorithmus delegieren kann. Sie ist eine Aufgabe, die Haltung verlangt, Entscheidungen sichtbar macht und Verantwortung übernimmt. Die Zahlen sprechen eine deutliche Sprache: Vier von fünf Menschen weltweit sind besorgt über die Risiken von KI, und zwei von fünf berichten bereits von negativen Auswirkungen – darunter vor allem der Verlust menschlicher Interaktion und die Verbreitung von Fehlinformationen.

Illustration und Erklärvideo bieten hier einen Weg zurück zum Wesentlichen. Sie zwingen zur Reduktion, zur Priorisierung und zur gestalterischen Stellungnahme. Ein illustrierter Charakter, der den Betrachter durch einen komplexen Prozess führt, ist mehr als eine hübsche Animation – er ist ein Versprechen: Wir haben uns mit eurem Thema auseinandergesetzt, wir haben verstanden, was wichtig ist, und wir übernehmen die Verantwortung dafür, es verständlich zu machen.

KI kann dabei unterstützen. Sie kann vorbereiten, strukturieren und beschleunigen. Aber sie darf nicht erklären anstelle von Menschen, sondern für sie. Die Unternehmen, die das verstehen, werden nicht die sein, die KI am extensivsten einsetzen – sondern die, die sie am klügsten nutzen. Dort, wo die menschliche Handschrift in der Kommunikation wieder sichtbar wird, kehrt auch das Vertrauen zurück.

Fazit: Erklärung braucht einen Absender

Der Vertrauensverlust durch KI-Content entsteht nicht, weil KI schlecht erklärt. Er entsteht, weil Erklärung ihren menschlichen Absender verloren hat. Vertrauen wächst dort, wo Inhalte nicht nur korrekt, sondern gemeint sind – wo sichtbar wird, dass jemand verstanden, priorisiert und Verantwortung übernommen hat.

Illustration und das Erklärvideo-Format machen genau das möglich: Sie visualisieren nicht nur Information, sondern auch die Haltung dahinter. Jede gestalterische Entscheidung, jede bewusste Reduktion, jeder visuelle Fokus ist ein Signal an den Betrachter – hier spricht ein Mensch, nicht eine Maschine.

Alle aktuellen Entwicklungen im Überblick finden Sie in unserem Artikel zu den Erklärvideo-Trends 2026.

Erklärung muss deshalb wieder menschlich werden. Nicht langsamer. Nicht emotionaler. Sondern klarer, bewusster und verantworteter.

Featured Image
Motion Design ist mehr als nur Animation – es ist die Symbiose aus Design und Bewegung. Als zentraler Bestandteil moderner visueller Kommunikation schafft Motion Design eindrucksvolle Erlebnisse, die Informationen und Emotionen gleichermaßen transportieren. Doch …
2 min read
Featured Image
Illustrationen sind aus der modernen Markenkommunikation nicht mehr wegzudenken. Sie machen Inhalte verständlich, sympathisch – und vor allem: einprägsam. Doch wenn ein Unternehmen sich für ein Erklärvideo, eine Website-Grafik oder eine Kampagne entscheidet, stellt …
3 min read
Featured Image
Viele Marken stehen vor der Herausforderung, ihre Online-Präsenz gezielt auszubauen und eine stärkere Verbindung zur Zielgruppe herzustellen. Erklärvideos können dabei ein entscheidender Baustein sein: Sie machen komplexe Inhalte verständlich, schaffen Vertrauen und steigern das …
3 min read

Neugierig geworden auf ein Projekt mit uns?

Das Bild zeigt einen stilisierten schwarzen Buchstaben 'b' mit einem integrierten grünen Punkt.

Gutenbergstraße 88/1
70197 Stuttgart

hello@brussobaum.de
Telefon: (+49) 711 / 342 481 85

View