#28 Warum Desinformation funktioniert, obwohl wir sie erkennen (2)
Psychologische Effekte von Desinformation und wie wir uns dagegen wehren können
Im Teil 1 dieser Reihe habe ich einen Blick auf die 7 Arten der Desinformation geworfen: Wieso Putin plötzlich an Barack Obamas Krawatte zieht, wie uns gefälschte Nachrichtenseiten einreden, dass Asylbewerber gratis Sex angeboten bekommen und warum die Politik den Politiker Christoph Blocher mit seinen Anlagetipps nicht zum Schweigen bringen will.
In diesem zweiten Teil über Desinformation interessiert mich, warum Fake News funktionieren, obwohl wir darauf vorbereitet sind. Ich würde gerne denken: "Ich bin doch nicht blöd, ich falle doch nicht auf Fake News rein!” Aber so einfach ist es nicht. Desinformation nutzt psychologische Mechanismen, auf die wir uns vorbereiten müssen, sonst können wir uns kaum wehren.
In diesem Artikel:
Psychologische Mechanismen, die Desinformation ausnutzt
Was wir dagegen tun können
Warum können wir nicht einfach die Fakten lesen und den Rest ausblenden? Warum fällt es so schwer, zu unterscheiden, was wahr ist und was erfunden? Und warum hält die Wirkung an, auch wenn wir im Nachhinein erfahren, dass sie erfunden war?
Ein Grund dafür liegt darin, wie unser Gehirn funktioniert.
Das liegt nicht an mangelnder Intelligenz oder Aufmerksamkeit. 95 Prozent unserer Zeit handeln wir automatisch - auf Autopilot sozusagen. Und das ist auch gut so! Sonst müsste unser Gehirn schon morgens vor der Arbeit mentale Zirkusübungen absolvieren. Wir würden viel zu lange überlegen, welche T-Shirt-Farbe heute wohl die beste Wahl wäre oder Pro- und Contra-Listen erstellen, ob wir bei Frühlingsanfang wirklich eine Jacke brauchen.
Die Theorie von Daniel Kahnemann aus seinem Buch “Schnelles Denken, langsames Denken” erklärt unsere beiden Denksysteme sehr treffend.
Er beschreibt zwei Arten des Denkens:
System 1: schnell, intuitiv, automatisch ablaufend, springt an, wenn wir ein Bild sehen, eine Nachricht lesen, oder einen Ton hören - 95 % unserer Zeit verbringen wir in diesem System
System 2: langsam, bewusst, “rational”, abwägend, Fakten vergleichend, Informationen prüfend, hinterfragend, braucht aber mehr Energie und Aufmerksamkeit
Gerade weil System 1 die meiste Zeit aktiv ist und System 2 schläft, kommen viele psychologische Effekte zum Tragen, die uns emotional triggern. Denn die emotionale Aktivierung erfolgt unbewusst und viel schneller als die rationale Prüfung von Inhalten. Deshalb wirken Mechanismen, die wir später aus der Distanz oder mit zeitlichem Abstand klar als Desinformationstaktiken einordnen können.
Leider ist es dann schon zu spät.
Welche psychologischen Effekte gibt es denn, die greifen könnten? Im folgenden Abschnitt eine Auswahl, von 4 psychologischen Mechanismen, auf die wir uns achten können. Allein das Bewusstsein, was möglich ist, kann helfen, diese Mechanismen als solche zu erkennen und zu umgehen.
4 Psychologische Effekte von Desinformation
Illusory Truth Effect: Wiederholung lässt Lügen wahr werden
Confirmation Bias: Wir glauben, was uns passt
Emotionale Ansteckung, Negativitätsbias und Sensationslust
Continued Influence Effect: Einmal gelernt, kaum wieder vergessen
Illusory Truth Effect
Was sich wie eine Szene aus dem Film Clockwork Orange anhört, zeigt sich auch im Wahrheitseffekt. Im Film wird der Protagonist zwar gewaltsam konditioniert und unter Drogen gesetzt, aber was funktioniert ist: Wenn uns eine Information oft genug gezeigt wird, glauben wir irgendwann, dass sie wahr ist.
Warum passiert das?
Unser Gehirn interpretiert Vertrautheit fälschlicherweise als Wahrheit. Das erklärt, warum auch intelligente Menschen auf Desinformation hereinfallen können.
Warum können wir uns nicht einfach merken, woher die Information kommt und uns nicht auf diese “Vertrautheit” verlassen? Auch dafür ist unser Gehirn verantwortlich. Denn es ist auf Effizienz und nicht auf Genauigkeit ausgelegt. Zum Beispiel lesen wir in einem Social Media Post die Aussage “CO₂ ist harmlos für das Klima”. Wochen später erinnern wir uns nur noch an die Aussage, aber nicht mehr, woher sie stammt (Quellenfehler) und dass die Quelle eigentlich nicht vertrauenswürdig war.
Im Alltag verlassen wir uns darauf, dass uns etwas bekannt vorkommt: "Das klingt vertraut, also muss es wahr sein”. Vielleicht habt ihr schon einmal gehört, dass Vitamin C Erkältungen heilt, dass Einstein schlecht in Mathe war oder dass Autismus durch Impfungen entsteht. Solche Aussagen haben wir in unserem Leben schon oft gehört und es fällt uns schwer, sie als Mythen einzustufen, weil sie uns durch die vielen Wiederholungen so vertraut sind.
Der Wahrheitseffekt wurde bereits 1977 in Experimenten mit Studenten untersucht, die in regelmässigen Abständen wahre und falsche Aussagen zu hören bekamen. Die Aussagen stammten aus Politik, Sport oder Kunst. Einige Aussagen waren wahr, andere falsch, aber alle klangen auf den ersten Blick glaubwürdig.
Die Aussagen wurden in drei Runden wiederholt. Sowohl wahre als auch falsche Aussagen wurden als überzeugender eingestuft, wenn sie mehrmals gezeigt wurden. Wiederholung erhöht also die Glaubwürdigkeit, unabhängig vom Wahrheitsgehalt!
Genau dieser Effekt macht Fake News so hartnäckig. Selbst wenn eine Falschmeldung mehrfach geteilt wird, steigt ihre Glaubwürdigkeit.
Kritisch ist hier auch die Funktionsweise der heutigen sozialen Medien und Algorithmen, die diesen Effekt durch Echokammern und wiederholtes Ausspielen von Schlagzeilen in den “Feeds” noch verstärken.
Confirmation Bias - wir sehen, was wir wollen
Ich habe diesen Effekt bereits in früheren Blogs erwähnt, daher fasse ich mich kurz: Menschen bevorzugen Informationen, die ihre bestehenden Überzeugungen bestätigen und ignorieren widersprechende Fakten.
Seit Social Media befinden wir uns zunehmend in Echokammern und auch die Interaktion mit KI-Chatbots lässt wenig kritische Argumente in unser virtuelles Blickfeld. In unserer selbst geschaffenen Echokammer, werden unsere Überzeugungen verstärkt, anstatt uns auch einmal Gegenargumente zu zeigen.
Vielleicht ist euch dieser Effekt schon einmal in einer Diskussion mit jemandem aufgefallen. Ihr erinnert euch ganz genau an die Fakten, aber die andere Person erinnert sich an einen ganz anderen Teil des Gesprächs. Wir erinnern uns auch selektiv an die Informationen, die unsere Position stärken und ignorieren aktiv die widersprüchlichen Informationen.
Emotionale Ansteckung, Negativitätsbias und Sensationslust
Unser Gehirn ist darauf ausgerichtet, Gefahren wie schlechte Nachrichten schnell wahrzunehmen. Früher war das lebenswichtig, um Bedrohungen zu erkennen. Heute macht es uns jedoch anfälliger für beunruhigende Falschmeldungen.
Der Negativitätsbias ist eine Art Denkmuster und beschreibt unsere Tendenz negative Informationen zu bevorzugen. Das macht uns anfälliger für Fehlinformationen und wir sind auch eher bereit, solche empörenden oder alarmierenden Inhalte zu verbreiten als neutrale.
In diesem Zusammenhang haben Experimente mit der bewussten Verbreitung von Fake News gezeigt, dass empörende Inhalte dreimal häufiger geteilt wurden als neutrale Nachrichten.
Ein konkretes Beispiel sind virale Wut-Posts. Wer kennt sie nicht, die Posts, bei denen sofort ein Aufschrei durch die Community geht. Hier ein Beispiel aus Corona-Zeiten:
Ein Krankenpfleger kritisierte in seinem Social-Media-Post, dass die Pflegekräfte vor der Corona-Pandemie ungerecht behandelt wurden und dass es scheinheilig sei, dass sie jetzt plötzlich Applaus bekämen.
Der Post war für ihn ein Ventil, um seinem Frust Luft zu machen. Der Beitrag wurde über 115’000 Mal geteilt und erhielt zahlreiche Kommentare. Auch hier ist der Grund in unserem Gehirn zu suchen, wir sind wohl einfach so verdrahtet.
Continued Influence Effekt
Falsche Informationen bleiben durch diesen Effekt in unserem Gedächtnis haften. Wir erinnern uns am stärksten an die erste gespeicherte Version einer Erinnerung. Diese ist tiefer verankert, als wenn wir die neue Information hinzufügen, und die erste Information kann nur schwer überschrieben werden.
Eine typische Äusserung einer Person, die dem Continued Influence Effect unterliegt, lautet: ”Ich weiss zwar, dass die Studie über Impfschäden längst widerlegt ist ... aber irgendwie habe ich immer noch das ungute Gefühl, dass vielleicht doch etwas dran war”.
Unser Gehirn liebt die erste Version einer Geschichte. Ich stelle mir das immer so vor, dass in meinem Gehirn eine neue Schublade angelegt wird, wenn ich etwas zum ersten Mal erfahre. Sie ist dann da, ob ich will oder nicht. Wie zum Beispiel, wenn jemand sagt: “Denk jetzt NICHT an einen rosa Elefanten”. Dann entsteht eine Schublade und ein rosa Elefant schaut heraus.
Es ist schwierig bis unmöglich, diese Schublade zu löschen. Deshalb reichen Fakten oft nicht aus, um diesen Effekt rückgängig zu machen.
Was können wir tun?
Wir können Desinformation nicht völlig verhindern, aber wir können lernen, bewusster mit ihr umzugehen.
Prebunking statt Debunking
Ein Ansatz ist die sogenannte Inokulationstheorie: “Impfen gegen Desinformation”. Sie beruht auf einem präventiven Ansatz.
Wir lernen im Voraus, wie Desinformation funktioniert und sollen sie so schneller erkennen.
Debunking kann leider nur einzelne Fakten korrigieren, daher ist Prebunking effektiver im Kampf gegen Desinformation.
Beispiel für Prebunking:
„Manche behaupten, CO₂ sei harmlos fürs Klima, weil Pflanzen es brauchen.“
➜ Weil wir vorbereitet sind, hat diese Aussage keinen Effekt mehr auf uns.
Vorbeugend wird über Manipulationstechniken aufgeklärt und soll so unser Denken auf Abwehr trainieren. Wir bauen Medienkompetenz auf und informieren uns über Taktiken und Vorgehensweisen der Desinformation.
Beispiel Debunking:
Fake News: „5G-Strahlung verursacht COVID-19.“
Debunking mit Korrektur der Aussage: Viren entstehen nicht durch Radiowellen. COVID-19 wurde in Laboren als natürliches Coronavirus identifiziert.
5 Fragen zur Selbstverifikation
Bevor du einen Inhalt weiterleitest oder kommentierst, hilft ein kurzer Faktencheck. Stell dir diese fünf Fragen:
Besonders bei emotionalen Inhalten lohnt es sich, einmal durchzuatmen. Nicht alles, was empört, verdient Reichweite.
Was Organisationen tun sollten
Auch für Unternehmen ist es wichtig, sofort zu wissen, welche Desinformationen über sie verbreitet werden.
Monitoring von Desinformationen über die eigene Marke
Frühe Kommunikation, bevor sich falsche Narrative verfestigen
Transparente und klare Gegenargumente, ohne moralischen Zeigefinger
So kann möglichst früh gegengesteuert werden, bevor sich die Informationen verfestigt haben und so weit verbreitet sind, dass sie kaum noch zu entkräften sind.
Bewusst teilen
Lügen gab es schon immer. Aber noch nie war es so einfach, diese schnell zu verbreiten und damit eine Wirkung zu erzielen. Empörung zahlt sich in sozialen Medien aus. Algorithmen mögen Aufregung.
Falsche Infos verändern Meinungen wie spalten Gesellschaften. Oft geschieht das langsam wie unbemerkt.
Wir sind nicht machtlos.
Wir können aufmerksam, bewusst und neugierig bleiben. Mit dem Wissen über diese psychologischen Effekte fangen wir an, unser Denken zu hinterfragen, ohne uns selbst zu misstrauen.
Eventuell reicht schon der kurze Moment vor dem Teilen, in dem wir fragen: "Klingt das nur vertraut, oder stimmt es wirklich?"
Was meint ihr??
Bis bald!
Jill
Referenzen
„Illusory Truth Effect | EBSCO Research Starters“. Zugegriffen 5. April 2025. https://www.ebsco.com/research-starters/psychology/illusory-truth-effect.
Hasher, Lynn, David Goldstein, und Thomas Toppino. „Frequency and the conference of referential validity“. Journal of Verbal Learning & Verbal Behavior 16, Nr. 1 (1977): 107–12. https://doi.org/10.1016/S0022-5371(77)80012-1.
„Bestätigungsfehler“. In Wikipedia, 23. Januar 2025. https://de.wikipedia.org/w/index.php?title=Best%C3%A4tigungsfehler&oldid=252559221.
„Weiterverbreitung von Online-Inhalten, die Empörung hervorrufen“, 28. November 2024. https://www.sciencemediacenter.de/angebote/weiterverbreitung-von-online-inhalten-die-empoerung-hervorrufen-24176.
McLoughlin, Killian L., William J. Brady, Aden Goolsbee, Ben Kaiser, Kate Klonick, und M. J. Crockett. „Misinformation exploits outrage to spread online“. Science 386, Nr. 6725 (29. November 2024): 991–96. https://doi.org/10.1126/science.adl2829.
brigitte.de. „‚Was zur Hölle stimmt mit euch nicht?‘ Wut-Post eines Krankenpflegers zu Corona geht viral“, 2. April 2020. https://www.brigitte.de/aktuell/gesellschaft/corona-aktuell--wut-post-eines-krankenpflegers-geht-viral-11760064.html.
Ecker, Ullrich K. H., und Luke M. Antonio. „Can You Believe It? An Investigation into the Impact of Retraction Source Credibility on the Continued Influence Effect“. Memory & Cognition 49, Nr. 4 (1. Mai 2021): 631–44. https://doi.org/10.3758/s13421-020-01129-y.
Jarrette, Kainan, und Nina Kotova. „Debunking and Prebunking: An Overview“. Zugegriffen 20. März 2025. https://opentextbooks.library.arizona.edu/immersivetruth/chapter/1242/.
„Inoculation Theory“. In Wikipedia, 15. Januar 2025. https://en.wikipedia.org/w/index.php?title=Inoculation_theory&oldid=1269496521.
„(PDF) Fehler Des Quellengedächtnisses“. ResearchGate, 22. Oktober 2024. https://doi.org/10.15358/0344-1369-2006-2-79.