Widerlegen, aber richtig - Teil 4 - Der Weltanschauungs-Bumerang-Effekt
Aktualisierung 21.11.2020: Es gibt eine neue und komplett überarbeitete Version des Handbuchs unter dem Titel "Widerlegen, aber richtig 2020", da es seit der ersten Auflage zahlreiche neue Forschungsergebnisse gegeben hat. Die Zeit war deshalb reif für eine vollständige Überarbeitung dieses sehr populären Handbuchs.
"Widerlegen, aber richtig" wurde von John Cook und Stephan Lewandowsky geschrieben. Es existieren zahlreiche psychologische Studien über Falschinformationen. Unglücklicherweise gibt es jedoch keine Zusammenfassung der Literatur, die praktische Regeln enthält, was die effektivsten Methoden sind, den Einfluss von Falschinformationen zu minimieren. Dieses Handbuch fasst die Erkenntnisse kurz und leicht verständlich zusammen und wendet sich an alle Kommunikatoren in vielen Bereichen (nicht nur zum Thema Klimawandel), die auf Falschinformationen stoßen. Das komplette Handbuch kann auch kostenlos als PDF-Datei heruntergeladen werden.
Der dritte und wahrscheinlich gefährlichste Bumerang-Effekt tritt auf, wenn es um Themen im Zusammenhang mit der Weltanschauung und kultureller Identität von Menschen geht. Unterschiedliche Denkprozesse können dazu führen, dass Menschen unbewusst Informationen verzerrt verarbeiten. Wenn Personen, deren Ansichten sehr fest verwurzelt sind, mit Gegenargumenten konfrontiert werden, kann dies zu einer Verstärkung von diesen Ansichten führen.
Ein Denkprozess, der zu diesem Effekt beiträgt, ist unsere Tendenz, Informationen auszuwählen, die unsere bereits bestehenden Ansichten untermauern. Der Begriff dafür lautet Bestätigungstendenz. In einem Experiment erhielten Versuchspersonen Informationen zu heiß diskutierten Themen wie Schusswaffenkontrolle oder die Förderung von Minderheiten. Jede Teilinformation war mit ihrer Quelle gekennzeichnet, wodurch klar war, ob die Information pro oder contra Stellung bezieht (z. B. die National Rifle Association („Nationale Schusswaffenvereinigung“) versus Bürger gegen Handfeuerwaffen. Obwohl die Probanden dazu aufgefordert wurden, unparteiisch zu bleiben, entschieden sie sich für die Quellen, die ihren bestehenden Ansichten entsprachen. Die Studie fand auch heraus, dass - selbst wenn den Probanden ausgeglichene Fakten präsentiert wurden - sie bereits bestehende Ansichten verstärkten in dem sie sich zu der Information hingezogen fühlten, mit der sie schon übereinstimmten. Die Polarisierung war bei denen am stärksten ausgeprägt, die die stärksten Ansichten hatten.1
Was passiert aber wenn man diese Auswahlmöglichkeit entfernt und jemandem nur Argumente zur Verfügung stellt, die seinen Ansichten zuwider laufen? In diesem Fall kommt die Widerlegungstendenz zum Tragen, also das Gegenteil von der Bestätigungstendenz. Dabei verbringen die Personen deutlich mehr Zeit und Nachdenken damit, aktiv gegen diese gegenläufigen Argumente zu argumentieren.2
Demonstriert wurde dies, als Republikanern, die glaubten, dass Saddam Hussein mit den Terrorangriffen des 11. Septembers zu tun hatte, Beweise zur Verfügung gestellt wurden, die belegten, dass es keine Verbindung gab, darunter auch ein Zitat des Präsidenten George Bush. Nur 2% der Teilnehmer änderten ihre Meinung, obwohl interessanterweise 14% verneinten, dass sie an diese Verbindung zu Beginn überhaupt geglaubt hatten. Die überwiegende Mehrheit klammerte sich an die Verbindung zwischen dem Irak und dem 11. September, in dem sie eine Vielzahl von Argumenten benutzten, um die Beweise beiseite zu wischen. Die häufigste Reaktion war eine Verstärkung der Haltung – durch die Erinnerung an unterstützende Fakten und gleichzeitigem Ignorieren gegenteiliger Fakten. Der Prozess, sich unterstützende Fakten zu vergegenwärtigen, führte bei diesen Personen zu einer Verstärkung von falschen Überzeugungen.
Wenn Fakten eine Person nicht von vorgefertigten Meinungen abbringen können - wenn sie sogar manchmal alles noch schlimmer machen - wie können wir dann überhaupt den Effekt von Falschinformation verringern? Es gibt zwei Hoffnungsschimmer.
Zum einen ist der Bumerang-Effekt der Weltanschauung bei den Personen am stärksten, die bereits sehr verfestigte Ansichten haben. Deshalb hat man bei denjenigen, die noch keine ganz eindeutige Meinung zu kontrovers diskutierten Themen haben, eine größere Chance, Falschinformationen zu korrigieren. Dies legt den Schluss nahe, dass es mehr bringt, sich mit Öffentlichkeitsarbeit an die noch unentschlossene Mehrheit zu wenden, anstatt an die nicht erreichbare Minderheit.
Zum anderen können die Informationen so präsentiert werden, dass die üblichen psychologischen Widerstände verringert werden. Wenn zum Beispiel Informationen, die eine Weltanschauung bedrohen, mit sogenannter Selbstbestätigung kombiniert werden, sind Menschen eher in der Lage, Pro und Kontra einer Information abzuwägen.4,5
Selbstbestätigung kann dadurch erreicht werden, dass man Menschen bittet, ein paar Sätze über einen Zeitpunkt aufzuschreiben, als sie sich gut fühlten, weil sie nach Werten, die ihnen wichtig waren, handelten. Diese Personen waren danach empfänglicher für Informationen, die ansonsten ihre Weltanschauung gefährden könnten, als Personen, die keine Selbstbestätigung erfahren hatten. Interessanterweise ist dieser Effekt der Selbstbestätigung bei denen am ausgeprägtesten, bei denen ihre Ideologie zentral für ihr Selbstwertgefühl ist.
Eine andere Möglichkeit, Informationen akzeptierbarer zu machen, ist sie so “einzurahmen”, dass sie weniger bedrohlich für die Weltanschauung der Person sind. Republikaner akzeptieren viel eher ansonsten gleichwertige Kosten, wenn sie als “CO2 Abgabe” anstatt als Steuer bezeichnet werden. Bei Demokraten und Unabhängigen hat die Wortwahl kaum einen Effekt - weil ihre Werte nicht durch das Wort “Steuer” herausgefordert werden.6
Bei Selbstbestätigung und Einrahmung geht es nicht um die Manipulation von Menschen. Diese Techniken geben den Fakten aber eine echte Chance.
Quellangaben
- Taber, C. S., & Lodge, M. (2006). Motivated skepticism in the evaluation of political beliefs. American Journal of Political Science, 50, 755–69.
- Nyhan, B., & Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32, 303-330.
- Prasad, M., Perrin, A. J., Bezila, K., Hoffman, S. G., Kindleberger, K., Manturuk, K., et al. (2009). “There Must Be a Reason’’: Osama, Saddam, and Inferred Justification. Sociological Inquiry, 79, 142-162.
- Cohen, G. L., Sherman, D. K., Bastardi, A., Hsu, L., & McGoey, M. (2007). Bridging the Partisan Divide: Self-Affirmation Reduces Ideological Closed-Mindedness and Inflexibility in Negotiation. Personality & Soc. Psych., 93, 415-430.
- Nyhan, B., & Reifler, J. (2011). Opening the Political Mind? The effects of self-affirmation and graphical information on factual misperceptions. In press.
- Hardisty, D. J., Johnson, E. J. & Weber, E. U. (1999). A Dirty Word or a Dirty World?: Attribute Framing, Political Affiliation, and Query Theory, Psychological Science, 21, 86-92
Translation by BaerbelW. View original English version.