Bestätigungsfehler

aus Wikipedia, der freien Enzyklopädie

Ein Bestätigungsfehler (auch Bestätigungstendenz oder Bestätigungsverzerrung, engl. confirmation bias) ist ein Begriff der Kognitionspsychologie, der die Neigung bezeichnet, Informationen so auszuwählen, zu ermitteln und zu interpretieren, dass diese die eigenen Erwartungen erfüllen (bestätigen). Die erste Theorie zu dieser kognitiven Verzerrung stammt von Peter Wason (1960, 1968).[1][2]

Definition und Merkmale

Bis in die 1960er Jahre war die Frage nach der Auswahl und Bewertung von Daten zur Überprüfung von Hypothesen eine Frage der Wissenschaftstheorie. Wason, beeinflusst von Karl Popper und seiner Lehre des Falsifikationismus, vertrat die Auffassung, dass die Menschen dazu neigen, bestehende Hypothesen zu bestätigen. Diese Strategie nannte er confirmation bias („Bestätigungsneigung“) und stellte ihr eine „richtige“ Teststrategie, die disconfirming evidence („widerlegende Hinweise“), gegenüber. Allgemein liegt ein Bestätigungsfehler vor, wenn Hypothesen unabhängig von ihrem Wahrheitsgehalt durch die Auswahl, das Erinnern und das Interpretieren von Informationen eher bestätigt werden.

Wason entwickelte mehrere denkpsychologische Experimente. Obwohl in den folgenden Jahren viele weitere Experimente die einfache Annahme der Existenz eines systematischen Bestätigungsfehlers stark in Zweifel gezogen haben, ist die Annahme, dass Menschen danach streben, ihre eigenen Hypothesen zu bestätigen, nicht nur unter Laien weit verbreitet. Die Bestätigung von Hypothesen erstreckt sich auf die kognitiven Funktionen Erinnern, Wahrnehmen, Interpretieren und Anwenden von Suchstrategien. Die kognitionspsychologische Forschung konzentriert sich auf die Auswahl der Information.

Hauptsächlich können Bestätigungsfehler ermittelt werden, wenn die zu prüfende Theorie schon fest etabliert ist oder wenn die zu bestätigende Erwartung mit einem positiven Gefühl belegt oder auf eine andere Art erstrebenswert ist. Andererseits wird eine Erwartungsbestätigung im Alltag auch oft angestrebt, wenn die Erwartung selbst nicht angestrebt wird. Trope und Liberman (1996) stellen deshalb die Kosten von fehlerhaften Entscheidungen bei ihren Experimenten in den Vordergrund. Allgemein wollen die Menschen demnach die hohen Kosten von Fehlentscheidungen vermeiden. Dabei spielt es keine Rolle, ob eine Hypothese durch Informationen bestätigt oder widerlegt werden soll.[3]

Bestätigende Informationen werden unter anderem bevorzugt, wenn

  • passende Informationen besser in Erinnerung bleiben,
  • passende Informationen höher gewertet werden als gegensätzliche,
  • Informationsquellen für unpassende Informationen gemieden werden.[4]

Positive Teststrategie

Joshua Klayman und Young-Won Ha (1987) haben die allgemeine Definition eines Bestätigungsfehlers von der sogenannten positiven Teststrategie (PTS) unterschieden. Sie ist eine allgemeine Strategie zum Testen von Hypothesen. Dabei werden nur Werte oder Ereignisse überprüft, die schon in der Vergangenheit aufgetreten sind oder die erwartet werden.[5] Einige Autoren reduzieren die Beschreibung einer positiven Teststrategie auf die Aussage: „Menschen haben die Tendenz, nur nach Hinweisen zu suchen, die ihre Meinung bestätigen.“ Es hat sich in Forschungen aber gezeigt, dass diese einfache Aussage nicht haltbar ist und eine PTS nur in Ausnahmefällen zu einem Bestätigungsfehler führt.

So ist eine positive Teststrategie eine heuristische Methode, um die Menge aller möglichen Untersuchungsparameter auf eine plausible und praktikabel überprüfbare Auswahl zu begrenzen. Deshalb kann sie sehr effektiv und ihre Anwendung rational sein. Zudem ermöglicht die PTS auch die Falsifikation der geprüften Hypothese. Deshalb führt ihre Anwendung auch nicht zu einem systematischen Bestätigungsfehler. Dieser stellt sich nur ein, wenn die nach der PTS gewählten Daten eine Teilmenge der „korrekten“ Daten, die zur „korrekten“ Hypothese gehören, sind. In diesem Fall wird durch PTS immer wieder eine nicht korrekte Hypothese bestätigt. Es hat sich zudem gezeigt, dass Probanden eher dazu neigen, zustimmende Antworten zu geben. Die treffendere Aussage ist demnach: „Menschen neigen dazu, Prüfungsfragen so zu formulieren, dass ihre Annahmen bestätigt werden, falls die Antworten zustimmend sind.“[6]

Selektives Erinnern

Wer bereits eine feste Meinung zu einem Thema hat, erinnert sich nach einer Diskussion darüber sowohl an die Argumente für die eigene Position als auch an die Argumente für die gegnerische Position.[7] Es gibt keine eindeutigen Hinweise, dass man sich an Informationen, die die eigenen Annahmen bestätigen, besser erinnert als an Informationen, die die eigenen Annahmen widerlegen.[8]

Siehe auch

Literatur

  • Hugo Mercier: Confirmation bias – Myside bias, in: Rüdiger F. Pohl (Hrsg.): Cognitive illusions: Intriguing phenomena in thinking, judgment and memory. 2. Auflage. Routledge, London and New York 2017, ISBN 978-1-138-90341-8, S. 99–114.
  • Fenna H. Poletiek: Hypothesis-testing behaviour. Psychology Press, Philadelphia 2001.
  • Peter Wason: On the failure to eliminate hypotheses in a conceptual task. In: Quarterly Journal of Experimental Psychology, Band 12, 1960, ISSN 0033-555X, S. 129–140.
  • Peter Wason: Reasoning about a rule. In: Quarterly Journal of Experimental Psychology, Band 20, 1968, ISSN 0033-555X, S. 273–281.

Fußnoten

  1. Denkforschung: Ein Überblick ausgewählter Ideendefekte, PDF-Datei, S. 2.
  2. Peter Wason: Reasoning about a rule. In: Quarterly Journal of Experimental Psychology, Band 20, 1968, ISSN 0033-555X, S. 273–281.
  3. Yacoov Trope, Akiva Liberman: Social hypothesis testing: Cognitive an motivational mechanisms. In: E. Tory Higgins, Ariel W. Kruglanski (Hrsg.): Social psychology. Handbook of basic principles. Guilford Press, New York 1996, S. 239–270.
  4. Rüdiger F. Pohl: Cognitive illusions; A handbook on fallacies and biases in thinking, judgement and memory. Psychology Press, Taylor and Francis Group, Hove (UK) and New York 2004, S. 93.
  5. Joshua Klayman, Young-Won Ha: Confirmation, disconfirmation, an information in hypothesis testing. In: Psychological Review. Band 94, 1987, S. 211–228.
  6. Rüdiger F. Pohl: Cognitive illusions: A handbook on fallacies and biases in thinking, judgement and memory. Psychology Press, Taylor and Francis Group, Hove (UK) and New York 2004, S. 79–87.
  7. Kari Edwards, Edward E. Smith: A disconfirmation bias in the evaluation of arguments. In: Journal of Personality and Social Psychology. Band 71, Nr. 1, 1996, ISSN 0449-2935, S. 5–24.
  8. Charles Stangor, David McMillan: Memory for expectancy-congruent and expectancy-incongruent information: A review of the social and social development literatures. In: Psychological Bulletin. Band 111, Nr. 1, 1992, S. 42–61.