Die besten Psychologie-Bücher: Being Wrong

Being Wrong

 

Keiner liegt gern daneben, und doch passiert es uns immer wieder. Being Wrong ist ein klasse Buch, in dem wir viel darüber lernen können, falsch zu liegen – und das Beste daraus zu machen. Genau so sieht es auch der frühere US-Präsident Bill Clinton, dessen Zitat das Buchcover schmückt:

„If you want to feel better about not being perfect and see the potential upside in your errors, read Being Wrong by Kathryn Schulz.“ (Bill Clinton)

 

Das Buch unterteilt sich in 4 große Abschnitte:

1) The Idea of Error

2) The Origins of Error

3) The Experience of Error

4) Embrace Error

 

Teil 1: The Idea of Error

Recht zu haben und richtig zu liegen ist nicht nur wichtig für unser Überleben und unser Ego, sondern auch ganz allgemein etwas sehr angenehmes im Leben. Fehler dagegen empfinden wir als ernüchternd oder peinlich. Aber vielleicht liegen wir falsch mit dem, was wir über unsere Fehler denken. Vielleicht sind es gerade unsere Fehler, die uns lehren, wer wir wirklich sind.

In unserer Kultur ist es schwer, zu sagen, „Ich liege falsch“. Fehler werden als etwas Böses angesehen. Wir möchten gern recht haben und recht behalten. Doch selbst die brilliantesten Denker und Wissenschaftler haben falsch gelegen, manchmal sogar völlig daneben. Außerdem sind manche Dinge schwer zu beurteilen und stark subjektiv – was ist „richtig“ und was „falsch“? Wenn wir sagen, dass jemand falsch liegt, bedeutet dass, dass wir dessen Verständnis darüber widersprechen, wie die Welt wirklich ist. Aber vielleicht liegen wir auch selbst falsch und können dies nur nicht erkennen.

Im Buch wird ein schönes Beispiel beschrieben, wie uns Fehler bewusst werden: Wie der Coyote in den Road Runner Cartoons rennen wir über die Klippe, laufen in der Luft weiter ohne es zu merken, schauen dann nach unten und stellen plötzlich fest, dass wir nicht mehr auf dem Weg laufen, den wir erwartet haben. Wir realisieren unseren Fehler und fallen in die Tiefe.

Die meisten Menschen beschäftigen sich nicht mit ihren Fehlern. Sie verbuchen sie unter „peinliche Momente“, „gelernte Lektionen“ und „Dinge, die ich mal geglaubt habe“. Mit diesen Tricks schaffen wir es, die Fehler, die immer wieder passieren, nicht als Teil unserer selbst anzusehen.

Dabei sind Fehler etwas ganz Natürliches, und sogar etwas Gutes. Sie sind die Grundlage unserer Intelligenz, Individualität und persönlichen Veränderungen. Und die Grundlage des Fortschritts. Denn früher oder später kann jede Theorie widerlegt werden. Wenn das passiert, ist das ein Erfolg der Wissenschaft, und nicht deren Scheitern. Alte Theorien schaffen Platz für neue. Schritt für Schritt nähern wir uns so der Wahrheit.

Es ist wie in einem Traum: Wenn wir träumen, sehen wir das, was passiert, als real an. Dann wachen wir auf und erkennen unsere Fehleinschätzung. Ganz ähnlich in unserem Leben – in der fernen Zukunft können wir leicht unsere heutigen Fehler erkennen, als wäre es damals nur ein Traum gewesen.

„Being right might be gratifying, but in the end it is static, a mere statement. Being wrong is hard and humbling, and sometimes even dangerous, but in the end it is a journey, and a story. Who really wants to stay home and be right when you can don your armor, spring up on your steed and go forth to explore the world?“ [1, S. 42-43]

 

Teil 2: The Origins of Error

Das Buch beschreibt ein Beispiel, wie dem Seefahrer John Ross im Jahr 1818 ein verheerender Fehler unterlief. Seit hunderten Jahren suchte man nach einer Durchfahrt der Nordwestpassage, und Ross hatte sie bei der Meerenge Lancaster Sound fast gefunden – wurde aber dann durch ein optisches Phänomen irregeleitet. Er sah Berge am Horizont, die überhaupt nicht da waren, und kehrte um. Er nannte sie „Croker’s Mountains“. [2] Wäre er weiter gefahren, er hätte sie nie erreicht.

Doch wenn wir unseren Sinnen nicht trauen können – wie können wir dann unserem Wissen trauen? Das Buch zeigt auf Seite 58 eine erstaunliche Grafik, die zeigt, wie wir völlig daneben liegen können:

 

Die Quadrate A und B haben exakt den gleichen Grauton. Aber die Art und Weise, wie unser Gehirn die Wahrnehmung unserer Sinne interpretiert, lässt es uns ganz anders erscheinen, als es wirklich ist. [1, S. 58]

Die Quadrate A und B haben exakt den gleichen Grauton. Aber die Art und Weise, wie unser Gehirn die Wahrnehmung unserer Sinne interpretiert, lässt es uns ganz anders erscheinen, als es wirklich ist. [1, S. 58]

 

Ich konnte es selbst kaum glauben. Aber wenn du es ausschneidest und nebeneinanderschiebst, ist es tatsächlich der gleiche Grauton. Das entscheidende dabei: Selbst dann, wenn wir wissen, dass es eine Illusion ist, unterliegen wir ihr trotzdem. Jedes Mal. Jeder von uns.

Solche Fehler sind eine gute Sache. Sie helfen uns, zu verstehen, wie unsere Wahrnehmung wirklich funktioniert. Zwar mögen wir bei einer Fata Morgana genauso wie John Ross damals falsch liegen – aber in 99,99% aller Fälle arbeitet unsere Wahrnehmung perfekt, wenn esdarum geht, die Größe von etwas in Relation zu dessen Entfernung zu setzen.

Wenn wir jedes Mal hinterfragen würden, was wir wahrnehmen, wären wir handlungsunfähig. Unsere automatischen Wahrnehmungsprozesse sind daher eine gute Sache, um Details ausblenden und überhaupt Entscheidungen treffen zu können. Man nennt dies auch „Inattentional Bias“. Dennoch schadet es nicht, einige Fälle zu kennen, in denen wir nachweislich durch unsere Sinne getäuscht werden.

Spannend ist zum Beispiel das sogenannte „Anton Syndrom“ [3]. Dabei ist sich eine blinde Person nicht dessen bewusst, dass sie blind ist. Unvorstellbar, aber wahr. Und genau das ist die Metapher dafür, wie es uns allen geht, wenn wir falsch liegen – wir denken, dass wir die Dinge richtig erkannt haben, sind aber in Wirklichkeit blind für unsere Fehler. Wir können uns also nie absolut sicher sein, wirklich und unter allen Umständen richtig zu liegen. Aus philosophischer Sicht ist es ohnehin schwer, festzulegen, was wir eigentlich wirklich wissen.

Was wir häufig empfinden, ist nur Gefühl oder die innere Überzeugung, recht zu haben. Sogar unsere eigenen Erinnerungen verschwimmen mit der Zeit und können rückblickend völlig falsch sein – wir erinnern uns an etwas anderes, als damals wirklich war. Berichte über das, was Menschen zum Beispiel am Tag der Terroranschläge in den USA, am 11. September 2001, getan haben, sind häufig nicht korrekt – und dennoch glauben wir, ganz genau zu wissen, was wir an diesem Tag gemacht haben, da wir lebhafte innere Bilder davon haben. Es kann sogar sein, dass wir uns an Dinge erinnern, die nie passiert sind, wenn wir es uns lange genug eingeredet haben (implanted „memories“).

„But the point here is not that we are bad at saying ‚I don’t know.‘ The point is that we are bad at knowing we don’t know.“ [1, S. 82]

 

Wir haben keine abschließende Methode, um zu wissen, was wir wirklich wissen und was nicht. Das, was unsere Intelligenz ausmacht, ist eher unser Glaube an das, was wir wissen und mit dem wir uns in der Welt bewegen. Diese Beliefs sind gleichzeitig die Quelle für Fehler. Um zu verstehen, wie und warum wir uns irren, müssen wir verstehen, warum wir was glauben. Ein Belief war zum Beispiel, dass sich die Finanzmärkte von selbst regulieren. Ein Fehler, wie wir im Jahr 2008 gesehen haben. Es basiert alles nur auf Modellen und Annahmen, an die wir glauben. Und es kommt darauf an, sich dessen bewusst zu sein.

Unsere Beliefs bestimmen unsere Idendität. Wir stellen ständig (unbewusst) Theorien auf, wie etwas sein könnte und verfeinern unser eigenes Modell, wie die Welt funktioniert. Und da wir bestimmte Dinge glauben, ist es oft auch innerlich verletztend, wenn wir realisieren, dass wir falsch lagen.

Kleine Kindern denken sogar immer, dass ihre Beliefs mit der tatsächlichen Welt übereinstimmen. Dazu beschreibt das Buch den eindrucksvollen „Sally-Anne test“ [4]. Die Kinder können demnach noch nicht zwischen der individuellen Perspektive und der wirklich Realität unterscheiden und kennen nur eine Wahrheit.

„When other people reject our beliefs, we think they lack good information. When we reject their beliefs, we think we posses good judgement.“ [1, S. 107]

 

Wenn andere nicht mit uns übereinstimmen, gibt es drei Modelle, mit denen wir deren Standpunkt herabzusetzen versuchen:

● Ignorance Assumption: Die anderen haben nicht die richtigen Informationen, sonst würden sie auch zu unserer Interpretation gelangen.

● Idiocy Assumption: Die anderen kennen die Fakten, aber haben kein ausreichendes Verständnis, diese richtig zu interpretieren.

● Evil Assumption: Die anderen kennen die Fakten und verstehen sie richtig, aber möchten bewusst nicht von ihrem Standpunkt abweichen.

 

Diese Wege sind Sackgassen, da sie es uns erschweren, unsere eigenen Fehler zu erkennen. Wenn wir annehmen, dass andere ignorant, dumm oder böse sind und daher bestimmte Dinge glauben – dann kein Wunder, dass wir lieber nicht unsere eigenen Fehler entdecken möchten.

Dabei glaubt jeder von uns Dinge auf Basis völlig unzureichender Fakten oder Beweise. Vieles davon ist sogar in hohem Maße zufällig: wo wir geboren wurden, was unsere Eltern glaubten, und was wir in unserer Kindheit gelernt haben. Diese Dinge prägen unser Weltbild massiv.

Ein Computer, der objektiv und rational abwägt, könnte bei vielen Dingen zu keinem klaren Ergebnis kommen. Wir Menschen allerdings haben keine Probleme, uns eine Realität zu zaubern, die uns – auf Basis unserer Erfahrungen – halbwegs wahrscheinlich erscheint (inductive reasoning). Das ist die Quelle unserer Fehler. Aber es ist auch die Quelle unseres Denkens. Es ist die Quelle für richtig und falsch. Da wir oft nur auf Basis unserer Erfahrungen entscheiden, sieht es im Nachhinein oft ziemlich dumm aus, wenn wir falsch lagen. Daher versuchen wir (unbewusst), mittels des Conformation Bias Informationen, die unserer Einschätzung widersprechen, zu ignorieren.

„The decisions of other people convey information about what really should be done.“ (Cass Sunstein)

 

Das Problem an der Idee, immer selbst nachzudenken, ist, dass wir das niemals schaffen würden. Erst, indem wir auf Informationen aus zweiter Hand vertrauen, wird unser Leben effizient und interessant. Statt Informationen zu vertrauen, weil wir die Quelle überprüft haben, sollten wir bestimmten Quellen vertrauen, und deren Informationen akzeptieren. Und meist sind das Menschen, die ähnlich denken wie wir selbst. Wir glauben oft automatisch Menschen, denen wir vertrauen, und stellen andere infrage, wie wir nicht kennen oder die uns widersprechen.

„One of the quickest ways to find out if you are wrong is to state what you believe.“ (Penn Jillette)

 

Innerhalb einer Gruppe kann unsere eigene Wahrnehmung verzerrt werden. Eine abweichende Einschätzung der Gruppe beeinflusst das, was wir sehen wollen oder können – oftmals unbewusst. Das Buch beschreibt dazu das Beispiel der Verweigerung des Frauenwahlrechts im Schweizer Kanton Appenzell bis zum Jahr 1990 (!) [5]. Was in Gruppen oftmals am schwierigsten ist, ist nicht, der Gruppenmeinung nicht zu folgen – sondern von einem „Gläubigen“ zu einem „Ungläubigen“ zu werden. Der Grund: Es fühlt sich für die Gruppe wie Verrat aus den eigenen Reihen an, der das gesamte Paradigma an „Wahrheit“ unter den Gruppenmitgliedern zerstören kann.

„Properly speaking, there is no certainty; there are only people who are certain. (Charles Renouvier)

 

In der Geschichte gab es viele Beispiele für absolute, feste Überzeugungen. Regimes, in denen abweichende Meinungen schnell mit Gewalt beantwortet wurden. Aus heutiger Sicht ist das klar zu verurteilen. Und doch steckt es in jedem von uns, wenn wir die Sicherheit und Überzeugung anderer, die unsere Meinung nicht teilen, kritisieren – denn genauso kritisieren uns umgekehrt auch andere, die unsere Meinung nicht teilen. Es ist eine Frage der Perspektive.

Viele Menschen empfinden Sicherheit als etwas wunderbares. Sie war und ist ein evolutorischer Vorteil, lässt unsere Umwelt als stabil erscheinen und uns sicher darin fühlen. Sie gibt uns ein Gefühl von Stärke, Intelligenz und Kontrolle. Wir schätzen sie bei den Anführern in unserer Welt, die sich keine Zweifel anmerken lassen, denn so fühlen wir uns auch sicherer.

Und dennoch ist unerschütterliche Sicherheit gefährlich. Denn oft verwechseln wir das Gefühl von Sicherheit mit der Tatsache, recht zu haben. Aber egal, wie sicher wir uns bei etwas sind, wir können damit trotzdem falsch liegen – und genau davor haben wir Angst.

„Our commitment to an idea is healthiest when it is not without doubt, but in spite of doubt.“ (Rollo May)

 

Teil 3: The Experience of Error

In dem Moment, in dem wir feststellen, dass wir falsch liegen, haben sich unsere Beliefs bereits verändert. In der Wissenschaft passiert das oft erst dann, wenn ein neues, besseres Modell existiert, welches das alte ersetzt. Man ist sich absolut sicher, dass etwas richtig ist, bis zu dem Moment, ab dem man sich absolut sicher ist, dass etwas anderes richtig ist. Wenn wir allerdings unsere Fehler erkennen, ohne neue Ersatz-Beliefs zu haben, sehen wir auch unsere eigene Idendität plötzlich als unsicher, unbekannt und neu an.

„Perhaps the chief thing we learn from being wrong is how much growing up we still have to do.“ [1, S. 191]

 

Je mehr wir in unsere Beliefs investiert haben, desto schwieriger wird es, diese zu überwinden. Diese Sunk Costs sind der Grund dafür, warum wir uns dagegen wehren, falsch zu liegen. Wir möchten uns nur ungern mit wenig Sicherheit und vielen Emotionen allein gelassen fühlen. Viele Menschen, die nach außen hin extrem überzeugend wirken, schützen damit nur ihr Selbst – sie können sich nicht verbiegen, aus Angst, zu zerbrechen. Jedem von uns geht es hin und wieder so.

Und dennoch sind Fehler auch etwas Gutes. Wer sie nicht erlebt hat, hat nicht wirklich gelebt. Ja, sie können dich verletzen. Aber der einzige Weg, dich davor zu schützen, ist, dich vor neuen, spannenden Erfahrungen und interessanten Menschen abzuschotten.

Ein besonderes Phänomen sind Rechtfertigungen bei verfehlten Prophezeiungen. Statt den Glauben daran zu erschüttern, ist es oft sogar so, dass er dadurch gestärkt wird. Ein Beispiel sind Religionsgruppen wie zum Beispiel die Adventisten oder Börsianer mit Marktprognosen. Genauso versucht jeder von uns hin und wieder, Gesicht zu wahren, wenn etwas anders verläuft als erwartet, statt den Fehler einfach zuzugeben:

● Time-frame defense: Die Prognose stimmt – nur wird sie wohl erst zu einem späteren, undefinierten Zeitpunkt eintreten

● Near-miss defense: Die Prognose trat nicht ein wie erwartet, aber es wäre beinahe passiert (wenn ich nicht falsch gelegen hätte, hätte ich richtig gelegen)

● Out-of-left-field defense: Die Prognose wäre eingetreten, aber ein unvorhersehbares Ereignis hat den natürlichen Verlauf der Dinge beeinflusst

● Blaming other people: Die Prognose war falsch, aber nur, weil ich mich auf Leute verlassen habe, die nicht vertrauenswürdig waren

● Better safe than sorry defense: Die Prognose war falsch, aber es war richtig, diesen Fehler zu machen. Es war meine Pflicht, das zu sagen, was ich wirklich geglaubt habe

 

Egal, ob am Aktienmarkt, in der Politik oder bei Glaubensgruppen – diese Techniken werden immer wieder gern eingesetzt. Allerdings so gut wie nie, wenn wir richtig liegen, sondern immer nur zur Verteidigung bei Fehlern, um zum Beispiel unseren Job, unsere Karriere oder unsere Reputation zu schützen. Zudem nutzen wir diese Techniken für uns selbst, aber kritisieren andere, wenn sie sich damit verteidigen.

Im nächsten Abschnitt des Buchs geht es darum, wie Augenzeugen nach Verbrechen die falschen Täter überführt haben. Viele haben später extreme Probleme, sich ihren Fehler einzugestehen – und die Konsequenzen für die betroffenen Personen zu verarbeiten. Ein krasses Beispiel stammt vom Vergewaltigungsopfer Penny Beerntsen, zusammengefasst in 3 Zitaten:

(1) „As soon as I picked out a photo, that became my mental image of my rapist. From that moment on, that’s the face I was remembering, not the face of the man who attacked me on the beach.“

(2) „The day I learned I had identified the wrong person was much worse than the day I was assaulted. My first thought was, ‚I don’t deserve to live.'“

(3) „The most meaningful apology is how you live the rest of your life.“

 

Ein weiteres Gebiet, auf dem wir uns oftmals irren, ist die Liebe. Was wir wirklich über unseren Partner herauszufinden versuchen, ist, ob er uns zutiefst verstehen kann. Doch wir haben keinen direkten Zugang zur inneren Welt eines anderen Menschen – deren Gedanken, Gefühlen, vergangenen Erfahrungen, geheimen Wünschen und tiefsten Überzeugungen.

Wir nehmen daher oft Dinge an, die vielleicht nicht der Realität entsprechen. Studien haben zum Beispiel gezeigt, dass mitunter beide Partner denken, sie würden mehr tun als der andere (im Haushalt, für die Beziehung, etc). Wir sehen uns außerdem selbst als tiefgründige Persönlichkeiten, bei denen das meiste unsichtbar unter der Oberfläche liegt – aber betrachten andere gleichzeitig meist nur von außen und nehmen an, die Person leicht einschätzen zu können.

Man kann sogar den Standpunkt einnehmen, dass die Liebe selbst ein Fehler ist – oder uns zumindest immer wieder Fehler machen lässt. Sie ist subjektiv in unseren Herzen und unserer Kultur vorhanden, aber muss deswegen keineswegs real vorhanden sein. Wenn wir verliebt sind, können wir uns kaum vorstellen, dass wir es einmal nicht mehr sind. Wir sind blind dafür, eventuell falsch zu liegen. Wenn wir dagegen unseren Partner verlassen, dreht die Perspektive, und wir können uns kaum vorstellen, dass wir jemals wirklich verliebt waren.

„You have to ask questions. You have to listen. […] It is hard, excruciatingly hard, to let go of the conviction that our own ideas, attitudes, and ways of living are the best ones.“ [1, S. 271]

 

Wenn jemand seine Beliefs komplett umkrempelt, verändert sich damit oft auch seine Idendität. Umgekehrt gibt es vielleicht überhaupt keine Wahrheit über uns selbst, sondern nur die, die wir uns schaffen. Was wir denken, wer wir sind, das sind wir auch. Und wir müssen akzeptieren, dass wir uns im Lauf unseres Lebens verändern. Oftmals geschieht diese Veränderung, wenn wir Fehler akzeptieren.

Genauso sollten wir auch die Fehler anderer Menschen sehen. Nicht als Zeichen für deren Ignoranz, Dummheit oder Boshaftigkeit. Wir sollten sie so sehen, wie wir sie auch in unserem eigenen Leben wahrnehmen – Fehler sind, so wie wir selbst, einfach menschlich.

 

Teil 4: Embrace Error

Wir können nicht wissen, wo uns der nächste Fehler passieren wird. Nur eines ist gewiss: Er wartet bereits auf uns. Bei Techniken zur Fehlervermeidung wie Six Sigma [6] und ähnlichen Konzepten gibt es meist 3 entscheidende Komponenten:

● Akzeptanz, dass Fehler passieren können

● Offenheit für Ideen von allen Seiten

● Vertrauen auf nachprüfbare Daten

 

Unsere Erfahrung lehrt uns, dass Fehler oft dann passieren, wenn wir nicht fokussiert sind. Wenn wir Dinge tun, die offensichtlich sind oder automatisch ablaufen und wir kaum eine Notwendigkeit sehen, diese Dinge zu überprüfen. Sobald wir denken, bei etwas richtig zu liegen, verengt sich unsere Wahrnehmung und wir beginnen, dem Confirmation Bias zu unterliegen und anderen nicht mehr wirklich zuzuhören.

„Freedom is not freedom if it doesn’t include the right to make mistakes.“ [1, S. 315]

 

Fehler können auch unterhaltsam und humorvoll sein. Diese sogenannte „Superiority Theory“ [7] wird oft von Comedians eingesetzt. Es funktioniert so, dass wir lachen können, wenn wir von außen auf Leute in einer bestimmten Situation blicken können. Die Fehler der Akteure bringen uns zum Lachen, weil deren Fehler sie dumm aussehen lassen – und uns selbst im Vergleich dazu besser. Wir fühlen, dass wir mehr wissen und recht haben als die Akteure in der betrachteten Situation. Es ist eine Aufgabe von Comedy, uns unsere eigenen Fehler auf diese Weise vor Augen zu führen – indem wir darüber lachen können. Oder besser ausgedrückt, indem wir wegen der Fehler lachen können.

„With sufficient distance and dispassion, all wrongness would be amusing.“ [1, S. 325]

 

Es ist das optimistische Modell unserer Fehler, mit dem das Buch schließt. Künstler zeigen uns eine Welt, in der Fehler keine Schande sind und in der wir keine Angst vor ihnen zu haben brauchen. Eine Welt voller Umbrüche, Neuerfindung und Freude. Eine Einladung, unsere Welt voller Fehler zu genießen. Die Kunst ist ein Weg, Empathie zu schaffen und die Welt durch die Augen eines anderen zu sehen.

Falsch zu liegen macht uns nicht nur zu Menschen. Es hilft uns, genau der individuelle Mensch zu sein, der wir sind. Fehler sind nicht nur ein Instrument der Evolution, um Überleben und Veränderung zu schaffen. Für uns als Menschen dienen sie auch unserer sozialen, emotionalen und intellektuellen Evolution.

Denn oft richtig zu liegen macht uns nicht glücklicher – ganz im Gegenteil. Studien haben gezeigt, dass Menschen mit Depressionen oft viel akkuratere Weltbilder haben als nicht depressive Menschen. Depressive liegen mit ihren Einschätzungen häufiger richtig, sind aber unglücklicher.

Umgekehrt kann es uns glücklich machen, falsch zu liegen. Wir fühlen uns jünger, besser aussehend und wichtiger als wir es objektiv wirklich sind. Wir sehen Familie und Freunde als etwas angenehmer als sie sind, schätzen unsere Wohnung oder unser Haus mehr als es vielleicht wert ist, und sehen unsere Arbeit und Hobbies als wichtiger an, als sie in Wirklichkeit sind. Und das alles ist gut so, auch wenn wir damit objektiv vielleicht nicht ganz richtig liegen. Wir biegen die Wahrheit – das gibt uns Sinn im Leben und macht uns und unsere Lieben glücklicher.

Sehen wir unsere Fehler also positiv. Wir können uns immer wieder neu ausrichten und den Glauben an unser Potenzial aufbauen. Wenn wir uns nicht ein bisschen überschätzen würden, was würden wir dann wirklich an bedeutenden Aufgaben in Angriff nehmen?

In diesem Sinne sind alle Fehler letztlich auch eine gute Sache. Wir machen Fehler, weil wir glauben. Weil wir in erster Linie an uns selbst und an unsere Fähigkeiten glauben. Wir bieten unseren Fehlern die Stirn und vertrauen darauf, etwas aus ihnen gelernt zu haben. Und es beim nächsten Mal richtig zu machen.

Quellen:

[1] Schulz, K. (2011), Being Wrong, Adventures in the Margin of Error, Ecco / HarperCollins

[2] Wikipedia, Fata Morgana (mirage), Zugriff am 17.08.2015, https://en.wikipedia.org/wiki/Fata_Morgana_%28mirage%29

[3] Wikipedia, Anton Syndrom, Zugriff am 17.08.2015, https://de.wikipedia.org/wiki/Anton-Syndrom

[4] Wikipedia, Sally-Anne test, Zugriff am 17.08.2015, https://en.wikipedia.org/wiki/Sally%E2%80%93Anne_test

[5] Wikipedia, Kanton Appenzell Innerrhoden, Zugriff am 17.08.2015, https://de.wikipedia.org/wiki/Kanton_Appenzell_Innerrhoden

[6] Wikipedia, Six Sigma, Zugriff am 17.08.2015, https://de.wikipedia.org/wiki/Six_Sigma

[7] Wikipedia, Superiority Theory, Zugriff am 17.08.2015, https://en.wikipedia.org/wiki/Theories_of_humor#Superiority_theory

Schreibe einen Kommentar

Hier kannst du deinen Senf dazugeben :)