Die Uberlegung zu Harvard in: Sowell, Thomas:
Der Overconfidence-Effekt
Pallier, Gerry et al.: »The role of individual differences in the accuracy of confidence judgments«,
Alpert, Marc; Raiffa, Howard: »A progress report on the training of probability assessors«, in: Kahneman, Daniel; Slovic, Paul; Tversky, Amos:
Hoffrage, Ulrich: »Overconfidence«, in: Pohl, Rudiger:
Gilovich, Thomas; Griffin, Dale; Kahneman, Daniel (Hrsg.):
Vallone, R. P. et al.: »Overconfident predictions of future actions and outcomes by self and others«,
Siehe auch: Baumeister, Roy F.:
Warum Overconfidence bei Mannern fur die Evolution wichtig war, siehe die interessante Hypothese bei: Baumeister, Roy F.:
Diskussion zur Overconfidence, insbesondere der Hypothese, dass ein inflationiertes Selbstimage der eigenen Gesundheit forderlich ist, siehe: Plous, Scott:
Social Proof
Cialdini, Robert B.:
Asch, S. E.: »Effects of group pressure upon the modification and distortion of judgment«, in: Guetzkow, H. (Hrsg.):
Die kunstlichen Lacher, siehe: Platow, Michael J. et al. (2005): »It’s not funny if they’re laughing: Self- categorization, social influence, and responses to canned laughter«,
The Sunk Cost Fallacy
Zur Concorde, siehe: Weatherhead, P. J.: »Do Savannah Sparrows Commit the Concorde Fallacy?«,
Arkes, H. R.; Ayton, P.: »The Sunk Cost and Concorde effects: are humans less rational than lower animals?«,
Die Reziprozitat
Cialdini, Robert B.:
Reziprozitat als biologische Kooperation: siehe irgendein Biologie-Grundbuch seit 1990.
Theorie ursprunglich von Robert Trivers: Trivers, R. L. (1971).
Die evolutionarpsychologische Begrundung der Reziprozitat, siehe: Buss, David M.:
The Confirmation Bias (Teil 1)
»What Keynes was reporting is that the human mind works a lot like the human egg. When one sperm gets into a human egg, there’s an automatic shut-off device that bars any other sperm from getting in. The human mind tends strongly toward the same sort of result. And so, people tend to accumulate large mental holdings of fixed conclusions and attitudes that are not often reexamined or changed, even though there is plenty of good evidence that they are wrong.« (Munger, Charles T.:
Taleb, Nassim Nicholas:
»Neue Informationen storen das Bild. Wenn man einmal zu einer Entscheidung gekommen ist, so ist man froh, der ganzen Unbestimmtheit und Unentschiedenheit der Vorentscheidungsphase entronnen zu sein.« (Dorner, Dietrich:
Zum Experiment mit der Zahlenreihe, siehe: Wason, Peter C.: »On the failure to eliminate hypotheses in a conceptual task«,
»Faced with the choice between changing one‘s mind and proving there is no need to do so, almost everyone gets busy on the proof.« (John Kenneth Galbraith)
The Confirmation Bias (Teil 2)
Stereotypisierung als Spezialfall des Confirmation Bias, siehe: Baumeister, Roy F.:
The Authority Bias
Als »iatrogen« werden Krankheitsbilder und Schaden bezeichnet, die durch arztliche Ma?nahmen verursacht wurden. Zum Beispiel Aderlass.
Cialdini: Robert B.:
Zum Track-Record der Arzte vor 1900, siehe: Arkiha, Noga:
Nach der Finanzkrise 2008 hat es zwei weitere unerwartete Ereignisse globalen Ausma?es (Black Swans) gegeben: die Aufstande in den arabischen Landern (2011) und die Tsunami-Atomreaktor-Katastrophe in Japan (2011). Keine einzige von weltweit schatzungsweise 100.000 Polit- und Sicherheitsautoritaten hat diese beiden Events vorhergesehen. Grund genug, den Autoritaten zu misstrauen – besonders wenn es sich um »Experten« auf dem sozialen Gebiet (Modestromungen, Politik, Okonomie) handelt. Diese Leute sind nicht dumm. Sie haben einfach das Pech, dass sie eine Karriere gewahlt haben, wo sie nicht gewinnen konnen. Es bleiben ihnen zwei Alternativen: a) zu sagen: »Ich wei? es nicht« (nicht die beste Wahl, wenn man eine Familie zu ernahren hat), oder b) die Schaumschlagerei.
Milgram, Stanley:
Der Kontrasteffekt
Cialdini, Robert B.:
Charlie Munger nennt den Kontrasteffekt auch »Contrast Misreaction Tendency«. Siehe: Munger, Charles T.:
Dan Ariely nennt den Effekt »Relativitatsproblem«. Siehe: Ariely, Dan:
Das ursprungliche Beispiel, dass man je nach Kontrast einen gro?en Weg auf sich nimmt, stammt von Kahneman/Tversky. Siehe: Kahneman, Daniel; Tversky, Amos: »Prospect Theory: An Analysis of Decision under Risk«,
The Availability Bias
»You see that again and again – that people have some information they can count well and they have other information much harder to count. So they make the decision based only on what they can count well. And they ignore much more important information because its quality in terms of numeracy is less – even though it’s very important in terms of reaching the right cognitive result. We ?[at Berkshire] would rather be roughly right than precisely wrong. In other words, if something is terribly important, we’ll guess at it rather than just make our