Die Uberlegung zu Harvard in: Sowell, Thomas: Economic Facts and Fallacies, Basic Books, 2008, S. 105 ff.

Der Overconfidence-Effekt

Pallier, Gerry et al.: »The role of individual differences in the accuracy of confidence judgments«, The Journal of General Psychology 129 (3), 2002, S. 257 f.

Alpert, Marc; Raiffa, Howard: »A progress report on the training of probability assessors«, in: Kahneman, Daniel; Slovic, Paul; Tversky, Amos: Judgment under uncertainty: Heuristics and biases, Cambridge University Press, 1982, S. 294–305.

Hoffrage, Ulrich: »Overconfidence«, in: Pohl, Rudiger: Cognitive Illusions: a handbook on fallacies and biases in thinking, judgement and memory, Psychology Press, 2004.

Gilovich, Thomas; Griffin, Dale; Kahneman, Daniel (Hrsg.): Heuristics and biases: The psychology of intuitive judgment, Cambridge University Press, 2002.

Vallone, R. P. et al.: »Overconfident predictions of future actions and outcomes by self and others«, Journal of Personality and Social Psychology 58, 1990, S. 582–592.

Siehe auch: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 242.

Warum Overconfidence bei Mannern fur die Evolution wichtig war, siehe die interessante Hypothese bei: Baumeister, Roy F.: Is there Anything Good About Men? How Cultures Flourish by Exploiting Men, Oxford University Press, 2001, S. 211 ff.

Diskussion zur Overconfidence, insbesondere der Hypothese, dass ein inflationiertes Selbstimage der eigenen Gesundheit forderlich ist, siehe: Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 217 ff. und 253.

Social Proof

Cialdini, Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, S. 114 ff.

Asch, S. E.: »Effects of group pressure upon the modification and distortion of judgment«, in: Guetzkow, H. (Hrsg.): Groups, leadership and men, Carnegie Press, 1951.

Die kunstlichen Lacher, siehe: Platow, Michael J. et al. (2005): »It’s not funny if they’re laughing: Self- categorization, social influence, and responses to canned laughter«, Journal of Experimental Social Psychology 41 (5), 2005, S. 542–550.

The Sunk Cost Fallacy

Zur Concorde, siehe: Weatherhead, P. J.: »Do Savannah Sparrows Commit the Concorde Fallacy?«, Behavioral Ecology and Sociobiology 5, 1979, S. 373–381.

Arkes, H. R.; Ayton, P.: »The Sunk Cost and Concorde effects: are humans less rational than lower animals?«, Psychological Bulletin 125, 1999, S. 591–600.

Die Reziprozitat

Cialdini, Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, S. 17 ff.

Reziprozitat als biologische Kooperation: siehe irgendein Biologie-Grundbuch seit 1990.

Theorie ursprunglich von Robert Trivers: Trivers, R. L. (1971). The Evolution of Reciprocal Altruism. The Quarterly Review of Biology 46 (1): 35–57.

Die evolutionarpsychologische Begrundung der Reziprozitat, siehe: Buss, David M.: Evolutionary Psychology. The New Science of the Mind, Pearson, 1999. Siehe auch: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005.

The Confirmation Bias (Teil 1)

»What Keynes was reporting is that the human mind works a lot like the human egg. When one sperm gets into a human egg, there’s an automatic shut-off device that bars any other sperm from getting in. The human mind tends strongly toward the same sort of result. And so, people tend to accumulate large mental holdings of fixed conclusions and attitudes that are not often reexamined or changed, even though there is plenty of good evidence that they are wrong.« (Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 461 f.)

Taleb, Nassim Nicholas: The Black Swan, Random House, 2007, S. 58.

»Neue Informationen storen das Bild. Wenn man einmal zu einer Entscheidung gekommen ist, so ist man froh, der ganzen Unbestimmtheit und Unentschiedenheit der Vorentscheidungsphase entronnen zu sein.« (Dorner, Dietrich: Die Logik des Misslingens. Strategisches Denken in komplexen Situationen, Rowohlt, 2003, S. 147.

Zum Experiment mit der Zahlenreihe, siehe: Wason, Peter C.: »On the failure to eliminate hypotheses in a conceptual task«, Quarterly Journal of Experimental Psychology 12 (3), 1960, S. 129– 140.

»Faced with the choice between changing one‘s mind and proving there is no need to do so, almost everyone gets busy on the proof.« (John Kenneth Galbraith)

The Confirmation Bias (Teil 2)

Stereotypisierung als Spezialfall des Confirmation Bias, siehe: Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 198 f.

The Authority Bias

Als »iatrogen« werden Krankheitsbilder und Schaden bezeichnet, die durch arztliche Ma?nahmen verursacht wurden. Zum Beispiel Aderlass.

Cialdini: Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, S. 208 ff.

Zum Track-Record der Arzte vor 1900, siehe: Arkiha, Noga: Passions and Tempers: A History of the Humours, Harper Perennial, 2008.

Nach der Finanzkrise 2008 hat es zwei weitere unerwartete Ereignisse globalen Ausma?es (Black Swans) gegeben: die Aufstande in den arabischen Landern (2011) und die Tsunami-Atomreaktor-Katastrophe in Japan (2011). Keine einzige von weltweit schatzungsweise 100.000 Polit- und Sicherheitsautoritaten hat diese beiden Events vorhergesehen. Grund genug, den Autoritaten zu misstrauen – besonders wenn es sich um »Experten« auf dem sozialen Gebiet (Modestromungen, Politik, Okonomie) handelt. Diese Leute sind nicht dumm. Sie haben einfach das Pech, dass sie eine Karriere gewahlt haben, wo sie nicht gewinnen konnen. Es bleiben ihnen zwei Alternativen: a) zu sagen: »Ich wei? es nicht« (nicht die beste Wahl, wenn man eine Familie zu ernahren hat), oder b) die Schaumschlagerei.

Milgram, Stanley: Obedience to Authority – An Experimental View, HarperCollins, 1974. Es gibt auch eine DVD mit dem Titel Obedience, 1969.

Der Kontrasteffekt

Cialdini, Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, S. 11–16.

Charlie Munger nennt den Kontrasteffekt auch »Contrast Misreaction Tendency«. Siehe: Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 448 und S. 483.

Dan Ariely nennt den Effekt »Relativitatsproblem«. Siehe: Ariely, Dan: Predictably Irrational, Revised and Expanded Edition: The Hidden Forces That Shape Our Decisions, Harper Perennial, 2010, Kapitel 1.

Das ursprungliche Beispiel, dass man je nach Kontrast einen gro?en Weg auf sich nimmt, stammt von Kahneman/Tversky. Siehe: Kahneman, Daniel; Tversky, Amos: »Prospect Theory: An Analysis of Decision under Risk«, Econometrica 47 (2), Marz 1979.

The Availability Bias

»You see that again and again – that people have some information they can count well and they have other information much harder to count. So they make the decision based only on what they can count well. And they ignore much more important information because its quality in terms of numeracy is less – even though it’s very important in terms of reaching the right cognitive result. We ?[at Berkshire] would rather be roughly right than precisely wrong. In other words, if something is terribly important, we’ll guess at it rather than just make our

Вы читаете Die Kunst des klaren Denkens
Добавить отзыв
ВСЕ ОТЗЫВЫ О КНИГЕ В ИЗБРАННОЕ

0

Вы можете отметить интересные вам фрагменты текста, которые будут доступны по уникальной ссылке в адресной строке браузера.

Отметить Добавить цитату