»Managements«, wie es Hardin versteht. Ostrom steht somit nicht im Gegensatz zu Hardin.

The Outcome Bias

Die Geschichte mit den Affen, siehe: Malkiel, Burton Gordon: A Random Walk Down Wall Street: The Time-tested Strategy for Successful Investing, W. W. Norton, 1973.

Baron, J.; Hershey, J. C.: »Outcome bias in decision evaluation«, Journal of Personality and Social Psychology 54 (4), 1988, S. 569–579.

Falls Sie das Beispiel der Chirurgen nachrechnen mochten, nehmen Sie irgendein Statistikhandbuch und schlagen Sie das Kapitel »Ziehen aus einer Urne mit Zurucklegen« auf.

Siehe auch: Taleb, Nassim Nicholas: Fooled by Randomness, Second Edition, Random House, 2008, S. 154.

Zum Historikerirrtum, siehe auch: Fischer, David Hackett: Historians’ Fallacies: Toward a Logic of Historical Thought, Harper Torchbooks, 1970, S. 209–213.

Das Auswahl-Paradox

Beide Videos von Barry Schwartz auf TED.com.

Schwartz, Barry: The Paradox of Choice: Why More Is Less, Harper, 2004

Die Probleme des Auswahl-Paradoxes sind noch gravierender als im Text dargestellt. Laborstudien haben bestatigt, dass das Entscheiden Energie verbraucht, die dann spater fehlt, wenn man sich gegen emotionale Impulse zur Wehr setzen will. (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press,2005, S. 316 ff.)

Botti, S.; Orfali, K.; Iyengar, S. S.: »Tragic Choices: Autonomy and Emotional Response to Medical Decisions«, Journal of Consumer Research 36 (3), 2009, S. 337–352.

Iyengar, S. S.; Wells, R. E.; Schwartz, B.: »Doing Better but Feeling Worse: Looking for the ›Best‹ Job Undermines Satisfaction«, Psychological Science 17 (2), 2006, S. 143–150.

»Letting people think they have some choice in the matter is a powerful tool for securing compliance.« (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 323)

The Liking Bias

Girard, Joe: How To Sell Anything To Anybody, Fireside, 1977.

»We rarely find that people have good sense unless they agree with us.« (La Rochefoucauld)

Cialdini hat ein ganzes Kapitel dem Liking Bias gewidmet: Cialdini, Robert B.: Influence: The Psychology of Persuasion, HarperCollins, 1998, Kapitel 5.

Der Endowment-Effekt

Das Beispiel von Charlie Munger, siehe: Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 479.

Ariely, Dan: Predictably Irrational. The Hidden Forces that Shape Our Decisions, HarperCollins, 2008, Chapter: »The High Price of Ownership«.

Kahneman, D.; Knetsch, Jack L.; Thaler, R.: »Experimental Test of the endowment effect and the Coase Theorem«, Journal of Political Economy, 98 (6), 1991, 1325–1348.

Carmon, Z.; Ariely, D.: »Focusing on the Forgone: How Value Can Appear So Different to Buyers and Sellers«, Journal of Consumer Research, Vol. 27, 2000.

»Cutting your losses is a good idea, but investors hate to take losses because, tax considerations aside, a loss taken is an acknowledgment of error. Loss-aversion combined with ego leads investors to gamble by clinging to their mistakes in the fond hope that some day the market will vindicate their judgment and make them whole.« (Bernstein, Peter L.: Against the Gods – The Remarkable Story of Risk, Wiley, 1996, S. 276 und S. 294)

»A loss has about two and a half times the impact of a gain of the same magnitude.« (Ferguson, Niall: The Ascent of Money – A Financial History of the World, Penguin Press, 2008, S. 345)

»Losing ten dollars is perceived as a more extreme outcome than gaining ten dollars. In a sense, you know you will be more unhappy about losing ten dollars than you would be happy about winning the same amount, and so you refuse, even through a statistician or accountant would approve of taking the bet.« (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 319 ff.)

Je mehr Arbeit wir fur etwas investieren, desto starker das Gefuhl des Besitzes. Das wird auch IKEA-Effekt genannt.

IKEA Effect, siehe Dan Arielys Website: http://danariely.com/tag/ikea- effect/

Das Wunder

Die Geschichte mit der Explosion der Kirche in: Nichols, Luke: »Church explosion 60 years ago not forgotten«, Beatrice Daily Sun, 1. Marz 2010.

Siehe auch: Plous, Scott: The Psychology of Judgment and Decision Making, McGraw-Hill, 1993, S. 164.

Fur eine gute Diskussion um Wunder, siehe: Bevelin, Peter: Seeking Wisdom. From Darwin to Munger, Post Scriptum, 2003, S. 145.

Groupthink

Janis, Irving L.: Groupthink: Psychological Studies of Policy Decisions and Fiascoes, Cengage Learning, 1982.

Wilcox, Clifton: Groupthink, Xlibris Corporation, 2010.

Eine Art Gegenteil von Groupthink ist Schwarmintelligenz (Surowiecki, James: The Wisdom of the Crowds, Doubleday, 2004). Und das geht so: »Die gro?e Masse von durchschnittlichen Menschen (also kein Pool von Fachleuten) findet of erstaunlich richtige Losungen – sie liegen allerdings auch mal grotesk daneben. Das hat schon Francis Galson ?[1907] in einem hubschen Experiment nachgewiesen: Er besuchte eine Viehausstellung, bei der ein Wettbewerb veranstaltet wurde, um das Gewicht eines Ochsen zu schatzen. Galton war der Meinung, dass die Messebesucher dazu nicht in der Lage seien, und beschloss, die fast 800 Schatzungen statistisch auszuwerten. Der Mittelwert aller Schatzungen (1.197 Pfund) kam aber dem tatsachlichen Gewicht des Ochsen (1.207 Pfund) erstaunlich nahe – Galtons Vorurteil war somit widerlegt.« (Jurgen Beetz: Denken, Nach-Denken, Handeln: Triviale Einsichten, die niemand befolgt, Alibri, 2010, S. 122)

Groupthink kommt zustande bei Interaktion der Teilnehmer. Schwarmintelligenz hingegen, wenn die Akteure unabhangig voneinander handeln (zum Beispiel eine Schatzung abgeben) – was immer seltener der Fall ist. Schwarmintelligenz ist kaum wissenschaftlich replizierbar.

The Neglect of Probability

Monat, Alan; Averill, James R.; Lazarus, Richard S.: »Anticipatory stress and coping reactions under various conditions of uncertainty«, Journal of Personality and Social Psychology 24 (2), November 1972, S. 237–253.

»Probabilities constitute a major human blind spot and hence a major focus for simplistic thought. Reality (especially social reality) is essentially probabilistic, but human thought prefers to treat it in simple, black-and- white categories.« (Baumeister, Roy F.: The Cultural Animal: Human Nature, Meaning, and Social Life, Oxford University Press, 2005, S. 206)

Weil wir kein intuitives Verstandnis fur Wahrscheinlichkeiten haben, haben wir auch kein intuitives Verstandnis fur Risiko. So braucht es immer wieder Borsencrashs, um unsichtbare Risiken sichtbar zu machen. Es hat erstaunlich lange gedauert, bis die Okonomen dies verstanden haben. Siehe: Bernstein, Peter L.: Against the Gods, The Remarkable Story of Risk, Wiley, 1996, S. 247 ff.

Was viele Okonomen und Anleger allerdings noch nicht begriffen haben: Volatilitat ist ein schlechtes Ma? fur Risiko. Und doch verwenden sie es in ihren Bewertungsmodellen. »How can professors spread this nonsense that a stock’s volatility is a measure of risk? I’ve been waiting for this craziness to end for decades.« (Munger, Charles T.: Poor Charlie’s Almanack, Third Edition, Donning, 2008, S. 101)

Fur eine komplette Diskussion, wie (falsch) wir Risiko wahrnehmen: Slovic, Paul: The Perception of Risk, Earthscan, 2000.

The Zero-Risk Bias

Вы читаете Die Kunst des klaren Denkens
Добавить отзыв
ВСЕ ОТЗЫВЫ О КНИГЕ В ИЗБРАННОЕ

0

Вы можете отметить интересные вам фрагменты текста, которые будут доступны по уникальной ссылке в адресной строке браузера.

Отметить Добавить цитату