Das ist klassische selektive Wahrnehmung: Das, was wir gerade im Gedächtnis parat haben spielt eine wichtigere Rolle als die Realität. Wie wahrscheinlich ist es, dass wir bei 4 Kassen im Supermarkt die auswählen, bei der es am längsten dauert. Natürlich 25 Prozent. Aber viele von uns werden sagen: “Ach, ich erwische immer die langsamste Kasse… es ist wie verhext!”. Nein, es ist nicht verhext – wir erinnern uns halt nur nicht an all die Fälle in der Vergangenheit wo alles problemlos lief sondern nur an die, wo wir warten mussten. Und deswegen erscheinen uns diese Ereignisse wahrscheinlicher.
Diesen “availability bias” nennt Mlodinow auch als eine der Ursachen warum die Griechen trotz ihres wissenschaftlichen Interesses keine Wahrscheinlichkeitsrechnung entwickelt haben. Die Römer dagegen schon; zumindest ansatzweise. In ihrem Justizsystem hatten sie zumindest berücksichtigt, dass man manche Dinge einfach nicht genau herausfinden kann und probiert, diese Unsicherheit zu quantifizieren. Je nach Art des Verbrechens wurde eine unterschiedlich große Anzahl an Zeugen benötigt, um zu einer Verurteilung zu führen. Leider hatten die Römer aber noch keine Ahnung wie man verschiedene Wahrscheinlichkeiten kombiniert. In ihrem System wurden Wahrscheinlichkeiten einfach nur addiert, um zusammengesetzte Wahrscheinlichkeiten zu erhalten. Tatsächlich aber muss man sie multiplizieren, wie eine weitere fundamentale Regel der Wahrscheinlichkeitsrechnung besagt:
“Wenn zwei mögliche Ereignisse A und B unabhängig voneinander eintreten können, dann ist die Wahrscheinlichkeit das sowohl A als auch B eintreten gleich dem Produkt der beiden einzelnen Wahrscheinlichkeiten.”
Stellen wir uns hundert Autos vor aus denen wir uns eines aussuchen können Wir wahrscheinlich ist es, dass wir unser Lieblingsauto erwischen? Wir wollen ein Auto, das Elektroantrieb hat und ein Auto, das rot ist. Diese beiden Eigenschaften sind nicht voneinander abhängig: es gibt keinen Grund, warum Elektroautos rot sein müssen oder rote Autos einen elektrischen Antrieb haben müssen. Wenn die Wahrscheinlichkeit 1/10 beträgt, dass wir ein rotes Auto erwischen und 1/10, dass wir ein Elektroauto wählen, dann beträgt die Wahrscheinlichkeit dass wir ein rotes Elektroauto bekommen 1/10 mal 1/10, also 1/100. Die erste Wahrscheinlichkeit wählt aus den 100 Autos 10 aus (die roten) und die zweite aus den 10 dann eines. Weil es voneinander unabhängige Ereignisse sind, von denen jede Wahrscheinlichkeit die Gesamtmenge weiter einschränkt, müssen wir sie multiplizieren, um zu einem korrekten Ergebnis zu kommen.
Aber manchmal muss die Wahrscheinlichkeiten auch addieren und dass ist das letzte fundamentale Gesetz der Wahrscheinlichkeiten das Mlodinow in diesem Kapitel vorstellt:
“Gibt es für den Ablauf eines Ereignisses mehrere voneinander verschiedene Resultate A, B, C und so weiter, dann ist die Wahrscheinlichkeit, dass entweder A oder B eintritt gleich der Summe der individuellen Wahrscheinlichkeiten für den Eintritt von A oder B und die Summe aller individuellen Wahrscheinlichkeiten (A, B, C, usw) ist gleich 1.”
Simpel gesagt: Wenn ich einen Würfel werfe, dann liegt die Wahrscheinlichkeit eine “1” zu würfeln bei 1/6. Genauso wie die Wahrscheinlichkeit eine “2” zu würfeln, und so weiter. Die Wahrscheinlichkeit eine “1” ODER eine “2” zu würfeln liegt dann bei 1/6 + 1/6 = 1/3. Und die Summe aller Wahrscheinlichkeiten aller sechs Möglichkeiten ist 1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6 = 1.
Auch das klingt erstmal logisch, ist aber oft schwer umzusetzen. Immer dann, wenn wir im Alltag Wahrscheinlichkeiten kombinieren müssen, haben wir Probleme. Wieder bringt Mlodinow ein Beispiel aus der Justiz. Bei DNA-Tests wird oft erzählt, dass zum Beispiel eine Chance von 1 zu 1 Milliarde besteht, dass die am Tatort genommene Probe zufällig mit der DNA einer unschuldigen Person übereinstimmt. Gleichzeitig gibt es aber auch noch die Möglichkeit, dass irgendjemand im Labor einen Fehler gemacht hat; Proben vertauscht oder sonst irgendwie Mist baut. Die Wahrscheinlichkeit dafür lässt sich schwer quantifizieren, ist aber sicher größer als 1:1 Milliarden (man schätzt sie auf etwa 1 Prozent). Sagen wir 1:100 oder 1:1000. Wie groß ist nun die gesamte Fehlerwahrscheinlichkeit? Irgendwo bei 1 zu ein paar Millionen oder Milliarden? Nein – denn wir wollen ja nicht wissen wie wahrscheinlich es ist das es eine zufällig falsche Zuordnung UND einen Fehler im Labor gegeben hat. Wir wollen wissen, wie wahrscheinlich es ist dass entweder das eine ODER das andere passiert ist. Wir müssen die Wahrscheinlichkeiten addieren und da fällt die Wahrscheinlichkeit von 1:1 Milliarden kaum ins Gewicht. Die Wahrscheinlichkeit, dass die DNA-Probe auf die eine oder andere Weise fehlerhaft ist, ist im wesentlichen identisch mit der größeren Wahrscheinlichkeit eines Laborfehlers; liegt also bei ungefähr einem Prozent. Das klingt schon nicht mehr so beeindruckend wie “falsch nur in einem Fall unter Milliarden”… wird aber in Gerichtssälen (zumindest laut Mlodinow in den amerikanischen) nicht so gesagt weil Aussagen zu menschlichen Fehlern in Laboren wegen ihrer schlechten Quanifizierbarkeit vor Gericht als Beweis nicht zugelassen werden.
Kommentare (29)