Wir haben jetzt jeden vierten Deutschen geimpft. Diese Woche wird es noch jeder fünfte werden.
Bundesgesundheitsminister Jens Spahn am 26. April 2021.
Titelgeschichte vom Juli 2021
Es zeichnet sich ab, dass die Menschheit den Kampf gegen das Coronavirus und seine Mutanten verliert. Selbst wenn die Welt in Vakzinen schwömme, wäre eine globale Herdenimmunität kaum erreichbar. Viele Zeitgenossen haben sich, vom Internet mit Informationen überfüttert, zu Impfskeptikern und Do-it-yourself-Experten entwickelt.
So der Aufmacher der Titelgeschichte des SPIEGEL 29/2021. Ullrich Fichtner schreibt dort viele bedenkenswerte Dinge. 75 Prozent aller Covid-19-Impfstoffe seien bislang in nur zehn Ländern verimpft worden. Auf dem gesamten afrikanischen Kontinent mit seinen 1,2 Milliarden Einwohnern sei gerade einmal ein Prozent der Menschen vollständig geimpft. Die weltweite Impfung nicht mit aller Macht anzugehen, hätte unabsehbare Folgen für die internationale Zusammenarbeit, die Hindernisse auf dem Weg seien aber entmutigend groß- nicht nur, weil es nicht genug Impfstoff gibt. In manchen Ländern, in Kasachstan, in Gabun oder Ungarn, in weiten Teilen Südosteuropas seien Impfskeptiker in der Mehrheit. Aber auch in Brasilien, in Japan oder Mexiko, in Deutschland und Frankreich seien die Minderheiten der Zögerlichen und Zuwartenden womöglich zu groß, als dass auf einen kollektiven Schutz aller – durch die Impfung der meisten – gehofft werden könne. Beizeiten wirkte es so, als hielten manche Leute die fahrlässige Ansteckung von Mitbürgern mit möglicher Todesfolge für ein Grundrecht, das der Staat gefälligst nicht anzutasten habe.
Impfungen und Abschlüsse
Bei Erscheinen der SPIEGEL-Geschichte noch nicht bekannt war die eine Woche später auf dem medRxiv veröffentlichte Studie Time trends and factors related to COVID-19 vaccine hesitancy from January-May 2021 among US adults: Findings from a large-scale national survey von King et al, die der Frage nachgeht, welche Bevölkerungsgruppen sich am stärksten der COVID-19-Impfung verweigern. Eines der Ergebnisse ist, dass bei Befragten mit PhD die Impfskepsis mit 23,9 Prozent höher ist als bei jedem anderen Bildungsabschluss.
Bemerkenswerterweise ist die Spitzenstellung der Promovierten das Ergebnis eines längeren Prozesses. Noch im Januar gab es unter den Unstudierten 35 Prozent Impfskeptiker, im Mai waren es dort nur noch 20 Prozent. In diesem Zeitraum blieb bei den Promovierten die Skepsis konstant zwischen 23 und 24 Prozent. Man könnte das so interpretieren, dass Menschen mit Doktortitel eine gefestigtere Meinung haben unabhängig von deren Sinnhaftigkeit.
Ein Zitat von Borel
In dem SPIEGEL-Artikel wird auch der Mathematiker Émile Borel zitiert. Borel, der übrigens auch Bürgermeister und Minister war, kann wohl als Schöpfer der abstrakten Maßtheorie und damit indirekt auch der modernen Wahrscheinlichkeitstheorie angesehen werden. (Selbst hatte er seine Maße auch schon gerne mal als Wahrscheinlichkeiten interpretiert, aber nicht eine “offizielle” Definition von Wahrscheinlichkeiten auf ihnen aufgebaut. So beantwortete er 1909 die Frage, ob die Ziffern einer zufällig gewählten reellen Zahl gleichverteilt sind. Daf\”ur bewies er das Borel-Cantelli-Lemma und darauf aufbauend – für Bernoulli-verteilte Zufallsvariablen – das starke Gesetz der großen Zahlen, wonach zum Beispiel in einer reellen Zahl mit Wahrscheinlichkeit 1 alle Ziffern mit relativer Häufigkeiten 1/10 vorkommen.)
Im SPIEGEL wird nun ein “1943 erschienenes Büchlein” zitiert, gemeint ist wohl Les probabilités et la vie, demzufolge “Ereignisse mit einer hinreichend geringen Wahrscheinlichkeit niemals vorkommen, oder wir müssen zumindest unter allen Umständen so handeln, als ob sie unmöglich wären.”
Fichtner argumentiert im SPIEGEL – mit Verweis auf David Spiegelhalter – aus der Wahrscheinlichkeit eines Sechsers im Lotto lese „der normale Mensch nicht, wie Borel es getan hätte, dass der Großgewinn ausgeschlossen ist, sondern er glaube im Gegenteil, dass er doch immerhin eine gute Chance auf den Sechser habe“. (Ist das wirklich so? Jeder kennt wohl aus seiner Umgebung Geschichten über Lottogewinner, die ihre Millionen recht bald wieder verloren hatten. Ist das Zufall oder liegt das nicht eher daran, dass eben nur Lotto spielt, wer auch sonst nicht mit Zahlen umgehen kann?)
Niedrige Wahrscheinlichkeiten
Im März 2011 – nach dem Atomunfall von Fukushima – geisterte die Zahl 1 : 33 Millionen durch die Medien als Wahrscheinlichkeit für einen Atomunfall. Für den Mathematiker stellten sich da natürlich zwei Fragen:
– Ist diese Wahrscheinlichkeit gering genug, dass man Atomkraftwerke als sicher ansehen kann?
– Und wie ist diese Wahrscheinlichkeit überhaupt definiert, was wurde dort berechnet?
Ab wann ist eine Wahrscheinlichkeit so gering, dass man mit dem entsprechenden Ereignis nicht mehr rechnen muss? In meiner Schulzeit habe ich mal einen Artikel in der Schülerzeitschrift “Die Wurzel” gelesen von einem russischen Professor, der tatsächlich einen genauen Zahlenwert dafür angab. Ich erinnere mich nicht mehr, ob es die Anzahl der Atome im Universum (1078) oder die Anzahl der Sekunden eines Menschenlebens (weniger als 1010) war, deren Reziprokes er als Wahrscheinlichkeit postulierte, unterhalb derer ein Ereignis als praktisch unmöglich angesehen werden könne. Natürlich sind solche Festlegungen völlige Willkür, aber auf irgendeinen Wahrscheinlichkeitswert für die Unmöglichkeit eines Ereignisses wird man sich wohl einigen müssen.
Was bedeutet: die Wahrscheinlichkeit eines Atomunfalls beträgt 1 : 33 Millionen?
Wahrscheinlichkeit kennt man in der Naturwissenschaft zunächst nur auf atomarer Ebene: man kann nicht vorherberechnen, wann ein Radiumatom zerfällt, man kennt aber Erfahrungswerte, aus denen man die Wahrscheinlichkeit berechnen kann, dass es bis zum Zeitpunkt t zerfallen ist: .
Hingegen wissen wir seit Newton, dass makroskopische Vorgänge wie das Rollen von Lottokugeln dank Impulserhaltung streng deterministisch sind. Wahrscheinlichkeiten hier gehen von Erfahrungswerten und idealisierten Annahmen aus, eigentlich sind sie aber willkürlich festgelegt:
Die Aufgabe, den realen Inhalt des Begriffes der “mathematischen Wahrscheinlichkeit” von philosophischer Seite aufzuklären, kann man daher von vornherein als hoffnungslos ansehen.
steht dann auch in Paragraph 1.1 des Lehrbuch der Wahrscheinlichkeitstheorie von B. W. Gnedenko.
Bei Wahrscheinlichkeiten extrem unwahrscheinlicher Ereignisse handelt es sich jedenfalls offensichtlich nicht um Erfahrungswerte.
Die Stärke von Erdbeben wird seit gut 100 Jahren gemessen, in diesem Zeitraum hatte das weltweit stärkste Erdbeben (Chile 1960) eine Stärke von 9,5.
In und bei Japan gab es 1923 ein Beben der Stärke 7,9, 1933 ein Beben der Stärke 8,4 (mit 29 m hohem Tsunami), 1944 eines der Stärke 8,1, 1946 ebenfalls 8,1, das Kobe-Erdbeben 1995 war mit 6,9 vergleichsweise schwach.
Auch in früheren Jahrhunderten gab es immer wieder Beben, von denen man vermutet, dass sie stärker als 8,0 waren: 1703 wird auf 8,0 geschätzt, 1707 (mit 40000 Toten) auf 8,4, 1891 und 1896 (mit 23 m hohem Tsunami) jeweils auf 8,0.
Wie man hört, wurden Atomkraftwerke in Japan auf eine Erdbebenstärke von 7,5, in besonders gefährdeten Regionen sogar von 8,2 ausgelegt.
Ganz naiv sollte man meinen, dass eine Erdbeben-Stärke höher als 8,2 für Japan nicht besonders unwahrscheinlich ist.
Max Frisch über Wahrscheinlichkeiten
Max Frisch, bekanntlich ja ausgebildeter und zunächst auch praktizierender Architekt, in dessen Büchern auch Ingenieure tragende Rollen spielen, hat sich in seinem Roman Homo Faber auch mit Wahrscheinlichkeiten beschäftigt. Die Seitenzahlen der folgenden Zitate beziehen sich auf die Suhrkamp-Ausgabe von 1967.
S. 26f: Ich brauche, um das Unwahrscheinliche als Erfahrungstatsache gelten zu lassen, keinerlei Mystik; Mathematik genügt mir.
Mathematisch gesprochen:
Das Wahrscheinliche (dass bei 6 000 000 000 Würfen mit einem regelmäßigen Sechserwürfel annähernd 1 000 000 000 Einser vorkommen) und das Unwahrscheinliche (dass bei 6 Würfen mit demselben Würfel einmal 6 Einser vorkommen) unterscheiden sich nicht dem Wesen nach, sondern nur der Häufigkeit nach, wobei das Häufigere von vornherein als glaubwürdiger erscheint. Es ist aber, wenn einmal das Unwahrscheinliche eintritt, nichts Höheres dabei, keinerlei Wunder oder Derartiges, wie es der Laie so gerne haben möchte. Indem wir vom Wahrscheinlichen sprechen, ist ja das Unwahrscheinliche immer schon inbegriffen und zwar als Grenzfall des Möglichen, und wenn es einmal eintritt, das Unwahrscheinliche, so besteht für unsereinen keinerlei Grund zur Verwunderung, zur Erschütterung, zur Mystifikation.
Vergleiche hierzu:
Ernst Mally Wahrscheinlichkeit und Gesetz, ferner Hans Reichenbach Wahrscheinlichkeitslehre, ferner Whitehead und Russel Principia Mathematica, ferner v. Mises Wahrscheinlichkeit, Statistik und Wahrheit.
(Die Literaturhinweise stehen so bei Frisch im Original, einschließlich des fehlenden l bei Russell.)
S. 91:
Ich erklärte, was die heutige Kybernetik als Information bezeichnet: unsere Handlungen als Antworten auf sogenannte Informationen, beziehungsweise Impulse, und zwar sind es automatische Antworten, größtenteils unserem Willen entzogen, Reflexe, die eine Maschine ebensogut erledigen kann wie ein Mensch, wenn nicht sogar besser. […] Ich verwies auf Norbert Wiener: Cybernetics or Control and Communication in the Animal and the Machine, M.I.T. 1948. […] In einer Minute 2 000 000 Additionen oder Subtraktionen! In ebensolchem Tempo erledigt sie eine Infinitesimal-Rechnung, Logarithmen ermittelt sie schneller, als wir das Ergebnis ablesen können, und eine Aufgabe, die bisher das ganze Leben eines Mathematikers erfordert hätte, wird in Stunden gelöst und zuverlässiger gelöst, weil sie, die Maschine, nichts vergessen kann, weil sie alle eintreffenden Informationen, mehr als ein menschliches Hirn erfassen kann, in ihre Wahrscheinlichkeitsansätze einbezieht.
S. 160ff: Die Mortalität bei Schlangenbiß (Kreuzotter, Vipern aller Art) beträgt drei bis zehn Prozent, sogar bei Biß von Kobra nicht über fünfundzwanzig Prozent, was in keinem Verhältnis steht zu der abergläubischen Angst vor Schlangen, die man allgemein noch hat.
[…]
Ich fragte Hanna, wieso sie nicht an Statistik glaubt, statt dessen aber an Schicksal und Derartiges. “Du mit deiner Statistik!” sagt sie. “Wenn ich hundert Töchter hätte, alle von einer Viper gebissen, dann ja! Dann würde ich nur drei bis zehn Töchter verlieren. Erstaunlich wenig!”
Außerdem wird im Buch (ohne weitere Erläuterung) erwähnt, dass Faber seine Dissertation über den Maxwellschen Dämon schreiben wollte, die Arbeit aber erfolglos abgebrochen hat.
Historie
Noch am Anfang des 20. Jahrhunderts hielt man die Wahrscheinlichkeit für keine mathematische Disziplin, David Hilbert widmete das sechste seiner 23 Probleme der Axiomatisierung der Physik und bezog dabei die Axiomatisierung der Wahrscheinlichkeit mit ein. Richard von Mises versuchte in einer 1919 erschienenen Arbeit “Grundlagen der Wahrscheinlichkeitsrechnung” den Wahrscheinlichkeitsbegriff als Grenzwert von relativen Häufigkeiten axiomatisch zu entwickeln. Grundlegend war der Begriff des Kollektivs. Sei ei eine Folge von “Elementen”, jedem sei eine reelle Zahl xi als “Merkmal” zugeordnet. Die Folge heißt “Kollektiv”, wenn für jede Teilmenge A des Merkmalsraums R oder Rd die relative Häufigkeit der zu A gehörenden xi konvergiert (gegen die “Wahrscheinlichkeit” von A innerhalb des Kollektivs) und für disjunkte Mengen A,B gilt: streicht man alle ei, für die xi weder zu A noch B gehört, so sollen die Grenzwerte der relativen Häufigkeiten existieren und im Verhältnis gleich sein zum Verhältnis der ursprünglichen Wahrscheinlichkeiten (“Regellosigkeit der Zuordnung”).
Aus einer Reihe von Gründen setzte sich dieser Ansatz nicht durch, stattdessen verwendet man heute bekanntlich Maße im Sinne einer geometrischen Wahrscheinlichkeitstheorie. Ein solch maßtheoretischer Ansatz zur Wahrscheinlichkeitstheorie war schon in Hausdorffs grundlegendem Lehrbuch zur mengentheoretischen Topologie angedeutet und in der Zwischenkriegszeit arbeiteten zahlreiche Mathematiker mit Wahrscheinlichkeiten wie mit Maßen. (Borel hatte solche Interpretationen noch als Konvention abgetan und nicht als eigentliche Bedeutung von Wahrscheinlichkeit.) Umgekehrt enthielten die Arbeiten der Lemberger Schule regelmäßig eine wahrscheinlichkeitstheoretische Interpretation maßtheoretischer Resultate. Eine allgemein als verbindlich angesehene Definition von Wahrscheinlichkeiten gab schließlich Kolmogorow 1933 mit seinem Lehrbuch “Grundbegriffe der Wahrscheinlichkeitsrechnung”. Der Kontext mathematischer Wahrscheinlichkeiten ist gemäß dieser Definition ein Wahrscheinlichkeitsraum, bestehend aus einer Menge, einer Sigma-Algebra und einem Wahrscheinlichkeitsmaß. Die Mengen entsprechen Ereignissen in der Realwelt, die Punkte entsprechen Elementarereignissen, einzelnen (möglichen) Beobachtungen. Zufallsvariablen entsprechen Funktionen von realen Beobachtungen.
Einfach erklärt
Wikipedia-intern gab es früher den (inzwischen nicht mehr verwendeten) Begriff der OMA-Tauglichkeit: Artikel sollten auch für Leser “Ohne Mindeste Ahnung” verständlich sein. Für Artikel zur höheren Mathematik ist das meist kein sinnvolles oder realistisches Ziel. Aber für die verschiedenen Ansätze zur Wahrscheinlichkeitstheorie kann man es ja mal versuchen.
Bei im “wirklichen Leben” vorkommenden Wahrscheinlichkeitsverteilungen hat man immer nur endlich viele Möglichkeiten, zum Beispiel bei 6 aus 49 gibt es 13.983.816 mögliche Ziehungen.
Jedes mögliche Ereignis hat dann eine Wahrscheinlichkeit größer als 0: die Wahrscheinlichkeit für einen Sechser bei 6 aus 49 ist 1/13.983.816, für einen Fünfer 258/13.983.816 etc.
Mathematiker beschäftigen sich aber durchaus auch mit unendlichen Mengen, zum Beispiel der Menge aller reellen Zahlen zwischen 0 und 1. Man nimmt also zufällig eine Zahl zwischen 0 und 1 und möchte gern wissen, mit welcher Wahrscheinlichkeit sie bestimmte Eigenschaften hat.
Die Wahrscheinlichkeit, dass eine zufällig gewählte Zahl kleiner als 0,5 ist sollte 0,5 sein. Die Wahrscheinlichkeit, dass sie größer als 0,7 ist, sollte 0,3 sein. Die Wahrscheinlichkeit, dass die erste Nach-Komma-Stelle eine 7 ist, sollte 0,1 sein – alle Nachkommastellen sollten gleichwahrscheinlich sein. Die Wahrscheinlichkeit, dass eine Zahl zu einem bestimmten Intervall gehört, sollte die Länge des Intervalls sein.
Mathematisch formalisisiert man diese Vorstellung einer Wahrscheinlichkeitsverteilung der reellen Zahlen mit dem Lebesgue-Maß.
Das Intervall [0,1] hat Maß 1 und man definiert die Wahrscheinlichkeit einer Eigenschaft E für Zahlen zwischen 0 und 1 als das Lebesgue-Maß der Menge .
Ein einzelner Punkt hat Maß 0. Also ist die Wahrscheinlichkeit einer einzelnen Zahl gleich 0. Wenn man zufällig eine reelle Zahl zwischen 0 und 1 nimmt, wird man mit Wahrscheinlichkeit 0 gerade die Wurzel aus 1/2 (oder irgendeine andere spezielle Zahl) ziehen. Trotzdem ist dieses Ereignis natürlich nicht unmöglich.
Anders als bei den endlichen Wahrscheinlichkeitsverteilungen gibt es also jetzt mögliche Ereignisse, die trotzdem Wahrscheinlichkeit 0 haben.
Maße sind additiv: das Maß einer disjunkten Vereinigung zweier Mengen ist gerade die Summe der Maße der beiden Mengen. Das Lebesgue-Maß ist aber sogar “sigma-additiv”, das Maß einer disjunkten Vereinigung abzählbar vieler Mengen ist gerade die Summe der Maße der einzelnen Mengen. (“Abzählbarkeit” bedeutet hier einfach, daß man die Mengen durchnummerieren kann mit natürlichen Zahlen.)
Seit Cantor weiß man, dass die Menge der rationalen Zahlen abzählbar ist. Insbesondere ist sie die Vereinigung abzählbar vieler Mengen, die alle aus jeweils einem Element bestehen. Weil diese ein-elementigen Mengen Maß 0 haben und das Lebesgue-Maß sigma-additiv ist, hat dann auch die Menge der rationalen Zahlen Maß 0. Wenn ich zufällig eine reelle Zahl zwischen 0 und 1 nehme, werde ich mit Wahrscheinlichkeit 0 eine rationale Zahl ziehen, also mit Wahrscheinlichkeit 1 eine irrationale Zahl. Das ist insofern überraschend, dass die meisten der aus der Schule bekannten Zahlen rational sind. Trotzdem sind im Sinne der Wahrscheinlichkeitstheorie “alle” Zahlen irrational.
Man weiß, dass z.B. oder
irrational sind. Wenn man es noch nicht gewußt hätte, könnte man mit dem Argument aus dem vorigen Abschnitt die Existenz irrationaler Zahlen beweisen. Denn wenn die rationalen Zahlen eine Nullmenge sind, dann muß es insbesondere irrationale Zahlen geben. Die Wahrscheinlichkeitstheorie beweist also die Existenz irrationaler Zahlen. (Natürlich ist der klassische Beweis der Irrationalität der Wurzel aus 2 einfacher als Cantors Beweis der Abzählbarkeit rationaler Zahlen und die Konstruktion des Lebesgue-Maßes.)
Wahrscheinlichkeit Null in der Mathematik
Es gibt auch schwierigere mathematische Probleme, auf die sich solche Wahrscheinlichkeits-Argumente anwenden lassen.
Zum Beispiel die Frage nach der Existenz transzendenter Zahlen. Das sind Zahlen, die man nicht als Nullstellen eines Polynoms mit ganzzahligen Koeffizienten bekommen kann. Es ist sehr schwer, explizit die Transzendenz einer Zahl zu beweisen. Das erste bekannte Beispiel einer transzendenten Zahl wurde 1844 von Liouville konstruiert. Lindemann bewies 1882 die Transzendenz von . Man kann aber (ähnlich zu Cantors Beweis der Abzählbarkeit der rationalen Zahlen) beweisen, dass die Menge der Polynome mit ganzzahligen Koeffizienten abzählbar ist. Insbesondere ist die Menge der Nullstellen solcher Polynome abzählbar, hat also Lebesgue-Maß 0. Wenn ich zufällig eine reelle Zahl zwischen 0 und 1 nehme, werde ich mit Wahrscheinlichkeit 0 eine Nullstelle eines ganzzahligen Polynoms ziehen, also mit Wahrscheinlichkeit 1 eine transzendente Zahl. Insbesondere gibt es transzendente Zahlen, auch wenn ich (mit diesem Beweis) noch nicht weiß, wie ich ein konkretes Beispiel bekommen kann.
Das Beispiel ist insofern typisch, als es oft gerade die scheinbar komplizierten Eigenschaften sind, die eine hohe Wahrscheinlichkeit haben. Zum Beispiel interessiert man sich in der theoretischen Informatik für sogenannte Expander-Graphen, das sind Graphen, die sich nicht durch Entfernen weniger Kanten in zwei annähernd gleich große Komponenten zerlegen lassen. Wenn man einfach zufällig einen Graphen zeichnet, ist dieser mit hoher Wahrscheinlichkeit ein Expander – das wurde 1967 von Kolmogorow-Barzdin bewiesen und zeigt insbesondere, daß es Expander-Graphen gibt. Ein konkretes Beispiel fand aber erst 1973 Margulis. Die Konstruktion expliziter Serien von Graphen immer besserer Expansivität erfordert schwere Mathematik, zum Beispiel Selbergs Abschätzungen der Eigenwerte des Laplace-Operators hyperbolischer Flächen zum Beweis der Expansivität für die Cayley-Graphen von , oder die Ramanujan-Vermutung für Modulformen zum Beweis der Expansivität gewisser Quotienten des p-adischen symmetrischen Raums
durch Lubotzky-Philips-Sarnak.
Das Bild zeigt einen Teil eines Expandergraphen aus Lubetzky-Peres, GAFA 26, 1190-1216.
So wie Expandergraphen sind auch hyperbolische Mannigfaltigkeiten oder allgemeiner negativ gekrümmte Simplizialkomplexe schwer zu konstruieren, während andererseits “zufällige” Simplizialkomplexe (aus euklidischen Simplizes) negativ gekrümmt sein sollten. Auch endlich erzeugte Gruppen sind mit Wahrscheinlichkeit 1 negativ gekrümmt, was allerdings von der Wahl des Wahrscheinlichkeitsmodells abhängt. Für eine Zahl d zwischen 0 und 1 nimmt man alle Gruppen mit n Erzeugern und höchstens dL Relationen der Länge höchstens $L$. Eine Eigenschaft P heißt (für das gewählte d) “mit überwältigender Wahrscheinlichkeit” zutreffend, wenn für jedes n gilt: für geht der Anteil der Gruppen mit der Eigenschaft P gegen 100 Prozent. Gromov zeigte, dass man für
mit überwältigender Wahrscheinlichkeit die triviale Gruppe oder die Gruppe mit 2 Elementen bekommt, während man für kleinere d mit überwältigender Wahrscheinlichkeit eine hyperbolische Gruppe bekommt. Man kann dann sogar noch mehr beweisen: man hat mit überwältigender Wahrscheinlichkeit kohomologische Dimension 2, nach Bestvina-Mess also einen 1-dimensionalen Rand im Unendlichen, der dann nach Kapovich-Kleiner entweder ein Kreis oder ein Sierpinski-Teppich oder ein Menger-Schwamm sein muß, und tatsächlich hat man (bewiesen 2011 von Dahmani-Guirardel-Przytycki) mit überwältigender Wahrscheinlichkeit den Menger-Schwamm als Rand im Unendlichen. Vielleicht nicht unbedingt, was man als eine “Eigenschaft mit überwältigender Wahrscheinlichkeit” für endlich erzeugte Gruppen erwartet hätte.
Das Bild zeigt den Menger-Schwamm – mit überwältigender Wahrscheinlichkeit der Rand im Unendlichen einer zufälligen endlich erzeugten Gruppe.
Wiederkehrwahrscheinlichkeiten
Um die Wahrscheinlichkeit unwahrscheinlicher Ereignisse geht es auch in der im August 2021 veröffentlichten 39-Autoren-Arbeit Rapid attribution of heavy rainfall events leading to the severe flooding in Western Europe during July 2021. Kurz nach dem Juli-Hochwasser verwandten die Autoren dort regionale Klimamodelle (RACMO, EURO-CODEX), Klimasimulationen durch fünf konvektionserlaubende Modelle und statistische Methoden gemäß dem auf Philip et al. zurückgehenden “protocol for probabilistic extreme event attribution analyses”, um für zwei im Juli 2021 besonders betroffene Regionen (und auch für zahlreiche andere Teile Mitteleuropas) das April-bis-September-Maximum der über einen oder zwei Tage gemittelten Niederschlagsmenge zu analysieren. Damit berechnen sie die Wiederkehrperioden, Wahrscheinlichkeitsverhältnisse und Intensitätsveränderungen als Funktionen der durchschnittlichen globalen Oberflächentemperatur der Erde.
Für die Vergangenheit erhalten sie aus der Analyse der beobachteten Daten eine Wiederkehrperiode bei Überflutungen dieser Grössenordnung von 700 Jahren für die Ahr-und-Erft-Region und von 1000 Jahren für die betroffene Region in Belgien. Mit Hilfe der Klimamodelle wird dann (unter der Annahme einer um 2 Grad höheren Durchschnittstemperatur) für die Ahr-Erft-Region eine Zunahme der über einen Extremwetter-Tag gemittelten Niederschlagsintensität um 1,5 bis 4 Prozent berechnet. Die Wahrscheinlichkeit eines solchen Extremniederschlags wie im Juli 2021 steigt nach den Berechnungen für die Ahr-Erft-Region um einen Faktor von 1,2.
Fazit im SPIEGEL
Natürlich hängen solche Berechnungen von vielen Annahmen ab.
Über die Realität extrem unwahrscheinlicher Ereignisse kann man vieles schreiben. Ein Atomunfall wie im japanischen Fukushima war offenkundig nicht so unwahrscheinlich, dass er nie passieren könnte. Borel selbst – demzufolge “Ereignisse mit einer hinreichend geringen Wahrscheinlichkeit niemals vorkommen” sollen – hatte ja bewiesen, dass die Ziffern einer Zahl mit Wahrscheinlichkeit 1 gleichverteilt sind, und ihm war natürlich bekannt, dass Zahlen mit nicht gleichverteilten Ziffern in der Mathematik von großer Bedeutung sind – darunter fallen alle ganzen und alle rationalen Zahlen. Die Wahrscheinlichkeit, an den Folgen eines Impfschadens zu sterben, ist jedenfalls groß genug, dass dieser Fall bei 82 oder auch nur 62 Millionen Impfungen mit an Sicherheit grenzender Wahrscheinlichkeit einige Mal vorkommen wird (und ja inzwischen auch vorgekommen ist). Sie ist freilich viel geringer als die Wahrscheinlichkeit, ungeimpft an den Folgen von Covid-19 zu sterben. Ulrich Fichtner im SPIEGEL fasst es so zusammen:
Die Verwirrung der Gedanken und Gefühle ist nicht sehr verwunderlich, denn das Leben mit der Pandemie ist eine ständige Überforderung. Der Irrgarten der Tabellen und Grafiken, das Erfordernis, exponentielle Entwicklungen zu verstehen, das Gerechne mit R-Werten, Inzidenzen und prozentualer Krankenhausauslastung, all das gehört wirklich nicht zur Allgemeinbildung. In solchen Lagen muss man hoffen, dass die zuständigen Stellen überdurchschnittlich gute Arbeit leisten, und man müsste vertrauen können und Autorität anerkennen. Aber daran mangelt es eben fast überall.
Kommentare (56)