Mindestens einmal während eines Sonnenfleckenzyklus kommt es zu einem starken geomagnetischen Sturm mit kräftigen Polarlichtern auch außerhalb der Polarregionen. Der berühmteste ist das Carrington-Ereignis im September 1859. Aber auch das 20. Jahrhundert kann mit einem ähnlich intensiven, aber wenig bekanntem Naturschauspiel aufwarten. Vor 100 Jahren trafen mehrere Explosionswolken von der Sonne unseren Planeten und richteten zahlreiche Schäden an. Doch bevor wir in die Details gehen, begeben wir uns in die Kleinstadt Brewster im Bundesstaat New York.
Es war spät geworden an diesem Samstag, dem 14. Mai 1921, und es war nicht gut gelaufen für Alexander L. Addis, Catcher des Baseballclubs der New York Trust Co. Seine Mannschaft hatte eine 28:1-Niederlage einstecken müssen. Kurz vor Mitternacht traf er mit dem Zug der Central New England Railroad vom Prospect Park in Brooklyn kommend im Bahnhof des Städtchens Brewster im Bundesstaat New York ein. Als Addis sich auf dem Weg vom Bahnhof zu seinem Haus befand, begann die Glocke der nahegelegenen Baptistenkirche zu läuten und löste einen Feueralarm aus. Vom Hügel über dem Bahnhof sah er blaue Flammen aus Spalten im Dach des Bahnhofgebäudes lodern. Auch der Fahrkartenschalter am Gebäude brannte.
Wie sich später herausstellte, war wenige Minuten zuvor die Schalttafel im Fahrkartenschalter plötzlich in Flammen aufgegangen. In aller Eile gelang es dem diensthabenden Bahnangestellten das vorhandene Bargeld, Fahrkarten und weitere Wertgegenstände an sich zu nehmen. Bevor er das Gebäude verließ, konnte er auch noch den einzigen anwesenden Bewohner des Gebäudes. Leonard Sloat, wecken.
Alexander Addis eilte zum Brandherd, konnte aber nichts unternehmen, bis die örtliche Feuerwehr unter dem Kommando von Chief Morehouse eintraf. Der erschien kurz darauf mit seinem neuen Kleinwagen, aber das Löschfahrzeug hatte ernsthafte Probleme den Brandherd zu erreichen. Aus irgendwelchen Gründen kam es nicht um die Kurve von der Railroad Avenue auf die Straße zur brennenden Station, sondern landete mit der gesamten Ausrüstung im Straßengraben. Die später durchgeführte Untersuchung des Fahrzeugs ergab, dass die Kupplung abgenutzt und das Fahrzeug deshalb ins Schleudern geraten war. In der Not versuchte man einen Schlauch an einem nahegelegenen Hydranten anzuschließen. Aber bis man endlich einsatzbereit war, stand das Bahnhofsgebäude schon lichterloh in Flammen.
Während das Gebäude bis auf die Grundmauern niederbrannte, bot sich den herbeigeeilten Schaulustigen aber ein weiteres, großartiges Schauspiel. Polarlichter in allen Farben und Formen tanzten über dem Himmel in zuvor nie gesehener Intensität. So berichtete es der Brewster Standard in seiner Ausgabe vom 20. Mai 1921.
Hatte das eine, der Brand, und das andere, die Polarlichter, etwas miteinander zu tun? Schauen wir uns die Ereignisse etwas genauer an, die sich nun zum hundertsten Mal jähren.
Bekanntlich gibt es eine Verbindung zwischen Polarlichtern – in unseren Breiten auch Nordlichter genannt – und der Häufigkeit von Sonnenflecken. 1843 entdeckte der Botaniker und Astronom Samuel Heinrich Schwabe (1789 – 1875), dass die Anzahl der sichtbaren Sonnenflecken in einem etwa 11-jährigen Rhythmus schwankt. Zeiten mit vielen Flecken, d. h. hoher Sonnenaktivität, wechseln sich mit Perioden geringer Aktivität ab. Häufigkeit und Intensität von Polarlichtern zeigen ein ähnliches Muster, wobei die intensivsten nach einem Sonnenfleckenmaximum auftreten.
Polarlichter entstehen nach extremen Ausbrüchen im Bereich von aktiven Sonnenflecken auf der Sonne. Dort wird das solare Magnetfeld komprimiert und verstärkt. Dadurch kann weniger heiße Sonnenmaterie zur Oberfläche aufsteigen. Weil der Nachschub an Wärme hier behindert wird, kühlt das Plasma im Bereich eines Sonnenflecks ab und er erscheint dunkler als seine Umgebung, weil er weniger Licht abstrahlt. In einer Sonnenfleckengruppe ist die Polarität des größten Flecks derjenigen des kleineren Flecks oder mehrere kleineren entgegengesetzt. Zwischen den Flecken spannen sich dann Magnetfeldbögen. Wenn die magnetischen Spannungen darin zu groß werden, können sich die Magnetfeldlinien schlagartig neu verbinden. Dabei werden große Energiemengen freigesetzt und es kommt gelegentlich zu extremen Explosionen, die große Mengen Sonnenmaterie mit Geschwindigkeiten vom mehreren tausend Kilometern pro Sekunde in den Weltraum schleudern können, sogenannte koronale Massenauswürfe (CME – engl. Coronal Mass Ejection). Treffen diese Wolken auf das die Erde umgebende Magnetfeld kann dieses stark gestört werden. Gleichzeitig treten intensive Polarlichter während dieser geomagnetischen Stürme auf. In extremen Fällen entstehen in der Hochatmosphäre und am Boden starke elektrische Ströme, die die elektrische Infrastruktur unserer Zivilisation stark schädigen können.
Das Polarlicht und der Brand im Bahnhof von Brewster am 14. Mai 1921 ereignete sich, als der Sonnenfleckenzyklus Nummer 15, der von 1913 bis 1923 dauerte, schon im Abklingen war.
Am östlichen, linken Sonnenrand taucht ein einzelner relativ großer Sonnenfleck auf, dessen Randbereich, die Penumbra, sehr dunkel ist.
Inzwischen zerfiel der einzelne Fleck in zwei einzelne, große Flecken. Der westliche zerfällt bis zum folgenden Tag in zwei Einzelflecken, während der östliche, nachfolgende Fleck weiterhin nur eine Umbra zeigt, aber wesentlich aktiver ist. Die gesamte Gruppe befindet sich nahe dem Sonnenäquator. Die Längenausdehnung der Gruppe beträgt 12° und in der Breite erstreckt sie sich über 6° im solaren Koordinatensystem.
Innerhalb der Sonnenfleckengruppe kommt es zu mehreren Ausbrüchen, sogenannten Flares.
An mehreren Observatorien wird gegen ca. 14:08 MEZ ein plötzlicher starker geomagnetischer Impuls aufgezeichnet. Ihm folgt gegen 20:24 MEZ ein weiterer. Beide führten zu deutlichen Störungen des irdischen Magnetfelds. In vielen Ländern Europas, in England, Frankreich, Schweden, Wales und Deutschland, sind helle Polarlichter zu sehen. In Bremen ist das Nordlicht gegen 22:30 am stärksten.
In einer Notiz, die in den Astronomischen Nachrichten erschien, berichtet K. Emde von „grünlichweiß leuchtenden Lichtbänken … dabei zeitweise fast den ganzen Himmelsraum in Norden bis zum Zenit hinauf.“ Daneben sieht er intensiv rötlich oder violett gefärbte Strahlen: „Es war, als ob unter dem Nordhorizont aufgestellte Scheinwerfer ihre Strahlenbündel senkrecht nach oben schickten, hier und da aufleuchtend und wieder verlöschend in ziemlich raschem Wechsel.“
Gegen 23:30 MEZ ist die Unruhe des irdischen Magnetfelds am stärksten.
Zusätzlich kommt es dieser Zeit zu kurzzeitigen Störungen der Telegrafenverbindungen. In Dänemark und Süd- bzw. Mittelschweden brechen die Telegrafensysteme zusammen. Auch auf der Südhalbkugel sind Systeme betroffen.
In der Fachzeitschrift Nature berichtet der berühmte englische Physiker Lord Rayleigh später von ungewöhnlich hellen Polarlichtern in den Nächten vom 13. bis 15. Mai. über England.
Nach rund circa 31 Stunden, gegen 21:30 MEZ am 14. Mai, beruhigt sich die Lage wieder. Doch das ist nur die Ruhe vor dem eigentlichen Sturm. Die erste Aktivitätsperiode hat möglicherweise erst den Weg für den eigentlichen großen Sturm am 14. und 15. vorbereitet. Die koronalen Massenauswürfe der vorhergehenden Tage fegten möglicherweise Plasma aus dem Bereich innerhalb der Erdbahn heraus, sodass nachfolgende Explosionswolken die Erde schneller erreichen.
Kurze Zeit nachdem die erste Welle zum Erliegen gekommen war, prallt um 23:13 MEZ eine weitere von der Sonne kommende Plasmawolke noch heftiger auf das irdische Magnetfeld. In den folgenden sieben Stunden baut sich ein enormer geomagnetischer Sturm auf.
In Breslau beobachtet der Astronom A. Wilkens auf dem Nachhauseweg zwischen 01:20 MEZ und 02:30 ein wundervolles Polarlicht in Form eines gestreiften Vorhangs mit intensiv roter Farbe.
Am Watheroo-Observatorium in Australien erreicht gegen 05:30 MEZ des 15. Mai die Störung des Magnetfeldes Werte knapp unterhalb des Carrington-Ereignisses im Jahr 1859. Weltweit werden die Magnetometer überlastet, als ihre Schreibnadeln über den Rand der damals verwendeten Papierstreifen ausschlagen.
Jetzt sind in vielen Regionen der Erde Polarlichter zu beobachten, auch über Gebiete mit geringer geomagnetischer Breite.
Die New York Times berichtet in ihrer Ausgabe vom 16. Mai, dass sie am Abend des 14. Mai (Ortszeit) sehr hell waren und die ganze Nacht über andauerten. Erst kurz bevor die Sonne aufging, verblassten sie:
“Das Polarlicht, das trotz des hellen Mondlichts den Himmel in verschiedene Farbtöne gehüllt hatte, behauptete sich mühelos gegen das erste Leuchten im Osten. Als das Leuchten heller wurde, schienen sich die schimmernden Strahlen und Felder aus Rosa, Gelb, Orange und schwachem Violett zu einem stahl-farbigen Bogen zu vereinen, der sich von Horizont zu Horizont erstreckte, zitterte und vibrierte, eine Zeit lang schwächer wurde und dann wieder deutlich sichtbar war.
Die stählerne Farbe verblasste zu einem schwachen Gelb, das sich mit dem charakteristischen zitternden, wellenförmigen Effekt der Aurora Borealis über das gesamte Himmelsgewölbe ausbreitete. Ein orangefarbener Farbton begann sich über das Leuchten der Morgendämmerung zu legen. Orangefarbene Wolkengebilde schoben sich allmählich über die steifen gelben Vorhänge. Dann erschien der Rand der Sonne und wusch alle seltsamen Farben aus dem Himmel.“
Alles in allem gibt es viele Berichte über helle Polarlichter mit besonders starken Aktivitäten im Abstand von jeweils einer Stunde zwischen 02:00 und 07:00 MEZ. Die Daten deuten darauf hin, dass bis zu 5 Teilstürme (substorms) auftraten. Bei einigen dieser Spitzen kam es zu weiteren Störungen in Telefon- und Telegrafensystemen.
In Karlstad, Schweden, geht gegen 3 Uhr MEZ die Telegrafenstation in Flammen auf und wird komplett zerstört.
“Die magnetischen Störungen waren bei weitem die schlimmsten, die je erlebt wurden. Auf unseren Landleitungen brannten zahlreiche Sicherungen durch und wir hatten große Schwierigkeiten mit den Unterseekabeln.
Die elektrischen Ströme im Meer, die das Polarlicht begleiteten, suchten sich die Schwachstellen in den Kabelisolierungen, drangen durch sie durch und unterbrachen den Dienst. Es ist wahrscheinlich, dass wir Schiffe aussenden müssen, um einige der Kabel hochzuholen und die Schäden zu reparieren“, erklärt Newcomb Carlton, Präsident der Western Union Telegraph Company in einem Interview mit der New York Times vom 17. Mai
Die globalen Auswirkungen dieses enormen geomagnetischen Sturms zeigen sich auch in den Schäden und Störungen der Telegrafensysteme in vielen Ländern der Erde. Telegrafenverbindungen brechen zusammen, weil starke elektrische Ströme die Anlagen beschädigten, so in Australien, Brasilien, Dänemark, Frankreich, Japan Neuseeland, Norwegen, Großbritannien und den USA.
In den lokalen Abendstunden des 14. Mai setzten starke Ströme in den Telefonleitungen das Bahnhofsgebäude der Union Railroad in Albany, New York, in Brand, dass danach wie das in Brewster bis auf die Grundmauern niederbrennt. Auch die Leitungen der Telefongesellschaft Bell System werden beschädigt, wodurch gegen 01:00 Uhr Ortszeit (06:00 Uhr MEZ) am 15. Mai, kurz vor dem Maximum des Sturms, zahlreiche Telefonleitungen ausfallen, die Brooklyn (New York City) mit Long Island (New York State) verbinden, weil Heizspulen und Ableiter durchbrennen.
Am 15. Mai berichtet die New York Times von Störungen der Stromversorgung durch starke Spannungsschwankungen in den Netzen an der Ostküste der Vereinigten Staaten, wobei auch unterirdische Leitungen betroffen sind.
Auch in den Telegrafen- und Telefonleitungen der Boston and Albany Railroad verursachen extreme elektrische Ströme in den Morgenstunden des 15. Mai (MEZ) beträchtliche Schäden an zahlreichen Stellen der 250 Kilometer langen Strecke zwischen Boston und Albany.
Am 15. Mai gegen 07:04 vormittags lokaler Zeit fällt das gesamte Signal- und Schaltsystem der New York Central Railroad auf einer Länge von 6 Kilometern in der Millionenstadt aus. Zusätzlich bricht im Kontrollturm an der Ecke 57. Straße und Park Avenue ein Feuer aus. Deshalb wird das Ereignis im englischsprachigen Sprachraum auch als „New York Railroad Storm“ bezeichnet.
Doch inzwischen gibt es Zweifel, ob diese beiden Vorfälle wirklich durch den geomagnetischen Sturm verursacht wurden, weil sie sich erst während der Abklingphase des Sturms ereigneten.
Nachdem sich der Sturm bis zum 16. Mai etwas gelegt hat, trifft dann in den Morgenstunden um 02:24 MEZ die nächste Schockfront von der Sonne ein und führt erneut zur Unruhe des Magnetfeldes, bei der Polarlichter immer noch bis in mittleren Breiten zu sehen sind.
Diese Sturmphase endet schließlich um die Mittagszeit. Aber gegen Mitternacht kollidierte eine weitere Plasmawolke mit dem irdischen Magnetfeld. Allerdings bleiben die Auswirkungen deutlich hinter den vorherigen Stürmen zurück.
Beobachtungen am Stonyhurst College Observatory in Clitheroe, Lancashire, England zeigen, dass das Magnetfeld sich am 18. Mai ruhig verhält, aber am Abend des 19. wieder unruhig wird.
Am 19. Mai verschwindet die Sonnenfleckengruppe wieder hinter dem westlichen Rand der Sonne.
Erst zwei Tage später, am 21. Mai 1921, verschwinden auch die letzten Auswirkungen der aktiven Sonnenfleckengruppe.
Bleibt die Frage, wie oft solche extremen geomagnetischen Stürme auftreten? Untersuchungen der Intensitäten der auf die Erde auftreffenden Plasmawolken und deren Geschwindigkeiten zeigen, dass das Carrington-Ereignis kein Einzelfall war. Tatsächlich setzte ein Flare im August 1972 mehr Energie frei und die Geschwindigkeit der Explosionswolke war höher als die im Jahr 1859. Glücklicherweise verfehlte sie unseren Planeten. So gesehen könnte sich das Carrington-Ereignis in der nicht allzu entfernten Zukunft wiederholen. Während eines Sonnenfleckenzyklus gibt es immer einen großen Flare mit dem geeigneten Potenzial. Dennoch war das Carrington-Ereignis im Jahr 1859 wohl die Ursache des stärksten geomagnetischen Sturms der letzten 162 Jahren.
Weiter stellt sich die Frage, ob die Sonne noch gewaltigere Flares erzeugen kann? Für eine verlässliche Antwort werden die zugrundeliegenden physikalischen Prozesse zurzeit aber nicht gut genug verstanden. Selbst Aussagen über die Wahrscheinlichkeit für das Auftreten ähnlich starker Ereignisse sind mit sehr großen Unsicherheiten behaftet, weil nur sehr wenige statistischen Daten vorliegen. Dennoch bleibt festzuhalten, dass es eine Beziehung zwischen starken solaren Flares und intensiven geomagnetischen Stürmen gibt, wenn auch nicht jeder Superflare zu einem entsprechenden Magnetsturm führt, weil die Explosionswolke die Erde verfehlt oder die Polarität ihres Magnetfelds ungeeignet ist. Nur wenn sie nach Süden ausgerichtet ist, können sich ein geomagnetischen Sturm und intensive Polarlichter aufbauen.
Versuche die Fragen durch Modellrechnungen zu beantworten, führen nicht zu wirklich befriedigenden Ergebnissen. Zu wenig sind die physikalischen Wechselwirkungen des interplanetaren magnetischen Feldes mit dem irdischen beim Eintreffen eines koronalen Massenauswurfes bekannt. Allerdings deutet einiges darauf hin, dass selbst heute noch technische Anlagen wie Stromnetze in mittleren geomagnetischen Breiten beschädigt werden können.
Sucht man in der wissenschaftlichen Literatur nach ähnlich starken geomagnetischen Stürmen, zeigt sich, dass der „Eisenbahnsturm von 1921“ dem Carrington-Ereignis vom September 1859 ähnelt, aber etwas schwächer war. Allerdings zeichnet sich der Sturm von 1921 durch die glaubwürdige Beobachtung eines Polarlichts an einem Ort mit der niedrigsten geomagnetischen Breite aus. Am Abend des 15. Mai 1921 war in Apia auf Samoa ein 25 Grad breiter roter Bogen eines Polarlichts zu sehen. Die geomagnetische Breite betrug damals nur 15,3° S. Zum Vergleich, beim Carrington-Ereignis betrug die niedrigste gemeldete Breite ca. 18°. Auf Samoa war die Himmelserscheinung nur eine dreiviertel Stunde zu sehen. Auch von den Tonga-Inseln im Pazifik liegen ähnliche Berichte vor.
Auch wenn jeder Sonnensturm seine eigene Signatur besitzt, lassen sich doch einige Gemeinsamkeiten erkennen:
Seit den 1840er Jahren wird das irdische Magnetfeld mit Magnetometern vermessen. Daher weiß man, dass seitdem viele geomagnetische Stürme gab, aber nur sehr wenige mit extremer Stärke. Neuere Studien lassen vermuten, dass dies öfter als alle 150 Jahre geschieht. Vermutlich produziert die Sonne aber während eines Jahrhunderts eine Reihe extremer koronaler Massenauswürfe, die aber meist keine geomagnetischen Stürme verursachen, weil sie die Erde verfehlen oder ihr Magnetfeld nordwärts orientiert ist. Solche Ausbrüche können in jeder Phase eines Sonnenfleckenzyklus und auch während schwacher Zyklen auftreten.
Nach einer kürzlich erschienen neuen Studie treten starke geomagnetische Stürme wie der berühmte Quebec-Blackout im März 1989 doppelt so häufig auf, als bisher vermutet.
Vor 100 Jahren schädigte ein tagelang anhaltender starker geomagnetischer Sturm wichtige technische Einrichtungen und führte zu gravierenden Störungen an technischen Systemen. Heute hängt unsere Leben und Wohlergehen noch stärker an der von uns geschaffenen technischen Infrastruktur als damals. Beim Ausfall satellitengestützter Systeme wie GPS, Fernsehen, Wettervorhersage, Telekommunikation oder der Stromversorgung großer Gebiete käme es zu Schäden mit weitreichenden Folgen. Die weltweiten Kosten dürften viele Milliarden Euro betragen. Wie man dieser Bedrohung entgegenwirken will und kann, wird demnächst Thema eines weiteren Blogs sein.
Rayleigh, B. (1921): The Aurora of May 13–16. In: Nature 107, S. 392.
Cannon, P. et al. (2013): Extreme space weather: impacts on engineered systems and infrastructure. Summary report. Hrsg: Royal Academy of Engineering, London, Großbritannien
Cortie, A.L. (1921): The Sun-Spot Group and the Magnetic Disturbances, 1921 May 8-21. In: Monthly Notices of the Royal Astronomical Society Volume 81 (Issue 8, June 1921), S. 515–520, zuletzt geprüft am 09.03.2021.
Hapgood, M. (2019): The Great Storm of May 1921: An Exemplar of a Dangerous Space Weather Event. In: Space Weather 17 (7), S. 950–975.
Love, J.J. et al. (2019): Intensity and Impact of the New York Railroad Superstorm of May 1921. In: Space Weather 17 (8), S. 1281–1292.
Mitchell, A. C. (1921): The Magnetic Storm of May 13-17. In: Nature 107 (8), S. 392–393.
Phillips, T. (2020): The Great Geomagnetic Storm of May 1921. Zuletzt aktualisiert am 14.05.2020, zuletzt geprüft am 09.03.2021.
Phillips, T. (2021a): The Great Québec Blackout. Hg. v. spaceweather.com. Online verfügbar unter
Phillips, T. (2021b): The Chance of Storms Just Doubled. Hg. v. spaceweather.com. Zuletzt aktualisiert am 09.04.2021, zuletzt geprüft am 21.04.2021.
The Brewster Standard (1921): Aurora Borealis Burns Depot. In: The Brewster Standard, 20.05.1921, S. 1.
The Los Angeles Times (1921): Aurora is Disturber. Telegraph Service Prostrated. In: The Los Angeles Times 1921, 15.05.1921, S. 1–2.
The New York Times (1921a): Sunspot Aurora Paralyzes Wires. In: The New York Times, 15.05.1921, S. 1.
The New York Times (1921b): Sunspot Credited with Rail Tie-up. In: The New York Times, 16.05.1921, S. 2.
The New York Times (1921c): Cables Damaged by Sunspot Aurora. In: The New York Times, 17.05.1921, S. 1.
Wilkens, A., Emde, K. (1921): Über das Nordlicht vom 13. und 14. Mai 1921. In: Astronomische Nachrichten (213), S. 383–384.
Wilson, L.J. (1921): An Unusual Development of an Aurora. In: Popular Astronomy 29, S. 374–376.
]]>Dieser Blog nennt sich „Das Universum nebenan“. Eigentlich verband ich ursprünglich die Absicht, über Themen aus den Bereichen Astronomie und Physik allgemeinverständlich zu schreiben. Doch wurde mir in den letzten Monaten klar, in denen die Corona-Pandemie das alles beherrschende Thema war, dass nicht nur in der Physik über Paralleluniversen geredet wird, sondern auch Teile der Bevölkerung in ihren eigenen Paralleluniversen leben. Als Naturwissenschaftler war ich besonders darüber bestürzt, dass auch so mancher Mediziner mit zum Teil völlig den wissenschaftlichen Erkenntnissen widersprechenden Argumenten, die Pandemie und Gefährlichkeit von COVID19 leugnete. Als dann die Querdenker-Bewegung lautstark Verschwörungsmythen verbreitete, die leicht als Lüge oder Falschmeldungen zu entlarven waren, fragte ich mich, wie es sein kann, dass sich ihre Anhänger den tatsächlichen Fakten teilweise vehement verweigern. So fing ich vor einigen Monaten an, mich näher mit diesem Phänomen auseinanderzusetzen. Ich musste dabei feststellen, dass es sich hierbei um eine äußerst komplexes, facettenreiches Thema handelt, dass kaum in einem Blog umfassend behandelt werden kann. Mir wurde dann schnell klar, dass ich es nicht in seiner ganzen Breite und Tiefe behandeln kann. Deshalb mag der Leser manche Beispiele und Aspekte vermissen. Aber dieser Blog ist schon sehr lang. Auf Papier umfasst er 15 Seiten. Wegen des großen Umfangs habe ich mich entschlossen, den Blog in mehreren Teilen zu veröffentlichen.
Dennoch möchte ich hier die wichtigsten Punkte vorstellen, die meiner Ansicht nach maßgebend für die Verbreitung von Verschwörungsmythen sind. Als Physiker und Astronom versuche ich deshalb an einigen Beispielen aus dem physikalischen Umfeld die Beweggründe der Anhänger von Verschwörungstheorien zu beleuchten.
Verschwörungsmythen und Desinformationskampagnen sind kein neues Phänomen, sondern existieren schon seit Jahrhunderten. Manchmal, insbesondere heute, wo die technischen Möglichkeiten des Internets zur Verfügung stehen, geht es dabei wie in der Corona-Pandemie buchstäblich um Leben und Tod. Seit dem Ausbruch der Corona-Pandemie haben Verschwörungsmythen, andere sagen Verschwörungstheorien, Hochkonjunktur. Lautstarke laufen verschiedene Gruppen gegen die politischen Maßnahmen Sturm. Wissenschaftler sehen sich zum Teil heftigen und persönlichen Angriffen von Corona-Leugnern und Maskengegnern ausgesetzt.
Man könnte Verschwörungsmythen schnell als Spinnereien abtun, aber so einfach ist es nicht. Verschwörungsmythen treten wohl überall in unserer Gesellschaft und sind ziemlich facettenreich. Sie zeigen sich in vielen verschiedenen Ausprägungsformen. Manchmal sind sie nur auf ein gesellschaftliches Umfeld beschränkt, andere zielen auf mehrere Aspekte in unterschiedlichen Bereichen.
Aber auch im Bereich der Naturwissenschaften machen sich im Internet immer wieder merkwürdige Meinungen breit, die die anerkannten wissenschaftlichen Erkenntnisse infrage oder sogar in Abrede stellen.
Daraus ergeben sich mehrere Fragen: Wie kann es sein, dass sich Verschwörungsmythen im wissenschaftlichen Umfeld so hartnäckig halten? Wie stark können Verschwörungsmythen die Gesellschaft schädigen? Wie soll man damit umgehen? Sollten nicht alle, die wissenschaftliche Gemeinschaft und Wissenschaftsjournalisten, sich erheben, um Verschwörungsmythen aufzudecken und zu bekämpfen? Wie muss sich Wissenschaftskommunikation ändern, um dieser Herausforderung zu begegnen? Und was sind die besten Strategien? Wie sollte die Gesellschaft und der Einzelne darauf reagieren?
Um diese nicht neuen Fragen zu beantworten betrachte ich im Folgenden einige pseudowissenschaftliche Vorstellungen im naturwissenschaftlich-physikalischen Umfeld, die damit verbundenen Problemfelder und stelle mögliche Ansätze für Gegenmaßnahmen vor. Auf die in der aktuellen Corona-Pandemie kursierenden Mythen werde ich nur insoweit eingehen, wie sie für das Verständnis des Phänomens Verschwörungsmythen gegen Wissenschaft wichtig sind.
Meine erste engere Begegnung mit Vertretern pseudowissenschaftlicher Ansichten hatte ich kurz nach Abschluss meines Physikstudiums, 1976. Damals nahm ich an der Jahrestagung der Deutschen Physikalischen Gesellschaft teil. Dort trat jemand auf, der das gängige Modell des Photons nicht akzeptieren wollte. Er propagierte stattdessen ein Konzept von ineinander wirbelnden Ringen. Das Ganze klang für mich ziemlich schräg und verwirrend, aber andere Teilnehmer kannten den Redner schon und betrachteten seinen Beitrag als unterhaltsame, wenn auch sinnlose Einlage.
Das Internet gab es noch nicht. Wissenschaftler wurden mit solchen bahnbrechenden Erkenntnissen nur selten und dann meist schriftlich konfrontiert. In zehn Jahren bekam ich nur von einer einzigen Person mehrfach Post, in der sie ihre „Theorien“ vorstellte. Das machte den Umgang mit diesen Informationen ziemlich einfach: Zuerst versuchte man, dem Briefschreiber eine begründete Antwort zu geben und als das nicht half, gab es immer noch die Ablage „P“ – wie Papierkorb.
Doch heute ermöglicht das Internet es jedem, seine Meinung zu veröffentlichen. Das ist der große Unterschied zu früher, als solche Beiträge sich praktisch nicht ausbreiten konnten, ohne dass ihre Verfasser dafür einen mehr oder minder großen Aufwand treiben mussten. Heute geht das praktisch kostenlos und schnell. Deshalb ist es wenig erstaunlich, dass die Legitimation der Wissenschaft wesentlich häufiger und heftiger angezweifelt bzw. bestritten und der Begriff Experte bei einigen Mythenanhängern oder Mythenprotagonisten sehr individuell nach der persönlichen Vorliebe vergeben wird. Laien widersprechen Fachleuten, als würden sie das Thema besser als die anerkannten wissenschaftlichen Experten verstehen, auch wenn sie ihren Abschluss nur an der Universität Google gemacht haben.
„Meine Erkenntnisse und meine Entdeckung sind Wissenschaft!“
Manche stellen einfach irgendwelche Behauptungen auf, die auf äußerst geringen physikalischen Kenntnissen beruhen, andere wiederum mit technisch-wissenschaftlichem Hintergrund geben sich dagegen richtig Mühe, um eine Theorie aufzustellen. Sie selbst halten ihre Ergebnisse für Wissenschaft.
Ich sehe das Problem zum Teil darin, dass im Netz alle Informationen nebeneinander stehen: geprüfte Fakten neben Verschwörungsmythen und Falschmeldungen usw. So gibt es die international aktive Gruppe der Flacherdler. Andere wiederum glauben, wir leben in einer Hohlwelt oder vertreten die Ansicht, alle Sterne wären von Schwarzen Löchern herausgeschleudert worden. Solche und andere pseudowissenschaftliche Mythen machen sich heutzutage mehr oder weniger penetrant in vielen Internetforen breit.
Auffallend ist, dass Verschwörungsmythen gegen Kritik gefeit sind. Ihr Prinzip ist recht einfach: Die klassischen Medien, Politiker, Wissenschaftler und wissenschaftliche Einrichtungen würden mit politischen und/oder wirtschaftlichen Mächten unter einer Decke stecken. Alle, die diesen folgen, wären naive Schafe. Wer dagegen zu den Erleuchteten gehören will, findet die „Wahrheit“ bei unabhängigen Quellen – was immer das bedeutet – und durch den Austausch mit gleichgesinnten in einschlägigen Foren im Internet. Das trifft besonders für gesellschaftspolitische Verschwörungsmythen zu.
Um die Problematik an einem konkreten Beispiel deutlich zu machen, werfen wir einen Blick auf einen Verschwörungsmythos, der nicht neu ist, aber in den letzten Jahren immer mehr Anhänger gewinnen konnte.
Fans von Terry Pratchetts Scheibenweltromanen sind von den dortigen sonderbaren Verhältnisse fasziniert, wissen aber genau, dass es sich hierbei um eine reine Fiktion und eine besondere Form von Humor handelt. Aber selbst im 21. Jahrhundert gibt es Mitmenschen, für die unsere Erde ebenfalls eine Scheibe ist und die Kugelgestalt ablehnen. Man kann sich darüber lustig machen, aber die Zahl der Anhänger der Theorie der Flacherde nimmt sogar seit einigen Jahren zu.In den Vereinigten Staaten und anderen Ländern finden inzwischen sogar internationale Konferenzen der Flacherdler statt, an denen bis zu einigen hundert Personen teilnehmen.
Deshalb möchte ich daran die zugrundeliegenden Probleme mit solchen pseudowissenschaftlichen Vorstellungen darstellen.
Zum besseren Verständnis schauen wir uns einmal die Entwicklung unserer heutigen Vorstellung von der Gestalt der Erde an.
Schon im Altertum gab es überzeugende Beweise, dass die Erde eine Kugel ist. Dem griechischen Philosophen Aristoteles (384 – 323 v. Chr.) fiel auf, dass er neue Sternbilder sah, als er nach Ägypten reiste. Ein anderer griechischer Philosoph, Eratosthenes, berechnete im dritten vorchristlichen Jahrhundert den Umfang der Erde mit erstaunlicher Genauigkeit, indem er die Höhe der Sonne zur Mittagszeit in Alexandria und Assuan maß. Um das 9. Jahrhundert n. Chr. gelangen islamischen Gelehrten genauere Messungen, bevor europäische Seefahrer im 16. Jahrhundert um die Erde segelten. Heute haben wir tausende von Bildern der Erde, die aus dem Weltraum aufgenommen wurden und die Erde als Kugel zeigen.
Welche Beweise braucht es noch? Wie sind Flacherdler gestrickt, dass sie von der Kugelgestalt der Erde nicht überzeugt sind?
Die heutige Bewegung der Flacherdler geht wohl auf einen Artikel des englischen Erfinders und Schriftstellers Samuel Rowbotham (1816–1884) aus dem Jahre 1864 zurück. Nach seinen Vorstellungen ist die Erde eine flache, unbewegliche Scheibe, deren Zentrum am Nordpol liegt. Die Antarktis ist demnach eine Wand aus Eis, die die Scheibe umgibt und verhindert, dass die Ozeane leerlaufen.
Wie bei jeder esoterischen Bewegung gibt es unter den Flacherdlern verschiedene Gruppen, die unterschiedliche Modelle vertreten. Manche meinen, dass sich die flache Erde mit samt ihrer Atmosphäre wie in einer Schneekugel innerhalb einer Halbkugel befindet. Somit kann niemand über den Rand fallen. Tag und Nacht erklären die meisten Anhänger der Idee damit, dass sich die Sonne um den Nordpol bewegt und dabei die Oberfläche der Erde wie ein Scheinwerfer beleuchtet. In den Vereinigten Staaten glauben mache Anhänger, dass Sonne und Mond nur einen Durchmesser von 50 Kilometern besitzen und die scheibenförmige Erde in einer Höhe von 5.500 Kilometern umkreisen. Darüber befinden sich die Sterne an einem sich drehenden Dom. Die Schwerkraft erklären viele damit, dass die ganze Scheibe mit 9,8 m/s2 beschleunigt wird.
Als Physiker greife ich mir an Kopf und frage mich, wie intelligente Menschen heutzutage solche Vorstellungen vertreten können.
Asheley Landrum, eine Psychologin von der Texas Tech University in Lubbock, die 2018 an der Flat Earth International Conference in Denver teilnahm, meint, dass die Flacherdler authentisch sind und nicht herumalbern. „Falls sie trollen, sind sie sehr gute Schauspieler“, sagt sie. „Wir sprachen mit mehr als 90 Mitgliedern der Flach-Erde-Gemeinschaft, und sie sind alle sehr aufrichtig in ihren Überzeugungen“. Bei der Veranstaltung in Denver gab es u.a. Vorträge über „Mit ihrer Familie und ihren Freunden über die flache Erde sprechen“, „Lügen der NASA und andere Weltraumlügen“ und „14+ Wege, was die Bibel über die flache Erde sagt“.
Misstrauen gegenüber Autoritäten
Asheley Landrum führt das Verhalten der Anhänger von Verschwörungsmythen nicht auf mangelnde Bildung zurück. Zu diesem Schluss kam sie nach den Gesprächen mit Konferenzteilnehmern. Obwohl es Anzeichen dafür gibt, dass Personen mit geringer wissenschaftlicher Vorbildung anfälliger für pseudowissenschaftliche Ideen sind, weist sie darauf hin, dass auch Flacherdler nicht notwendigerweise der Wissenschaft misstrauen. Ihrer Meinung nach hat das Phänomen nichts mit Erziehung zu tun, vielmehr geht es um Misstrauen gegenüber Autoritäten und Institutionen. „Es ist keine Frage der Bildung. Vielmehr geht es tatsächlich darum, Behörden und Institutionen zu misstrauen. Das scheint sowohl auf einer Verschwörungsmentalität als auch auf einem tiefen Glauben zu wurzeln, der sehr nach Religiosität aussieht, aber nicht unbedingt an eine spezifische Religion gebunden ist.“
Landrum sieht auch einen Zusammenhang, der mit einer Anfälligkeit an trügerische Behauptungen in sozialen Medien zusammenhängt. Sie meint, dass die Betroffenen die Fähigkeit verloren haben, zu beurteilen, wann sie Vertrauen haben und wann sie skeptisch sein sollten. Ihr mangelndes Vertrauen betrifft nicht nur Autoritäten und Wissenschaftler, sondern auch wissenschaftliche Einrichtungen wie die NASA, weil die ihrer Meinung nach alle Teil einer massiven Verschwörung sind, die verhindern soll, dass die Wahrheit über die flache Erde aufgedeckt wird. „[Sie] sehen die Welt durch diesen wirklich dunklen Filter, in dem [sie] davon ausgehen, dass alle Behörden, Institutionen und Unternehmen nur dazu da sind, [die Wahrheit] zu unterdrücken.“
Der Philosoph Lee McIntyre von der Boston University, der ebenfalls im Rahmen seiner Forschungsarbeit zur Wissenschaftsleugnung an der Konferenz in Denver teilnahm, ergänzt, dass die Flacherdler, mit denen er sich unterhielt, jeweils an mehrere verschiedene Verschwörungstheorien glaubten, darunter, dass Regierungen das Wetter kontrollieren und von Flugzeugen ausgehende Kondensstreifen in Wirklichkeit Chemtrails sind, mit denen chemischen oder biologischen Substanzen versprüht werden, um das Verhalten der Bevölkerung zu beeinflussen.
„Nur im Glauben, dass wir nicht auf dem Mond waren, sind sie sich einig“, sagt er. „Wenn man ihnen Beweise für die Kugelgestalt anbietet, wie die Ansicht der Erde vom Mond aus, erklären sie das für eine Fälschung“.
Tatsächlich sind viele Flacherdler nach Einschätzung von Beobachtern mehr an einer Verschwörungsidee als an der Bereitstellung eines brauchbaren Modells einer flachen Erde interessiert.
Seltsamerweise misstrauen Flacherdler Wissenschaftlern bzw. der Wissenschaft, sind aber nicht gegen wissenschaftliche Methoden. Landrum halt Anhänger pseudowissenschaftlicher Vorstellungen für durchaus bereit, Experimente zur Stützung ihrer Thesen durchzuführen, aber sie tun sich schwer, ihre Meinung zu ändern, sollte das Experiment fehlschlagen.
McIntyre berichtet von einer verstörenden Diskussion mit einem der Gastredner auf der 1. Internationalen Flacherdlehr-Konferenz im November 2018 in Denver, USA. Um zu prüfen, ob die Erde flach oder eine Kugel ist , vereinbarten er mit ihm, einen Flug von Santiago de Chile nach Auckland, Neuseeland, über die Antarktis durchzuführen. Auf einer Kugel ist diese Reise einige tausend Kilometer lang. Für Flacherdler existiert die Antarktis dagegen nicht als Kontinent, sondern bildet eine Mauer aus Eis, die sich über mehrere zehntausend Kilometer um den Rand der Erdscheibe zieht. Ist die Erde eine Kugel, kann ein Flugzeug die Strecke ohne nachzutanken bewältigen. Im Falle einer Scheibe würde das Flugzeug entlang ihres Randes fliegen. Da dieser Weg wesentlich länger ist (siehe Abbildung 1), muss die Maschine zwischenlanden und nachgetankt werden. Deshalb vereinbarten sie, dass die Erde eine Scheibe ist, falls dies geschehe, andernfalls muss etwas an der Theorie der Flacherde falsch sein. So weit, so gut.
Doch plötzlich hielt sein Gesprächspartner inne und fragte: „Was, wenn das Ganze ein Schwindel ist? Vielleicht müssen Flugzeuge nicht auftanken? Vielleicht können sie mit einer Tankfüllung überall auf der Erde hinkommen. Das könnte alles eine Falle sein.“ Auf die Gegenfrage, ob er damit sagen wolle, dass die gesamte Geschichte der Luftfahrt eine Täuschung sei, damit alle glauben, Flugzeuge müssen zwischendurch auftanken, obwohl sie es tatsächlich nicht müssen, dass all dies getan werde, damit alle den Glauben an die flache Erde aufgeben, bekam er ein schlichtes „Ja“ zur Antwort.
Für McIntyre ist dieses Erlebnis, die Ablehnung grundlegender wissenschaftlicher Erkenntnisse, ein Hinweis auf eine gefährliche Entwicklung. Flacherdler verletzen niemanden direkt, aber durch die Verbreitung von Verwirrung und Zweifel schaffen sie – und andere Verschwörungsmythen – eine Kultur der Ablehnung. Diese kann indirekt Leben kosten, indem sie persönliche oder politische Entscheidungen wie z. B. zu Impfungen oder den Klimawandel beeinflusst.
Sein Fazit: letztendlich beruhen alle Ideen der Flacherdler auf Irrtümern und einem falschen Verständnis der Wissenschaft. „Einige der Flacherdler wissen genug über Physik, um mit dem Vokabular herumzuwerfen, aber sie verstehen eigentlich nicht genug Physik, um von der Wahrheit überzeugt zu werden.“
Nikk Effingham, ein Philosoph an der Universität von Birmingham in Großbritannien, der sich in London mit Flacherdlern getroffen hat, erläutert, dass wir oft nicht erkennen, wie sehr das Vertrauen in Autorität unsere Überzeugungen prägt. „Wenn wir versuchen, zu beweisen, dass so etwas wie die Erde rund ist, weil wir daran glauben und uns deshalb so sicher sind, unterschätzen wir die berechtigte Rolle der Autorität dabei“, sagt er. Die meisten Menschen akzeptieren daher gerne, dass die Welt ein Globus ist, auch wenn sie die wissenschaftlichen Beweise dazu nicht sofort wiedergeben können.
Klar ist auch, dass der Aufstieg des Flache-Erde-Glaubens vor allem durch das Internet und YouTube-Videos angeheizt wurde, wo viele Videos zu finden sind, die angeblich Beweise zeigen, dass die Erde flach ist. „Fast alle, mit denen wir gesprochen haben, sagten, dass sie mit der Idee der flachen Erde entweder direkt auf YouTube in Kontakt gekommen waren oder über ein Familienmitglied, das sie selbst auf YouTube fand”, erklärt Landrum. Flache-Erde-Videos präsentieren oft in rascher Folge zahlreiche Argumente, die Landrum als eine Illusion von Sprachgewandtheit bezeichnet.
Bezeichnend ist in diesem Zusammenhang das Leugnen von bekannten Experimenten, wie dem Foucaultschen Pendel, das in vielen Museen aufgehängt ist und die Drehung der Erde zeigen soll. Aufgrund der Erhaltung des Drehimpulses bleibt nach den Gesetzen der Physik die Richtung der Schwingungsebene des Pendels konstant, während sich die Erde darunter dreht. Erstmalig wurde solch eine Vorrichtung von Léon Foucault im Jahr 1851 im Pariser Pantheon aufgehängt. Flacherdler halten dagegen, dass die Museen stattdessen das Pendel durch Elektromagnete zum Drehen bringen, um den Besuchern die Erdrotation vorzugaukeln.
Nun ist das Foucaultsche Pendel nicht das einzige physikalische Phänomen, das auf der Erddrehung beruht. Auch die Strömungsrichtungen von Hoch- und Tiefdruckgebieten sind davon abhängig. Durch die Coriolis-Kraft wird die Bewegung der Luftmassen senkrecht zu ihrer eigentlich Strömungsrichtung abgelenkt. Dadurch rotieren Tiefdruckgebiete auf der Nordhalbkugel gegen den Uhrzeigersinn, auf der Südhalbkugel im Uhrzeigersinn. Dasselbe gilt auch für Meeresströmungen.
Aber offensichtlich fehlt es den Flacherdlern und anderen an der Bereitschaft oder der Fähigkeit, Gegebenheiten kritisch und tiefgründiger zu hinterfragen. Einer der „Beweise“ dafür, dass die Erde eine Scheibe ist, beruht auf Fotos, auf denen z. B. die Skyline weit entfernter Städte zu sehen ist, obwohl sie sich aufgrund der Entfernung unterhalb des Horizonts befinden sollte. Tatsächlich handelt es sich hier um eine Lichtbrechung, eine Fata Morgana. Normalerweise nimmt die Temperatur der Luft mit der Höhe ab. Aber gelegentlich kommt es zu Inversionswetterlagen, bei denen die höheren Luftschichten wärmer sind als die am Boden. Dies geschieht vor allem über großen Wasserflächen. Das führt dann dazu, dass Lichtstrahlen, die von Gebäuden nach oben ausgehen, wieder nach unten gebrochen werden und weit entfernte Objekte bei klarer Luft somit in großer Entfernung sichtbar sind.
Wie McIntyre erkannte, sind Wissenschaftsleugner wie die Flacherdler ziemlich unkritisch gegenüber Erklärungen, die zu ihren Vorstellungen passen. Falls sie mit gegenteiligen Ansichten konfrontiert werden, versuchen sie alle möglichen Gegenargumente zu bringen, die beweisen sollen, dass sie doch recht haben, wobei manche bereit sind, ihr Leben aufs Spiel zu setzen.
So plante der US-Amerikaner Mike Hughes, bekannt geworden als „Mad Mike” oder „Rocketman” im Jahr 2017 in einer selbstgebauten Rakete von der Mojave Wüste zu starten, um zu beweisen, dass die Erde flach ist. Gegenüber Associated Press erklärte zuvor in einem Interview seine Beweggründe: „Ich glaube nicht an die Wissenschaft. Ich weiß über Aerodynamik und Fluiddynamik Bescheid und darüber, wie sich Dinge durch die Luft bewegen, über Größe von Raketendüsen und den Schub. Aber das ist keine Wissenschaft, das ist nur eine Formel“. Nach einer Reihe von Problemen und Widerständen führte er am 22. Februar 2020 sein Experiment durch, leider mit tödlichem Ausgang.
Vorweg muss ich darauf hinweisen, dass die gesellschaftliche Akzeptanz der Wissenschaft trotz aller kursierenden Verschwörungsmythen recht hoch ist. Im April und Mai 2020 befragte Wissenschaft im Dialog rund 1000 Bürger. Danach gaben 66 Prozent an, Wissenschaft und Forschung zu vertrauen. Der Frage, ob politische Entscheidungen im Umgang mit Corona auf wissenschaftlichen Erkenntnissen beruhen sollten, stimmten sogar 73 % zu. Warum also gelingt es Verschwörungsmythen sich in Teilen der Bevölkerung einzunisten?
Es wäre schön, wenn es dazu eine einfache Antwort gäbe, aber das ist wohl leider nicht der Fall. Vielmehr sind hierbei offenbar unterschiedliche Gründe und Mechanismen am Wirken, wie zahlreiche Untersuchungen zeigen.
Wie Thiem und Mandwurf zeigen, enthalten die glaubhaftesten Verschwörungsmythen kleine Teile der Wahrheit, um die eine Erklärung gebaut wird. Doch was ist Wahrheit? Hier kommen wir in ein Dilemma, denn wenn es um wissenschaftliche Erkenntnisse geht, halte ich den Begriff der Wahrheit für falsch, zumindest für irreführend.
In der Wissenschaft geht es nicht um Wahrheit, sondern darum, neue Erkenntnisse zu gewinnen, die Beobachtungen besser erklären können als zuvor.
Theorien sind nur begrenzt gültig
Um Forschungsergebnisse abzusichern, gibt es deshalb einen Mechanismus zur Selbstkorrektur, bei dem die experimentellen oder theoretischen Ergebnisse anderer geprüft und nachvollzogen werden. Sollten sich hier Abweichungen oder Fehler zeigen, muss weiter geforscht werden. Eine neue Theorie gilt bestenfalls als vorläufig mit Einschränkungen. Theorien werden permanent überprüft, bis man auf etwas stößt, dass ihnen widerspricht. Solange ein Modell bestätigt wird, bedeutet das nur, dass es im Rahmen des jeweiligen Experiments gültig ist.
Bestenfalls kann man zeigen, dass Theorien und Denkmodelle unter gewissen Umständen nicht mehr zutreffen, d. h. man kann sie nur falsifizieren. Sie gelten somit nur solange, wie sie nicht im Widerspruch zu den Ergebnissen und Beobachtungen anderer Experimente stehen. Andernfalls wird die betreffende Theorie überarbeitet, erweitert oder durch eine neue, bessere ersetzt. Aber wir werden nie zu DER unumstößlichen Wahrheit gelangen!
Verschwörungstheorien dagegen verstehen sich als DIE WAHRHEIT und wollen nicht falsifiziert werden!
So gesehen haben Anhänger von Verschwörungsmythen den wissenschaftlichen Prozess nicht verstanden, sei es aufgrund fehlender Kenntnisse, psychologischer Blockaden oder willentlich.
Eine Rechtfertigungslinie von Anhängern und Verfechtern von Verschwörungsmythen verweist darauf, dass die Wissenschaft sich oft geirrt hat. Wenn Erkenntnisse aufgrund neuer Daten von Forschern revidiert oder angepasst werden müssen, interpretieren sie dies als Schwäche und Fehler oder schlimmer als bewusste Falschinformation durch die Eliten, um die Bevölkerung zu manipulieren. Dieses Taktik nutzt dabei den Wunsch nach Einfachheit und Eindeutigkeit aus, um sich in einer komplexer werdenden Umwelt orientieren und behaupten zu können.
Die wissenschaftliche Aufarbeitung der Corona-Pandemie ist dafür ein aktuelles Beispiel (Stand: Herbst 2020). Anfangs war die Datenlage schwach. Aber im Laufe der Zeit fanden Forscher immer mehr über das Virus heraus, wodurch sich die wissenschaftlichen Erkenntnisse und Empfehlungen mehrfach änderten. Da sich die verschiedenen Forschergruppen mit unterschiedlichen Aspekten der Erkrankung und ihren
Auswirkungen befassten, kamen sie zu unterschiedlichen Aussagen. Das ist eine ganz normale Erscheinung im wissenschaftlichen Prozess. Doch nähern sich mit zunehmendem Wissensstand die Meinungen immer weiter an. Die Entwicklung ist bis heute noch nicht abgeschlossen. Bis zu einem allgemein akzeptierten
Wissensstand über die Corona-Erkrankung und ihren Folgen braucht es einfach Zeit.
Wenn der Wissensstand mit der Zeit anwächst, stellt sich die Frage, warum tauchen bei unklarem Kenntnisstand schon allerlei Verschwörungsmythen auf und welchen Nutzen haben ihre Vertreter davon? Noch schärfer stellt sich das Problem bei pseudowissenschaftlichen Thesen zu seit Jahrhunderten oder Jahrzehnten alten akzeptierten Forschungsergebnissen.
Nun, da die Vertreter von Verschwörungsmythen nach eigenem Verständnis im Besitz der unumstößlichen Wahrheit sind, fördern sie autoritäre Weltsichten. Durch den Aufbau von vermeintlichen Bedrohungen lassen sie sich als Machtmittel einsetzten. Normalerweise wird als Wahrheit anerkannt, was sich nach einer möglichst breit angelegten Diskussion ergibt. Doch da Verschwörungsgläubige schon im Besitz der Wahrheit sind, sind sie oft zu einer kritischen Auseinandersetzung nicht bereit.
Weit verbreitet ist die Art und Weise, zur eigenen Meinung passende, aber wissenschaftlich schlecht gemachte Studien immer wieder hervorzuheben. Funktioniert das irgendwann nicht mehr, wird die Zielrichtung der Argumentation geändert und neue Theorien und Hypothesen verbreitet.
Beliebte Argumente für pseudowissenschaftliche Thesen sind Verweise auf berühmte Wissenschaftler, die einst angefeindet wurden, wie Galileo Galilei, Kopernikus und andere. Die Idee dahinter ist einfach und schlicht: Die „gegenwärtig Verblendeten“, die an die hergebrachte Wissenschaft Glaubenden, werden sich doch noch den neuartigen Erkenntnissen anschließen.
Wird es schwierig, gehen Vertreter von Verschwörungsmythen in den Angriffsmodus über.
In den einschlägigen Foren werden Gegenmeinungen unterdrückt, Kritiker mundtot gemacht oder angegriffen bis hin zur Androhung juristischer Mittel oder Drohungen.
Wissenschaft wird angegriffen, verunglimpft oder als korrupt und somit unglaubwürdig dargestellt.
Das geht so weit, dass auch das politische System ins Visier der Wissenschaftsleugner gerät. Einerseits erwartet die Bevölkerung, dass die Politik wissenschaftliche Erkenntnisse aufgreift und entsprechend zum Wohle aller handelt. Aber je einflussreicher Wissenschaftler werden, desto mehr leidet die Legitimierung der politischen Führung. Das nutzen die Protagonisten der Verschwörungsmythen für ihre Zwecke aus. Ändern Wissenschaftler ihre Empfehlungen aufgrund neuer Erkenntnisse, wird dies ausgenutzt, um sowohl das Vertrauen in die Politik und die Wissenschaft zu schwächen. Zusätzlich sind Wissenschaftler, die als Experten in gewissen Situationen auftreten, für Mythenanhänger nicht demokratisch legitimiert.
Ein weiterer Ansatzpunkt für die Verbreitung von Verschwörungsmythen bietet die scheinbare Schwerfälligkeit und Trägheit der Politik, obwohl dies eigentlich normal ist.
Denn politische Entscheidungen, die auf wissenschaftlichen Erkenntnissen basieren benötigen Zeit, um die Daten zu prüfen und zu bewerten. Danach gilt es, die daraus abgeleiteten Maßnahmen ebenfalls auf den Prüfstand zu stellen und ebenfalls zu bewerten. Hinzu kommen Verzögerungen, weil verschiedene politische Institutionen, wie das Parlament, ebenfalls am Entscheidungsprozess beteiligt werden müssen.
Anderseits gibt es politische Strömungen und Regierungen, die selbst Verschwörungsmythen verbreiten bzw. ihnen Vorschub leisten, wie die Trump-Regierung in den USA, die den Klimawandel leugnete und bewusst die Bevölkerung über die Corona-Pandemie belogen hat bzw. die Gefährlichkeit des Virus trotz rasant steigender Infektionszahlen verharmloste. Aber US-Präsident Trump war nicht der einzige, der Verschwörungsmythen und antidemokratischen Strömungen Vorschub leistete. Weltweit argumentieren Populisten wie der türkische Präsident Erdogan, Viktor Orban in Ungarn, Wladimir Putin in Russland und andere ähnlich: Gegen DIE ANDEREN – Parteien, Medien, Regierungen und Richter – hilft nur die starke Hand eines starken Führers, der es besser weiß als wissenschaftlichen Experten.
Alle Verschwörungsmythen haben aber eines gemeinsam. Um sich zu schützen, werden nahezu allmächtige Feinde aufgebaut, in dem sie behaupten, es gäbe Aktionen von mächtigen Gruppen und Personen, die vor der Öffentlichkeit verborgen agieren. Deren Pläne und Handlungen wären äußerst komplex, weil dabei viele Akteure zusammenarbeiten würden. Deshalb ist es auch nur wenigen möglich, diese Verschwörungen aufzudecken. Versuche zu beweisen, dass Verschwörungsmythen schlicht falsch sind, sie zu falsifizieren, sind daher sehr schwierig, da ihre Protagonisten behaupten, die geheimen Verschwörer würden sich tarnen und Falschinformationen verbreiten, um ihre Aktionen zu verbergen. Vielfach wird der Spieß einfach umgedreht, in dem denjenigen, die aufklären wollen, vorgeworfen wird, selbst Teil des Komplotts zu sein.
Schaut man sich die Geschichte der Verschwörungsmythen an, fällt auf, dass sie besonders nach einer medialen Revolution oder in Krisenzeiten stark Beachtung fanden, worauf der Religionswissenschaftler Michael Blume in Spektrum Kompakt – Verschwörungsmythen hinweist.
So war es nach der Erfindung des Buchdrucks durch Johannes Gutenberg Mitte des 15. Jahrhunderts wesentlich einfacher, Information zu verbreiten als zuvor. Davon profitierte ein besonders übler Mythos – der Hexenwahn. 1486 veröffentlichte der Dominikaner Heinrich Kramer sein Buch Malleus maleficarum, der Hexenhammer, das bis ins 17. Jahrhundert in 29 Auflagen erschien. Oft spricht man in diesem Zusammenhang vom Finsteren Mittelalter, aber tatsächlich fand der Höhepunkt der Hexenverfolgung zum Beginn der Frühen Neuzeit statt, als eine Vielzahl von Kriegen, Seuchen und die Kleine Eiszeit Not und Elend über große Teile der europäischen Bevölkerung brachten. Historiker schätzen, dass im Laufe der Hexenverfolgung etwa drei Millionen Menschen der Prozess gemacht wurde und etwa 40.000 bis 60.000 der Beschuldigten hingerichtet wurden.
Mit der Erfindung des Internets kam es zur jüngsten medialen Revolution. Dadurch ist es für jeden noch leichter geworden, seine wie auch immer geartete Meinung zu verbreiten. In diesem Zusammenhang weist der Kommunikationswissenschaftler Wolfgang Schweiger ebenfalls in Spektrum Kompakt – Verschwörungsmythen auf mehrere Aspekte hin, die für die Wechselwirkung Mensch – Internet bedeutsam sind.
In Krisenzeiten suchen Menschen besonders intensiv nach Informationen und das Internet macht es Verführern leicht, sich als seröse Quelle auszugeben. Leider hilft der Ratschlag, bei Informationen im Netz vorsichtig zu sein, nicht wirklich weiter, denn um geschickt gemachten Lügen und Desinformationen als solche zu erkennen, muss man sich meist einige Zeit in die Thematik einarbeiten.
Doch stoßen wir hier auf ein weiteres Problem. Selbst wenn die online angebotene Information korrekt und ausgewogen ist, gibt es keine Garantie, dass der Leser sie auch richtig versteht. Die Ergebnisse wissenschaftlicher Studien müssen quasi für die breite Öffentlichkeit übersetzt werden. Hier kommen Wissenschaftsjournalisten ins Spiel, die mit ihrem fachspezifischen Hintergrundwissen die Sprache der Wissenschaft für die Allgemeinbevölkerung verständlich machen. Dabei kommt man aber nicht um vereinfachende Darstellungen herum, die wieder in die Irre führen können.
Erschwerend kommt ein psychologischer Aspekt hinzu. Wir Menschen bevorzugen lieber Informationen, die zu unserem Weltbild, zu unserer Meinung passen. Das führt dazu, dass etwas, was man eigentlich nicht richtig versteht, so interpretiert wird, dass es zur eigenen Vorstellung passt. In extremen Fällen werden Informationen zur gezielten Richtigstellung falscher Meinungen und Mythen als Bedrohung empfunden und führen zur kompletten Verweigerung der Fakten. Beobachtet wurde dies bei Impfgegnern, vor allem bei denen, die Impfungen überaus vehement ablehnen.
Besonders Online-Foren und Online-Diskussionen verstärken die eigene Vorstellung, weil man hier in der Regel mit anderen Gleichgesinnten unter sich bleibt. Kollidieren unterschiedliche Meinungen dann doch einmal miteinander, kommt es nur selten zu einer echten Diskussion. Stattdessen wir oft beleidigt, beschimpft und im Extremfall gedroht, wie im Zusammenhang mit der Corona-Pandemie besonders deutlich zu beobachten ist. Sogenannte Trolle ziehen mit ihren destruktiven Einwürfen mehr Aufmerksamkeit auf sich, als Nutzer, die sich bemühen, sachlich mit dem Thema umzugehen.
Mancher verliert sich dabei so sehr in seiner Blase, dass er die Realität außerhalb davon nicht mehr wahrnimmt und für Gegenargumente kaum noch erreichbar ist. Zusätzlich neigen diese Menschen eher dazu, ihre Meinung öffentlich zum Ausdruck zu bringen. Das führt zu einer sich selbst verstärkenden Spirale, in der sie immer selbstbewusster und lauter auftreten. Andere mit einer selbstkritischeren Einstellung verstummen dagegen langsam und treten damit immer weniger in der öffentlichen Wahrnehmung in Erscheinung. Das führt schließlich zu einer starken Verzerrung der tatsächlichen Verteilung der verschiednen Meinungen im Netz und der Bevölkerung. Entgegen dem Anschein der vielen Hassbeiträge und Schmähungen im Netz stammen Drohungen und Schmähungen nur von einem kleinen Teil der Nutzer, während die große Mehrheit sich nur selten zu Wort meldet.
Das Internet ermöglicht jedem, der es will, sich an den unterschiedlichsten Aktivitäten zu beteiligen. Insbesondere bieten die sogenannten Sozialen Medien viele Hilfestellungen, um Interessengemeinschaften zu gründen und zu pflegen. Daher ist es nicht verwunderlich, dass dort auch viele Gruppen zu finden sind, die Verschwörungsmythen fördern. Die Betreiber der Sozialen Netzwerke befeuern mit ausgeklügelten Algorithmen zusätzlich die Vorlieben und Interessen ihrer Nutzer. Allerdings werden damit Informationen derart stark gefiltert oder zumindest bestimmte Denkweisen bevorzugt, sodass die Nutzer immer stärker gebunden werden. Das birgt somit die Gefahr sozialer Blasen, in denen sich pseudowissenschaftliche Vorstellungen immer weiter ausbreiten und selbst verstärken.
Ähnlich arbeiten die Algorithmen von Verkaufsplattformen wie Amazon. Wer hier nach Literatur zum Thema Verschwörungstheorien sucht, bekommt schnell Titel vorgeschlagen, die eigentlich nur Desinformationen verbreiten, wie Sebastian Meineck und Daniel Laufer aufzeigen. Obwohl sich die Liste der bei Amazon vorgeschlagenen Titel zum Thema Corona öfters ändert, sind darin dennoch viele Titel enthalten, die Verschwörungsmythen nahe stehen oder sie befürworten.
Auch YouTube bietet viel Material für alle möglichen Verschwörungsmythen. Entscheidend für den Erfolg solcher Videos waren auch hier Algorithmen, um Zuschauern anderer verschwörungsbezogener Interessen darauf aufmerksam zu machen. „Die Algorithmen erleichtern die Akzeptanz von Verschwörungen und das Gefühl eines Konsenses innerhalb Ihrer Gemeinschaft“, erklärt Landrum. „Flacherde ist nur ein weiteres Beispiel dafür.“ 2019 erkannte YouTube das Problem an und erklärte sich bereit, seinen Algorithmus zu optimieren, um die Anzahl seiner Empfehlungen für Verschwörungstheorie-Videos zu reduzieren. Dennoch sollen die Ergebnisse, die den Nutzern der Sozialen Medien angezeigt werden, möglichst viel Aufmerksamkeit erreichen. Das führt u.U. dazu, dass bestimmte wissenschaftliche Inhalte Anhängern von Verschwörungsmythen nicht mehr vorgeschlagen werden. Stattdessen berichten z. B. in zum Teil sehr gut aufgemachten Videos angebliche Insider, wie ehemalige Geheimdienstmitarbeiter, über geheime Internas verschwörerischer, bösartiger Aktivitäten von Eliten und Institutionen. So habe schon vor gut 100 Jahren eine Gruppe hochintelligenter und mächtiger Männer durch die Gründung der amerikanischen Notenbank dafür gesorgt, Supermächte in politischer und wirtschaftlicher Abhängigkeit zu halten. Inzwischen versuchen deren Nachfolger das Bargeld abzuschaffen, indem sie der Bevölkerung einen Chip unter der Haut einsetzen wollen. Letztlich soll ein perfekter Überwachungsstaat aufgebaut werden. Dazu passt die Vorstellung, dass die Einführung des 5G-Netzes nur ein weiterer Baustein in der geplanten totalen Überwachung bedeutet, bei der Personen über den eingesetzten Chip manipuliert werden.
Alle Verschwörungsmythen behaupten, ihren Anhängern die Welt zu erklären. Aber was sagt, das über ihre Anhänger aus?
Zahlreiche psychologische Untersuchungen legen nahe, dass Verschwörungsmythen dort ansetzen, wo Personen mit Unsicherheiten und Widersprüchen konfrontiert sind. Sie liefern ihnen scheinbar konsistente Erklärungen, die sich mit ihren Überzeugungen decken. Das funktioniert aber nur, wenn die Fähigkeit zum analytischem Denken herabgesetzt ist, gepaart mit einem Misstrauen gegenüber Institutionen.
Verschwörungsmythen bieten vermeintliche Hilfe für die, die sich bedroht fühlen. Sie werden von ihren Anhängern als eine Form der Betrugsentlarvung gesehen, bei der gefährliche und verbrecherische Personen erkannt und die von ihnen ausgehende Bedrohung verringert oder unschädlich gemacht wird. Sie versprechen, das Leben für Menschen sicherer zu machen.
Wissenschaftliche Studien haben gezeigt, dass sich Menschen wahrscheinlich eher Verschwörungstheorien zuwenden, wenn sie ängstlich sind und sich machtlos fühlen. Andere Forschungen weisen darauf hin, dass der Glaube an Verschwörungsmythen stark mit mangelnder soziopolitischer Kontrolle oder geringem Selbstbewusstsein zusammenhängt. In Experimenten zeigte sich, dass die Neigung zu Verschwörungsmythen stärker war, wenn die Teilnehmer das Gefühl hatten, zu wenig Kontrolle über die Vorgänge zu haben. Im Gegensatz dazu nahm die Neigung ab, wenn sie den Eindruck hatten, die Situation besser beherrschen zu können.
Leider deuten die bisher durchgeführten Untersuchungen auch darauf hin, dass der Verschwörungsglaube zu gegenteiligen Reaktionen führt, wenn die Teilnehmer an den Versuchen zu Verschwörungsmythen das Gefühl haben, ihre Autonomie und Kontrolle zu verlieren. Dieselben Studien haben auch gezeigt, dass Menschen dadurch weniger geneigt sind, Maßnahmen zu ergreifen, die auf lange Sicht ihre Eigenständigkeit und Kontrolle stärken könnten. Darüber hinaus kann die Konfrontation mit Verschwörungstheorien die Autonomie der Menschen auf andere Weise subtil untergraben. Es zeigte sich, dass überzeugte Anhänger von Verschwörungsmythen sich nicht bewusst waren, dass sie manipuliert wurden und fälschlicherweise daran glaubten, dass ihre Überzeugungen schon vor der Enthüllung mit ihren neuen identisch waren. Da Verschwörungstheorien nahe legen, dass wichtige Entscheidungen in den Händen böswilliger Kräfte liegen, die Befugnisse jenseits gesetzlicher Grenzen besitzen und ausüben, wäre es nicht verwunderlich, wenn weitere Untersuchungen darauf hindeuten, dass ihre Wirkung oft entmachtend ist.
Kausale Erklärungen, Verschwörungserklärungen eingeschlossen, werden auch von verschiedenen sozialen Motivationen geprägt, darunter dem Wunsch, dazuzugehören und ein positives Selbst- und Gruppenbild aufrechtzuerhalten. Wissenschaftler vermuten, dass Verschwörungsmythen das Selbstwertgefühl und die Gruppe aufwerten, indem sie die Schuld für negative Erlebnisse anderen zuschreiben. So kann das Bild, dass man selbst oder die Gruppe kompetent und moralisch sei, aufrechterhalten werden, während es gleichzeitig von mächtigen und skrupellosen Gruppen und Personen sabotiert wird.
Doch man muss bei der Interpretation der Forschungsergebnisse vorsichtig sein, da sie oft mit Gruppen und Personen durchgeführt wurden, die eigentlich nicht die typischen Anhänger von Verschwörungsmythen repräsentieren, die besonders benachteiligt oder bedroht sind.
Trotz der vielfältigen, wenn auch unvollständigen Erkenntnisse aus der psychologischen und gesellschaftspolitischen Forschung muss man sich fragen, wie man das Problem lösen kann. Wie die Corona-Pandemie zeigt, ist die Wirkung von Verschwörungsmythen ungebrochen und sie haben Hochkonjunktur.
Die Aufgabe, Verschwörungsmythen den Boden unter den Füßen zu entziehen, ist schwer, weil die unterschiedlichen Zielgruppen sich in ihren Interessen, Kenntnissen, Medienverhalten und ihrer Medienkompetenz unterscheiden. Deshalb müssen wohl mehrere, für die jeweilige Zielgruppe passende Angebote erstellt werden.
Schweiger weist darauf hin, dass Kommunikation nur gelingt, wenn gegenseitiges Vertrauen herrscht. Das ist leichter, wenn sich die Diskussionspartner persönlich kennen. Schwieriger ist es im Netz oder in anderen Medien, weil diese Voraussetzung hier nicht vorliegt. In den Sozialen Medien verwenden die meisten Teilnehmer nur Synonyme, um unerkannt zu bleiben. Manche vergessen deshalb in der Anonymität des Internets nur allzu gerne ihre gute Kinderstube.
Vieles deutet darauf hin, dass man die Tatsache akzeptieren muss, dass es eine kleine Gruppe von Menschen gibt, die sich jeglichen Sachargumenten verschließt. Wie Dokumetarfilmer Dirk Steffens in Spektrum Kompakt – Verschwörungsmythen halte ich es für reine Zeitverschwendung, diese mit Sachargumenten zu einer anderen Ansicht zu bringen!
Doch es gibt auch Licht am Ende des Tunnels. So zeigen Untersuchungen, dass Anleitungen zu analytischem Denken die Akzeptanz von Verschwörungsmythen deutlich senken können.
Wenn die Bereitschaft zu Verschwörungstheorien mit extremen politischen Ansichten verbunden ist, führt die Aufforderung, anhand konkreter Beispiele die Wirkungsweise politischer Maßnahmen zu erklären, dazu, dass das Vertrauen der Studienteilnehmer in ihre Vorstellungen abnahm. Ob dies auch für Verschwörungsmythen im Bereich der Wissenschaften funktioniert, ist mangels wissenschaftlicher Untersuchungen unklar.
Wie dem auch sei, vielleicht kommt man weiter, wenn man die andere Seite zu Wort kommen lässt, insbesondere jemanden, der selbst Anhänger von Verschwörungsmythen war, sich aber wieder davon befreite. Eine solche Person ist Alexander Eydlin, der über seine Erfahrungen in einem Artikel der Wochenzeitung Zeit berichtete.
Kernpunkt seiner ganz persönlichen Analyse ist: „Ich will glauben“.
Wohlgemerkt, nicht „Ich glaube“, sondern er wollte einfach glauben! Das war für ihn nichts politisches, sondern etwas poetisches, das mit Gefühlen einherging.
Alexander Eydlin versprachen Verschwörungsmythen festen Grund und ein Wertesystem in einem Umfeld mit vielen Unbekannten und Widersprüchen. Verschwörungstheorien waren für ihn verlässliche Erklärungsmodelle, die ein als Bedrohung empfundenes Umfeld zu einem von etwas Verstecktem zu nun Erkanntem umdeuteten.
Dabei ging es nicht immer darum, die Komplexität der Welt zu verringern und bequeme Erklärungen zu liefern. Auch Verschwörungsmythen können sehr komplex sein. Hier zeigt sich für Eydlin der unbedingte Wille zum Glauben, das Unwahrscheinliche und Mystische zu akzeptieren. Verschwörungsanhänger nehmen Widersprüche in Kauf. Wie ist es sonst zu verstehen, dass manche einerseits die Mondlandung ablehnen, aber andererseits glauben, geheime Eliten wären im Besitz von Raumfahrttechnologien Außerirdischer. Oder das Corona-Virus sei einerseits ein harmloser Krankheitserreger, aber gleichzeitig soll damit die Zwangsimpfung durchgesetzt werden, um allen den Chip unter der Haut einzupflanzen oder die Weltbevölkerung zu dezimieren.
Aber der Glaube ist nicht das eigentliche Problem, betont Eydlin in seinem Beitrag. Vielmehr ist es die Intensität, mit der die Glaubenden vorgeben, mehr als alle anderen zu wissen. Deshalb habe ihm auch keine der üblichen Strategien wie pointiertes Hinterfragen, entlarven falscher Quellen oder das Aufzeigen von Widersprüchen geholfen. Er findet diese Vorgehensweisen nicht falsch, aber nur begrenzt wirksam, weil Verschwörungsmythen sehr identitätsstiftend sind. Dagegen richten nüchterne Fakten wenig aus.
So hilft auch keine Konfrontationsstrategie. Weil Anhänger von Verschwörungsmythen gut darin sind, ihre Zweifel zu unterdrücken, um Widersprüche zu akzeptieren, schaffen sie das auch mit den Zweifeln anderer.
Vielmehr helfen wahrscheinlich nur Demut und Geduld. Wer das kritische Denken eines Verschwörungsgläubigen stärken möchte, muss erst einmal zuhören. Das deckt sich auch mit den Ergebnissen der erwähnten psychologischen Studien. Wenn man den Betroffenen die Möglichkeit bietet, ihre „Erkenntnisse“ zu erläutern und dabei ehrlich interessiert zuhört, öffnet dies bei dem Erzähler die Möglichkeit, die eigenen Widersprüche zu erkennen. Der Schlüssel zum Erfolg liegt nicht im Erziehen, bei dem Verschwörungstheoretiker schnell eine Agenda und somit einen Angriff wittern, sondern im Vermitteln des Willens, sein Gegenüber verstehen zu wollen. Der Respekt zur Person ist eine wichtige Grundlage, Verschwörungstheoretikern einen neuen Sinn jenseits ihrer bisherigen Vorstellungen zu geben, weil er Vertrauen schafft.
Welche Schlussfolgerungen kann man daraus schließen? Persönlich halte ich den Beitrag in der Zeit für ehrlich und glaubhaft. Andererseits schließe ich daraus, dass es wesentlich schwieriger ist, gegen Verschwörungsmythen anzugehen, als ich bisher annahm.
Vielleicht gibt es nur wenige Möglichkeiten. Zum einen verschwinden als Bedrohungen empfunden Situationen wie die Corona-Pandemie wieder, wodurch die allgemeine Bedrohung geringer wird oder „Aussteiger“ aus der Szene engagieren sich stärker in der öffentlichen Debatte.
Aber auch Wissenschaftler und Medien sind gefordert, Unsicherheiten und falschen Vorstellungen in der Öffentlichkeit entgegenzuwirken. Das geht nur durch Transparenz in der Forschung und den daraus folgenden Entscheidungen. Doch die Anforderungen sind hoch, wenn nicht sehr hoch.
Theorien können nur falsifiziert werden
Wissenschaftler müssen gerade in Krisenzeiten ihr ganzes Wissen und Können zur Bekämpfung der Bedrohung einsetzen, gleichzeitig sollen sie aber auch die Ergebnisse ihrer Forschungen verständlich und nachvollziehbar kommunizieren. Dazu müssen sie eine gute Medienkompetenz entwickeln, um glaubwürdig zu erscheinen. Besonders schwierig wird ihre Situation dann, wenn sie frühere Aussagen widerrufen müssen. Deshalb will ich an dieser Stelle noch einmal darauf hinweisen, wie wichtig es ist, der Öffentlichkeit die Arbeitsweise der Wissenschaft zu verdeutlichen. Es geht nicht um DIE WAHRHEIT. Jede wissenschaftliche Erkenntnis beinhaltet gewisse Unsicherheiten. In der Wissenschaft gilt nur der zurzeit beste Wissensstand. Also gibt es eine gewisse Wahrscheinlichkeit, dass neue Daten zur Korrektur oder zum Widerruf früherer Aussagen führen. Deshalb ist zweifeln kein Fehler, sondern Methode. Solange nicht gezeigt werden kann, dass eine Theorie falsch ist – sie falsifiziert wird, solange gilt sie als richtig!
Die Medien müssen dies bei der Kommunikation des wissenschaftlichen Prozesses und der Präsentation der Ergebnisse immer wieder hervorheben. Zum einen müssen sie der Öffentlichkeit erklären, wie Wissenschaft funktioniert und zum anderen Hintergrundinformationen zur jeweiligen Thematik verständlich aufbereiten. Das ist durchaus eine heikle Gratwanderung. Zu gerne verschieben leitende Redakteure oder Programmverantwortlichen solche Beiträge auf die hinteren Seiten ihrer Blätter oder auf späte Sendeplätze, weil die vermeintliche Zielgruppe zu klein sei.
Wie Wissenschaftler müssen auch Journalisten bereit sein, Fehler einzugestehen, wenn neue Fakten es erfordern. Wenn es wohl begründet wird, fördert dies das Vertrauen in der Öffentlichkeit.
In meinen Augen verbreitet sich heute im Netz und den Medien sehr stark das Phänomen des Relativismus, bei dem es keine objektiven Fakten gibt, sondern nur viele Meinungen und Wege der Erkenntnis. Hierfür ist das Internet besonders anfällig. Sehr schnell wird der Vorwurf der Zensur erhoben, wenn besonders abwegige Verschwörungsmythen von Online-Plattformen gelöscht werden, denn immerhin haben wir – glücklicherweise – die grundgesetzlich garantierte freie Meinungsäußerung. Somit darf jeder veröffentlichen, was er möchte, solange dabei keine Straftat oder Ordnungswidrigkeit begangen wird.
Allerdings hält der Dokumentarfilmer Dirk Steffens es für einen journalistischen Kernfehler, man müsse das gesamte Spektrum an Meinungen abbilden und auch abseitigen Ansichten eine Plattform bieten. Hier sind Wissenschaftsjournalisten besonders gefordert, zu entscheiden, wo andere Ansichten noch wissenschaftlich fundiert sind oder blanker Unsinn beginnt. Es gibt für die Medien keinerlei Verpflichtung, über offensichtlichen Blödsinn zu berichten. Der wird erst interessant, wenn es eine breite Strömung in der Bevölkerung mit negativen Einflüssen auf die Gesellschaft gibt.
Ganz wichtig in Zeiten allgemeiner Unsicherheiten und Bedrohungen sind Faktenchecks, um gezielte Falschmeldungen zu entlarven, wie sie das gemeinnützige Recherchezentrum CORRECTIV zu verschieden Themen eingerichtet hat.
Aber zu viele Informationen in kurzer Zeit schreckt die Zielgruppe vermutlich auf Dauer mehr ab, als sie weiter zu fesseln, weil sich nach und nach Ermüdungseffekte bemerkbar machen werden. Den richtigen Weg zu finden, damit die Öffentlichkeit mehr Vertrauen in wissenschaftliche Ergebnisse erhält, ist eine der wichtigsten Aufgaben, die Medien bewältigen müssen.
Wahrscheinlich gibt es kein Patentrezept, dieses Dilemma zu lösen. Das fängt schon damit an, dass die Leser, Zuhörer eines Podcasts oder die Zuschauer sehr unterschiedliche Voraussetzungen mitbringen, um einem Thema ihren wissenschaftlichen Vorkenntnissen entsprechend zu folgen. Vermutlich bedarf es dazu eines längeren Lernprozesses auf allen Seiten.
Dieser sollte schon in der Schule beginnen. Mündige Bürger benötigen heute bei der Fülle auf sie einprasselnder Informationen Daten- und Medienkompetenz, um sich in der Flut der Nachrichten zurechtzufinden und die Spreu vom Weizen zu trennen. Allzu oft werden viele Informationen konsumiert, ohne dass dafür ein Verständnis entwickelt wird. Auch die Vermittlung eines grundlegendes Verständnis über Statistiken und deren Interpretation sollte schon an den allgemeinbildenden Schulen Teil des Unterrichts sein. Erst dann können Informationen kritisch hinterfragt werden – Stichwort kritisches Denken – und Verschwörungsmythen und Falschinformationen leichter als das erkannt werden, was sie sind: Unsinn oder schlimmsten Falls lebensbedrohlich. Deshalb sollte die Schulausbildung und ein effektives, gut ausgestattetes Schulsystem viel stärker in den Fokus von Politik und Gesellschaft rücken, als es bisher geschieht.
Ein weiteres Aufgabenfeld für die Schulen bietet der naturwissenschaftliche Unterricht. Wie Florian Freistetter in seinem Blog hervorhebt, können Schüler und Schülerinnen durch Experimente selbst herausfinden, ob das was sie glauben, richtig ist oder nicht.
Für die Teilhabe von Laien an dem wissenschaftlichen Prozess gibt es schon seit geraumer Zeit unter dem Begriff Citizen Science verschiedene Projekte, die hierzulande aber nur wenig bekannt sind. Eine Plattform ist das englischsprachige Projekt Zooniverse. Für den deutschsprachigen Raum bietet Bürger schaffen Wissen ähnliches, wo sich Bürger an wissenschaftlichen Fragestellungen beteiligen können.
Verschwörungsmythen werden uns wohl immer mehr oder weniger begleiten. In Krisenzeiten finden sie relativ viele Anhänger, denen die darin enthalten logischen Brüche merkwürdigerweise egal sind. In extremen Fällen könnte man in Abwandlung eines bekannten Satzes von Karl Marx meinen: „Verschwörungsmythen sind Opium fürs Volk“.
Warum manche an Verschwörungsmythen glauben, hat unterschiedliche Gründe, die auf keinen gemeinsamen Nenner gebracht werden können und nicht immer einfach zu verstehen sind. Auf einer rationalen Vorgehensweise basierende Gegenargumente führen leicht zu gegenteiligen Effekten. Anhänger von Verschwörungsmythen wollen glauben. Im Volksmund heißt es: „Der Glaube versetzt Berge“. Aber er kann auch die Sicht auf die Wirklichkeit verhindern. Das macht es so schwer, gegen Verschwörungsmythen anzugehen. Aber das sollte uns nicht entmutigen.
Wir haben das 21. Jahrhundert. Es ist an der Zeit, Verschwörungsmythen den Boden unter den Füßen zu entziehen.
Associated Press (2017): Self-taught rocket scientist plans to launch over ghost town. In: Associated Press. Online verfügbar unter https://apnews.com/article/9d8e5e8e9245412ab80f5a1f58d885b7, zuletzt geprüft am 26.10.2020.
Astronomie.de – Der Treffpunkt für Astronomie (2020): Gedanken zum Licht, elektromagnetischen Wellen, Lichtgeschwindigkeit, Photon. Online verfügbar unter https://forum.astronomie.de/threads/gedanken-zum-licht-elektromagnetischen-wellen-lichtgeschwindigkeit-photon.290883/#post-1483707, zuletzt aktualisiert am 11.10.2020, zuletzt geprüft am 11.10.2020.
Bussenius, Uwe (2019): Die Arche. Dreidimensionales Gegenmodell zum vierdimensionalen Raumzeitmodell der allgemeinen Relativitätstheorie. Online verfügbar unter http://uwebus.de/, zuletzt aktualisiert am 10.11.2019, zuletzt geprüft am 11.10.2020.
Brazil, R. (2020):Fighting flat-Earth theory. In Physics World. Online verfügbar unter https://physicsworld.com/a/fighting-flat-earth-theory/?utm_medium=email&utm_source=iop&utm_term=&utm_campaign=14290-46750&utm_content=Title%3A%20Fighting%20flat-Earth%20theory%20%20-%20explore%20more&Campaign+Owner=, zuletzt aktualisiert am 06.08.2020, zuletzt geprüft am 26.08.2020.
Břízová, L., Leontýna; G., Kelsey; Š., Jiří; Šlégr, J. (2018): Flat Earth theory: an exercise in critical thinking. In: Phys. Educ. 53 (4), S. 45014. DOI: 10.1088/1361-6552/aac053.
correctiv.org (2020): CORRECTIV.Faktencheck – correctiv.org. Online verfügbar unter https://correctiv.org/thema/faktencheck/, zuletzt aktualisiert am 12.09.2020, zuletzt geprüft am 12.09.2020.
Douglas, K.M. et al. (2017): The Psychology of Conspiracy Theories. In: Current directions in psychological science 26 (6), S. 538–542.
Eydlin, A. (2020): Verschwörungstheorien: Ich sah das Schlachtfeld. In: Die Zeit, 05.09.2020. Online verfügbar unter https://www.zeit.de/kultur/2020-09/verschwoerungstheorien-anhaenger-erfahrung-umgang-vorurteile-coronavirus, zuletzt geprüft am 05.09.2020.
Fernbach, P. et al. (2013): Political extremism is supported by an illusion of understanding. In: Psychological science 24 (6), S. 939–946. DOI: 10.1177/0956797612464058.
Freistetter, F. (2019): Esoterik, Fake News & Co: Wie man in Schulen mit Verschwörungstheorien und Pseudowissenschaft sinnvoll umgehen kann. Online verfügbar unter https://scienceblogs.de/astrodicticum-simplex/2019/11/13/esoterik-fake-news-co-wie-man-in-schulen-mit-verschwoerungstheorien-und-pseudowissenschaft-sinnvoll-umgehen-kann/, zuletzt aktualisiert am 13.11.2019, zuletzt geprüft am 05.10.2020.
Hartmann, E.A. et al. (2020): Verschwörungstheorien und Wissenschaftsfeindlichkeit. Hg. v. V. Wittpahl. Institut für Innovation und Technik. Berlin. Online verfügbar unter https://www.researchgate.net/publication/341945095_Verschworungstheorien_und_Wissenschaftsfeindlichkeit#page=7, zuletzt aktualisiert am 09.08.2020, zuletzt geprüft am 09.08.2020.
Kata, A. (2020): Anti-vaccine activists, Web 2.0, and the postmodern paradigm–an overview of tactics and tropes used online by the anti-vaccination movement. | Scinapse. Online verfügbar unter https://scinapse.io/papers/2062321610, zuletzt aktualisiert am 27.08.2020, zuletzt geprüft am 27.08.2020.
Landrum, A.R., Olshansky, A. (2019): The role of conspiracy mentality in denial of science and susceptibility to viral deception about science. In: Politics and the life sciences : The journal of the Association for Politics and the Life Sciences 38 (2), S. 193–209. DOI: 10.1017/pls.2019.9, https://www.cambridge.org/core/journals/politics-and-the-life-sciences/article/role-of-conspiracy-mentality-in-denial-of-science-and-susceptibility-to-viral-deception-about-science/943F0F58B7A2864A0E3121A2C9EE8174#.
Marx, K. (2015): Zur Kritik der Hegelschen Rechtsphilosophie. Einleitung. Online verfügbar unter http://www.mlwerke.de/me/me01/me01_378.htm#S391, zuletzt aktualisiert am 12.01.2015, zuletzt geprüft am 30.11.2020.
McIntyre, L. (2019): Calling all physicists. In: American Journal of Physics 87 (9), S. 694–695. DOI: 10.1119/1.5117828.
Mdr.de (2020): Erde als Scheibe – “Mad Mike” Hughes verunglückt beim Nachgucken | MDR.DE. Online verfügbar unter https://www.mdr.de/wissen/gestorben-rocketman-mike-hughes-flat-earth-theorie-100.html, zuletzt aktualisiert am 26.08.2020, zuletzt geprüft am 26.08.2020.
Meineck, S., Laufer, D. (2020): Desinformation – So penetrant empfiehlt Amazon den Kauf von Verschwörungsliteratur. netzpolitik.org. Online verfügbar unter https://netzpolitik.org/2020/desinformation-so-penetrant-empfiehlt-amazon-den-kauf-von-verschwoerungsliteratur, zuletzt aktualisiert am 02.09.2020, zuletzt geprüft am 05.09.2020.
Spektrum der Wissenschaft (Hg., 2020): Spektrum Kompakt – Verschwörungsmythen.
Swami, V. et al. (2014): Analytic thinking reduces belief in conspiracy theories. In: Cognition 133 (3), S. 572–585. DOI: 10.1016/j.cognition.2014.08.006.
Thorp, H.H. (2020): Trump lied about science. In: Science, eabe7391. DOI: 10.1126/science.abe7391.
Wissenschaft im Dialog (2020): Wissenschaftsbarometer Corona Spezial. Online verfügbar unter https://www.wissenschaft-im-dialog.de/projekte/wissenschaftsbarometer/wissenschaftsbarometer-corona-spezial/, zuletzt aktualisiert am 10.09.2020, zuletzt geprüft am 10.09.2020.
]]>Das klingt ganz einfach, ist es aber nicht. Das Problem liegt an der Definition des Vollmondtermins. „Wieso?“, wird sich mancher Leser dieses Blogs spontan fragen? Die Bestimmung des Vollmondzeitpunkts ist doch heute im Zeitalter von allgegenwärtigen Computern nun wirklich kein Problem. Wenn man Sonden wie New Horizons über Milliarden von Kilometern zu ihrem Ziel steuern kann, lässt sich der Zeitpunkt des Vollmondes mithilfe der Ephemeridenberechnung doch wohl genau bestimmen. Stimmt, aber damit fangen die Probleme erst an.
Jeder Algorithmus ist mit Fehlern behaftet, d. h. genau bedeutet nicht exakt. Wo legt man aber die Grenzen fest, wenn der Vollmondtermin nur wenige Sekundenbruchteile vor oder nach Mitternacht liegt, ganz zu Schweigen von der Problematik, die mit der unregelmäßigen Zugabe einer Schaltsekunde zusammenhängt. Denn wann das geschieht, ist über einen längeren Zeitraum nicht vorhersehbar, dadurch wäre die Bestimmung des zukünftigen Osterdatums irgendwann nicht mehr möglich.
Um das Problem zu verstehen, müssen wir viele Jahrhunderte zurückgehen.
Ostern ist zwar ein christliches Fest, das mit der Auferstehung Jesu Christi zusammenhängt, aber das Osterdatum hat seine Wurzeln im jüdischen Kalender. Laut der biblischen Überlieferung wurde Christus am Vorabend des jüdischen Passah-Fests gekreuzigt, dem Rüsttag, dem Christen jedes Jahr an Karfreitag gedenken. Im jüdischen Kalender folgt dem Rüsttag, dem 14. Nisan, der Sabbat. Die Auferstehung fand am 3. Tag – der Ausgangstag wird mitgezählt – statt, nach unserem Kalender ein Sonntag.
Der 14. Nisan ist nun nicht irgendein Datum, vielmehr ist das im jüdischen Kalender der Tag des ersten Vollmondes nach Frühlingsanfang, sofern kein Schaltjahr vorliegt. In diesem Fall fällt der erste Frühlingsvollmond auf den 14. Weadar.
Die Bestimmung des Ostertermins basiert deshalb bis heute auf den uralten Regeln des jüdischen Kalenders. Aber dafür müssen wir zwei Fragen beantworten:
Beide Termine sind durch Beobachtungen nicht einfach zu beantworten. Der Frühling beginnt, wenn – vereinfacht gesprochen – die Sonne den Himmelsäquator von Süden nach Norden überquert. Aber leider kann man diese Linie nicht sehen, schon gar nicht am helllichten Tag. Ähnliches gilt für den Zeitpunkt des Vollmondes. Wer den Mondlauf schon einmal etwas genauer verfolgt hat, stellte fest, dass man gar nicht so einfach erkennen kann, wann der Mond voll wird. Ein bis zwei Tage vor und nach dem Termin sieht der Mond sehr rund aus. Also was tun?
In den ersten Jahrhunderten benutzten die christlichen Gemeinden verschiedene Kalender. Manche Gruppen richteten sich nach dem Ägyptischen andere nach dem Alexandrinischen Kalender. So wurde das Osterfest zu unterschiedlichen Zeitpunkten gefeiert – was übrigens auch heute noch gilt, siehe Ostern der orthodoxen Kirche. Neben anderen Problem, die es zu klären galt, war die Festlegung des Ostertermins eine der Aufgaben des Ersten Konzils von Nicaea, das vom 20. Mai bis 25. Juli im Jahr 325 stattfand.
Den Teilnehmern war klar, dass sie das Problem des Osterdatums nicht lösen konnten, deshalb wurde auf dem Konzil dem Bischof von Alexandria die Aufgabe übertragen, dessen Gelehrte das Problem in Angriff nahmen. Doch war es nicht einfach, eine Lösung zu finden. Es sollte noch rund 225 Jahre dauern, bis sich eine allgemein akzeptierte Berechnungsmethode durchsetzte, der Computus paschalis ecclesiasticus, wie die Schriften des Mönches Dionysius Exiguus (ca. 470 – 570) belegen.
Die Berechnung des Osterfestes war nur möglich, indem man den Julianische Kalender mit dem Mondkalender in Verbindung brachte.
Dreh- und Angelpunkt der Lösung war die Festlegung des Frühlingsanfangs auf den 21. März.
Somit wurde eine der beiden Fragen beantwortet. Für die Bestimmung des Ostertermins beginnt der Frühling immer am 21. März, auch wenn die astronomische Berechnung davon abweicht.
Bleibt uns noch das Problem mit dem Vollmond zu lösen.
Die Grundlage dafür bildet der Metonsche Zyklus, der nach dem Athener Meton (460 – 432 v. Chr.) benannt ist, der wohl auf frühere Quellen zurückgriff. Eine Meton-Periode in diesem Zyklus dauert 19 Jahre.
Das Interessante daran ist, dass nach einer solchen Periode der Vollmondtermin wieder auf das gleiche Datum fällt. Mit heutigen Werten entsprechen 19 Umläufe der Sonne von Frühlingspunkt zu Frühlingspunkt 235 Umläufen des Mondes von einem Vollmond zum anderen. Die Differenz beträgt gerade mal zwei Stunden und etwa 5 Minuten.
Die Vollmondtermine wiederholen sich somit alle 19 Jahre. Diese Periode wird Mondzirkel genannt, wobei jedem Jahr eines Zirkels eine Nummer zugeordnet wird, die früher mit goldener Tinte in die Kalender eingetragen wurde, weshalb man von der Goldenen Zahl spricht. Diese wird üblicherweise in römischen Ziffern geschrieben. Dionysius Exiguus wählte im 6. Jahrhundert das Jahr 532 als erstes Jahr eines Mondzirkels, als er das Erscheinen der ersten Mondsichel nach Neumond am 23. März feststellte.
Wer es mathematisch möchte, die Goldene Zahl GZ berechnet sich aus
GZ = Jahr mod 19 + 1
wobei das Jahr, z. B. 2019, durch 19 geteilt wird. Der Rest der Division plus 1 ergibt die Goldene Zahl GZ. Das Jahr 2019 besitzt die Goldene Zahl VI.
Was hilft das uns aber nun bei der Bestimmung des Vollmondtermins?
Wie schon erwähnt, besitzt das Jahr 532 die Goldene Zahl I. Dionysius sah die erste Mondsichel am 23. März. Damals galt, dass der Vollmond 14 Tage danach stattfindet, als am 5. April 532 (der 23. März wurde mitgezählt!). Im folgenden Jahr findet der Vollmond 11 Tage früher statt. Sollte der Termin vor dem 21. März liegen, verschob sich der Termin des ersten Frühlingsvollmondes um 19 Tage nach hinten. Damit hatte man eine allgemein gültige Regel für die Vollmondtermine, die man in einer Tabelle zusammenstellen konnte. Zu jeder Goldenen Zahl eines Jahres gehört einer von 19 Vollmondterminen.
Damit war aber auch klar, auf welchen Tag Ostern fällt, auf den Sonntag nach dem Vollmond. Aber halt, eine zusätzliche Regel brauchen wir noch. Ostern soll ja am ersten Sonntag nach dem ersten Vollmond im Frühling gefeiert werden. Was ist, wenn der Vollmond am Sonntag stattfindet? Ganz einfach, Ostern wird um eine Woche verschoben.
Soweit so gut. Doch im 6. Jahrhundert galt der Julianische Kalender. Dessen Jahr war genau 365,25 Tage lang. Deshalb wurde alle 4 Jahre ein Schalttag eingeführt, um die in jedem Jahr nicht berücksichtigen Vierteltage wieder aufzuholen. Aber im Mittel braucht die Sonne nur 365,24219 Tage von einem Frühlingsanfang bis zum nächsten. Im Laufe von 128 Jahre summieren sich die Differenzen zu einem Tag. Bis 1582 verschob sich deshalb der tatsächliche Frühlingsanfang auf den 10. März, 11 Tage vor dem Datum im Julianischen Kalender. Ähnliches passierte mit den Mondphasen. 235 Mondumläufe von Vollmond zu Vollmond passen nicht exakt in 19 Sonnenumläufe von Frühlingspunkt zu Frühlingspunkt. Alle 218 Jahre hinkt der wahre Vollmond dem zyklischen aus dem Metonschen Zyklus hinterher. Bis 1582 hätte der Mond sich um 6 Tage verspätet. Statt Vollmond sähe man einen zunehmenden Halbmond. Zusammen mit dem Fehler des Julianischen Kalenders betrug die tatsächliche Abweichung des nach dem Computus berechnet Vollmondtermins vier Tage. Der wahre Vollmond erleuchtete schon vier Tage früher die Nacht.
Deshalb musste mit der Gregorianischen Kalenderreform auch der Computus überarbeitet werden. Das gelang dem Astronomen Christopherus Clavius (Christoph Klau, 1538–1612). Neben einer Neubestimmung der Beziehung zwischen Goldener Zahl und dem Termin des ersten Frühlingsvollmondes wurde auch ein Korrekturverfahren eingeführt – die Mondgleichung, das dafür sorgt, dass die Differenz im Meton-Zyklus in den nächsten 2500 Jahren in etwa ausgeglichen wird. Dafür wird in bestimmten Abständen der Vollmondtermin um einen Tag nach vorne verschoben. Zum ersten Mal geschah das im Jahr 1800. Die nächste Korrektur erfolgt dann 2100. Die Einzelheiten übergehen wir in diesem Blog. Das Prinzip der Berechnung des Ostertermins blieb unverändert.
Fassen wir zusammen: im christlichen Kalender wird der Vollmondtermin nicht nach astronomischen Berechnungen festgestellt, sondern nach einem mehr oder minder genauem Rechenschema, das nur ganze Tage berücksichtigt. Frühlingsanfang ist darin immer der 21. März, also ist der früheste Ostertermin der 22. März, falls Vollmond am 21. ist. Der späteste Ostertermin fällt auf den 25. April. Das liegt daran, dass nach der Rechenregel der 18. April der späteste Vollmondtermin ist. Fällt dieser aber auf einen Sonntag müssen 7 Tage dazu gezählt werden.
Und so kommen wir auf den Ostertermin für 2019: die Goldene Zahl beträgt VI. Damit ist Vollmond am 19. April, ein Freitag – diesmal sogar Karfreitag. Ostern fällt somit auf den 21. April, dem darauffolgenden Sonntag.
Tatsächlich ist die Berechnungsvorschrift nicht so schlecht. Die größte Abweichung beträgt nur ein bis zwei Tage. Astronomisch findet im Jahr 2019 der der erste Frühlingsvollmond nach der Osternregel am 19. April um 13:12 MESZ statt, am selben Tag wie nach dem Computus.
Quellen:
Hans-Ulrich Keller: Kosmos Himmelsjahr 2019, S. 110 ff.
Heiner Lichtenberg: „Die Osterterminberechnung nach Missale Romanum“, Theologisches, Jahrgang 32, Nr. 2, 2002 (https://www.theologisches.net/files/32_Nr.2.pdf)
Wikipedia
]]>
1898 erschien H.G. Wells Roman „Der Krieg der Welten“. Die fantastische Erzählung beginnt mit den Worten:
Niemand hätte im ausgehenden neunzehnten Jahrhundert geglaubt, dass das Treiben auf der Erde scharf und genau von Wesen beobachtet wurde, die intelligenter waren als die Menschen und doch nicht minder sterblich; dass die Menschen bei allem, was sie so emsig betrieben, akribisch überwacht und erforscht wurden, vielleicht fast genauso akribisch, wie ein Mensch mit einem Mikroskop die kurzlebigen Kreaturen erforscht, die in einem Tropfen Wasser wimmeln und sich mehren. (H. G. Wells „Der Krieg der Welten“, 2017, © S. Fischer Verlag GmbH, Frankfurt am Main)
In der Wirklichkeit ist es genau umgekehrt; wir Erdlinge beobachten mit allen Tricks der modernen Wissenschaft und Technik unseren Nachbarplaneten. Seit nun rund 54 Jahren ist er immer wieder Ziel diverser Raumsonden und unter genauester Beobachtung. Allerdings ist das eine Geschichte von Erfolgen und Misserfolgen. Von den 47 Versuchen, den Mars zu erreichen und zu erforschen, erreichten nur 30 ihr Ziel, wobei 6 von ihnen aus unterschiedlichsten Gründen kurz nach der Ankunft am Planeten versagten. Aber diejenigen, die erfolgreich waren – oder immer noch aktiv sind – lieferten neben fantastischen Bildern auch eine Fülle neuer Erkenntnisse, die den Mars heute in einem völlig neuen Licht erscheinen lassen als vor dem Raumzeitalter.
Noch 1962 fasste der viel zu früh verstorbene Astronom Rudolf Kühn in seinem Buch „Die Himmel erzählen“ den damaligen Wissensstand über die im Fernrohr erscheinenden dunklen Gebiete auf dem Planeten folgendermaßen zusammen:
Weniger sicher ist die Deutung der dunklen Gebiete, die sich als die deutlichsten Einzelheiten der Marsoberfläche darbieten … Die Farbe dieser Gebiete verändert sich regelmäßig je nach Jahreszeit auf dem Planeten. Viele Astronomen sind der Ansicht, dass gewisse Oberflächenstrukturen oder chemische Substanzen diese Veränderungen hervorrufen. Die Mehrzahl der Forscher neigt heute jedoch zu der Meinung, dass die dunklen Gebiete eine niedrige Vegetation aus Moosen, Flechten, vielleicht auch Algen haben. Es ist jedoch wichtig zu betonen, dass wir keinen zwingenden Grund kennen, warum es auf dem Mars kein organisches Leben in niedrigster Form geben soll, …
Schon die ersten Raumsonden, die den Planeten untersuchten, zeigten, dass die erste Gruppe der Wissenschaftler das richtige Gespür hatte. Die Marsoberfläche ist wüstenhaft und lebensfeindlich.
Eines dieser um den Mars fliegenden Labors, Mars Express, feierte gerade sein 15-jähriges Jubiläum, ohne dass die Medien groß davon Notiz nahmen. Am 2. Juni 2003 hob eine Rakete mit der Raumsonde von der Startrampe bei Baikonur, Kasachstan, ab. Nach einem rund halbjährigen Flug kam das Gerät am ersten Weihnachtstag 2003 am Planeten an und erreichte fünf Tage später seine Umlaufbahn.
Mars Express wurde in Rekordzeit gebaut. Zwischen der Projektgenehmigung und dem Start vergingen keine fünf Jahre. Deshalb erhielt die Sonde den Beinamen ‚Express‘.
Mars Express ist Europas erste Planetenmission und eine der erfolgreichsten, die je zum Mars geschickt wurden. Die Raumsonde bestand ursprünglich aus zwei Komponenten. Zum einen aus Mars Express selbst, der in eine Umlaufbahn einschwenken sollte, und aus dem Landegerät Beagle 2, das Gestein und Boden auf der Oberfläche untersuchen sollte.
Allerdings ging Beagle bei der Landung am 25. Dezember 2003 verloren, als gleich nach der Trennung von Mars Express der Funkkontakt abriss. Erst 2015 zeigten Aufnahmen des Mars Reconnaissance Orbiter (MRO) der NASA, dass das Gerät trotzdem weich gelandet war.
Für diese planetare Erstlingsmission Europas sind die Ziele hochgesteckt. Neben einer vollständigen Erfassung der Marsoberfläche, sollen die oberen Bodenschichten und die Atmosphäre des Planeten mit noch nie erreichter räumlicher und spektraler, d. h. wellenlängenabhängiger, Genauigkeit untersucht werden. Dabei ist die Suche nach Wasser in all seinen Erscheinungsformen die verbindende Aufgabe aller Experimente. Wenn es Wasser auf dem Mars gibt oder gab, könnten möglicherweise noch heute einfachsten Lebensformen im Boden existieren oder waren dort einst vorhanden.
Daneben werden die beiden kleinen, asteroidenartigen Marsmonde Phobos und Deimos erforscht.
Insgesamt sind auf der Planetensonde sieben Instrumente untergebracht, deren Ergebnisse den Mars in einem neuen Licht erscheinen lassen. Nachfolgend möchte ich eine kleine, subjektive Auswahl der Höhepunkte der Mission vorstellen.
Die hochauflösende Stereokamera (High-Resolution Stereo Camera – HRSC) an Bord von Mars Express liefert atemberaubende Ansichten der Planetenoberfläche, die beispielsweise zeigen, dass der Mars bis vor kurzem noch geologisch aktiv war. Kurz bedeutet hier ein Zeitraum von einigen Hunderttausend bis wenige Millionen Jahren. Auf den Aufnahmen sind die Wirkungen von Gletschern und vulkanischen Aktivitäten zu erkennen.
Eines der geologisch interessantesten Gebiete ist die Tharsis-Region, die sich nahe beim Äquator an der Grenze zwischen den südlichen Hochländern und den nördlichen Tiefländern befindet, und von der Stereokamera besonders intensiv aufgenommen wurde. Die Region war früher geologisch besonders stark aktiv. Davon zeugen die vier gewaltigen Vulkane und die Anzeichen für eine Plattentektonik. Zwei der Vulkane, Ascraeus und Pavonis Mons, erheben sich mehr als 20 Kilometer hoch in die dünne Marsatmosphäre. Dagegen sind der Mount Everest, mit 8848 Metern der höchste Berg auf der Erde, und der Mauna Kea, der höchste Vulkan auf unserem Planeten, wenn man seine Höhe von 10293 Metern vom Meeresboden misst, wahre Zwerge.
Die Tharsis-Region nimmt rund ein Viertel der Marsoberfläche ein und große Teile liegen zwischen zwei und zehn Kilometern hoch.
Da es ja kein Wasser an der Oberfläche gibt, nimmt man als „Meereshöhe“ den Abstand vom Marszentrum, bei dem die Schwerkraft der gemittelten Anziehungskraft am Äquator entspricht. Die Definition ist im ersten Moment etwas unanschaulich, aber doch recht praktisch.
Die Tharsis-Region steht auch mit dem tiefsten bekannten Canyon im Sonnensystem in Verbindung, dem Valles Marineris, der rund viermal länger und tiefer ist als der Grand Canyon.
Mit OMEGA (Infrared Mineralogical Mapping Spectrometer) wird die Verteilung der Mineralien auf der Marsoberfläche untersucht. Daneben lieferte inzwischen detaillierte Karten über die Verteilung von Wasser- und Kohlendioxideis in den Polregionen des Planeten.
Außerdem spürte es sogenannte Schichtsilikate auf. Auf der Erde gehören Mineralien wie Glimmer, Kaolin, Tonmineralien in Sedimentgesteinen und andere dazu. Wie OMEGA herausfand, konzentrieren sich diese Mineralien hauptsächlich in den alten kraterreichen Regionen. Da sie sich auf der Erde nur in einer wässrigen Umgebung bilden, interpretieren die Wissenschaftler ihr Vorkommen auf dem Mars dahingehend, dass dort vor rund 4 Milliarden ein wesentlich feuchteres Klima herrschte. Möglicherweise existierte damals für mehrere hundert Millionen Jahre flüssiges Wasser sogar auf der Oberfläche oder zumindest dicht darunter und bot einfachen Lebensformen eine ausreichende Grundlage. Andererseits zeigen die gefundenen Sulfate und Eisenoxide, dass der Planet später austrocknete.
OMEGA fand auch Wolken aus Kohlendioxideis in etwa 80 Kilometern Höhe über der Marsoberfläche. In der Atmosphäre über den Polen konnte auch molekularer Sauerstoff nachgewiesen werden. Genau genommen bilden sich je nach Jahreszeit bis zu drei Ozonschichten auf dem Mars aus, die aber wesentlich dünner sind als auf der Erde. Ozon, ein Molekül aus drei Sauerstoffatomen, entsteht auf dem roten Planeten dadurch, dass die UV-Strahlung Sauerstoffatome aus Kohlendioxidmolekülen herauslöst, die sich dann zu Ozon verbinden.
Mit Fug und Recht kann man Mars als Wüstenplaneten bezeichnen. Allerdings vermuten Forscher, dass sich ein Teil des Wassers, das einst auf dem Planeten vorhanden war, sich in tiefere Schichten der Oberfläche zurückgezogen hat und dort immer noch in Form von Eis vorhanden ist. Danach sucht das Radargerät MARSIS, dass bis zu 5 Kilometer unter die Oberfläche eindringen kann.
Allerdings lässt sich mit den vorhandenen Daten aus der Umlaufbahn noch nicht eindeutig das Vorkommen von Eis im Marsboden beweisen, da auch verdichteter Sand ähnliche Signale liefert.
Mit OMEGA wurden die Dicken der polaren Eiskappen vermessen. Am Südpol des Mars ist so viel Wassereis gebunden, dass es im geschmolzenen Zustand die gesamte Oberfläche mit einer 11 Meter dicken Wasserschicht bedecken würde.
Zusätzlich kann damit die Ionosphäre des Mars vermessen werden. Auch entdeckte MARSIS lokale Magnetfelder in der Kruste des Planeten. Ansonsten besitzt der Planeten kein globales Magnetfeld mehr wie die Erde. Vermutlich ging es schon sehr früh, wenige hundert Millionen Jahren nach der Entstehung des Mars verloren.
Mit einem weiteren Messgerät, dem planetare Fourier-Spektrometer (PFS) wurde die bisher vollständigste Karte der chemischen Zusammensetzung der Marsatmosphäre erstellt. Unter den verschiedenen Stoffen zeigten sich auch Spuren von Methan, dem einfachsten organischen Molekül. Allerdings ist unklar, ob es sich dabei um das Endprodukt geologischer oder biologischer Prozesse handelt. Doch dazu mehr etwas später. Neben den chemischen Daten zeichnet PFS auch die Temperaturen in der Atmosphäre bis in eine Höhe von 50 km auf.
In der Marsatmosphäre gibt es praktisch keinen Sauerstoff. Ohne Raumanzug könnte dort kein Astronaut im freien überleben, einmal abgesehen davon, dass der Luftdruck auch zu gering ist. Die Atmosphäre besteht hauptsächlich aus Kohlendioxid. Dessen Verteilung in verschiedenen Höhen über der Oberfläche misst SPICAM, das Ultraviolett- und Infrarot Atmosphärenspektrometer.
Überraschend war die Entdeckung von Polarlichtern in mittleren Breiten. Da der Mars nur ein sehr schwaches Magnetfeld besitzt, hatte dies niemand erwartet. Aber offensichtlich sind einige der lokalen Magnetfelder stark genug, Teilchen des Sonnenwinds einzufangen und in die Marsatmosphäre zu lenken, wo sie deren Moleküle zum Leuchten anregen. Der Mechanismus ist derselbe wie bei uns in den Polgebieten.
Wegen der fehlenden Schutzschicht durch ein Magnetfeld ist die Marsatmosphäre allerdings dem ständig wehenden Sonnenwind schutzlos ausgesetzt. Folglich verliert Mars permanent einen Teil seiner Luft. Der Analysator für energiereiche Atome (ASPERA) beobachtet die damit verbundenen Vorgänge. Inzwischen ist klar, dass der Sonnenwind auch für die Verwüstung des Planeten verantwortlich ist, weil er vorwiegend Wasserstoff- und Sauerstoffionen mit sich reißt. Wasser besteht aus einem Atom Sauerstoff und zwei Atomen Wasserstoff. Durch die UV-Strahlung der Sonne werden die Wassermoleküle in der Marsatmosphäre in ihre Bestandteile zerlegt, die dann vom Sonnenwind mitgerissen werden. Die Verlustrate ist allerdings stark von der Stärke des Sonnenwinds und der ultravioletten Strahlung der Sonne abhängig. Im Gegensatz zu Wasser verliert der Mars aber nur sehr wenig Kohlendioxid.
Die Rauigkeit der Oberfläche des Planeten untersucht das Radioexperiment MaRS. Gleichzeitig misst es Änderungen der Umlaufbahn von Mars Express, die durch Bereiche mit geringerer oder höherer Dichte unterhalb der Oberfläche verursacht werden. Wie auf der Erde lassen sich Radiowellen auch dazu verwenden, elektrisch leitende Schichten in der Atmosphäre zu vermessen.
Auf der Erde sorgt die Ionosphäre dafür, dass sich Radiowellen bis zu einer bestimmten Frequenz über große Entfernungen ausbreiten. Diese Eigenschaft wurde vor dem Zeitalter der Funk- und Fernsehsatelliten für die Kurzwellenübertragung ausgenutzt. Dadurch sind selbst relativ schwache Stationen aus entfernten Region zu empfangen. Ich habe selbst lange Zeit als sogenannter Kurzwellenhörer den Sendungen vieler Radiostationen aus über 100 Ländern zugehört. Auch wenn man wegen der fremdartigen Sprachen nicht versteht, was gesagt wird, ist die exotische Musik, die man dabei zu hören bekommt, oft sehr reizvoll. Heute ist der Empfang solcher Stationen über das Internet wesentlich einfacher.
Aber ich schweife ab. Deshalb zurück zum roten Planeten. Dort hatte man keine Ionosphäre erwartet, doch fand MaRS heraus, dass sich eine Ionosphäre bildet, wenn Sternschnuppen in der Atmosphäre verglühen, und untersucht die Variationen auf der Tages- und Nachtseite.
Mars Express war und ist weiterhin eine sehr erfolgreiche Planetenmission der europäischen Raumfahrtorganisation ESA und wird in Zukunft weiterhin wichtige Erkenntnisse zu einem besseren Verständnis über den Mars und den Bedingungen für erdähnliche Exoplaneten liefern.
Zum Schluss komme ich noch einmal wie versprochen zum Methan zurück. In den letzten Tagen machte die NASA etwas Wirbel darüber, weil der Marsrover Curiosity der NASA festgestellt hatte, dass die Menge des Gases starken jahreszeitlichen Schwankungen unterliegt, wobei auch kurzzeitige Spitzen auftreten. Aber trotz des Medienrummels, bleibt die Frage nach den Methanquellen weiterhin unbeantwortet.
Das Rätsel kann vielleicht Trace Gas Orbiter der ESA lösen, der gerade seine systematische Suche nach Spurengasen aus der Umlaufbahn um den Mars aufgenommen hat. Bei verdächtigen Beobachtungen wird er seine Kamera auf die Gebiete richten, in denen die Gase auftreten. Warten wir ab, was dabei herauskommt.
]]>
Stephen Hawking wurde am 8. Januar 1942 in Oxford, England, geboren. Zeit seines Lebens wies er immer wieder mit einem Augenzwinkern darauf hin, dass sein Geburtstag mit dem 300. Todestag von Galileo Galilei zusammenfiel. Sein Vater war Tropenmediziner und seine Mutter hatte Wirtschaftswissenschaften, Philosophie und Politik studiert.
Obwohl er schon an seiner Schule als ein kleiner Einstein galt, entwickelte er während während seiner Schulzeit erst nach und nach seine Vorliebe zu wissenschaftlichen Themen. Angeregt durch seinen Mathematiklehrer Dikran Tahta entschloss er sich, Mathematik zu studieren. Sein Vater war dagegen und riet ihm stattdessen, wie er, Medizin zu studieren. Er hielt Mathematik für brotlose Kunst. In seinen Augen würde Stephen später Probleme haben, als Mathematiker eine Anstellung zu finden. Außerdem wollte er, dass Stephen seine Studien am University College in Oxford aufnehmen sollte, seiner eigenen ehemaligen Alma Mater.
Tatsächlich begann Hawking im Oktober 1959 Physik und Chemie am University College in Oxford zu studieren. Er war damals erst 17 Jahre alt. Der Beginn seiner wissenschaftlichen Laufbahn war alles andere als glanzvoll. Es wird erzählt, dass er sich in den ersten 18 Monaten langweilte und einsam war. Er fand, dass das Studium „lächerlich einfach“ sei. Seine Lehrer hielten ihn zwar für mathematisch sehr begabt, aber er galt als nicht gerade fleißig und seine Leistungen waren unauffällig. Allerdings beschrieb ihn später sein damaliger Tutor für Physik, Robert Berman, als jemanden, „der nur wissen musste, dass etwas machbar sei, und es dann durchzog, ohne sich darum zu kümmern, wie die anderen es machten“. Im zweiten Studienjahr änderte sich dann Hawkings Verhalten. Er wollte mehr wie die anderen Jungs sein und entwickelte sich zu einem beliebten und geistreichen College-Mitglied. Seine Interessen galten klassischer Musik und Science Fiction. Daneben schloss er sich dem Bootsclub des College an. Als Steuermann eines Ruderbootes war er für seine riskanten Manöver bekannt, bei denen manches Ruderboot zu Bruch ging.
Hawking bezeichnete sich einmal selbst als faulen Studenten. In den ersten drei Jahren habe er tatsächlich nur etwa 1000 Stunden wirklich studiert. Deshalb habe er ziemliche Angst vor den Abschlussprüfungen gehabt und beschlossen nur Fragen zur theoretischen Physik zu beantworten anstatt solche, für die Kenntnisse in angewandten Fächern notwendig waren. Tatsächlich gelang es ihm, seine Prüfer zu überzeugen, dass sie es mit jemanden zu tun hatten, der weitaus schlauer war als die meisten von ihnen. Er bestand das Examen mit Auszeichnung. Das öffnete ihm den Weg nach Cambridge, wo er in Kosmologie promovieren wollte.
Im Oktober 1962 begann Stephen Hawking seine Doktorarbeit am Trinity Hall College in Cambridge. Aber zu seiner großen Enttäuschung wurde ihm Dennis William Sciama als sein Doktorvater zugeteilt. Er wollte aber eigentlich zu Fred Hoyle, dem damals berühmtesten Astrophysiker, der die ambitioniertesten Studenten regelrecht anzog. Doch der hatte schon viele Studenten.
Hoyle war brillant und charismatisch, auch wenn er sich in seinen späten Jahren eine Menge Kritik einhandelte, als er sich mit biologischen und paläontologischen Fragen beschäftigte. Als Physiker vertrat er lange Zeit die Steady-State-Theorie, nach der die kontinuierliche Erzeugung von Materie die Ausdehnung des Weltalls verursacht. Selbst als die Theorie immer weniger mit neueren Beobachtungsergebnissen zu vereinbaren war, hielt er noch daran fest. Dennoch, Hoyle konnte Leute in seiner Umgebung begeistern. Ich selbst hatte einmal während meiner Zeit an der Universität Frankfurt am Main das Vergnügen mich an einem Nachmittag und bei einem Abendessen mit dem englischen Physiker zu unterhalten. Das waren faszinierende Stunden, in denen bei mir der Grundstein dafür gelegt wurde, die Ergebnisse der Wissenschaft auf verständliche Weise weiterzugeben. Aber ich schweife ab, zurück zu Stephen Hawking.
In demselben Jahr, in dem Stephen Hawking seine Dissertation begann, wurde bei ihm Amyotrophe Lateralsklerose (ALS) diagnostiziert. Das ist eine nicht heilbare degenerative Krankheit des motorischen Nervensystems. Dabei kommt es zu einer mit der Zeit fortschreitenden Schädigung der Nervenzellen, die für die Steuerung der Muskeln verantwortlich sind. Nach und nach kommt es zu immer heftigeren Gang-, Sprech- und Schluckstörungen. Dazu kommt es zu Muskelschwund. Im Mittel überleben Patienten nur drei bis fünf Jahre nach der Diagnose. Eine Abart dieser Krankheit, die chronisch-juvenile ALS, nimmt einen extrem langsamen Verlauf. Der bekannteste Patient war Stephen Hawking, bei dem ALS bereits im Alter von 21 Jahren diagnostiziert wurde. Als er an den Folgen dieser Krankheit verstarb, war er 76 Jahre alt.
Für Hawking war die Diagnose ALS niederschmetternd und er war deprimiert. In der Folge sah er keinen Sinn mehr darin, seine Forschungen weiter zu betreiben. Erst als klar wurde, dass die Krankheit bei ihm deutlich langsamer voranschreiten würde, gelang es seinem Doktorvater, ihn wieder zu motivieren.
Sciama gilt als einer der Väter der modernen Kosmologie. Hawking lernte schnell, dass die Arbeit unter ihm auch Vorteile hatte. Hoyle war relativ selten im Institut und ein engagierter Gegner der Idee des Big Bang. Sciama dagegen war immer präsent und diskutierte mit seinen Studenten oft und angeregt. Sciama verfolgte, wie Kip S. Thorne es beschrieb, als Lehrmeister einen ungewöhnlichen Ansatz. Anstatt seine persönlichen Forschungen und damit seine Karriere voran zu treiben, bot er seinen Studenten in Cambridge ein optimales Umfeld. Deshalb wurde er nie in den Rang eines Professors erhoben. Aber zwei seiner Studenten ernteten dafür den Ruhm, Martin Rees und Stephen Hawking.
Der rege Gedankenaustausch mit Sciama bestärke Stephen Hawking darin, seine eigene wissenschaftliche Vision zu entwickeln. Sciama, der anfangs Hoyles Theorie unterstützt hatte, wandte sich in den 1960er Jahren dann aber der Big-Bang-Theorie zu, als immer mehr Beobachtungsergebnisse gegen Hoyles Theorie sprachen. Deshalb bestärkte er Hawking darin, sich mit dem Anfang des Universums zu beschäftigen und den Beginn der Zeit bei dessen Entstehung zu untersuchen.
Hawkings Arbeit basierte auf den Arbeiten von Roger Penrose, einem englischen Mathematiker und theoretischen Physiker. Ursprünglich studierte dieser Mathematik. In seinem vierten Studienjahr kam mit der Kosmologie in Berührung, als er über seinen Bruder Oliver, der Physik studierte, Dennis Sciama kennenlernte, der damals Olivers Zimmerkollege war. Sciama verwickelte von da an Penrose in stundenlange Diskussionen über alles, was in der Physik gerade an neuen und aufregenden Dingen geschah. So kam es, dass Penrose mit einem Bein in der Mathematik und mit dem anderen in der Physik stand.
1964 beschäftigte sich Penrose mit der Frage, ob ein beliebiger Stern, der in sich zusammenbricht, eine Singularität bilden kann. In sich zusammenbrechende Sterne sind die Ursache für eine Art von Supernovaexplosionen am Ende massereicher Sterne, wenn diese ihren Brennstoffvorrat verbraucht haben. Während die Materie im Kernbereich dieser Sternleichen als Neutronenstern endet oder einem Schwarzen Loch verschwindet, wird deren Hülle in einer gewaltigen Explosion in das Weltall geschleudert. Penrose bewies, dass nach Einsteins allgemeiner Relativitätstheorie jeder Stern in einer Singularität enden muss, sobald er auf eine Größe schrumpft, bei der die Schwerkraft so stark wird, dass sogar das sich nach außen ausbreitende Licht nach innen zurückgebogen wird. Bis zu diesem Beweis, wurde vermutet, dass das Auftreten von Singularitäten durch vermeintlich unrealistische Annahmen bei den Berechnungen verursacht werde. Wie das Wort Singularität nahelegt, handelt es sich hier um etwas Singuläres, etwas Einzigartiges, Außergewöhnliches. Die Singularität sitzt im Zentrum eines Schwarzen Lochs, wo die Raumkrümmung und die Dichte der Materie unendlich groß wird. Hier verlieren die bekannten Gesetze der Physik ihre Gültigkeit. Raum und Zeit enden hier.
Ausgehend von dem Singularitäten-Theorem, das Roger Penrose aufgestellt hatte, beschrieb Hawking in seiner 1965 fertiggestellten Doktorarbeit, dass das auch für das ganze Universum gültig ist, wenn man die Richtung der Zeit umdreht. Danach muss das Universum in einer Singularität seinen Anfang genommen haben.
Aber wie kann das gehen? Hawking war sich bewusst, dass Einstein hier nicht das letzte Wort haben kann. Die Relativitätstheorie ist eine klassische Theorie. Quantenmechanische Effekte und Gesetze, die das Verhalten der Materie bei sehr, sehr kleinen Dimensionen beschreiben, kommen darin nicht vor. Für Hawking bedeutete seine Entdeckung, dass in den physikalischen Modellen für den Urknall etwas fehlte. Er vermutete, eine Theorie für Alles, die Weltformel, in der die Relativitätstheorie und die Quantenmechanik vereinigt wären, könnte die extremen Bedingungen am Anfangs des Universums und in Schwarzen Löchern vermutlich besser beschreiben und Singularitäten würden verschwinden.
Somit machte sich Stephen Hawking auf die Suche nach der Quantengravitation. Im Universum spielen vier verschiedene Kräfte eine Rolle: die elektromagnetische Kraft, die das Verhalten geladener Teilchen und des Lichts bestimmt. Die schwache Kernkraft, die beim radioaktiven Zerfall der Atomkerne und atomarer Teilchen wirkt. Die starke Kernkraft, die die Quarks aneinander bindet, aus denen Protonen und Neutronen bestehen, und die für den Zusammenhalt der Atomkerne sorgt. Als vierte und schwächste Kraft bestimmt die Schwerkraft, die Gravitation, die Bewegungen der Objekte im Universum und übt einen starken Einfluss auf die Entwicklung der Sterne aus. Experimente an Teilchenbeschleunigern und das Standardmodell der Elementarteilchen lassen vermuten, dass sich die ersten drei Kräfte auf eine einzige Grundkraft zurückführen lassen. Die elektrische und magnetische Kraft lassen sich zur elektromagnetischen Kraft vereinen. Wie Experimente an Teilchenbeschleunigern zeigten, fügen sich bei höheren Energien die elektromagnetische und die schwache Kernkraft zur elektroschwachen Kraft zusammen. Theoretisch könnte bei noch höheren Energien, die aber in Beschleunigern nicht erreichbar sind, auch die starke Kernkraft mit der elektroschwachen Kraft kombiniert werden. Die Theorie der Quantengravitation würde eine einheitliche Beschreibung der Schwerkraft mit den vereinigten drei anderen Kräften liefern. Doch bislang sind alle Versuche, ein solides theoretische Gebäude dafür zu errichten, an bislang unüberwindlichen mathematischen Problem gescheitert.
Eines der zu lösenden Probleme für eine Beschreibung der Quantengravitation fand Hawking im zweiten Hauptsatz der Thermodynamik, der Wärmelehre. Diese Theorie beschreibt das zufällige, statistische Verhalten einer großen Anzahl von Atomen. Ihre Gesetze erklären, wie Temperatur und Wärme in mechanische Energie umgesetzt werden kann. Der zweite Hauptsatz drückt aus, das mechanische, elektrische und chemische Energie vollständig in Wärme umgewandelt werden kann. Aber Wärmeenergie lässt sich dagegen nur teilweise und unter hohem technischen Aufwand in eine der anderen Energieformen zurückverwandeln. Dieser nicht nutzbaren Teil der Wärme wird durch den Begriff der Entropie beschrieben.
Entropie ist ein Maß für die Unordnung in einem physikalischen System, aber nicht wirklich anschaulich. Das sehen übrigens auch für viele Physiker so. Die meisten Kollegen, die ich im Laufe meiner wissenschaftlichen Laufbahn traf, versuchten der Thermodynamik und ihren merkwürdigen Größen aus dem Weg zu gehen. Vielleicht kann man aber der Entropie über folgende Überlegung etwas näher kommen. Betrachten wir sie als die Summe aller Möglichkeiten die Bestandteile eines Systems umzuordnen, ohne das der Gesamteindruck sich ändert. Nehmen wir einen Ofen, in dem sich Holz und Papier zum Anzünden befindet. Die Anzahl der verschiedenen Anordnungen von Holz und Papier ist dabei recht überschaubar. Das entspricht einer niedrigen Entropie. Wenn wir nun das Papier anzünden und alles verbrennen, bildet sich Asche. Die aber besteht aus sehr, sehr vielen kleinen Ascheteilchen. Selbst wenn wir diese umrühren, ändert sich wenig am Gesamteindruck. Das entspricht einer hohen Entropie.
Da bei den physikalischen Prozessen immer etwas Wärme übrigbleibt, sagt der zweite Hauptsatz der Thermodynamik, dass die gesamte Entropie im Universum immer mehr zunimmt, niemals abnimmt. Da die Temperatur eine Maß für die mikroskopische Bewegung aller Moleküle und Atome eines Stoffes ist und diese Bewegungen mit steigender Temperatur heftiger werden, nimmt die Unordnung der Moleküle zu. Somit ist die Entropie auch ein Maß für die Unordnung. Mehr Warme bedeutet mehr Unordnung und mehr Entropie.
Der zweite Hauptsatz der Thermodynamik sorgt somit dafür, dass sich niemals aus der Asche im Ofen wieder Papier und Holz bildet.
Schwarze Löcher aber verletzten den zweiten Hauptsatz der Thermodynamik. Fällt Materie in das Loch hinein, kann sie nicht mehr entkommen. Aber damit geht auch die in der Materie enthaltene Entropie verloren. So etwas mögen Physiker überhaupt nicht, denn der zweite Hauptsatz ist eines der am besten gesicherten Naturgesetze.
Hawking war das erst einmal egal. Er war bereit, jedes Konzept, das einer tieferen Erkenntnis zur Wahrheit im Wege stand, über Bord zu werfen, auch wenn er dafür den zweiten Hauptsatz der Thermodynamik opfern sollte.
Aber nicht allen seiner Kollegen gefiel dieser Gedanke. Einer unter ihnen war Jakob Bekenstein, der damals Doktorand bei einem der berühmtesten theoretischen Physikern seiner Zeit war, Archibald Wheeler. Ihm war eine Ähnlichkeit zwischen den Gleichungen der Thermodynamik und denen für Schwarze Löcher aufgefallen. Insbesondere kann man den zweiten Hauptsatz der Thermodynamik und das Flächentheorem für Schwarze Löcher ineinander umwandeln, wenn man den Begriff Entropie durch die Fläche des Ereignishorizonts ersetzt. Der Ereignishorizont ist die Grenze zwischen dem Inneren eines Schwarzen Lochs und dem restlichen Universum. Alles was den Ereignishorizont von außen nach innen überquert, ist im Schwarzen Loch gefangen. Das Flächentheorem, das Hawking zuvor gefunden hatte, besagt, dass sich die Fläche des Ereignishorizontes immer vergrößert, wenn etwas in das Loch hineinfällt. Bekenstein vermutete nun, dass Entropie und die Fläche des Ereignishorizonts irgendwie zusammengehören. Beide werden immer größer. Es gelang ihm auch, eine Beziehung zwischen den beiden Größen herzuleiten. Die Ähnlichkeit der beiden Gesetze war Hawking zwar nicht entgangen, aber er hielt sie für einen bloßen Zufall. Dafür hatte er aber auch gewichtige Gründe. Einer davon beruhte darauf, dass man einem Schwarzen Loch eine Temperatur zugestehen müsste, falls es Entropie besitzen würde. Das wiederum bedeutet, dass es Strahlung abgeben müsste. Aber bekanntlich kann ja dem Loch nichts entkommen, nicht einmal das Licht. Schwarze Löcher sind nun einmal schwarz!
Aber die Ähnlichkeit ließ Hawking trotzdem keine Ruhe. Um die Sache ein für alle Mal aus der Welt zu schaffen, suchte er nach einem Beweis, dass Bekenstein falsch lag. Aber Überraschung! Hawking fand heraus, dass Bekensteins Idee richtig war. Damit es funktionierte, musste er aber neben den Gesetzen der Relativitätstheorie, einem klassischen Konzept, noch die der Quantenmechanik berücksichtigen.
Die Quantenmechanik beschreibt das Verhalten und die Gesetze bei atomaren Maßstäben. Nur dank ihr funktionieren Handys, CD-Player und viele der modernen elektronischen Geräte überhaupt. Nach der klassischen Physik sind sie alle unmöglich.
Eine Erkenntnis aus der Quantenmechanik sagt, dass sich im leeren Raum ständig Paare aus Teilchen und ihren Antiteilchen bilden. Diese verschwinden aber praktisch wieder im selben Augenblick, sodass sich der Effekt normalerweise nicht bemerkbar macht. Aber was geschieht dicht am Ereignishorizont eines Schwarzen Lochs? Dann könnte ein Partner des Paares in dem Loch verschwinden, während der andere in den Weltraum entweicht. Das Schwarze Loch gäbe somit Strahlung in Form von Teilchen ab und wäre doch nicht so schwarz.
Aber der Nachweis der Strahlung ist extrem schwer, denn je größer ein Schwarzes Loch ist, desto kälter ist es und umso weniger Strahlung sendet es aus. Ein Schwarzes Loch mit einer Sonnenmasse hat nach Hawkings Theorie eine Temperatur von rund 600 Millionstel Grad über dem absoluten Nullpunkt der Temperaturskala, der bei −273,15 °C liegt. Mit der Zeit sollten Schwarze Löcher immer kleiner werden, weil sie über die Strahlung an Masse verlieren – sofern nicht ständig ausreichend neue Materie in sie hereinfällt. Letztendlich explodiert ein Schwarzes Loch, wenn es mikroskopisch klein geworden ist.
Die Entdeckung der nach ihm benannten Hawking-Strahlung gilt unter seinen Kollegen als sein größter Beitrag zur Physik. Möglicherweise blieb Stephen Hawking aber wegen des fehlenden experimentellen Nachweises der Strahlung der Nobelpreis für Physik versagt.
Auf jeden Fall war Stephen Hawking bereit, die Leistung von Bekenstein anzuerkennen. Heute wird die Formel für die Entropie Schwarzer Löcher als Bekenstein-Hawking-Gleichung bezeichnet. Er wünschte sich auch, dass sie auf seinem Grabstein eingraviert werden soll, weil sie Anteile aus allen physikalischen Disziplinen enthält: die Newtonsche Gravitationskonstante. Sie steht für die Schwerkraft. Die Planck-Konstante, die die Quantenmechanik repräsentiert, die Lichtgeschwindigkeit, die Einsteins Relativitätstheorie symbolisiert und die Boltzmann-Konstante, die eine wichtige Rolle in der Thermodynamik spielt.
Das Auftreten dieser Konstanten halten viele Physiker für einen Fingerzeig auf die seit Jahrzehnten gesuchte Weltformel bzw. auf die Theorie von Allem. Hawking fühlte sich dadurch in seiner Vermutung bestätigt, dass das Verständnis der Schwarzen Löcher der Schlüssel zu einer tiefer gehenden Theorie ist.
Bekenstein und Hawking gelang es zwar das Entropieproblem lösen, aber wie es in der Wissenschaft oft geschieht, handelten sie sich ein weit größeres Problem damit ein, das Informationsparadoxon. Wenn Schwarze Löcher sich irgendwann auflösen, was geschieht mit den physikalischen Informationen, die mit der Materie und Energie verbunden sind und einst in das Loch fielen? Verschwinden sie? Aber dann wird ein zentraler Grundsatz der Quantenmechanik verletzt. Geht dagegen Information nicht verloren, sondern entweicht wieder mit der Strahlung, widerspricht das der Relativitätstheorie.
Geht die Information verloren, wäre bei der Verdampfung Schwarzer Löcher diesen nicht anzusehen, was sie einst verschluckt haben – Staub, Sterne oder sonst irgendetwas. Für Nicht-Physiker sieht das Problem aus, wie der Streit um des Kaisers Bart. Aber tatsächlich rüttelt das Paradoxon an den Grundpfeilern der bekannten Physik, zeigt es doch einen Bruch im gegenwärtigen physikalischen Gebäude auf. Das Problem ist bislang ungelöst, trotz zahlreicher Lösungsvorschläge. Auf jeden Fall zeigt das Paradoxon den Konflikt zwischen Quantentheorie und Allgemeiner Relativitätstheorie. Auch deswegen suchen Theoretiker nach der Vereinigung dieser beiden Konzepte. Am Ende steht wahrscheinlich eine völlig neue Physik oder wie es der Physik-Nobelpreisträger Gerard ‘t Hooft ausdrückte: „Entweder haben wir es mit einer unheimlichen Eigenschaft von Raum und Zeit oder einer krassen Gesetzlosigkeit in der Physik zu tun. Der Preis für eine vereinheitlichte Theorie wird sein, dass weder die Quantentheorie noch die Allgemeine Relativitätstheorie ungeschoren dabei herauskommen werden“.
Anfangs beharrte Hawking dickköpfig auf dem Informationsverlust durch Schwarze Löcher. Erst auf einer Konferenz in Dublin 2004 gab er bekannt, dass Schwarze Löcher keine Informationen verlieren.
In seinen letzten Lebensjahren schob Stephen Hawking trotz seiner schweren Erkrankung die Grenzen der theoretischen Physik immer weiter. Er schuf die Grundlagen für eine Quantenkosmologie. Diese Theorie versucht mithilfe der Quantentheorie das Auftreten einer Singularität beim Urknall zu vermeiden. Da er nicht mehr fähig war, lange und komplizierte Formel aufzuschreiben, war er gezwungen, neue Methoden zu finden, um die physikalischen Probleme in seinem Kopf zu lösen. Das gelang ihm schließlich, in dem er sich die physikalischen Objekte als geometrische Formen vorstellte.
Nach seiner Dissertation blieb Hawking zeitlebens an der Universität Cambridge. Von 1979 bis 2009 hatte er dort den Lucasischen Lehrstuhl für Mathematik inne. Einer der früheren Lehrstuhlinhaber war niemand anderes als Isaac Newton. Der Lucasische Lehrstuhl gilt als einer der prestigereichsten überhaupt. Daneben hielt sich Hawking jedes Jahr für einige Zeit am California Institute of Technology (Caltech) auf, an dem sein Freund Kip S. Thorne forscht.
Als einer der wenigen theoretischen Physiker war Stephen Hawking auch in der breiteren Öffentlichkeit populär. Das gelang ihm durch sein 1988 erschienenes Buch „Eine kurze Geschichte der Zeit“, das über 10 Millionen mal verkauft und in über 35 Sprachen übersetzt wurde. Er trat in verschiedenen TV-Dokumentationen und Serien wie „Die Big Bang Theorie“, „Raumschiff Enterprise: Das nächste Jahrhundert“ und „Die Simpsons“ auf. Sogar ein Spielfilm über sein Leben kam 2014 in die Kinos, „Die Entdeckung der Unendlichkeit“. Er war so etwas wie ein Popstar der Physik. Sein Lebensmut, sein Humor und seine positive Einstellung angesichts seiner unheilbaren und schweren Erkrankung beeindruckte dabei Millionen.
Neben Einstein war Stephen Hawking der wohl einflussreichste theoretische Physiker auf dem Gebiet der Gravitation und der Erforschung des Ursprungs des Weltalls. Mit ihm hat uns ein genialer Vordenker und ein ganz besonderer Mensch verlassen. Sein wissenschaftliches Erbe wird aber wohl noch Generationen von Physikern beschäftigen.
Übrigens am 14. März, an dem Hawking starb, war Einsteins Geburtstag. Manchmal gibt es merkwürdige Übereinstimmungen.
]]>Schon im Altertum kannte man sieben Planeten. Das waren alle mit dem bloßen Auge sichtbaren Himmelsobjekte, die sich regelmäßig gegenüber dem unveränderlichen Sternhimmel bewegten, also Sonne, Mond, Merkur, Venus, Mars, Jupiter und Saturn. Kometen waren – und sind – dagegen eine eigene Klasse, weil sie einfach irgendwann, irgendwo auftauchten und nach kurzer Zeit wieder verschwanden.
Wie bitte? Wo ist die Erde? Und, die Sonne ein Planet? Auch der Mond soll ein Planet sein? Planeten haben Monde!
Nun, die Gelehrten gingen damals bei ihren Überlegungen davon aus, wie sich ihnen das Universum präsentierte, und entwarfen ein dazu passendes, in sich stimmiges Weltbild. Die Erde galt damals nicht als Planet, sondern ruhte im Mittelpunkt des Universums. Als Planet müsste sie sich bewegen und könnte somit nicht im Zentrum des Universums ruhen. Die Sonne dagegen bewegt sich regelmäßig zwischen den Sternen und kommt nach einem Jahr an ihren Ausgangspunkt zurück. Außerdem war es damals unvorstellbar, dass sie ein Stern sein könnte, denn diese waren punktförmig und gehörten zur Sphäre der unveränderlichen Fixsterne. Auch der Mond bewegt sich sehr genau vorhersagbar auf einer ähnlichen Bahn wie die Sonne und die anderen Planeten zwischen den Hintergrundsternen und war deshalb logischerweise ebenfalls ein Planet. So sieht es das ptolemäische, das geozentrische Weltbild vor.
Mit dem heliozentrischen Weltbild, in dem die Sonne im Mittelpunkt der Welt ruht und das sich durch die Arbeiten von Nikolaus Kopernikus (1473 – 1543) ab dem 16. Jahrhundert durchsetzte, wurde die Erde zum Planeten. Dafür fielen Sonne und Mond heraus.
Doch mit dem zunehmenden Wissen über das Weltall verlor auch die Sonne ihre privilegierte Stellung in der Mitte des Universums. Aber noch 1926 stritten Astronomen über den Aufbau des Weltalls. Eine Gruppe vertrat die Ansicht, dass die Spiralnebel weit entfernte Galaxien seien, wie unsere Milchstraße, eine andere meinte, die Nebel seinen Teil der Milchstraße und es gäbe auch nur diese eine Galaxie im Universum. Aber diese große Debatte ist ein anderes Thema.
Nach der Erfindung des Fernrohrs im Jahre 1608 durch den Brillenmacher Hans Lipperhey wuchs im Laufe der Jahrhunderte die Planetenfamilie im Sonnensystem um drei weitere Mitglieder an: Uranus kam 1781 dazu, Neptun 1846 und Pluto im Jahr 1930. Aber ganz so einfach war die Geschichte nicht wirklich. 1801 wurde ein Objekt zwischen Mars und Jupiter entdeckt, dass sich wie ein Planet verhielt, und den Namen Ceres erhielt. Bis 1807 folgten weitere, Pallas, Juno, Vesta, die alle zwischen den Planeten Mars und Jupiter um die Sonne wanderten. Somit gab es zehn Planeten. Erst nach einer Pause von 38 Jahren wurde Objekt Nummer 5 entdeckt – Astraea, Planet Nummer 11. Nach 1847 wurden aber immer mehr gefunden. Offensichtlich waren diese Himmelskörper alle deutlich kleiner als die schon bekannten Planeten und bewegten sich zwischen Mars und Jupiter. Deshalb entschieden sich die Astronomen dazu, ihnen den Planetenstatus abzuerkennen. Für sie wurde die Klasse der Asteroiden eingeführt, auch Planetoiden oder Kleinplaneten genannt.
Aber eigentlich gab es keine allgemein anerkannte Definition, was einen Planeten auszeichnet. Die Klasse der Asteroiden wurden nur geschaffen, um der Inflation an Planeten zu begegnen.
Das änderte sich auch nicht durch die Entdeckung des Pluto. Aber manche Astronomen stellten seinen Planetenstatus bald infrage. Pluto war offensichtlich klein, selbst in großen Teleskopen erkannte man nur einen Lichtpunkt. Auch ist seine Bahn gegenüber den anderen Planeten deutlich schiefer und stark elliptisch. Zu manchen Zeiten befindet sich Pluto sogar näher an der Sonne als der Planet Neptun. Tatsächlich wurde lange Zeit vermutet, dass Pluto ursprünglich ein Mond Neptuns gewesen sei. Dieser besitzt den Mond Triton, der entgegen der Rotationsrichtung des Planeten um ihn kreist. Deshalb nahm man an, dass Triton einst von Neptun eingefangen wurde. Dabei sollte Pluto aus dem System geworfen worden sein. Doch allgemein galt dieser als Planet. In Meyers Handbuch über das Weltall, Ausgabe 1960, lesen wir den kurzen Eintrag: „Der erst 1930 entdeckte Planet ist naturgemäß noch wenig erforscht. Auf Grund seines Albedos und seiner scheinbaren Helligkeit schätzt man seine Größe auf etwa Erdgröße und seine Masse zu etwa 0,9 Erdmasse“.
Als 1978 der erste Plutomond Charon entdeckt wurde, war allerdings klar, dass der Planet nie ein Mond Neptuns gewesen sein konnte. Durch diesen Fund konnten bald viele Unklarheiten über den Planeten beseitigt werden. Es zeigte sich, dass Pluto nicht einmal halb so groß wie der Planet Merkur ist. Er ist sogar noch kleiner als der Erdmond, kleiner als die 4 hellen Jupitermonde, kleiner als der Saturnmond Titan, aber mehr als doppelt so groß wie der damals größte Asteroid, Ceres. Da Pluto aber der einzige Himmelskörper hinter der Neptunbahn war, wurde sein Planetenstatus nicht ernsthaft angezweifelt.
Doch das sollte sich ab dem Jahr 1992 ändern, als immer mehr Objekte hinter Neptun entdeckt wurden, deren Durchmesser mehrere hundert Kilometer betragen. Eines davon, Eris, ist nur geringfügig kleiner als Pluto. Vermutlich gibt es mehr als 10.000 dieser transneptunischen Objekte – TNOs. Jetzt befanden sich die Astronomen in einer ähnlichen Situation, wie ihre Kollegen im 19. Jahrhundert. Einige Astronomen plädierten dafür, Pluto und seine Brüder bei den Kleinplaneten einzuordnen. Dagegen gab es aber heftige Proteste.
Dann kam es 2006 zum Prager Planetensturz. Auslöser waren nicht in erster Linie die immer größer werdende Zahl aufgespürter TNOs, sondern deren immer größer werdenden Durchmesser. Sollte man deshalb die Zahl der Planeten erhöhen? Aber wo lag die Grenze? Erst jetzt begannen die Astronomen ernsthaft darüber nachzudenken, was einen Planeten eigentlich auszeichnet.
Auf der 26. Generalversammlung der Internationalen Astronomischen Union (IAU) im August 2006 in Prag wurde nach einer heftigen Debatte beschlossen, dass Pluto nicht mehr zu den Planeten zählt, sondern zur neuen Klasse der Zwergplaneten gehört. Ich muss gestehen, dass ich damals ebenfalls zur Gruppe derjenigen gehörte, die lieber mehr Planeten haben wollten, als Pluto zu degradieren, obwohl es aus wissenschaftlicher Sicht ziemlich egal ist, ob er nun Planet oder Zwergplanet genannt wird. Aber nicht nur er wechselte seine Objektklasse. Auch Ceres, der zuerst entdeckte Planetoid, wechselte zu den Zwergplaneten.
Mit der Einführung der neuen Klasse wurde auf der IAU-Versammlung auch eine wissenschaftliche Definition verabschiedet, was ein Planet ist. Das sind Objekte, die selbst nicht leuchten und:
Pluto erfüllt nicht die dritte Bedingung und verlor deshalb seinen Planetenstatus.
Damit war das Problem endlich gelöst. Aber die Definition gilt eigentlich nur in unserem Sonnensystem. Kann sie auf andere Sonnensysteme übertragen werden? Wie sich inzwischen zeigte, wohl nicht.
Lange Zeit war nicht klar, ob es um andere Sonnen ebenfalls Planeten, sogenannte Exoplaneten, gibt oder nicht. Die ersten Exemplare wurden 1990 entdeckt, an einem Ort, der wohl nicht unbedingt in die engere Wahl fallen würde. Sie kreisen um einen Pulsar, einen Neutronenstern, der als Überbleibsel nach einer Supernovaexplosion eines massereichen Sterns übrig bleibt. Der erste Planet, der um einen sonnenähnlichen Stern wandert, wurde 1995 von dem Team des Schweizer Astronomen Michel Mayor bei dem Stern 51 Pegasi gefunden.
Seitdem wurden 3588 (Stand: 25. Januar 2018) Exoplaneten bestätigt. Zahlreiche von ihnen besitzen Massen von mehr als dem Zehnfachen der Jupitermasse. Andererseits wurden auch solche Objekte gefunden, die frei zwischen den Sternen in Sternentstehungsgebieten treiben. Es ist offen, ob diese schweren Jupiter aus den noch jungen Sonnensystemen herausgeworfen wurden oder sich ähnlich wie die Sterne als einzelne Objekte direkt aus der interstellaren Materie entwickelten.
Nach dem aktuellen Wissensstand entstehen Sterne und Planeten auf unterschiedliche Weise. Erstere bilden sich aus interstellaren Wolken, die sich unter ihrer eigenen Schwerkraft zusammenziehen. In der dichter werdenden Wolke bilden sich kleinere Klumpen, aus denen schließlich die Sterne hervorgehen. Wenn genügend Masse sich angesammelt hat, zündet in ihrem Kern das atomare Feuer und sie wandeln Wasserstoffkerne in Helium um. Die jungen Sterne sind selbst wieder von einer Scheibe aus Gas und Staub umgeben. Der Staub verdichtet sich durch Zusammenstöße zu kleinen Festkörpern, die immer weiter anwachsen. Letztlich bildet sich dann ein Planet oder Asteroid. Geht das schnell genug, sammelt sich auch das Gas um die massereichsten Protoplaneten und jupiterähnliche Objekte entstehen. Während Sterne selbst leuchten, reflektieren Planeten nur das Licht ihrer Sonnen, die sie umkreisen.
Aber wo liegt die Grenze zwischen massereichen Planeten und massearmen Sternen? Die Beobachtungen deuten darauf hin, dass es keine scharfe Grenze gibt, jedenfalls nicht, wenn man nur die Masse der Objekte betrachtet. Mindestens eine weitere Information muss her.
Die Arbeitsgruppe der IAU für extrasolare Planeten definiert zurzeit ein Objekt als Planet, dessen Masse zu gering ist, um schweren Wasserstoff, Deuterium, in einer thermonuklearen Reaktion zu fusionieren. Dieses Objekt muss außerdem einen Stern oder einen Sternrest umkreisen. Objekte oberhalb einer Grenzmasse für die thermonukleare Fusion, werden den Braunen Zwergen zugeordnet, den masseärmsten und kühlsten Sternen, die wir kennen.
Für Objekte mit Elementhäufigkeiten ähnlich der Sonne, wird die Grenzmasse bei 13 Jupitermassen vermutet. Doch ist dieser Wert problematisch, weil er von der chemischen Zusammensetzung des Objekts abhängt. Wenn es einen geringen Anteil an schweren Elementen besitzt, handelt es sich um einen Planeten, während ein Objekt mit einem erhöhten Anteil ein Brauner Zwerg ist. Die Masse des Objekts alleine reicht also zur Unterscheidung nicht aus.
Das Problem liegt nun darin, wie man durch Beobachtungen zwischen einem massereichen Planeten und einem massearmen Braunen Zwerg unterscheiden kann. Dem Objekt sieht man seine Entstehungsgeschichte nicht mehr an. Dieser Frage ging nun Kevin C. Schlaufman, Assistenzprofessor an der John Hopkins Universität in Baltimore, USA, nach.
Er fand heraus, dass die Unterscheidung mithilfe der chemischen Zusammensetzung des Hauptsterns des Systems erfolgen kann. Die Ideen dahinter bilden die Theorien für die Planeten- und Sternentstehung. Objekte mit weniger als zehn Jupitermassen bevorzugen Sterne mit mehr Eisen als unsere Sonne. In der Umgebung dieser Sterne gibt es mehr Material, um daraus Steine zu erschaffen, den Samenkörnern für Planeten. Dagegen kümmern sich Braune Zwerge nicht um die chemische Zusammensetzung der Sterne, weil sie direkt aus der sich verdichtenden interstellaren Wolke bilden.
Deshalb schlägt Schlaufman vor, Objekte mit mehr als 10 Jupitermassen nicht zu den Planeten zu zählen, bis weitere und bessere Beobachtungen es erlauben, die Grenze genauer festlegen.
]]>
In den Morgenstunden des 1. Februars 1958 – nach mitteleuropäischer Zeitrechnung, in Nordamerika schrieb man noch den 31. Januar – brachten amerikanische Ingenieure und Wissenschaftler den ersten Satelliten mit Messinstrumenten in eine erdnahe Umlaufbahn. Damit begann die wissenschaftliche Erforschung des Weltraums und unseres Heimatplaneten mit künstlichen Satelliten.
Ich habe damals als achtjähriger Junge davon noch nicht viel davon mitbekommen, aber kann mich noch an die allgemeine Aufregung erinnern, weil die „Russen“ wenige Monate vorher, am 4. Oktober 1957, ihren Sputnik 1 in eine Umlaufbahn brachten. Zumindest für uns im Westen war „Amerika“, eigentlich die Vereinigten Staaten von Amerika, das fortschrittlichste Land auf der Welt, sowohl wirtschaftlich als auch wissenschaftlich. Für die meisten von uns waren die USA das Maß aller Dinge. Rückblickend sind manche Reaktionen auf den Start des ersten künstlichen Erdsatelliten schlicht als hysterisch zu bezeichnen. Aber die Welt befand sich im kalten Krieg. Selbstverständlich waren wir die Guten, die anderen die Bösen.
Mich hatte Sputnik 1 dagegen fasziniert, weil ich mich schon damals für den Weltraum interessierte und endlich der erste Schritt zu dessen Eroberung getan war. Mit Politik hatte ich noch nichts am Hut. Die ganze Aufregung der Erwachsen verstand ich auch nicht. Es war mir auch egal, dass Sputnik 1 keine wissenschaftlichen Aufgaben erfüllte. Immerhin konnte ich auf unserem ziemlich alten Radio, das den gesamten Kurzwellenbereich empfing, das Piepsen des Satelliten hören, wenn er über uns hinwegflog.
Trotz meiner Begeisterung über Sputnik 1 und dem Interesse an der Raumfahrt, nahm ich von dem amerikanischen Erfolg mit ihrem ersten Satelliten kaum Notiz. Vermutlich lag das schlicht daran, dass die ersten Versuche der Amerikaner nach Sputnik ebenfalls ihren ersten Satelliten hochzubringen, kläglich scheiterten. Außerdem brachten die sowjetischen Forscher es einen Monat nach ihrem Ersterfolg fertig, das erste Lebewesen in eine Erdumlaufbahn zu bringen, die Hündin Laika. Das war damals eine echte Sensation. Dazu gab es tatsächlich erste Fernsehbilder aus dem Weltraum!
Erst ab 1961 begann ich alle erreichbaren Zeitungsmeldung über die Fortschritte der Weltraumfahrt zu sammeln. Den Ordner, den ich damals anlegte, habe ich heute noch. Gelegentlich blättere ich noch darin, wenn ich Informationen zu einer alten Mission suche. Damals wurde über jeden noch so unbedeutenden Start berichtet. Wir befanden uns ja im kalten Krieg zwischen den Sowjets und den Amerikanern.
Aber das soll heute nicht das Thema sein. Vielmehr möchte ich etwas darüber erzählen, wie die wissenschaftliche Erforschung des Weltraums ihren Anfang nahm. Auch will ich nicht weiter über die Teflonpfanne sinnieren. Teflon ist kein Produkt des Rennens um die Eroberung des Weltraums, sondern das Ergebnis eines missglückten chemischen Experiments, das schon viel früher – im Jahr 1938 – gemacht wurde.
In den 1950er Jahren gab es schon Raketen, aber diese wurden nur für militärische Zwecke oder zur Erforschung der Atmosphäre gebaut. Keine war stark genug, um eine Nutzlast in eine Erdumlaufbahn zu bringen. Außerdem waren die damaligen Raketen nicht wirklich zuverlässig. Pläne und Überlegungen, wissenschaftliche Untersuchungen in einer Erdumlaufbahn durchzuführen, gab es, aber sie wurden nicht besonders gefördert.
Trotzdem hatte schon 1955 der damalige Präsident der Vereinigten Staaten von Amerika, Dwight D. Eisenhower (1890 – 1969), den Start eines Forschungssatelliten im Rahmen des 1. Internationalen Geophysikalischen Jahres 1957/58 angekündigt. Den Auftrag dafür erhielt die amerikanische Marine. Das Projekt mit dem Namen Vanguard (deutsch: Vorreiter) sollte aus politischen Gründen nur zivile und wissenschaftliche Ziele haben. Jedoch waren die technischen Probleme größer als erwartet. Der erste Start im Dezember 1957 schlug fehl, ebenso der zweite.
Die Zeit drängte, wollte man doch beweisen, dass Amerika mit den Sowjets im Weltraum gleichziehen und sie sogar überholen kann. Der aus Deutschland stammende Raketeningenieur Wernher von Braun legte daraufhin einen Plan vor, eine vorhandene dreistufige Mittelstreckenrakete vom Typ Jupiter-C der amerikanischen Armee abzuändern und mit einer vierten Stufe zu versehen. Von Braun durfte die neue Rakete, Juno I, bauen und Explorer 1 wurde als wissenschaftliche Nutzlast hinzugefügt. Für die Planung und den Bau des Satelliten war das Jet Propulsion Laboratory in Pasadena zuständig.
Explorer 1 war ein relativ kleiner, bleistiftförmiger Satellit. Mit einem Gewicht von knapp 14 Kilogramm, einer Länge von 205 cm und 16 cm Durchmesser konnte er noch von einer einzelnen Person getragen werden.
Neben zwei Sendern für die Kommunikation mit der Erde, Thermometern zum Messen der Innen- und Außentemperatur, einem Mikrofon zum Registrieren von Meteoriteneinschlägen, enthielt der Satellit einen Geigerzähler zur Messung der kosmischen Strahlung, der von dem Astrophysiker James Van Allen entwickelt worden war.
Auf Anhieb gelang damit die erste große wissenschaftliche Entdeckung, die nicht auf dem Erdboden gemacht wurde. Die Messdaten ließen auf einen Strahlungsgürtel um die Erde schließen. Die Missionen von Explorer 3 zeigte, dass unser Planet tatsächlich von zwei Strahlungsgürteln umgeben ist, die wegen der darin herrschenden Strahlung gefährlich für die bemannte Raumfahrt sind. Später wurden sie nach dem Erbauer des Detektors Van-Allen-Gürtel benannt.
Es ist schon bemerkenswert, wie Van Allen und sein Team dem Strahlungsgürtel auf die Spur kamen. Während die Rakete immer höher stieg, registrierte der Geigerzähler wie erwartet immer mehr Teilchen. Doch periodisch fiel die gemessene Rate auf null herab. Anstatt aber anzunehmen, dass der Satellit durch Regionen flog, die frei von der kosmischen Strahlung sind, erkannten die Forscher, dass das Instrument versagte, weil es durch die Menge der Teilchen überfordert wurde.
Rund vier Monate, bis zum 23. Mai 1958, sendete Explorer 1 Daten, bevor seine Batterien zu schwach wurden. Am 31. März 1970 verglühte der Satellit in der Erdatmosphäre.
Trotz einiger Fehlschläge war und ist das Explorer-Programm immer noch sehr erfolgreich. Explorer 1 bis 5 starteten innerhalb von sechs Monaten, wobei aber Explorer 2 und 5 ihre Umlaufbahn nicht erreichten.
Explorer 10, inzwischen wurde das Programm von der 1958 gegründeten NASA betrieben, entdeckte, dass die Erde auf ihrer Nachtseite einen magnetischen Schweif besitzt. Bis dahin nahm man an, dass das irdische Magnetfeld mehr oder minder kugelförmig sei.
Explorer 11 erforschte Gammablitze im Weltall und legte damit den Grundstein für die Erforschung physikalische Phänomene, bei denen extreme Energien im Spiel sind.
Einige Jahre später gestartete Explorer bekamen eigene Namen, wie Swift Gamma Ray Explorer (Swift) und Cosmic Background Explorer (COBE).
Inzwischen wurden 92 Satelliten dieser Reihe erfolgreich gestartet und weitere sind in Planung.
Neben dem Explorer-Programm erforschen seit 60 Jahren andere Satelliten die Erde, das Sonnensystem und den Weltraum. Darunter sind zwei Veteranen, Voyager 1 und 2, die seit 40 Jahren unterwegs sind. Voyager 1 ist die erste von Menschen gebaute Sonde, der den interstellaren Raum, den Bereich zwischen den Sternen, erreicht hat. Sie ist inzwischen mehr als 21 Milliarden Kilometer entfernt. Aus dieser Entfernung benötigen ihre Signale mehr als 19,5 Stunden bis zur Erde.
Satelliten haben unsere Kenntnisse über den Heimatplaneten, das Sonnensystem und die Phänomene im All seit dem Start von Explorer 1 in einem Maße erweitert, das sich damals vor sechs Jahrzehnten kaum jemand vorstellen konnte, und neue Entdeckungen sind zu erwarten.
Ach ja, ich finde die Erforschung des Weltraums und Raumfahrt immer noch ungemein spannend.
]]>Heute wissen wir, um aus unedlen Metallen wie Quecksilber Gold zu machen, brauchen wir die Physik, genauer die Kernphysik, denn für diese Transmutation müssen Eingriffe an den Atomkernen vorgenommen werden. Inzwischen sind wir tatsächlich in der Lage, Gold herzustellen, aber der damit verbundene Aufwand und die Kosten sind viel zu hoch, als dass es sich lohnen würde.
Um das Geheimnis der Goldherstellung zu lüften, müssen wir einen Blick tief in die Atome werfen. Ein Atomkern besteht aus Protonen mit einer positiven elektrischen Ladung und elektrisch neutralen Neutronen. Die verschiedenen chemischen Elemente unterscheiden sich nur durch die Anzahl der im Kern vorhandenen Protonen. Für jedes Proton besitzt ein Atom ein negativ geladenes Elektron. Diese schirmen die positive Kernladung ab, sodass ein Atom nach außen elektrisch neutral erscheint.
Um beim Traum der Alchemisten zu bleiben: Damit aus Blei Gold wird, müssen einem Bleiatom drei Protonen entfernt werden, denn in einem Bleikern befinden sich 82 Protonen, in einem Goldatom aber nur 79. Das ist aber gar nicht so einfach. Starke Kräfte in den Atomkernen wollen dies verhindern. Für die Umwandlung von Blei in Gold können dessen Atomkerne in Beschleunigern mit geeigneten subatomaren Teilchen beschossen werden. Nun ist aber ein Atomkern sehr, sehr klein und die meisten Projektile fliegen an einem Atomkern einfach vorbei. Nur wenige treffen ihn und reagieren mit seinen Bestandteilen. Das Ergebnis ist meist ein instabiler und radioaktiver Kern, der schließlich über mehrere Stufen in einen stabilen zerfällt. Je nach Prozesskette entstehen dabei verschieden Elemente, aber wegen des geringen Wirkungsgrades sind die Mengen in der Regel sehr gering.
Aber in der Natur kommen 92 verschiedene Elemente vor. Manche wie Eisen sind sogar recht häufig und werden von uns genutzt. Andere, wie Gold, sind dagegen seltener und deshalb wertvoll und teuer.
Wie hat die Natur das gemacht? War das ein einmaliger Vorgang, als das Universum noch sehr jung war oder geschieht das noch immer? Wer oder was sind die Alchemisten, die das Kunststück der Elemententstehung fertigbringen?
Seit etwa 150 Jahren sind Astronomen in der Lage, festzustellen, aus welchen Elementen Sterne bestehen, indem sie ihr Licht in seine Farben zerlegen. In diesen Spektren machen sich die einzelnen Elemente durch feine dunkle Absorptionslinien bemerkbar. Jede dieser Linien steht für genau ein bestimmtes Element. Aus den Stärken dieser Linien können die Forscher berechnen, wie viel eines Stoffes in einem Stern vorhanden ist. Es zeigte sich, dass in den meisten Sternen die Mengenverhältnisse der unterschiedlichen Elemente gleich sind.
Aber es gibt Ausnahmen. Im Winter funkelt der hellste Stern am Nachthimmel, Sirius im Sternbild Großer Hund. Sirius befindet sich aber nicht alleine im Weltall. Ein kleiner, lichtschwacher Stern, Sirius B, umkreist ihn, der überhaupt nicht in das bekannte Schema der Sterne passte. Sie hatten herausgefunden, dass seine Masse etwa der unserer Sonne entspricht. Dann müsste er aber wesentlich heller leuchten. Da dies nicht so ist, bleibt als einzige Erklärung, dass er ziemlich klein sein muss. Die Analyse seines Lichts ergab auch, das er kaum Wasserstoff und Helium enthielt. Vielmehr besteht er aus einem Gemisch von Kohlenstoff und Sauerstoff.
Nach und nach wurden immer mehr dieser Weißen Zwerge entdeckt. Ein weiterer Hinweis auf ihren Ursprung ergab sich, als Astronomen feststellen, dass sich viele Weiße Zwerge im Zentrum eines sie umgebenden sogenannten Planetarischen Nebels liegen. Offensichtlich entstehen sie, wenn ein Stern einen Teil seiner äußeren Hülle verliert und dabei die inneren Bereiche freilegt. Die Beobachtungen zeigen, dass der Nebel immer noch hauptsächlich aus Wasserstoff und Helium besteht, aber der Reststern nicht mehr.
Damit hatten die Astronomen endlich eine heiße Spur gefunden. Offensichtlich sind es die Sterne, die aus einfachen, leichten Elementen die schweren herstellen.
Wir wissen heute, dass Sterne nicht ewig leben. Sie werden geboren und beginnen zu leuchten und irgendwann vergehen sie auch wieder. Auch unsere Sonne ist ein Stern. Da er uns sehr nahe steht, können wir ihn auch genauer untersuchen. Die Sonne besteht hauptsächlich aus Wasserstoff und Helium. Die schwereren Elemente kommen dagegen deutlich geringer vor. Gleichen oder ähnliche Verhältnisse findet man bei fast allen anderen Sternen ebenfalls.
Offensichtlich sind Sterne in der Lage, ihren anfänglichen Wasserstoff und das Helium in andere Elemente umzuwandeln. Somit haben wir die Alchemisten des Universums wohl gefunden. Aber jetzt müssen wir die nächste Frage noch klären: Wie machen die das?
Dieses Rätsel konnten Wissenschaftler in den 1930er Jahren lüften, als man gelernt hatte, wieso Sterne so lange leuchten können. Keine bekannte chemische Reaktion ist in der Lage, die Sonne seit viereinhalb Milliarden Jahren am Leuchten zu halten. Längst wäre der gesamte Brennstoffvorrat verbraucht.
Sterne und auch unsere Sonne sind keine festen Körper. Auf ihrer Oberfläche herrschen Temperaturen von mehreren tausend bis 100.00 Grad. Jedes Stück fester Materie verdampft unter diesen Bedingungen. Tatsächlich sind Sterne riesige Kugeln aus glühend heißem Plasma. Plasma ist ein Zustand der Materie, der auf der Erde natürlich nur kurzfristig bei Blitzen oder Sternschnuppen und Meteoriten auftritt. In einem Plasma haben die Atome einen Teil oder alle ihre Elektronen verloren und die Materie ist daher elektrisch leitend.
Im Zentrum eines Sterns herrschen Temperaturen von mehreren Millionen Grad. In der Sonne liegt die Zentraltemperatur bei 15,6 Millionen Grad und die Materie steht unter hohem Druck. Unter diesen Bedingungen reagieren die Kerne des Wasserstoffs miteinander und verschmelzen zu Helium. Das ist derselbe Vorgang wie bei einer Wasserstoffbombe, nur kann ein Stern nicht explodieren, weil das Gewicht der über dem Kern liegenden Masse das verhindert.
Verschmelzen nun leichtere Atome zu schwereren, wird Energie frei, weil die Masse der schwereren Atomkerne kleiner ist als die Summe der Ursprungskerne. Das hatte Albert Einstein mit seiner berühmten Formel E = mc2 vorhergesagt. Solange in einem Stern das atomare Feuer brennt, kann er durch die dadurch entwickelte Hitze dem Druck seiner äußeren Schichten Widerstand leisten und ist stabil.
Aber irgendwann hat ein Stern seinen Brennstoffvorrat verbraucht und kommt in Schwierigkeiten, weil seine Energieerzeugung nachlässt. Dann drückt das Gewicht seiner äußeren Schichten den Kern weiter zusammen und heizt ihn weiter auf, bis er die zuvor erzeugte atomare Asche, das Helium, zu Kohlenstoff weiter verbrennt. In der Schicht darüber fusioniert weiterhin Wasserstoff zu Helium. Auf diese Weise entstehen im Laufe eines Sternlebens in ihrem Inneren die verschiedene chemischen Elemente. Wie weit der Prozess geht, hängt von der Masse des Sterns ab. Die Sonne wird noch Kohlenstoff und Sauerstoff herstellen.
Schwerere Elemente können aber nur in massereicheren, größeren Sternen entstehen. In ihnen bildet sich schließlich ein etwa 4000 – 5000 Kilometer durchmessender Kern, der fast nur aus Eisen und Nickel besteht und in dem eine Temperatur von etwa vier Milliarden Grad herrscht. Um sie herum liegen aber immer noch Schichten, in denen die vorherigen Fusionsprozesse weiterlaufen. Doch jetzt ist dem Stern nun endgültig der Brennstoff ausgegangen. Die Fusion von Eisen und Nickel zu schwereren Kernen liefert keine Energie. Somit gewinnt das Gewicht der über dem Kerngebiet liegenden Materie die Oberhand.
Bis zu diesem Punkt hat der Sterne eine Entwicklung zurückgelegt, die viele Millionen Jahre gedauert hat. Was nun folgt, geschieht nun in Zeitskalen die sich in Millisekunden, tausendstel Sekunden, bemessen! Der Eisen-Nickel-Kern bricht innerhalb kürzester Zeit zusammen. Die Folge: Dichte und Temperatur steigen gewaltig an. Die Strahlung im Kern wird so hart und intensiv, dass sie die Atomkerne in ihre Bestandteile zerlegt. Dadurch sinkt der Druck noch weiter und der Kollaps beschleunigt sich. Als Folge vereinigen sich positiv geladene Protonen und negative Elektronen zu neutralen Neutronen. Weil nun die elektrische Abstoßung gleicher Ladungen wegfällt, stürzt der Kern noch schneller in sich zusammen. Erst wenn seine Dichte etwa doppelt so hoch wie die in Atomkernen wird, kommt der Kollaps nach etwa einer viertel Sekunde nach dem Beginn des Zusammenbruchs zum Stehen. Eine Schockfront breitet sich nun in die immer noch auf den harten Kern einstürzende Sternmaterie aus und versucht sie wieder nach außen zu treiben. Vermutlich führen dabei starke Instabilitäten und extrem starke Magnetfelder schließlich dazu, das aus dem Kollaps eine Explosion wird, bei der der Stern den größten Teil seiner Hülle in das Weltall schleudert.
Wissenschaftler nehmen an, dass es zwei Arten von Supernovaexplosionen gibt. In der einen kommt auch die Schockwelle zum Stehen, weil ihre Energie nicht ausreicht, sich gegen die herabstürzende Materie durchzusetzen. Allerdings ist der im Zentrum entstandene Neutronenstern eine starke Quelle energiereicher Neutrinos. Neutrinos reagieren aber unter normalen Bedingungen, wie sie auf der Erde herrschen, kaum mit normaler Materie. Doch bei einer Supernovaexplosion sorgt ihre hohe Energie und ihre schiere Anzahl dafür, dass sie häufig mit der Sternmaterie reagieren. Dadurch heizen sie die Schockfront wieder auf und sorgen gleichzeitig dafür, dass in ihr viele Kernreaktionen ablaufen. Wenn diese verzögerte Schockfront schließlich nach außen bricht, schleudert sie die neu entstandenen Elemente in den Weltraum. Modellrechnungen zeigen jedoch, dass dabei hauptsächlich leichtere Elemente entstehen. Vergleicht man die Ergebnisse mit den Elementhäufigkeiten in der Sonne, stimmen sie bis zum Zinn recht gut überein. Die schweren Elemente müssen aber durch einen anderen Prozess erzeugt werden.
Dazu benötigt der Stern ein sehr starkes Magnetfeld. In weniger als einer Sekunde hat sich im Zentrum ein Neutronenstern gebildet, um den herum ein extrem heißes Gemisch aus zerbrochenen Atomkernen, Neutronen, Elektronen und Neutrinos durcheinander wirbelt. Der Neutronenstern rotiert dabei sehr schnell. Ist sein Magnetfeld ausreichend stark genug, wird es dabei immer stärker aufgewickelt, bis sich schließlich zwei magnetische Schläuche entlang der Drehachse bilden, in denen die Materie des Sterns mit sehr hoher Geschwindigkeit in Form zweier gegenüberliegender Jets sich ihren Weg durch die Hülle des sterbenden Sterns bahnt und aus dem Sterninneren herausschießt. Wegen des hohen Gehalts an elektrisch neutralen Neutronen kommt es innerhalb der Jets zu zahlreichen Kernreaktionen. Selbst mit den heute zur Verfügung stehenden Hochleistungsrechnern sind die theoretischen Untersuchungen dieser Vorgänge immer noch sehr aufwendig und schwierig. Vieles deutet aber darauf hin, dass auch hierbei nicht genügend schwere Elemente wie Gold und andere entstehen.
Wenn aber Supernovaexplosionen nicht in der Lage sind, die beobachteten Häufigkeiten sehr schwerer Elemente zu erzeugen, was gibt es noch? Sterne mit noch mehr Masse bieten wohl auch keine Lösung des Rätsels, weil sie als Schwarzes Loch und nicht als Neutronenstern enden. Aus einem Schwarzen Loch kann nichts entkommt, nicht einmal das Licht.
Schon seit einiger Zeit vermuten einige Wissenschaftler, dass zur Erzeugung der schweren Elemente wie Gold und anderen Neutronensterne benötigt werden. Wenn zwei Neutronensterne verschmelzen, sollte es zu einer heftigen Reaktion kommen, bei der diese Elemente entstehen. Allerdings sind diese Ereignisse noch viel seltener als Supernovaexplosionen. Um die beobachteten Elementhäufigkeiten zu erklären, muss deshalb pro Neutronensternverschmelzung mehr umgewandelte Materie ausgestoßen werden als bei einer Supernovaexplosion.
Damit aber zwei dieser kompakten, ultradichten Sterne zusammenkommen, müssen sie sich erst einmal annähern. Das funktioniert nur in Doppelsternsystemen, in denen sich zwei Sterne auf engen Bahnen umkreisen. Beide Partner explodieren irgendwann als eine Supernova und hinterlassen jeweils einen Neutronenstern. Sind sie nahe genug beieinander, verringert sich langsam ihr Abstand, weil sie Gravitationswellen abstrahlen. Tatsächlich entdeckten Astronomen 1974 so ein Sternsystem, den Doppelpulsar PSR 1913+16. Das war der erste, wenn auch indirekte Nachweis von Gravitationswellen, für den die beiden Astronomen Russell Hulse und Joseph Taylor 1993 den Nobelpreis für Physik bekamen.
Aktuelle theoretische Berechnungen gehen von folgender Vorstellung aus: nachdem sich die beiden Sterne berührt haben, bilden sich nach wenigen tausendstel Sekunden drei Bereiche aus: im Zentrum rotiert mit hoher Drehzahl eine kugelförmige Masse, welche die zweieinhalb bis dreifache Masse der Sonne enthält. Unter Umständen bildet sich daraus ein Schwarzes Loch, falls die Masse zu groß ist. Um dieses zentrale Objekt entsteht eine dicke Scheibe mit einer Masse von einigen hundertstel der Sonne. Das Ganze ist in eine Region geringer Dichte eingebettet. In der Scheibe entstehen zwei Spiralarme. In deren Spitzen werden aus der vorhandenen Materie die schweren Elemente aufgebaut. Nach kurzer Zeit dringt die Materie nach außen.
In anderen Modellen entweichen die schweren Elemente durch die Wirkung des Magnetfelds entlang der Rotationsachse des Systems.
Jede theoretische Berechnung steht und fällt aber durch den Vergleich mit der Beobachtung. Die Modellrechnungen liefern inzwischen Ergebnisse, die die beobachteten Häufigkeiten der chemischen Elemente recht gut wiedergeben. Aber um die tatsächlichen Vorgänge besser zu verstehen und die Modellannahmen zu verbessern, müssen Verschmelzungen von Neutronensternen im Detail beobachtet werden. Aber das ist nicht so einfach, denn dazu müssen die Wissenschaftler ihre Teleskope zur rechten Zeit auf die richtige Stelle am Himmel richten. Doch wie kann man geeignete Kandidaten dafür finden? Eigentlich gar nicht. Neutronensterne sind sehr klein und strahlen wenig Licht ab, können also bestenfalls nur in unserer engsten kosmischen Nachbarschaft gefunden werden. Allerdings gibt es hier keine geeigneten Objekte. Also, was tun?
Die Lösung des Problems liegt in einer Beobachtungstechnik, die erst seit wenigen Jahren zur Verfügung steht. Das Zauberwort lautet Gravitationswellendetektor. Gegenwärtig gibt es drei dieser Anlagen. Zwei, LIGO, befinden, sich in den Vereinigten Staaten von Amerika und ein weiterer in Italien, VIRGO. LIGO konnte erstmals am 24. September 2015 das Verschmelzen zweier Schwarzer Löcher beobachten. Aber auch verschmelzende Neutronensterne sollten ein messbares Signal liefern.
Tatsächlich wurde am 17. August 2017 ein solches Ereignis beobachtet. Zuerst registrierte der im Gammastrahlenbereich beobachtende Satellit FERMI um 14:41:06 MESZ einen kurzen Strahlungsblitz. 14 Sekunden später ging die Meldung darüber an die internationale Forschergemeinde hinaus. Forscher am LIGO-Observatorium untersuchten daraufhin ihre Daten und fanden ein 100 Sekunden andauerndes Gravitationswellensignal, dessen Maximum 1,7 Sekunden vor dem Gammablitz registriert wurde. Auch darüber wurden kurze Zeit später die Astronomen informiert. Die Beobachtungen von FERMI und LIGO wiesen darauf hin, dass die Quelle für das Ereignis in der 130 Millionen Lichtjahre entfernten Galaxie NGC 4993 lag. Die großen Sternwarten in Chile mussten aber bis zum Abend warten, bis sie das Gebiet untersuchen konnten. Tatsächlich fanden sie weniger als 11 Stunden nach den ersten Signalen ein helles Objekt in dieser Galaxie, das in den folgenden 10 Tagen langsam schwächer wurde. 9 Tage nach dem Ereignis erschien an der Position der Neutronensternverschmelzung eine Röntgenquelle und nach 16 Tage eine Radioquelle.
Durch die rasche Alarmierung konnte das Ereignis erstmals über einen sehr großen Bereich der elektromagnetischen Strahlung systematisch untersucht werden. Insgesamt waren bis Anfang Oktober Wissenschaftler aus mehr als 930 Observatorien und wissenschaftlichen Instituten daran beteiligt. Alle Beobachtungen, einschließlich der Messungen der Gravitationswellendetektoren, lieferten wertvolle Erkenntnisse, die helfen, bessere Modelle verschmelzender Neutronensterne zu untersuchen.
Mit der Beobachtung der Verschmelzung zweier Neutronensterne in der fernen Galaxie NGC 4993 in vielen verschiedenen Bereichen des elektromagnetischen Spektrums und den Daten der Gravitationswellendetektoren wurde ein neues und wichtiges Fenster der astronomischen Forschung aufgestoßen, das weitreichende neue Erkenntnisse in der Zukunft ermöglichen wird.
]]>