Bekanntlich bleiben Erinnerungen besonders gut haften, wenn sie mit einem traumatischen Ereignis verbunden sind. In meinem Fall fing es an mit Bauchweh, die kurz nach dem Hähnchen mit Pommes auftraten. Ich muss so geklagt haben, dass meine Mutter den Arzt rief, zu dem wir damals ein so gutes Verhältnis hatten, dass er zu uns nach Hause kam. Nach kurzer Anamese hieß es: Blinddarmentzündung, sofort ins Krankenhaus. Am nächsten Tag lag ich frisch operiert mit drei anderen Jungs in einem Zimmer auf Kinderstation. Es gab einen kleinen Fernseher oben an der Wand, zwei Fernsehsender, und ein Programm: Apollo 15 auf dem Mond!
Apollo 15 war die bis dato spannendste Mondlandung. Der spektakulärste Landeplatz in Reichweite der bis zu 1500 m breiten und 180-270 m tiefen Hadley Rille, in unmittelbarer Nähe des 4600 m hohen Mons Hadley (oder zu englisch Mount Hadley), der zu den Mond-Apenninen gehört, die das Mare Imbrium südöstlich flankieren. Der Anflug über den Berg erforderte einen steileren Abstieg der Mondfähre von 23° gegenüber den zuvor geflogenen 15°. Mit 77 kg die bis dahin größte Ausbeute an Gestein, darunter der “Genesis Rock”, der mit 4,1±0,1 Milliarden Jahren älteste bis dahin gefundene Fels (von dem man hoffte, er stamme von der Urkruste des Mondes). Drei Ausstiege von insgesamt mehr als 18 Stunden Dauer. Live Farb-TV von den Exkursionen, die sich bis zu 5 km weit von der Mondlandefähre entfernten und insgesamt fast 28 km zurückgelegte Strecke dank des Stars dieser Mission: des Mondautos “Lunar Roving Vehicle”. Das erste in-situ von Menschen gesteuerte Fahrzeug auf einem anderen Himmelskörper (der von der Erde aus ferngesteuerte sowjetische Mond-Rover Lunochod 1 war ein halbes Jahr zuvor am 17. November 1970 auf dem Mond gelandet; er hätte nach ursprünglichen Plänen ebenfalls vor Ort von einem Kosmonauten gesteuert werden sollen, aber dann kam alles anders).
Die Besatzung der Apollo-15-Mission bestand aus dem Kommandanten David R. Scott, 39 Jahre alt, ausgebildeter Air-Force-Testpilot und Astronaut der 3. Rekrutierungsgruppe 1963. Auf der Ewards Air Force Base war er mit einem mit Raketenantrieb und Steuerdüsen ausgestatteten NF-104a Starfighter bis in 30 km Höhe geflogen. Sein erster Raumflug war zusammen mit Neil Armstrong im März 1966 die Gemini 8, bei dem die Kapsel der beiden aufgrund eines Fehlers einer Steuerdüse in schnelle Rotation geraten war, die beide Astronauten an den Rand der Bewusstlosigkeit und des sicheren Todes gebracht hatte. Armstrong verhinderte das Schlimmste, brachte die Kapsel mit dem Wiedereintrittssystem wieder unter Kontrolle und brach den Flug ab. Scott flog danach als Pilot des Kommandomoduls auf Apollo 9, der Mission, die dem Test der Mondlandefähre im Erdorbit gewidmet war. Er gehörte zur Ersatz-Crew der Apollo-1-Besatzung, die beim Feuer 1967 verunglückt war, und war als Ersatz-Kommandant der Apollo 12 zugeteilt. Da die Ersatzcrews das Training der Primärcrew teilten, war er bestens für die Mission ausgebildet. Nun stand ihm als Veteranen die Führung der Primärcrew einer Mondlandung zu.
Mit ihm auf dem Mond landen sollte Mondfährenpilot James B. Irwin, 41 Jahre alt, ebenfalls ehemaliger Testpilot der Air Force in Edwards, wo er die YF-12, den Prototypen des legendären Mach-3-Aufklärers SR-71 Blackbird geflogen war. Bei einem von seinem Flugschüler verursachten Absturz, den beide überlebten, erlitt er eine Amnesie und verlor beinahe sein mehrfach gebrochenes Bein. Dennoch konnte er sich 1966 erfolgreich für die 5. Rekrutierungsgruppe der NASA bewerben. Er war als Ersatz-Mondfährenpilot der Apollo-12-Mission zugeteilt gewesen. Apollo 15 sollte sein erster und einziger Raumflug werden.
Dritter im Bunde war Kommandomodul-Pilot Alfred “Al” M. Worden, 39 Jahre alt und seinerseits Ex-Testpilot der Air Force und Fluglehrer in Edwards. Schon 1963 hatte er sich für die 3. Astronautengruppe beworben, kam aber wegen einer damals bevorstehenden Versetzung in die Testpilotenschule in Farnborough, England, nicht zu Zuge. 1965 versuchte er es erfolgreich wieder und kam 1966 mit Irwin (wie auch Swigert, Roosa, Mattingly, Duke, Haise und andere spätere Mondflieger) mit der 5. Gruppe zur NASA. Er gehörte zur Ersatzcrew von Apollo 12 und zur Unterstützungscrew von Apollo 9. Letztere war mit der Erstellung des Flugplans, der Missionspläne, Checklisten und Notfallmaßnahmen betraut. Auch für Worden würde Apollo 15 der erste und letzte Raumflug sein.
Somit war dies eine reine Air Force Crew, ähnlich wie Apollo 12 eine reine NAVY-Crew gewesen war. Prangte auf dem Emblem der 12er-Mission ein Segelschiff, so waren es auf dem von Scott bei einem Modedesigner in Auftrag gegebenen Logo der 15er-Mission drei stilisierte Vögel in den Nationalfarben über den Bergen und der Hadley-Rille in der Landezone. Das Kommando-Modul erhielt gleichwohl den Namen eines Schiffs, der HMS Endeavour des Erkunders James Cook. Tatsächlich nahm man auch ein kleines Stückchen Holz des historischen Vorbilds mit auf den Flug. Demgegenüber erhielt die Mondlandefähre das eher eines Fliegers würdige Funkrufzeichen Falcon (also Falke).
Wie schon bei Apollo 13 konnte Jack Schmitt, der einzige Astronaut mit einem Doktortitel in Geologie, der zur Ersatzcrew der Apollo 15 gehörte, die Astronauten für Geologie begeistern, indem er ihnen Geologie-Kurse beim mitreißenden Professor Lee Silver vermittelte, bei dem er selbst studiert hatte. Während des 20-monatigen Trainings führten sie monatliche geologische Exkursionen nach Arizona, Hawaii und New Mexiko durch, wo sie zunehmend die Aktivitäten auf dem Mond simulierten: mit Rückentornister, vor der Brust montierter Kamera und Walkie-Talkie zur Kommunikation mit einem Geologen, dem sie ihre Fundstücke beschreiben mussten.
Worden überflog wie schon Roosa bei Apollo 14 die Trainingsgebiete im Jet und lernte sie von oben zu charakterisieren, wie er es später vom Kommandomodul aus tun würde, während seine Kollegen auf dem Mond weilten. Selbst der Leiter des Flugdirektorenteams Gerry Griffin nahm am Training teil – und überzeugte nach seinem ersten Geologie-Ausflug die anderen Flight Directors, es ihm gleich zu tun, um ein besseres Verständnis für die Jobs ihrer Jungs zu entwickeln. Scott bezeichnete sich am Ende als seriösen Amateur-Geologen. Er war willens, ein Maximum an Wissenschaft aus der Mission herauszuholen. Scott war auch beteiligt an der Auswahl der Landestelle, der er vor die Wahl gestellt den Vorzug zum Krater Marius gab. “Hadley hat mehr Vielfalt. Es gibt diese schwer greifbare Qualität [einer Landschaft], die den Entdeckergeist weckt, und ich fühlte, dass Hadley dieses gewisse Etwas hatte. Außerdem war die Gegend wunderschön, und wenn Dinge [auf den ersten Blick] gut aussehen, dann sind sie es meistens auch.” Die Hadley-Rille war vermutlich durch fließende Lava entstanden und in der Nähe des Gebirges war die Gegend einfach interessanter.
Apollo 15 war die erste von drei “J”-Missionen, der letzten Serie von Mondlandungen mit verlängerter Dauer und einem Exkursionsfahrzeug. Die ersten ferngesteuerten Testflüge der Saturn V begannen mit “A”, die weiteren Vorbereitungsflüge liefen unter “B”-“F”, die erste Mondlandung war eine “G”-Mission, und 12-14 waren “H”-Missionen mit Präzisionslandung und stärkerem Fokus auf wissenschaftliche Erkundung. Eigentlich hätte Apollo 15 auch eine H-Mission werden sollen, aber da die Apollo-20-Landung unter der Nixon-Regierung und zunehmendem öffentlichen Druck aufgrund der hohen Kosten gestrichen worden war, zog man die erste J-Mission vor, um den größtmöglichen Gewinn aus den verbliebenen Flügen und dem schon vorhanden Equipment zu ziehen, und übersprang die I-Mission, deren Schwerpunkt die Mondvermessung gewesen wäre.
Die verlängerte Missionsdauer machte zusätzliche Tanks für Sauerstoff, Wasser und mehr Treibstoff erforderlich. Auch der Mondrover, obwohl mit 209 kg eher ein Leichtgewicht, trug zum Gewicht der Mondfähre bei, die mit 16 Tonnen 1800 kg schwerer als ihre Vorgänger war. Daher musste auch die Saturn V etwas abspecken (z.B. sparte man 4 von 8 Retro-Raketen in der ersten Stufe ein, mit denen die erste Stufe nach der Stufentrennung vom Rest der Rakete weggestoßen wurde), man sparte Treibstoffreserven und modifizierte den Kurs und die Höhe des initialen Parkorbits um die Erde auf nur 166 km. Auch die Raumanzüge wurden modifiziert, z.B. mit einem schräg über den Körper verlaufenden Reißverschluss, der das An- und Ablegen in den beengten Verhältnissen des Mondmoduls erleichtern sollte (etwa um die bei einem dreitägigen Aufenthalt nicht vermeidbaren Toilettengänge zu ermöglichen; die bei Apollo 11 verwendeten Windeln waren hier keine Option mehr), sowie einem beweglicheren Hüftteil, welches das Einnehmen der Sitzposition auf dem Mondrover erleichtern sollte.
Saturn V, Seriennummer SA-510, hob pünktlich zu Beginn ihres Startfensters am 26. Juli 1971 um 15:34 MESZ ab (bzw. 14:34 in der damals gültigen deutschen MEZ), um zum richtigen Sonnenstand an der Hadley-Rille einzutreffen. Im Laufe der dreitägigen Exkursionen würde sich bei steigender Sonnenhöhe der Boden von 10°C auf 70°C aufheizen, um nach weiteren drei Tagen bei fast 120°C zu kulminieren. Daher musste der Start am 26. oder spätestens 27. Juli stattfinden, um nicht auf die nächste Mondphase verschoben zu werden. Diesmal gab es keine besonderen Vorkommnisse beim Start, keine Blitzeinschläge, keine übermäßigen Pogo-Oszillationen, keine Verzögerung durch widriges Wetter. Lediglich sorgte ein unplanmäßig langsames Absinken des Schubs der ersten Stufe, das 4 Sekunden dauerte, sowie die nur 4 verbliebenen Retroraketen bei der Trennung der Stufen dafür, dass die 1. Stufe nicht ausreichend Abstand von der zweiten hatte, als diese ihre Triebwerke zündete, welche das Telemetrie-Paket der ersten Stufe toasteten. Dies spielte jedoch für die eigentliche Mission keine Rolle. Das Andocken des Kommandomoduls an die Mondlandefähre machte anders als bei Apollo 14 diesmal ebenfalls keine Probleme. Lediglich meldete eine Lampe, die das Feuern des Haupttriebwerks des Apollo-Raumschiffs signalisierte, dass das abgestellte Triebwerk angeblich liefe – wie sich erst nach der Rückkehr der Kapsel herausstellte, war ein Kurzschluss durch einen winzigen Drahtsplitter in einem Schalter die Ursache. Ansonsten funktionierte das Triebwerk einwandfrei. Die Astronauten schalteten vorsichtshalber die Sicherung des Steuermoduls ab, wenn Sie es nicht benötigten.
Bei der Inspektion der Mondlandefähre fanden Scott und Irwin dann allerdings, dass das Deckglas einer Höhen- und Sinkratenanzeige zerbrochen war und Glassplitter in der Mondlandefähre umher schwebten. Die Anzeige hatte damit zugleich ihre Heliumgasfüllung verloren. Dies würde laut Bodenkontrolle die Funktion nicht beeinträchtigen, aber um zu vermeiden, dass sie Glassplitter einatmeten, mussten Scott und Irwin die Splitter mit einem kleinen Staubsauger aus der Luft absaugen und die verbliebenen Scherben in der Anzeige mit Klebeband heraus ziehen.
Am 29. Juli um 21:05 MEZ schoss das Haupttriebwerk der Endeavour mit einem 6:38-minütigen Bremsmanöver auf der Rückseite des Mondes den Apollo-Stack aus Kommando-, Service und Mondmodul in die Mondumlaufbahn ein. Anhand des verzögerten Erscheinens des Apollo-Raumschiffs aus dem Funkschatten des Mondes konnte die Bodenkontrolle in Houston schon vor der Wiederaufnahme des Funkkontakts erkennen, dass das Manöver gelungen war. Statt über das Bremsmanöver zu berichten, schwelgte Scott in Begeisterung über die Mondlandschaft, was den auf ein Fernsehinterview wartenden Apollo-14-Kommandanten Shepard dazu verleitete, zu grummeln “Zur Hölle mit diesem Mist, gib uns endlich die Details des Bremsmanövers…!”
Zwei Mondumkreisungen und 4 Stunden später wurde das Haupttriebwerk nochmals für 25 Sekunden gestartet, um den mondnächsten Punkt der Bahn zum Aussetzen der Mondlandefähre von 106,9 km auf 17,8 km abzusenken (mit einem mondfernsten Punkt von 108,3 km), so dass die schwere Mondfähre weniger Treibstoff für den Abstieg benötigen würde. Durch eine ungleiche Massenverteilung im Inneren des Mondes wurde die Bahn elliptischer während die Astronauten schliefen, und der mondnächste Punkt fiel auf nur 14,1 km, was Worden am nächsten Morgen korrigieren und den mondnächsten Punkt der Bahn mit den Steuerdüsen der Endeavour wieder auf 16,8 km anheben musste.
Das Abdocken war für den 30. Juli um 18:48 MEZ geplant, aber beim Auslösebefehl tat sich zunächst nichts. Erst nachdem Worden den Sitz des Steckers einer Versorgungsleitung im Tunnel zwischen Kommando- und Mondmodul überprüft und erneuert hatte, gelang das Abdocken mit 25 Minuten Verspätung. Um 19:13 dockte der Falke ab und Worden ließ die Endeavour wieder auf über 100 km aufsteigen, um von nun an den Mond mit Kameras, Spektrometern und einer Magnetfeldsonde des in einer Seitenbucht des Apollo-Raumschiffs eingebauten Science Instrumentation Module (SIM) zu beobachten. Scott und Irwin stiegen derweil mit der Falcon ab, zunächst rücklings ohne Bodensicht. Houston teilte ihnen mit, dass sie (wohl aufgrund der durch das verpätete Abdocken veränderten Bahn) etwa 900 m zu weit südlich seien und der Computer den Kurs korrigieren würde. Als sich die Mondfähre planmäßig aufrichtete, sahen die beiden endlich den Boden, waren jedoch zunächst desorientiert, weil sie anders als in den Landesimulationen die Hadley-Rille nicht vor sich sehen konnten. Statt dessen sahen sie rechts von sich den 3400 m hohen Mount Hadley Delta, über dem sie sich zu dieser Zeit eigentlich gewähnt hatten, der jedoch bereits ihre Höhe überragte – in den Simulationen mit einem Modell der Oberfläche, über das eine Kamera geführt wurde, war ihnen die Seitensicht nie präsentiert worden. Scott befürchtete, sie hätten das Landegebiet schon hinter sich gelassen. Schließlich tauchte die Hadley-Rille doch noch auf und sie wussten, dass sie richtig waren. 2000 m über der Oberfläche wurde das Endanflugprogramm gestartet und Scott begann, den angezeigten Landeort manuell zu korrigieren, um die Fähre an einem sicheren Ort im Zielbereich niedergehen zu lassen. Die letzten 120 m Höhe steuerte Scott dann komplett manuell, weil er so bereits in die Steuerung eingebunden war und im Notfall schneller reagieren konnte, wie er in einem späteren Interview verriet, als wenn er der Automatik erst im Notfall die Steuerung hätte entreißen müssen.
Das Triebwerk wirbelte sehr viel Staub auf und die letzten 40 Sekunden flog er beinahe blind, nur Irwins Angaben der Radarhöhenmessung und lateralen Geschwindigkeit folgend. Als die erste der unter den Landetellern angebrachten Kontaktsonden Bodenkontakt signalisierten, schaltete er sofort das Triebwerk ab. Die Landefähre hatte eine im Vergleich zu den früheren Geräten um 25 cm verlängerte Austrittsdüse, um mehr Schub aufzubringen, und man fürchtete, dass aufgewirbeltes Material in das Triebwerk geraten und eine Explosion verursachen könnte. Tatsächlich landete der Falke an einem stark geneigten Kraterrand, und so fiel die Fähre die letzten 1,3 Meter frei und knallte mit über 7 km/h auf den Boden, doppelt so schnell wie alle Landungen zuvor. “Bam!” rief Irwin. In seiner Autobiographie schrieb er später, dass dies die härteste Landung gewesen sei, die er je mitgemacht habe. Sie war aber noch im zulässigen Bereich von 11 km/h senkrecht und 4,3 km/h waagerecht. “Okay, Houston, der Falke steht in der Hadley-Ebene,” meldete Scott über Funk. Allerdings stand er um 10° schief und ein Bein der Fähre reichte über dem Kraterrand hinaus ins Leere. 5° mehr und man hätte sofort rückstarten müssen, da das Risiko eines Umkippens der Fähre zu groß gewesen wäre. In der Bodenkontrolle witzelte man später über den “schiefen Turm von Pisa” (zumal Scott sich später an Galileos Fallexperimenten versuchen wollte, die der italiensche Gelehrte an genau jenem Turm zu Pisa durchgeführt hatte).
Wie sie erst später feststellten, hatte die Düse durch Annäherung an den Kraterrand und daraus resultierendem Überdruck einen Knick bekommen, aber für den Aufstieg würden sie das Triebwerk der Aufstiegsstufe nutzen, so dass keine Gefahr bestand.
Nach der Landung und dem Check aller Systeme (unter anderem der Dichtigkeit der zerbrechlichen Mondlandefähre) stand nun eigentlich eine Ruhephase und mehrere Stunden Schlaf auf dem Missionsplan, da sie für den geplanten 7-Stunden-Ausflug ausgeruht sein sollten. Scott wollte sich aber unbedingt schon umsehen, um die genaue Landestelle zu verorten und besser für den ersten Ausstieg am nächsten Tag vorbereitet zu sein. In der Geologie-Ausbildung hatte er gelernt, dass man sich zunächst am besten einen Überblick über das zu erkundende Gelände von einem erhöhten Punkt verschafft, und da kam ihm gerade recht, dass die Landefähre an der Oberseite eine Luke besaß, durch die auch der Zugang aus der Kommandokapsel erfolgte. Diese bot zudem eine Auflagemöglichkeit für das erstmals mitgeführte 500-mm-Objektiv (bei den Hasselblad-Vollformat-Kameras entsprach die Vergrößerung derjenigen einer 300-mm-Linse beim normalen 24×36 mm Kleinbildformat). So überredete er die Bodenkontrolle zu einer “Stand-up EVA” – so wurden “Ausstiege” genannt, bei denen die Füße des Astronauten im Gefährt blieben und nur ein Teil des Körpers im Freien war. Standup-EVAs waren zuerst bei Gemini in der Erdumlaufbahn durchgeführt worden und bei Apollo 9 hatte Scott selbst bei einer Standup-EVA Rusty Schweickart gefilmt, wie er den neuen Apollo-Raumanzug außerhalb des Raumschiffs testete.
Nach einiger Überzeugungsarbeit, warum es sinvoll war, eine zusätzliche Kabinenfüllung an Sauerstoff der Mondlandefähre für das Unterfangen zu opfern, bekam Scott grünes Licht. Eine Stunde nach der Landung zogen die beiden Astronauten Helme und Handschuhe an, schlossen die Versorgungsleitungen der Fähre für Luft und Wasser an ihre Anzüge an und ließen die Kabinenatmosphäre ab – es gab keine Luftschleuse in der kleinen Landefähre, sie musste komplett evakuiert werden, um die Luke zu öffnen. Wenn er sich auf die Abdeckung des Aufstiegtriebwerks stellte, konnte Scott die Luke erreichen, sich hochziehen und auf die Ellenbögen abgestützt den Körper ohne Bodenkontakt fixieren. Unter 1/6 der Erdschwerkraft wog er mit Anzug (zusammen 135 kg) nur soviel wie 23 kg auf der Erde. “Junge, welch ein Anblick”, entfuhr es ihm. Er konnte zahlreiche Landmarken aus dem Training identifizieren und machte 22 Fotos für ein großes Panorama mit einer 60-mm-Linse, sowie einige Detailaufnahmen mit dem 500er-Objektiv. Er beschrieb den Geologen in Houston, was er sah, und zerstreute jeden Zweifel, dass es mit dem Mondrover Probleme geben würde, das Gelände zu durchqueren. Es war flach und es gab dort nur wenige Felsen und Geröll. Nach einer halben Stunde beendete er die Standup-EVA.
Anders als bei den Missionen zuvor durften die Astronauten erstmals für die Nachtruhe ihre Raumanzüge ablegen (und sogar die biomedizinischen Sensoren ablegen). Man hatte mehr Vertrauen in die Technik gewonnen und Scott meinte, schon den augezogenen Helm und die Handschuhe anlegen zu müssen hätte sie im Ernstfall aus Zeitmangel den Hals gekostet, da konnte man auch gleich den ganzen Anzug ausziehen und in Unterwäsche deutlich besser in der Hängematte schlafen. Der Anzug konnte zudem nach den EVAs durch die interne Belüftung innen getrocknet werden. Trotz der Neigung der Mondfähre schliefen die Astronauten nach eigenen Worten bei 1/6 Erdschwerkraft komfortabel in ihren Hängematten (ganz im Gegensatz zu den Simulationen auf der Erde).
Am nächsten Morgen wurden die Astronauten eine Stunde früher geweckt, weil ein Sauerstofftank der Abstiegsstufe Druck verloren hatte. Die Astronauten mussten zuerst die Telemetrie vom während der Ruhephase ausgewählten Datenspar-Modus auf hohe Datenrate umschalten, damit Houston erkennen konnte, wo der Sauerstoff verloren gegangen war. Es gab ein Urin-Ablasssystem, bei dem die Astronauten in einen Zylinder urinieren konnten, dessen Ablassschlauch über ein Ventil in einen Auffangbehälter draußen führte, welcher nach außen absichtlich nicht luftdicht war, um Überdruck nach außen statt in die Kabine austreten zu lassen. Obwohl innen eine Kappe auf den Zylinder geschraubt war, war wegen des Ventils, das Scott offenbar nach der letzten Benutzung versehentlich offen gelassen hatte, Sauerstoff entwichen, insgesamt 3,6 von 43 kg. Die Hälfte der 43 kg waren jedoch Reserve und so war die Missionsdauer nicht beeinträchtigt.
Nach dem Frühstück legten die beiden erneut ihre Raumanzüge und die Tornister mit den portablen Lebenserhaltungssystemen (Portable Life Support System, PLSS) für die erste “echte” EVA an. Dem Kommandanten Scott stand der Ausstieg als erstem zu. Scott versuchte sich, Armstrong nacheifernd, an Philosophie und sagte
As I stand out here in the wonders of the unknown at Hadley, I sort of realize there’s a fundamental truth to our nature: Man must explore. And this is exploration at its greatest!
Während ich hier draußen inmitten der Wunder des Unbekannten am Mount Hadley stehe, wird mir bewusst, dass es eine fundamentale Eigenschaft unserer Natur gibt: Der Mensch muss entdecken. Und das hier ist die größte Entdeckungsreise überhaupt!
Nach dem üblichen Sammeln einer Notfall-Bodenprobe und dem Aufstellen der Fernsehkamera war die erste Aufgabe das Aussetzen des Mondrovers, der zusammengeklappt zu einem 1,5 m × 1,5 m × 0,5 m Paket zusammengefaltet hinter einer Klappe in der Landefähre verstaut war. Dies gelang leidlich mit leichten Problemen aufgrund der Neigung der Mondfähre. Scott stand die Ehre zu, das Gerät in Betrieb zu nehmen und er fuhr damit eine Runde um die Landefähre, wobei er bemerkte, dass die Fronträder nicht lenkten. Das Mondauto lenkte mit allen 4 Rädern, und so war es dennoch ausreichend manövrierfähig. Mit 4 elektrischen Motoren zu je 1/4 PS konnte es bis zu 500 kg an Ausrüstung, Proben und Astronauten tragen, und selbst nur gute 200 kg aufbringen – in Summe 700 kg, die auf dem Mond nur ein Sechstel des Erdgewichts hatten. Es erreichte 10-12 km/h, was im Mondgelände recht flott war und den Astronauten auf ihren Ausflügen ein kleines Rodeo bescherte.
Der erste Ausflug führte sie direkt zur Hadley Rille, deren Verlauf sie dann zu einem “Elbow” genannten Krater folgten, der an der Außenseite einer scharfen Biegung der Rille lag, die ihm seinen Namen gegeben hatte. Es waren ungefähr 4 km Strecke, wobei sie noch nicht genau wussten, wie weit es war, da sie ihren genauen Landepunkt noch nicht kannten – den herauszufinden war eine der Aufgaben des ersten Ausflugs. Zur Navigation verwendeten sie ein Odometer (Streckenmesser) und einen Kreiselkompass – ein Magnetfeld zur Verwendung eines gewöhnlichen Magnetkompasses hat der Mond nicht -, mit deren Hilfe man nach Erreichen einer bekannten Landmarke rückschließen konnte, wo der Falcon stand. Und wenn man der Hadley-Rille folgte, war der Elbow-Krater kaum zu verfehlen. Die Astronauten machten auf dem Hinweg keinen Halt, und das hatte seinen Grund: auf dem Mond gab es keinen Pannenservice. Sollte das Fahrzeug unterwegs schlapp machen, mussten sie genug Sauerstoff haben, um zu Fuß zurück zur Mondlandefähre zu gelangen. Daher entfernten sie sich am weitesten vom Falcon, als ihre Sauerstofftanks noch fast voll waren.
Am Elbow-Krater hielten sie an und Scott richtete die S-Band-Antenne des Rovers auf die Erde aus. Am Rover war eine von der Erde ferngesteuerte Farbfernsehkamera angebracht, und so konnten die Fernsehzuschauer erstmals die Ausflüge der Astronauten live und aus der Nähe mitverfolgen – das machte die Mission so faszinierend. Insbesondere für einen 7-Jährigen auf Kinderstation.
Scott nahm Proben in verschiedenen Abständen entlang einer radialen Linie zum Krater, wobei er jeden Fund vor dem Einsammeln fotografisch und mit einer auf einem Dreibein montierten Kalibrierpalette und -maßstab (Gnomon genannt) im Bild dokumentierte. Danach sollten sie eigentlich 500 m weiter zum 3 km durchmessenden Krater St. George an der Flanke des Hadley-Delta-Berges fahren, dem eigentlichen Ziel der ersten EVA, um in dessen Umgebung nach Auswurfmaterial zu suchen. Da sie jedoch keine Ejekta bei der Annäherung sahen, planten sie um und fanden einen 1,5 m durchmessenden Felsen, von dem sie eine Probe mit dem Hammer lösten, nachdem es ihnen zuvor nicht gelungen war, ihn beiseite zu rollen, um eine Probe des geschützten Bodens unter dem Felsen zu nehmen.
Danach kehrten sie mit mehreren Zwischenstops zur Mondlandefähre zurück. Hier stand noch aus, das von den vorangegangenen Missionen wohlbekannte ALSEP-Experimentenpaket aufzustellen. Neben einem vergrößerten Retroreflektor zur Entfernungsmessung per Laserstrahl von der Erde aus war erstmals eine Wärmeflusssonde (Heat Flow Experiment, HFE) dabei, deren beide Sensoren der Astronaut mit einem Bohrer 2,5 m tief im Boden versenken sollte, und die dann die Temperaturdifferenz zwischen Untergrund und Oberfläche messen sollten. Auf diese Weise wollte man herausfinden, ob aus einem potenziell heißen Mondinneren Wärme nach außen strömt. Die ersten 40 cm fielen Scott leicht, aber dann tat sich der elektrische Bohrer zunehmend schwerer. Scott schaffte es nicht, den Bohrer tiefer als 1,6 m in den Boden zu versenken, und danach bekam er den durch das hohe Drehmoment festgezogenen Bohrantrieb nur mit Hilfe eines Schraubenschlüssels von der Bohrstange gelöst. Das zweite Loch wurde gar nur einen Meter tief. Schließlich gab Houston die Anweisung, das Bohrloch Bohrloch sein zu lassen und nach 6 ½ Stunden die erste EVA zu beenden. Irwin war zudem dehydriert, da sein Trinkbeutel nicht funktioniert hatte und er über 7 Stunden lang keine Flüssigkeit mehr aufgenommen hatte.
Ziel der zweiten EVA am folgenden 1. August war wieder der Fuß von Mount Hadley Delta, diesmal geradewegs zum Berg auf einem weiter östlich liegenden Kurs, fast 5 km weit von der Landefähre entfernt und auf 100 Höhenmeter den 10° geneigten Hang des Berges hinauf. Sehr zur Überraschung von Scott funktionierte diesmal die Frontlenkung des Mondautos wieder. Am Ziel angekommen nahmen sie mehrere Proben, meist Kompressionsgesteine (Brekzien). Beim nächsten Stopp am Berghang fand Scott dann einen auffällig weißen Stein mit hohem kristallinen Anteil. In Geologie geschult wusste er, dass es sich um einen Anorthositen mit einem hohen Anteil an Plagioklase, einem Feldspat, handelte. Aus genau solchem Gestein sollte die ursprüngliche Mondkruste bestehen, deswegen fielen Scott und Irwin in helle Begeisterung.
“Oh Mann!” “Oh Junge!” “Sieh dir das an.” “Sieh dir das Glitzern an!” “Aaah!” “Rate mal, was wir gerade gefunden haben! Ich glaube das, weswegen wir hierher gekommen sind.”
Probe Nr. 15414 hatte bald schon von der Presse ihren Spitznamen weg: der “Genesis-Fels“. Leider zeigte sich später bei Analysen auf der Erde, dass es kein ursprüngliches Krustengestein und mit 4,1 Milliarden 400 Millionen Jahre jünger als der Mond war. Trotzdem war es bis dato das älteste gefundene Mondgestein und älter als alle Gesteine der Erde.
Langsam wurde die Zeit für einen möglichen Rückmarsch knapp und die Bodenkontrolle wies die Astronauten an, schnell noch ein paar kleine Proben einzusammeln und dann den Rückmarsch anzutreten. Sie fischten mit einem Mini-Rechen zahlreiche kleine Kiesel aus dem Regolith und Irwin schlug mit dem Hammer noch einen großen Splitter von einem Fels ab, bevor sie die Rückfahrt antraten.
Bei der Landefähre angekommen sollte Scott noch einmal versuchen, das Wärmeflussexperiment im Boden zu versenken. Wieder kam er kaum einen Meter tief. Spätere Analysen ergaben, dass das Design der Bohrer-Bits fehlerhaft war.
Mit einem anderen Bohrer hatte er zunächst mehr Glück: Zur Sammlung einer Tiefenprobe, in der die chronologische Schichtung uralter Bodenschichten, geschützt vor UV- und Partikelstrahlung, dokumentiert werden sollte, konnte er den Bohrkern bis in 2,4 m Tiefe versenken. Allerdings gelang es ihm danach nicht, den Bohrkern wieder an die Oberfläche zu holen – nach 20 cm steckte er im Boden fest. So gab er zunächst auf und verschob weitere Versuche auf den nächsten Tag.
Letzter Punkt im Missionsplan war das Aufstellen der US-Fahne. Es gibt ein wunderschönes Bild (Nr. 17 der Galerie am Ende des Artikels), das bei mir an der Wand hängt, vom neben der Fahne salutierenden Irwin mit dem Rover und der Mondlandefähre im Hintergrund vor dem 4600 m hohen Mount Hadley, der auf dem Bild so aussieht, als sei er nur 20 Meter hoch, gleich hinter der Fähre. Auf dem luftlosen Mond geht jedes Gefühl für räumliche Tiefe verloren.
Nach 7 Stunden und 12 Minuten endete somit die zweite EVA.
Bei der dritten und letzten EVA am 2. August sollte nach dem ursprünglichen Plan die Fahrt zu einer “Nord-Komplex” genannten Hügelgruppe nördlich der Landestelle führen, aber die Bodenkontrolle in Houston hatte über Nacht, sehr zum Missfallen von Scott, entschieden, dieses Ziel zu streichen, um mehr Zeit zum Bergen des Bohrkerns zu haben. Scott akzeptierte jedoch die Entscheidung des wissenschaftlichen Teams, dass der Bohrkern wichtiger als der Nordkomplex war.
Mit vereinten Kräften machten sie sich daran, den Bohrkern aus dem Boden zu ziehen. Der Bohrantrieb hatte T-förmig zwei Griffe im rechten Winkel zur Bohrstange, unter die sich beide Astronauten mit den Armbeugen einhakten und den Bohrer dann gemeinsam nach oben zogen. Nach einem Stück brachten sie ihre Schultern unter die Griffe. “Zusammen: 1, 2,…” “Wann” “Bei 3! 1, 2, 3! 1, 2, 3!” Viel Erfolg hatten sie nicht. Also beschlossen sie, den Bohrer einzuschalten. Der bohrte prompt weiter in die Tiefe. “Das hat mich gleich runtergezogen”, lachte Scott, “War eine gute Idee, funktioniert aber auch nicht.” Und an Capcom Joseph P. Allen in der Bodenkontrolle gerichtet “Was passiert, Joe, ist: wenn ich den Bohrer einschalte, bohrt der Bohrer, wie alle Bohrer es tun.” Nach weiteren Versuchen mit etwas Zug zur Seite bekamen sie dann doch die erste Stange aus dem Boden, schraubten den Bohrer ab und an die nächste Stange. Scott schätzte später, dass sie mit ihren Schultern zusammen mindestens 200 kg an Zugkraft aufbrachten – und zogen so den Bohrkern nach 9 Minuten endlich aus Boden. Beide waren geschafft und schnappten nach Luft. Danach sollten sie mit Hilfe einer am Rover angebrachten Schraubzwinge die Kernprobe festklemmen und in kleinere Stücke zerbrechen, aber die Schraubzwinge war falsch herum eingebaut worden und nicht benutzbar. Scott war sauer: “Wie viele Stunden sollen wir noch mit dieser Probe verbringen, Joe?” So verpackten sie die Probe dann im Ganzen. Wie sich auf der Erde herausstellte, enthielt sie 50 verschiedene Schichten in chronologischer Reihenfolge, und war (zusammen mit gleichartigen Proben von Apollo 16 und 17) eine der wertvollsten Proben des gesamten Apolloprogramms.
Schließlich fuhren sie mit dem Rover geradewegs nach Westen zur Hadley-Rille, wo sie nach einem Stück freigelegten Grundgesteins an seinem Entstehungsort suchen sollten; die bisherigen Missionen hatten nur Basaltgestein mitgebracht, das durch Einschläge an den Fundort befördert worden war. An der Kante der Rille fanden sie einen solchen Fels und nahmen ein Stück davon mit. Bei einem weiteren Stopp blieb nur noch Zeit für ein paar Fotos, und dann mussten sie von ihrem kurzen, nicht einmal zwei Kilometer weiten Trip wieder umkehren. Scott musste nämlich noch zwei Dinge erledigen: mit einer extra mitgebrachten Stempel-Garnitur der US-Post einen Briefumschlag mit zwei Marken entwerten, sowie ein kleines Experiment vor der Kamera ausführen, das zu einer der ikonischsten Szenen des Mondlandeprogramms werden sollte:
Nun, in meiner linken Hand habe ich eine Feder, in meiner rechten Hand einen Hammer. Und ich glaube, einer der Gründe, warum wir heute hier sind, ist ein Herr namens Galileo, der vor langer Zeit eine ziemlich bedeutende Entdeckung über fallende Objekte in Gravitationsfeldern gemacht hat. Und wir dachten, wo wäre ein geeigneterer Ort als der Mond, um seine Erkenntnisse zu überprüfen? Und so dachten wir, wir versuchen es hier für euch. Die Feder ist, wie es sich gehört, eine Falkenfeder, stellvertretend für unseren Falken. Ich lasse die beiden jetzt fallen und hoffe, dass sie gleichzeitig auf dem Boden ankommen.
Hammer und Feder fallen und landen mangels einer Atmosphäre, die die Feder hätte bremsen können, nebeneinander auf dem Boden.
Na, wie war das? Was beweist, dass Herr Galileo mit seinen Erkenntnissen richtig lag.
Die in einer Diskussionsrunde des Astronautenteams geborene Idee zu dem Experiment stammte übrigens vom Capcom Joseph Allen, einem Astronauten, der erst viel später in der Space-Shuttle-Ära zu seinen 3 Raumflügen kam.
Danach fuhr Scott den Rover ein Stück weg von der Landefähre und brachte die Kamera in Position, um den Rückstart der Aufstiegsstufe der Mondlandefähre von der Erde aus filmen zu lassen. Dabei hinterließ er ohne Wissen der Bodenstation eine kleine Astronauten-Statuette aus Aluminium und eine metallene Gedenktafel mit den zu diesem Zeitpunkt öffentlich bekannten 14 verstorbenen Raumfahrern beider Raumfahrtnationen auf dem Mondboden, sowie eine Bibel auf dem Rover. Die Existenz der Skulptur, bis heute der einzige Kunstgegenstand auf dem Mond, verkündete Scott nach der Landung auf einer Pressekonferenz. Das National Air and Space Museum verlangte daraufhin, dass der belgische Künstler Paul Van Hoeydonck ein Replikat anfertigen sollte, dass der Öffentlichkeit zugänglich ausgestellt werden sollte. Van Hoeydonck stellte schließlich sogar 1903 nummerierte Repliken her.
Am 2. August um 18:11 MEZ startete der Falcon nach 66 Stunden und 55 Minuten auf der Mondoberfläche zurück in die Mondumlaufbahn, um dort mit der Endeavour zu docken, in der Worden unterdessen mit dem Science Instrumentation Module (SIM) zahlreiche Beobachtungen und Messungen angestellt hatte, unter anderem mit einem Laser-Entfernungsmesser, Gammastrahlen-Spektrometer, einer Röntgenkamera und optischen Kameras, die teilweise der Spionagetechnik entstammten. Das Andocken machte keine Probleme, nur das Abdocken des leeren Falcon, weil es zunächst nicht gelang, die Luke luftdicht zu schließen. 3½ Stunden nach dem Ausladen der Fracht konnte der Falcon schließlich abgedockt werden und er schlug planmäßig 2 Stunden später auf der Mondoberfläche auf, was die Seismometer von Apollo 12, 14 und 15 registrierten.
Die Endeavour verblieb noch weitere 2 Tage für Beobachtungen im Mondorbit, wobei auch ein kleiner Satellit ausgesetzt wurde, der den Mond 1½ Jahre umkreisen sollte. Am 4. August um 22:22h begann dann der Rückmarsch zur Erde.
Auf dem Rückflug gab es am 5. August ein weiteres Novum des Apollo-Programms: Worden führte 317.000 km von der Erde entfernt eine “Deep Space EVA” durch, einen Ausstieg aus der Apollo-Kapsel, um Filmkassetten der Kameras aus dem SIM zu holen. Auch bei Apollo 16 und 17 sollte es solche EVAs im freien Weltraum geben, bis heute die einzigen ihrer Art.
Am 6. August konnten die Astronauten sogar eine Mondfinsternis beobachten und fotografieren. Der Anblick der Erde während der Finsternis vom Mond aus wäre sicherlich spektakulär gewesen, aber da die Finsternis etwa am Mondmittag bei der höchsten Temperatur an der Hadley-Rille stattfand, wäre ein Aufenthalt zu dieser Zeit dort nicht möglich gewesen.
Am 7. August um 21:33h MEZ trat die Kapsel schließlich in die Erdatmosphäre ein. 9 Minuten später öffneten sich die Fallschirme, wobei es einen Schreckmoment gab, weil einer der drei Fallschirme kollabierte, anstatt sich zu öffnen. Jedoch reichten zwei Schirme aus, um die Kapsel sicher im Pazifik niedergehen zu lassen.
Die Mission war der bis dahin erfolgreichste Apollo-Flug und in jeder Hinsicht ein voller Erfolg. 77 kg Gestein, darunter die bis zu diesem Zeitpunkt bedeutendsten Proben mit dem Bohrkern und dem Genesis-Felsen. Es entstanden wunderbare Fotos und Videos. Dank der TV-Kamera auf dem Rover war der Fernsehzuschauer jederzeit als 3. Astronaut virtuell mit auf Exkursion, wodurch das öffentliche Interesse an den Mondlandungen wieder zunahm.
Dennoch bekam die Mission posthum einen bitteren Nachgeschmack. Neben dem außerhalb der Mondfähre entwerteten Briefumschlag führten die Astronauten 242 Briefumschläge in der Endeavour mit sich, die nicht auf die Mondoberfläche mitgenommen und erst nach der Landung auf dem Bergungsschiff USS Okinawa in dessen Poststelle abgestempelt worden waren.
Im Oktober 1971 traf dann eine Anfrage bei der NASA ein, ob ein zum Verkauf angebotener Umschlag authentisch sei, und dabei handelte es sich um keinen der offiziellen 243 Umschläge. So flog auf, dass die Crew 100 Briefumschläge des deutschen Briefmarkenherstellers Hermann Sieger (und 298 weitere auf eigene Faust) ohne Wissen und Zustimmung der NASA mit auf den Mond genommen hatten und sie zusammen mit dem genehmigten auf der USS Okinawa hatten abstempeln lassen. Für diesen “Gefallen” sollte jeder von ihnen von Sieger $7000 Schmiergeld in Form von Sparbüchern erhalten. Sie hatten dem Deal allerdings nur unter der Voraussetzung zugestimmt, dass die Umschläge ausschließlich privat weitergegeben und nicht etwa frei verkauft werden sollten. Genau das Letztere tat jedoch Sieger, der sie für 4850 DM das Stück zum Verkauf anbot. Zwar nahmen die Astronauten, als sie davon erfuhren, das Geld nicht an und forderten die nicht verkauften Umschläge zurück. Dennoch mahnte die NASA die drei Astronauten ab und entband sie von allen zukünftigen Missionen als aktive oder Backup-Crews (sie waren als Backup-Crew für Apollo 17 geplant gewesen). Zwar war es den Astronauten erlaubt, eine gewisse Menge an Privatgegenständen mitzunehmen. Nur dürften sie aus der Mission keinen ungenehmigten Profit schlagen. Damit war ihre aktive Astronauten-Karriere schlagartig beendet. Zivil- oder militärrechtlich belangt oder aus NASA-Diensten entlassen wurden sie indes nicht.
Scott wurde sogar noch Leiter des Dryden Flight Research Centers in Edwards. Worden wechselte nach Kalifornien ans Ames Forschungszentrum der NASA und wurde dort Bereichsleiter. Und Irwin verließ 1972 die NASA, wurde – stark beeindruckt von seinen Erlebnissen auf dem Mond – evangelikaler Prediger und suchte am Berg Ararat mehrfach (erfolglos) nach der Arche Noah.
Zum Ende der Mission wurde auch der 7-jährige Junge aus dem Krankenhaus entlassen. Die Mission wie auch die Blinddarmoperation haben einen bleibenden Eindruck bei ihm hinterlassen, der dafür sorgte, dass er sich für Naturwissenschaften begeisterte. Und über 10 Jahre kein Hähnchen mehr anrühren mochte…
Wie bei allen Apollo-Artikeln habe ich auch diesmal wieder eine Gallerie der schönsten Bilder zusammengestellt. Mit den Pfeilen oben links und rechts kann man blättern, ein Klick auf das Bild öffnet es in voller Größe in einem neuen Fenster.
Vor allem erinnere ich mich daran, dass die Bilder bunt waren. Apollo 14 war tatsächlich die erste Mission, die erfolgreich in Farbe übertragen wurde. Nicht bewusst war mir als Kind, dass die Mission mehrmals auf des Messers Schneide gestanden hatte, dass sie nicht alle gesetzten Ziele erreichte, sie aber bei einem kompletten Fehlschlag wahrscheinlich die letzte Apollo-Mission gewesen wäre. Heute, anlässlich des 50. Geburtstags der Mission, habe ich die Ehre, die Geschichte der dritten Mondlandung nacherzählen zu dürfen.
Alle bisherigen Mondflüge waren mit mindestens einem Weltraum-Veteranen als Kommandanten bestückt, der schon einmal im Orbit gewesen war. Bei Apollo 14 war neben den kompletten Neulingen Kommandomodul-Pilot Stuart Allen Roosa (ehemaliger Feuerspringer und Air Force-Pilot) und Mondfähren-Pilot Edgar Dean Mitchell (Navy-Testpilot) der Kommandant Alan Bartlett Shepard derjenige mit der größten Raumfahrt-Erfahrung. Einer der Mercury-7, der sieben ersten amerikanischen Astronauten, war er der erste Amerikaner überhaupt im All gewesen, der am 5. Mai 1961 nur gute 3 Wochen nach Gagarin zweiter Mensch im All wurde, aber anders als Gagarin war sein Flug nur “suborbital”. Die damals verfügbare Redstone-Rakete, eine Weiterentwicklung der deutschen V2, konnte die Kapsel nur auf 8262 km/h und bis in 188 km Höhe katapultieren. Für den Orbitalflug wären über 28000 km/h nötig gewesen, was den Amerikanern erst im Februar 1962 mit der stärkeren Atlas-Rakete gelang, die John Glenn in den Orbit schoss, wo er die Erde fast 5 Stunden lang umkreiste. Zu dieser Zeit war German Titov auf sowjetischer Seite schon fast 4 Tage im All gewesen.
Alan Shepards Flug dauerte hingegen gerade einmal 15 Minuten und 22 Sekunden. Den er mit feuchter Unterwäsche absolvierte, da er nach stundenlanger Verzögerung seines Starts dringend urinieren musste, man ihm aber nicht erlaubte, die Kapsel zu verlassen, so dass er sich erflehte, wenigstens in den Anzug machen zu dürfen. Was man ihm nach längerer Diskussion schließlich gestattete.
Ein zweiter ursprünglich geplanter Mercury-Flug von Shepard wurde gestrichen. An Gemini dürfte Shepard nicht mehr teilnehmen, denn ihm war inzwischen die Fluglizenz entzogen worden: bei ihm war die Menière-Krankheit diagnostiziert worden, bei der in den Kanälen des Innenohrs ein erhöhter Druck besteht, der zu Tinnitus, Hörverlust und vor allem Schwindelattacken bis zur Übelkeit führen kann – für einen Piloten ein absolutes No-Go. Ein Glaukom und ein Knoten auf der Schilddrüse machten es nicht besser. Shepard gab jedoch nicht auf, wurde an der Schilddrüse operiert und unterzog sich Anfang 1969, inzwischen zum Chefastronauten befördert, einem damals noch experimentellen Eingriff, bei dem eine kleine Schiene in die Innenohrkanäle verlegt wurde, die den Abfluss von überschüssiger Flüssigkeit erlaubte. Die Operation war ein voller Erfolg. Shepard wurde im Mai 1969 wieder die Flugtauglichkeit zuerkannt und so bewarb er sich umgehend um einen Sitzplatz in einer Apollo-Kapsel.
Apollo 11 und 12 waren schon vergeben und so schlug Missionsdirektor Deke Slayton Shepard zusammen mit Roosa und Mitchell für die im April 1970 geplante Apollo 13 vor. Aufgrund seiner 15 Minuten Flugerfahrung wurde gelästert, dass seine Crew komplett aus Rookies – Anfängern – bestünde. Shepard wollte eigentlich James McDivitt als Pilot der Mondlandefähre haben, welcher schon Apollo 9 befehligt hatte, aber der winkte ab, weil Shepard seiner Meinung nach zu wenig Training hatte, um eine Apollo-Crew zu leiten. Auch das NASA-Management traute dem seit 8 Jahren unfreiwillig geerdeten Astronauten keinen Flug mit weniger als zwei Jahren Vorbereitungszeit zu und so wurde ihm erst das Kommando über die ursprünglich für Juli 1970 geplante Apollo-14-Mission zugeteilt, die im Januar 1970 nach der Streichung von Apollo 20 und einer Streckung des Flugprogramms auf Herbst 1970 verschoben wurde.
Doch dann kam es anders – nach der Beinahe-Katastrophe von Apollo 13 wurde der Flug zunächst auf unbestimmte Zeit verschoben und schließlich, nachdem im Juni 1970 die Ursache des Unglücks im Abschlussbericht dargelegt wurde, wurde er auf frühestens 31. Januar 1971 verlegt. Denn es mussten einige Veränderungen am Raumschiff vorgenommen werden, damit sich das Unglück keinesfalls wiederholen konnte. Shepard und Roosa überwachten die Implementierung der Modifikationen höchstpersönlich.
Wir erinnern uns, dass bei Apollo 13 ein für 28 Volt ausgelegter Thermoschalter in einem Sauerstofftank montiert worden war, der ihn mit 65 Volt versorgte, so dass er bei einem Test des Tanks zerstört worden war, was zu Beschädigungen an den Teflonisolationen von Kabeln geführt hatte. Als Jack Swigert dann zur routinemäßigen Kontrolle des Drucks im Tank die Sauerstoffumwälzung einschaltete, gerieten die blanken Kabel aneinander und der Funken ließ den Tank explodieren, was den benachbarten zweiten Tank ebenfalls leckschlagen ließ. Durch den Ausfall der auf den Sauerstoff angewiesenen Brennstoffzellen hing das Kommandomodul nur noch am Batteriestrom, musste komplett ausgeschaltet werden und konnte nach dem durch die Orbitalmechanik unvermeidlichen 6-tägigen freien Rückkehrmanöver um den Mond herum nur unter größten Schwierigkeiten wieder in Betrieb genommen werden, weil die gelieferte Stromstärke der Batterien so knapp bemessen war. Außerdem war das Trinkwasser an Bord knapp geworden, das normalerweise von den Brennstoffzellen geliefert worden wäre.
So versah man das Service-Modul von Apollo 14 mit einem dritten, unabhängigen Sauerstofftank, der weit ab von den beiden anderen in einem zuvor ungenutzten Hohlraum montiert wurde und dort vor einer Explosion der anderen Tanks sicher war. Die Leitungen wurden mit hitzebeständigerem Magnesiumoxid beschichtet und mit Edelstahlröhren ummantelt. Auf Umwälz-Ventilation zur genaueren Ablesung des Tankinhalts verzichtete man nun ganz, man hatte inzwischen genug Erfahrungswerte gesammelt, um den Füllstand auch ohne Umwälzung zuverlässig zu schätzen. Das Servicemodul bekam eine zusätzliche Batterie mit 400 Ah, damit genug Strom für einen Neustart vorhanden war, und die Versorgung des Kommandomoduls mit Strom aus dem Mondmodul wurde erleichtert. Man bunkerte zusätzliche 19 Liter Trinkwasservorrat in der Kapsel – mehr als 2 Liter pro Tag und Mann für eine freie Rückkehrbahn. Außerdem nutzte man die Zeit für weitere Verbesserungen, z.B. Bleche in den Tanks der Mondlandefähre zu montieren, die ein Schwappen des Treibstoffs verhinderten, was bei Apollo 11 und 12 zu einem vorzeitigen Auslösen der Füllstandswarnung geführt hatte. Auch an den Triebwerken der zweiten Stufe, die sich selbst gerne durch Unregelmäßigkeiten in der Treibstoffzufuhr zu sogenannten “Pogo-Oszillationen” hochschaukelte, nahm man eine Modifikation vor, die Helium aus den Zuleitungen abschied, welches den Druck in den sich entleerenden Tanks unterstützte und von den Turbopumpen gerne mit in die Triebwerke gepumpt wurde. Damit diese fortan blasenfrei zapfen konnten.
Und damit nicht wieder wie bei der 13 ein Besatzungsmitglied aus gesundheitlichen Gründen kurz vor dem Flug ersetzt werden musste, isolierte man die Crew 21 Tage vor dem Start und beschränkte ihre Kontakte auf ihre Familie, ihre Ausbilder und die Techniker, mit denen sie notwendigerweise zusammenkommen mussten – ein Personenkreis, der permanent physisch überwacht wurde und sich schutzimpfen lassen musste.
Denn eines war sicher: dieser Flug war zum Erfolg verdammt. Ein weiterer Misserfolg hätte das vorzeitige Ende des Apolloprogramms nach nur zwei geglückten Landungen bedeutet. Schon im Januar 1970, noch vor Apollo 13, hatte man die Mission Apollo 20 gestrichen und ihre längst gebaute Rakete für den Start der Raumstation Skylab umgewidmet. Im August 1971 strich Präsident Nixon dann auch 18 und 19, und nur gutes Zureden des stellvertretenden Direktors des Amts für Verwaltung und Haushaltswesen, Caspar Weinberger, konnte ihn überreden, nicht auch noch 16 und 17 abzusagen, zumal auch der breite Rückhalt des Programms in der Bevölkerung schwand. Schließlich hatte man die Russen geschlagen, die Wissenschaft interessierte eh nur die Nerds und überhaupt war das alles viel zu gefährlich und zu teuer (obwohl das meiste Geld des Programms schon ausgegeben war – alle Raketen waren schon gebaut).
Als positiver Nebeneffekt erhielten Shepard, Roosa und Mitchell mit 19 Monaten das längste Vorbereitungstraining aller Apollo-Besatzungen überhaupt. Da Apollo 14 nach der verpassten Landung der 13 deren Ziel im kraterreichen Fra-Mauro-Hochland anfliegen sollte, musste die Crew geologisch umschulen; Shepard soll in diesem Fach nicht allzu motiviert gewirkt haben. Sie besuchte unter anderem den Nördlinger-Ries-Krater. Roosa, der während der Landung von Shepard und Mitchell den Mond umreisen würde, nahm auf eigene Initiative hin Unterricht in der Erkennung von geologischen Strukturen aus der Entfernung und düste im Jet über die von Shepard und Mitchell im Training besuchten Gebiete hinweg, um die Höhe und Geschwindigkeit der Mondumkreisung zu simulieren.
Apollo 14 war planmäßig die letzte Mission, bei der die Astronauten sich ausschließlich zu Fuß fortbewegen mussten. Für die folgenden Missionen war die Mitnahme eines Mondautos geplant. Aber immerhin spendierte man der Besatzung eine Art Handkarren mit zwei luftgefüllten Reifen, den Modular Equipment Transporter (MET), der es ihnen erleichtern sollte, unterwegs Proben zu sammeln und Geräte zu transportieren. Bei den Astronauten lief er gelegentlich unter der Bezeichnung “Rikscha”. Shepard und Mitchell sollten nämlich den geologisch jungen, 350 m durchmessenden Krater “Cone” (Konus) besuchen, der fast 80 Meter tief war und vielleicht ursprüngliches Krustenmaterial an die Oberfläche befördert hatte. Eine andere Neuigkeit war das Buddy Secondary Life Support System (BSLSS), ein System aus flexiblen Schläuchen, mit denen sich die Astronauten im Notfall gegenseitig mit Sauerstoff und Kühlwasser aus dem Lebenserhaltungssystem des “Kumpels” hätten versorgen können – kein unwichtiges Detail, wenn man sich zu Fuß eine größere Strecke von der Mondlandefähre entfernt.
Am 31. Januar 1971 war es dann endlich soweit. Nach einer wetterbedingten Verzögerung von 40 Minuten – man wollte nicht wieder riskieren, dass die Rakete wie die von Apollo 12 vom Blitz getroffen wurde – hob die Saturn V mit der Seriennummer SA-509 am späten Nachmittag Ortszeit / 22:03 Uhr MESZ ab. Auf der Spitze das Kommando- und Servicemodul (CSM) Kitty Hawk, von Roosa nach derjenigen Stadt benannt, wo die Wright-Brüder ihren ersten Motorflug absolviert hatten. Darunter auf der S-IVB-Oberstufe montiert die Mondlandefähre Antares, benannt nach dem Leitstern, der den Astronauten bei der Landung zur Orientierung dienen sollte.
Der Start verlief nominal und zunächst lief alles wunderbar. Wie üblich erreichte der Apollo-Stack zunächste eine niedrige Erdumlaufbahn, um alle System durchzuchecken, und 2:28 Stunden nach dem Start feuerte die S-IVB ein zweites Mal auf der dem Mond gegenüberliegenden Seite des Orbits ihr Triebwerk für knappe 6 Minuten, um den Stack auf Fluchtgeschwindigkeit zu beschleunigen, das Trans-Lunar-Injection-Manöver (TLI). Das CSM trennte sich eine halbe Stunde später von der Oberstufe, die selbst ebenfalls auf Mondkurs war und vermöge einer ferngesteuerten Kurskorrektur dort einschlagen sollte, um für die von Apollo 11 und 12 zurückgelassenen Seismometer ein kleines Mondbeben zu verursachen.
Doch zunächst musste die Kitty Hawk wenden und am Mondmodul Antares andocken, um es aus der Oberstufe herauszuziehen, wie es schon bei Apollo 9, 10, 11, 12 und 13 problemlos funktioniert hatte. Zum Docken verwendeten die Apollo-Raumschiffe einen Ankermechanismus auf der Luke am vorderen Ende des Schleusenschachts an der Spitze der Kommandokapsel. Dieser musste mit seiner selbstzentrierenden Spitze in die trichterförmige Aufnahme vor der Luke der Mondlandefähre eingeführt werden und sollte beim Zusammendrücken drei durch Federkraft nach außen schnappende Halteklammern auslösen, die hinter einem Ring am Ende des Trichters einhaken sollten (sogenanntes “weiches Docken”). Bei weiterer Annäherung verkürzte sich der Ankermechanismus (oder konnte notfalls von den Astronauten mit einer Kurbel verkürzt werden) und zog so den Ring um die Luke des Mondmoduls in den Schleusenschacht des Kommandomoduls hinein, wo diese dann durch 12 um den Umfang des Schleusenschachts verteilte Schnappriegel endgültig fest und luftdicht miteinander verbunden werden konnten (“hartes Docken”). Nach dem Druckausgleich konnte die Luke geöffnet und der Ankermechanismus mitsamt Trichter entnommen werden, um den Weg durch den Schleusenschacht zur Mondlandefähre freizugeben.
Roosa hatte gerade dieses Manöver besonders lange geübt, denn es bestand eine Art Wettbewerb zwischen den Kommandomodul-Piloten, hierbei möglichst wenig Treibstoff für die Steuerdüsen zu verbrauchen. Aber sein erster Versuch scheiterte. Die Halteklammern lösten nicht aus. Auch der zweite, dritte und vierte Versuch schlugen fehl, obwohl Roosa noch bis zu vier Sekunden nach dem Kontakt der Raumschiffe Vorwärtsschub gab. Man holte sich Rat bei der Bodenkontrolle. Die schlug zunächst vor, dass die Besatzung Raumanzüge anziehen und die Luft in der Kapsel ablassen sollte, damit die Luke mit dem Anker nach innen geholt werden konnte, um ihn auf Beschädigungen zu untersuchen, was jedoch wieder verworfen wurde. Fast anderthalb Stunden an Konsulationen vergingen, während derer Roosa die Kitty Hawk vor der durch ihren ausgasenden Resttreibstoff abdriftenden und in Drehung versetzten S-IVB zu halten versuchte. Wenn das Andocken nicht gelang, war die Mission gescheitert und damit wäre wohl das Apollo-Programm insgesamt zu Ende gewesen.
Schließlich versuchte es Roosa auf Anraten der Bodenkontrolle noch einmal mit deutlich längerer Schubdauer. Versuch 5 war wieder ein Fehlschlag. Bei Versuch 6 feuerte er das Steuertriebwerk schließlich 15 Sekunden lang – und dann erklang endlich das erlösende metallische Geräusch der einrastenden Klammern! Große Erleichterung. Dann wieder Sorge: würde der Andockmechanismus funktionieren, wenn Antares vom Mond zurückkäme? Und wenn nicht? Theoretisch war es denkbar, dass die Astronauten an einer Leine gesichert sich selbst und ihre Fracht von einem Raumschiff zum anderen beförderten, aber entsprechende Experimente bei Apollo 9 waren aufgrund Russell Schweickarts Übelkeitsanfall abgebrochen worden und schon bei Gemini hatte sich gezeigt, wie schwierig es war, sich ohne Haltemöglichkeit im All von einem Punkt zum anderen zu begeben.
Die Astronauten untersuchten den Ankermechanismus, fanden aber keine Beschädigungen oder Fremdkörper im Mechanismus. Bis heute ist ungeklärt, warum er nicht funktioniert hatte – eine Hypothese besagt, dass sich Eis in den Hohlräumen der Halteklammern gebildet haben könnte. Zum Glück gab es beim späteren Andocken nach der Mondlandung dann keine Probleme mehr.
Die drei weiteren Tage auf dem Weg zum Mond vergingen ereignislos mit den geplanten Kurskorrekturmanövern, einer Live-TV-Übertragung und den üblichen Checks der Systeme. Am 3. Februar um 16:12 MEZ erreichte der Apollo-Stack den Einflussbereich des Mondes, wo dessen Schwerkraft diejenige der Erde übertraf. Am 4. Februar um 7:59 MEZ bremste die Kitty Hawk im Funkschatten hinter dem Mond mit ihrem großen Triebwerk voraus den Stack in eine 313×108 km hohe, 120 minütige Umlaufbahn über der Mondoberfläche ein (Lunar Orbit Insertion, LOI). Dem folgte nach zwei Umläufen ein weiteres, erstmals durchgeführtes Manöver: bei Apollo 11 und 12 mussten die Mondlandefähren aus einem 110-km-Parkorbit aus eigener Kraft abbremsen, um auf dem Mond zu landen; beide Fähren hatten nach der Landung weniger als eine Minute Resttreibstoff übrig. Da das Gelände der Apollo-14-Mondlandung uneben war und der Pilot möglicherweise länger brauchen würde, einen geeigneten Landeplatz zu finden, schoss nun die Kitty Hawk mit ihrem Triebwerk den Apollo-Stack auf eine elliptische Umlaufbahn mit 15 km Höhe am mondnächsten Punkt (Pericynthion), von wo aus die Fähre mit weniger Treibstoffverbrauch würde landen können. Das Descent-Orbit-Insertion-Manöver (DOI) gelang.
Um 5:50 MEZ am frühen Morgen des 5. Februar dockte Antares von der Kitty Hawk ab, um rund fünfeinhalb Stunden später Shepard und Mitchell auf dem Mond abzusetzen. Von nun an musste der Zeitplan exakt eingehalten werden, um die geplante Landestelle zu erreichen. Was die Astronauten nun nicht mehr gebrauchen konnten, war ein ernstes Problem. Kurz nach dem Abdocken bemerkte die Bodenkontrolle in Houston, dass der Bordcomputer der Antares meldete, der Abbruch-Knopf sei gedrückt – jener Knopf, den der Pilot im Notfall drücken musste, um die Rückkehrstufe von der Abstiegsstufe der Mondlandefähre zu trennen und automatisch zurück in die Umlaufbahn zu starten. Der Knopf war aber nicht eingerastet. Houston bat die Astronauten, auf das Paneel, in dem sich der Knopf befand, zu klopfen, und die Störung verschwand. Aber sie kehrte nach ein paar Minuten wieder. Es schien sich ein Tropfen Lötzinn gelöst zu haben, der in dem Schalter umherschwebte und ihn immer wieder kurzschloss. Was tun? Das Abbruchsignal dürfte während des Abstiegs keinesfalls auslösen. Umgehend wurde Don Eyles, der Programmierer der Ausleseroutine des Abbruchschalters, in die Pflicht genommen. Tatsächlich schlug er schnell eine Lösung vor: es gab eine Markierung (Flag) genannt “Let Abort”, ein einzelnes Bit, dessen Rücksetzung auf 0 den Computer anweisen würde, den Abbruch-Schalter zu ignorieren. Der Haken an der Sache war: mit dem Start des Abstiegstriebwerks wurde das Bit automatisch wieder gesetzt und dann war womöglich keine Zeit mehr, um vor dem nächsten Kurzschluss das Bit wieder rückzusetzen. So einfach war es dann leider auch wieder nicht.
Erst als die Astronauten 34 Minuten vor dem geplanten Beginn des Abstiegsmanövers aus dem Funkschatten hervorkamen, konnte Houston Shepard und Mitchell die finale Lösung des Problems mitteilen. Wann wäre dem Bordcomputer der Abbruchknopf gleichgültig? Bei einem Abbruch. Folglich sollten die Astronauten 4 Minuten vor dem Starten des Triebwerks das Programm Nr. 70 laden, das bei einem Abbruch lief, und das Abstiegstriebwerk von Hand starten. Nach dem Start läuft das Triebwerk zunächst 26 Sekunden mit Minimalschub, während das Computerprogramm Messungen über die Lage des Schwerpunkts und das Masse/Schub-Verhältnis anstellt, ohne Manöver durchzuführen. Just in dieser Zeit sollte Mitchell bei laufendem Triebwerk das Let-Abort-Flag zurücksetzen und danach das Programm 63 für die Landesequenz laden, bevor Shepard den Schub auf 100% erhöht. Dann sollte Mitchell den Autopiloten aktivieren, der dem Computer die Kontrolle über die Antares zurückgab.
Ein Abbruch im Notfall war weiterhin möglich. Statt den Abbruchknopf ins Paneel zu schlagen, hätte Mitchell statt dessen folgende Eingaben auf dem Bedienfeld des Apollo Guidance Computers tätigen müssen:
“VERB” – “2” – “5” – “NOUN” – “7” – “ENTR” – “4” – “0” – “0” – “ENTR” – “1” – “ENTR”
Nichts, was man im Notfall unter Zeitdruck zu tun haben möchte…
Aber das Manöver zur Umgehung des Abbruchschalters gelang, wobei die Bodenkontrolle zur Hilfe während des Manövers die Anweisungen in Echtzeit durchgab.
Dem noch nicht genug gab es Minuten vor der Landung Probleme mit dem Landeradar, das zuerst nicht auf den Boden, sondern auf unendlich einrastete. Ohne funktionierende Höhen- und Geschwindigkeitsmessung war die Landung auch für den Computer kaum zu bewältigen. Mitchell flehte das Radar geradezu an “Come on, radar!” während Shepard das Radarproblem der Bodenstation meldete, die lakonisch “wissen wir” zurückgab. Ein junger Ingenieur schlug schließlich vor “Das Radar funktioniert, schaltet es doch einfach ab und startet es neu!” Und Tatsache – das Radar fand nach Neustart den Boden. “Großartig! Puh, das war knapp”, rief Mitchell.
Der Computer dirigierte Antares auf eine Dreiergruppe von Kratern zu, so dass Shepard manuell eingriff, und über die Kratergruppe hinwegflog. Am 5. Februar 1971 um 10:18 und 11 Sekunden MEZ setzte Antares auf der Mondoberfläche auf, 1150 Meter westlich des Cone-Kraters. Der Boden war mit 7° leicht geneigt, kein Problem für die Fähre, die nach dem Aufsetzen ein wenig zur Seite rutschte. Aber das Gelände sollte den Astronauten später noch einiges abverlangen.
Nach Checks, ob alle Systeme in Ordnung waren, nach Messung ihrer Position und einem Mittagessen, bereiteten sich Shepard und Mitchell auf ihren ersten fast 5-stündigen Außenbordeinsatz (Extravehicular Activity, EVA) vor. 10 Minuten lang verbrachten sie alleine damit, dass der Schlauch im Raumanzug, der den Urin von Shepard in einen Beutel ableiten sollte, nicht frei zu sein schien. Am Ende fanden sie einen Knick im Schlauch, den sie beseitigen konnten.
Am 5. Februar um 15:53 MEZ stieg Shepard als Kommandant als erster aus. “Nicht schlecht für einen alten Mann”, lästerte Capcom (Capsule Communicator) Bruce McCandless, der in dieser Schicht von Houston aus den Funkkontakt mit den Astronauten hielt. McCandless spielte darauf an, dass Shepard, 1923 geboren, mit 47 Jahren der mit Abstand älteste aller Mondspaziergänger war und blieb – der zweitälteste war Aldrin auf Apollo 11, 1930 geboren. “Stimmt,” entgegnete Shepard, “Al ist auf der Oberfläche. Es war ein langer Weg, aber nun sind wir hier.” Die Zeit der großen Zitate beim Ausstieg war vorbei. 5 Minuten später folgte Mitchell. Die beiden kamen sehr gut mit der 1/6 Erdschwerkraft des Mondes zurecht. Shepard meinte beim Debriefing, er sei kein einziges Mal bei den zwei EVAs gestürzt. Er habe mehrmals niedergekniet, um Gegenstände aufzuheben und sei danach stets problemlos wieder auf die Beine gekommen.
Ziel der ersten EVA war das obligatorische Aufstellen der Flagge, der S-Band-Schirmantenne und einer stationären 16-mm-Farbkamera für die TV-Übertragung, sowie der Messgeräte. Zu allererst sammelte Mitchell eine Notfall-Bodenprobe für den Fall, dass ein Notfall zur sofortigen Rückkehr zwang, damit man nicht mit völlig leeren Händen nach Hause kam. Außerdem wurde das Sonnenwind-Experiment aufgestellt, das aus einer an einer Stange aufgespannten Metallfolie bestand und schon bei Apollo 11 mit dabei gewesen war.
Wie bei allen Apollo-Missionen war ein ALSEP (Advanced Lunar Surface Experiments Package = fortgeschrittenes Mondoberflächen-Experimente-Paket) dabei, das von Mission zu Mission etwas variierte. Alle ALSEP-Instrumente waren mit einer zentralen Basisstation verkabelt, welche die Daten zur Erde funkte, und wurden von einem Plutonium-Radioisotopen-Thermalgenerator mit Strom versorgt. Schon bei Apollo 11 dabei war der LRRR (Laser Ranging Retro Reflector), ein Katzenaugen-Spiegel zur Reflexion von Laserstrahlen von der Erde zur Messung der Mondentfernung, und bei Apollo 12 das PSE (Passive Seismic Experiment), ein Seismometer, sowie das SIDE (Suprathermal Ion Detector Experiment) zur Messung von Ionen des Sonnenwinds und das CCIG (Cold Cathode Ion Gauge) zur Messung des Drucks der nur in Spuren vorhandenen Mondatmosphäre.
Erstmals bei Apollo 14 dabei war das CPLEE (Charged Particle Lunar Environment Experiment) zur Messung von geladenen Teilchen wie Elektronen und Ionen, sowie das Active Seismic Experiment (ASE). Das ASE bestand aus einem Satz von Geophonen zur Messung von Bodenschall, die über 94 Meter Distanz deponiert wurden, einem “Klopfer” (Thumper) genannten, handausgelösten Boden-Schussgerät mit 22 Patronen zur Erzeugung von Schallwellen (daher aktives seismisches Experiment), das von Mitchell alle 15 Fuß (knapp 5 Meter) ausgelöst werden sollte, sowie einem Mörser-Paket mit 4 Ladungen, die Projektile mehrere hundert Meter weit schleudern sollten. Das Mörser-Paket sollte eigentlich ein Jahr später von der Erde aus ferngezündet werden, um die anderen Experimente nicht zu stören, kam aber bei dieser Mission letztlich gar nicht zum Einsatz, weil das Jet Propulson Laboratory den Sender der ALSEP-Basisstation für seine Radioexperimente weiternutzen wollte und man befürchtete, dass die Basisstation beschädigt und der Retroreflektor verschmutzt werden könnten. Ein baugleiches Experiment kam erst bei Apollo 16 zum Einsatz.
Schließlich wurden noch ein paar Gesteinsproben gesammelt. Am Ende wurde die Zeit knapp, aber die Astronauten schafften die gesamte Checkliste abzuarbeiten. Nach nicht weniger als 4 Stunden und 47 Minuten endete der erste Außenbordeinsatz von Shepard und Mitchell, der in voller Länge im Fernsehen übertragen wurde, zur besten europäischen Sendezeit um 20:18 MEZ. In der Mondlandefähre wurde noch dokumentiert und nachbereitet, Fragen von Wissenschaftlern beantwortet sowie eine Mahlzeit zu sich genommen. Dann wurden die Lebenserhaltungs-Rucksäcke für die kommende EVA wieder aufgefüllt. Schließlich hängten die beiden Mondspaziergänger ihre Hängematten auf und legten sich kurz vor Mitternacht unserer Zeit in ihren Raumanzügen schlafen – die sich nicht auszogen, damit kein Staub die Dichtungen verschmutzen konnte und damit sie bei einem unerwarteten Druckabfall nur noch den Helm aufzusetzen brauchten.
Am nächsten Morgen wollte die Crew 1,5 Stunden früher als geplant geweckt werden, um die zweite EVA eine Stunde früher zu beginnen und um sie um eine halbe Stunde auf 4h45 auszudehnen, ohne vor dem exakt getimeten Rückstart in Zeitnot zu geraten. Am 6. Februar um 9:16 MEZ stiegen Shepard und Mitchell zur zweiten EVA aus. Diesmal war das Ziel der Cone-Krater. Die verkabelte TV-Kamera musste bei der Mondlandefähre zurückbleiben, so dass die Bodenkontrolle das sich anbahnende Drama nur über Funk verfolgen konnte.
Obwohl Shepard am Abend zuvor noch zuversichtlich war, der Weg zum Krater sei leicht im Zeitrahmen zu schaffen, hatten die Astronauten große Schwierigkeiten, sich zu orientieren. Sie hatten das Gelände anhand von Bildern aus dem Orbit gelernt, aber aus der Froschperspektive sahen die Krater völlig anders aus und der Blick reichte im welligen Gelände mit bis zu 3 m hohen Hügeln und Kraterrändern nur 100-150 m weit. Dazu mussten sie gegen die tief stehende Sonne marschieren – der niedrige Sonnenstand war bewusst gewählt worden, damit das Gelände bei der Landung durch Schattenwurf sein Profil offenbarte und damit die Temperaturen der Oberfläche, die bis zu 130°C erreichen können, nicht zu hoch waren.
Zudem ging es bergauf, und obwohl die Astronauten mit ihren 75-kg-Anzügen auf dem Mond 2/3 weniger wogen als ohne Anzüge auf der Erde, waren die Bewegungen im unter Druck stehenden Raumanzug mühsam und das MET musste durch das Geröll bewegt werden. Die Astronauten hatten EKGs am Körper und der Puls betrug im Schnitt 120, bei Shepard, der über Funk schwer atmete und manchmal kaum sprechen konnte, bis zu 150. Die Astronauten wichen südlich vom geraden Weg ab und fanden den Kraterrand nicht.
Die Mondlandefähre war über einen Kilometer entfernt nur noch ein kleiner Punkt am Horizont, ein Rückweg, für den sie ausreichend Zeit einplanen mussten. 2:15 Stunden nach dem Beginn der EVA fragt Capcom Fred Haise, ob sie den Kraterrand sähen, was Shepard verneinte, woraufhin Haise riet, mit Blick auf die Zeit nicht weiter danach zu suchen und lieber an Ort und Stelle Gestein zu sammeln, was die beiden extrem frustrierte. Dies war am Punkt C’ (engl. C prime) auf der obigen Karte. Sie sammelten Auswurfgestein im Streufeld um den Krater, darunter einen 9 kg schweren, footballgroßen Stein, “Big Bertha” (Dicke Bertha) genannt, auf den ich gleich noch einmal zurück komme. In der Folge bewegten sie sich ein Stück nach Norden und kamen dem Kraterrand am Punkt C1 bis auf 20 m nahe, ohne es zu bemerken – was Mitchell 20 Jahre später noch zu schaffen machte, wie er in einem Interview berichtete.
2 Stunden später waren die Astronauten zurück an der Mondlandefähre und führten noch ein paar Aufgaben durch wie z.B. das Einsammeln der Folie des Sonnenwindexperiments. Schließlich stellte sich Shepard vor die Fernsehkamera und sagte: “Houston, wenn ihr zu mir heraufschaut, seht ihr vermutlich, dass ich den Griff des Notfallprobensammlers in der Hand halte; zufälligerweise hat er an seinem Ende ein echtes 6er-Eisen. In der linken Hand habe ich eine kleine weiße Kugel, die Millionen Amerikanern bekannt sein dürfte. Ich lasse sie jetzt fallen. Leider ist der Anzug so steif, dass ich es nicht beidhändig tun kann, aber ich versuche jetzt einen kleinen Bunkerabschlag.” Es brauchte vier Versuche, bis Shepard, dessen Anzug die Sicht auf den am Boden liegenden Ball versperrte, den zweiten Golfball richtig traf – er hatte dies vorher auf der Erde extra im Raumanzug geübt. “Meilen um Meilen um Meilen” gab Shepard an, obwohl der Ball nur gute 35 m weit flog. Aber er machte Shepard zum ersten Golfer auf einem anderen Himmelskörper.
Um 13:46 MEZ endete die zweite EVA. Um 19:48 zündete die Rückkehrstufe der Antares ihr Triebwerk, um zurück zur Kitty Hawk in den Orbit zu starten, ein Aufstieg, der erstmals von einer aus dem Fenster gerichteten Kamera aufgenommen wurde und zeigt, wie die Fahne von den Abgasen des Triebwerks durchgeschüttelt wurde.
Das Andocken am 06. Februar um 21:35 MEZ funktionierte diesmal glücklicherweise auf Anhieb. Die Aufstiegsstufe der Antares ließ man als großen “Klopfer” für die seismischen Instrumente auf den Mond stürzen. Am 7. Februar um 2:39 zündete Kitty Hawk dann noch einmal ihr Triebwerk für den Einschuss auf die Bahn zur Erde.
Neben der wissenschaftlichen Mission auf dem Mond und astronomischen Beobachtungen (wie Aufnahmen des Gegenscheins, die Stu Roosa aus dem Mondorbit durchführte) war Apollo 14 die erste Mission, die Materialexperimente im All durchführte. Während einer TV-Übertragung demonstrierte Roosa ein Experiment, wie sich Wärme ohne Konvektion in Flüssigkeiten ausbreitet, die bei Erhitzung die Farbe änderten. In einem Schmelzofen mischten sie Legierungen aus Metallen verschiedener Dichte und sogar Glasfasern mit Metallen, was auf der Erde wegen des Auftriebs der leichteren Stoffe in der Flüssigphase nicht möglich wäre. Die Experimente waren Studien in Vorbereitung der geplanten Experimente für die Skylab-Raumstation, die in der Planung anstelle der letzten Apollo-Missionen getreten war.
Eher symbolisch waren die in der Kitty Hawk mitgenommenen 500 Samenkörner fünf verschiedener Baumarten, von der Kiefer bis zum Mammutbaum, die an Bord keimten, später im ganzen Land verteilt gepflanzt wurden und als Mondbäume bekannt wurden. Hierzu hatte der Präsident der nationalen Forstbehörde der USA Roosa kontaktiert, den er aus dessen Zeit als Feuerspringer kannte, und ihn für diese Idee begeistern können.
Nach einem ansonsten ereignislosen Rückflug wasserte das Kommandomodul der Kitty Hawk am 9. Februar 1971 um 22:05 Uhr MEZ im Pazifik, nur einen Kilometer von den Bergungsschiffen entfernt. Die Crew musste danach als letzte des Programms in die Quarantäne – da wieder keine Keime gefunden wurden, blieb die lästige Prozedur den Crews der letzten drei Missionen erspart.
Die Apollo-14-Mission brachte insgesamt knapp 43 kg Mondgestein zurück zur Erde. Das Gestein war reicher an Aluminium und Kalium und deutlich älter als die vulkanischen Basalte von Apollo 11 und 12 – man war auf der Suche nach dem “Genesis-Fels“, ursprünglichem Gestein aus der Entstehungsphase des Sonnensystems, der angeblich alle Fragen zur Entstehung desselben beantworten könne. Das älteste mitgebrachte Gestein war mit 4,42 Milliarden Jahren schon recht nahe dran (die vulkanischen Basalte von 11 und 12 waren nur 3,5 bzw. 3,2 Milliarden Jahre alt) und damit auch älter als die ältesten Gesteine auf der Erde (ca. 4 Milliarden Jahre, abgesehen von kristallinen Einschlüssen in jüngeren Gesteinen, die 4,4 Milliarden Jahre alt sein sollen). Den Entstehungszeitpunkt des Cone-Kraters konnten Geologen hingegen auf geologisch junge 26 Millionen Jahre bestimmen.
Die Erforschung der Apollo-14-Proben ist auch heute noch im Gange. Erst im Januar 2019 veröffentlichte der Geologe Jeremy Bellucci von der Curtin-Universität in Perth, Australien, dass sein Team im Big-Bertha-Fels ein 2 cm großes Fragment aufgespürt habe, das offenbar in der Erdkruste entstanden und bei einem großen Asteroideneinschlag in den Weltraum bis hin zum Mond katapultiert worden sein musste – der erste und bislang einzige gefundene Meteorit von der Erde. Mit rund 4 Milliarden Jahren ist er zugleich eines der ältesten, wenn nicht das älteste Gestein der Erde – da haben Shepard und Mitchell wahrlich ein glückliches Händchen gehabt.
Keiner der drei Astronauten flog noch einmal ins All. Shepard wurde von Nixon zum Delegierten der UNO-Vollversammlung ernannt, wurde bei der NAVY bis zum Konteradmiral befördert und ging schließlich in die Industrie. Stuart Roosa war noch Mitglied der Ersatzmannschaften Apollo 16 und 17 und wäre planmäßig Kommandant einer der gestrichen Apollo 18-20-Mission geworden. 1976 verließ er die Air Force als Oberst und ging ebenfalls in die Industrie. Ed Mitchell verließ die NASA 1972, beschäftigte sich danach mit Parapsychologie und gründete eine Firma, die ökologisch nachhaltige Produkte vertrieb. Er gründete ein Institut zur Erforschung des Bewusstseins an der Universität von Palo Alto, Kalifornien. Er war in dubiose Zahlungen der CIA an Uri Geller verwickelt und bekam 2011 Ärger mit den Bundesbehörden, weil er eine ihm geschenkte Mondkamera zur Versteigerung angeboten hatte. Man einigte sich auf einen Vergleich. 2012 verfügte der US-Kongress, dass Astronauten volles Eigentumsrecht an ihnen überlassenen Gegenständen der Raumfahrt-Programme hätten und rehabilitierten Mitchell damit.
Leider weilt keines der Crew-Mitglieder mehr unter den Lebenden. Al Shepard, der heute 97 wäre, starb 1998, Stu Roosa 1994 und Ed Mitchell 2016.
Wie bei allen Apollo-Artikeln habe ich auch diesmal eine Gallerie der schönsten Bilder zusammengestellt. Mit den Pfeilen oben links und rechts kann man blättern, ein Klick auf das Bild öffnet es in voller Größe in einem neuen Fenster.
Sterne entstehen aus Gaswolken, die unter ihrem Gewicht in der eigenen Schwerkraft kollabieren. Die Kompression wie auch die Energie aus dem freien Fall heizt den Protostern innerlich auf und verdichtet ihn zu einem Plasma aus freien Protonen und Elektronen. Die Fusion im Stern kann nur dann zünden, wenn die Protonen, die sich elektrostatisch abstoßen, hinreichend oft und mit so viel Wucht frontal zusammenstoßen, so dass sie sich bis auf die kurze Reichweite der starken Kernkraft nähern, die dann zuschnappt und die Kernteilchen aneinander bindet, wobei Energie in Form von Gammastrahlung frei wird.
Wenn die Temperatur im Kern mindestens 10 Millionen Kelvin erreicht und die Dichte mindestens 100 Gramm pro Kubikzentimeter beträgt – die einhundertfache Dichte von Wasser und die neunfache von Blei – zündet im Stern die Wasserstofffusion. Die Rate, mit der Wasserstoffkerne verschmelzen, hängt erheblich von der Temperatur und vom Druck ab, und damit auch die Energieproduktion des Sterns. Für Sterne kleiner Masse ist die Proton-Proton-Kette die wichtigste Reaktion, deren Reaktionsrate und damit auch die Energieproduktion mit der vierten Potenz der Temperatur zunimmt (T4). Der in massereichen Sternen dominierende “CNO-Zyklus”, bei dem insgesamt auch nur Wasserstoff zu Helium fusioniert, wobei ein recycelter Kohlenstoffkern als Katalysator dient, skaliert sogar mit der 18. Potenz der Temperatur! Dadurch wirken die Kernreaktionen stabilisierend auf die Temperatur, denn stiege diese an, so wüchse sofort die Fusionsrate und erhöhte den Strahlungsdruck, was den Stern expandieren und abkühlen ließe – umgekehrt führte eine fallende Temperatur zur Kompression, Aufheizung und starkem Anstieg der Fusionsrate.
Druck und Temperatur werden wiederum wird durch die Masse bestimmt, denn es bildet sich ein Gleichgewicht aus dem Gewichtsdruck des Gases und dem Strahlungsdruck der Fusionsreaktionen, sowie ein Temperaturgleichgewicht, bei dem den Stern soviel Energie verlässt, wie er im Inneren erzeugt. Durch diese Rückkopplung brennt der Stern so lange stabil, wie sich an seiner Zusammensetzung nicht viel ändert. Aber diese Änderung ist unvermeidlich.
Im Kern sammelt sich mehr und mehr erbrütetes Helium an, welches jedoch bei den im Inneren eines Hauptreihensterns vorherrschenden Bedingungen nicht fusionieren kann. Die Fusionsrate müsste wegen der abnehmenden Menge an verfügbarem Wasserstoff also eigentlich abnehmen. Abnehmende Fusionsrate bedeutet jedoch, dass dem Gewicht der Sternenmasse weniger Strahlungsdruck entgegengesetzt wird, so dass der Stern innerlich weiter in sich zusammensackt, was Druck und Temperatur erhöht. Die Energieproduktion nimmt dadurch zu und der Stern wird äußerlich aufgebläht. Aufgrund der zunehmenden Oberfläche nimmt der Stern an Leuchtkraft zu. Die größere Oberfläche kann die Energie aber auch effizienter abstrahlen, so dass die Oberfläche des Sterns abkühlt. Insgesamt bewegt er sich also zunehmend nach rechts oben im HRD, weg von der Nullalter-Hauptreihe, der Zero Age Main Sequence (ZAMS).
Sterne unter 0,5 Sonnenmassen bleiben ihr gesamtes Leben lang konvektiv und bleiben so lange auf der Hauptreihe, bis sie den größten Teil ihres Wasserstoffs aufgebraucht haben. Da sie ohnehin auf Sparflamme brennen, kann dies bei Sternen von 0,1 Sonnenmassen 6 bis 12 Billionen Jahre dauern (mit “B”, und das ist kein Übersetzungsfehler aus dem Englischen!). Um den Druck zur Fusion des immer rarer werdenden Wasserstoffs aufrecht zu erhalten, schrumpfen sie und werden äußerlich heißer und heller: sie wandern die Hauptreihe ein Stück hinauf. Am Ende schrumpfen sie zu einem weißen Zwerg, dessen Licht von der Restwärme der verdichteten Sternmaterie gespeist wird, während er langsam verblasst. Weiße Zwerge befinden sich ganz links unten im HRD.
Mit Einsetzen des sogenannten Wasserstoff-Schalenbrennens verlassen die Sterne endgültig die Hauptreihe und entwickeln sich zu Riesen. Die Entwicklung der Sterne wird in den folgenden Diagrammen sehr schön illustriert. Die Entwicklung von Sternen zwischen 0,5 und 2 Sonnenmassen verläuft dabei ein wenig anders als die von massiveren Sternen, daher betrachten wir sie im Folgenden getrennt.
Das erste Bild zeigt den Entwicklungspfad eines Sterns von einer Sonnenmasse im HRD. Die Buchstaben markieren bestimmte Entwicklungspunkte im Diagramm. A markiert den Startpunkt auf der ZAMS, B das Ende mit dem Einsetzen des Schalenbrennens.
Das zweite Bild zeigt den inneren Aufbau des Sterns über der Zeitachse im sogenannten Kippenhahn-Diagramm (nach dem deutschen Astrophysiker Rudolf Kippenhahn). Die senkrechte Achse zeigt den Sternradius gemessen in Massenanteilen. 0,4 bedeutet also zum Beispiel, dass sich 40% der Masse innerhalb dieses Radius befinden. Man beachte, dass der absolute Halbmesser in km oder Sonnenradien nicht mit dem Radius gleicher Masse zusammenhängt und über den Entwicklungszeitraum gewaltig variiert. Ein scheinbares Anwachsen einer Zone im Diagramm kann auch bedeuten, dass die Masse innerhalb eines bestimmten Radius’ aufgrund von Kompression zunimmt.
Bei mittelschweren Sternen zwischen 0,5 und 1,5 Sonnenmassen ist die Materie im Kern des Sterns weitgehend transparent und die produzierte Wärme wird durch Strahlung (radiativ) nach außen transportiert. Da somit kaum Durchmischung des Kerns stattfindet, verlagert sich die Fusion graduell weiter nach außen, denn im Zentrum sind Druck und Temperatur am größten, also braucht die Fusion den Brennstoff dort zuerst auf. Bei einem Stern von einer Sonnenmasse beginnt der Prozess am Punkt B in den obigen Diagrammen nach etwa neun Milliarden Jahren. Unterhalb der Schale sammelt sich das schwerere verbrannte Helium an. Da der Heliumkern keine Fusion durchläuft, schrumpft er, was die Schwerkraft erhöht, die auf die umgebende brennende Schale wirkt. Dort steigt der Druck und damit die Fusionsrate, was die Hülle expandieren lässt, die dabei abkühlt. Nach dem sogenannten “Spiegel-Prinzip” tut die Hülle immer genau das Gegenteil des Kerns: wenn dieser schrumpft, wächst sie, und umgekehrt.
Da der Stern weitgehend radiativ ist, bewegt er sich langsam (bei einer Sonnenmasse: binnen 2,5 Milliarden Jahren) auf einer waagerechten Henyey-Linie (siehe Teil 3) nach rechts: bei nahezu konstanter Leuchtkraft wächst der Radius (Leuchtkraftklasse IV, Unterriese). Das ist quasi der umgekehrte Weg, den er bei seiner Entstehung auf dem Weg zur Hauptreihe genommen hat. Je kühler die Hülle wird, desto mehr steigt ihre Undurchlässigkeit für Strahlung, genannt Opazität, was die Konvektionszone nach innen wachsen lässt. Am Punkt C beginnt der Riesenast: der ineffiziente Wärmetransport durch die Konvektion sorgt für ein starkes Aufblähen der Sternhülle bei nur noch geringfügig fallender Temperatur: Der Stern folgt im HRD einer steilen Hayashi-Linie (Teil 3) nach oben und wird zum Roten Riesen.
Am Punkt D erreicht die Konvektionszone den inneren Bereich des Sterns, an dem vor dem Punkt B noch Kernfusion stattgefunden hatte und befördert somit Fusionsprodukte an die Oberfläche des Sterns, die dort im Spektrum auftauchen (genannt “dredge-up”, wörtlich “hochbaggern”). Gleichzeitig wird frischer Wasserstoff von oben in diese Zone gespült. Mit wachsender Masse des Heliumkerns und abnehmender Wasserstoffhäufigkeit wächst die Wasserstoffschale nach außen, kreuzt bei E die Zone frischen Wasserstoffs, was den Stern einen sehr kleinen (im obigen HRD nicht sichtbaren) Haken schlagen lässt.
Die Hülle des Sterns ist außen aufgrund des großen Radius kaum mehr durch Gravitation gebunden und der Stern beginnt, signifikant Masse durch Sternwinde zu verlieren – im Kippenhahn-Diagramm sieht man dies an der von 1 abweichenden dunklen Linie am oberen Bildrand, die den Außenrand des Sterns markiert. Die Wasserstoffschale verlagert sich zunehmend weiter nach außen, denn sie benötigt die Schwerkraft der darunter liegenden Masse, um genug Druck zur Fusion beibehalten zu können, die darüber liegende Masse reicht alleine nicht mehr aus. Die fusionierende Zone wird immer dünner, bis sie nur noch 1/1000 Sonnenmasse bei etwa 0,45 Sonnenmassen Radius ausmacht, die jedoch mit 2000 Sonnenleuchtkräften brennt. Der Massenverlust an der Oberfläche nimmt dramatisch zu und der Stern verliert fast 1/3 seiner Masse.
Am Punkt F ist die Spitze des Riesenasts bei rund 3000 Sonnenleuchtkräften und 50 Sonnenradien erreicht – hier ungefähr wird es dem inneren Sonnensystem bis zur Erde an den Kragen gehen, die bestenfalls aufgrund des Massenverlusts der Sonne gerade genug Abstand gewinnen kann, um nicht wie Merkur und Venus von der Sonne verschluckt zu werden. Trotzdem dürfte ihre Oberfläche aufschmelzen, aber Leben ist hier schon seit Milliarden Jahren nicht mehr möglich.
Der Heliumkern ist mit einer Tonne Masse pro Kubikzentimeter mittlerweile so stark komprimiert, dass die Elektronen in ihm entartet sind: das Pauli-Prinzip verbietet ihnen, im gleichen Quantenzustand den gleichen Raum zu teilen, und alle Quantenzustände sind im entarteten Elektronengas bereits besetzt, sodass eine weitere Kompression nicht mehr möglich ist. Im entarteten Zustand ist vor allem der Druck nicht mehr von der Temperatur abhängig. Aufgeheizt durch die ihn umgebende fusionierende Wasserstoffschale erreicht der Heliumkern schließlich 100 Millionen K, so dass die Heliumfusion zündet. Der sogenannte 3α-Prozess erhöht die Temperatur weiter, die den Kern aufgrund seiner Entartung jedoch nicht expandieren und abkühlen lässt; fast die gesamte Energie geht statt dessen in die Bewegung der Teilchen über, die umso heftiger fusionieren. Dies sorgt für einen galoppierenden Fusionsprozess, der binnen weniger Sekunden eine Leuchtkraft von 10 Milliarden Sonnen erreicht – der Heliumblitz. Davon dringt allerdings nichts nach außen, der kurze Energiestoß verpufft im Inneren des Sterns. Schließlich sorgt der Strahlungsdruck dafür, dass der Kern nicht mehr entartet ist und es setzt ein ruhigeres, kontinuierliches Heliumbrennen im Kern ein, bei dem Kohlenstoff und Sauerstoff erzeugt werden.
Der Kern expandiert, die Hülle schrumpft und so findet sich der Stern nach dem Heliumblitz am Punkt G bei deutlich weniger Leuchtkraft (ca. 100 Sonnenleuchtkräfte) und log T = 3,66 = 4500 K Oberflächentemperatur wieder. Die Leuchtkraft wird im Wesentlichen durch den Heliumkern bestimmt, und da dieser bei allen Sternen geringer Masse mit 0,45 Sonnenmassen gleich groß ist, bilden diese Sterne im HRD einen horizontalen Ast von gelich hellen Leuchtkraftklasse-III-Riesen verschiedener Oberflächentemperatur (siehe Leuchtkraftklassendiagramm in Teil 2). Wir sind nun am Punkt H des Entwicklungspfads.
Bei massiveren Sternen ist der fusionierende Kern konvektiv und gut durchmischt, so dass der Übergang zum Wasserstoff-Schalenbrennen abrupter verläuft. Zunächst lässt die Energieproduktion im Kern nach, so dass die Hülle des Sterns schrumpft und heißer wird. Im HRD bewegt sich der Stern nach der Rechtsdrift nun nach links oben, von B nach C. Wenn der Druck in der Schale um den Kern groß genug geworden ist, setzt im Punkt C das Schalenbrennen in einer sehr dicken Schale ein und die Hülle wächst wieder unter Abkühlung. So erklärt sich der Haken, den die Sterne ab 1,5 Sonnenmassen im HRD schlagen.
Den weiten Weg nach rechts von C nach D legen massive Sterne in wenigen Millionen Jahren zurück, wie im Kippenhahn-Diagramm zu sehen ist. Daher finden sich nur wenige Sterne in diesem Bereich des HRD, man spricht auch von der “Hertzsprung-Lücke”, die die Hauptreihe vom Riesenast trennt.
Der Heliumkern des Sterns ist nicht entartet, deswegen schrumpft er stetig, während er an Masse durch die Fusionsprodukte aus der Schale zulegt. Am Punkt D erreicht er das Schönberg-Chandrasekhar-Limit von ca. 10% der Masse des gesamten Sterns (nicht zu verwechseln mit der Chandrasekhar-Grenze zwischen Weißen Zwergen und Neutronensternen), oberhalb der er sein Gewicht nicht mehr tragen kann. Die Schrumpfung beschleunigt sich. Wenn der Kern schrumpft, wächst nach dem Spiegel-Prinzip die Hülle: der Stern wird größer, die Hülle kühlt ab und wird tief konvektiv, und somit beschreibt der Stern wieder eine Hayashi-Linie hinauf zum Punkt E wo er zum Roten Riesen wird. Wie bei den sonnenähnlichen Sternen kommt es zu einem ersten Dredge-Up. Im Zentrum zündet währenddessen an diesem Punkt bei 100 Millionen K die Heliumfusion, mangels Entartung des Kerns ohne Helium-Flash. Ihr Strahlungsdruck stoppt die weitere Schrumpfung des Kerns.
Die steigende Temperatur senkt wiederum die Opazität der Hülle, die somit wieder schrumpft. Der Stern wandert die Hayashi-Linie wieder abwärts bis zum Punkt F, an dem die Hülle komplett radiativ wird und die Bewegung im HRD wieder nach links zu höheren Temperaturen hin erfolgt.
Am Punkt G ist die maximale Temperatur erreicht: das Helium im Kern wird zunehmend rarer, der Kern muss schrumpfen, um den nötigen Druck aufrecht zu erhalten, infolgedessen die Hülle expandiert und kühler wird. Der Stern bewegt sich wieder zu geringeren Oberflächentemperaturen hin und beendet seine Schleife im Punkt H. Bei noch massiveren Sternen wird sie breiter, hin zu höheren Temperaturen. Die Lebensspanne in der Heliumschleife ist verhältnismäßig lang gemessen am kurzen Leben eines massereichen Sterns: sie bilden die Zone der hellen Riesen der Leuchtkraftklasse-II.
Von nun an ähnelt sich die Entwicklung von Sternen zwischen 0,5 und 10 Sonnenmassen wieder. Das Heliumbrennen im Kern kommt beinahe zum Erliegen, so dass die Sternhülle wieder abkühlt und tief konvektiv wird, während der Kern schrumpft. Der Stern wandert erneut eine Hayashi-Linie nach oben, die als asymptotischer Riesenast (englisch Asymptotic Giant Branch, AGB) bezeichnet wird (die Sterne entsprechend AGB-Sterne), weil sie sich dem Riesenast zu den Punkten F bzw. E annähert. Auf dem Weg zum höchsten Punkt zündet Helium in einer Schale um den Kern. Der Stern wird nun instabil und fällt in Pulsationen wie beim Stern Mira. Die Pulsationdauer von Mira beträgt ungefähr 500 Tage, in denen der Stern zwischen der Helligkeit der Sterne im Großen Wagen und Sichtbarkeit nur im Teleskop schwankt. Die Pulsationen werden von einer temperaturabhängigen Opazitätsvariation angetrieben, die bei Kontraktion und Aufheizung die Opazität erhöht, was zur Expansion und Abkühlung führt, wodurch die Opazität wieder abnimmt. Die Pulsationen beschleunigen den Masseverlust des Sterns.
Die Fusion im Sterninneren wird zunehmend instabiler; Wasserstoff- und Helium-Schalenfusion wechseln sich ab, verlöschen und zünden immer wieder (sehr massive Sterne schaffen es noch bis zur kurzzeitigen Fusion von Kohlenstoff in ihrem Kern). Dies erzeugt thermische Pulse im Abstand einiger tausend Jahre, die den Stern auf dem asymptotischen Riesenast auf und abwandern lassen. Es kommt zu weiteren Dredge-Ups, die Fusionsprodukte des Heliums, also Sauerstoff und Kohlenstoff, an die Oberfläche bringen, und die dort bei Temperaturen unter 3000 K Moleküle wie Titanoxid, Silikate, Wasser, Kohlenmonoxid und Kohlenstoffmoleküle bilden – man spricht von Kohlenstoffsternen, allesamt Rote Riesen. Beim langsamen Einfang von Neutronen können die Kerne schwerer Elemente gebildet werden, unter anderem radioaktives, im Vergleich zum Sternenleben kurzlebiges Technetium, dessen Entdeckung im Spektrum von Roten Riesen bewies, dass in den Sternen Kernfusion ablaufen muss.
Silikate und Kohlenstoff kondensieren unterhalb von 1500 K zu Graphitstaubkörnchen, die vom Sternwind in den Raum geblasen werden, und an denen flüchtige Stoffe wie Wasser oder Gase festfrieren können – Baumaterial für zukünftige Planetensysteme. Durch den enormen Masseverlust – Mira zieht eine regelrechte Schleppe hinter sich her – legt der Stern allmählich seinen Kern frei, an dessen Oberfläche unter hohem Gravitationsdruck und nach außen durch den Rest der Sternhülle wärmeisoliert noch Fusion stattfindet.
Je weniger Gas den Stern einhüllt, desto kleiner und heißer wird er: im HRD wandert er ganz nach links. Seine nun kräftige Ultraviolettstrahlung ionisiert das umgebende Gas und bringt es zum Leuchten. Der Stern umgibt sich mit einem Planetarischen Nebel.
Wenn die Hülle nur noch 1/100.000 Sonnenmasse hat, erlischt schließlich die Fusion. Von nun an leuchtet der Stern nur noch aufgrund seiner gespeicherten Wärme und kühlt allmählich ab. Mangels stabilisierendem Strahlungsdruck schrumpft der Helium-Kohlenstoff-Sauerstoff-Kern bis zur Entartung. Im HRD stürzt er dabei am linken Rand geradezu ab (während des Schrumpfungsprozesses, wird er als PNN, als Planetary Nebula Nucleus = Kern eines planetarischen Nebels geführt; der Zentralstern des im Titelbild abgebildeten Ringnebels befindet sich in dieser Phase) und endet unten links bei den Weißen Zwergen: nur erdgroße, aber 0,5 bis 1,4 Sonnenmassen schwere erloschene Kerne ehemaliger Riesensterne, die durch ihre Restwärme weißglühend, aber aufgrund ihrer winzigen Oberfläche nur sehr lichtschwach sind. Von dort werden sie langsam nach rechts unten im HRD abdriften, während sie allmählich auskühlen, bis sie als dunkle, “Schwarze Zwerge” enden – ein Prozess der so lange dauert, dass es noch kein solches Objekt im Universum gibt.
Schließlich noch ein paar Worte zu Sternen von mehr als 12 Sonnenmassen: diese lassen die Heliumschleife aus, sie sind so groß, dass sie äußerlich konvektiv bleiben und nur die Hayashi-Linie hochwandern in die Zone der roten Überrriesen. Ihre Kerne sind nie entartet und können mehrere Phasen von Kern- und Schalenbrennen durchlaufen: nach Helium-Schalenbrennen folgt Kohlenstoffbrennen im Kern und dann in einer Schale, dann Neonbrennen in Kern und später als Schale, Sauerstoffbrennen und schließlich Siliziumbrennen bei fast 3 Milliarden K im Sterninneren. Bei diesen Temperaturen zerlegen die energiereichen Gamma-Photonen viele Kerne wieder indem sie Heliumkerne herausschlagen (Photodissoziation). Durch den Einfang dieser Kerne können größere Kerne entstehen, bis hinauf zum Eisen.
So entsteht Im Kern eine Zwiebelstruktur aus geschichteten Elementen mit nach innen zunehmender Kernladungszahl. Nichts von diesen zunehmend kürzer andauernden Phasen (die letzte wird in Tagen bis Stunden gemessen) dringt nach außen. Bei Beteigeuze (ein Roter Überriese von rund 20 Sonnenmassen) ist zum Beispiel unklar, wieviel Zeit er noch vor sich hat, sein Innenleben ist unbekannt.
Noch massivere Sterne von 40 und mehr Sonnenmassen werden zu Blauen Überriesen und blasen dabei ihre Wasserstoffhüllen fort, unter denen heißere Schichten liegen, so dass sie sich im HRD nach links bewegen; bei den massivsten wird der Heliumkern freigelegt, sie haben keine Wasserstoff-Linien mehr im Spektrum (Wolf-Rayet-Sterne). Solche Sterne wandern im HRD ganz nach links oben.
Beim Anlagern von Alpha-Teilchen an Eisenkerne wird anders als bei den Fusionen leichterer Kerne keine Energie mehr frei, sondern im Gegenteil verbraucht. Dies führt am Ende des Siliziumbrennens zum Kernkollaps: der Strahlungsdruck erlischt, der Kern bricht unter seinem Eigengewicht zusammen und kann auch nicht mehr durch den Entartungsdruck der Elektronen stabilisiert werden: diese werden in die Atomkerne gedrückt und wandeln sich unter Aussendung von Neutrinos zu Neutronen. Damit fällt die elektrostatische Abstoßung der Kernteilchen weg und der Kern des Sterns kollabiert zu einem Neutronenstern, einer nur 30 km durchmessenden Kugel mit einer Dichte größer als die eines Atomkerns. Aufgeheizt durch die Neutrinos und den Rückprall der auf den Neutronenstern fallenden Sternhülle zündet diese explosiv die Kernfusion und der Stern erleidet eine Kernkollaps-Supernova (Typ II). Sterne zwischen 10 und 25 Sonnenmassen hinterlassen einen Neutronenstern als Rest, von noch massiveren bleibt ein Schwarzes Loch, oder sie explodieren ganz ohne Rest (Paarvernichtungs-Supernova).
Neutronensterne sind zu klein, um sichtbar zu sein (bestenfalls die Pulse des Krebsnebel-Pulsars können optisch mit Hochgeschwindigkeitskameras aufgenommen werden). Sie sind lediglich Quellen von Radio- und Röntgenstrahlung. Schwarze Löcher sind bekanntlich unsichtbar. Damit verabschieden sich diese Sterne aus dem Hertzsprung-Russell-Diagramm.
Die hier beschriebenen Entwicklungspfade der Sterne wurden durch Computersimulationen bestimmt, die mit Sternen verschiedener Massen und Alter im Hertzsprung-Russell-Diagramm abgeglichen werden konnten. Fast alle Kapriolen, die die Sterne darin vollführen, lassen sich so erklären und dies zeigt, dass wir die Sternentwicklung im Wesentlichen verstanden haben. Dem Hertzsprung-Russell-Diagramm verdanken wir also nicht nur die Kenntnis über den aktuellen Zustand eines Sterns, sondern auch über seine Zukunft und Vergangenheit. Das Hertzsprung-Russell-Diagramm ist das Universalwerkzeug der Astronomie schlechthin und ohne Zweifel das wichtigste Tool zum Verständnis der Sterne überhaupt. Ich hoffe, es den Lesern ein wenig näher gebracht zu haben.
Tatsächlich ist es für einen einzelnen Stern extrem schwierig, sein Alter zu bestimmen; man kann bestenfalls aus seiner Metallizität (als dem Gehalt an Elementen, die in Sternen erst entstehen) und insbesondere dem Gehalt an Lithium (das in Sternen abgebaut wird) ein grobes Alter schätzen: das Äußere der meisten Sterne ist chemisch unverändert seit ihrer Entstehung und ihre Metallizität ist somit ein Abbild derjenigen des Gases, aus dem sie einst entstanden; dessen Metallizität hängt wiederum davon ab, wie lange frühere Sterngenerationen Zeit hatten, es mit Metallen anzureichern.
Ganz anders sieht das bei Sternhaufen aus, die sich mit Hilfe ihres Hertzsprung-Russell-Diagramms sehr gut datieren lassen, denn Sterne unterschiedlicher Masse und damit Spektralklasse entwickeln sich unterschiedlich schnell. Wie schnell sie das tun, lässt sich wiederum sehr gut modellieren: den weitaus größten Teil ihres Lebens verbringen die Sterne auf der Hauptreihe, während sie Wasserstoff in ihrem Inneren zu Helium fusionieren. Dabei verändern sie sich kaum: dass sie auf der Hauptreihe (bzw. in deren Nähe) bleiben, bedeutet nichts anderes, als dass ihre Größe und ihre Temperatur konstant bleiben. Dies bedeutet, dass auch in ihrem Inneren stabile Verhältnisse herrschen müssen: Druck, Temperatur, an der Fusion teilnehmendes Volumen und die Fusionsprozesse (für Wasserstoff gibt es deren zwei mit unterschiedlicher Effizienz in Abhängigkeit von der Temperatur: Proton-Proton-Kette und CNO-Zyklus) ändern sich nicht.
Somit kann man errechnen, wie lange der Stern auf der Hauptreihe leuchtet: aus der abgestrahlten Leistung folgt, wieviel Wasserstoff pro Sekunde verbrannt wird; die Größe des an der Fusion teilnehmenden Volumens kann man aus den Druck- und Temperaturverhältnissen im Inneren abschätzen, die sich aus der Masse und Größe des Sterns, dem mit der Tiefe ansteigenden hydrostatischen (Gewichts-) Druck und der vom Stern abgestrahlten Leistung errechnen lassen.
Die Lebensdauer τMS eines Sterns der Masse M auf der Hauptreihe beträgt ungefähr
τMS = 1010 · (M/M☉)-2,5 Jahre
wobei M☉ die Sonnenmasse ist, wobei die Formel für sehr massereiche Sterne nicht mehr ganz passt, aber bis 10 Sonnenmassen gut funktioniert. Für eine Sonnenmasse ergibt sich also eine Verweildauer von 10 Milliarden Jahren. Genauer modelliert sieht die Verweildauer auf der Hauptreihe graphisch so aus:
Angenommen, man hat nun einen Mix aller möglichen Sterntypen, wie sie in einem Sternhaufen auftreten und betrachtet dessen HRDs für verschiedene Alter. Dann wird die Hauptreihe von den massereichsten Sternen beginnend von links oben zunehmend abgeräumt, denn je massereicher, desto früher endet die Zeit auf der Hauptreihe. Die Sterne entwickeln sich dann nach rechts oder rechts oben (kühler, steigende Leuchtkraft ⇒ sie werden zu Riesen). Die Hauptreihe biegt also mit wachsendem Alter zunehmend weiter unten nach rechts zu den Riesen hin ab. Man bezeichnet die Kurve, entlang der sich die Sterne in einem Sternhaufen reihen, als Isochronen, also Linien gleichen (iso=gleich) Sternalters (chronos=Zeit). Theoretische Isochronen sehen wie folgt aus:
Die Kapriolen rechts oben möge man für den Augenblick ignorieren, wir kommen noch darauf zurück. Die dunkelblaue Kurve zeigt die Isochrone für 5 Millionen Jahre. Im oberen Bereich des HRD sind die massereichsten Sterne schon zum Riesenast abgebogen (die massivsten sind sogar schon wieder auf dem Weg nach links, wo sie als “blaue” Supernovae enden wie der blaue Überriese Sanduleak -69° 202a, der 1987 als die berühmte Supernova in der Großen Magellanschen Wolke explodierte), während masseärmere Sterne bis ca. 10.000 K hinunter die Hauptreihe bilden. Unterhalb von 10.000 K liegt die Kurve (noch) oberhalb der Hauptreihe: diese Sterne haben nach ihrer Entstehung die Hauptreihe noch gar nicht erreicht (siehe unten). Der Punkt, wo die Hauptreihe verlassen wird, heißt Turn Off Point (TOP).
Die orangefarbene Kurve entspricht der Isochrone für 20 Millionen Jahre. Der Turn Off Point liegt schon deutlich tiefer auf der Hauptreihe, und Sterne bis hinunter zur Sonnenmasse haben die Hauptreihe erreicht; leichtere Sterne stehen kurz vor der Hauptreihe. Die orangefarbene Isochrone endet oben rechts: dort befindet sich derzeit Beteigeuze, der kurz vor seinem Ende als rote Supernova steht.
Die violette Isochrone entspricht einem Alter von 10 Milliarden Jahren. Der Turn Off Point liegt just bei der Temperatur (ca. 6000 K) und Leuchtkraft (100=1) der Sonne: die Sonne wird nach 10 Milliarden Jahren von der Hauptreihe abbiegen.
Alle Theorie ist grau (auch in bunten Diagrammen!) – wie sehen die Hertzsprung-Russell-Diagramme echter Sternhaufen aus? Hier einige Beispiele verschiedenen Alters:
Man kann also mit Hilfe des Hertzsprung-Russell-Diagramms Sternhaufen anhand des Turn Off Points sehr genau datieren. Aus Sternhaufen lernt man umgekehrt, wie sich Sterne vor und nach der Hauptreihenphase entwickeln, denn für alle Haufensterne kennt man ihr Alter sehr genau.
Im folgenden Bild sind zunächst die Linien der Vorhauptreihensterne (auch Protosterne genannt) von der sogenannten “Geburtslinie”, an der sie zuerst im HRD auftauchen (dünne schwarze Linie oben) bis zur “Nullalter-Hauptreihe” (Zero Age Main Sequence, ZAMS; untere dünne schwarze Linie) zu sehen:
Man erkennt, dass die leichteren Sterne sich im Diagramm senkrecht nach unten entwickeln (d.h. bei gleicher Oberflächentemperatur schrumpfen), während die massereichsten sich nach links entwickeln (d.h. bei gleicher Leuchtkraft heißer werden). Die Sterne in der Mitte bewegen sich zuerst nach unten und dann nach links. Die senkrechten Anteile der Entwicklungspfade werden Hayashi-Linien genannt, die waagerechten Henyey-Linien.
Wenn sich das Gas zu einem Stern formt, ist es zunächst transparent und die bei der Kompression entstehende Wärme kann ungehindert als Infrarotlicht entweichen; das Gas kann ungehindert einfallen, so dass der Stern schnell wächst. Sobald er heiß genug geworden ist, dass er ein Plasma bildet (also die Atome ihre Elektronen verlieren), wird das Gas für Strahlung undurchlässig (opak), weil die freien Elektronen alle Lichtwellenlängen absorbieren und streuen können, und somit wird die weitere Kontraktion stark verlangsamt, da die Strahlung mit dem Gas wechselwirkt – es bildet sich ein hydrostatisches Gleichgewicht zwischen dem Gewicht des Gases und dem nach außen wirkenden Strahlungsdruck. Der Stern wird jetzt auch im Diagramm sichtbar, denn er bläst das Gas aus seiner Umgebung fort und befreit sich aus seinem Geburtsnebel, der ihn zuvor verbarg – er taucht an der Geburtslinie auf. Diese Phase nennt sich nach dem Prototypenstern T-Tauri-Phase: der Stern ist noch von einfallendem Gas umgeben, welches eine Akkretionsscheibe um ihn bildet, die sogar einen Jet ausbilden kann (siehe Titelbild), ganz ähnlich wie bei einem Schwarzen Loch, wenn auch weniger violent.
Der Stern hat dabei noch nicht mit der Fusion begonnen, sondern er leuchtet nur aufgrund seiner Kontraktion, die Gravitationsenergie via Kompression in Wärme umwandelt. Er muss also schrumpfen, um Energie zu erzeugen. Der Wärmetransport erfolgt relativ ineffizient über Konvektion, also einer Umwälzung des von innen aufsteigenden heißen Plasmas und absinkenden kühlen Gases. Deswegen bleibt das Äußere des Sterns in etwa auf der gleichen Temperatur, während er schrumpft. Die Flächenhelligkeit, die von der Temperatur abhängt, bleibt also konstant, die leuchtende Fläche wird kleiner – somit wandert er im HRD senkrecht nach unten. Sterne unter 0,5 Sonnenmassen bleiben ihr ganzes Leben lang konvektiv, daher verlaufen ihre Hayashi-Linien bis zur Hauptreihe, wo die Wasserstofffusion zündet und ein weiteres Schrumpfen durch diese neue Energiequelle verhindert.
Bei Sternen von mehr als 0,5 Sonnenmassen nimmt die Temperatur und damit die Energie der Photonen im Inneren soweit zu, dass freie Elektronen die harten Photonen kaum mehr streuen können. Somit entwickelt sich vom Zentrum aus eine sich ausbreitende “radiative” Zone, in der die Wärme viel effizienter durch Strahlung als zuvor durch Konvektion transportiert werden kann. Der äußerlich erhöhte Strahlungsdruck verlangsamt die Schrumpfung. Dies heizt den Stern außen auf. Bei massiven Sternen erreicht die radiative Zone sogar die Oberfläche. Die Überlagerung der Aufheizung (Flächenhelligkeit steigt) und der Schrumpfung (Oberfläche verkleinert sich) führt zu einer waagerechten Bewegung nach links im Diagramm entlang einer Henyey-Linie: die Helligkeit bleibt konstant, aber die Temperatur steigt. Massive Sterne entwickeln sich so schnell, dass sie die Henyey-Linie schon erreicht haben, wenn sie sich aus dem Geburtsnebel schälen und sie bewegen sich dann gleich nach links im Diagramm. Wenn sie die Hauptreihe erreichen, endet auch hier mit dem Einsetzen der Wasserstofffusion zunächst die Wanderung durch das Diagramm und es kehrt ein stabiler Zustand ein, das Wasserstoffbrennen auf der Hauptreihe.
Wie es dem Stern dann im weiteren Leben ergeht, hat dann doch nicht mehr in diesen dritten Teil gepasst, deswegen wird es noch einen vierten geben.
Auf der x-Achse haben wir also die Oberflächentemperatur der Sterne. Diese kann entweder direkt in Kelvin oder in Form der Spektraklasse, sowie auch als Farbe angegeben werden. Spektralklassen werden nach dem Harvard-System von O bis M mit dezimaler Unterteilung angegeben. Die Temperaturskala reicht dabei von 2500 K für M9.5 (die Klassen L, T und Y für Braune Zwerge, die im Wesentlichen im Infraroten leuchten, mal außen vor gelassen) bis O2 mit ca. 55.000 K. Hier gibt es eine schöne Tabelle, die auch viele Dezimal-Zwischenwerte enthält. Unsere Sonne hat den Typ G2, entsprechend 5800 K. Die Unterteilung der Spektralklassen erfolgt hauptsächlich aufgrund der vorhandenen Spektrallinien. Bei Riesen und Zwergen sind die Temperaturen der gleichen Spektralklassen ein wenig verschieden.
Die angegebene Temperatur ist nicht exakt diejenige, die ein Thermometer auf dem Stern ergeben würde, sondern die Effektivtemperatur, die derjenigen eines idealen Temperaturstrahlers (“Schwarzer Körper”) entspricht, der die gleiche Leistung abstrahlt. Sterne sind nur annähernd Temperaturstrahler (ein Temperaturstrahler hat z.B. keine Spektrallinien).
Das Hertzsprung-Russell-Diagramm mit der Spektralklasse auf der x-Achse ist die klassische Form. Die Abstufung ist in der Temperatur nahezu logarithmisch: die Temperaturstufen wachsen von M5 zu K5, K5 zu G5, G5 zu F5 und F5 zu A5 mit den Faktoren 1,375, 1,286, 1,18, 1,24, also mit annähernd konstantem Faktor. Danach wird der Faktor mit 1,7 zu B5 und 3,55 zu O5 allerdings viel größer, weil sich im Spektrum bei den hohen Temperaturen nicht mehr viel verändert. Wird die Temperatur auf der x-Achse aufgetragen, so spricht man auch vom L-T-Diagramm (L für Leuchtkraft, T für Temperatur). Das Aussehen der Diagramme ist sehr ähnlich, nur sind die Spektralklassen O und B ein wenig gestaucht (und M etwas gestreckt), wenn man sie neben der Temperatur logarithmisch aufträgt (siehe übernächstes Bild).
Eine dritte Möglichkeit zur Angabe der Temperatur ist die Farbe des Sterns. Nun hat etwa Sonnenlicht keine eindeutige Farbe – zwar gibt es eine Farbe im Bereich des Grünen bei 550 nm Wellenlänge, bei der die Ausstrahlung maximal ist, aber deswegen strahlt die Sonne noch lange kein grünes Licht aus. Wie jeder Regenbogen beweist, der das Sonnenlicht nach Wellenlängen sortiert, besteht Sonnenlicht aus einem Gemisch aller möglichen Wellenlängen. Die eigentliche Farbe des Sonnenlichts ist diejenige, die ein weißes Objekt im Sonnenlicht hat (die Sonne darf dabei nicht zu tief stehen und den blauen Himmel als Lichtquelle schattet man am besten weitgehend ab), und das ist ziemlich reines Weiß, wobei unser visuelles auch extreme Farbunterschiede wegkompensiert (wie dieses berühmte Bild von reifen Erdbeeren verdeutlicht, das kein einziges rotes Pixel enthält). Dennoch sind Farbunterschiede von Sternen deutlich sichtbar, wenn man benachbarte verschiedenfarbige Doppelsterne vergleicht.
Wie also messen die Astronomin und der Astronom verschiedene Farben? Indem sie die Helligkeit des Sterns durch zwei normierte Farbfilter, meist B (für Blau) und V (für visuell – das Filter ahmt die spektrale Empfindlichkeit des Auges mit einem Maximum im Grünen nach) aus dem Johnson-System messen, und die Differenz der Helligkeiten bilden – einen sogenannten Farbindex. Astronomische Helligkeiten sind eindeutig definiert, man kann den Wert exakt bestimmen, und die Sonne hat zum Beispiel B-V = 0,65. Die Größenklasse im Blauen ist also größer als die im Visuellen, und da astronomische Helligkeiten rückwärts zählen (größerer Wert = dunkler, kleiner Wert = heller) ist die Sonne mithin im Visuellen heller als im Blauen und damit ein wenig gelblich (sie ist ein gelber Zwergstern nach Definition der Astronomen). Seltener wird der Index U-B verwendet, Ultraviolett minus Blau. Die Spektralklasse A0 ist übrigens das Kalibriermaß für die UBV-Helligkeiten: ein A0-Zwergstern hat U=B=V und damit U-B = B-V = 0, er gilt als reinweiß. Ein HRD mit dem Farbindex auf der x-Achse heißt auch Farb-Helligkeits-Diagramm.
Auf der y-Achse werden (untereinander direkt vergleichbare) Leuchtkräfte der Sterne abgebildet. Wie im letzten Artikel gesehen üblicherweise die absolute Helligkeit (bezogen auf eine Normentfernung von 10 pc), bei Sternhaufen mit gleich weit entfernten Sternen gerne auch einmal die scheinbare Helligkeit (wenn die Entfernung nicht bekannt ist, oder wenn man einfach die gemessenen Werte verwenden will, ohne an ihnen herum zu rechnen), oder auch die Leuchtkraft in Sonnenleuchtkräften oder gar der fürchterlichen SI-Einheit Watt (fürchterlich, weil eine Sonnenleuchtkraft 385 Quadrillionen Watt sind – alles klar?). Da die Größenklassenskala exponentiell ist (jede Größenklasse ist 100,4 = 2,511886… Mal heller als die nächstgrößere, 5 Größenklassen machen exakt einen Faktor 100 aus, 10 einen Faktor 10.000), kommen an der Oberkante des Diagramms ungefähr eine Million Sonnenleuchtkräfte zusammen, während es am unteren Ende bis zur Unsichtbarkeit der Braunen Zwerge geht, deren Leuchtkraft in zehntausendstel Sonnenleuchtkräften gemessen wird. Die Leuchtkraftachse in absoluter Helligkeit ist also logarithmisch, denn die lineare Größenklassenskala entspricht exponentiell wachsenden Leuchtkräften. Wird die Leuchtkraft in Sonnenleuchtkräften oder Watt angegeben, wählt man wegen des riesigen Wertebereichs auch eine logarithmische Skalierung.
Die Leuchtkraft eines Sterns wird von zwei Größen bestimmt: seiner Oberfläche und seiner Temperatur. Die Oberfläche (wie auch die sichtbare Querschnitttsfläche) skaliert mit dem Quadrat des Radius. Ein Stern mit doppeltem Radius hat die vierfache leuchtende Fläche und strahlt bei gleicher Temperatur folglich viermal heller. Die abgestrahlte Leistung hängt wiederum nach dem Strahlungsgesetz von Stefan und Boltzmann mit der 4. Potenz von der Temperatur ab. Die Leuchtkraft wächst also gemäß
L ∼ R2 ⋅ T4
Das Proportionalitätszeichen ∼ bedeutet, dass ein konstanter Faktor der Einfachheit halber weggelassen wurde. Das HRD ist normalerweise logarithmisch in der Leuchtkraft-Achse und, wie oben beschrieben logarithmisch in der Temperaturachse und “annähernd logarithmisch” in der Spektralklasse. In logarithmischen Größen kann man obige Gleichung schreiben als:
log L ∼ log R2 + log T4 = 2 log R + 4 log T
Wenn man die Temperatur um einen bestimmten Faktor erhöht, geht man auf der logarithmischen Temperaturachse einen bestimmten Schritt (Betrag von Zehnerpotenzen) weit nach links; eine Verdopplung der Temperatur erhöht log T zum Beispiel um ca. 0,3 Zehnerpotenzen (100,3 =1,995..). Der Summand 4 log T in der Gleichung erhöht sich also um 1,2, das heißt der Logarithmus der Leuchtkraft nimmt bei unverändertem Radius um 1,2 Zehnerpotenzen zu, das entspricht einem Faktor 101,2 = 15,84 und das sind genau 3 Größenklassen mehr Helligkeit (2,5 · log (15,84) = 3). Wir haben es also im doppelt logarithmischen Diagramm mit einer linearen Beziehung zwischen Temperatur und Helligkeit in Größenklassen zu tun, wenn der Radius konstant ist. Deswegen bilden die Linien gleichen Radius’ parallele Diagonalen im HRD.
Hält man die Temperatur fest und erhöht den Radius um einen bestimmten Faktor, etwa 10, dann nimmt 2 log R um 2· log 10 = 2 zu und damit die Leuchtkraft um den Faktor 10²=100, das sind 5 Größenklassen. Der Abstand der Diagonalen für den zehnfachen Radius beträgt also 5 Größenklassen oder 2 Zehnerpotenzen in der Leuchtkraft.
Durch das Diagramm zieht sich quer von rechts unten nach links oben die Hauptreihe. Durch Messungen der Umlaufzeiten von Doppelsternen weiß man, dass die Masse der Sterne von M unten rechts zu O oben links stetig zunimmt. M9.5-Sterne liegen bei 0,08 Sonnenmassen, O2-Sterne bei über 100. Und das ist das entscheidende Merkmal eines Hauptreihensterns. Sterne sind ziemlich einfach gestrickt, große Gasbälle mit 75 Massenprozent Wasserstoff, 25% Helium und nur Spuren von schwereren Elementen, mit denen Sterne früherer Generationen das interstellare Gas kontaminiert hatten, die aber für die Position des Sterns im HRD kaum eine Rolle spielen. Eine bestimmte Menge dieses Gases, die sich zu einem Stern geformt hat, produziert im Zentrum einen ganz bestimmten Druck bei einer definierten Dichte und Temperatur, die sich durch die Kompression des kollabierten Gasballs ergibt. Wenn die Wasserstofffusion gezündet hat – und es zündet immer zunächst nur die Wasserstofffusion, weil die die geringsten Druck- und Temperaturwerte zur Zündung benötigt, heizt sich das Innere des Sterns noch etwas auf. Am Ende muss er außen genau so viel Wärme abstrahlen, wie er im Inneren produziert, es stellt sich ein “hydrostatisches Gleichgewicht” zwischen dem Gewicht der Sternenmasse und dem Druck der Strahlung aus dem Inneren ein. Im Gleichgewicht hat ein Stern einer bestimmten Masse einen ganz bestimmten Radius, der sich durch das Eigengewicht des Gases und den Druck der Strahlung ergibt. Daraus folgt eine zugehörige abstrahlende Oberfläche (4πR² für den Radius R), sowie eine ganz bestimmte Temperatur, bei der die gegebene Oberfläche exakt die Leistung abstrahlt, die von innen nachgeliefert wird. So ergibt sich die Hauptreihe als Massereihe der Wasserstoff fusionierenden Sterne im Diagramm.
Wir haben schon im ersten Teil gesehen, dass nicht alle Sterne auf der Hauptreihe liegen. Nach oben rechts zweigt der Riesenast ab. Da oben rechts im Diagramm die Sternradien zunehmen, haben wir es hier mit zum Teil sehr großen Sternen zu tun. Wie sie dahin kommen, betrachten wir im nächsten Teil. Hier nur soviel: Auch hier gilt, dass die Sterne nach oben im Diagramm im Allgemeinen massiver werden, aber die Linien gleicher Massen sind hier ziemlich kompliziert und die Sterne drehen während ihrer Entwicklung zum und als Riese einige Kapriolen im Diagramm. Generell befinden sich ganz oben die Riesen der größten Massen, die wegen ihrer immensen Größen auch als Überriesen bezeichnet werden. Wir reden hier von 1000 Sonnenradien und mehr – ins Sonnensystem versetzt würden solche Sterne bis zur Jupiter- oder Saturnbahn reichen (10 bis 20 AE oder 1,5 bis 3 Milliarden Kilometer Durchmesser).
Riesen, die aus Sternen von ungefähr Sonnenmasse hervorgehen, werden nur etwa 200 Sonnenradien groß, das ist so groß wie die Erdbahn, 2 AE oder 300 Millionen km Durchmesser. Man redet hier von normalen Riesen. Sterne von weniger als einer halben Sonnenmasse, das sind genau die Roten Zwerge der Spektralklasse M, werden überhaupt nicht zu Riesen, sie brennen einfach weiter auf der Hauptreihe und schrumpfen dabei allmählich zu Weißen Zwergen zusammen. Rote Zwerge haben es im heutigen Universum allerdings (mit wenigen “unmöglichen” Ausnahmen) noch nicht bis zum Weißen Zwerg bringen können, dazu brennen sie zu langsam. Der normale Weg zum Weißen Zwerg führt für einen Stern über 0,5 Sonnenmassen über das Riesenstadium, dem Abstoßen der äußeren Hülle als “Planetarischer Nebel” und dem Verbleib des erdgroßen Kerns als Weißer Zwerg. Diese finden sich bei hoher Temperatur, kleinen Radien (rund 1/100 Sonnenradius) und geringer Leuchtkraft links unten im Diagramm wieder, diagonal gegenüber den Riesen.
Da es viel mehr kleine als große Sterne gibt (alleine 76,5% aller Sterne sind M-Zwerge, weniger als 1% sind Klasse A oder heißer und nur 0,00003% sind O-Sterne – die man jedoch am weitesten sehen kann, was ihren Anteil am Himmel etwas überproportioniert), gibt es auch viel mehr normale Riesen als Überriesen.
William W. Morgan, Edith Kellman und Philip C. Keenan vom Yerkes-Observatorium haben 1943 die verschiedenen Leuchtkraft der Sterne in Klassen unterteilt (MK, MKK oder Yerkes-Klassifikation), die heute folgendermaßen im Gebrauch ist:
Wie im ersten Teil der Serie bereits erwähnt, lassen sich Riesen und Zwerge auch bei unbekannter Entfernung gut voneinander anhand ihrer Spektren unterscheiden. Riesensterne haben sehr dünne, ausgedehnte Atmosphären, in denen Atome viel seltener kollidieren als in den dichten Atmosphären der Zwerge. Die angeregten Elektronen können daher ihren Rückfall in den Grundzustand ungestörter durchführen als im Chaos der Zwergenatmosphären, wo Kollisionen der Atome die Quantensprünge der Elektronen verfrüht auslösen, was für kurzlebige angeregte Zustände sorgt. Wenn das Elektron selbst “entscheiden” kann, wie lange es im angeregten Zustand verbringt, ist wegen der Heisenbergschen Unschärferlation, die neben der bekannte Orts-Impuls-Unschärfe auch eine Energie-Zeit-Unschärfe bedingt, die Verweildauer im angeregten Zustand sehr unscharf und umso schärfer die ausgestrahlte Wellenlänge des Lichts. In der Atmosphäre eines Zwergsterns ist die Lebensdauer des angeregten Zustands hingegen kurz und somit schärfer definiert, so dass die ausgestrahlte Wellenlänge entsprechend unschärfer erscheint.
Astronomen können anhand der Linienbreite die Schwerkraft an der Sternenoberfläche abschätzen und geben meistens deren Logarithmus (Zehnerpotenz) im Zentimeter-Gramm-Sekunden-System (cgs) an. Die Erdschwerebeschleunigung ist 9,81 m/s², das sind g=981 cm/s² oder log g = 3 (genauer: 2,99167). Für die Zwerge der Klasse V beträgt log g ≈ 4,5, für Unterriesen Klasse IV ist log g ≈ 3, für Riesen Klasse III ca. log g ≈ 1,5, für helle Riesen Klasse II ungefähr log g ≈ 0,5 und für Überriesen Klasse I ist log ≈ -0,5, nur ca. ein Dreitausendstel der Erdgravitation. Somit kann man auch ohne Kenntnis der Leuchtkraft und Entfernung die Leuchtkraftklasse aus dem Spektrum ablesen und den Stern an der richtigen Stelle im HRD verorten. Dies ist bei den vielfältigen Riesen allerdings mit mehr Unsicherheit verbunden als bei den Zwergen.
Kennt man die Position des Sterns im HRD, dann kennt man seine Temperatur und Radius, daraus folgt seine Leuchtkraft und zusammen mit der scheinbaren Helligkeit seine (genauere) Entfernung. Genau so kann man die Entfernung von Sternen bestimmen, die für eine Parallaxenmessung zu weit entfernt sind (dank Gaia sind das heute nur wirklich ferne Sterne, aber ich habe noch erlebt, dass bei 100 pc Schluss war mit der Parallaxenmessung, und da war der Fehler schon enorm). Genau so wurden die Entfernungen und Durchmesser der von Kepler beobachteten Sterne bestimmt, und aus deren Durchmesser und Fläche folgerte man die Transitgeschwindigkeit und den Durchmesser der von Kepler beobachteten Planeten. Denn wenn ein Planet 1% des Sternenlichts abschattete, musste er 1% des Sternquerschnitts, also 10% des Sterndurchmessers haben, den man wissen muss, um die Größe des Planeten anzugeben. Und aus der Größe und der Masse, die wiederum über das Wackeln des Sterns durch die Unwucht des umlaufenden Planeten erzeugt wird, folgt die Dichte des Planeten, aus der wir folgern können, ob er massiv ist oder große Mengen flüchtiger Stoffe enthält. Ohne HRD wüssten wir von keinem einzigen Exoplaneten, wie groß er ist und hätten keinerlei Hinweis darauf, wie er aufgebaut ist!
Dies zeigt die Mächtigkeit des HRDs für die Charakterisierung der Sterne. Doch wir können noch mehr aus dem HRD lernen, nämlich wie sich die Sterne entwickeln und wie alt sie werden. Dazu mehr im dritten und (voraussichlich) letzten Teil.
Hin und wieder habe ich in meinen Artikeln von einem “Farb-Helligkeits-Diagramm” gesprochen, nur um den Fachbegriff und seine Erläuterung zu umschiffen. Es geht dabei um das Diagramm vom Dänen Ejnar Hertzsprung und vom Amerikaner Henry Norris Russell, die es Anfang des 20. Jahrhunderts erdachten. Bis heute ist es das wohl wichtigste Universalwerkzeug in der Astronomie, ohne das wir beispielsweise keinerlei Idee davon hätten, wie weit Feldsterne von uns entfernt sind, wie groß die mit der Transit-Methode entdeckten Exoplaneten sind und wie sie zusammengesetzt sind. Eigentlich sollte es nur ein kurzer Artikel werden, aber das Diagramm ist so bedeutend und vielschichtig, dass es für eine kleine Serie gereicht hat – ich denke, es werden drei Teile werden. Im heutigen ersten Teil stelle ich den Ursprung des Diagramms vor.
1910 untersuchte der Astronom Hans Rosenberg den Sternhaufen der Plejaden. Dieser im Sternbild Stier gelegene, hübsch anzusehende Sternhaufen enthält neben den mit bloßem Auge sichtbaren “7 Schwestern” noch hunderte schwächere Sterne. 1910 veröffentlichte der deutsche Astronom Hans Rosenberg in den “Astronomischen Nachrichten” einen kurzen Artikel, in dem er ein Diagramm der hellsten Sterne der Plejaden vorstellte, in welchem er die scheinbare, also am Himmel beobachtete Helligkeit der Sterne über einer selbst erdachten Skala auftrug, entlang derer er die Auffälligkeit einer Linie des Elements Kalzium relativ zu zwei benachbarten Wasserstofflinien auftrug. Die Linienstärke der Kalziumlinie nimmt auf der x-Achse von rechts nach links ab (Details siehe unter dem Bild).
Dies wird durch eine zunehmende Temperatur verursacht, denn Kalzium verliert bei steigender Temperatur seine äußeren Elektronen früher als Wasserstoff und verblasst im Spektrum.
Damit konnte Rosenberg zum Einen überzeugend belegen, dass die verschiedenen Farben der Sterne nicht durch verschieden starke Absorption von unterschiedliche starken Schichten interstellaren Staubes zwischen dem Beobachter und den Sternen verursacht werden, der blaues Licht stärker absorbiert als rotes. Die Stärke der Kalziumlinie war ein von der Farbe unabhängiges Maß der Temperatur, und die variierte für Sterne unterschiedlicher Farbe. Zum anderen zeigte sich, dass die Sterne nicht wild durch das Diagramm streuen, sondern die meisten Sterne sich entlang einer schmalen Linie reihen, die mit zunehmender Temperatur zu höheren Helligkeiten hin ansteigt. Blaue Sterne sind im Allgemeinen viel heller als rote. Rosenberg hatte klugerweise einen Sternhaufen ausgewählt, in dem sich viele verschiedene Sterne in der gleichen Entfernung zur Erde befinden, so dass ihre Helligkeiten untereinander vergleichbar sind. Die scheinbar helleren Sterne sind also im Sternhaufen auch die tatsächlich helleren.
Den Luxus der direkten Vergleichbarkeit hat man bei einzelnen Feldsternen allerdings nicht. Um Sternhelligkeiten in verschiedenen Entfernungen dennoch vergleichbar zu machen, führten die Astronomen das Maß der absoluten Helligkeit ein: bei bekannter Entfernung errechnet man zur beobachteten scheinbaren Helligkeit diejenige Helligkeit, die der Stern in einer bestimmten Normentfernung haben würde. Heute sind 10 pc (32,6 Lichtjahre) üblich, wobei ein pc (auch parsec, Parallaxensekunde) die Entfernung ist, bei der ein Stern sich aufgrund seiner perspektivischen Verschiebung vor dem Hintergrund um eine Bogensekunde (1″) verschiebt, wenn die Erde sich auf ihrer Bahn um die Sonne aus der Perspektive des Sterns um eine Astronomische Einheit zur Seite bewegt (nach einem halben Umlauf hat sie sich um ca. 2 AE bewegt, den Durchmesser ihrer Bahn). Wenn sich der Stern nur 0,1″ verschiebt, ist er 10 pc entfernt; allgemein gilt, dass die Entfernung in pc = 1/Parallaxe in Bogensekunden ist.
Kennt man die absolute Helligkeit eines Sterns, dann kann man seine (visuelle) Leuchtkraft direkt mit derjenigen anderer Sterne vergleichen. “Visuell” ist wichtig, weil sehr rötliche Sterne einen großen Teil ihrer Leistung als unsichtbares Infrarotlicht abstrahlen; gleiches tun sehr blaue Sterne im Ultravioletten. Diese Sterne sind also über alle Lichtfarben gemessen deutlich leuchtkräftiger, als ihr sichtbares Licht erschließen lässt. Die Sonne hat eine absolute Helligkeit von 4,8m (m steht für Magnituden = Größenklassen), das ist etwa die Helligkeit des Reiterleins Alkor, dem kleinen Begleitstern des mittleren Deichselsterns im Großen Wagen. Capella im Fuhrmann hat eine absolute Helligkeit von 0,3, das sind 4,5m heller, gleichbedeutend mit einem Faktor 63*. Beteigeuze im Orion hat eine absolute Helligkeit von -5,9m, das sind 10,7 Größenklassen weniger (die Größenklassenskala zählt rückwärts, kleiner ist heller!) als die Sonne entsprechend einer um den Faktor 19.000 höheren Helligkeit.
Ejnar Hertzsprung war schon im Jahr 1908 aufgefallen, dass einige Sterne trotz gleicher Farbe und damit Temperatur sehr verschiedene Leuchtkräfte haben: 61 Cygni und Aldebaran haben die gleiche Farbe und damit Temperatur, aber obwohl 61 Cygni nur 5. Größenklasse hat, ist er seiner Parallaxe gemäß nur 1/6 so weit entfernt wie Aldebaran, der 4 Größenklassen (Faktor 40) heller erscheint. Bei gleicher Entfernung wäre 61 Cygni nur (1/6)² = 1/36 so hell, das wären 3,9 Größenklassen schwächer, 9,9m, nur 1/1440 der Helligkeit von Aldebaran.
Da Hertzsprung nicht die Parallaxen ferner, leuchtkräftiger Sterne kannte, orientierte er sich statt dessen an den Eigenbewegungen der Sterne, also den Winkeln, um die sich die Sterne aufgrund ihrer Bewegung durch den Raum über die Jahre in der Himmelsebene verschieben. Je kleiner die Eigenbewegung, desto größer sollte die Entfernung sein. 1911 fertigte er dann seine eigene Version des Diagramms an, wobei seine Darstellung gegenüber der von Rosenberg um 90° nach links gekippt erscheint:
Wie man auch in diesem Diagramm erneut sieht, reihen sich die meisten Sterne eintlang einer Linie, genannt Hauptreihe, die rechts bei niedrigen Leuchtkräften und großen Wellenlängen (also rötlichem Licht) beginnt und links bei hohen Leuchststärken und kurzen Wellenlängen (blauweißes Licht) endet. Es gibt aber auch ein paar Sterne im Diagramm, die langwelliges Licht aussenden und trotzdem hell sind. In Hertzsprungs Diagramm sind sie mehr als 5 Größenklassen (Faktor 100) heller als solche, die bei gleicher Farbe auf der Hauptreihe liegen. Man kannte damals schon das Strahlungsgesetz von Josef Stefan und Ludwig Boltzmann, demgemäß die Helligkeit eines Wärmestrahlers von der Oberfläche und der 4. Potenz der Temperatur abhängt, sowie das Verschiebungsgesetz von Wilhelm Wien, das den Zusammenhang zwischen der Temperatur und der Farbe eines Wärmestrahlers herstellt. Hertzsprung schloss korrekterweise aus der Existenz von sowohl leuchstarken als auch lichstschwachen Sternen der gleichen Farbe, dass diese die gleiche Temperatur haben, aber sehr verschieden groß sein müssen, weil nach den Strahlungsgesetzen die pro leuchtender Fläche abgegebene Strahlung für dieselbe Temperatur und damit Farbe gleich ist. Er unterschied bei den Sternen zwischen Zwergen und Riesen.
Man konnte Zwerge und Riesen auch bei unbekannter Entfernung und damit Leuchtkraft gut auseinanderhalten: Hertzsprung war aufgefallen, dass die Sterne mit kleiner Eigenbewegung (also größerer Entfernung) viel schmalere Spektrallinien hatten. Er wusste zwar noch nicht, warum das so war (darauf kommen wir später zurück) aber der Unterschied war offensichtlich.
Die klassische Form des Diagramms verwendete dann erstmals Henry Norris Russell 1913. Als Proxy für die Temperatur verwendete er die damals schon bekannte Spektralklasse nach dem Harvard-System. Ursprünglich in den 1880ern ein von Williamina Fleming und Edward C. Pickering entwickeltes Maß für die Linienstärke der Wasserstofflinien von A (am stärksten) bis O (am schwächsten) ordnete Annie Jump Cannon die Klassen nach ihrer Farbtemperatur um und fasste einige von ihnen zusammen (unterteilte statt dessen den Bereich zwischen den Klassen einheitlich mit den Ziffern 0-9), so dass sich die Folge OBAFGKM und ursprünglich noch N ergab. O entsprach den blauweißen Sternen der höchsten Temperatur und M (und N) den kühlsten Sternen mit rötlichem Licht.
In Russells Darstellung wird die Hauptreihe bei den hohen Temperaturen weniger gestaucht und sie erscheint als diagonale Gerade. Unten sein erstes Farb-Leuchtkraft-Diagramm aus Sternen, deren Parallaxen damals schon bestimmt worden waren (hier also nicht aus dem gleichen Sternhaufen).
Die Daten streuten sehr stark, weil die Parallaxen damals fürchterlich ungenau waren. In Russells Originalarbeit “Relations between the Spectra and other Characteristics of the Stars” ist als Bild 2 noch eine zweite Version mit 150 Sternen enthalten. Diese stammten allesamt aus vier damals bekannten Sternhaufen (besser gesagt, lockeren Sterngruppen, genannt Assoziationen) mit einer gemeinsamen Eigenbewegung ihrer jeweiligen Sterne (“Bewegungshaufen”), deren gemeinsamer Fluchtpunkt (Vertex) bekannt war. Aus der Richtung zum Vertex und den Geschwindigkeiten lässt sich die Entfernung bestimmen (“Sternstromparallaxe” – siehe meinen früheren Artikel dazu), und zwar sehr viel genauer als durch die damaligen Parallaxenmessungen von Einzelsternen möglich war. Somit war die Entfernung recht gut bestimmt und die verschiedenen Sterne zumindest der entfernteren Haufen waren nahezu gleich weit entfernt, was die Streuung der Werte verkleinerte.
Die vier betrachteten Sternhaufen bzw. Assoziationen waren die Hyaden im Stier (ca. 150 Lichtjahre entfernt; deren hellster Stern Aldebarangehört nicht zum Sternhaufen, denn er steht mit 65 Lichtjahren viel näher zu uns und teilt die Bewegungsrichtung der Hyaden nicht), eine Gruppe von Sternen um 61 Cygni, die 1911 als Bewegungshaufen identifiziert worden war und die zwischen 11 und 100 Lichtjahren entfernt sind, die Scorpius-Gruppe um Antares (Teil der heute bekannten, rund 400 Lichtjahre entfernten Scorpius-Centaurus-Assoziation) und die Ursa-Major-Bewegungsgruppe mit den meisten Sternen des Großen Wagens (ca. 80 Lichtjahre entfernt) und zahlreichen anderen.
In diesem Diagramm wird besser erkennbar, dass die Sterne oberhalb der Hauptreihe ebenfalls eine Linie bilden, die nach rechts oben abzweigt. Sie enthält nur Riesensterne und wird heute “Riesenast” genannt. Russell stellte fest, dass in der Klasse B alle Sterne Riesen sind. In der Klasse A vermischen sich Riesen und Zwerge. In Klasse M sind die Zwerge so lichtschwach, dass man sie nur in geringer Entfernung zur Erde überhaupt sehen kann, während die Riesen (wie Antares) selbst im am weitesten entfernten Sternhaufen noch hell am Himmel leuchten.
Russell betonte in seiner Arbeit, dass man die absolute Helligkeit und damit die Leuchtkraft eines Zwergsterns ermitteln könne, wenn man nur seine Spektralklasse kenne. Aus dem Vergleich der absoluten Helligkeit mit der scheinbaren Helligkeit folgt dann sofort die Entfernung, aus der absoluten Helligkeit und der Temperatur folgt die leuchtende Fläche und damit die Größe des Sterns – und damit wird aus dem Diagramm ein mächtiges Instrument zur Charakterisierung der Sterne.
Aber Russell hatte noch etwas anderes im Sinn: er wollte seine Theorie zur Sternentwicklung mit dem Diagramm belegen. Russell bemerkte, dass die Massen der Sterne, die man aus der Beobachtung der Orbits von Doppelsternen schon kannte, nicht so füchterlich verschieden waren, wie es die Leuchtkräfte waren (ein Stern von -4m oben links auf der Hauptreihe ist 4000 Mal heller als die Sonne). Mehr als einen Faktor 50 mochte er nicht erkennen, die meisten Sterne lagen sogar innerhalb eines Faktors 3. Damals wusste man noch nichts über die Energiequelle der Sterne, die Kernfusion, und so nahm Russell an, dass die Sterne sich entlang der Linien im Diagramm entwickelten, und zwar von Riesen mit größerer Masse hin zu Zwergen mit kleinerer Masse. In der Mitte ihres Lebens befänden sie in der Mitte des Diagramms, die Russell genau dorthin verlegte, wo sich die Sonne befindet (Spektralklasse G, absolute Helligkeit ca. 5m). Dabei würden sie stetig Masse verlieren (logisch – wenn ein Stern “brennt”, verliert er an verbrauchtem Brennstoff!) und als rote Zwerge enden. Noch heute spricht man bei den Klassen O und B von “frühen” Spektralklassen, bei M von “späten”.
Dass sein Diagramm etwas mit der Entwicklung der Sterne zu tun hat, damit lag er goldrichtig. Seine Schlussfolgerung über den Entwicklungsweg der Sterne war allerdings vollkommen daneben. Was seiner Arbeit keinen Abbruch tut, ihm fehlten lediglich Kenntnisse, die erste Jahrzehnte später erschlossen wurden.
Sein Diagramm wurde bis in die 1930er nur als “Russell-Diagramm” bezeichnet, bevor Bengt Strömgren, später Subrahmanyan Chandrasekhar und andere Astronomen mehr und mehr den Begriff “Hertzsprung-Russell-Diagramm”, “HR-Diagramm” oder kurz “HRD” verwendeten und damit auch Hertzsprungs Beitrag ehrten, der als erster die Natur der Riesen und Zwerge erkannt hatte. Heute weiß jeder Astronom sofort etwas mit der Abkürzung HRD anzufangen. Das Diagramm ist eine Art universeller Rechenschieber der Astronomie, an dem sich die wichtigsten Parameter eines Sterns ablesen lassen.
Warum es Riesen und Zwerge gibt (und nicht nur diese), was das Diagramm uns über die Sterne alles verrät und welchen Entwicklungsweg die Sterne wirklich im Diagramm nehmen – darüber mehr in den folgenden Teilen der Serie.
Kometen leuchten häufig grün, es sind CN-Gas (Zyanid) und C2 Moleküle, in denen im UV-Licht der Sonne die Elektronen auf höhere Niveaus gekickt werden, um beim Rückfall auf das Grundniveau blaues Licht abzustrahlen. Das Gelb des hellern Staubschweifes rührt hauptsächlich von im Sonnenlicht beleuchteten Staubpartikeln her, während der berühmte blaue Plasmaschweif auf CO+-Ionen zurückgeht.
Der Plasmaschweif, auch Ionenschweif genannt, ist immer genau von der Sonne abgewendet (auch wenn der Komet sich von der Sonne entfernt, dann eilt der Schweif ihm voraus), denn er wird vom schnellen Sonnenwind fortgeblasen. Der Staubschweif besteht hingegen aus schwereren Partikeln, die etwas träger auf den Sonnenwind reagieren und nur langsam von der Umlaufbahn weggedrückt werden, weshalb er eine etwas andere Richtung als der Plasmaschweif nimmt und eine gewisse Krümmung zeigt.
Bei NEOWISE wurde auf einigen Aufnahmen auch Rot am Außenrand des Plasmaschweifs gefunden, eine für Kometen seltene Farbe. Es ist nicht klar, ob Natrium, H2O+, Kohlenmonoxid oder eine Kombination davon die Farbe verusachen, aber sie scheint echt zu sein.
NEOWISE war sicher kein großer Komet wie Hale-Bopp und Hyakutake, aber andererseits das beste, was sich von unseren Breiten aus seither kometarisch am Himmel zeigte. Er hat uns jedenfalls Freude bereitet, und wir hoffen, dass die Durststrecke bis zum nächsten “Großen” nicht zu lange währt, während er sich für die nächsten 6000 Jahre aus dem inneren Sonnensystem verabschiedet.
Viel Freude gemacht haben mir auch die von meinen Lesern zugesendeten Bilder. Schön, dass ich ein paar von Euch animieren konnte, sich mal an der Astrofotografie zu versuchen. Aus den schönsten Bildern habe ich heute eine kleine Gallerie erstellt und ein paar eigene Bilder hinten angehängt. Rechts und links mit den Pfeilen kann man blättern und wenn man das Bild anklickt, öffnet es in voller Größe in einem neuen Fenster. Viel Spaß beim Durchklicken!
]]>
Wenn man länger belichtet hat, ist der Himmel meist unschön aufgehellt und das in hässlichen Orange- oder Grüntönen. Zum Beispiel wie dieses hier:
Das Bild ist gestackt, das Stacken behandeln wir im Anschluss. Wer nicht stackt, fängt mit den folgenden Schritten an, wer stackt, tut dies zuerst und fährt dann hier fort.
Wie bekommen wir den Himmel dunkel? Dazu braucht man ein Bildverarbeitungsprogramm auf dem PC. Ich selbst arbeite mit Photoshop, viele Astrofotografen verwenden spezielle, meist kostenpflichtige Programme für die Astrofotografie. Für unseren Schnupperkurs reicht ein kostenloses Programm.
Ich nehme hier mal das unter freier Gnu-Lizenz für Windows, Mac und Linux verfügbare GIMP (Gnu Image Manipulation Program) als Referenz. Photoshop funktioniert ähnlich, hat aber noch ein paar Kniffe (Filter) mehr drauf und war früher bei manchen Digitalkameras in abgespeckter Version (nur 8-Bit-Modus) mit dabei. Bei vielen Kameras wird heute ein Bildverarbeitungsprogramm mitgeliefert (bei meiner Pentax die “Pentax Digital Camera Utility”). Der Vorteil von GIMP und Photoshop ist, dass sie Bildebenen verarbeiten können, die wir weiter unten bei der Gradientenreduzierung brauchen. Alles andere geht auch mit einfacheren Programmen.
Die GIMP-Hilfe muss man separat installieren, bei mir ging der Link zur Online-Version nicht (in den Einstellungen “Hilfesystem” auf “die lokale installierte Kopie verwenden” umstellen). Um RAW-Format-Bilder zu öffnen installiert man sich zusätzlich RAWTherapee. RAWTherapee wird automatisch in GIMP integriert, wenn man GIMP danach neu startet und ein RAW-Bild zu laden versucht, indem man es in das GIMP-Fenster zieht. Man kann dann einfach das RAWTherapee-Fenster wieder schließen und das Bild öffnet in GIMP. Wenn man ein anderes Bildverarbeitungsprogramm als GIMP verwendet, kann man mit dem Speichern-Knopf ganz unten (im Bild rot markiert) das Bild als TIFF speichern (nicht JPEG, das wäre ein großer Qualitätsverlust – tun wir erst ganz zum Schluss).
In GIMP empfiehlt es sich, unter “Fenster→andockbare Dialoge” mindestens
im Hauptfernster anzudocken, um sie schnell zu erreichen. Der Werkzeugkasten enthält unsere Bearbeitungswerkezuge. Das Journal zeigt die letzten Aktionen, die man gemacht hat, eine Art mehrstufiges “Rückgängig machen”. Man kann so durch Anklicken eines früheren Journalbildes eine Reihe von Änderungen ungeschehen machen und es noch einmal versuchen. Die Ebenen brauchen wir später beim Gradienten abziehen. Und die Werkzeugeinstellungen dienen dazu, die angewendeten Effekte zu steuern.
Weiter in GIMP: Der erste Schritt der Verarbeitung dient dazu, dem interessanten Teil des Bildes den vollen Kontrast zu geben und alles Uninteressante auszublenden – dies nennt man das Histogramm stretchen. Den größten Teil des Hintergrunds eliminiert man mit der Tonwertkorrektur, die bei GIMP “Farbwerte anpassen” heißt. Man findet sie im Menü “Farben” unter “Werte…“. Das Histogramm zeigt, wie viele Pixel welcher Helligkeit im Bild vorhanden sind. Die Helligkeitsskala läuft von links (Schwarz) nach rechts (Weiß). Mit den dreieckigen Reglern unter der Skala (im folgenden Bild rot umrahmt) kann man
Also zieht man unter dem Histogramm den linken Regler (Schwarzwert) bis zur linken Kante des Histogramms, so dass der Himmel dunkel wird. Dann den rechten Regler (Weißwert) ein Stück nach links, so dass der Komet wieder heller wird; der Himmel wird dabei ebenfalls etwas heller. Und zum Schluss den mittleren Regler (Gamma) so weit nach links, bis der Hintergrund wieder dunkler wird, bis man ein ästhetisches Bild mit möglichst viel Kometenschweif erreicht hat. Dann mit “ok” bestätigen.
Abgesehen von der roten Himmelsfarbe, um die wir uns später kümmern, ist der Hintergrund unten zum Horizont hin immer noch recht hell, er hat einen starken Helligkeitunterschied oder Gradienten über die Fläche des Bildes. Wenn wir den hellen Teil abdunkeln, verschwindet deswegen auch weiter oben ein Teil des Kometenschweifs. Für solche Fälle kann man etwas Schlaueres tun.
Die Idee ist, den Himmelshintergrund vom Bild zu subtrahieren, wodurch er überall zu Schwarz wird. Aber Sterne und Komet möchte man natürlich behalten, wir können das Bild nicht einfach von sich selbst abziehen, sondern müssen eine Version ohne Sterne und Komet daraus generieren. Zunächst kopiert man sich dazu das Bild in eine zweite Ebene, indem man “Ebene→Neu aus Sichtbarem” wählt. Nun hat man im Dock bei den Ebenen zweimal dasselbe Bild übereinander liegen. Die Augen vor den Ebenennamen zeigen an, welche Ebene wir sehen, wobei weiter oben liegende Ebenen die darunter liegenden verdecken (Normalfall) oder mit ihnen verrechnet werden (andere Ebenen-“Modi”). Wenn wir auf eine Ebene klicken und sie auswählen, bearbeiten wir genau diese mit den folgenden gewählten Aktionen, selbst wenn wir die Wirkung nicht sehen können, weil die Ebene von darüber liegenden verdeckt wird. Dies sollte man wissen, wenn man das Bild bearbeitet aber scheinbar nichts passiert.
Die obere Ebene verwenden wir gleich als Hintergrund zum Abziehen, wenn wir Komet und Sterne daraus entfernt haben. Den Kometen können wir mit dem Radiergummi wegpinseln. Dazu machen wir die untere Ebene unsichtbar, weil wir die obere gleich an der radierten Stelle durchsichtig machen, und das können wir nur kontrollieren, wenn die Ebene darunter nicht den wegradierten Teil weiterhin anzeigt. Also: Auge vor der unteren Ebene wegnehmen und obere Ebene anklicken. Dann im Werkzeugkasten (oder unter dem Menüpunkt “Werkzeuge→Malwerkzeuge“) den Radierer auswählen. Sodann in den Werkzeugeinstellungen (Reiter im Dock) die Größe des Radierers etwa auf die des Kometenkopfs einstellen (Schieberegler), Druck ziemlich hoch setzen und Härte mittel bis hoch. Der Druck bestimmt, wie gründlich radiert wird und die Härte, ob der Rand des Radierens eher weich oder hartkantig sein soll. Dann radieren wir den Kometen und den sichtbaren Teil des Schweifes (und noch ein bisschen mehr) aus dem Bild heraus.
Auch die Sterne müssen weg, aber es wäre etwas mühsam, diese einzeln zu löschen. Dafür gibt es einen Filter im Menü “Filter→Verbessern→Flecken entfernen…” (in Photoshop gibt es eine ähnliche Filterfunktion “Staub und Kratzer“). Im Einstellungsdialog stellen wir den Parameter Radius auf die ungefähre Größe der Sterne ein (muss man ausprobieren, bei mir haben 5 Pixel funktioniert), den Schwellwert Schwarz stellen wir auf ganz dunkel und den Schwellwert Weiß so tief, bis alle Sterne verschwunden sind. Solange wir mit der Weißsschwelle oberhalb des hellsten Hintergrundpixels bleiben, werden nur die Sterne gelöscht. Das Häkchen bei “Vorschau” führt den Effekt direkt im großen Bild vor. Außerdem erhalten wir einen rollbaren Ausschnitt aus dem großen Bild im Dialog, den wir auf den hellsten Stern im Bild rollen können, um zu sehen, ob er verschwindet. Wenn wir zufrieden sind, mit ok bestätigen. Das sollte dann ungefähr so aussehen:
Nun müssen wir noch den gelöschten Kometen mit Hintergrund füllen. Man kann das mit einem Pinsel und dem Pipettenwerkzeug machen – die Pipette “saugt” die Farbe dort auf, wo wir sie hinklicken, und der Pinsel malt dann mit dieser Farbe im gelöschten Bereich. Es ist aber schwierig, genau überall die richtige Farbe zu treffen, wenn der Hintergrundgradient so groß ist wie im Bild oben (kann man versuchen, wenn man nachher alle Pinselränder mit ordentlich Weichzeichnung übertyncht).
Dafür gibt es jedoch ein geniales Werkzeug: Heilen. Gleich unter dem Radiergummi im Werkzeugkasten steckt es als dritte Option unter dem “Klonen“-Werkzeug, oder auch im Menü “Werkzeuge→Malwerkzeuge→Heilen“. Wir müssen in den Werkzeugeinstellungen die Pinselgröße richtig groß wählen, so dass sie die Breite des gelöschten Kometen überdeckt. Härte wählen wir hoch und Druck maximal. Dann klicken wir mit gedrückter Steuerungstaste unten auf den Hintergrund neben dem einen Ende des gelöschten Bereichs und danach mit Umschalten noch einmal auf die gleiche Seite neben das obere Ende (es wird eine gelbe Linie angezeigt, die den gelöschten Bereich nichtdurchqueren soll, sonst mit mehr Abstand klicken). Die Linie gibt vor, welche Hintergrundfarbe der Heilen-Pinsel auf gleicher Höhe verwendet. Mit dem Heilen-Pinsel füllen wir nun den gelöschten Bereich auf, das dauert ein paar wiederholte Pinselstriche, bis es konturlos und blickdicht ist. Wenn man am Ende noch Helligkeitsunterschiede zum Hintergrund sieht, die nochmals separat heilen, aber immer in der Nähe des vormals gelöschten Bereichs bleiben, um den Hintergrund anderswo nicht zu verfälschen. Dann hat man einen schönen gleichmäßigen Hintergrund.
Es empfiehlt sich, das Hintergrund-Bild mit “Filter→Weichzeichner→Gaußscher Weichzeichner” noch einmal großflächig zu glätten. 20% in X und Y (verbundene Schieberegler) sollten reichen.
So, nun müssen wir nur noch unseren Hintergrund vom Kometenbild abziehen. Wir gehen nochmals in das Ebenen-Dock und setzen den Ebenen-Modus auf “Abziehen“. Dann das Augensymbol wieder vor die untere Ebene klicken. Ups, das ist aber jetzt sehr dunkel! Deswegen schwächen wir den Effekt ab, indem wir die Hintergrundebene nochmals auswählen und unter “Farben” den Menüpunkt “Helligkeit/Kontrast” öffnen. Den Kontrast fassen wir nicht an, aber die Helligkeit so weit absenken, bis man einen Kompromiss zwischen Kometenhelligkeit und Himmelshelligkeit gefunden hat (Vorschau muss angetickt sein, um den Effekt im Bild zu sehen). Jetzt ist Hintergrund ziemlich durchgängig überall gleich dunkel.
Wir fügen die Ebenen nun noch zusammen: Menü “Bild→Bild zusammenfügen” (man kann auch Ebenen schrittweise nach unten vereinigen) – fertig.
Wer noch ein bisschen mehr Kometenschweif rauskitzeln will, kann mit dem Tool “Farben→Kurven” (bei Photoshop “Gradationskurven”) gezielt den Kontrast für bestimmte Bereiche der Helligkeit beeinflussen. Man bekommt eine Kurve angezeigt, wie sich die Ausgangspixel (x-Achse) auf die Ergebnispixel (y-Achse) abbilden sollen und kann diese mit der Maus beliebig formen. Man muss durch Ausprobieren (Punkte auf der Kurve setzen und auf- und abbewegen) versuchen, den Bereich der Helligkeit auf der x-Achse zu finden, wo Kometenschweif und der umgebende Hintergrund liegen und die Kurve zwischen den beiden besonders steil ansteigen lassen. Die Werte unterhalb nach unten ziehen, die Werte oberhalb nach oben. Die Kurve muss von links nach rechts dabei immer ansteigen, sonst wird’s psychedelisch. Unten habe ich die Kurve bei den dunklen Hintergrund-Werten etwas angehoben und die Kurve oben flacher gemacht. Das betont den Kometenschweif und schwächt den Kontrast im Kometenkopf ab.
Ähnliches macht auch der Gamma-Regler, nur mit weniger Flexibilität.
Wenn man so viel Farbstich im Bild hat wie hier im Beispiel (Lichtverschmutzung, Staub und Aerosole vor dem tief über dem Horizont stehenden Kometen), kann man diesen im endgültigen Bild mit den einzelnen Farben im Histogramm korrigieren. Also nochmals “Farben→Werte” auswählen und dann im Einstellungs-Dialog auf das Drop-Down-Menü neben “Kanal” klicken und die einzelnen Farben Rot, Grün und Blau der Reihe nach auswählen. Jeweils wieder die linken (Schwarzwert-) Regler nach rechts schieben, hier zuerst Rot abdunkeln, dann Grün, dann Blau. Wenn in helleren Bildteilen jetzt die Farbe nicht mehr stimmt, kann man die Farben mit den mittleren Gamma-Reglern korrigieren:
Den jeweils rechten Regler sollte man nur anfassen, wenn die hellsten Stellen im Bild nicht weiß erscheinen – jede Veränderung dort ändert die Farbe der Pixel im Bild. Man muss eine Weile experimentieren, bis die Farben durchgängig weitgehend ohne Farbstich sind.Zum Schluss das Bild gegebenenfalls passend zuschneiden (Zuschneidetool im Werkzeugkasten oder “Werkzeuge→Transformationen→Zuschneiden” – mit Maus das Auswahlrechteck ziehen und mit Enter-Taste bestätigen) und dann kann man sein Bild abspeichern (bei GIMP unter “Datei→Exportieren nach…” und dabei im Dateinamen die Endung auf .jpg ändern; vorher ein TIFF für alle Fälle mitspeichern). Das sieht doch schon deutlich besser aus, obwohl die Vorlage nicht toll war:
Wie eingangs gesagt ist das Ausgangsbild schon gestackt gewesen. Stacking oder “stapeln” kombiniert viele Bilder zu einem einzigen, wobei der Signal-Rausch-Abstand verbessert wird, so als ob man länger belichtet hätte. Wie man die Aufnahmen (Light frames), sowie Dark Frames, Flat Frames und Bias Frames macht, habe ich ausführlich im letzten Artikel beschrieben. Wer keine Darks und Flats gemacht hat, sollte das nachholen, die sind wichtig. Die Darks mindern das Bildrauschen sowie heiße Pixels (defekte Pixel, die auch ohne Belichtung hell werden) und die Flats eliminieren Vignettierung (Abschattung der Bildränder) sowie Störungen durch Staubkörner auf dem Sensor. Meine Bilder enthielten ein paar häßliche Kleckse durch Staubkörner, die oben im Ausgangsbild nicht zu sehen sind – die Flats haben sie gelöscht. Bias-Frames braucht man nicht unbedingt – ein bisschen Bildrauschen kommt beim Auslesen heraus, das kann man mit Bias-Frames noch reduzieren, aber das meiste Rauschen kompensieren die Darks.
Zum Stacken installieren wir uns das kostenlose Programm DeepSkyStacker. Das ist leider ein reines Windows-Programm. Wie ich eben gelesen habe gibt es SiriL für Windows, Linux und MacOS, aber damit kann man laut Beschreibung nur manuell stacken und ich kenne das Programm nicht – daher hier nur eine Anleitung für den DeepSkyStacker.
Wenn man das Programm gestartet hat, erscheint oben links das Menü. Hier kann man nun seine Aufnahmen öffnen. Mit “Lightframes öffnen…” lädt man die eigentlichen Fotos. Man hat sie vorher in einen Ordner kopiert und die schlechten (die unscharfen, verwackelten, wegen Wolken leeren, oder sonstwie verunglückten Aufnahmen; ein Flieger oder Satellit im Bild ist hingegen kein Problem!) manuell aussortiert. Nun alle guten Bilder auswählen und öffnen. Sie erscheinen unten in einer Liste. Dann alle Darks mit “Darkframes…” öffnen. Und ebenso die Flats und die Bias Frames, sofern vorhanden (was ein Dark/Flat Frame ist, weiß ich nicht – und die Bedienungsanleitung des Programms auch nicht).
Wenn man die Bilder anschauen möchte, kann man sie unten in der Liste anklicken, dann werden sie im großen Fenster angezeigt. So kann man noch einmal manuell durch die Liste gehen. Oben rechts hat das Fenster einen Tonwertregler, wie wir ihn beim Histogramm-Stretchen kennengelernt haben, damit kann man die Anzeige verändern. Auf das gespeicherte oder das spätere gestackte Bild hat der Regler keinen Einfluss, er dient nur zur visuellen Kontrolle am Bildschirm.
Alle Bilder, die gestackt werden sollen, muss man nun mit dem Häkchen vor den Dateinamen markieren. Am einfachsten markiert man alle in der Liste mit Steuerung-A und rechts-klickt dann auf eines davon, um im Kontext-Menü “Auswählen” anzuklicken – dann werden alle ausgewählt. Diejenigen, die man nicht möchte, kann man dann einzeln ent-haken (für alle zusammen kann man dies mit dem zweiten Kontext-Menüpunkt “Deaktivieren” tun). Man sollte hier wegen der langen Rechenzeit beim ersten Üben nur eine Handvoll Bilder auswählen und erst, wenn man mit dem Ergebnis zufrieden ist, die gesamte Liste aktivieren.
Nun müssen wir die Bilder “registrieren”. DeepSkyStacker schaut sie sich dann alle an und sucht in den Lightframes die Sterne, die für die Ausrichtung der Bilder zueinander benötigt werden. Im folgenden Dialog lassen wir die Option “nach der Registrierung stacken” deaktiviert.
Im zweiten Reiter “Erweitert” kann man die Zahl der erkannten Sterne steuern. Mit “Anzahl der erkannten Sterne berechnen” wird nur das erste Bild untersucht. Man sollte den Regler so einstellen, dass mindestens 10 aber höchstens 100 Sterne gefunden werden. Weniger ist zu wenig fürs Ausrichten, mehr dauert zu lange. Wenn zu wenige Sterne erkannt werden, Schwellwert senken, sind es zu viele, Schwellwert erhöhen. Die Zahl der gefundenen Sterne steht nach der Registrierung unten in der Liste in der vorletzten Spalte. Klickt man nach der Registrierung ein Bild an und wählt das Symbol des roten Sterns unten rechts an, dann werden die erkannten Sterne grün markiert. Man sollte im gesamten Bild ein paar markierte Sterne finden, sonst noch einmal neu mit niedrigerer Schwelle registrieren.
Es könnte sein, dass sich der Komet während der Aufnahmen so schnell am Himmel bewegt hat, dass er im auf die Sterne ausgerichteten Stack unscharf erscheint. Für diesen Fall gibt es rechts unten in der Hauptanzeige das kleine grüne Kometensymbol. Wenn man dieses aktiviert und den Mauszeiger in die Nähe des Kometenkerns bewegt, sollte ein grüner Rahmen den Kometen einfassen, den man durch Klicken bestätigt, um die Position des Kometen im Bild zu registrieren. Bei mir hat die automatische Erfassung selten gut funktioniert, aber man kann die Umschalttaste gedrückt halten und den Rahmen dann manuell um den Kometen platzieren. Danach auf das Diskettensymbol klicken, um die Position zu speichern, die sodann als “(+C)” hinter den registrierten Sternen in der Liste angezeigt wird. Das kann bei 100 Aufnahmen ein wenig mühsam sein. Da ich mich hier vordringlich an Leser wende, die nur mit einem Stativ ohne Nachführung arbeiten, sollten die Belichtungszeiten so kurz sein, dass sich der Komet nicht nennenswert während der Aufnahmen bewegt hat und daher kann man auf diese Feinheit verzichten. Wer mag, kann dies aber gerne in einem zweiten Anlauf versuchen.
So, nun geht es an das eigentliche Stacking. Wir klicken links im Menükasten auf “Ausgewählte Bilder stacken…” und erhalten folgenden Dialog:
Hier werden alle derzeitigen Einstellungen für das Stacking angezeigt. Man kann von hier aus über die angezeigten Links in die entsprechenden Einstellungen wechseln. Besonders praktisch ist, dass das Programm in Abhängigkeit von den Bildern (Belichtungszeit, vorhandene Darks/Flats etc.) Vorschläge für die Einstellungen macht, die es Anfängern besonders leicht machen. Dazu klickt man auf “Empfohlene Einstellungen”:
Beim eigentlichen Stacking gibt es mehrere Methoden, die wir uns gleich im Detail anschauen werden. Für die Lights (also die eigentlichen Bilder), die Darks und die Flats kann man verschiedene Methoden verwenden, daher gibt es hier drei Optionen. Bei den Flats und Darks habe ich mich an die Vorschläge gehalten.
Wenn man “ok” drückt, werden die Einstellungen übernommen und man kehrt wieder zum vorherigen Dialog zurück. Hier kann man über die Knopf “Stacking Parameter…” alle Einstellungen erreichen. Der Reiter “Ergebnis” ist selbsterklärend (wie versetzte Bilder nach der Überlagerung zugeschnitten werden sollen) oder bereits richtig voreingestellt (“Drizzle” braucht man bei Aufnahmen mit einer normalen Fotokamera nicht, das ist was für Astrokameras oder Webcams mit geringer Auflösung, und “RGB Kanäle im Endbild ausrichten” sollte immer an sein, denn Rot, Grün und Blau werden bei tief über dem Horizont stehenden Objekten in der Atmosphäre unterschiedlich stark gebrochen und gegeneinander verschoben, das korrigiert diese Einstellung wieder bestmöglich).
Im Reiter “Light” wird das Stacking der Fotos gesteuert. Dabei geht es darum, wie die Pixel aus verschiedenen Bildern kombiniert werden sollen. Neben den Nutz-Pixels unserer Objekte sind auch jede Menge verrauschte Pixels und evtl. die Strichspuren von Flugzeugen oder Satelliten mit im Bild. Wenn die Bilder übereinander gelegt werden, muss das Programm wissen, was es mit den Pixeln, die an der gleichen Stelle im Endbild landen werden, tun soll. Es gibt folgende Methoden:
Im selben Reiter findet man auch einen Link, unter dem man die Hintergrundkalibrierung auswählen kann. Die habe ich oben schon erklärt.
Schließlich noch zum Reiter “Komet“: Dieser erscheint nur dann, wenn wir wie oben beschrieben den Kometen in allen Bildern markiert haben. Dann kann man hier auswählen, ob das Stacking die Sterne zueinander ausrichten soll, wobei der Komet eine Bewegungsunschärfe bekommen könnte (Standard Stacking). Oder ob es den Kometen verfolgen soll, was die Sterne zu Strichspuren werden lässt (Komet Stacking). Oder ob sowohl der Komet verfolgt werden soll als auch die Sterne scharf abgebildet werden (dann stackt das Programm beide getrennt und kombiniert die Bilder).
[Update] Man muss hier Geduld haben, wenn das Programm wenige Sekunden vor der Fertigstellung scheinbar einfriert – nach einigen Minuten macht es weiter und stackt alle Bilder erneut für die zweite Version. [/Update]
Ich hatte bei meinen Aufnahmen keinen Unterschied zwischen Standard- und Kometenstacking erkennen können, trotz 9 Minuten Belichtungszeit in Summe. Ich habe aber Aufnahmen im Netz gesehen, wo die Sterne deutliche Strichspuren zeigten, bei Belichtungen über längere Zeiträume kann sich ein Versuch mit dieser Einstellung lohnen.
Dann gibt es noch den Reiter “Kosmetik”, in dem man Einstellung für das Löschen von “Hot-” und “Cold-Pixeln” wählen kann, also solchen, die aufgrund von Sensor-Fehlern immer voll belichtet oder gänzlich schwarz sind. Das hatte ich bei den ersten Versuchen eingestellt und bekam fürchterlich matschige Sterne heraus. Also lieber erst mal ohne. Solche Stellen kann man in GIMP auch mit dem “Heilen“-Pinsel übermalen, falls sie stören sollten.
Nachdem wir die Einstellungen vollendet haben, klicken wir im Stacking-Dialog auf “ok” und dann rechnet das Programm los. Wie gesagt empfiehlt sich ein Testlauf mit wenigen Bildern, um das Ergebnis beurteilen zu können, bevor man alle auswählt, weil das Stacken ein paar Minuten dauern kann:
Am Ende des Stacking präsentiert einem das Programm das Endergebnis:
Et voilà. Nicht erschrecken dass das Bild nun so hell erscheint – wir hatten ja die Anzeige in der Helligkeit verstärkt, um die Einzelbilder besser anschauen zu können, daher scheint das Bild viel heller als es nachher beim Öffnen in GIMP oder anderen Bearbeitungsprogrammen sein wird. Die Datei wurde im Ordner der Light-Bilder als “Autosave.tif” abgelegt (falls wir in den Voreinstellungen im Reiter “Ausgabe” nicht das Verzeichnis geändert haben). Bei mehreren Stacking-Versuchen werden die Bilder automatisch hochnummeriert. Man braucht das Bild nicht mehr extra zu speichern.
Unter dem Bild finden sich ein paar Regler, mit denen man das Bild nachbearbeiten kann. Man kann hier z.B. mit den Schwarzwertreglern die drei Farben mit den Spitzen übereinander schieben, so dass der Kometenkern weiß und der Hintergrund dunkler werden. Im Reiter “Luminanz” kann man die Gradationskurve (schwarze gestrichelte Linie) formen und unter dem Reiter “Sättigung” die Farben verstärken. Das Ergebnis kann man dann im Menü unter “Bearbeitung→Bild speicher unter…” unter neuem Namen speichern. Die Funktionen sind ohne Vorschau und mit begrenzter Rückgängig-Funktion (immerhin bleibt das gepseicherte Autosave.tif unangetastet) allerdings sehr rudimentär und mit GIMP erreicht man ein besseres Ergebnis, daher gehe ich darauf hier nicht näher ein.
Also einfach die Autosave-Datei im Bilder-Ordner suchen, in GIMP öffnen und ganz oben im Artikel mit der Bearbeitung einsteigen.
Tja, und damit ist der Crash-Kurs “Bildverarbeitung” zu Ende. Ich bin gespannt, ob die eine oder der andere diese Anregungen umsetzen kann und würde mich freuen, Eure Bilder (Mail an mich) im Blog präsentieren zu dürfen.
Viel Spaß mit der Bearbeitung. Und haltet Euch ran, der Komet hat schon (19.07.2020) eine Größenklasse verloren, lange ist er nicht mehr so leicht zu fotografieren. Dann braucht es doch Nachführung und Belichtungszeiten von mindestens einer halben Minute!
]]>Auch wenn die Ergebnisse bei Anfängern unvermeidlicherweise bescheiden bleiben werden – man sollte es trotzdem versuchen, denn das eigene Bild ist immer viel schöner als anderer Leute kopierte Bilder, und man lernt ein wenig Ehrfurcht gegenüber den Künsten der großen Meister wie Damien Peach, Michael Jäger oder Sebastian Voltmer.
Wie fotografiert man also den Kometen? Das kommt auf die Ausrüstung an…
Ja, man kann den Kometen sogar mit modernen Smartphones fotografieren. Die besseren Modelle haben zum Teil ausgezeichnete Kameras mit hoher Lichtstärke und niedrigem Rauschen. Die Kamera des iPhone 11 hat eine Blendenzahl von 1,8 – das ist mehr Lichtstärke als übliche Zoom-Objektive von großen Kameras bieten. Im Nachtmodus (Mondsymbol) nimmt das iPhone Bilder zudem mit ISO 6400 auf und verwendet Rauschunterdrückungsverfahren. Eine ISO-Zahl von 6400 bedeutet eine 64-fach gesteigerte Helligkeitsverstärkung gegenüber der normalen Tageslichteinstellung, die man sich allerdings mit mehr Bildrauschen erkauft. Schließlich gibt es ein Bildstabilisierungsverfahren, das längere Belichtungszeiten aus überlagerten Einzelbildern mit kürzerer Aufnahmedauer zusammensetzt (Stacking – darauf komme ich noch zurück), was erlaubt, Nachtaufnahmen in Grenzen freihändig zu machen.
Die Spitzengeräte anderer Hersteller stehen dem sicher nicht nach (ich habe keine Marktrecherche vollführt…). Jedenfalls lohnt sich ein Versuch, der nicht viel Aufwand kostet. Da auch Stacking und 6400 ISO keine Wunder am Dunklen Himmel verbringen, ist die Fixierung des Handys bei der Aufnahme das A und O. Das iPhone “ertastet” beispielsweise Erschütterungen und bietet die längste Belichtungszeit von 30s gar nicht erst an, wenn es “fühlt”, dass es freihändig gehalten wird. Idealerweise hat man eine Stativhalterung (aber wer hat die schon…) oder man befestigt eine Selfie-Stange mit Klebeband oder Kabelbindern an einem Stativ, Straßenschild oder ähnlichem. Zur Not funktioniert auch ein seitliches Abstützen des Handys an zwei Kanten, unten und seitlich, gegen die man das Gehäuse drückt.
|
Den Nachtmodus erreicht in der Apple Kamera-App, indem man entweder die Zeile über dem Auslöseknopf mit “SLO-MO VIDEO FOTO PORTRAIT PANO” mit dem Finger hoch-swipet und auf das Mondsymbol tippt, oder er aktiviert sich im Dunklen von selbst. Am besten löst man per Fernbedienung aus (der Lautstärke-Knopf am Kopfhörerkabel ist üblicherweise der Drahtauslöser für Handys). Wer sich lieber für 30 Euro einen Blutooth-Fernauslöser kauft, mag das tun, aber bedenken, dass der Komet nicht warten wird… Ansonsten bietet sich noch die Selbstauslöser-Funktion an.
Man kann auch versuchen, das Handy ans Fernglas zu halten:
Gute Nacht mit einem letzten Bild des Kometen #NEOWISE über Norddeutschland, mit dem Handy durch das Fernglas aufgenommen, abgestützt vom gekippten Dachfenster.
Nicht professionell.
Aber geht auch. pic.twitter.com/dtqc8egVsX— Dirk Wagner (@Weltraumwagner) July 13, 2020
Ich hab’s mal bei meinem 15×80 versucht, aber das Blickfeld war sehr klein, man kam wegen des Hartplastik-Blendschutzes nicht nahe genug ans Okular, um mehr als einen kleinen Ausschnitt zu sehen. Man braucht wohl ein Fernglas mit Gummi-Blendschutz, den man nach hinten klappen kann. Den hellen Fleck (Austrittspupille) mit der Kameralinse überhaupt zu treffen, war schwer genug.
Falls es beim Auslösen blitzt – Blitz ausschalten und nochmal versuchen. Glaubt mir, der Blitz eures Handys leuchtet nicht bis zum Kometen…
Mit der Bildbearbeitung an Bord des Handys kann man ein wenig experimentieren. Den Kontrast erhöhen (um den Schweif besser vor dem Himmel zu erkennen), Schwarzpunkt anheben (um den Himmel zu verdunkeln), Glanzlichter abschwächen (mehr Struktur aus dem Kometenkopf herausholen), Sättigung erhöhen (kräftigere Farben) oder was auch immer funktioniert – am besten probiert man alle Regler aus, es gibt kein Patentrezept. Oder man lädt die Bilder auf den PC und verabeitet sie weiter wie im Folgeartikel beschrieben.
Es gibt einige Foto-Apps, mit denen man die Kamera manuell steuern kann und die sogar RAW-Format-Bilder erzeugen können. RAW-Format ist weniger stark komprimiert und hat mehr Dynamik (mehr als 8 bit pro Farbe bei JPEG, was nur 8 Blendenstufen an Kontrast entspricht). Falls man die Bilder am Rechner weiterverarbeiten will, empfiehlt sich die Verwendung des RAW-Formats, aber man sollte prüfen, ob dieses vom Bildverarbeitungsprogramm gelesen werden kann. Unter Windows, MacOS und Linux gibt es das kostenlose Programm RAWTherapee, mit dem kann man viele RAW-Formate importieren und als TIFF ausgeben kann, ein Format, das jedes Bildverarbeitungsprogramm verstehen können sollte. Mehr dazu im nächsten Artikel.
Wenden wir uns nun der seriöseren Fotografie zu…
Je größer der Sensor, desto größer sind die Pixel und desto mehr Licht sammeln sie ein – daher sind große Kameras gegenüber solchen in Handys klar im Vorteil. Sie benötigen allerdings definitiv ein Stativ für Nachtaufnahmen.
Die meisten Kameras haben einen manuellen Modus, in dem man die Belichtungszeit, Blende und ISO-Zahl selbst einstellen kann, was auf jeden Fall nützlich ist. Bei den Kompakten sollte wenigstens die ISO-Zahl einstellbar sein und ein Nachtprogramm vorhanden (“Feuerwerk” macht lange Belichtungen von mehreren Sekunden das ist, was wir suchen; “Nachtportrait” schaltet hingegen den Blitz ein – nicht verwenden!).
Was die ISO-Zahl betrifft, da sollte man vorab zu Hause bei wenig Licht ausprobieren, wie hoch man gehen kann, bevor das Bild zu körnig wird. Moderne Spiegelreflexkameras bieten zum Teil schon 128000 ISO und mehr an, was nicht heißt, dass das dann auch gut aussieht. Wenn man später stacken will und viele Aufnahmen macht, kann man eine oder zwei Stufen mehr versuchen, aber ich habe meine Aufnahmen mit 1600 ISO gemacht (Kamera bietet 51200 an), und alle Aufnahmen mit mehr sind deutlich verrauscht. Vollformat-Kamera sind hier im Vorteil gegenüber APS-Kameras (wie die meinige).
Den Weißabgleich stellt man auf Tageslicht (Sonnenscheinsymbol). Der Komet wird schließlich von der Sonne beleuchtet. Bei RAW-Aufnahmen ist die Einstellung egal.
Thema Blende: Wenn man es sich von der Belichtungszeit und ISO-Zahl her leisten kann, sollte man eine Blende zurückgehen von der maximalen. Dann werden die Außenbereiche des Objektivs, wo das Glas am stärksten gekrümmt ist, nicht benutzt, was schärfere Sterne ergibt. Man verschenkt aber auch die Hälfte des Lichts, braucht also die doppelte Belichtungszeit. Am besten Ausprobieren, was die Linse hergibt. Bei geringer Vergrößerung ist die Verzerrung nicht so dramatisch.
A propos Belichtungszeit: Hier gilt allgemein: je länger, desto besser. Es gibt allerdings zwei Probleme:
Was Punkt 1. betrifft: Wenn man sehr lange belichtet, hellt sich der Himmelshintergrund auf. Man sollte an der Kamera das Histogramm kontrollieren und der “Hügel”, der vom Himmelshintergrund verursacht wird, sollte höchstens im unteren Drittel liegen:
Und zu Punkt 2.: wenn man keine Montierung mit motorisierter Nachführung hat, helfen nur kurze Belichtungszeiten. Dafür gibt’s tolle Formeln, in die die Pixelgröße und die Deklination des Objekts mit eingehen, aber als einfache Orientierung kann man folgende Tabelle verwenden. Zuerst bestimmt man den Crop-Faktor des Kamera-Sensors, das ist die Bildschirmdiagonale des Volllformats 24x36mm (43 mm) dividiert durch die Diagonale des Sensors. Dafür gibt es hier eine Tabelle.
Wer dort seine Kompaktkamera mit eingebautem Zoom nicht wiederfindet, kann ihren Crop-Faktor auch folgendermaßen schätzen: man schalte die Kamera ein, dann stellt sie sich auf den “normalen” Zoomfaktor ein. Der entspricht 50 mm im Vollformat (“Normalobjektiv”). Man mache ein Foto und lade es auf den PC. Wenn man auf die Fotodatei mit der rechten Maustaste klickt und “Eigenschaften” auswählt, findet man unter “Details” die Brennweite. Dividiert man 50 durch die Brennweite, so erhält man den Crop-Faktor.
Oder man orientiert sich am Zoom-Faktor, den die Kamera (hoffentlich) anzeigt. Den findet man ebenfalls unten in der Tabelle. Bei alle Crop-Faktoren ist die Belichtungszeit für den gleichen Zoom-Faktor immer gleich groß.
Crop-Faktor | Format | Zoom-Faktor | Brennweite | Belichtungszeit |
---|---|---|---|---|
1 | Vollformat | 0,7 | 35 mm | 30 s |
1 | Vollformat | 1 | 50 mm | 20 s |
1 | Vollformat | 1,6 | 80 mm | 12,5 s |
1 | Vollformat | 2,7 | 135 mm | 7,5 s |
1 | Vollformat | 4 | 200 mm | 5 s |
1 | Vollformat | 6 | 300 mm | 3,3 s |
1 | Vollformat | 8 | 400 mm | 2,5 s |
1,5 | APS | 0,7 | 25 mm | 30 s |
1,5 | APS | 1 | 35 mm | 20 s |
1,5 | APS | 1,6 | 55 mm | 12,5 s |
1,5 | APS | 2,7 | 90 mm | 7,5 s |
1,5 | APS | 4 | 130 mm | 5 s |
1,5 | APS | 6 | 200 mm | 3,3 s |
1,5 | APS | 8 | 270 mm | 2,5 s |
1,9 | 1,5″ | 0,7 | 18 mm | 30 s |
1,9 | 1,5″ | 1 | 26 mm | 20 s |
1,9 | 1,5″ | 1,6 | 42 mm | 12,5 s |
1,9 | 1,5″ | 2,7 | 70 mm | 7,5 s |
1,9 | 1,5″ | 4 | 130 mm | 5 s |
1,9 | 1,5″ | 6 | 105 mm | 3,3 s |
1,9 | 1,5″ | 8 | 210 mm | 2,5 s |
2 | Four Thirds | 0,7 | 18 mm | 30 s |
2 | Four Thirds | 1 | 25 mm | 20 s |
2 | Four Thirds | 1,6 | 40 mm | 12,5 s |
2 | Four Thirds | 2,7 | 68 mm | 7,5 s |
2 | Four Thirds | 4 | 100 mm | 5 s |
2 | Four Thirds | 6 | 150 mm | 3,3 s |
2 | Four Thirds | 8 | 200 mm | 2,5 s |
2,7 | 1″ | 0,7 | 13 mm | 30 s |
2,7 | 1″ | 1 | 18,5 mm | 20 s |
2,7 | 1″ | 1,6 | 30 mm | 12,5 s |
2,7 | 1″ | 2,7 | 50 mm | 7,5 s |
2,7 | 1″ | 4 | 74 mm | 5 s |
2,7 | 1″ | 6 | 111 mm | 3,3 s |
2,7 | 1″ | 8 | 148 mm | 2,5 s |
5,4 | 1/2″ | 0,7 | 6,5 mm | 30 s |
5,4 | 1/2″ | 1 | 9,3 mm | 20 s |
5,4 | 1/2″ | 1,6 | 14,8 mm | 12,5 s |
5,4 | 1/2″ | 2,7 | 25 mm | 7,5 s |
5,4 | 1/2″ | 4 | 37 mm | 5 s |
5,4 | 1/2″ | 6 | 56 mm | 3,3 s |
5,4 | 1/2″ | 8 | 74 mm | 2,5 s |
Ein besonderes Problem stellt die Fokussierung im Dunklen dar. Die Kamera “sieht” den Kometen nicht, sie kann sich darauf nicht scharfstellen. Kompaktkameras bieten oft eine separate Fokuseinstellung für “unendlich” an, meist mit einem Bergsymbol versinnbildlicht. Die sollte man einstellen.
An Spiegelreflex- und Bridge-Kameras sollte sich der Fokus auf manuell umstellen lassen. Wer gute Augen hat, kann durch den Sucher oder auf dem Bridge-Bildschirm die Schärfe anhand eines hellen Sterns oder einer fernen Laterne versuchen, manuell einzustellen, wobei man die Bildschirmanzeige maximal hochzoomen sollte.
Des Weiteren kann man versuchen, den Autofokus auf “Punktquelle” einzustellen und eben jenen hellen Stern oder die ferne Lichtquelle anzupeilen und sofort danach den Fokus wieder auf “manuell” umstellen. Ich habe das diese Woche so mit meiner Kamera gemacht und es hat ganz gut funktioniert, wobei die fernen Laternen allerdings vom Flimmern der abendlichen noch warmen Luft ein unscharfes Ziel boten. Ein heller Stern am Himmel ist besser.
Alternativ kann man den Fokus auch zuvor am Tage einstellen und seine Linse dann mit Klebeband fixieren (Tipp von Leser Schlappohr). Allerdings darf man nicht vergessen, den Fokus auf manuell zu stellen und wenn man aus Versehen auf das Objektiv drückt, wird es sich wieder verstellen. Man kann auch nicht davon ausgehen, dass das Objektiv für alle Zoomeinstellungen den gleichen Fokuspunkt hat. Bei Festbrennweitenobjektiven ist das natürlich kein Problem.
Zum Auslösen empfiehlt sich ein Fernauslöser, denn das Auslösen alleine kann die Kamera erschüttern und das Bild unscharf machen. Das kann übrigens auch beim Hochklappen des Spiegels in einer Spiegelreflexkamera passieren – wohl dem, der Spiegelvorauslösung hat. Wenn man keinen Fernauslöser hat, sollte man den Selbstauslöser mit 2-5 Sekunden Verzögerung wählen (wer Zeit hat, mag auch den langen mit 10-12s verwenden).
Zum Schluss noch ein Wort zum Speicherformat: wenn man das Bild am Rechner weiterverarbeiten will, dann, verwende man auch hier “RAW”-Format. Neben dem schon erwähnten größeren Dynamikumfang (10-16 bit/Pixel und Farbe gegenüber 8 bei JPEG) sind diese Bilder völlig unverfälscht, es ist kein Weißabgleich angewendet, keine Brillianz oder Schärfung oder Farbsättigung, die alle erst bei der Wandlung zu JPEG von der Kamera angewendet werden. Man hat also selbst in der Hand, was aus dem Bild werden soll. Nur wenn das Foto “druckfertig” aus der Kamera kommen soll, kann man JPEG verwenden.
Wie man oben in der Tabelle sieht, sind Großfeldaufnahmen mit geringem Zoom-Faktor kein Problem, man hat genug Belichtungszeit – bei 1600 ISO und Blende 4 erreicht man in einer halben Minute leicht das zu 1/3 gefüllte Histogramm. Nur an besonders dunklen Orten könnte man minutenlang belichten.
Wenn man den Kometen formatfüllend haben will, muss man ungefähr Zoomfaktor 4 wählen. Dann ist man bei 5s Belichtungszeit, das ist zu wenig für den Kometen. In diesem Fall nimmt man viele Bilder auf und stackt sie (siehe Folgeartikel). “Viele” sind 20 oder 50 oder 100. Wenn man diese überlagert, entspricht das in etwa einer um diesen Faktor verlängerten Belichtungszeit. Das Bildrauschen fällt mit der Quadratwurzel der Zahl von Aufnahmen, d.h. 10 Aufnahmen haben 1/3 des Rauschens einer einzigen (sieht man kaum), 20 haben ein gutes Viertel, 50 ein Siebtel und 100 ein Zehntel. 100 mal 2 Sekunden sind auch nur 3 Minuten 20. Daher: viele Bilder machen. Idealerweise hat die Kamera einen Serienmodus, der automatisch die Aufnahmen macht. Manche Fernauslöser bieten einen Serienmodus. Anonsten muss man halt die Geduld aufbringen und die Bildern einzeln auslösen.
Zwischen den Bildern vor allem bei hoher Vergrößerung immer wieder am Stativ nachstellen. Das Problem beim Stacken ist, dass die Abbildung von der Himmelskugel auf den flachen Sensor unvermeidliche Projektionsverzerrungen verursacht. Das Stacking-Programm kann das Bild aber nur drehen und verschieben, nicht entzerren. Das Problem ist bei hohen Zoomfaktoren (= kleinen Bildausschnitten) geringer als bei Großfeldaufnahmen. Wenn man nicht die billigsten Objektive verwendet.
Daher durch händisches Nachführen zwischen den Aufnahmen dafür sorgen, dass die Bildverzerrungen nicht den Kometen betreffen. Man muss das nicht nach jedem Bild machen, aber alle paar Minuten, und dann keinen zu großen Sprung, den das Stacking-Programm nicht nachvollziehen kann.
Wenn man alle Bilder im Kasten hat, sollte man noch ein paar Darks machen. Dark Frames oder Darks nennt man Bilder mit aufgestecktem Objektivdeckel. Man nimmt also nur Dunkelheit auf. Es geht dabei aber nicht um die Dunkelheit, sondern das Bildrauschen des Sensors. Je länger man belichtet, umso mehr belichtet sich der Sensor mit seinem Rauschen selbst, und bei Wärme (im Sommer und nachdem der Sensor durch das Fotografieren warm gelaufen ist) stärker als bei Kälte. Daher nimmt man die Darks am besten gleich nach den Aufnahmen auf und nicht erst zu Hause (da man sie gerne am Abend in der Aufregung vergisst: wenn man sie zu Hause macht, zuerst 20-30 Bilder machen, die den Sensor erwärmen und erst die nachfolgenden verwenden). 10-20 Stück pro verwendeter Belichtungszeit und ISO-Wert reichen. Gleiche Belichtungszeit und ISO-Zahl wie bei den Kometenfotos.
Dann sollte man noch ein paar Flat Frames aufnehmen – die muss man im Hellen machen, bevor es dunkel wird oder auch zu Hause. Flat Frames sind Aufnahmen eines neutralen Hintergrunds ohne jede Struktur. Objektive verursachen eine leichte Vignettierung am Bildrand, das Bild wird zum Rand hin dunkler. Und Staub auf dem Sensor macht dunkle Flecken. Die kann das Stacking Programm korrigieren, wenn man ihm ein Foto einer gleichmäßig einfarbigen Fläche, idealerweise weiß, als Referenz anbietet. Ein leicht unscharf gestellter wolkenloser Himmel (Richtung Zenit) ist eine Möglichkeit. Ich habe einfach ein Blättchen Papier ohne Linien von einem Notizblock genommen und die Kamera mit dem Blättchen vor der Linse gegen eine Fensterscheibe gedrückt. Man belichtet mittelhell (Histogramm in der Mitte), mit kleiner ISO-Zahl und, wichtig!, bei gleicher Vergrößerung und Blendeneinstellung wie bei den Bildern, die man Stacken möchte. Denn die Vignettierung hängt vom Zoomfaktor und der Blende ab. Dazu Kamera auf manuell oder Blendenvorrang (Aperture priority, A) einstellen. 3-5 Flats reichen.
Puristen nehmen schließlich noch Bias Frames auf. Diese sollen alleine das Rauschen des Bildauslesens bei der Verstärkung und Analog-Digital-Wandlung aufnehmen. Man macht dazu Bilder bei der allerkürzesten Belichtungszeit mit Deckel auf dem Objektiv. ISO-Zahl wie bei den zu stackenden Bildern. Blende und Zoom sind egal. 10 Stück sollten reichen.
Darks sollte man auf jeden Fall machen und Flats sind empfehlenswert. Bias Frames kann man sich sparen, aber sie sind andererseits am einfachsten zu machen.
Hier sind der Kreativität kaum Grenzen gesetzt. Man kann den Kometen in einem Weitwinkelbild schön neben einem Gebäude, einem Denkmal, Baum oder Berg in Szene setzen. Auch eine Spiegelung in einem See ist reizvoll. Auf Twitter findet man zahlreiche Anregungen.
Das Problem der Motivwahl stellt sich eher nicht, wenn man den Kometen mit Teleobjektiv in Großaufnahme aufnehmen will. Ein Zoomfaktor von 4-6 (siehe Tabelle) bietet sich hierbei an, um möglichst viel vom Schweif mit aufs Bild zu bekommen. Dann ist die Belichtungszeit noch halbwegs ergiebig, aber Stacking sei wärmstens empfohlen.
Apropos wärmstens – je nachdem kann es in klarer Nacht in den Bergen empfindlich kühl werden, also eine Jacke mitnehmen. Licht ist wichtig, ideal ist Rotlicht. Wer ein Stirnlampe hat – mitnehmen, perfekt wenn man auf- und abbaut (und mal eine Schraube verliert). Akkus vorher vollladen. Lesebrille mitnehmen, um das Sucherbild lesen und auf scharfe Sterne überprüfen zu können. (Tipps von Skeptikskeptiker) Und von mir: nicht vergessen, die SD-Karte vom letzten Bearbeiten aus dem Rechner zu holen und wieder in die Kamera zu stecken!
So, und im nächsten Teil beschäftigen wir uns damit, wie man die Fotos durch Bildverarbeitung verbessern kann, und wie man aus 100 Aufnahmen eine einzelne der 100-fachen Belichtungszeit macht.
]]>Der Komet wurde am 27. März vom Near-Earth Object Wide-field Infrared Survey Explorer (NEOWISE) entdeckt. Dabei handelt es sich um ein Weltraumteleskop, das im Dezember 2009 unter dem Namen WISE gestartet wurde und den Himmel komplett im Infrarotbereich bei 3,4, 4,6, 12 und 22 µm Wellenlänge abgelichtet hat. Nachdem das Kühlmittel im September 2010 aufgebraucht war, konnte das Teleskop nur noch die Wellenlängen 3,4 und 4,6 µm beobachten und wurde im Februar 2011 in den elektronischen Winterschlaf versetzt. 2013 wurde das Teleskop unter dem Missionsnamen NEOWISE reaktiviert und sucht seitdem vor allem nach Asteroiden, die der Erde nahe kommen und zu einer Gefahr werden könnten (Near Earth Asteroids, NEOs). Dabei geht gelegentlich auch einmal ein Komet ins Netz – wie jetzt C/2020 F3.
Als das Teleskop den Kometen entdeckte, hatte er 17. Größenklasse und war 1,7 Astronomische Einheiten (AE; 1 AE = mittlere Enternung Erde-Sonne) von der Erde entfernt. Die Helligkeit stieg im April rasant an und der Komet war danach auf Kurs für eine Helligkeit von 1. Größenklasse in Sonnennähe – so hell wie Beteigeuze, wenn er nicht gerade schwächelt. Um den 10. Juni, als er 7,5m erreichte, verschwand der Komet, der sich von südlich der Erdbahn auf einer steilen fast parabolischen Bahn in gegenläufiger (retrograder) Umlaufrichtung im Vergleich zu den Planeten auf dem Weg nach Norden befand, zunächst hinter der Sonne vom Nachthimmel. Nur das LASCO-Instrument an Bord des Sonnen-Weltraumteleskops SOHO hatte ihn noch im Blick (siehe Video).
Ende Juni kehrte er zurück an den Himmel und hatte bereits 7,5m erreicht, war jedoch zunächst wegen der in unseren Breiten ungünstigen Geometrie bei uns nicht zu sehen – er stand praktisch neben der Sonne und ging zusammen mit ihr auf. Beobachter auf der Südhalbkugel hatten die bessere Perspektive. Am 3. Juli erreichte er den sonnennächsten Punkt (Perihel) seiner Bahn bei 0,29 AE (43 Millionen km; näher als Merkurs mittlere 58 Millionen km Sonnenentfernung) und er hat die Annäherung an die Sonne bis jetzt überlebt – schließlich ist er wie alle Kometen eine Art schmutziger Schneeball, dem die Sonnenhitze mächtig zusetzt und die ihn zerbrechen und auflösen kann. Wahrscheinlich ist er der Sonne jedoch schon mehrfach begegnet, derzeit gibt die Small Body Database des Jet Propulsion Laboratory seine Umlaufzeit mit rund 6765,83±279,3 Jahren an.
Erst vor ein paar Tagen stieß er so weit nach Norden vor, dass er nun vor Sonnenaufgang senkrecht über der Sonne steht. Mit 11° Abstand am Morgen des 6. Juli ist er weit genug von der Sonne weg, so dass der Himmel bei seinem Aufgang noch recht dunkel ist (kurz nach Beginn der morgendlichen nautischen Dämmerung). Im Laufe der nautischen Dämmerung, während der die Sonne von 12° unter dem Horizont auf 6° steigt, verschwindet er im Himmelsblau und erreicht bis dahin 5° Höhe über dem Horizont – ca. ein handbbreit bei ausgestrecktem Arm.
Abends hat man Anfang dieser Woche noch keine Chance, der Komet geht unter, bevor es dunkel genug wird, aber er entfernt sich schnell in Richtung Norden von der Sonne. Seine Bahn führt in weit oberhalb der Ebene der Planetenbahnen, bevor er sich ab Anfang August wieder auf den Weg nach Süden macht. Hier kann man sich am PC seine Bahn aus allen Richtungen anschauen und seine Bewegung sowie die der Planeten vorwärts und rückwärts simulieren lassen.
Je nachdem auf welchem Breitengrad man sich im deutschsprachigen Raum befindet, wird der Komet früher oder später in dieser Woche zirkumpolar, das heißt er geht die ganze Nacht nicht unter, sondern kreist um den Himmelspol. Und zwar am 8. Juli für Hamburg und Berlin, am 9. Juli für Köln und Dresden, am 10. für Frankfurt/Main, am 11. für Stuttgart, München und Wien und am 12. Juli für Bern (wer nicht in den genannten Städten lebt, orientiere sich an der nächsten). Von da an kann man ihn abends nach Sonnenuntergang genau so gut beobachten wie morgens vor Sonnenaufgang.
Wann sollte man schauen? Gerade im Süden sollte man nicht bis zur optimalen Abendsichtbarkeit warten, sondern sobald wie möglich die Morgensichtbarkeit nutzen. Der Komet verliert voraussichtlich bis Mitte Juli 1,5 Größenklassen. Die beste Zeit fängt gerade jetzt an. Für den 4. Juli wurde eine Helligkeit von 0,8m berichtet. Leider war am 4. Juli gerade Vollmond, aber bisher störte die Dämmerung mehr als der Mondschein und der Mond nimmt nun ab – Ende der Woche geht er erst nach 1h00 morgens auf.
Es gibt bereits einige beeindruckende Fotos des Kometen auf Twitter. Zu den besten gehören die von Michael Jäger:
Hello Comet C/2020 F3 NEOWISE, july 4 UT 1.40 GIF 40×0,3sec filter red,https://t.co/x9GvxMRnhP
and RGB, 11″/2.2 RASA QHY 600 cs Michael Jäger pic.twitter.com/Sy6UxVJ3XA— Michael Jäger (@Komet123Jager) July 4, 2020
Hier eine Animation des in der Dämmerung aufgehenden Kometen:
Comet C/2020 F3 NEOWISE jul 4 UT 1.40 40×0,3sec 11″/2.2 red Michael Jäger pic.twitter.com/Go5t5M8vj9
— Michael Jäger (@Komet123Jager) July 4, 2020
Sogar von der ISS wurde der Komet aufgenommen, und zwar vom Kosmonauten Ivan Vagner:
During the next revolution I tried to capture the C/2020 F3 (NEOWISE) comet a bit closer, the brightest one over the last 7 years.
Its tail is quite clearly visible from the @Space_Station!#ISS #comet #NEOWISE pic.twitter.com/FnWkCummD6
— Ivan Vagner (@ivan_mks63) July 4, 2020
Ich selbst hatte wetterbedingt noch keine Chance, den Kometen zu sehen und hoffe, dass ich ihn in einer der kommenden Nächte erwische. Man suche nach einem nebligen Wölkchen mit hellem Kern, das morgens in Nord-Nordöstlicher Richtung unterhalb der Linie des hellsten Sterns in der Gegend (Capella) zum Nordpunkt befindet. Aufsuchkarten unten.
Was die Uhrzeiten betrifft, so wird es zu hell, wenn die Sonne weniger als 12° unter dem Horizont steht und der Komet geht am 6. Juli etwa eine halbe Stunde vorher auf. Damit ergeben sich ungefähr folgende Beobachtungsfenster (auf volle 15 Minuten gerundet):
In den folgenden Tagen geht der Komet zunehmend früher auf, bis er zu den vorgenannten Daten zirkumpolar wird und gar nicht mehr untergeht. Danach ist die beste Sichtbarkeit abends gegeben, und man beginnt am besten zur angegeben Zeit im Nord-Nordwesten nach dem Kometen zu suchen (Feldstecher hilft!) und verfolgt ihn, während es dunkler wird, bis er im Dunst verblasst – irgendwo dazwischen ist die beste Sichtbarkeit:
Ich hoffe, ihr habt Glück, das Wetter spielt mit und erwischt den Kometen. Er ist zwar kein “Großer Komet”, aber einen Kometen fürs bloße Auge gibt’s auch nur alle paar Jahre mal. Ich freue mich auf Eure Beobachtungsberichte im Kommentarbereich!
Axionen entstammen den Theorien der starken Wechselwirkung, der Grundkraft, die die Bindung der Quarks untereinander beschreibt. Bekanntlich bestehen Protonen und Neutronen aus je drei Quarks und Mesonen bestehen aus Quark-Antiquark-Paaren. Während die Gravitation nur einen Pol kennt (alle Massen ziehen sich an) und die elektrostatische Kraft bei elektrisch geladenen Teilchen zwei Pole hat (+ und -, verschiedene Ladungen ziehen sich an, gleiche stoßen sich ab), gibt es bei der starken Wechselwirkung viele Pole, die von den Physikern nach den Farben wie Rot, Grün und Blau benannt wurden. Stabile Teilchen aus Quarks vereinigen stets Quarks mit unterschiedlichen “Farbladungen”, die sich gemäß der Farbenlehre zu Weiß mischen würden: bei Protonen und Neutronen jeweils ein rotes, grünes und blaues Quark, bei den Mesonen haben die Antiquarks entsprechende Anti-Farbladungen, etwa Anti-Rot (in der Farbenlehre entspräche dies Türkis), das sich mit einem Roten Quark ebenfalls zu Weiß mischt. Eine schöne Analogie, solange man im Hinterkopf behält, das Quarks nicht wirklich bunt sind.
Weil die Lehre der starken Wechselwirkung so schön bunt ist, nennt man sie Quantenchromodynamik (croma = griechisch “die Farbe”), oder kurz QCD. Nun sagt das Standardmodell der Teilchenphysik voraus, dass die QCD die CP-Symmetrie verletzen müsse – es sollte Prozesse geben, deren Umkehrprozess mit umgekehrten Ladungen (Farb- und elektrische Ladung) und gespiegelter Raumrichtung (etwa gespiegelter Anordnung der Quarks in Protonen und Neutronen) nicht existiert oder anders abläuft, als der Prozess selbst. Insbesondere sollte ein Neutron, das aus einem Up-Quark mit +2/3-Elementarladungen und zwei Down-Quarks mit je -1/3-Elementarladung besteht, normalerweise ein elektrisches Dipolmoment besitzen, d.h. es sollte an einem Ende negativ und am anderen positiv geladen sein (siehe Bild oben). Kehrt man beim Neutron die Parität und die Ladung um, käme allerdings ein Teilchen heraus, bei dem das Dipolmoment gegenüber dem Drehimpuls um 180° gekippt wäre (folgendes Bild), die CP-Symmetrie wäre verletzt, denn so ein Teilchen existiert nicht. Dem entzieht sich das Neutron geschickterweise dadurch, dass sein Dipolmoment Null ist und somit die CP-Symmetrie erhalten bleibt. Das Verschwinden des Dipolmoments des Neutrons kennt man unter dem Stichwort starkes CP-Problem. Jede Lösung des starken CP-Problems geht über die Physik des Standardmodells hinaus und wäre somit “neue Physik”.In der Teilchenphysik löst man Probleme gerne mit Feldern (in der zugrunde liegenden Quantenfeldtheorie besteht alles aus Feldern und die Teilchen sind lediglich Anregungszustände von Feldern, in etwa wie Wellen auf einer sonst glatten Wasseroberfläche). Man denke an das Higgs-Feld, mit dem erklärt wird, warum nicht alle Teilchen masselos mit Lichtgeschwindigkeit durch die Gegend fliegen, sondern ihnen dieses Feld eine Masse verleiht. Das Teilchen des Higgs-Felds ist das Higgs-Boson. Roberto Peccei und Helen Quinn schlugen 1977 die Existenz eines Felds jenseits des Standardmodells vor, dessen Potenzial die CP-Verletzung des Neutrons wieder ausbügelt (siehe folgendes Bild). Das zugehörige Teilchen dieses Feldes ist das Axion, auch A0 geschrieben. Und es wäre ein guter Kandidat für das Trägerteilchen der Dunklen Materie.
Dunkle-Materie-Axionen wären, wenn es sie denn gäbe, extrem leicht, mit 10-5 bis 10-3 eV/c² (= 10-1000 µeV/c²) in der Größenordnung von nur etwa einem Hundertmilliardstel bis einem Milliardstel der Masse eines Elektrons (511·103 eV/c²). Gemessen an den ansonsten gehandelten Dunkle-Materie-Kandidaten wie etwa supersymmetrischen “WIMPs” (weakly interacting massive particles = schwach wechselwirkende massive Teilchen) mit 109 bis 1012 eV/c² oder sterilen Neutrinos mit 109 eV/c² wären sie ein Nichts und es müsste Myriaden von ihnen geben, um die Dunkle Materie zu erklären. Selbst gewöhnliche Neutrinos wären mit geschätzten Massen > 0,1 eV/c² Schwergewichte gegen sie. Entsprechend schwer wären sie nachweisbar.
Sie hätten keinen Spin und keine elektrische Ladung, könnten aber elektromagnetisch wechselwirken: wie der theoretische Physiker Pierre Sikivie 1983 zeigte, würden sie sogar eine Erweiterung der Maxwellschen Gleichungen, die bekanntlich für Photonen gültig sind, erfüllen. Sikivie erklärte in einem Interview, dass das Axion so etwas wie ein geistiger Verwandter des Photons sei, aber mit einem Hauch von Masse. Er errechnete, dass beim Urknall genug von ihnen entstanden sein könnten, um die Dunkle Materie zu erklären, so fern sie langsam genug unterwegs sind und somit geringe Energien haben. Denn Dunkle Materie muss “kalt” sein, also aus Teilchen bestehen, die langsam genug sind, dass sie sich unter ihrer Eigengravitation zu Galaxien und Galaxienhaufen verdichten konnten.
Im Beisein starker magnetischer Felder sollten Photonen sich in Axionen verwandeln können (Primakoff-Prozess) und Axionen wieder in Photonenpaare zerfallen, allerdings entsprechend der geringen Teilchenenergien typischerweise mit Wellenlängen von 1 bis 100 Metern – kein Licht, sondern Kurzwellen-Radiostrahlung. Sikivie erdachte einen Detektor, den er Haloskop nannte, um die Axionen der Dunklen Materie nachzuweisen.
Das Axion Dark Matter Experiment ADMX, das 2018 an der Universität von Washington an den Start ging, ist nach dem Prinzip von Sikivies Haloskop gebaut. Es ist das erste Experiment, das empfindlich genug sein könnte, Axionen der Dunklen Materie nachzuweisen. ADMX besteht aus einer zylindrischen Röhre mit einem Innenmaß von 1 m Länge und 0,5 m Durchmesser, die als Mikrowellen-Resonator-Hohlraum wirkt. Supraleitende Magnete erzeugen in ihrem Inneren ein Magnetfeld von sagenhaften 8 Tesla – etwa die 150.000-fache Stärke des Erdmagnetfelds oder die fünffache eines fetten Neodym-Magneten, dem stärksten Dauermagneten, den wir kennen. Die Detektorkammer wird mit Helium auf 4,2 K gekühlt, um thermisches Rauschen des Behältermaterials zu unterdrücken. Wenn nun Axionen im Zylinder zerfallen und Radiostrahlung der richtigen Wellenlänge im Zylinder entsteht, bleibt sie einen Moment darin als stehende Welle gefangen, bis sie vom Zylindermaterial absorbiert worden ist. Empfindliche Antennen, deren Verstärkerrauschen weniger als 100 Millikelvin beträgt, werden im Zylinder verschoben, um nach den Amplitudenmaxima solcher Radiowellen zu suchen.
Axion-Massen von 2,7 bis 3,4 µeV/c² konnte das Experiment bisher schon ausschließen. Man hat sich vorgenommen, den Bereich bis 42,6 µeV/c² auszuloten. Wenn Axionen die einzigen Bestandteile der Dunklen Materie wären, erwartete man ihre Masse in diesem Bereich; sollten sie nur einer von vielen Bestandteilen sein, dann könnte der Bereich möglicher Massen auch bis zu eine Milliarde Mal größer sein.
Andere Experimente versuchen starkes Laserlicht in Axionen umzuwandeln, die eine Stahlwand durchdringen können und dahinter wieder zu Licht werden. Oder horchen nach Radiostrahlung von Axionen aus der nächsten Umgebung von Neutronensternen, den stärksten Magneten, die die Natur kennt. Gefunden hat bisher keines der Experimente irgendetwas.
Stattdessen vermeldet nun ein anderes Experiment, das von 2016-2018 lief, einen möglichen Fund.
Eigentlich wurde das XENON1T-Experiment, tief unter dem fast 3000 m hohen Gran-Sasso-Massiv im Herzen Italiens gelegen, gebaut um nach WIMPs zu suchen. Es enthält 3,5 Tonnen ultrareines Xenon, ein Edelgas, das zwischen -111,75°C und -108,1°C flüssig ist. Der größte Teil des Xenons im Detektor ist flüssig mit einem kleinen Bereich gasförmigen Xenons darüber. Energiereiche Teilchen oder Gammastrahlen, die mit den Xenon-Atomen kollidieren, stoßen entweder deren Elektronen oder Kerne an, die dann in der umgebenden Flüssigkeit kleine Lichtblitze (Szintillationsblitze) verursachen. Diese werden von einer Matrix von Restlichtverstärkern im Deckel des zylindrischen Detektors registriert und so in der Querschnittsfläche verortet, das sogenannte S1-Signal des Detektors.
Eine Kollision reißt Elektronen und Kerne des Xenon-Atoms auseinander (Ionisation). Im Detektor werden die freigesetzten Elektronen von einem starken elektrischen Feld nach oben hin beschleunigt, wo sie im Xenon-Gas ihrerseits einen Szintillationsblitz auslösen, der von den Restlichtverstärkern zeitversetzt zu S1 registriert wird, das S2-Signal. Aus der Zeitdifferenz zwischen S1 und S2 lässt sich errechnen, wie lang der Weg der Elektronen von der Erzeugung bis zum Erreichen der Oberfläche des flüssigen Xenons war, und somit hat man auch die Tiefeninformation der ursprünglichen Teilchenreaktion, womit die dreidimensionale Verortung des Teilchens komplett ist (das Konstrukt nennt sich deswegen “Zweiphasen-Zeitprojektionskammer”). Die räumliche Ortung ist wichtig um zu unterscheiden, ob die Signale aus dem Inneren des Detektors stammen, wo störende Hintergrundereignisse wesentlich seltener sind als an den Rändern. Der innere Bereich bildet das eigentliche Target oder Referenzvolumen des Detektors. Aus dem Verhältnis der Signalpegel von S1 und S2 lässt sich zudem ableiten, ob es sich um den Zusammenstoß eines Elektrons mit einem eher leichten Teilchen (wie etwa einem Gamma-Photon oder einem Axion) oder eines Kernteilchens mit einem eher schweren Teilchen (z.B. mit einem Neutron oder einem WIMP) handelt.
Das Experiment befindet sich 1400 m tief im Gran Sasso, um von möglichst wenig Strahlung aus dem Kosmos gestört zu werden. Das umgebende Gestein isoliert so gut wie 3200 m Wassertiefe. WIMPs sollten, ähnlich wie Neutrinos, indessen so gut wie gar nicht vom Gestein absorbiert werden, und die geisterhaften Axionen ebenso wenig, weil sie nur äußerst selten mit Materie interagieren. Störsignale kommen im Wesentlichen nur in Form radioaktiver Strahlung aus dem umgebenden Fels, gegen die die Detektorröhre noch einmal separat durch einen Wassertank abgeschirmt ist, sowie aus dem Xenon selbst, das nicht vollkommen frei von Verunreinigungen durch radioaktive Xenon-Isotope sein kann.
Der Vorgänger XENON100 mit 165 kg Xenon und 65 kg davon im Referenzvolumen fand während seines Betriebs von 2008 bis 2012 kein WIMP und kein Axion, sondern wurde vor allem dadurch bekannt, dass es einen großen Teil mutmaßlicher Dunkle-Materie-Kandidaten ausschließen konnte, gemessen als “Streuquerschnitt” von 2·10-45 cm² für WIMP-Teilchen von bis zu 55 GeV/c² Teilchenmasse. Das entspricht der gedachten Fläche, innerhalb derer sich ein WIMP-Teilchen und ein Xenon-Kern nahe kommen müssen, damit eine Kollision bzw. Streuung stattfindet. Letztlich eine statistische Frage – je kleiner der Streuquerschnitt, desto seltener das Ereignis. Oder umgekehrt: wenn man keine Ereignisse sieht, aber annimmt, dass WIMPs solche Ereignisse produzieren sollten, dann muss der Streuquerschnitt klein genug sein, dass während der Laufzeit des Experiments keine Ereignisse häufig genug vorkommen, um sich vom Hintergrundrauschen abzuheben. XENON1T mit 3500 kg Xenon und 2000 kg Referenzvolumen legte den Streuquerschnitt noch einmal um einen Faktor 100 tiefer: 2·10-47 cm² für WIMP-Teilchen von bis zu 100 GeV/c².
Umso überraschender erschien nun eine Arbeit der XENON-Kollaboration, die einen 23-prozentigen Signalexzess über dem Hintergrundrauschen für Elektronenstoßprozesse mit Teilchenenergien von 1-7 keV/c² gemessen hat. Für Axionen der dunklen Materie viel zu hohe Energien – aber exakt das, was man für die schnellen Axionen erwartet, die aus der Sonne stammen. Solche könnten auf dreierlei Weisen entstehen:
Die Autoren errechneten die erwarteten Spektren für diese Prozesse, d.h. die Häufigkeit von Elektronenstoßprozessen über die verschiedenen Energien, die im folgenden Bild dargestellt sind. Die dünnen Linien zeigen die erwarteten tatsächlich stattfindenden Ereignisse im Xenon, die schattierten Flächen die erwarteten Beobachtungen, wenn man die Auflösung und Effizienz des Detektors mit einrechnet. Die ABC-Prozesse liefern den Großteil der Ereignisse, welche die Primakoff-Axionen überlagern, und die Eisen-57-Übergänge einen gut separierten Anteil bei ca. 14 keV.
Im folgenden Bild sind die im XENON1T gezählten Ereignisse verschiedener Energien bis 30 keV (schwarze Fehlerbalken) einer errechneten Kurve (rot durchgezogene Linie) gegenüber gestellt, die sich aus der Summe der drei zuvor beschriebenen Axion-Entstehungsprozesse (unten gestrichelt) und dem Hintergrund B0 (grau durchgezogen) aus Störereignissen aufgrund radioaktiver Strahlung in der Umgebung und im Xenon-Füllstoff ergibt. Vor allem im unteren Bereich bis 10 keV reproduzieren die Messdaten im Rahmen der Fehlerbalken sehr schön den erwarteten Verlauf und auch die 14-keV-Delle beim Eisen-57 wird reproduziert, was die Korrektheit der Axion-Theorie sehr plausibel macht. Die Signifikanz der Übereinstimmung beträgt allerdings nur 3,5 σ, das heißt die Messungen unterstützen mit 0,05 % Irrtumswahrscheinlichkeit die These, dass die solaren Axionen die korrekte Erklärung der Daten sind – in Kreisen theoretischer Physiker ist das zu wenig für ein nachgewiesenes neues Teilchen, dazu bräuchte es 5 σ (0,000057 % Irrtumswahrscheinlichkeit).
Außergewöhnliche Behauptungen wie die eines neuen Teilchens außerhalb des Standardmodells bedürfen allerdings außergewöhnlicher Belege, und das schließt ein, dass auch alternative Erklärungen untersucht werden. Eine Alternative wäre, dass Neutrinos ein Milliarden Mal größeres magnetisches Dipolmoment hätten als das Standardmodell vorhersagt – sie wären dann wie kleine Magnete und würden öfter mit den Elektronen interagieren, als das Standardmodell annimmt. Dies wäre immer noch eine Sensation, neue Physik jenseits des Standardmodells, das vorhersagt, dass die ungeladenen Neutrinos ein verschwindend kleines magnetisches Dipolmoment haben sollten, 20 Größenordnungen kleiner als dasjenige des Elektrons. Die Vergleichskurve ist im folgenden Diagramm wieder in Rot dargestellt. Die Übereinstimmung ist etwas schlechter als beim Modell der solaren Axionen – der rote Graph macht die wellenförmigen Aufs und Abs der Messdaten nicht in gleicher Weise mit wie diejenigen der solaren Axionen im Bild zuvor. In Zahlen ausgedrückt beträgt die Signifikanz hier 3,2 σ entsprechend 0,14% Irrtumswahrscheinlichkeit.
Allerdings müsste das magnetische Dipolmoment in diesem Fall zwischen 1,4 und 2,9·10-11 µB betragen; 1 µB ist in etwa das magnetische Dipolmoment des Elektrons. Dies ist nicht nur eine Milliarde mal mehr als das Standardmodell vorhersagt, sondern auch zehnmal mehr als die obere Grenze, die durch astrophysikalische Messungen ausgeschlossen wird. Denn das magnetische Dipolmoment des Neutrinos beeinflusst gemäß anderer Arbeiten, wie schnell die Wärme aus Sternen und Weißen Zwergen durch Neutrinos abgeführt wird und damit wie schnell Kugelsternhaufen und weiße Zwerge abkühlen. Messungen dieser Abkühlraten schließen Werte von mehr als 4·10-12 µB mit 90% Konfidenz aus.
Und es gibt noch eine dritte Möglichkeit, die wesentlich banaler ist: eine Verunreinigung des Xenons mit Tritium. Tritium oder 3H ist ein radioaktives Isotop des Wasserstoffs mit einer Halbwertszeit von 12,3 Jahren und kommt in Wasser mit einem Anteil von einem Tritiumatom auf 1017 Wasserstoffatome vor. Der radioaktive Zerfall von Tritium könnte ein ähnliches Signal wie das beobachtete liefern. Dazu reichte bereits ein Anteil von (6,2±2)·10-25 Tritiumatomen im Verhältnis zur Zahl der Xenon-Atome:
Dieser Mengenanteil von Tritium lieferte die größte Übereinstimmung mit den Messdaten mit einer Konfidenz von 3,2 σ und die Hypothese hat den Vorteil (je nachdem wie man es betrachtet…) dass sie keine neue Physik benötigt.Die Autoren haben analysiert, welche Quellen des Tritiums in Frage kommen könnten. So könnte Tritium bei der oberirdischen Lagerung des Xenons durch Einschläge von Partikeln der kosmischen Strahlung entstehen – was allerdings eine eher unwahrscheinliche Quelle wäre, da das Xenon im Experiment fortlaufend von Verunreinigungen durch Fremdgase wie Wasserstoff gereinigt wird. Vielmehr müsste die Tritiumquelle so viel 3H im Betrieb nachliefern, dass trotz Reinigung der gemessene Anteil noch verbliebe, und tief unter dem Berg gibt es so gut wie keine kosmische Strahlung mehr. Wasser und Wasserstoffgas könnten in geringer Menge aus den Materialien im Inneren des Detektors heraus diffundieren, in die sie vor dem Experiment beim Kontakt mit Luft eingedrungen sind. Wasser als Verunreinigung können die Autoren indes ausschließen – kleinste Mengen mit nur 1/10 des für die Hypothese nötigen Tritiumanteils würden die Transparenz des Xenons bereits messbar verringern und wären aufgefallen. Wasserstoffgas können die Autoren hingegen nicht direkt messen, argumentieren in der Arbeit jedoch, warum sie es für unwahrscheinlich halten, dass durch Ausgasung von Wasserstoffgas aus den Detektorbestandteilen so viel Tritium zusammenkäme, um die für die Tritiumhypothese erforderliche Menge zusammen zu bekommen. Zerfälle von Xenon- und Kryptonisotopen haben sie bereits im Hintergrundanteil B0 mit berücksichtigt. So verbleibt als wahrscheinlichste Erklärung das Axion.
Ich persönlich neige beim Betrachten der Diagramme oben auch zu dieser Interpretation, da die Messwerte einzig den Verlauf der theoretischen Axion-Kurve gut nachvollziehen, ein Aspekt, der über die rein mathematische Signifikanz in Standardabweichungen σ hinaus geht – bei der Fehlerrechnung geht nämlich nur die jeweilige Abweichung jedes einzelnen Messwerts von der angenäherten Kurve mit ein, aber nicht deren Anordnung. Z.B. schneidet die Kurve das Fehlerintervall für den Wert bei 3 keV (der schwarze Balken der links am höchsten liegt) im obersten Solar-Axion-Diagramm sehr tief und den bei 10 keV sehr hoch. Wäre es umgekehrt, so wäre der Messfehler und damit die Konfidenz rechnerisch exakt dieselbe, aber die Delle nach oben bei 3 keV wäre dann nicht nachvollzogen und stattdessen ergäbe sich eine neue Delle bei 10 keV, wo der rote Graph gar keine hat. Rein optisch spricht der Verlauf der Messwerte jenseits der mathematischen Signifikanz also zusätzlich für das Axion-Modell.
Ob die Ergebnisse tatsächlich Bestand haben, wird sich bald zeigen. Das XENON1T-Experiment wurde 2018 abgeschlossen, um den Nachfolger XENONnT zu bauen, der 8,3 Tonnen Xenon verwenden wird, dessen Herstellung im Oktober 2019 abgeschlossen wurde. Noch Ende dieses Jahres soll XENONnT an den Start gehen und dann wird sich mit erhöhter Messgenauigkeit sehr bald zeigen, ob die Axionen-Hypothese die erforderlichen 5 σ schafft, um als sichere Detektion verbucht werden zu können.
Wäre dann bewiesen, dass die Dunkle Materie aus Axionen besteht? Nein, und darauf weisen die Autoren in ihrer Arbeit extra hin, sie können ja keine Axionen mit der geringen Energie messen, aus der die Dunkle Materie bestehen soll. Aber dass es das Kandidatenteilchen jenseits des Standardmodells überhaupt gibt, wäre ein Durchbruch – die Theorie von Peccei und Quinn wäre bewiesen und damit bestünde Grund zur Annahme, dass auch Sikivies Berechnungen auf stabilem Grund stehen. Dem gegenüber haben die von XENON1T nicht gefundenen WIMPs diese Trägerteilchen der Dunklen Materie noch unwahrscheinlicher gemacht. Vielleicht gelingt es bis vor XENONnT auch schon dem ADMX-Experiment, die Radiowellen der geisterhaften Dunkle-Materie-Axionen nachzuweisen und endlich einen Haken hinter das Kapitel der Dunklen Materie zu machen. Die nächsten Jahre versprechen interessant zu werden.
[1] The XENON Collaboration, “Observation of Excess Electronic Recoil Events in XENON1T“, 17. Juni 2020 ; arXiv:2006.09721.
[2] Ethan Siegel, “Is It Dark Matter? Mystery Signal Goes ‘Bump’ In World’s Most Sensitive Detector“, Forbes, 17. Juni 2020.
[3] Natalie Wolchover, “Dark Matter Experiment Finds Unexplained Signal“, Quanta Magazine, 17. Juni 2020.
[4] Charlie Wood, “Top Dark Matter Candidate Loses Ground to Tiniest Competitor“, Quanta Magazine, 27. November 2019.
[5] Anson Hook, “TASI Lectures on the Strong CP Problem and Axions”, 6. Dezember 2018, arXiv:1812.02669.
[6] en.wikipedia.org, “Axion“.
[7] en.wikipedia.org, “Neutron electric dipole moment“.
[8] en.wikipedia.org, “Strong CP problem“.
[9] en.wikipedia.org, “Axion Dark Matter Experiment“.
[10] en.wikipedia.org, “XENON“.
Am 4. Juni wurden wieder 60 Starlinks gestartet. Mittlerweile wurden (abgesehen von den ersten beiden Testsatelliten im Februar 2018) 8 Starts mit je 60 ausgesetzten Satelliten durchgeführt. Der Start vor einem Jahr setzte noch Vorserien-Modelle (V0.9) der Starlink-Satelliten zum Test aus. Seit November folgten dann etwa alle 4 Wochen je 60 operative Satelliten, und in diesem Tempo oder in noch kürzeren Abständen soll es zunächst bis 2027 weitergehen. Mittlerweile wurden 480 Satelliten ausgesetzt von denen 15 nicht mehr in Betrieb und 9 defekte nicht mehr unter Kontrolle sind. Zwei Satelliten wurden zum kontrollierten Absturz gebracht. Ende Juni sollen die nächsten starten.
Die Umlaufbahnen der ersten Schale auf 550 km Höhe, die gerade gefüllt wird, sind alle 53° gegen die Erdachse geneigt. Da der Startplatz am Cape Canaveral rund 90° westlich von Deutschland liegt und die Raketen Richtung Nordost gestartet werden, führt die Bahn der startenden Raketen nach 20 Minuten direkt über Europa. 15 Minuten nach dem Start beginnt das Aussetzen der Satelliten. Beim Start am 22. April lag die Startzeit günstig am Abend kurz nach Ende der Dämmerung, so dass die Rakete von Europa aus beim Aussetzen der Satelliten beobachtet werden konnte.
Bei allem Ärger über die Verunstaltung des Himmels war es faszinierend, den Vorgang im Feldstecher live am Himmel mit ansehen zu können. Man sah die beiden Dispenser (Spender), die die Satelliten nacheinander aussetzen, dicht hinter der Oberstufe, welche beständig Schubstöße abgab, die sich kreisförmig ausbreitende Ringe von leuchtendem Gas erzeugten. Einen Tag später hatten sich die Satelliten zu jener dichten Perlenkette aufgereiht, die Starlink bekannt gemacht hatte, aber viel heller vor einem Jahr, als ich sie kaum hatte erkennen können – es kommt bei der Helligkeit auf die genaue Geometrie von Beobachter, Satellit und Sonne an. Die Satelliten waren ungefähr so hell die Sterne im Großen Wagen, ca. 2. bis 3. Größenklasse.
Die Satelliten werden von den Dispensern zunächst auf einer elliptischen Bahn mit 210-280 km minimaler und 380 km maximaler Höhe ausgesetzt. Ihre operativer Orbit ist 550 km, und auf diesem sollen sich gleichmäßig verteilen, um die ganze Erde mit Funknetz abzudecken. Die ersten 20 eines jeden Starts beginnen sofort mit dem Aufstieg vermöge ihrer Ionentriebwerke und erreichen ihre endgültige Bahn nach 45 Tagen. Die übrigen 40 zirkularisieren ihre Bahn zunächst auf 380 km Höhe und werden dort geparkt. Die zweite Gruppe von 20 verweilt 35 Tage auf dieser Bahn, bevor sie mit dem 45-tägigen Aufstieg beginnt, die dritte sogar 70 Tage. Die ellipsoide Form der Erde sorgt während dessen dafür, dass die Linie, in der die Bahnebene die Äquatorebene der Erde schneidet, nach Westen rotiert (Präzession der Bahnebene), so dass die drei Gruppen auf gegeneinander versetzten Bahnen enden. Auf diese Weise kann ein Start drei Bahnen mit je 20 Satelliten beliefern. Für die erste Schale waren 72 Bahnen zu je 22 Satelliten geplant, das sind 1584. Auf einer zweiten Schale in 1100 km Höhe sollen dann noch einmal 1600 folgen und weitere Schalen auf 1100, 1300 und 350 km mit je bis zu 2500 Satelliten.
Derzeit sind knapp 12000 Starlink-Satelliten von der amerikanischen Telekommmunikations-Behörde Federal Communications Commission FCC bereits genehmigt, die bis Ende 2027 in den Orbit geschossen werden sollen, bzw. laut Vorgabe der FCC müssen. Nach Berechnungen von Hainaut und Williams [1] werden damit zu jeder beliebigen Zeit etwa 520 von ihnen über dem Horizont sein (die Arbeit kommt sogar auf 1600, wenn alle geplanten Megakonstellationen zusammen genommen werden, das sind derzeit 26750 Satelliten). Nicht alle Satelliten über dem Horizont sind dabei von der Sonne beleuchtet, sondern in Abhängigkeit vom Winkel der Sonne unter dem Horizont befinden sich mehr oder weniger von ihnen noch im Sonnenlicht, was die Voraussetzung für ihre Sichtbarkeit ist. Während der nautischen Dämmerung, wenn die ersten Sterne erscheinen bis nur noch die Westhälfte des Himmels dunkelblau ist, sind es 95%-85%. In der Phase der astronomischen Dämmerung, in unseren Breiten ca. 90 bis 120 Minuten nach Sonnenuntergang (zwischen Mitte bis Ende Mai und Mitte bis Ende Juli endet sie gar nicht) sind es noch 85%-75%.
Was das bedeutet, zeigt die folgende Simulation von Michael Vlasov:
Die Satelliten sind allerdings nicht so auffällig wie im Video. Für’s bloße Auge ist ihr Anblick subtiler:
Das gilt allerdings erst, wenn sie auf ihrer endgültigen Umlaufbahn angekommen sind. Vorher sind sie etwa so hell wie die Sterne des großen Wagens, der im Video im Kopfstand zu sehen ist, und manchmal auch wesentlich heller. Je nach Geometrie erreichen sie 1. Größenklasse und mehr, d.h. sie sind so hell wie die hellsten Sterne am Himmel. Manchmal blitzen sie auf und übertreffen kurzzeitig sogar die Helligkeit der Venus. Mehrfach sah ich Ketten von Satelliten über 20 und mehr Minuten, die in einigen Grad Abstand alle derselben Bahn folgten und die Helligkeit der Sterne im Orion übertrafen. Nach einigen Minuten wird aus Interesse dann Überdruss. Genug, es reicht, wann hört das endlich auf?
Diese hellen, langen Ketten haben wohl die meisten Leser auf meinen ersten Artikel aufmerksam gemacht, und sie haben auch für die eine oder andere UFO-Meldung gesorgt. Warum das so ist, darauf komme ich gleich zurück.
Wenn sie auf 550 km Höhe sind, werden die Starlinks deutlich dunkler, rund 4.5 Größenklassen. Das ist etwa die Helligkeit des “Reiterleins” Alkor, dem kleinen nahen Begleitsterns des mittleren Deichselsterns Mizar im Großen Wagen. Dunkel genug, um am Himmel in der Stadt nicht bemerkt zu werden aber hell genug, um bei mäßig dunklem Himmel am Stadtrand noch deutlich erkennbar zu sein.
Viel stärker betroffen sind die Amateur- und professionelle Astronomie. Große Optiken und lange Belichtungszeiten machen auch unscheinbare Satelliten hell und auffällig. Als ich neulich nach der kurz zuvor gestarteten Crew-Dragon mit einem 80×15-Feldstecher Ausschau hielt, flogen mehrfach Satelliten auf der gleichen Bahn von Südwest nach Nordost durch das Blickfeld, während die Crew-Dragon etwa gleich hell war und von Nordwest nach Südost flog – und das obwohl erst 420 Satelliten im Orbit waren. Die Bahnen verliefen tief am Westhorizont, und mit bloßem Auge waren bei hellem Mondschein weder die Dragon noch die Starlinks zu sehen, aber 80 mm Öffnung sammeln rund das 150-fache an Licht wie das bloße Auge, das sind 7 Größenklassen an Gewinn, da erschienen sie trotz atmosphärischer Dämpfung heller als die hellsten Sterne fürs bloße Auge.
Die folgenden Aufnahmen von Amateuren und Profis zeigen, wie Starlink Himmelsaufnahmen photobombt:
Wie groß ist die Auswirkung auf die professionelle Astronomie? Dieser Frage haben Olivier Hainaut und Andrew Williams von der Europäischen Südsternwarte einen Aufsatz [1] gewidmet. Die Autoren modellierten dabei die Satelliten als Scheiben von 1,5 m Durchmesser mit 25% Reflexionsvermögen. Im folgenden Diagramm sind zunächst die von ihnen berechneten Punkthelligkeiten der Starlink-Satelliten für verschiedene Umlaufbahnen (verschiedenfarbige durchgezogene Linien) über dem Winkelabstand vom Zenit, dem Punkt senkrecht über dem Beobachter, aufgetragen. 0° Zenitabstand bedeutet, der Satellit befindet sich direkt im Zenit, 90° bedeuten, er befindet sich am Horizont. Je höher die Bahn, desto dunkler ist der Satellit, weil er weiter vom Beobachter entfernt ist (dunkler heißt, der Größenklassen-Zahlenwert ist größer). Und ebenso wird der Satellit dunkler, wenn er einen größeren Zenitabstand hat, was nicht nur am längeren Lichtweg durch die Atmosphäre auf der Sichtlinie zum Satelliten liegt, sondern vor allem daran, dass er auch in diesem Fall mit größerem Zenitabstand zunehmend weiter entfernt ist; ein Effekt, der bei niedrigen Umlaufbahnen größer ist als bei hohen. Die orangefarbene Kurve entspricht etwa den Beobachtungen der ersten Starlinks auf ihrer 550-km-Bahn. Die blaue entspricht der geplanten niedrigen Schale. Das Aussetzen in rund 210 km Höhe (nicht im Diagramm) wäre extrapoliert etwa maximal 2,2 Größenklassen hell – die Helligkeit der Sterne des Großen Wagens (sic!).
Nun verwenden die Astronomen ihre Teleskope nicht mehr zum Beobachten mit dem bloßen Auge, sondern sie machen lang belichtete Fotos. Der Satellit bewegt sich dabei durch das Bild und verursacht eine Strichspur, wie oben gesehen. Da er nicht die ganze Zeit dieselben Pixels belichtet, wie die nachgeführten Sterne das tun, erscheint die Strichspur dunkler als die Punkthelligkeit des Satelliten. Hier der Effekt für verschiedene Bahnhöhen und Zenitabstände: Die Satelliten bewegen sich in Zenitnähe deutlich schneller über den Himmel, einerseits weil sie näher sind und eine pro Sekunde zurückgelegte Strecke von ca. 8 km somit größer erscheint, und andererseits, weil sie sich dort tangential zum Beobachter bewegen, während bei größeren Zenitabständen ein Teil ihrer Geschwindigkeit radial in Richtung zum Beobachter erfolgt. Deswegen sollten sie im Zenit eigentlich eine dunklere Strichspur verursachen. Da sie dort jedoch heller sind, wird die Helligkeitsabnahme durch die schnellere Bewegung fast perfekt kompensiert und die Strichspur ist für alle Zenitabstände gleich hell. Für Bahnhöhen von 300 km bzw. 500 km ergeben sich effektive Helligkeiten von 12,2m und 12,7m. Schon Amateurfernrohre erreichen mit Kameras 17m bis 20m. Großteleskope erreichen 25m bis 28m.Die effektive Helligkeit im Vergleich zu den Sternen nimmt allerdings mit der Belichtungszeit ab. Wenn die Belichtungszeit vergrößert wird, werden die Sterne im Bild heller, aber der Satellit flitzt ja nur kurz durch das Bild und seine Spur bleibt unverändert. Vergleicht man die Helligkeit von Sternen auf der Aufnahme mit denen der Satellitenspur, so erscheint die Satellitenspur bei zunehmender Belichtungszeit nur noch so hell wie zunehmend schwächere Sterne:
Allerdings nimmt die Wahrscheinlichkeit mit zunehmender Belichtungszeit zu, dass überhaupt ein Satellit durch das Bild flitzt. Und bei Großteleskopen erscheinen die Spuren so hell, dass die Pixel gesättigt werden, typischerweise über die fünffache Breite der Unschärfe durch die Turbulenz in der Atmosphäre (“Seeing”), also 5 Bogensekunden (laut [1]). Das Bild ist dann ruiniert.Hainaut und Williams haben analysiert, welche Beobachtungen wie stark von den Starlink-Strichspuren betroffen wären. Dabei verglichen sie verschiedene Beobachtungstechniken. Besonders hart trifft es das am Vera C. Rubin Observatorium, ehemals Large Synoptic Survey Telescope (LSST) genannt, ein Weitwinkel-Teleskop mit einem 8-Meter-Spiegel, das derzeit in den chilenischen Anden gebaut wird. Es soll unter anderem nach Asteroiden und Kometen suchen, insbesondere solchen, die auf Kollisionskurs mit der Erde sein könnten, und dafür ist es auch wichtig, in relativer Sonnennähe zu beobachten, weil manche der Objekte aus Richtung der Sonne auf uns zu kommen. Das heißt, dass kurz nach Einbruch der Dunkelheit oder kurz vor der Morgendämmerung der West- bzw. Osthimmel beobachtet werden muss. LSST hat ein riesiges Blickfeld von 6,5 Monddurchmessern und während der nautischen Dämmerung würde sich auf jeder zweiten Aufnahme eine Satellitenspur wiederfinden. Im chilenischen Sommer wäre selbst um Mitternacht noch 1/6 des beobachteten Himmels im Bereich von 60° Zenitabstand von Strichspuren betroffen. Nur Nächte im Winter wären unbeeinträchtigt:
Soviel zu Elon Musks ursprünglicher Aussage, die Satelliten seien nachts ja im Erdschatten…
Was kann man dagegen tun? Amateure nutzen normalerweise Stacking von zahlreichen Aufnahmen, d.h. viele Einzelaufnahmen werden zu einem Bild aufaddiert. Dabei gibt es verschiedene Additionstechniken. Häufig wird “Kappa-Sigma-Clipping” benutzt: hierbei werden nur Pixel addiert, deren Helligkeit in allen Aufnahmen in einem gewissen Bereich um den Mittelwert liegt (Standardabweichung Sigma multipliziert mit einem frei wählbaren Faktor Kappa). Pixel, die nur auf Einzelbildern hell sind, werden aussortiert. Damit kann man unbewegliche Objekte aufnehmen und Satelliten- oder Flugzeug-Spuren unterdrücken lassen, aber eine Asteroidenspur oder einen Meteor lässt diese Technik ebenfalls verschwinden. Außerdem wird der Bereich unter der Strichspur effektiv nicht so lange belichtet wie der Rest des Bildes, so dass sich keine exakten Helligkeitsmessungen durchführen lassen. Deswegen taugt die Methode für Profiaufnahmen normalerweise nicht. Die einfachste Methode ist am Ende, die Bilder mit Strichspuren auszusortieren. Wenn aber wie beim LSST 50% der Bilder betroffen wären, wäre das viel zu viel Ausschuss.
Alternativ könnte man die Belichtung beim Durchfliegen eines Satelliten durch kurzes Schließen des Kameraverschlusses unterbrechen, was alle Pixel gleichermaßen beträfe und die Belichtungszeit für alle gleich hielte. Das wäre technisch machbar, die Bahnen der Satelliten sind bekannt und ein Durchfliegen des Blickfelds könnte vorausberechnet werden, aber es würde immense Kosten verursachen, alle Sternwarten nachträglich mit entsprechender Hard- und Software auszustatten.
Elon Musk hat auf die Proteste der Astronomen reagiert und versprochen, das System werde “Null Einfluss” (zero impact) auf die Forschung der Astronomen haben. Der erste Ausbesserungsversuch war allerdings nur mäßig erfolgreich: Man lackierte die weißen Antennenflächen auf der Unterseite des Satelliten mit einem dunklen Anstrich. Ein einziger Satellit dieser Art, “DarkSat” genannt, war beim ersten operativen Start im November 2019 mit dabei. Enttäuschenderweise war er nach dem Start genau so hell wie alle anderen auch. Erst als er schließlich im Frühjahr seine finale Bahn erreichte, war er um den Faktor 2 dunkler als die anderen, was 0,75 Größenklassen entspricht [2]. Allerdings schien es thermische Probleme mit dem Satelliten zu geben, denn obwohl 50% Verdunklung ja besser wäre als gar keine, wurde keiner der 360 in Folge gestarteten Satelliten mehr als DarkSat ausgeführt.
Ende April veröffentlichte SpaceX auf seiner Webseite eine Analyse und Ankündigung [3], wie das Problem endgültig gelöst werden soll. Der Grund, weshalb die Satelliten in der Aufstiegsphase manchmal so hell seien, liege an den Solarzellen-Paneelen. Diese seien nämlich während der Parkphase und des Aufstiegs parallel zum Erdboden ausgerichtet (Konfiguration “offenes Buch”), um möglichst wenig Luftwiderstand zu verursachen, denn in 220-380 km Höhe ist noch Restatmosphäre vorhanden. Wenn sie von der unter dem Beobachterhorizont stehenden Sonne angestrahlt werden, reflektiere ihre weiße Unterseite das Sonnenlicht in Richtung Boden. Die genauen Abmessungen der Satelliten sind nicht bekannt, jedoch wurden von Amateuren aufgrund von Fotos der beladenen Dispenser 2,4–3,2 m Länge und 1,1-1,6 m Breite bei nur 20 cm Höhe geschätzt. Die Solarzellen-Paneele werden im All ausgefaltet, haben laut SpaceX-Grafiken die Breite der längeren Seite des Satelliten, bestehen aus 6 Segmenten und könnten somit bis zu 9,6 x 3,2 m messen! Dann verwundert die große Helligkeit der Starlinks nicht mehr – sie haben den Querschnitt eines Omnibusses! Hier eine Aufnahme des niederländischen Astrofotografen Ralf Vandebergh, die ganz deutlich zeigt, dass das Solarpaneel das Problem ist:
My best close-up image of a Starlink-2 satellite, this frame from an imaging session on March 24 shows clearly the (flat) satellite bus and solar panel. Info: https://t.co/TNuqJr2JHk @SpaceX @SpaceXStarlink @elonmusk @planet4589 @Marco_Langbroek @SPACEdotcom @geekwire @Teslarati pic.twitter.com/DV9TsJMAqG
— Ralf Vandebergh (@ralfvandebergh) March 26, 2020
Normalerweise ist die Reflexion an den Solarpaneelen nur diffus – man sieht sie, weil ihre aus Gründen der Temperaturregelung weiße Rückseite vom Sonnenlicht beleuchtet wird. Wenn die Geometrie von Beobachter, Satellit und Sonne zufällig genau so passt, dass der Beobachter die Sonne in den Solarzellen gespiegelt sieht, kommt es zu den wenige Sekunden dauernden “Flares”, wie man sie schon von den alten Iridium-Satelliten kannte, und dann können Helligkeiten von -5m und heller erreicht werden. Erst auf der operativen Bahn werden die Solarsegel senkrecht zum Erdboden aufgerichtet (Konfiguration “Haifischflosse”) und sind dann prinzipiell durch das Chassis (“Satellitenbus”) von unten gesehen verdeckt. Bei Haifischflossenkonfiguration der Solarzellen ist die Rückseite von der Sonne weggerichtet und Spiegelungen der dem Horizont stehenden Sonne werden nach oben und damit von der Erde weg gelenkt.
SpaceX hat nun angekündigt, die aufsteigenden Satelliten so zu rollen, dass sie während der Park- und Aufstiegsphase stets mit der Kante in Richtung Sonne ausgerichtet sind – Konfiguration “Messerschneide”. Damit werden ihre Seitenflächen nicht von der Sonne angestrahlt. Dies schränke die Stromversorgung der Satelliten mit Sonnenlicht ein (ich nehme an, man tut dies nur in der Dämmerungszone, der Satellit benötigt ja Strom) und verkürze die Zeiten der Funkverbindung mit der Bodenstation. Dies sei eine leichte Modifikation, die lediglich einer kleinen Software-Änderung bedürfe.
Auf dem finalen Orbit seien die größten Reflexionsquellen am Satelliten die weißen quadratischen Phase-Array-Antennen und kleine weiße Schüsselantennen an der Seite des Satelliten. Diese müssten weiß sein, um Überhitzung im Sonnenlicht zu vermeiden. Das Experiment mit dem DarkSat habe zwar eine Verdunklung von 55% erbracht, was beinahe reichte, um den Satelliten für das bloße Auge unsichtbar zu machen, wirke jedoch nicht im Infraroten (heiße Flächen strahlen besonders hell). Das verlagert das Problem für die Profis nur auf andere Frequenzen. Stattdessen habe man einen neuen Satellitentyp, “VisorSat”, mit ausklappbaren Sonnenblenden aus radiodurchlässigem Schaumstoff ausgestattet, die ihren Schatten auf die Antennenflächen und den größten Teil der Unterseite des Satelliten werfen und ihn damit für das bloße Auge unsichtbar machen würden (das Ziel ist wohl 7m, wie ich anderswo gelesen habe; das sind 3 Größenklassen weniger als bisher, ein Fünfzehntel der jetzigen Helligkeit).
Man habe sich dabei mit der American Astronomical Society und dem Vera C. Rubin Observatorium (LSST) abgestimmt, das als problematischster Fall gelte, und sich von letzterem eine Zielvorgabe für die Helligkeit setzen lassen, nach der sich die Ingenieure gerichtet hätten. Es sei allerdings unmöglich, die Helligkeit so weit zu reduzieren, dass die Satelliten auf den Aufnahmen des Vera C. Rubin Observatoriums gar nicht mehr zu sehen sein würden. Jedoch werde die Saturierung der Pixel vermieden. Kritisch seien nur noch die ersten Stunden nach einem Start, bevor die Satelliten ihre Orientierungen nach anfänglichem Taumeln stabilisiert hätten, und für diese Phasen werde man weiterhin die Bahnelemente der Satelliten veröffentlichen, so dass die Sternwarten ihre Beobachtungsplanung danach richten könnten.
Beim Start am 4. Juni war ein VisorSat dabei, und bei allen folgenden Starts sollen nur noch solche zum Einsatz kommen, wie Elon Musk bei einer Online-Pressekonferenz am 30. April erläuterte [4]. Die bisher gestarteten Satelliten würden binnen 3-4 Jahren alle ersetzt werden (in der Tat haben die ersten 60 vom Mai 2019 begonnen, ihre Bahnen abzusenken). Außerdem bemüht sich SpaceX in einer aktuellen Anfrage beim FCC darum, die Orbits von 2824 genehmigten Satelliten auf 1100-1330 km – diese Satelliten sind besonders lange im Sonnenlicht (allerdings auch 0,75 Größenklassen dunkler) – auf 540-570 km zu verlegen.
Ich habe mir eben den Effekt der “Messerschneiden-Konfiguration” bei den am 4. Juni gestarteten Satelliten selbst angeschaut, die am 06. Juni bei mir gegen 23:30 fast durch den Zenit flogen. Verglichen mit gleich hellen Sternen hatten sie eine Helligkeit von ca. 6m, was schon bedeutend dunkler als die 2m und mehr der vorherigen Starts war. Bei visuell noch dunkelblauem Himmel durch die gegen Ende der nautischen Dämmerung 11° unter dem Horizont stehende Sonne waren sie nicht mehr sichtbar, aber im Feldstecher dennoch kein Problem. Gelegentlich blitzten die Satelliten noch um eine Größenklasse auf. Die Strichspuren werden auf Astrofotografien damit immer noch zu sehen sein und ca. 13,5m hell sein – dünne Linien bleiben, die mit Kappa-Sigma-Clipping oder Aussondern der Bilder kompensiert werden müssen. Zero impact würde ich das nicht nennen wollen.
Wie sich der VisorSat auf der endgültigen Bahn schlägt, wird sich spätestens in ein paar Monaten zeigen, wenn er seinen finalen Orbit erreicht hat. Wunder sollte man nicht erwarten. Ich verstehe auch nicht das Argument, dass das Satellitenchassis das Solarpaneel stets vollständig verdecken können soll. Das mag stimmen, wenn der Satellit im Zenit steht. Bei einer Passage im Süden in 45° Höhe schauen wir jedoch seitlich auf die Zellenseite des von der Sonne angestrahlten Paneels. Zwar dürften keine Flares auftreten, weil das Spiegelbild der Sonne nach oben reflektiert wird, und die Zellenseite ist die dunklere Hälfte, aber diffuse Reflexion wird trotzdem auftreten und sollte den Satelliten im finalen Orbit so gut sichtbar machen wie bisher. Allerdings erreicht das Sonnenlicht diese Gegend des Himmels nur in der nautischen Dämmerung, in der Astrofotografie nur eingeschränkt möglich ist.
Fürs bloße Auge werden die Starlink-Perlenketten nach dem Start jedoch voraussichtlich weitgehend verschwinden und damit wenigstens der Anblick des Himmels mit bloßem Auge nicht völlig verschandelt werden.
Die schlechte Nachricht ist allerdings, dass sich ein anderer Anbieter einer Megakonstellation, das bereits insolvente OneWeb, das gerade einen Käufer sucht, Ende Mai um die Erlaubnis bei der FCC bewarb, seine bisher genehmigten 720 Satelliten auf 1200-km-Orbits um 47844 Satelliten aufzustocken [5] – viermal mehr als Starlink auf einer störenderen Bahn. Falls sich ein Käufer finden sollte, wird es bald sehr eng im niedrigen Erdorbit und die Zahl der Strichspuren auf Astrofotos wird noch einmal drastisch zunehmen. Und über das Kollisionsproblem von außer Kontrolle geratenen Satelliten und die Funkinterferenzen für die Radioastronomie haben wir hier noch gar nicht gesprochen…
Die Anhänger von Elon Musk betonen immer das hehre Ziel, dass das Starlink-System 5G und Internet für alle Menschen auf der Welt verfügbar machen werde, und da müsse die Astronomie halt zurückstecken. Angesichts eines avisierten Monatspreises von $80 scheint dies wenig stichhaltig zu sein, das wäre schon mir als Bewohner eines reichen Landes viel zu teuer – wie sollen sich durchschnittliche Einwohner von Ländern, die keine ausreichende Mobilfunknetz-Versorgung bereitstellen können, solche Gebühren leisten? Falls sich Kundschaft findet, wird der eigentliche Profiteur SpaceX sein. Elon Musk will damit seine ambitionierten Marspläne mit dem Starship querfinanzieren. Tatsächlich unterschrieb SpaceX am 20. Mai einen Vertrag mit der US Army [6], die das System in den nächsten drei Jahren zur Breitbandversorgung testen will. Militärischer Einsatz also – da ist genug Geld abzugreifen. Auf lange Sicht wird die Vermüllung des Himmels wohl nicht aufzuhalten sein.
Wer nach den Starlinks (neu wie alt) Ausschau halten will, sollte die Seite Heavens-Above.com besuchen und seinen Beobachtungsort oben rechts eingeben. Unter dem Link Starlink passes for all objects from a launch kann man dann oben einen der Starttermine auswählen und bekommt eine Liste aller sichtbaren Überflüge der Satelliten diese Starts für die nächsten 24h. Klickt man auf eine Zeile, dann öffnet sich eine Himmelskarte für den jeweiligen Satelliten. Wer sich am Sternhimmel nicht auskennt, kann sich ungefähr an den Himmelsrichtungen und der angegebenen Höhe orientieren. Ein Feldstecher hilft. Unter Dynamic 3D display of all objects from a single Starlink launch kann man sich alle Satelliten eines Starts im Orbit um die Erde anzeigen lassen (funktionierte bei mir jedoch erst nach Anmeldung mit meinem Login).
[1] Olivier Hainaut, Andrew Williams, “On the Impact of Satellite Constellations on Astronomical Observations with ESO telescopes in the Visible and Infrared Domains“, Astronomy & Astrophysics, 5. März 2020; arXiv:2003.01992.
[2] J. Tregloan-Reed, A. Otarola et al., “First observations and magnitude measurement of Starlink’s Darksat“, Astronomy & Astrophysics, 23. April 2020 ; arXiv:2003.07251.
[3] SpaceX, “Starlink Discussion National Academy of Sciences“, SpaceX-Webseite, 28. April 2020.
[4] CENAP, “Raumfahrt – SpaceX to test Starlink “sun visor” to reduce brightness“, CENAP-Webseite, 28. April 2020.
[5] Jon Brodkin, “Bankrupt OneWeb seeks license for 48,000 satellites, even more than SpaceX“, ars Technica, 27. Mai 2020.
[6] Sandra Erwin, “U.S. Army signs deal with SpaceX to assess Starlink broadband“, SpaceNews, 26. Mai 2020.
[7] en.wikipedia.org, “Starlink”
]]>[UPDATE] +++ Jetzt gibt es auch Vorhersagen auf Heavens-Above.com mit denen sich jeder seine eigene Vorhersage errechnen lassen kann +++ oben rechts den Ort eingeben oder anmelden +++ Crew Dragon Link folgen +++ [/UPDATE]
An Bord der Dragon werden die NASA-Astronauten Robert “Bob” Behnken (Jahrgang 1970) und Douglas “Doug” Hurley (1966) sein. Beide sind mehrfach das Space Shuttle geflogen (Behnken dreimal, Hurley zweimal, darunter den letzten Flug STS-135) und somit alte Hasen.
Seit das Shuttle 2011 in den Ruhestand geschickt wurde, musste die NASA bei der russischen Weltraumorganisation Roskosmos Sitzplätze in den Sojus-Raketen buchen, um zur ISS fliegen zu können, die ihre Monopolstellung ausnutzte und kräftig an der Preisschraube drehte. Als die Shuttles noch flogen, verlangte Roskosmos knapp $23 Millionen (die Sojus- und Shuttle-Missionen zur ISS wechselten sich damals ab). Zu diesem Preis nahm Roskosmos auch ein paar Touristen mit zur ISS. Zuletzt kostete ein Sitzplatz in der Sojus-Kapsel $86 Millionen. SpaceX will die Flüge nun für $55 Millonen pro Sitzplatz anbieten. Konkurrent Boeing verlangt für einen Sitzplatz in seinem CST-100 Starliner hingegen $90 Millionen. Die Shuttle-Flüge hatten $450 Millonen das Stück gekostet, was bei 7 mitfliegenden Astronauten einem Sitzplatzpreis von $64 Millionen entspricht (es verblieben aber nur 3-4 davon in der ISS). Vor allem hat die NASA jedoch bei den Entwicklungskosten gespart: SpaceX erhielt $3100 Millionen und Boeing $4821 Millionen an Förderung für die Entwicklung ihrer Raumfahrzeuge (Blue Origin und Sierra Nevada, die am Ende nicht zum Zuge kamen, noch einmal zusammen knapp $388 Millionen). Das SLS-Orion-Programm verschlang seit 2011 bereits $20 Milliarden und der erste Start einer Orion auf SLS steht immer noch aus. Für weniger als die Hälfte hat die NASA nun gleich zwei private Fluggelegenheiten in die Erdumlaufbahn (was gut ist, wenn es mit einer davon mal ein Problem geben sollte, dann kann man mit der anderen weiterfliegen).
Es sind aber nicht nur finanzielle Gründe, warum der Flug für die Amerikaner so bedeutend ist – natürlich geht es auch um das Prestige. Man sieht sich als führende Technologienation, das möchte man natürlich auch nach außen darstellen. Auf den ehemaligen Klassenfeind angewiesen zu sein, kommt da nicht so gut. Deswegen sind die Schlagzeilen der US-Medien voll von Statements der Art “Erster amerikanischer Flug von amerikanischem Boden seit der Shuttle-Ära”. Patriotismus pur. #LaunchAmerica.
Der Start wird von der geschichtsträchtigen Startrampe 39A erfolgen, von der aus 12 Saturn-V-Raketen (und damit alle außer einer, Apollo 10) und 94 Shuttle-Missionen starteten (darunter die erste, Columbia STS-1, und die letzte, Atlantis STS-135) , sowie 16 SpaceX Falcon 9 und drei Falcon Heavy. Die Startrampe ist jetzt alleine SpaceX vorbehalten und die geplanten NASA-Artemis-Mondflüge mit der Riesenrakete SLS werden von der benachbarten Rampe 39B abheben.
Die Dragon-Mission läuft unter dem Namen Crew Dragon Demo-2. Dies ist also der zweite Demonstrationsflug einer Crew Dragon. Der erste erfolgte vom 2. bis 8. März 2019, war ohne Besatzung und dockte vollautomatisch an die ISS an. Damals sollte SpaceX unter Beweis stellen, dass die Kapsel sicher ist und funktioniert. Um den bereits um vier Jahre verzögerten Zeitplan zu verkürzen – eigentlich sollte der erste Demonstrationsflug einer Crew Dragon schon 2015 erfolgen und die ersten Einsatzflüge für die NASA schon 2017 – hatte man zwei Missionen zusammengelegt, einen Flug in die Nähe der ISS, bei dem die Manövrierfähigkeit demonstriert werden sollte, sowie das automatische Andocken, beide ohne Besatzung. Die älteren Fracht-Dragon-Kapseln, die nun ausgemustert wurden (wiederverwendete, umgerüstete Crew-Dragons ersetzen sie künftig, während Crews immer in neuen Dragons starten), dockten nicht selbstständig an, sondern wurden mit dem langen Roboterarm der ISS geborgen und dann von diesem aufs Dock geflanscht.
Der Kombinationsflug Crew Dragon Demo-1 führte sowohl Manöver in der Nähe der ISS vor, als auch nachfolgend das erfolgreiche Andocken an die ISS. Er war ein voller Erfolg – im Gegensatz zum entsprechenden Demonstrationsflug des Konkurrenten Boeing CST-100 Starliner, der wegen eines Software-Fehlers die ISS gar nicht erst erreichte und noch weitere Probleme offenbarte.
Die Demo-1-Kapsel, Seriennummer C201, sollte dann noch für einen Abbruch-Test während des Fluges verwendet werden und das Rettungssystem der Kapsel, fest eingebaute Superdraco-Flüssigkeitstriebwerke, demonstrieren, jedoch explodierte die Kapsel zuvor bei einem Testlauf ebenjener Triebwerke am 20. April 2019. Eine Untersuchung ergab, dass ein undichtes Rückschlagventil, das den Fluss des Oxidationsmittels in die richtige Richtung lenken sollte, beim Betanken nicht vollständig abgedichtet hatte und so ein “Pfropfen” von unter Druck stehendem Oxidationsmittel auf ein Titanventil gestoßen war, was eine heftige Reaktion auslöste. Die Rückschlagventile wurden daraufhin durch eine andere Bauart ersetzt.
Glücklicherweise, wie NASA und SpaceX betonten, war der Fehler bei Bodentests rechtzeitig entdeckt worden, aber es ist gerade die Strategie von SpaceX, radikale Neuerungen einzuführen und dann kaputt zu testen, um aus den Fehlern zu lernen, während die Luft- und Raumfahrtindustrie ansonsten konservativer vorgeht und Fehler auch im Test möglichst zu vermeiden sucht. Andere Firmen verifizieren ihr Design gewissermaßen, während SpaceX es falsifiziert.
Der Abbruch-Test wurde dann am 19. Januar mit einer anderen Kapsel, Nr. C205, durchgeführt, die eigentlich für Demo-2 vorgesehen gewesen war. In 21 km Höhe bei einer Geschwindigkeit von Mach 2,2, was dem maximalen dynamischen Druck während des Aufstiegs entspricht, wurden die Triebwerke der Trägerrakete abgeschaltet und die Kapsel interpretierte dies als Versagen der Falcon 9 und löste selbstständig die Abtrennung von der Rakete aus, die danach per Fernbefehl gesprengt wurde. Die Kapsel stieg auf 42 Kilometer Höhe, stabilisierte ihre Fluglage, warf den mit ihr verbundenen Frachtbehälter ab und landete sicher an ihren Fallschirmen im Atlantik.
Mit den Fallschirmen der Kapsel hatte es seinerseits Probleme gegeben, die sich bei asymmetrischer Lastverteilung manchmal nicht richtig geöffnet hatten. Diese Probleme konnten ebenfalls beseitigt werden. Von 27 Abwürfen der Kapsel mit dem verbesserten Mark-3-Fallschirmsystem vom Helikopter aus misslang nur einer, weil der Hubschrauber beim Aufstieg in eine instabile Fluglage geraten war und die Kapsel abwerfen musste, bevor das Fallschirmsystem scharf geschaltet worden war.
Durch diese Probleme kam es zu einer weiteren rund einjährigen Verzögerung der Demo-2-Mission, was die NASA zwang, weitere Sojus-Sitzplätze zu buchen. Um Zeit aufzuholen werden auch bei Demo-2 zwei Flüge kombiniert. Abweichend vom früheren Plan werden nun nicht erst SpaceX-Astronauten auf den ersten astronautischen Flug mit der Crew Dragon geschickt, bevor die NASA eigene Astronauten der Kapsel anvertraut, sondern dies geschieht gleich beim ersten Flug mit Crew.
Die Kapsel wird zukünftig mit 4 Passagieren besetzt sein. Beim ersten noch für Ende dieses Jahres geplanten operationellen Flug Crew-1 sind 4 Passagiere geplant, drei Amerikaner und ein japanischer Astronaut, und bei Crew-2 im kommenden Jahr sollen zwei Amerikaner, ein französischer und ein russischer Astronaut zusammen starten. Ursprünglich waren sogar 7 Sitze in der Dragon 2 geplant, aber der Verzicht auf Landungen auf festem Boden mit Hilfe der Superdraco-Triebwerke und somit die Beschränkung auf Wasserungen am Fallschirm auf Druck der NASA (aus Sicherheitsgründen) erforderte eine stärkere Neigung der Sitze, um die Wirbelsäulen der Insassen beim Wassereinschlag zu schonen, was es unmöglich machte, mehr Sitzplätze einzubauen. Im folgenden Video kann man sich das stylische, aber etwas klinische Innere der Kapsel bewundern.
Die Mission soll am Mittwoch damit beginnen, dass die Astronauten 3 Stunden vor dem Start nach ihrem Frühstück und Einkleiden im Crew-Quartier mit einem Auto – nein, nicht mit dem “Astro-Van”, wie er bei den Apollo- und Shuttle-Flügen eingesetzt wurde, sondern selbstverständlich mit einem Tesla Modell X Sportwagen – die 14 Kilometer zur Rakete gefahren werden. Sie steigen um 14:15 Ortszeit (20:15 mitteleuropäischer Zeit) über eine zum Start wegklappbare Gangway in die Kapsel ein, deren Luke gegen 15:10 (21:10) geschlossen werden wird.
Um 16:33 (22:33) erfolgt dann planmäßig der Start. Die erste Stufe wird 2 Minuten 35 Sekunden brennen und die Rakete in 80 km Höhe tragen und auf 6500 km/h (1,8 km/s) beschleunigen. Die erste Stufe trennt sich bei 2 Minuten 40 von der 2. Stufe und fliegt zurück zur Erde, wo sie 10 Minuten nach dem Start auf dem “autonomen Drohnenschiff” Of Course I Still Love You im Atlantik landen soll. Die zweite Stufe zündet 2 Minuten 47 nach dem Start und brennt bis 9 Minuten 06 Sekunden auf einer Höhe von knapp 200 km und bei einer Endgeschwindigkeit von 27160 km/h (7,5 km/s), bei der sie die Dragon aussetzen wird.
Dragon manövriert danach mit eigenem Antrieb auf den Orbit der ISS in 400 km Höhe, um plangemäß 19 Stunden nach dem Start am 28. Mai um 17:29 deutscher Zeit an die Internationale Raumstation anzudocken. Um 19:55 MESZ soll die Luke geöffnet werden. Die Astronauten werden danach 30-119 Tage (also 1-4 Monate) auf der ISS verbringen, je nachdem, wie sich die Kapsel im Weltall schickt und wie die Arbeiten an der Nachfolgekapsel für die Mission Crew-1 voranschreiten. Die Besatzung wurde vorsorglich für Außenbordeinsätze an der ISS geschult und wird an den ISS-Experimenten teilnehmen.
Der Starttermin fällt auf eine für Mitteleuropa günstige Zeit. Zwar führen alle Flüge von Cape Canaveral zur ISS über Mitteleuropa, aber nicht alle zu einer Uhrzeit, in der es am Boden schon dunkel und im Orbit noch hell ist. Das wird am Mittwoch der Fall sein, daher haben wir mit etwas Glück die Gelegenheit, die Kapsel und die 2. Stufe der Falcon rund 20 Minuten nach dem Start über dem Westhimmel auftauchen zu sehen. Besonders reizvoll ist es, mit dem Feldstecher zu schauen, ob die Kapsel kleine Schubstöße mit den Triebwerken abgibt, das sieht ziemlich spektakulär aus, wenn sich die Abgase im Sonnenlicht ausbreiten. Der niederländische Raumfahrtexperte Marco Langbroek hat schon bevor Vorhersagen auf Portalen wie Heavens Above für alle verfügbar sind die Bahnelemente auf der Basis derer des ersten Flugs Demo-1 und des anvisierten Starttermins abgeschätzt und online gestellt. Ich habe sie in ein Vorhersageprogramm geladen, mit deren Hilfe ich Überflugskarten für einige große Städte im deutschen Sprachraum generiert habe. Damit könnt Ihr abschätzen, wann die Kapsel ungefähr wo am Himmel auftauchen wird. Die Zeiten können dabei um einige Minuten variieren, dies sollte man mit einrechnen.
Im Moment sind die Wetteraussichten am Cape noch kritisch mit nur 60% Wahrscheinlichkeit für ausreichend gute Bedingungen für einen Start. Falls der geplante Starttermin nicht gehalten werden kann, stehen schon für den 30. Mai um 15:22 Uhr Ortszeit und 31. Mai um 15:00 Uhr Ausweichtermine fest. Der erste könnte somit gegen 21:45 eher im östlichen Bereich des deutschen Sprachraums beobachtet werden, wo es früh genug dunkel wird; der zweite wird wohl überall bei zu hellem Himmel stattfinden. Drücken wir also die Daumen für Mittwoch. Ansonsten sollte es wenigstens Gelegenheit geben, die Kapsel auf dem Weg zur ISS noch einmal zu sehen.
Den Astronauten viel Glück für Ihre Mission und Euch viel Glück bei der Beobachtung!
Hier das Programm auf dem NASA-Live Streaming-Kanal. Kelly Clarkson singt die Nationalhymne…
Im deutschen TV berichtet Phoenix ab 21:00.
Da sie zwischen Sonne und Erde steht, sehen wir sie im Moment als sehr schmale Sichel. Nur 3,5% der Venusfläche sind noch beleuchtet, mit abnehmender Tendenz. Trotzdem ist sie immer noch heller als -4. Größenklasse, nur von Mond und Sonne am Himmel übertroffen. Denn sie steht der Erde nun fast so nahe, wie sie ihr nur kommen kann, 0,3 Astronomische Einheiten oder 45 Millionen km. Deswegen erscheint sie jetzt auch besonders groß, 55 Bogensekunden, also fast eine Bogenminute, 1/60 eines Winkelgrads, 1/30 des scheinbaren Durchmessers des Mondes. Das ist in etwa die Grenze des Auflösungsvermögens des menschlichen Auges, d.h. theoretisch könnte man mit guten Augen erkennen, dass die Venus kein Punkt ist. Ein so strahlend helles Objekt blendet das Auge jedoch vor dunklem Hintergrund, so dass nur ein heller Klecks zu erkennen ist.
Die Sichel kann man ganz sicher nicht mit bloßem Auge erkennen, aber es reicht schon sehr moderate Optik, wie sie in vielen Haushalten vorhanden ist: ein Feldstecher. Ich hatte als Kind von vielleicht 6 Jahren ein ausziehbares “Piratenfernrohr” geschenkt bekommen mit vielleicht 10- oder 15-facher Vergrößerung, und es an einem Abend auf jenen hellen “Stern” gerichtet, der da am Himmel stand, und ihn als Sichel gesehen – das war für mich vollkommen unerwartet und total aufregend. Es war der Anstoß dafür, mit immer größeren Teleskopen immer tiefer ins Weltall blicken zu wollen.
Wer also ein Fernglas mit mindestens 7-facher Vergrößerung hat, sollte in den nächsten Tagen bei klarem Wetter den hellen Stern im Nordwesten anpeilen, der kurz nach Sonnenuntergang am noch blauen Himmel auftaucht. Man kann ihn schon gleich nach Sonnenuntergang suchen, im Feldstecher findet man die helle Venus sogar am Tage – was sich wegen der Nähe zur Sonne allerdings vor Sonnenuntergang strengstens verbietet! Denn die Sonne darf niemals versehentlich ins Blickfeld geraten, sonst drohen bleibende Augenschäden.
Nach Sonnenuntergang ist dieses Risiko nicht mehr gegeben. Die Venus steht mittlerweile bei Sonneuntergang nur noch gute 10° (ein handbreit bei ausgestrecktem Arm) über dem Horizont, d.h. es braucht unbedingt freie Sicht nach Nordwesten, z.B. von einem hohen Balkon oder Dach aus, in flacher Ebene, am Strand oder von einem Hügel aus. Idealerweise sucht Ihr Euch eine stabile Unterlage oder seitliche Stütze, gegen die Ihr das Fernglas bzw. Hand oder Arm stützen könnt, um eine ruhige Hand zu haben; ein Haus, Laternpfahl, Baum, Bank, Fahrrad, Auto, was gerade in Reichweite ist. Die Schärfe stellt Ihr separat für beide Augen ein, erst mit dem Rädchen in der Mitte für das linke Auge, dann am rechten Okular für das rechte. Wenn der Feldstecher zu sehr “schielt”, was viele tun, könnt Ihr über einemder Objektive die Kappe aufgesteckt lassen oder das Auge schließen, links oder rechts, wie’s am angenehmsten ist oder je nachdem welches das bessere Auge ist.
Gleich nebenan, nur 5° oder 2-3 fingerbreit links von Venus in Richtung 10 Uhr findet sich zur Zeit außerdem noch der Planet Merkur, der nur selten am Himmel zu sehen ist und mit -0,4 Größenklassen wesentlich lichtschwächer, etwa vergleichbar mit den hellsten Fixsternen (nach Sirius). Merkur ist mit 1,03 AE (155 Millionen Kilometer) sehr viel weiter als die Venus entfernt und zeigt im Feldstecher keinerlei Form oder gar Struktur. Im Teleskop sieht man zur Zeit einen “Halbmerkur”. Nur wenigen sehr guten Astrofotographen wie Sebastian Voltmer, von dem das Bild unten stammt, ist es gelungen, Details auf der Oberfläche des Planeten aufzulösen, die wir ansonsten nur mit Hilfe von Raumsonden erkunden können, wie Mariner 10, Messenger oder der europäischen Sonde BepiColombo, die gerade auf ihrem langen Weg zum sonnennächsten Planeten ist und ihn im Oktober kommenden Jahres passieren wird, bevor sie nach mehreren Swingbys erst im Dezember 2025 in eine Umlaufbahn um Merkur einschwenken soll. Merkur gewinnt zur Zeit noch an Höhe über dem Horizont. Mit Venus als Aufsuchhilfe ist er besonders leicht zu finden.
Also versucht Euch doch mal mit dem Fernglas an der Venus, ich habe die Sichel gestern problemlos im 10×50 gesehen. Aber wartet nicht zu lange, zwar wird die Sichel täglich spektakulärer, aber jeden Tag sinkt Venus zu Beginn der Dämmerung ein Stück tiefer Richtung Horizont und wird am Freitag wohl vom Himmel verschwunden sein. Merkur bleibt uns noch ca. eine Woche länger erhalten, dann versinkt der flinke Planet im Dunst bevor es dunkel genug für ihn wird, während es zunehmend später dunkel wird.
Am Mittwochabend gibt’s dann (voraussichtlich) als Nachschlag noch ein Raumfahrt-Highlight zu beobachten, darüber schreibe ich noch einen separaten Artikel.
]]>
Der Philosoph Huw Price fordert den Leser in seinem Buch “Time’s Arrow and Archimede’s Point” auf, einen atemporalen Blickpunkt anzunehmen. Einen Blick von “nirgendwann”. Wo – oder wann – soll das sein? Kehren wir einfach zurück zu Teil 1 und betrachten Zeit als eine gewöhnliche Dimension, wie den Raum. Picken wir uns irgendeine Koordinate in dieser Dimension heraus, ohne zunächst die Koordinaten links und rechts zu betrachten (bewusst sage ich nicht “vorher” und “nachher”, was einen existierenden Zeitpfeil implizieren würde). Wir finden einen Zustand niedriger Entropie an dieser Koordinate. Was erwarten wir, wenn wir die Nachbarkoordinaten betrachten? Eine höhere Entropie, logisch. Und zwar in jeder Richtung, es gibt ja keinen präferierten Zeitpfeil. Warum sollte die Entropie nach rechts immer höher werden, nach links aber nicht? Jede Veränderung aus einer niedrigen Entropie führt mit größter Wahrscheinlichkeit in eine höhere Entropie. Jede. Wir können aus der Notwendigkeit einer steigenden Entropie keinen eindeutigen Zeitpfeil ableiten.
Es fehlt eine Randbedingung: eine sehr niedrige Entropie an einem Ende der Zeitachse. Oder wenigstens mittendrin, ein extrem niedriges lokales Minimum.
Ende der Zeitachse? Hat die Zeit einen Anfang? Bevor die kosmologische Expansion entdeckt worden war, nahmen die Astronomen (und auch Albert Einstein) als selbstverständlich gegeben an, dass das Weltall schon ewig bestand und unveränderlich war. Was letztlich eine stetige Kreation neuer Materie für frische Galaxien aus dem Nichts bedeutet hätte – damals überschaute man dies noch nicht und die Kernprozesse in den Sternen waren noch nicht verstanden.
Ausgerechnet Einstein war es, der bewies, dass es nicht so sein konnte: seine Feldgleichungen verlangten, dass der Raum entweder kollabieren oder expandieren musste, er konnte nicht statisch sein. Aber Einstein wollte es nicht wahrhaben. Fügte man eine Integrationskonstante mit exakt dem richtigen Wert hinzu, eine kosmologische Konstante (letztlich eine Form der Vakuumenergie), dann konnte die Wirkung der Schwerkraft unter den Massen mit einer entgegen gerichteten Raumexpansion exakt kompensiert werden. Als Lemaître und Hubble die kosmologische Expansion entdeckten, schalt Einstein die kosmologische Konstante als seine “größte Eselei” – er hätte die Expansion vorhersagen können, nein, müssen.
Die Urknalltheorie galt dann auch bald schon als der Ursprung von Raum und Zeit – davor gab es keine Zeit, so wie es nördlich des Nordpols kein Norden mehr gibt. Warum und wie das Universum entstanden war und warum insbesondere seine Entropie zu Beginn so gering gewesen sein soll, konnte die Urknalltheorie nicht erklären. Sie erklärte lediglich die Entwicklung aus einem heißen Feuerball bis zum heutigen Zustand.
Lange war selbst die Expansionsgeschwindigkeit des Unviersums nur vage bekannt. Noch Anfang der 1980er “wusste” man die Hubble-Konstante nur auf einen Faktor 2 genau: 50-100 km/s. Bis in die 1970er, mehr als 20 Jahre vor der Entdeckung der Dunklen Energie, war das zukünftige Schicksal des Universums noch vollkommen unklar. Gemäß der Allgemeinen Relativitätstheorie gab es in Abhängigkeit von der mittleren Dichte des Universums drei mögliche Varianten:
Die kritische Dichte ist zu genau 1 für den letzten Fall definiert. Wir wissen heute, dass die Dichte des Universums sehr nahe an der kritischen Dichte ist.
In den 1980ern kam dann die Theorie der kosmologischen Inflation mit hinzu, mit der man erklären konnte, warum die kosmische Hintergrundstrahlung überall am Himmel die gleiche Temperatur hat – ein Problem für die gewöhnliche Urknall-Expansion, weil hinreichend weit am Himmel voneinander entfernte Gebiete nie die Chance gehabt hatten, ihre Temperatur durch Strahlung anzugleichen, das sogenannte “Horizontproblem”. Außerdem löste sie das “Flachheitsproblem”, welches besagt, dass sich eine geringe anfängliche Krümmung des Universums in kurzer Zeit gewaltig verstärken musste. Um heute noch eine im Rahmen der Messgenauigkeit (~±1%) flache Geometrie aufzuweisen, muss das Universum eine Sekunde nach dem Urknall auf 16 Nachkommastellen genau die kritische Dichte gehabt haben, ansonsten wäre es längst schon rekollabiert oder so schnell auseinander geflogen, dass sich Galaxien und Sterne nie hätten bilden können.
Die Inflationstheorie postuliert eine möglicherweise nur äußerst kurze Phase von 10-33 Sekunden, während derer sich das Universum alle 10-35 Sekunden um den Faktor 2 vergrößert haben soll [3]. Das macht einen Faktor 2100 oder 1,3·1030, etwa der Größenunterschied zwischen einem Corona-Virus und dem beobachtbaren Universum. Ein Größenwachstum innerhalb eines Zeitraums, der sich zu einer Sekunde verhält wie eine Nanosekunde zu 2 Millionen Weltaltern. Gewissermaßen der eigentliche “Knall” beim Urknall.
Vor der Inflation hatte das nur langsam expandierende Universum Zeit, seine Temperatur auszugleichen und nach der Inflation war jegliche Krümmung wie die Oberfläche eines riesengroß aufgeblasenen Ballons flach gezogen – Horizont- und Flachheitsproblem gelöst. Außerdem vergrößerte die kosmologische Inflation winzige Dichteunterschiede der Quantenwelt auf riesige Volumina, deren Muster sich in der kosmischen Hintergrundstrahlung genau so abzeichnen wie in der aus ihnen hervorgegangenen großräumigen Struktur des Universums mit seinen Filamenten und Leerräumen dazwischen; eine Vorhersage der Inflationstheorie, die in den 1990ern und nachfolgend durch die Beobachtungen der Weltraumteleskope COBE, WMAP und PLANCK glänzend bestätigt wurde.
Die Inflation soll durch ein nicht näher bestimmtes Skalarfeld im Vakuum mit einer hohen Energiedichte (genannt “Inflatonfeld”) ausgelöst worden sein. Ein Skalarfeld ist einfach ein Feld, das jedem Ort im Raum eine ungerichtete physikalische Größe (Temperatur, Energiedichte, …) zuordnet – dies könnte zum Beispiel das frühe Higgs-Feld gewesen sein. Nach der allgemeinen Relativitätstheorie führt eine Vakuumenergiedichte zu einer abstoßenden Gravitation, die das Vakuum aufgebläht haben könnte, so wie die Dunkle Energie das heute in viel kleinerem Ausmaß immer noch tut. Man spricht auch von einem “falschen Vakuum”, weil es eben nicht wie das echte Vakuum im niedrigsten Energiezustand verweilt. Jeder Kubikzentimeter des gewachsenen falschen Vakuums war selbst falsch, von der gleichen hohen Energiedichte erfüllt und explodierte sofort mit. Die Inflation endete, als das Vakuum auf das heutige, niedrigere Energieniveau fiel und die überschüssige Vakuumenergie als Strahlung freisetzte; gerade einmal ein Billionstel davon kondensierte zur Materie des heutigen Universums. Damit erklärt sich ganz zwanglos, wie aus einem winzigen Volumen ein Universum mit seiner unermesslichen Masse entstehen konnte: es besteht aus von der Gravitation geborgter Energie. Wenn man die Energie im Gravitationsfeld negativ rechnet (potenzielle Energie), hebt sie die Energie, die in der Strahlung und Materie des Universums steckt, genau auf. Ein Nullsummenuniversum.
Viele Kosmologen glauben, die Inflation habe durch das Hervorbringen einer weiträumig gleichverteilten Materie den Zustand niedriger Entropie erzeugt, der die Richtung des Zeitpfeils begründet. Das ist allerdings ein Trugschluss: während der Inflation wirkte das Inflatonfeld ja abstoßend, genau wie der innere Druck eines Gases, und bekanntlich führt die Expansion eines Gases zu höherer Entropie, trotz seiner Gleichverteilung. Am Ende der Inflation betrug die Entropie des Volumens, das heute das beobachtbare Universum ausmacht, rund 1088. Man kann ausrechnen, dass sie vor der Inflation höchstens 1012 betragen haben kann und also in einem Nichts von Zeit weitaus mehr angewachsen ist als in den 14 Milliarden Jahren seither (heute beträgt sie etwa 10101, siehe im 5. Teil der Reihe). Die Inflation verletzt mitnichten den Zweiten Hauptsatz der Thermodynamik!
Wie kann man das Universum wieder auf eine kleine Entropie zurück drehen? Das geschlossene, rekollabierende Universum schien in den 1960ern/70ern eine attraktive Möglichkeit in Form eines periodischen Universums zu bieten, das von einem Urknall zum nächsten oszillieren könnte und sich dabei selbst verjüngen würde. Die Frage nach dem Ursprung stellte sich dann nicht – das Universum existierte im ewigen Zyklus, gewissermaßen eine moderne Version des statischen Universums vor der Entdeckung des Urknalls. Im “Big Crunch” am Ende eines Zyklus würde alle Materie wieder zu Strahlung und man hätte die gleiche niedrige Entropie wie zu Beginn.
Aber könnte das überhaupt funktionieren? In einem regulären Universum nicht – alleine die Umkehr der Expansion des Universums würde gemäß des Zweiten Hauptsatzes am Zeitablauf genau so wenig ändern wie ein hoch geworfener Stein, der wieder zurück auf die Erde fällt. Sterne, falls es sie dann noch gäbe, würden auch in einem kollabierenden Universum Strahlung aussenden und Schwarze Löcher ihre Überreste verschlucken und miteinander verschmelzen. Die gesamte freigesetzte Strahlung aller thermischen Prozesse inklusive der Kernfusion in den Sternen würde sich im immer schneller kollabierenden Universum zunehmend blau verschieben und verdichten, das Weltall aufheizen und so die Entropie als Hitze konservieren, in der Größenordnung von 10120. Wir haben keine Idee, wie diese Entropie dann just am Ende abrupt um den Faktor > 1030 abnehmen soll, um wieder auf die Anfangsentropie kurz nach dem Urknall von 1088 zu fallen. Oder gar auf das Niveau vor der Inflation, die sich dazu umkehren müsste: gleichzeitige Erhöhung der Vakuumenergie in einem riesigen Volumen gefolgt von abrupter Schrumpfung, was der Zweite Hauptsatz überhaupt nicht zuließe. Der nächste Zyklus, so er denn möglich wäre, müsste also mit einem gewaltigen Entropieüberschuss starten und das Universum wäre nicht wirklich periodisch, sondern würde sich immer weiter hoch schaukeln.
Thomas Gold vertrat in den 1960ern die Ansicht, dass die Entropie nach dem Erreichen eines Maximums bei seiner größten Ausdehnung wieder beginnen würde abzunehmen, und der Zeitpfeil sich somit umkehren würde. Dies würde aus unserer Sicht bedeuten, dass jetzt schon Photonen unterwegs sein sollten, die unsere Umgebung verlassen und sich auf den Weg in eine ferne Zukunft machen, um dort von dunklen Sternen aufgesaugt zu werden und diese innerlich aufheizen, um in ihrem Kern zunehmend leichte Elemente stufenweise in Wasserstoff zu zerlegen. Ein verrückter Gedanke. Es wäre eine zeitlich gespiegelte Welt zur unsrigen. Die Bewohner dieser zukünftigen Welt würden davon nichts bemerken – ihre Wahrnehmung, ihre Gehirne würden wie die unsrigen auf Prozessen beruhen, die sich in Richtung zunehmender Entropie entwickelten. Für sie würden die “dunklen Sterne” Wasserstoff fusionieren und Licht ausstrahlen, während unsere Sterne für sie dunkel wären. Für sie wären wir in der fernen Zukunft und unser Urknall wäre ihr Big Crunch. Es gibt tatsächlich heute noch Anhänger solcher Hypothesen, so auch Huw Price, der argumentiert, die Ablehnung des Universums nach Thomas Gold sei ein Chauvinismus für die uns gewohnte Zeitrichtung.
Das Argument der Anhänger des Gold-Universums lautet: wenn die Entropie zu Beginn niedrig gewesen ist, warum soll sie es am Ende nicht auch sein? Um nochmals auf den atemporalen Blickwinkel von “nirgendwann” zurück zu kommen: wenn links ein hoher Berg steht, warum soll rechts vom Tal nicht auch einer stehen und Steine von beiden Seiten den Hang hinunter rollen können? Dann könnte man solche Universen an den Enden “zusammenkleben” und bekäme zwanglos ein zyklisches Universum mitsamt umgekehrter Inflation. Ja, man kann eine solche Randbedingung natürlich postulieren, aber sie ergibt sich in keinster Weise zwingend aus der Entwicklung des Universums und ist daher eine Ad-hoc-Annahme. Die Zeit würde in einem solchen Universum von beiden Enden zur Mitte hin fließen, in Richtung unserer Zukunft befände sich eine Epoche mit aus unserer Sicht rückläufiger Zeit. Aber nichts würde sich zwingend von einer Epoche in die nächste hinein entwickeln, beide Enden wären kausal entkoppelt und träfen sich in der Mitte lediglich im thermodynamischen Gleichgewicht, in der die Richtung des Zeitpfeils verschwände, weil die Entropie in beiden Richtungen gleich groß wäre (jedenfalls in der näheren Umgebung). Die meisten Kosmologen überzeugt das Modell nicht. Und nach der Entdeckung der Dunklen Energie, unter deren Einfluss das Universum höchstwahrscheinlich ewig beschleunigt expandieren wird, hat sich das Thema ohnehin erledigt.Eine weitere Möglichkeit, die ich ebenfalls schon in einem anderen Artikel behandelt habe, ist die “zyklische konforme Kosmologie” von Roger Penrose – sie wäre mit einer stetig steigenden Entropie konsistent (und wurde genau aus diesem Grunde erdacht). Warum ich sie nicht für sehr überzeugend halte, habe ich im verlinkten Artikel erklärt.
Deutlich plausibler wäre als Grund für die geringe Anfangsentropie eine hinreichend große statistische Schwankung derselben im thermodynamischen Gleichgewicht. Unser expandierendes Universum strebt dem Zustand des thermodynamischen Gleichgewichts entgegen. Die Schwarzen Löcher werden irgendwann alle durch Hawking-Strahlung zerfallen sein. Materie, die bis dahin als Überreste verloschener Sterne oder Planeten noch übrig wäre, könnte entweder dem vermuteten Protonen-Zerfall zum Opfer fallen oder auch spontan zu Schwarzen Löchern kollabieren – der quantenmechanische Tunneleffekt gestattet dies, wenn man ihm nur ein halbe Ewigkeit Zeit lässt. Am Ende bliebe nur noch sich immer weiter verdünnende Strahlung übrig, in Form von Elementarteilchen, elektromagnetischer Strahlung oder Gravitationswellen. Das Universum, nur noch durch die Dunkle Energie angetrieben, mutierte zum de-Sitter-Raum, einem Vakuum mit 100% Dunkler Energie und vernachlässigbaren Anteilen von Materie und Strahlung. De-Sitter-Universen haben einen kosmologischen Horizont, der ebenso wie der eines Schwarzen Lochs eine Temperatur hat und Strahlung ähnlich der Hawking-Strahlung erzeugt (Gibbons-Hawking-Effekt), daher wird der Raum nie ganz leer sein. Der Zustand ist allerdings statisch, der Horizont hat bei festem Anteil Dunkler Energie einen festen Radius und damit ist auch die im Horizont enthaltene Strahlungsmenge konstant. Die Entropie steigt nicht mehr, es gibt keine ausgezeichnete Zeitrichtung mehr – für jede Veränderung tritt mit gleicher Wahrscheinlichkeit ihr Gegenteil ein: Thermodynamisches Gleichgewicht.
In einem solchen Gleichgewicht wird die Entropie jedoch nicht ständig perfekt konstant sein. Wenn sich zufällig mehrere Teilchen begegnen, hat die Entropie ein lokales Minimum. Je mehr Teilchen sich umso näher nahe kommen, desto kleiner ist die Entropie. Je kleiner die Entropie, desto unwahrscheinlicher tritt dieser Fall ein – wir erinnern uns daran, wie klein schon die Wahrscheinlichkeit ist, dass sich die Luft in einem Zimmer in einer Hälfte versammelt. Dass sich in einem so gut wie leeren Universum nennenswert viele Teilchen treffen, ist um Größenordungen zur Zehnerpotenz erhoben unwahrscheinlicher. Da der Zustand des thermodynamischen Gleichgewichts jedoch ewig andauert (und das ist ziemlich lange…) tritt jedes noch so unwahrscheinliche Ereignis unvermeidlich irgendwann ein, wenn es nur nicht gänzlich ausgeschlossen ist. Das verletzt nicht den Zweiten Hauptsatz, weil dieser nur statistischer Natur und auf lange Dauer erfüllt ist.
Und damit stellt sich die Frage, ob die Ursache der niedrigen Entropie zu Beginn des Universums nicht einfach eine statistische Fluktuation des thermodynamischen Gleichgewichts war. Das ist tatsächlich nicht ausgeschlossen. Aber trotzdem wohl eher nicht der Fall. Ich habe es in zwei früheren Artikeln schon dargelegt: die Wahrscheinlichkeit, dass sich im thermodynamischen Gleichgewicht ein hinreichend großes niederentropisches Gebiet bildet, aus dem ein ganzes Universum hervorgeht, ist viel kleiner als diejenige, dass sich nur eine einzelne Galaxie bildet, die für unsere Existenz hinreicht (so dass wir uns die Frage nach dem Ursprung des Universums stellen können). Es würde sehr viel öfter ein Mini-Universum mit nur einer Galaxie entstehen, als eines so groß, wie wir es beobachten, und daher sollten wir uns fast sicher in einem solchen Mini-Universum wiederfinden. Das wiederum unwahrscheinlicher als ein einzelnes Sonnensystem wäre, mit allem, was wir zum Leben brauchen – einfach so aus Partikeln entstanden, die sich zufällig zusammengefunden haben. Viel wahrscheinlicher als im Mini-Universum sollten wir uns im Einzel-Sonnensystem wiederfinden. Bis zum Absurdum: eigentlich reichte ein spontan entstandenes Gehirn, das sich nur einbildet, in einem Universum mit Milliarden Galaxien zu leben, schon aus, um unsere Beobachtungen zu erklären, und es wäre um Größenordnungen wahrscheinlicher, als ein spontan entstandenes Universum – ein sogenanntes Boltzmann-Hirn.
Gegen solche spricht allerdings, dass mit noch höherer Wahrscheinlickeit auch noch weniger geht, ein Gehirn mit einem wesentlich kruderen, unlogischeren Weltbild. Dass unser Weltbild bzw. unsere Wahrnehmung so selbstkonsistent und umfassend sind, spricht dann doch eher dafür, dass sie echt sind, unsere Erinnerung real und wir biologisch entstandene Hirne haben. Was wiederum ein Argument gegen ein aus einer thermodynamischen Fluktuation der Entropie spontan entstandenes Universum ist.
Da das de-Sitter-Universum jedoch eine buchstäbliche Ewigkeit im Zustand des thermodynamischen Gleichgewichts verbringt, gäbe es unendlich mal mehr Boltzmann-Hirne, auch mit beliebig komplexer Erinnerung, als biologisch in einem frühen Universum mit stark steigender Entropie entstandene Gehirne, für die wir uns halten. Die Chance, dass wir es wirklich wären, ginge gegen Null. Ein Widerspruch – aber keine Sorge, die Auflösung folgt am Ende des Artikels.
Tja. Und was ist nun die Ursache für die niedrige Entropie? Wirklich wissen tun wir es nicht. Es gibt aber eine plausible Erklärung: Was würde passieren, wenn in einem de-Sitter-Universum im thermischen Gleichgewicht an irgendeiner Stelle die Vakuumenergie als Fluktuation zufällig einen sehr hohen Wert erreichen würde, den eines kurzfristig stabilen falschen Vakuums, hoch genug, um spontan in den Zustand der kosmologischen Inflation zu fallen? Nach außen hin sähe das so aus, als würde sich ein mikroskopisches Schwarzes Loch bilden und sofort zerstrahlen. Tatsächlich würde der neu entstehende Raum jedoch explosionsartig in sich selbst wachsen [3], vollkommen abgekoppelt vom umgebenden Raum, von dem er gleich zu Beginn durch einen Ereignishorizont getrennt war. Ein neues Universum würde entstehen, ein “Baby-Universum”. Dieser Prozess wäre nach außen hin so unspektakulär, dass man ihn nicht einmal bemerken würde, wenn er im gleichen Zimmer passierte. Der Vorgang wäre nicht sehr wahrscheinlich, aber auch nicht ausgeschlossen und damit in einem ewigen Universum sicher. Er würde sich unendlich oft abspielen.
Wie schaut es in diesem Fall mit der Entropiebilanz aus? Ein Vakuum mit niedriger Energiedichte, wie es der de-Sitter-Raum enthielte, hat eine hohe Entropie, das Universum hat sich in diese Richtung entwickelt. Das Baby-Universum begänne hingegen als falsches Vakuum mit extrem hoher Dichte, das nach kurzer heftiger Expansion auf ein niedrigeres Niveau fallen möchte, also hat es zu Beginn eine niedrige Entropie, die in Richtung zum echten Vakuumenergiezustand hin zunähme. Also genau das, was wir brauchen! Im Mutter-Universum würde jedoch nur eine vorübergehende Fluktuation die Entropie lokal ein wenig fallen lassen, um ein winziges Stückchen falsches Vakuum hervor zu bringen; eine Fluktuation, die mit dem Abstrahlen von Hawking-Strahlung gleich wieder glatt gebügelt werden würde. Der zweite Hauptsatz würde nicht verletzt – das wäre die Lösung. Sean Carroll und Jennifer Chen haben diese Idee 2004 in einer Arbeit [2] beschrieben.Und damit schließt sich der Kreis: das ganze funktioniert nur in einem ewig expandierenden Universum mit Dunkler Energie (de-Sitter-Raum) und mit zu Beginn inflationär wachsenden Baby-Universen. Sowohl für die Existenz der Dunklen Energie als auch für die kosmologische Inflation gibt es beobachtbare Belege. Dass sich Baby-Universen in solcher Weise von einem existierenden Raum abkoppeln können, ist Bestandteil der Inflationstheorie von Alan Guth und Andrei Linde [3]. Und das Paradoxon, warum wir keine Boltzmann-Hirne sind, würde vermieden, wenn die Geburt neuer Baby-Universen wahrscheinlicher als die von Boltzmann-Hirnen wäre, so dass es stets erheblich mehr junge Universen mit biologischen Hirnen als Boltzmann-Hirne gäbe. Es wäre zuviel behauptet, dass unser Universum so entstanden sein muss, aber es ist eine recht plausible Möglichkeit, den Zeitpfeil zu erklären, ohne in Paradoxa wie den Boltzmann-Hirnen zu enden.
Und damit schließt meine kleine Reihe über die Zeit. Ich hoffe, sie war ein wenig kurzweilig.
[1] Sean Carroll, “From Eternity to Here / The Quest for the Ultimate Theory of Time”, Dutton / Penguin Group USA Inc., Januar 2010.
[2] Sean M. Carroll, Jennifer Chen, “Spontaneous Inflation and the Origin of the Arrow of Time”, 27.10..2004; arXiv:hep-th/0410270.
[3] Alan Guth, “The Inflationary Universe, The Quest for a New Theory of Cosmic Origins”, Addison-Wesley, März 1997.
Wir haben im letzten Teil der Reihe Entropie als Maß für die Unordnung kennengelernt und dies am Beispiel eines Gases, das in einem größeren Volumen mehr Möglichkeiten zur Anordnung hat, nachgewiesen. Aber die Ausbreitung eines Gases ist nur ein spezieller Fall – Entropiezunahme steckt in zahlreichen anderen makroskopischen physikalischen Prozessen, die deshalb mit dem statistischen Argument aus dem letzten Artikel zeitlich nicht umkehrbar sind.
Der Begriff der Entropie kommt ursprünglich aus der Wärmelehre und Wärme spielt für die Entropie eine große Rolle. Wenn ein Gegenstand, eine Flüssigkeit oder ein Gas erwärmt werden, dann bewegen sich die Teilchen in diesem Stoff zunehmend schneller. In Feststoffen beginnen sie zu zittern, bis die Gitterstruktur ihrer Anordnung sich auflöst und der Feststoff zu einer Flüssigkeit wird. Dabei zerbrechen Brücken, die zwischen den Molekülen des Stoffs gebildet werden. Ganz offenbar nimmt hier die Unordnung zu, es gibt weitaus mehr Möglichkeiten, Moleküle in einer Flüssigkeit anzuordnen, als in einem Gitter, wo nur ganz bestimmte Orientierungen zwischen den Molekülen möglich sind. Wassermoleküle sind beispielsweise polar – das Sauerstoffatom zieht die mit den beiden V-förmig an ihm haftenden Wasserstoffatomen geteilten Elektronen mehr zu sich herüber, so dass sein Ende etwas stärker negativ geladen ist als die beiden Wasserstoff-Enden. Die positiven Wasserstoffenden werden dann wiederum von den negativen Sauerstoffenden anderer Moleküle angezogen und ordnen sich auf diese Weise zu sechseckigen Gitterstrukturen an.
In flüssigem Wasser gibt es diese Struktur nicht mehr, die Moleküle ziehen sich zwar insgesamt noch gegenseitig an und sind recht dicht gepackt, aber nur noch bei flüchtigen Begegnungen ohne feste Orientierung. Wenn Wasser zu kochen beginnt, werden die Moleküle so schnell, dass auch diese Anziehung überwunden wird und die Moleküle der Flüssigkeit entkommen und ein Gas bilden, das einen Druck nach außen erzeugt – sie stoßen mit der Wucht ihrer Impulse und frei von Rückhaltekräften gegen die Außenwand des Behälters, der sie einschließt, man kann damit etwa den Kolben einer Dampfmaschine antreiben. Als Dampf mit viel mehr Abstand untereinander sind die Moleküle noch freier in ihrer Anordnung, die Entropie ist höher als in der Flüssigkeit.
Aber nicht nur die Übergänge von Eis zu Flüssigkeit zu Gas bedeuten eine Entropieerhöhung. Genauso wie sich ein Gas in einem leeren Raum verteilt, so verteilt sich auch Wärme in einem Stoff. Steckt man etwa einen Teelöffel in eine Tasse heißen Kaffee, dann wird der Griff bald sehr heiß werden, weil die Wärme sich in den ganzen Löffel ausbreitet. Die schnellen Wassermoleküle im Kaffee stoßen die Teilchen Löffels an und bringen sie in heftigere Zitterbewegungen. Die äußeren Teilchen im Löffel geben die Stöße an ihre weiter innen liegenden Nachbarn weiter und so breitet sich die Wärme im Metall aus. Metalle bestehen nicht aus Molekülen (fest aneinander gebundenen Atomen, die sich gemeinsame Elektronen teilen), sondern aus einzelnen zu Gitterstrukturen angeordneten Atomen, zwischen denen sich Elektronen relativ frei wie ein Gas bewegen können. Die leichten, beweglichen Elektronen übertragen die Stoßenergie besonders gut durch das Material, deswegen sind Metalle gute Wärmeleiter.
Wärme fließt immer von der Wärmequelle weg. Auch hier haben wir es mit einem statistischen Prozess zu tun, der sich in der Praxis nicht umkehren lässt. Die Entropie eines erwärmten Gegenstands ist höher, als die eines kalten. Wenn ein Schmied heftig mit einem Hammer auf ein Stück Metall auf einem Amboß schlägt, dann bremst die Verformung des Metalls den Schwung des Hammers und nimmt Energie des Schlages auf, die die Atome im Metall zum Schwingen bringt. So kann er das Metall bis zum Glühen bringen. Aus der gerichteten Energie des Schlages wird ungerichtete Schwingung der Teilchen im Metall mit entsprechend höherer Entropie.
Nun kann ein Eisschrank bekanntlich Wasser einfrieren, also seine Entropie senken – verletzt dies nicht den zweiten Hauptsatz der Thermodynamik, der besagt, dass die Entropie nicht abnehmen kann? Nein, denn dazu braucht man eine Wärmepumpe.
Bei einer Wärmepumpe macht man sich zu Nutze, dass ein Gas abkühlt, wenn man ihm mehr Raum gewährt, z.B. in einem Kolben – die in einem gewissen Volumen enthaltene Teilchenenergie nimmt ab, nicht weil die Teilchen langsamer werden, sondern weil weniger Teilchen im Volumen enthalten sind und sie den Kolben anschieben und Arbeit verrichten. Der Prozess ist umkehrbar – wenn man das Gas und Arbeitsaufwand wieder komprimiert, wird es wieder wärmer. Jeder, der schon einmal einen Fahrradreifen aufgepumpt hat, weiß, dass die Pumpe sich dabei erwärmt. Solange keine Wärme nach außen verloren geht (Fachwort: adiabatisch, aus dem Griechischen etwa “nicht hindurchgehen”), kann man Kompression und Expansion beliebig wiederholen (adiabatische Kompression/Expansion). Übrigens ist adiabatische Expansion auch der Grund, warum die Luft in der Troposphäre mit der Höhe kühler wird: der Luftdruck nimmt nach oben ab, die Luft füllt mehr Volumen und die Temperatur sinkt (darüber folgt die Stratosphäre, wo Ozon sich im UV-Licht erwärmt und die Temperatur mit der Höhe wieder ansteigt).
Bei einem Eis- oder Kühlschrank lässt man ein Kühlmittel in einem Kreislauf zwischen dem Innenraum und der Umgebung eines gut isolierten Behälters zirkulieren. Zum besseren Wärmeaustausch lässt man es innen und außen durch wärmeleitende Kühlschlangen aus Metall mit möglichst viel Oberfläche fließen. In dem nach außen gerichteten Kühler komprimiert man das Kühlmittel, so dass es wärmer als die Umgebung wird, und Wärme an die Umgebung abgeben kann. Im Kühler im Innenraum lässt man es wieder expandieren, dann nimmt es mehr Volumen als draußen ein und wird also kühler als der Innenraum sein, so dass es sich an der Innenluft erwärmen kann. Wieder nach außen gepumpt und verdichtet wird es wieder wärmer als die Umgebung und gibt Wärme an diese ab etc. Besonders effizient funktioniert das mit einem Kühlmittel, das bei der Kompression flüssig wird, denn beim Kondensieren wird besonders viel gespeicherte Wärme frei; im Innenraum und bei geringerem Druck verdampft das Kühlmittel wieder und nimmt dabei besonders viel Wärme auf, denn zur Überwindung der Rückhaltekräfte innerhalb der Flüssigkeit muss ein Molekül besonders viel Energie aufnehmen. So kann man Wärme aus dem Innenraum nach außen pumpen.
Zur Verdichtung des Gases braucht es allerdings einen Kompressor, das Gas widersteht dem Druck beim Verdichten. Der Strom für den Kompressor kommt meistens aus einem Kraftwerk, in dem durch Verbrennung von Kohle oder Gas Strom und jede Menge Entropie in Form von Abwärme erzeugt wird. Wenn es hingegen Ökostrom ist, dann war die Wärme der Sonne im Spiel, die entweder Strahlung für die Solarzellen erzeugt, Luftzirkulation für die Windkrafträder, oder den Wasserkreislauf von Verdunstung, Niederschlag und fließenden Gewässern antreibt. In jedem Fall nimmt die Entropie insgesamt zu: der zweite Hauptsatz gilt nur für geschlossene Systeme, in die keine Wärme hinein oder heraus kann. Bei fossilen Brennstoffen umfasst das geschlossene System mindestens das Kraftwerk mit seinem Brennstoffvorrat, bei regenerativen Energien sogar die ganze Sonne.
Auf die gleiche Weise erklärt sich, warum so etwas komplexes wie Leben entstehen konnte. Es entstand nicht durch völlig zufällige Anordnung von Molekülen, sondern weil die Sonne (und vielleicht auch der Vulkanismus) als Energiequelle zur Verfügung stand und unter Energiezufuhr chemische Reaktionen ermöglichte, die sich schließlich selbst im Gange hielten, und die zu lokaler Entropieabnahme in der Lage waren, ähnlich wie bei einer Wärmekraftmaschine. Man kann Leben als einen natürllichen Prozess definieren, der unter Energieaufnahme seine Entropie senkt, oder anders gesagt, der Umgebung negative Entropie (Negentropie) entzieht.
Und wenn ein Stoff sich abkühlt? Wenn er Wärme an die Umgebungsluft verliert, dann erwärmt sich diese und die Wärme breitet sich aus, wie beim obigen Löffelbeispiel. Die Entropie des abgekühlten Stoffes sinkt, aber die der Umgebung steigt umso mehr, denn die weiter verteilte Wärmemenge hat eine größere Entropie als die zu Beginn im Stoff verdichtete Wärme. Bei Abkühlung durch Wärmestrahlung wird die Wärme in Form von Photonen abgegeben und verteilt sich umso weiter (diese können die Umgebung erwärmen, oder breiten sich einfach in die Unendlichkeit aus). Auch dies erhöht insgesamt die Entropie.
Entropie scheint also damit zusammen zu hängen, dass sich ein Stoff oder Wärme möglichst weit verteilt. Nun begann unser Universum als sehr gleichmäßig verteiltes Gas – da fragt man sich, wie es sich dann zu Galaxien mit Sternen und Planeten verdichten konnte, ohne den zweiten Hauptsatz zu verletzen.
Die Antwort ist die Gravitation. Während ein Gas durch die Bewegung seiner Teilchen natürlicherweise danach strebt, Raum zu gewinnen, den es danach nur unter Widerstand wieder hergeben mag, wirkt die Massenanziehung genau umgekehrt: sie ist bestrebt, Materie zu verdichten. Genauso wie man aus dem Bestreben eines Gases nach Expansion Energie gewinnen kann (Dampfmaschine, Verbrennungsmotor), kann man die Gravitation Arbeit verrichten lassen, etwa in einem Wasserkraftwerk, bei dem die Schwerkraft für den Wasserdruck sorgt, der eine Turbine antreiben kann, die sich im Ablaufrohr in den Abfluss unterhalb der Staumauer befindet, wo der Druck sehr viel kleiner ist.
Das Universum begann zwar als heißes Gas, aber das Gas kühlte mit der Expansion des Universums ab und sein Druck verringerte sich. Die Entropie des frühen Universums lag in der Größenordnung der Zahl seiner Teilchen, rund 1088 im beobachtbaren Teil des Universums. Das Gas war jedoch nicht perfekt gleichverteilt, sondern hatte örtlich kleine Dichteunterschiede, die wir als Struktur in der kosmischen Hintergrundstrahlung beobachten können.
Dorthin, wo die Dichte etwas höher war, floss das Gas und verdichtete sich. Im sich verdichtenden Gas kollidierten die Teilchen, was die gerichtete Fließbewegung in ungerichtete Wärmebewegung umwandelte – die Entropie nahm zu. Durch Abstrahlung von Wärmestrahlung konnte das Gas abkühlen und seinen Druck verringern – auch hierbei nahm die Entropie durch die Abstrahlung zu. Schließlich kollabierten die Gaswolken an den dichtesten Stellen zu Sternen und Planeten, wobei wiederum durch die Verdichtung sehr viel Wärme entstand, die in den Sternen die Kernfusion zündete und bei den Planeten für ein aufgeheiztes Inneres sorgte. Die Strahlung geben sie bis heute (z.B. Vulkanismus der Erde, Wärmestrahlung des Jupiter) als Wärme an die Umgebung ab, unter weiterer Zunahme der Entropie. Die Kernfusion in den Sternen führt zum Aufbau stabilerer Kerne mit geringerer Energie (bis hinauf zum Eisen), die als Überschusswärme abgestrahlt wird. Wenn genug Energie vorhanden ist, wie z.B. bei einer Supernova-Explosion, können auch Atomkerne bis hinauf zum Uran und Plutonium entstehen, die nicht im niedrigsten Energiezustand sind. Das bisschen Entropieabnahme kompensiert die Supernova aber dicke.
Kann die Entropie noch weiter steigen? Ja, kann sie. Je dichter gepackt die Materie ist, desto höher ist die Entropie. Der zweite Hauptsatz der Thermodynamik verlangt, dass sogar Schwarze Löcher (letzlich nichts als Gravitationsfelder) eine Entropie haben müssen, denn wirft man ein Objekt mit Entropie in ein Schwarzes Loch, dann verschwindet es aus dem beobachtbaren Universum, aber seine Entropie muss mindestens erhalten bleiben.
Jacob Bekenstein entdeckte 1973, dass die Physik Schwarzer Löcher Parallelen zur Thermodynamik aufweist und es Varianten der thermodynamischen Hauptsätze für Schwarze Löcher gibt:
Hauptsatz | Thermodynamik | Schwarze Löcher |
---|---|---|
Nullter | Im thermodynamischen Gleichgewicht ist die Temperatur überall gleich. | Am Ereignishorizont ist die Schwerkraft überall gleich. |
Erster | Die Energie eines abgeschlossenen Systems ist konstant. | Die Masse eines isolierten Schwarzen Lochs ist konstant. |
Zweiter | Die Entropie eines abgeschlossenen Systems kann nicht abnehmen. | Die Oberfläche des Ereignishorizonts eines Schwarzen Lochs kann nicht abnehmen. |
Dritter | Der absolute Nullpunkt der Temperatur ist unerreichbar. | Die Schwerkraft eines beliebig kleinen Schwarzen Lochs kann nicht Null werden. |
Damals war die Hawking-Strahlung noch nicht bekannt, darauf komme ich gleich zurück. Bekenstein erkannte, dass die Oberfläche des Ereignishorizonts eines Schwarzen Lochs eine Entropie hat und Hawking, Bekenstein und andere konnten zeigen, dass diese gleich einem Viertel der Oberfläche entspricht, und zwar gemessen in Einheiten der Planck-Fläche. Die Planck-Länge beträgt 1,6·10-35m, die Planck-Fläche entsprechend 2.6·10-70m², somit hat ein Schwarzes Loch von einer Sonnenmasse (Schwarzschild-Radius 3km, Oberfläche ca. 100 km² = 3,9·1077 Planck-Flächen) eine Entropie von ca. 1077.
Ein supermassereiches Schwarzes Loch mit mehreren Millionen Sonnenmassen hat eine Entropie in der Größenordnung von 1090. Das ist ungefähr 100 Mal die nicht durch Gravitation verursachte Entropie sämtlicher Teilchen im beobachtbaren Universum (siehe oben, 1088). In einem einzigen supermassereichen Schwarzen Loch wie dem im Zentrum der Milchstraße!
Die Schwarzen Löcher dominieren die Entropie des Universums vollkommen. Davon gibt es größenordnungsmäßig 100 Milliarden (1011) im beobachtbaren Universum, somit liegt die Entropie aller supermassereichen Schwarzen Löcher und damit in guter Näherung die heutige Entropie des beobachtbaren Universums insgesamt in der Gegend von 10101. Durch die Gravitation und die von ihr verursachte Verdichtung der Materie hat die Entropie des Universums seit seiner Entstehung um den Faktor 1013 (zehn Billionen) zugenommen.
Interessant ist übrigens, dass die Entropie eines Schwarzen Lochs die maximal mögliche ist, die sich in ein gewisses Volumen (das Volumen des Ereignishorizonts) hinein packen lässt – aber sie nimmt mit der Oberfläche des Ereignishorizonts zu, nicht mit seinem Volumen. Darauf baut die Hypothese des Holografischen Prinzips von Gerard’t Hooft, Leonad Susskind und Raphael Bousso auf, gemäß welcher die vierdimensionale Raumzeit nur eine Projektion einer ihr zugrunde liegenden dreidimensionalen Realität sein soll – ähnlich wie ein scheinbar dreidimensionales Hologramm in Wahrheit nur in der zweidimensionalen Oberfläche einer Folie eingraviert ist.
Eines Tages werden alle Sterne kalt und erloschen sein und in noch viel fernerer Zukunft durch Abstrahlung von Gravitationswellen in die supermassereichen Schwarzen Löcher ihrer ehemaligen Galaxien gestürzt sein, die dann massiv gewachsen sein werden (Sagittarius A*, das supermassereiche Schwarze Loch der Milchstraße hat nur ca. 0,001% der Masse der Milchstraße). Damit werden die Oberflächen ihrer Ereignishorizonte maximal werden, größenordnungsmäßig 1011 Sonnenmassen (Oberfläche: 1022 Mal diejenige eines Schwarzen Lochs von einer Sonnenmasse mit Entropie 1077) mal 1011 Galaxien = 1022+77+11 = 10110 – eine Milliarde mal mehr Entropie als heute. Mehr Entropie geht nicht?
Mehr Entropie geht doch: Weil Schwarze Löcher Hawkingstrahlung aussenden und dabei schrumpfen. Da die Entropie nicht fallen kann, jedoch ein schrumpfendes Schwarzes Loch an Entropie verliert (bis zu seiner vollkommenen Auflösung ohne Rest) muss die Entropie auf die ausgesendete Strahlung übergehen und mithin hat diese mindestens die gleiche Entropie, die zuvor in den Schwarzen Löchern steckte! Kluge Köpfe haben errechnet, dass die Hawking-Strahlung tatsächlich 33% mehr Entropie fortträgt als das zugehörige Schwarze Loch vorher gebunden hatte.
Aber damit nicht genug: das Universum dehnt sich aus, die Strahlung verteilt sich auf immer mehr Raum, ultimativ verbleibt nur ein durch die Dunkle Energie – wahrscheinlich eine Form der Vakuumenergie – angetrieben beschleunigt expandierender leerer Raum, in dem man mit immer kleinerer Wahrscheinlichkeit noch auf verwaiste aus der Hawking-Strahlung hervor gegangene Teilchen trifft. Dass das Vakuum, leerer Raum, überhaupt eine Entropie haben soll, scheint absurd, aber das Vakuum ist ja nicht wirklich nichts, sondern von Feldern erfüllt, die zahlreiche Zustände annehmen können. Es gibt plausible Schätzungen auf der Basis des holografischen Prinzips, die besagen, dass ein Volumen der Größe unseres beobachtbaren Universums, das nur von Dunkler Energie erfüllt ist, eine Entropie von etwa 10120 haben sollte. Aber da unser beobachtbares Universum wächst und mit ihm die Vakuumenergie, nimmt die Entropie weiterhin beständig zu.
Das Vakuum mit der Dunklen Energie könnte schließlich auf ein noch niedrigeres Energieniveau fallen (die Masse des Higgs-Teilchens spricht dafür), so wie es nach der mutmaßlichen kosmologischen Inflation auf das heutige Niveau gefallen ist, und je niedriger die Vakuumenergie, desto höher ist die Entropie. Das Ende der Fahnenstange wäre dann ein Vakuum ohne die Beschleunigung der Dunklen Energie, ein mit konstanter Rate expandierender leerer Raum, in dem die Entropie gegen unendlich strebt.
Die Entropie muss also nach oben keinen Deckel haben. Das gilt allerdings nur, wenn die Vakuumenergie niemals negativ und damit anziehend wird. Wir wissen bisher ihre Ursache nicht und daher auch nicht mit Bestimmtheit, ob sie sich nicht auch dahin entwickeln könnte, dass das Universum am Ende wieder kollabiert. Würde ein zyklisches Universum bei rückläufiger Zeit wieder zu niedriger Entropie zurückkehren? Würden die Bewohner davon etwas mitbekommen? Könnte man durch ein periodisch wachsendes und schrumpfendes Universum erklären, warum die Entropie zu Beginn so niedrig war? Oder gibt es noch einen anderen Ansatz?
Dazu mehr im nächsten und letzten Teil der Serie über die Zeit.
Zeit vergeht, von der Vergangenheit in Richtung Zukunft. Die Richtung, in der die Zeit fließt, ist für fast alle realen Vorgänge leicht erkennbar. Wenn wir einen Film rückwärts laufen lassen, merken wir das in fast immer sofort. Ein Glas, dass sich aus zunächst reglos am Boden liegenden Scherben zusammen setzt, die plötzlich zu schaukeln und rutschen anfangen, bevor sie vom Boden hochspringen und sich nahtlos vereinen, hat in der realen Welt noch niemand gesehen. Ebenso wenig kreisförmig zusammen laufende Wasserwellen, die sich immer höher auftürmen, bis sie sich zu einem wilden Strudel vereinigen, der einen aus schließlich völlig bewegungslosem Wasser herausspringenden Stein gebiert, welcher in jemandes Hand landet, die ihn mit einer heftigen Bewegung des Arms nach hinten endlich zur Ruhe bringt. Licht, das in einer Lampe zusammen läuft, Gas, dass sich in einer Gasflasche verdichtet usw. scheinen in unserer Welt unmöglich und definieren eine eindeutige Richtung des sogenannten Zeitpfeils.
Schaut man sich die natürlichen Prozessen zu Grunde liegende Physik jedoch im Detail an, dann scheinen sämtliche Gesetze der Newtonschen Mechanik vollkommen zeitsymmetrisch zu sein. Betrachtet man beispielsweise ein Pendel oder auch den Umlauf von Planeten um die Sonne oder die Rotation der Erde, dann sind dies Vorgänge, die in einem rückwärts laufenden Film vollkommen natürlich aussehen würden. Die sie beschreibenden physikalischen Gesetze kennen keine ausgezeichnete Zeitrchtung. Auch Kraft- und Stoßgesetze sind zeitlich symmetrisch: man kann mit einer gewissen Kraft einen trägen Körper über eine gewisse Wirkungsdauer beschleunigen und in Bewegung versetzen. Oder einen bewegten Körper durch eine gleich große Kraft in Gegenrichtung der Bewegung über die selbe Dauer wieder zur Ruhe. Wenn eine ruhende Billardkugel von einer rollenden nicht exakt mittig angestoßén wird, werden die beiden Kugeln mit bestimmten Geschwindigkeiten in einem 90°-Winkel voneinander weg rollen. Würde man beide Bewegungen exakt umkehren, dann würde die eine Kugel zur Ruhe kommen und die andere mit dem selben Geschwindigkeitsbetrag auf dem selben Weg zurück rollen, den sie vorher in umgekehrter Richtung genommen hatte. Die Vorgänge sind zeitlich symmetrisch (und erhalten übrigens abgesehen von Reibungsverlusten Impuls und Bewegungsenergie). Die Kunst beim Herbeiführen des zeitumgekehrten Falls wäre hier allerdings, die beiden Kugeln mit exakt dem Timing und den Geschwindigkeiten auf einen präzisen Kollisionskurs zu bringen, was ungleich schwieriger erscheint, als im ursprünglichen Fall, bei dem man nur eine Kugel auf groben Kollisionskurs mit der ruhenden Kugel bringen muss.
Das ist tatsächlich der Schlüssel zum Geheimnis des Zeitpfeils – jedenfalls dieses Zeitpfeils. Man denke sich die Situation bei Anstoß des Billards: alle farbigen Kugeln sind zu einem Dreieck vereint und die weiße Kugel wird mit Wucht in das Dreieck gestoßen, aus dem die Kugeln scheinbar zufällig in alle Richtungen auseinander stieben. Die Newtonschen Gesetze besagen eindeutig: würde man die Bewegungsrichtungen aller Kugeln unter Beibehaltung ihrer Geschwindigkeitsbeträge um exakt 180° umkehren (und Reibungsverluste vernachlässigen), dann würden sie sich wieder zu einem ruhenden Dreieck vereinen und die weiße Kugel in Richtung auf den Spieler, der sie angestoßen hatte, zurück schleudern. Aber im realen Leben ist es wesentlich einfacher, eine einzige Kugel anzustoßen und sehr viel Chaos im Kugeldreieck anzurichten, als aus einem solchen Chaos wieder eine geordnete Bewegung zu machen – gleich wohl dies physikalisch möglich wäre!
Ganz wesentlich ist hierbei die Definition des “Chaos”. Würde man beispielsweise exakt den gleichen Anstoß mit exakt dem selben Ergebnis wiederholen wollen, würde das schwer fallen – zwei einander überlagerte Filme der Anstöße würden schwerlich erweisen, dass sich alle Kugeln in beiden Fällen exakt gleich bewegen. Das Auseinanderstieben der Kugeln kann auf unzählige Weisen geschehen, die wir in der Wahrnehmung nicht voneinander unterscheiden. Das Vereinigen vieler bewegter Kugeln zu einem ruhenden Dreieck unter Ausstoß der weißen Kugel mit exakt der Summe aller Impulse und Bewegungsenergien der anderen Kugeln wäre jedoch hinreichend auffällig, dass wir ihm eine ganz andere Qualität zuordnen würden. Wir würden diesen Ablauf und sein Endergebnis als extrem geordnet empfinden, während die auseinander stiebenden Kugeln als ungeordnet erscheinen. Aus Ordnung Unordnung zu erzeugen ist bekanntlich leichter, als umgekehrt. Grund dafür ist, dass es unzählig mehr ungeordnete als geordnete Zustände gibt. Wenn ich einen geordneten Zustand ungezielt verändere, erhalte ich einen anderen, der mit überwältigender Wahrscheinlichkeit weniger geordnet sein wird, ganz einfach, weil es viel mehr ungeordnete als geordnete Zustände gibt. Eine zufällige Veränderung eines Zustands (von was auch immer) führt fast immer in einen Zustand, der ungeordneter oder bestenfalls gleich ungeordnet ist.
Wie schnell die Zahl ungeordneter Zustände mit der Teilchenzahl zunimmt, kann man sich an folgendem Beispiel klar machen. Die Luft in einem Zimmer ist im Allgemeinen sehr gleichmäßig verteilt, die Luft hat überall die gleiche Dichte. Kein physikalisches Gesetz verbietet es jedoch, dass sich alle Luftmoleküle in einer Hälfte des Zimmers vereinen und Euch in der anderen Hälfte ersticken lassen: man denke sich die Luft zunächst durch eine Trennwand in einer Hälfte gefangen. Nimmt man die Trennwand weg, wird das Gas sofort das leere Volumen auffüllen und sich gleichmäßig verteilen. Würde ein Dämon nun alle Bewegungsvektoren der Luftmoleküle gleichzeitig exakt um 180° umkehren, dann würde das Gas wieder in die Hälfte des Zimmers zurück fließen und man könnte die Trennwand wieder einsetzen.
Dass dies allerdings zufällig geschieht, ist unfassbar unwahrscheinlich. Ein Zimmer von 4m×3m×2,5m enthält in einem Volumen vom 30 Kubikmetern rund 8,1 · 1026 Luftmoleküle, die sich mit einer Wahrscheinlichkeit von 1/28,1·1026 ≈ 1/102,44·1026 in einer Hälfte sammeln würden – jedes Teilchen befindet sich mit einer Wahrscheinlichkeit von 1/2 in der richtigen Hälfte, und die Wahrscheinlichkeit, dass sich alle n Teilchen dort befinden, ist das Produkt aller Wahrscheinlichkeiten der n Teilchen, in der richtigen Hälfte zu sein: 1/2n). Das ist eine Zahl 0,000… mit 2,44 · 1026 Nullen vor der Ziffer 1 an letzter Stelle, ziemlich schwer vorstellbar. Der Versuch, sie in voller Länge ohne Exponenten auszuschreiben wäre vollkommen aussichtslos – nebeneinander geschrieben mit 3 mm pro Ziffer wäre die Folge von Nullen nach dem Komma etwa 73,2 Millionen Lichtjahre lang, 30 mal die Strecke bis zur Andromedagalaxie, bevor die erste Ziffer ungleich Null käme! Und jede Null mehr verringert die Wahrscheinlichkeit um den Faktor 1/10. Streng genommen ist es also nicht vollkommen ausgeschlossen, dass so etwas passiert, es ist nur unvorstellbar unwahrscheinlich und mit großer Sicherheit bisher noch in keinem Zimmer auf der Welt passiert.
Das ist ein sehr extrem geordneter Fall, nur einer aus mehr als 101026 möglichen. Aber eine exakte Gleichverteilung ist doch auch sehr speziell, oder? Weniger speziell, als man denkt. Nehmen wir etwa nur 100 Moleküle an. Dann können sie sich verteilen als 100 links / keins rechts, 99 links / 1 rechts etc. bis 50 links / 50 rechts und so weiter bis keins links und 100 rechts. Für 100 links und keins rechts gibt es nur eine Kombination. Für 99 links und 1 rechts gibt es bereits 100 Kombinationen, weil jedes der Teilchen dasjenige sein könnte, welches sich rechts befindet. Für 98 links und 2 rechts gibt es 100 · 99 /2 = 4950 Kombinationen, weil es 100 Möglichkeiten gibt, das erste Teilchen auszuwählen und 99 für das zweite, wobei uns aber egal ist, in welcher möglichen Reihenfolge wir die beiden ausgewählt haben, das Endergebnis ist identisch. Daher brauchen wir diese beiden Fälle nicht zu unterscheiden und können durch 2 dividieren. Alle übrigen Fälle berechnen sich analog (und zwar mit Binomialkoeffizienten): wenn wir n Teilchen haben und wissen wollen, auf wie viele Weisen wir k davon in der einen und n–k in der anderen Hälfte des Raums anordnen können, dann sind das n!/[k!·(n–k)!] Kombinationen. Im folgenden Bild sind die Anzahlen aller Kombinationen für n=100 und k=0…100 in einem Diagramm über k aufgetragen:
Das Diagramm ist nicht etwa unten abgeschnitten, sondern die Säulen werden nach außen hin so kurz, dass man sie angesichts der gigantischen Skala auf der y-Achse (gesehen?) nicht mehr darstellen kann. Das bedeutet, dass Kombinationen, bei denen sich in einer Hälfte weniger als ca. 30 der Teilchen wiederfinden (und folglich mehr als 70 in der anderen), extrem unwahrscheinlich sind. Schon für nur 100 Teilchen kommt man auf rund eine Quintillionen (1030) von Kombinationen, bei denen sich höchstens 6 Teilchen mehr oder weniger als der Mittelwert 50 in einer Hälfte befinden, aber nur 1/4 Quintillion, bei denen die Abweichung größer ist. 99,82% aller Kombinationen finden sich zwischen 50±15 Teilchen in einer Hälfte, 99,997% bei 50±20 und 99,99998% bei 50±25. Die Summe aller möglichen Kombinationen insgesamt ist 2100 ≈ 1,26765 · 1030.
Und was passiert, wenn es mehr Teilchen werden? Schön, dass Excel mit großen Exponenten klar kommt. Bei 1000 Teilchen sieht die Kurve so aus:
Abgesehen vom mehr als 10fach höheren Exponenten (Kombinationsanzahlen mehr als 10-fach potenziert!) erscheint sie schmaler, d.h. eine geringere prozentuale Abweichung vom Mittelwert ist hier schon wesentlich unwahrscheinlicher als bei 100 Teilchen. Bei 8,1 · 1026 Luftmolekülen in einem Zimmer wäre die Verteilung dann ein sehr schmaler Strich bei 4,05 · 1026 (und Excel würde versagen). Und dies nur für den einfachen Fall Teilchen in der linken oder rechten Raumhälfte. Noch viel mehr Kombinationen ergeben sich, wenn man den Raum in kleine Würfel zerteilt und danach fragt, auf wie viele Weisen sich die Moleküle auf diese verteilen können.
Genau aus diesem – rein statistischen – Grund verteilt sich ein Gas gleichmäßig im Raum. Es gibt einfach viel mehr ungeordnete (gleichmäßig verteilte) Zustände für die Teilchen, als geordnete (lokale Häufungen, Dichteschwankungen). Ludwig Boltzmann führte 1877 ein Maß ein, mit dem er die Unordnung quantifizieren wollte, die schon seit 1865 von Clausius als Entropie bezeichnet wurde. Boltzmanns Entropieformel findet sich heute eingraviert in seinen Grabstein auf dem Zentralfriedhof von Wien (siehe Titelbild):
S = k log W
Hierbei bedeutet S die Entropie, k oder meist kB ist eine nach Boltzmann benannte Konstante (deren Wert und Einheit uns hier nicht weiter kümmern muss) und W die Wahrscheinlichkeit im Sinne der Anzahl der gleichwertigen “Mikrozustände”, die einem beobachteten Makrozustand entsprechen (etwa dem gleichen Gasdruck in einem Volumen), im Verhältnis zur gesamten Zahl aller möglichen Zustände. Log ist der natürliche Logarithmus (eigentlich ln).
Beispiel: Oben war davon die Rede, dass es ca. eine Quintillion Kombinationen für k zwischen 50±6 gibt; genauer gesagt sind es 1,0226 · 1030. Wenn wir dies als den Makrozustand “gleichmäßige Verteilung” zusammenfassen, beträgt dessen Entropie in Einheiten der Boltzmannkonstante kB: ln (1,0226 · 1030) = 69,1. Das ist ein deutlich handlicherer Wert als 1,0226 · 1030. Die Entropie des gegenteiligen Makrozustands der 100 Teilchen, dass sie nicht gleichmäßig verteilt sind (also weniger als 44 in einer und mehr als 56 Teilchen in der anderen Hälfte) beträgt ln (2100-1,0226 · 1030) = ln 2,451 · 1029 = 67,67 kB. Bei ≤ 30 oder ≥ 70 Teilchen beträgt die Entropie 59,0 kB. Und wenn alle Teilchen in einer Hälfte sind, dann ist die Entropie dieses Zustands 0.
Aus der simplen Tatsache, dass es viel weniger geordnete Mikrozustände als ungeordnete gibt, folgt trivialerweise, dass aus einer Änderung eines Makrozustands geringer Entropie mit hoher Wahrscheinlichkeit (und für realistische Situationen mit vielen beteiligten Teilchen und der Beschränkung auf menschliche Beobachtungsdauern sicher) ein solcher höherer Entropie hervor geht (jedenfalls in abgeschlossenen Systemen mit einer festen Energie und Teilchenzahl – mehr dazu im nächsten Teil der Reihe). Dies ist der zweite Hauptsatz der Thermodynamik (der erste beschreibt die Energieerhaltung geschlossener Systeme). Die Forschungen von Clausius, Boltzmann und anderen im 19. Jahrhundert beschäftigten sich mit der Kinetik von Gasen und Dampfmaschinen, daher der Bezug zur Thermodynamik, der Wärmelehre.
Der zweite Hauptsatz bedingt den thermodynamischen Zeitpfeil. Ihm zufolge ist es viel wahrscheinlicher, dass eine weiße Kugel beim Anstoß im Billard die anderen Kugeln auseinander treibt, als dass jene, angetrieben von mikroskopischen Stößen im Billardtisch und Luftwirbeln Fahrt aufnehmen und sich mit genau den richtigen Geschwindigkeiten und Richtungen aufeinander zu bewegen, um selbst in Dreiecksanordnung zur Ruhe zu kommen und lediglich die weiße Kugel in eine bestimmte Richtung zu beschleunigen. Oder dass keine Scherben sich spontan zu einem Glas formen, das vom Boden hochspringt und auf dem Tisch zu stehen kommt. Oder dass von Ufer und Grund eines Sees keine Druckwellen konzentrisch zu einem am Boden liegenden Stein zusammen laufen, die ihn just beim Zusammentreffen anheben und aus dem Wasser schleudern. Das sind alles Vorgänge, denen jeweils exakt ein zeitlich symmetrischer realer Vorgang entspricht, und die daher wegen der zeitlichen Symmetrie der Gesetze der Mechanik auch möglich sein müssen, aber die real beobachteten unter den jeweiligen Paaren von Vorgängen beginnen alle aus einem Zustand niedriger Entropie und enden in einem höherer, während die beschriebenen absurden Vorgänge die Entropie verkleinern würden, und das ist so unwahrscheinlich, dass wir nicht darauf zu warten brauchen.
Aber erklärt der zweite Hauptsatz den Zeitpfeil komplett für alle physikalischen Vorgänge, oder gibt es vielleicht noch andere Zeitpfeile, unabhängig von diesem? Gibt es nicht etwa elementare physikalische Prozesse, die zeitlich nicht umkehrbar sind?
Die CPT-Invarianz gilt letztlich für die ganze Physik. Dass Sterne kein Licht absorbieren, das wellenförmig auf sie zu läuft, ist äquivalent dazu, dass keine Wasserwellen zusammenlaufen und Steine aus dem Wasser schmeißen. Die Elektrolyse von Wasser ist deutlich komplizierter als die explosionsartige Verbrennung von Wasserstoff mit Sauerstoff. Zerfälle einzelner Teilchen passieren seltener als die Vereinigung von mehreren Teilchen zu einem neuen. Und Gravitation wird üblicherweise durch die Raumkrümmung von Massen erzeugt, die im Extremfall Schwarze Löcher hervorbringen kann – Schwarze Löcher aufgrund von Masse sind eher zu erwarten als Orte mit absurd hoher Vakuumenergie, die Weiße Löcher hervorbringen könnten.
Der thermodynamische Zeitpfeil von niedriger zu höherer Entropie ist derjenige, der sagt, wo’s zeitlich lang geht. Was allerdings neue interessante Fragen aufwirft:
Wieso ist die Entropie jetzt gerade so klein? Wieso steigt sie eigentlich nur in der einen Richtung? Kann sie immer weiter grenzenlos wachsen? Und wenn nicht, was passiert dann? Damit beschäftigen wir uns in den kommenden 5. und 6. Teilen der Reihe.
Die für die Mission vorgesehene Crew bestand aus James “Jim” A. Lovell Junior (Kommandant), Thomas K. “Ken” Mattingly II (Pilot des Apollo-Raumschiffs) und Fred W. Haise Junior (Pilot der Mondlandefähre). Jim Lovell war ein alter Hase der 2. Astronautengruppe (nach den Mercury-7 rekrutiert), der schon auf Gemini 7 und 12 geflogen war und mit Apollo 8 als Pilot des Kommandomoduls um den Mond gekreist. Nun wollte er als Kommandant der 5. Mensch werden, der den Fuß auf den Mondboden setzt. Fred Haise war ein Rookie, der erst 1966 mit der 5. Astronautenrekrutierungswelle zur NASA stieß. Er gehörte zur Ersatzmannschaft von Apollo 8, wo er der Ersatzmann für den Mondlandefährenpiloten William Anders war (wobei Apollo 8 gar keine Mondlandefähre dabei hatte). Er wollte der 6. Mensch auf dem Mond werden. Schließlich Ken Mattingly: auch er gehörte zur Ersatzcrew von Apollo 8, wo er Jim Lovell als Kommandomodulpilot hätte ersetzen können. Die drei kannten sich also schon lange als Team. Bei Apollo 11 stellten sie die Ersatzcrew; Mattingly war dabei einer der Capcoms (kurz für “Capsule Communicator”), die direkt mit den Astronauten an Bord Kontakt hielten, weil sie sich als Kollegen gut kannten und über die gleichen Trainingserfahrungen verfügten.
Hervorragende Dokumentation der NASA über den Apollo-13-Flug mit Interviews mit den Beteiligten
Eigentlich waren die drei für Apollo 14 vorgesehen, aber Alan Shepard, der als Kommandant für die 13 geplant war, hatte aufgrund einer Innenohroperation noch nicht genug Trainingsstunden gesammelt und war seit 1961, als er den ersten amerikanischen Raumflug überhaupt auf Mercury Freedom 7 absolvierte, nicht mehr geflogen. Um die Besatzungen nicht unnötig auseinander zu reißen, tauschte man die Crews von 13 und 14 einfach komplett gegeneinander aus.
Das Training für die 3. Mondlandung begann schon im September 1969 mit einem “Geologie-Bootcamp” in Kalifornien für Lovell und Haise, an dem auch ihre Ersatzleute John Young und Charlie Duke (beide später Apollo 16) teilnahmen. Da das Interesse an Geologie unter den Astronauten eher gering war, bemühte sich der einzige zivile Wissenschaftler unter den Astronauten, Harrison Schmitt, die Crews mit seinem ehemaligen Geologie-Professor Lee Silver zusammen zu bringen und sie absolvierten schließlich begeistert mit Silver auf eigene Kosten und in ihrer Freizeit zusätzliche Trainingseinheiten. 20mal trainierten Lovell und Haise die geplanten EVA (extravehikulären Aktivitäten, i.e. “Mondspaziergänge”) in voller Raumanzug-Montur. Während dessen übten Mattingly und sein Ersatzmann Jack Swigert das Identifizieren und Fotografieren von Landmarken aus dem Flugzeug. Jeder hatte neben dem für alle Astronauten gleichen Basistraining ca. 1000 Trainingsstunden für die jeweilige spezielle Mission zu absolvieren, davon 400 Stunden im Simulator.
Anfang Dezember 1969, kurz nach dem Ende der Apollo-12-Mission, wurden die Presseaufnahmen gemacht und die Crew der Öffentlichkeit vorgestellt. Die Mondlandung sollte im Hochland nahe dem Fra-Mauro-Krater erfolgen, wo man sich Auswurfgestein vom Mare-Imbrium-Einschlag erhoffte, das man datieren wollte. Die Gegend war ein wesentlich raueres Terrain als bei Apollo 11 und 12, aber man hatte mit Apollo 12 ein neues Navigationssystem erfolgreich getestet, mit dem man der Crew die Landung dort zutraute. Um Treibstoff beim Abstieg zu sparen und ein längeres Schweben beim Auswählen der Landestelle zu ermöglichen, sollte das Apollo-Raumschiff die Mondlandefähre besonders tief aussetzen, um seine Bahn danach wieder anzuheben. Die S-IVb-Overstufe der Apollo-13 Rakete wollte man auf den Mond stürzen lassen, um mit dem von Apollo 12 aufgestellten Passiven Seismometer PSE (Passive Seismometer Experiment) die seismischen Wellen des kleinen Mondbebens aufzuzeichnen, welche das Innere des Mondes ergründen sollten. Für das Insignium der Mission wählte Kommandant Lovell eine Abwandlung des Mottos seiner Marineakademie (Ex scientia, tridens – “vom Wissen [kommt] die Seemacht”): Ex luna, scientia (“Vom Mond [kommt] das Wissen”).
Der Starttermin war für den 11. April 1970 angesetzt. Ursprünglich war der 12. März geplant gewesen, aber das Apollo-Programm wurde bereits gekürzt, die Mission 20 war gerade gestrichen worden, und man wollte zur Kostenersparnis die Flugfolge etwas strecken. Kurz vor dem geplanten Start gab es dann eine ungeplante Änderung: 7 Tage vor dem Start hatte sich Astronaut Charles Duke bei seinem Sohn mit den Röteln (englisch auch German measles, “deutsche Masern”) infiziert und erkrankte. Da Mattingly Kontakt mit Duke gehabt hatte und selbst nicht immun gegen die Röteln war, fürchtete man, er könne just während der Mission erkranken. Daher tauschte man ihn nur 2 Tage vor dem Start gegen Ersatzmann John L. “Jack” Swigert aus. Zwar erkrankte Mattingly nie an den Röteln, was in der Verfilmung von 1995 stark dramatisiert wurde (da waren es fälschlicherweise die Masern). Dennoch war die Entscheidung absolut richtig. Man durfte kein unnötiges Risiko eingehen, und genau deswegen gab es die Ersatzcrews.
Der Start erfolgte pünktlich am 11. April um 13:13h Ortszeit (21:13h deutscher Zeit) – da es nicht auf die exakte Minute ankam, hatten die Ingenieure die Uhrzeit absichtlich provokant gewählt, um dem Aberglauben die Zunge zu zeigen. Was dann nicht wirklich hinhaute.
Der Start verlief einigermaßen nominal. Allerdings wurde die Rakete von heftigen “Pogo-Oszillationen” geschüttelt, ausgelöst durch sich aufschaukelnde Schwingungen des Treibstoffs in den Tanks die zu Druckschwankungen im Einlass der Triebwerke und damit zu Schubschwankungen führten, welche wiederum den Treibstoff heftiger in den Tanks umher schwappen ließen – ein bekanntes Problem der Saturn V, welches bei dieser Seriennummer durch Kavitation (Blasenbildung) in der Turbopumpe jedoch besonders heftig ausfiel. Die Oszillationen führten zur Abschaltung des mittleren Triebwerks der zweiten Stufe, zwei Minuten vor der geplanten Zeit, was von den übrigen Triebwerken durch eine um 35 Sekunden verlängerte Brenndauer kompensiert werden konnte. Die dritte Stufe S-IVb erreicht mit einigen Sekunden Verspätung sicher den Erdorbit. 2 Stunden später nach dem Check aller Systeme feuerte die S-IVb erneut und beförderte Apollo 13 auf den Weg zum Mond. 100 Minuten später hatte Swigert die Mondlandefähre Aquarius mit dem aus Kommando- und Servicemodul bestehenden Apollo-Raumschiff Odyssey aus der S-IVb geborgen. Das Kommandomodul ist die Kapsel und das Servicemodul der zylindrische Teil des Raumschiffs mit Triebwerk, Steuerdüsen, Treibstoffbehältern, Sauerstoff und Stromversorgung durch Brennstoffzellen – alles, was man zum Betrieb des Kommandomoduls unbedingt brauchte.
Das öffentliche Interesse an den Mondlandungen hatte inzwischen stark abgenommen, nur noch wenige Fernsehstationen berichteten live. Das blieb so bis zum 3. Missionstag, dem 13. April am späten Abend nach US-Zeit. Man war nur noch 26 Stunden vom geplanten Einschuss in den Mondorbit entfernt und das Raumschiff befand sich 330.000 km von der Erde entfernt und knapp 70.000 vom Mond. Nach einer 6 1/2 minütigen TV-Schaltung forderte EECOM Sy Liebergot (man kennt den kleinen Mann mit Brille, schwarzen Haaren und Mittelglatze aus dem Spielfilm – genau so sah auch der echte Liebergot aus) Swigert vom Kontrollzentrum aus auf, den Sauerstoff mittels eines im Tank eingebauten Ventilators umzuwälzen, eine tägliche Routineaktion, um eine gleichmäßige Temperatur im Tank herzustellen, was eine genauere Druckanzeige ermöglichte – die war nämlich nicht nominal gewesen.
95 Sekunden nach dem Abschalten der Ventilatoren kam es zu jenem großen Knall, der schicksalhaft für die Mission wurde. Dem Stack aus den beiden Raumschiffen wurde ein Stoß versetzt, der das Blech des Verbindungstunnels eindrückte wie eine Getränkedose – Gott sei Dank hielt er dicht! – und der die automatische Lageregelung auslöste, welche die Steuerdüsen in Aktion versetzte. Der Strom schwankte, der Computer crashte und die Funkverbindung zur Erde brach für knapp 2 Sekunden ab, weil die Richtantenne ihre Ausrichtung verlor, bevor die Systeme auf die Breitbandantenne umschalteten. Als erster funkte Swigert “Okay, Houston, wir hatten hier ein Problem” und auf Rückfrage vom Capcom Jack Lousma “Bitte wiederholen” sagte Lovell dann: “Houston, wir hatten Problem. Wir hatten eine Hauptbus-B-Unterspannung”.
Dass der kurzfristige Spannungsabfall im Versorgungsstromkreis B, auf den er sich bezog, nicht das wirkliche Problem war, wusste er da noch nicht. Nach dem Knall hatte Lovell zuerst angenommen, Haise hätte wieder einmal zum Scherz das Belüftungsventil der Aquarius eingeschaltet, mit dessen Geräusch er die Crew gerne erschreckte, aber er konnte an Haises verblüfftem Blick erkennen, dass dem nicht so war. Swigert dachte an einen Meteoroideneinschlag, aber man fand kein Leck. Jedoch begannen alsbald beide Versorgungsstromkreise an Spannung zu verlieren, weil zwei Brennstoffzellen, mit denen aus Sauerstoff und Wasserstoff Strom erzeugt wird, tot waren. Sy Liebergot bemerkte, dass Sauerstofftank 2 keinerlei Druck mehr anzeigte, allerdings hielt er dies zunächst für einen Fehler der Sensoren – wie sollte denn auch der Druck in Tank 2 plötzlich Null sein? Er verließ sich vielmehr auf die Anzeige von Tank 1 und nahm an, dass Tank 2 den selben Druck haben müsse. Bis Lovell aus dem Fenster schaute und meldete, dass sie etwas ins All ventilierten. “Eine Art Gas”. Es war der komplette Sauerstoff des Servicemoduls. Nach ca. einer halben Stunde und bei stetig fallendem Druck in Tank 1 nahendem Ausfall der dritten und letzten Brennstoffzelle, die sich bereits aus dem separaten Sauerstoff-Ausgleichstank der Kapsel zu bedienen begann, dämmerte es Liebergot und er bat darum, den Ausgleichstank von der Zelle zu isolieren, die damit ebenfalls starb; den Sauerstoff würde man spätestens beim Wiedereintritt in die Erdatmosphäre wieder benötigen. Das Servicemodul lieferte nun keinerlei Strom mehr. Das Kommandomodul stillte seinen Stromhunger währenddessen an den Batterien, die man ebenfalls für den Wiedereintritt benötigte.
Wäre das Unglück im Mondorbit oder auf dem Rückflug vom Mond passiert, dann wäre das Raumschiff manövrierunfähig und die Crew mit begrenztem Sauerstoff verloren gewesen. Aber man hatte ja noch die Mondlandefähre angedockt, die volle Sauerstoff- und Treibstofftanks und Batterien hatte, und der leitende Flugdirektor Gene Kranz, der mit seinem “White Team” die Kontrolle im Leitzentrum Houston übernahm, entschied, dass man die Aquarius als Rettungsboot nutzen werde und das Abstiegstriebwerk für Kurskorrekturen. Man befand sich nämlich nicht auf einer freien Rückkehrbahn, die von alleine nach einer Runde um die Mondrückseite wieder 8-förmig zur Erde zurück führen würde, sondern musste sich zunächst auf diese einschießen. Um mit dem Stack aus beiden Raumschiffen entsprechende Manöver zu fliegen, musste Lovell vor dem kompletten Abschalten des Kommandomoduls die Daten über die Orientierung und Flugrichtung händisch aus dem Führungssystem des Kommandomoduls in dasjenige der Mondlandefähre übertragen, wozu er nur 15 Minuten Zeit hatte, bevor die Kapsel komplett heruntergefahren werden musste, um die Batterieladung zu erhalten. Und danach musste er den Apollo-Leitrechner (Apollo Guidance Computer, AGC) der Aquarius gemäß Anweisung vom Boden umprogrammieren. Auch dies geschah händisch, Befehl für Befehl; die Navigationsprogramme ähnelten denen früher programmierbarer Taschenrechner. Die Techniker am Boden begaben sich umgehend an die Erstellung der Software. 5 1/2 Stunden nach dem Unglück beförderte der umprogrammierte AGC den Raumschiffstack mit Hilfe des Abstiegstriebwerks der Mondlandefähre auf die freie Rückkehrbahn zur Erde.
Dort wäre das Raumschiff nach einer verbleibenden Flugzeit von 4 Tagen allerdings im Indischen Ozean nieder gegangen, wo es kaum Bergungsschiffe gab . Vor allem befürchtete man jedoch, dass Batteriestrom und Wasser der Aquarius knapp werden könnten (die Mondlandefähre hatte keine Brennstoffzellen), so dass die für die Flugbahn zuständigen FIDOs (Flight Dynamic Officers) vorschlugen, die Rückkehrbahn durch ein weiteres Manöver 2h Stunden nach Passieren des mondnächsten Punkts (Pericynthion) – daher als PC+2-Manöver bezeichnet – um etwas mehr als einen Tag zu verkürzen. Dies würde eine Wasserung im Pazifik ermöglichen, wo sie auch ursprünglich geplant war.
Im Pericynthion stellte das Raumschiff am 15. April um 2:21 MESZ einen immer noch gültigen und im Guinness Buch der Rekorde verzeichneten Rekord für die größte Entfernung auf, die Menschen je von der Erde erreicht haben: 400.171 km. Während die Crew das PC+2-Manöver vorbereitete, teilte Kranz ihr mit, dass die S-IVb-Oberstufe erfolgreich auf dem Mond eingeschlagen sei, worauf Lovell lakonisch meinte “Wenigstens irgendwas, das bei diesem Flug funktioniert”. Mehr als die Sorge um seine Rückkehr beschäftigte ihn, dass er gerade seine ersehnte Mondlandung verloren hatte. Der Titel seiner Biografie, nach welcher das Drehbuch zum Spielfilm “Apollo 13” verfasst worden war, lautet denn auch “Verlorener Mond” und er beklagt darin ausgiebig diesen Verlust. Während Haise und Swigert sich bei der Mondumrundung die Nasen an den Lukenfenstern platt drückten, “Ahs” und “Ohs” ausriefen und ausgiebig Fotos machten, verzog sich Lovell in die Schmollecke. Es hatte ihn schon geärgert, dass Armstrong vor ihm auf dem Mond gewesen war, und nun das – zweimal zum Mond geflogen, ohne zu landen. Einfach furchtbar!
Um die Lage des Raumschiffs vor dem einem Manöver zu verifizieren, maß man normalerweise mit dem Sextanten die Richtung zu bestimmten Leitsternen, aber es flog immer noch so viel Schrapnell um das Raumschiff herum, dass Lovell beim Navigieren für das PC+2-Manöver die Sterne nicht fand, so dass er sich alleine an Sonne und Mond orientieren musste. Das Manöver, bei dem das Abstiegstriebwerk fast viereinhalb Minuten ununterbrochen feuerte, gelang trotzdem perfekt mit nur 30 cm/s Abweichung von der Sollgeschwindigkeit.
Man hatte genug Sauerstoff an Bord, aber der Gehalt an Kohlendioxid in der Luft begann, auf ein gefährliches Maß zu steigen. Das giftige Gas wurde der Atemluft mittels Kanistern entzogen, die mit Lithiumhydroxidkügelchen gefüllt waren, welche das Gas absorbierten. In der Mondlandefähre waren ausreichend Kanister, um die Atemluft zweier Astronauten für die geplante Landemissionsdauer von 45 h zu filtern, aber nun mussten 3 Menschen 4 Tage damit auskommen. Man hatte zwar genug ähnliche Kanister für das Kommandomodul dabei, aber diese hatten eine rechteckige Form, während die Aufnahme in der Landefähre für runde Kanister ausgelegt war. So mussten sich die NASA-Ingenieure im Kontrollzentrum überlegen, wie man aus an Bord verfügbaren Utensilien wie Karten, Schläuchen, Plastikfolien und Klebeband einen Adapter basteln konnte, mit dem man die eckigen Kanister an die Luftkanäle der Aquarius anschließen konnte. Nachdem eine Konstruktion erdacht worden war, wurde sie während einer einstündigen Session an Swigert und Haise durchgegeben, die sie dabei sofort umsetzten. Am Ende hatten sie einen funktionierenden Luftfilter, und der Kohlendioxidgehalt begann sofort zu fallen.
Ein anderes Problem waren die Wasservorräte. Haise berechnete, dass das Kühlwasser der Aquarius voraussichtlich 5 Stunden vor Erreichen der Erde verbraucht sein würde. Das Risiko erschien akzeptabel, weil man wusste, dass die Aufstiegsstufe der Apollo-11-Mondlandefähre Eagle nach ihrem Abtrennen von der Kommandokapsel Columbia noch 7 oder 8 Stunden ganz ohne Kühlwasser weiter funktioniert hatte. Swigert konnte noch etwas Trinkwasser aus dem Kommandomodul in Beutel abfüllen und die Crew rationierte ihren Verbrauch auf 0,2 Liter pro Person und Tag – was Haise schließlich eine fiebrige Blasenentzündung einbrachte. Die Besatzung verlor in Summe 14 kg an Gewicht. Aber immerhin verdurstete niemand.
Um Batteriestrom zu sparen, wurden alle verzichtbaren Stromverbraucher abgeschaltet, darunter auch die besonders energiehungrige Heizung. Dadurch fiel die Temperatur in der Landefähre bis auf 3°C. Einer der Beutel mit Trinkwasser gefror gar. Lovell erwog, die Raumanzüge anzuziehen, die aber wiederum nach Verbrauch ihres Batteriestroms die Temperatur nicht mehr regeln konnten und dann zu warm geworden wären. So zogen Haise und Lovell nur ihre Überziehstiefel an (wer warme Füße hat, friert nicht so leicht), während Swigert, der keine Stiefel hatte (aber nasse Socken vom Hantieren mit den Wasserbeuteln), einen zweiten Satz Unterwäsche anzog. Außerdem wickelte die Crew sich manchmal in die aus nur dünnem Tuch bestehenden Schlafsäcke im Raumschiff. Die ausgeatmete und aus den Urinbeuteln ausgetretene Feuchtigkeit schlug sich mangels laufendem Wasserabscheider alsbald auf Lukenfenstern und Instrumenten nieder, alles wurde klitschnass. Glücklicherweise hatte man nach dem Apollo-1-Feuer alle Kabel wasserdicht isoliert, so dass man keine Kurzschlüsse befürchten musste.
Vor dem Wiedereintritt musste die Crew nochmals ein Kurskorrekturmanöver fliegen, diesmal ohne den nach dem PC+2-Manöver ausgeschalteten Bordcomputer – es war zu aufwändig, ihn wieder in Betrieb zu nehmen und mit Lagedaten zu füttern. Denn der Eintrittswinkel musste auf 2° genau eingehalten werden – zu flach, und die antriebslose Kapsel würde an der Atmosphäre abprallen und zurück ins All katapultiert werden. Zu steil, und sie würde verglühen. Dazu orientierte Lovell sich am Erdterminator, der Tag-Nacht-Grenze auf der Erde. Ein Manöver, das er einmal im Rahmen eines Tests auf dem Apollo-8-Flug versucht hatte, allerdings weit weg von der Erde mit einem funktionierenden Computer, der sie jederzeit wieder auf Kurs bringen konnte. Während Swigert die Zeit des Brennstoßes stoppte, bedienten Lovell und Haise die Steuerdüsen manuell, jeder von beiden für eine Achse (Neigung und Rollen) zuständig.
Kurz nach dem Manöver koppelte Swigert das Servicemodul ab, und die Crew bekam zum ersten Mal den Schaden an dessen Außenhülle zu sehen: ein Paneel war über die volle Länge des Raumschiffs aufgerissen und dessen Innereien klafften heraus. “Mann, das ist unglaublich!” entfuhr es Haise.
Nun galt es noch, die Kapsel wieder in Betrieb zu nehmen. 3 1/2 Tage hatten Ken Mattingly und Flight Controller John Aaron (der selbe, der bei Apollo 12 “Versucht SCE auf AUX” vorgeschlagen hatte), daran getüftelt, wie man das Kommandomodul im Batteriebetrieb wieder hochfahren konnte. Die Zeit bis zum Wiedereintritt war so knapp bemessen, dass Swigert beim Befolgen der Anweisungen keinen einzigen Fehler machen durfte. Es blieb keine Zeit, im Fehlerfall nochmals von vorne zu beginnen. Weil alles nass war, schaltete Swigert zunächst alle Sicherungen aus und schaltete sie beim Hochfahren in Sechsergruppen wieder ein, zwischen denen er nach dem Geruch von verschmortem Kabel witterte. Um Strom zu sparen, wurden die Instrumente ganz zuletzt als finaler Check eingeschaltet – so dass auch erst am Ende fest stand, ob alle Systeme liefen. Der übermüdete und frierende Swigert musste mit zitternden Fingern gewissermaßen blind arbeiten. Aaron gestand später, dass er den Zustand der Besatzung, die sich nie beklagt hatte, völlig außer Acht gelassen hatte, und dass es ihm heute noch kalt den Rücken herunter laufe, wenn er daran dachte, was er Swigert zugemutet hatte. Es dauerte zwei Stunden, dann war die Kapsel wieder im vollen Betrieb.
Schließlich stiegen die beiden anderen Crewmitglieder ebenfalls in die Kapsel um und dockten die Aquarius ab. Nun blieb noch zu hoffen, dass das Wiedereintrittsmanöver gelang – dass der Hitzeschild durch die Explosion keinen Schaden genommen hatte und die Fallschirme inzwischen nicht zu Eisklumpen gefroren waren.
Beim Wiedereintritt umhüllt das Raumschiff eine Plasmawolke, die leitend ist und keine Radiowellen durchlässt. Am Boden hoffte man, wie gewohnt nach spätestens 4 Minuten Blackout eine Antwort auf die Anfragen von Capcom Joe Kerwin zu erhalten. Aber die vier Minuten verstrichen ohne Antwort. 5 Minuten ebenso. Da die Kapsel aufgrund der Handsteuerung relativ flach in die Atmosphäre eingetreten war, dauerte die Plasmaphase um die Hälfte länger und verursachte im Kontrollzentrum und an den Bildschirmen heftiges Nagelkauen und Zähneklappern. Besonders die bei der Live-Übetragung zuschauenden Familien der Astronauten müssen fürchterlich gelitten haben, bis schließlich nach 6 Minuten die erlösende Antwort von Swigert kam: “Okay Joe”. Die Fallschirme funktionierten dann auch tadellos und die Kapsel wasserte nur 6,5 km vom Hubschrauberträger Iwo Jima entfernt, der die Bergung vornahm. Sogar die Sowjetunion hatte 4 Schiffe in das Gebiet entsendet, um gegebenenfalls Hilfe zu leisten.
Die Besatzung war 45 Minuten später an Bord der Iwo Jima und wurde frenetisch begrüßt. Präsident Richard Nixon meldete sich telefonisch und beglückwünschte auch die Familien durch persönliche Anrufe. Er prägte den Begriff des “erfolgreichen Fehlschlags”: die eigentliche Mondlandung war zwar fehlgeschlagen, aber die Rettung der Crew war ein Erfolg. Am folgenden Tag ließ Nixon sich zu Luftwaffenbasis Hickham auf Hawaii fliegen, wo er den Astronauten die Freiheitsmedaille verlieh.
Ein halbes Jahr nach Apollo 13 war eigentlich schon die nächste Mission geplant gewesen, aber zunächst wurden alle weiteren Flüge suspendiert und man machte sich an die Fehlersuche. Schon im Juni lieferte das Untersuchungsteam den Abschlussbericht.
Ursächlich für die Explosion war ein Kurzschluss zweier Kabel im Sauerstofftank 2, deren Teflonisolation sich gelöst hatte. Als Swigert die Ventilation des Tanks eingeschaltet hatte, hatten sich die Kabel berührt und der resultierende Funke führte im reinen Sauerstoff sofort zu einem Kabelbrand. Das sich ausdehnende erhitzte Gas sprengte den Tank und beschädigte den benachbarten Sauerstofftank 1, der somit ebenfalls seinen Inhalt einbüßte.
Aber wie war es überhaupt zu der Beschädigung der Kabelisolation gekommen? Schuld war hier ein Thermoschalter, der überwachte, dass der Tank, der z.B. beim Entlüften beheizt werden konnte, nie über 27°C (80°F) erwärmt wurde und andernfalls die Heizung unterbrach. Zu Beginn waren die Thermoschalter in den Tanks für eine Betriebsspannung von 28 V ausgelegt worden. Im Rahmen eines Redesigns kamen 1965 neue Schalter zum Einsatz, die mit 65 V betrieben wurden. Der Schalter, der im Tank von Apollo 13 endete, war nun versehentlich eines der 28-V-Modelle, was alleine noch nicht problematisch war, solange der Schalter nicht aufgrund von Erwärmung in Aktion trat. Im Rahmen von Montagearbeiten war der Tank zunächst 5 cm tief auf den Boden gefallen, was nicht als problematisch angesehen worden war. Jedoch wollte er sich dann bei einem Betankungstest im Rahmen des Countdowns nicht richtig entleeren, und so schaltete man die Tankbeheizung ein, um das Gas auszutreiben. Dabei wurde der Thermoschalter ausgelöst; er erhitzte sich auf über 500°C, schmolz teilweise und ließ die Isolation an den Zuführungsleitungen abbröckeln. Das fiel niemandem auf, weil die zuständigen Temperatursensoren nur bis 29°C anzeigten. Und so endete der Tank mit den blanken Kabeln in der Apollo 13 – ausgerechnet in der Nummer 13. Wie so oft hatte eine Verkettung von unglücklichen Umständen zu dem Unglück und beinahe zu einer Tragödie geführt.
Nachdem die Ursache identifiziert und Gegenmaßnahmen getroffen waren, konnte das Programm mit einem halben Jahr Verzögerung wieder aufgenommen werden. Apollo 14 sollte im Februar 1971 die Landung in der Fra-Mauro-Region nachholen.
Wie bei allen Apollo-Artikeln gibt es auch hier eine Fotostrecke. Mit den Pfeilen oben links und rechts kann man blättern, ein Klick auf das Bild öffnet es in voller Größe in einem neuen Fenster.
Komet Atlas passt voll ins Katzen-Klischee: er hat einen Schweif und macht, was er will. Zuerst eine dramatische Helligkeitsteigerung, die Hoffnung auf einen längst überfälligen Großen Kometen schürte, dann flachte sich die Lichtkurve etwas ab, und nun, nachdem er endlich die große Publicity in der Presse bekam, zeigt er uns den Stinkefinger.
Mittlerweile hat die Helligkeit nicht nur nicht weiter zugenommen – obwohl der Sonne und der Erde näher kommt, verliert er sogar an Helligkeit:
Auf den folgenden Aufnahmen sieht man die dramatische Helligkeitsabnahme zwischen dem 3. und 6. April:
Am 6. April meldeten die Astronomen Quanzhi Ye (University of Maryland) und Qicheng Zhang (California Institute of Technology) in einem astronomischen Telegramm [1], dass der Kometenkern möglicherweise zerbrochen sein könnte. Sie hatten ihn mit dem 0,6-m-NEXT-Reflektor des Xingming-Observatoriums, einer Amateur-Sternwarte auf einem Berg in der Region Xinjang im Nordwesten von China, aufgenommen. Die Aufnahmen vom 2. und 5. April zeigen, dass die zentrale Kondensation, also die Gegend um den selbst nicht sichtbaren Kometenkern, wo das Gas am dichtesten ist (auch als Pseudonukleus bezeichnet – der tatsächliche Nukleus, also Kometenkern, ist zu klein und lichtschwach, um gesehen zu werden), sich im späteren Bild zu 3 Bogensekunden Länge in Richtung des Schweifs aufgeweitet und insgesamt an Helligkeit verloren hatte (Titelbild).
Dieses Verhalten erwartet man, wenn der Kometenkern auseinander bricht und die Einzelteile sich voneinander entfernen. Gleichzeitig hat die Staubproduktion offenbar stark nachgelassen, auch das würde man bei einem Zerbrechen erwarten. Ähnlich erging es dem Kometen C/2010 X1 (Elenin), der kurz vor seiner Perihel-Passage im September 2011 zerbrach und sich danach schnell auflöste.
Für ein Zerbrechen spricht außerdem, dass der Komet mit ca. 5-10 m/s von seiner voraus berechneten Bahn abweicht – Ye und Zhang sprechen von “nicht-gravitativen Kräften”. Gemeint ist, dass durch das Zerbrechen gefrorene Gase aus dem Inneren ans Sonnenlicht gelangen, die sofort verdampfen und sich ausdehnen, was dem Kometen einen natürlichen Düsenantrieb verschafft, der ihn von seiner Bahn ablenkt.
Neuere Aufnahmen von Amateuren zeigen bereits erkennbar mehrere Fragmente, in die der Kometenkern zerbrochen sein dürfte.
Yes, now that the comet is breaking up it’s nucleus is no longer a single object. Nick Haigh of Southampton, made this amazing photo showing what appear to be three separate fragments in Comet ATLAS’s formerly single nucleus. pic.twitter.com/6nTw2XWKbF
— ☆Matthijs Burgmeijer (@MMBurgmeijer) April 9, 2020
Fragments of Comet C/2019 Y4 (ATLAS). Images obtained on 2020, April 07.80 + additional follow-up on April 08.80 show the presence of at least two fragments (or cloud of debris). https://t.co/YxrWMwDgb7 #astronomy #comets pic.twitter.com/H52uYVNqHO
— Ernesto Guido (@comets77) April 9, 2020
Warum zerbrechen Kometen? Die Ursache ist noch nicht eindeutig geklärt, aber man nimmt an [2], dass die Fontänen von verdampfenden Gasen, die der Komet in Sonnennähe produziert, seine Rotation beschleunigen können, denn sie werden den Kometenkern in der Regel nicht direkt in Richtung des Schwerpunkts beschleunigen, sondern tangential zum Schwerpunkt mit einem Hebelarm, was die Rotation des Kometenkerns verändert. Da Kometenkerne nur aus lose verbundenem Material bestehen (Komet Tschurjumow-Gerrassimenko hatte eine Dichte von etwa 0,3 g/cm³ – 1/3 der Dichte von Wasser), können sie unter der Fliehkraft einer schnellen Rotation leicht in Stücke zerfallen. Und genau das könnte ATLAS auch passiert sein.
Es wird also wohl leider nichts mit der großen Show im Mai und wir müssen weiter auf den nächsten Großen Kometen warten. So sind sie halt, die himmlischen Katzen. Seufz.
[1] Quanzhi Ye und Qicheng Zhang, “Possible Disintegration of Comet C/2019 Y4 (ATLAS)“, The Astronomer’s Telegram #13620, 6. April 2020, 17:12 UT.
[2] Bob King, “Oh No! Comet Atlas is Fragmenting“, Explore the Night with Bob King, Sky & Telescope, Update April 7 2020 – Possible Breakup.
[3] Eddie Irizarry, “Is bright Comet ATLAS disintegrating?“, EarthSky, 6. April 2020.
]]>
Ich habe einmal gelesen, im Schnitt erscheine so ca. einmal pro Jahrzehnt ein großer Komet am Himmel. Nach den Kometen Ikeya-Seki (war in Sonnennähe am hellen Tag sichtbar!) 1965, West 1975, Hyakutake 1996, Hale-Bopp 1997 und McNaught 2006 (ebenfalls kurz tagsüber sichtbar, hatte seine große Show aber am Südhimmel) wäre es mal wieder an der Zeit. Die Kometen C/2011 L4 PANSTARRS und C/2012 S1 ISON (der 2013 in Sonnennähe zerbrach) wurden nach ihrer Entdeckung als potenzielle große Kometen gefeiert, aber nur PANSTARRS erreichte 2013 eine weit unter den Erwartungen bleibende Sichtbarkeit für das bloße Auge. Kometenjäger David Levy hat einmal gesagt, Kometen seien wie Katzen – sie haben einen Schweif und tun was sie wollen.
Das Problem ist, dass gerade Kometen, die sich aus der Oortschen Wolke zum ersten Mal der Sonne nähern, bereits in großer Entfernung von der Sonne und mäßiger Erwärmung flüchtige Gase explosionsartig freisetzen, was ihre Helligkeit enorm steigert. Die Vorhersagen einer großen Helligkeit in Sonnennähe extrapolieren diese Helligkeitssteigerung dann einfach mit der zunehmenden Beleuchtungsstärke bei der Annäherung an die Sonne, aber bis dahin sind die flüchtigen Stoffe längst entwichen und das dann freigesetzte Wassereis und der Staub können die Helligkeitsentwicklung nicht fortsetzen. Daher erwartet man einen großen Kometen eher im Falle eines Objekts, dessen Umlaufzeit in tausenden statt hunderttausenden Jahren gemessen wird, und das somit schon mindestens einmal die Sonne umkreist und dabei seine trügerischen Gase schon lange verloren hat. Langperiodisch werden Oort-Kometen, wenn sie bei Ihrer Annäherung an die Sonne einem großen Planeten begegnen, der ihre Umlaufbahn so verändert, dass der sonnenfernste Punkt aus der Oort-Wolke in den Bereich der Planetenbahnen abgesenkt wird. Aber erst wenn die Umlaufzeit unter 200 Jahren liegt, spricht man von einem periodischen Kometen, der in historischer Zeit wiederkehrt (wie z.B. der Halleysche Komet).
Am 28. Dezember 2019 entdeckte das Asteroid Terrestrial-impact Last Alert System (ATLAS) mit einem seiner beiden 0,5-Meter-Reflektoren auf Hawaii einen neuen langperiodischen Kometen mit einer Helligkeit von 19,6 Größenklassen. Zu dieser Zeit war er noch 3 Astronomischen Einheiten (AE) von der Sonne entfernt und damit der Jupiterbahn näher als der des Mars. Seine Bahn wurde zunächst mit 4400 Jahren Umlaufzeit und einer größten Sonnenannäherung (Perihel) von 0,25 AE berechnet. Die Bahnelemente ähneln denen des Großen Kometen von 1844 (C/1844 Y1) und er könnte ein Bruchstück des gleichen Mutterkörpers sein. Mittlerweile wird die Umlaufzeit vom Minor Planet Center der NASA mit 5519 Jahren angegeben, was schon einmal eine gute Voraussetzung für einen Großen Kometen ist.
Bis Februar entwickelte sich die Helligkeit des Kometen nur langsam bis zur 17. Größenklasse, aber dann stieg sie bis Mitte März rasant bis auf 8. Größe (Feldstechersichtbarkeit) an, was Hoffnungen weckte:
A few of you have requested the light curve of Comet C/2019 Y4 ATLAS. Please keep in mind this is only a prediction. Keeping this in mind the comet MAY be visible to the naked eye for some months. pic.twitter.com/j92Der86Te
— Con Stoitsis (@vivstoitsis) March 16, 2020
Die Extrapolation der Helligkeitsentwicklung ließ auf eine Helligkeit von bis zu -11,5m im Perihel Ende Mai hoffen, das wäre etwa Vollmondhelligkeit und garantierte damit Tagessichtbarkeit! Einige Amateure in Asien extrapolierten sogar eine absurde Helligkeit von -30m aus den Daten heraus, was deutlich heller als die Sonne selbst und damit physikalisch unmöglich wäre. Trotzdem durfte man gespannt sein, wie es weiter ging.
Der Komet nähert sich dem inneren Sonnensystem von Norden her, weshalb er für Bewohner der Nordhalbkugel ideal positioniert aus der Gegend des Himmelsnordpols kommt, wo er die ganze Nacht über zu sehen ist. Derzeit hält er sich in der Nähe des “Kopfes” des Großen Bären im unauffälligen Sternbild Giraffe (Camelopardalis) auf und zieht Capella im Fuhrmann links liegen lassend auf den Perseus zu. In diesem Sternbild wird er Mitte Mai voraussichtlich nach Sonnenuntergang in der Abenddämmerung verblassen – falls er sich nicht so spektakulär entwickelt wie zunächst vorhergesagt.
Mittlerweile hat sich der Komet leider offenbar den Hashtag #FlattenTheCurve zu Herzen genommen und seine Lichtkurve deutlich abgeflacht. Nach der jüngsten Lichtkurve vom Kometenbeobachter José J. Chambó könnte er etwa 2,5m erreichen, bevor er im abendlichen Zwielicht kurz vor seiner größten Annäherung an die Erde am 23. Mai und dem Perihel am 31. Mai verschwindet (in Sonnennähe hätte er dann unbeobachtbare 0,5m). Aber: auch diese pessimistische Kurve ist nicht in Stein gemeißelt, der Komet ist, wie gesagt, kein frischer Oort-Wolken-Komet und er hat bereits einmal aufgedreht – wenn er der Sonne nahe kommt, kann durchaus eine große Menge Staub und Wasser freigesetzt werden, die seine Helligkeit wieder deutlich ansteigen lassen. Daher heißt es derzeit Daumen drücken.
Eine Sichtbarkeit mit bloßem Auge ist auf jeden Fall drin und vermutlich wird er noch einen sichtbaren Schweif entwickeln. Auf jeden Fall werden wir (weiterhin) sehr schöne Amateurfotos von ihm bekommen. Vielleicht versuche ich mich auch einmal an ihm, da er von meinem Balkon aus ideal in nordwestlicher Richtung positioniert ist. Ich werde euch auf jeden Fall auf dem Laufenden halten.
Zeitreisen waren von je her eine feste Größe in der Science Fiction. Schon 1895 lies H.G. Wells im Roman “Die Zeitmaschine” seinen Zeitreisenden ins Jahr 802.701 reisen, wo er zweierlei Menschenarten vorfand, einerseits die lichtscheuen, gruseligen Morlocks, die unter der Erde lebten, und andererseits, die Eloi, von denen es nur junge Exemplare gab, die kindlich naiv in paradiesischer Umgebung lebten aber die Dunkelheit scheuten. Später fand er dann heraus, dass die Morlocks die Eloi wie Vieh hielten und sich des nachts ihre Mahlzeiten von der Weide holten…
Den meisten Lesern dürfte die Serie “Zurück in die Zukunft” mit Michael J. Fox als Marty McFly und Christopher Lloyd als Doc Emmett Brown ein Begriff sein. Emmett Brown hat im ersten Teil des Dreiteilers eine Zeitmaschine in Form eines DeLorean-Sportwagens gebaut (“Wenn schon eine Zeitmaschine, dann mit Stil“), die mit Plutonium angetrieben wird, das er von libyschen Terroristen für das falsche Versprechen ergaunert hatte, ihnen eine Atombombe zu bauen. Gerade als Brown seinem Freund Marty die Maschine vorführen will, tauchen die Terroristen auf und erschießen Brown. McFly flieht mit dem DeLorean und wird beim Überschreiten von 80 Meilen pro Stunde (130 km/h) in das Jahr 1955 zurückversetzt. Wie der Zufall bzw. das Drehbuch es so will, verhindert er dort versehentlich, dass sich seine Eltern kennenlernen und seine eigene Existenz wie auch die seiner Geschwister gerät in akute Gefahr, was im Film daran zu erkennen ist, dass ihre Abbilder auf einem Foto verblassen. Im restlichen Plot muss er es dann schaffen, mit der Hilfe des jungen Doc Brown und ohne Plutonium (zur Not tut’s auch ein Blitz, wenn man nur weiß, wo und wann er einschlagen wird) wieder in die Jetztzeit zurück zu kehren, nicht ohne vorher dafür zu sorgen, dass sich seine Eltern doch noch kennenlernen. Und Brown, der von Marty über seine Ermordung erfährt, zieht in der Jetztzeit vorsichtshalber eine schusssichere Weste an. Großartig inszenierte, kultige Geschichte.
Das Kernthema der Geschichte ist die Variation eines Zeitparadoxons, das als “Großvaterparadoxon” bekannt ist. Es ist unklar, wer es sich ausgedacht hat, aber es stammt mindestens aus den 20er Jahren des vergangenen Jahrhunderts. Im Original-Großvaterparadoxon reist der Zeitreisende in die Vergangenheit und tötet dort – absichtlich oder aus Versehen – seinen eigenen Großvater, bevor dieser seinen Vater gezeugt hat. Damit entzieht er sich somit die eigene Existenzgrundlage: da er nie geboren werden kann, kann er später auch keine Zeitmaschine besteigen, um in der Vergangenheit seinen Großvater zu töten. Ein logischer Widerspruch.
In eine ähnliche Richtung geht Newcombs Paradoxon, dass ich hier aus Platzgründen nicht vertiefen will. Es geht im Wesentlichen um ein Gedankenexperiment der Spieltheorie und darum, wie die Willensfreiheit mit bekannter Information über die Zukunft in Einklang gebracht werden kann. Wenn ich zum Beispiel erfahre, dass ich mit Sicherheit am folgenden Montag im Straßenverkehr verunglücken werde, würde ich in der Lage sein, den Unfall zu vermeiden, indem ich einfach das Haus nicht verlasse? Falls ja, was würde dann aus der sicheren Vorhersage – sie wäre dann offenbar falsch gewesen, was im Widerspruch zur Annahme steht. Falls nein, woran würde ich scheitern? Wenn ich doch weiß, dass mir etwas zustoßen wird, würde ich doch alle mir zur Verfügung stehende Macht einsetzen, das Unglück zu vermeiden. Wieso sollte das nicht möglich sein?
Neben dem Fermi-Paradoxon (eine Abwandlung des klassischen Fermi-Paradox über die Abwesenheit Außerirdischer: wenn es Zeitreisen gibt – wo sind die ganzen Zeitreisenden, warum haben wir noch keinen von ihnen gesehen?) gibt es schließlich noch die Kausalitätsschleife, auch als Bootstrap-Paradoxon bekannt. Im Englischen bedeutet “to pull oneself up by one’s bootstraps” soviel wie “sich an den eigenen Stiefelschlaufen nach oben ziehen”. Im Deutschen kennen wir ähnliches vom Lügenbaron von Münchhausen, der sich am eigenen Zopf aus einem Sumpf gezogen haben will. Von dem englischen Spruch leitet sich das “booten” eines Computers ab, der zu Beginn sein eigenes Betriebssystem starten muss (was eigentlich die Aufgabe eines Betriebssystems wäre).
Das Bootstrap-Paradoxon geht auf die Kurzgeschichte “By His Bootstraps” von Robert A. Heinlein aus dem Jahre 1941 zurück, die ich als Jugendlicher unter dem deutschen Titel “Im Kreis” in einer SF-Story-Sammlung gelesen habe, wodurch ich sofort zum Heinlein-Fan wurde. Die gar nicht einmal so kurze Geschichte (20.000 Worte) handelt von einem Mann, der mit einem plötzlich in seinem Zimmer aus dem Nichts materialisierenden Zeittor konfrontiert wird, durch das er mehrfach mit Kopien seiner selbst zusammentrifft, die er jedoch zunächst nicht erkennt (wer würde sein drei Tage älteres, lädiertes Ich auch sofort wiedererkennen?). Im Verlaufe einer Rangelei gerät der durch das Tor, wo er 30.000 Jahre in der Zukunft in einer fremdartigen Welt landet, in der ein älterer Mann, der sich Diktor nennt, über Sklaven herrscht, die eine fremde Sprache sprechen. Diktor will ihn überreden zu bleiben und sein früheres Ich überhaupt erst durch das Tor zu holen. Nachdem er dies getan hat, zerstreitet er sich jedoch mit Diktor, geht noch einmal durch das Tor, kehrt schließlich in die Zukunft zurück, versetzt sich aber durch Umprogrammierung des Zeittors umgehend 10 Jahre zurück, um Diktor zuvor zu kommen. Er nimmt dabei ein Notizbuch mit, dass er neben der Steuerkonsole der Zeitmaschine gefunden hat, in dem handschriftlich Vokabeln der Sprache der Eingeborenen notiert sind, was ihm sicher nützlich sein würde. Wo (bzw. wann) er ankommt, gibt es noch keinen Diktor. Statt dessen schwingt er sich selbst zum Anführer auf. Die Einheimischen bezeichnen ihn als Diktor – im Notizbuch steht, dass dies “Häuptling” heiße. Da das Notizbuch schon alt und zerschlissen ist, kopiert er mit der Zeit den Inhalt in ein neues Buch. Der andere Diktor taucht in den folgenden Jahren niemals auf. Irgendwann spielt er mit der Zeitmaschine herum und programmiert sie auf sein Zimmer zu Beginn der Geschichte, wo sich der Kreis schließt – denn er selbst ist DER Diktor, der einzige, den es je gab!
Und das Paradox? Ist der Inhalt des Notizbuchs. Denn die Kopie des alten Buchs legt er schließlich neben der Konsole des Zeittors ab und es wird selbst das alte Buch. Es enthält Informationen, die kein Gehirn erdacht hat, sondern die lediglich aus der früheren Version des Buchs kopiert wurden, welche wiederum eine Kopie einer noch früheren Version ist usw. – eine Kausalitätsschleife, die keinen Anfang hat.
Eines ist klar – die Natur ist frei von Widersprüchen. Paradoxa sind nur scheinbar widersprüchlich zu physikalischen Gesetzen, etwa weil man von falschen Voraussetzungen ausgeht (wie beim Olbersschen Paradoxon – warum ist der Himmel dunkel, wenn das Weltall unendlich groß ist und man in jeder Richtung auf eine Sternenoberfläche blicken müsste? Das beobachtbare Universum ist aber wegen seines beschränkten Alters nur endlich groß) oder einen wesentlichen Aspekt übersieht (wie beim Zwillingsparadoxon – warum altert der bewegte Zwilling weniger als der ruhende, wenn doch aus seiner Sicht er selbst der ruhende sein könnte und der andere der bewegte? Weil nur er das Inertialsystem wechselt). Man kann davon ausgehen, dass Zeitparadoxa in der Natur nicht auftreten können. Eine einfache Lösung des Problems wäre: Zeitreisen sind grundsätzlich nicht möglich. So einfach ist es aber nicht.
Zeitreisen in die Zukunft sind gemäß der Relativitätstheorie ein Klacks. Zum Einen gibt es das angesprochene Zwillingsparadoxon. Man nehme einen möglichst großen Umweg durch den Raum, um zu einem zukünftigen Raumzeitpunkt zu gelangen, dann vergeht für den Reisenden weniger Zeit, als wenn man den kürzesten Weg durch den Raum nimmt. Um z.B. mit möglichst wenig vergangener eigener Zeit ein Jahr in die Zukunft zu reisen, sause man mit fast Lichtgeschwindigkeit zuerst ein halbes Lichtjahr von der Erde weg und kehre dann mit ebensolcher Geschwindigkeit zurück, dann ist man kaum gealtert und hat das Jahr nach persönlicher Uhr schnell vorgespult.
Eine andere Möglichkeit ist ein tiefes Schwerefeld. Im Gravitationsfeld laufen gemäß der Allgemeinen Relativitätstheorie Uhren umso langsamer, je größer die Gravitation ist. Schon die Erde ist eine Zeitmaschine. Unsere Uhren laufen ein wenig langsamer als die der GPS-Satelliten in 20180 km Höhe über der Erde, die bewusst um 38 Mikrosekunden pro Tag verlangsamt sind, damit sie synchron mit Uhren am Boden laufen (eigentlich ist der tägliche Gangunterschied sogar 45 Mikrosekunden, aber durch die Relativgeschwindigkeit der Satelliten gegenüber dem Erdboden laufen sie 7 Mikrosekunden pro Tag langsamer als wenn sie über der Erde still stünden). Das ist natürlich nicht viel und bringt mich nicht in die Zukunft der Menschen, die mit mir auf der Erde leben.
Das Schwerefeld eines Schwarzen Lochs wäre da schon deutlich effizienter. Die Eigenzeit vergeht im Abstand r vom Zentrum eines nichtrotierenden Schwarzen Lochs um den Faktor √(1-rs/r) langsamer als in (näherungsweise) unendlicher Entfernung, wobei rs der Schwarzschildradius ist. In 2rs Entfernung vergeht die Zeit nur 0,707 mal so schnell wie in der Ferne. In 1,33rs vergeht sie halb so schnell und in 1,1rs nur noch mit 30% der Geschwindigkeit im Unendlichen. Am Schwarzschildradius selbst bliebe die Zeit gänzlich stehen. Allerdings bräuchte es schon ein supermassereiches Schwarzes Loch, um am Schwarzschildhorizont nicht zerrissen zu werden. Alternativ könnte man sich eine Hohlkugel von 6 m Durchmesser mit der Masse Jupiters bauen, die in ihrem Inneren feldfrei wäre, während draußen enorme Gezeitenkräfte herrschen würden. Um sicher in die Kugel hinein zu kommen, müsste man beim Aufbau schon in ihr drin sitzen – auf der Erde wäre ein solches Gerät vollkommen fehl am Platze, weil es die Erde mit seiner Gezeitenkraft sofort zerfetzen würde. Eine solche Kugel wäre nur 6% größer als ein Schwarzes Loch von Jupitermasse und darin würde die Zeit viermal langsamer vergehen als außerhalb. Dies nur als Orientierung für die formidable Aufgabe, eine Zeitmaschine auf der Basis der Allgemeinen Relativitätstheorie zu bauen.
Obwohl wir für uns selbst an der technischen Realisierbarkeit einer Zeitreise in die Zukunft wohl auf ewig scheitern werden, erleben Teilchen, die wir in Beschleunigern fast beliebig nahe an die Lichtgeschwindigkeit heran bringen können, heute schon Zeitreisen in die Zukunft. Aber wie sieht es für Reisen in die Vergangenheit aus?
Überraschenderweise ist das bei Heinlein beschriebene Zeittor eine von der Relativitätstheorie tatsächlich erlaubte Möglichkeit, die sich “geschlossene zeitartige Kurve” nennt (englisch: closed timelike curve, CTC). Hintergrund ist, dass sich der Lichtkonus im Schwerefeld zur anziehenden Masse hin neigt. Man kann sich das bildlich ein wenig so vorstellen, als sei der die Masse umgebende Raum ein Trichter, in den die Raumzeit wie Wasser hinein fließt, und die Lichtkonen schwimmen stets mit zur Wasseroberfläche senkrechter Hauptachse im Strom, wie eine Anglerpose. Bei einem Schwarzen Loch ist die Neigung des Lichtkonus 45°, das heißt dass der Zukunfts-Konus keine Weltlinie mehr erlaubt, die sich vom Schwarzen Loch entfernt. Tut man nichts, bewegt man sich mit Lichtgeschwindigkeit in das Schwarze Loch (Mittelachse des Konus, 45° Neigung). Versucht man, sich mit Lichtgeschwindigkeit vom Schwarzen Loch zu entfernen, tritt man auf der Stelle (Außenseite des Konus, parallel zum Ereignishorizont, 0°-Neigung gegen die Senkrechte). Gibt man Vollgas mit Lichtgeschwindigkeit Richtung Singularität, so hat man gemessen an einem externen Bezugssystem keinen Zeitfortschritt mehr, man bewegt sich auf einer raumartigen Bahn und nimmt nicht mehr am Fortlaufen der Zeit teil. Hinter dem Ereignishorizont kippt der Lichtkegel dann noch weiter und die Richtung zur Singularität wird zur unvermeidlichen Zukunft. Jeder versuchte räumliche Umweg würde nur die gemessene Eigenzeit verkürzen und man würde noch schneller in der Singularität enden. Als Zeitmaschine taugt so etwas nicht.
1968 entdeckte der australische Physiker Brandon Carter, dass die Ringsingularität eines rotierenden Schwarzen Lochs von CTCs umhüllt wird – bekanntlich enthalten rotierende Schwarze Löcher keine Punkte als Singularitäten, sondern Ringe. Wenn man also um die Ringsingularität kreist, kehrt man wieder an denselben Raumzeitpunkt zurück, aus dem man gestartet ist. Dummerweise befindet sich die Ringsingularität hinter dem Ereignishorizont, man kann also nach der Zeitreise nicht mehr in unser Universum zurück.
Ein häufig genannte Möglichkeit für eine Zeitmaschine wäre ein Wurmloch. Ein Wurmloch ist ein mit der Allgemeinen Relativitätstheorie kompatibler Schlauch durch die Raumzeit, der zwei Raumzeitpunkte miteinander verknüpft. Wurmlöcher werden in der Science Fiction gerne als Abkürzung zwischen zwei Orten verwendet; so könnte man die Strecke zu einem anderen Stern auf ein paar Meter verkürzen. Tatsächlich verknüpft ein Wurmloch aber zwei Punkte der Raumzeit, das heißt, nicht nur 2 Orte sondern auch 2 Zeitpunkte. Alles was man tun muss, ist ein Ende (genannt “Mund des Wurmlochs”) auf einen großen Umweg durch den Raum zu senden, dann altert er weniger als der andere Mund und befindet sich mithin gegenüber diesem in der Vergangenheit. Dann könnte man also durch den umher gereisten, zeitlich früheren Mund in das Wurmloch eintreten und käme am anderen Mund in der Zukunft wieder heraus. Oder man betritt das Wurmloch durch den zukünftigen Mund und käme in der Vergangenheit heraus (allerdings nicht weiter zurück als das frühere Wurmlochende dem später nachhängt). Wo man dann auf die Rückkehr des zukünftigen Munds von seiner Rundreise warten könnte und sich selbst beim Betreten des Wurmlochs beobachten. Und mit seiner Weltlinie so eine geschlossene, zeitartige Kurve vollenden.
Wurmlöcher haben nur zwei Probleme:
1. man kann sie in der Allgemeinen Relativitätstheorie nicht erzeugen, sondern muss solche nehmen, die schon da sind. Möglicherweise entstehen Wurmlöcher permanent im Mikrokosmos (wir reden hier von der Planck-Skala, die im Vergleich zu einem Proton so klein ist, wie dieses im Vergleich zur Erde), und vielleicht kann man eines davon irgendwie auf makroskopische Größe vergrößern (mit viel Glück findet man auch eines aus der Frühzeit des Universums, das die kosmologische Inflation aufgebläht hat).
Und 2. sind sie fürchterlich instabil und zerfallen in Schwarze Löcher, deswegen braucht man einen Mechanismus, um sie offen zu halten. Dazu bräuchte es in ihrem Inneren ein “Weißes Loch”, einen Bereich mit abstoßender Gravitation. Abstoßende Gravitation gibt es in der Allgemeinen Relativitätstheorie, wenn das Vakuum unter einer Zugspannung steht, so wie das während der Inflationsphase zu Beginn des Universum gewesen sein soll. Eine theoretische “exotische Materie” mit negativer Energiedichte (d.h. negativer Masse – sie wöge weniger als nichts!) könnte als Ring eine solche Zone erzeugen, aber obwohl Matt Visser 2003 zeigen konnte, dass man nur eine winzige Menge davon bräuchte, gibt es bisher leider keinen Hinweis darauf, dass so ein Stoff überhaupt existiert (und nö, Antimaterie hat positive Energiedichte).
Eine Zeitmaschine, die ohne exotische Materie auskäme, wurde 1991 von Gott erfunden. Der Gott, um den es geht, heißt mit Vornamen John Richard und wurde 1947 in Louisville, Kentucky, geboren. Nach seiner Lösung benötigt man zwei kosmische Strings unendlicher Länge, die sich im Weltall mit jeweils fast Lichtgeschwindigkeit eng passieren (99,999999996% c wären gut). Die Stringtheorie erlaubt solche extrem dünnen (dünner als ein Protonendurchmesser), gleichwohl extrem massiven Gebilde (etwa 10 Billiarden Tonnen pro Zentimeter Länge), die aber gleichzeitig wie ein gedehntes Gummiband unter einer Zugspannung stünden, welche die extreme Gravitation ihrer Masse exakt kompensierte. Dennoch sorgen die Strings dafür, dass die Raumzeitgeometrie so gekrümmt wird, dass man auf einer Bahn, welche erst dem einen und dann dem anderen String entgegen deren Flugrichtung begegnet, wieder zur gleichen Zeit eintrifft, zu der man losgeflogen ist. Steven Hawking zeigte 1992, dass es keine geschlossenen zeitartigen Kurven ohne exotische Materie innerhalb einer endlichen Raumregion geben kann, weswegen die Strings unendlich lang sein müssen.
Leider hat man bisher weder einen kosmischen String, noch zwei davon, die sich mit relativistischen Geschwindigkeiten aufeinander zu bewegen, noch überhaupt einen experimentellen Hinweis auf die Korrektheit der Stringtheorie gefunden. Wie ich eingangs sagte – theoretisch sind Zeitreisen in der Allgemeinen Relativitätstheorie erlaubt, sie sind nur nicht einfach!
Tun wir die Realisierung einer Zeitmaschine einmal als ingenieurtechnisch zu lösendes Problem ab – wie schaut es nun aus mit den Zeitparadoxa? Da echte Paradoxa ausgeschlossen sein müssen, wurde vorgeschlagen, dass CTCs nur genau dann möglich seien, wenn sie frei von Widersprüchen wären. Man könne zwar mit dem Entschluss in die Vergangenheit reisen, seinen Großvater umzubringen, würde aber an irgendeinem Detail scheitern (z.B. beim Versuch, den Abzug der Feuerwaffe zu ziehen, auf einer Bananenschale ausrutschen), ansonsten könnte man die Reise gar nicht erst antreten. Das erscheint ziemlich konstruiert und erklärt dass Bootstrap-Paradoxon nicht. Im Übrigen scheint es mir nach meinem persönlichen Dafürhalten ohnehin vollkommen ausgeschlossen, in die Vergangenheit zu reisen, ohne sie unwiderruflich verändern zu müssen – die geringste unvermeidliche Veränderung ist die Verdrängung der Luft, die man mit seinem Auftauchen verursacht, denn die verdrängten Moleküle waren in der ursprünglichen Historie ja an einem anderen Ort als sie es nach der Ankunft des Zeitreisenden sein können. Damit hat man den Zeitfluss schon verändert und es ist lediglich ein quantitativer, aber kein qualitativer Unterschied zum Großvaterparadoxon. Mir erschien daher schon als Jugendlicher plausibel, dass es mehrere Zeitstränge geben müsse, zwischen denen man bei einer Reise in die Vergangenheit wechseln würde. Man käme auf einem Strang an, in dem die eigene Ankunft fester Bestandteil der Historie wäre.
Da kommt Hugh Everetts Viele-Welten-Interpretation der Quantenmechanik extrem gelegen, behauptet sie doch, dass jede physikalisch mögliche Realität tatsächlich als quantenmechanischer Überlagerungszustand der Wellenfunktion des Universums existiere und somit könnte man doch als Zeitreisender in einem Zustand eintreffen, in dem die Ankunft bereits fester Bestandteil der Historie ist. Vielleicht ließe sich sogar Information von einem Zustand zu einem anderen transferieren, wie etwa Diktors Vokabelbuch. Denkt man sich als Laie, aber der Quantenphysiker David Deutsch (und nicht nur der) vertritt genau diese Ansicht, die allerdings über die üblichen Annahmen der Viele-Welten-Interpretation hinaus geht.
Allen Everett (so viel ich weiß nicht verwandt oder verschwägert mit Hugh Everett) hat Deutschs Annahme jedoch 2004 in einem Aufsatz buchstäblich zerlegt:
Everett konstruiert dazu in einem Gedankenexperiment einen Aufbau des Großvaterparadoxons, der rein mechanisch funktioniert und somit etwaige Probleme der Willensfreiheit ausklammert. Zunächst wird das Experiment mit einem Punktteilchen, etwa einem Elektron durchgeführt (Erläuterung siehe Bildunterschrift):
Erfreulicherweise löst die Viele-Welten-Interpretation tatsächlich das Großvaterparadoxon für Punktteilchen. Was aber passiert, wenn man ein ausgedehntes Objekt wie etwa einen Zeitreisenden durch ein Wurmloch in die Vergangenheit schickt und dort einer Großvaterparadoxon-Situation aussetzt? Man sollte es besser zuerst mit einem unbelebten Objekt wie einer Billardkugel versuchen:
Das Ergebnis wäre für einen Zeitreisenden weitaus unerfreulicher als es in “Zurück in die Zukunft” geschildert wird: er würde in seine Elementarteilchen zerlegt und auf zahlreiche Welten verteilt. Das ist zwar irgendwie auch eine Lösung des Problems, aber nicht diejenige, die sich Science-Fiction-Freunde gewünscht hätten.
Zeitreisen in die Zukunft sind also – bis auf kleinere ingenieurtechnische Probleme – durchaus möglich und werden von Elementarteilchen in Beschleunigern oder in der kosmischen Strahlung tatsächlich vollzogen. Die Rückreise gestaltet sich allerdings problematisch. Da die Realität als widerspruchsfrei vorausgesetzt werden muss, sieht es relativ schlecht für Zeitreisen in die Vergangenheit aus. Zwar gibt es in der Relativitätstheorie Lösungen für geschlossene zeitartige Kurven (CTCs), aber abgesehen von der noch weitaus komplexeren praktischen Umsetzung einer solchen Maschine, die entweder exotischer Materie oder unendlich langer kosmischer Strings bedarf (die Existenz beider ist bisher nicht mehr als Hypothese) – oder aber hinter einem Horizont verborgen bleibt, führten solche Zeitreisen unvermeidlicherweise zu Paradoxa, die sich anscheinend nicht gänzlich ausschließen lassen. Die Natur muss halt nicht alles mitmachen, was die Gleichungen ausspucken, deswegen muss man Vorhersagen ja experimentell überprüfen.
Im nächsten Teil wenden wir uns dem Zeitpfeil zu und warum Zeit überhaupt vergeht, und das anscheinend nur in eine Richtung. Oder könnte sich das eines Tages vielleicht ändern?
Diese in der Philosophie als “Präsentismus” bezeichnete Sichtweise vertrat schon der griechische Philosoph Platon Ende des 5./Anfang des 4. Jahrhunderts vor unserer Zeitrechnung. Für ihn hatten nur die “Ideen” bestand (heute würden wir dazu “Modelle” oder “Information” sagen), während die Dinge selbst flüchtig und vergänglich seien. Der Theologe und Kirchenlehrer Augustinus von Hippo übernahm im 4. Jahrhundert unserer Zeitrechnung Platons Sicht auf die Zeit. In seinem Buch “Confessiones” schrieb er (11. Buch, 20. Kap./26. Abschnitt):
Die Behauptung, des gebe drei Zeiten, Vergangenheit, Gegenwart und Zukunft, trifft nicht im strengen Sinne zu. Im strengen Sinne müsste man wohl sagen: es gibt drei Zeiten, die Gegenwart von Vergangenem, die Gegenwart von Gegenwärtigem und die Gegenwart von Zukünftigem. Denn diese drei sind in einem gewissen Sinne im Geiste, und anderswo finde ich sie nicht: die Gegenwart des Vergangenen als Erinnern (memoria), die Gegenwart des Gegenwärtigen als Anschauen (contuitus), die Gegenwart des Zukünftigen als Erwarten (expectatio).
Anders gesagt sind für Augustinus Vergangenheit und Zukunft nur in den Gedanken präsent und damit existent – als Erinnerung an die Vergangenheit und als Erwartung oder vielleicht auch Vorhersage der Zukunft.
Schon die Erkenntnis, dass Licht sich nur endlich schnell fortbewegt, erschüttert diese Ansicht im astronomischen Kontext. Für uns real ist das, was wir gerade jetzt wahrnehmen. Tatsächlich nehmen wir um uns herum aber stets nur Vergangenes wahr. Schon unseren Gesprächspartner sehen wir mit ein paar Milliardstel Sekunden (Nanosekunden) Verzögerung – das Licht legt knapp 30 cm in einer Nanosekunde zurück -, was allerdings, wie auch die weitaus höhere Verzögerung des Schalls der Sprache um einige Millisekunden, vollkommen in der Trägheit der Informationsverarbeitung unseres Gehirns untergeht. Deutlicher wird der Laufzeitunterschied von Blitz und Donner im Gewitter. Ist der Donner nicht schon eine reale Manifestation der Vergangenheit?
Und schließlich der Sternenhimmel: schon der Mond ist 1,3 Lichtsekunden entfernt, die Sonne 8 Lichtminuten 20, die Planeten einige Minuten bis Stunden an Lichtlaufzeit. Den Laufzeitunterschied des Lichts von Jupiter, wenn er einmal auf der gegenüberliegenden Seite der Sonne seine Bahn zieht und ein halbes Jahr später in seiner Oppositionsstellung bei größter Erdnähe, nutzte bereits Ole Rømer 1676, um zu zeigen, dass das Licht nicht unendlich schnell war – die Verfinsterung des Jupitermondes Io fand bei fernem Jupiter seiner Messung gemäß 22 Minuten später statt, als aufgrund der Beobachtung der Umlaufperiode dieses Jupitermondes zu erwarten war. Tatsächlich sind es 16:40 Minuten, aber für den damaligen Stand der Uhrentechnik war Rømers Wert schon ein recht genaues Ergebnis. 2 Jahre später nutzte Christiaan Huygens den Wert für die allererste Bestimmung der Lichtgeschwindigkeit: 221.000 km/s. Etwas zu niedrig, aber die Größenordnung stimmte. Zu den Ungenauigkeiten der Zeitmessung kam hinzu, dass die Entfernungen der Planeten noch sehr unsicher waren. Erst nachdem man die Entfernung zu Mars und Venus trianguliert hatte, folgte aus Keplers drittem Gesetz auch der Abstand der Erde zur Sonne, der hier zweimal eingeht.
Noch weiter hinaus geht der Blick in den Sternenhimmel. Schon der nächste Stern ist 4 Lichtjahre und 73 Lichttage entfernt und wir sehen heute sein Licht von Anfang Januar 2016. Drama-Queen Beteigeuze ist bereits an die 700 Lichtjahre entfernt. Wir sehen ihn im Licht aus der Zeit, als bei uns tiefstes Mittelalter herrschte, und theoretisch (wenn auch nicht sehr wahrscheinlich) könnte er bereits nicht mehr existieren. Ein paar mit dem Feldstecher sichtbare Kugelsternhaufen sind zehntausend und mehr Lichtjahre entfernt, ihr Licht stammt aus der Zeit, als der Mensch sesshaft wurde und mit dem Ackerbau begann. Die in unseren Breiten leider unsichtbaren Magellanschen Wolken warten mit Licht aus der Zeit auf, als unsere Art Homo Sapiens entstand. Und mit einem Superteleskop in der Andromeda-Galaxie könnten dortige Beobachter die ersten Vertreter der Gattung Homo durch die afrikanische Steppe streifen sehen.
Kosmologisch gesehen ist das aber noch nebenan, auf diese lächerliche Entfernung greift noch nicht einmal die kosmische Expansion. Nein, dafür muss man schon Galaxien betrachten, deren Licht aus der Zeit der Saurier stammt. Unser Blick reicht aber noch viel weiter in die Vergangenheit, weiter als das Alter der Erde. Mit Radiowellen ertasten wir Strahlung, die nur 380.000 Jahre jünger ist als das Universum selbst. Und dahinter ist uns bislang der Blick durch den Feuerball des Plasmas im frühen Universum verwehrt (theoretisch könnten Gravitationswellen oder Neutrinos uns noch näher an den Urknall blicken lassen, aber bislang konnten wir solche Signale noch nicht aufspüren).
Wir blicken innerhalb des Lichtkegels in die Vergangenheit, und alles außerhalb des Lichtkegels ist für uns (noch) nicht real. Dennoch können wir über die Lichtlaufzeit im Nachhinein berechnen, welche Ereignisse mit unserer Jetztzeit gleichzeitig stattfanden – wie ich dies in den Beispielen oben bereits getan habe, als ich Ereignisse auf der Erde zur Lichtlaufzeit in Beziehung gesetzt habe. Wie am Beispiel von Beteigeuze gesehen könnte der Stern jetzt möglicherweise schon Geschichte sein. Und mit dem Entfernungsmaß Eigendistanz rechnen wir die Distanz zu Galaxien aus, die sie bei fortschreitender Expansion heute von uns haben würden, wenn man sie ohne Zeitverzögerung mit einem Maßband messen könnte.
Insofern scheint Eindeutigkeit zu herrschen: Der Lichtkegel wird an der schmalsten Stelle von einer Gegenwarts-Ebene durchschnitten (als 4. Dimension für die Zeit ist diese Ebene in Wahrheit der dreidimensionale Raum) und trennt die Vergangenheit von der Zukunft. Die Gegenwart ist real, auch wenn ihre Signale uns erst zukünftig erreichen und wir tatsächlich nur die Vergangenheit sehen können.
Mit diesem scheinbar einleuchtenden Bild räumte jedoch ein Mitarbeiter des Schweizer Patentamts in Bern vor 115 Jahren radikal auf. Die Rede ist natürlich wieder von Albert Einstein. Gemäß der Relativitätstheorie ist die Gegenwart für verschieden schnell bewegte Beobachter nicht ein- und dieselbe.
Einsteins Gedankenexperiment dazu sieht wie folgt aus: man denke sich einen Zug, der mit sehr hoher Geschwindigkeit durch einen Bahnhof fährt. In dem Zug befindet sich in der Mitte eines Waggons eine Blitzlichtlampe und zwei Fotozellen an den Waggonenden, eine am in Fahrtrichtung vorderen Ende, eine am hinteren Ende, die den Lichtblitz registrieren. Da sich der Zugpassagier gemäß der Relativitätstheorie in Ruhe verharrend wähnen kann und das Licht sich demgemäß aus seiner Sicht symmetrisch von der Lampe ausbreitet, erreicht der Blitz, nachdem er ausgelöst wurde, die beiden gleich weit entfernten Sensoren an den Waggonenden gleichzeitig. Zwei durch die Sensoren ausgelöste Signallampen könnten dann gleichzeitig für ihn aufblinken; ihr Licht legt den gleichen Weg in der gleichen Zeit zum Beobachter zurück wie der Lichtblitz zuvor, nur in umgekehrter Richtung.
Ein Beobachter auf dem Bahnsteig sähe aber etwas völlig anderes. Das Licht breitet sich für ihn ebenfalls mit der gewohnten Geschwindigkeit in Fahrtrichtung und gegen die Fahrtrichtung des Zuges aus, ohne dass die Geschwindigkeit des Zuges darauf irgend einen Einfluss haben könnte. Das Licht, das sich zum vorderen Waggonende bewegt, muss diesem jedoch hinterher eilen und erreicht es verspätet. Das hintere Waggonende bewegt sich hingegen auf die Lichtquelle zu und verkürzt die Lichtlaufstrecke, so dass es früher getroffen wird. Keinesfalls erscheint dem Beobachter am Bahnsteig also, dass die Signallampen gleichzeitig auslösen, sondern die am hinteren Waggonende wird vor der am vorderen Ende auslösen.
Dass dem bewegten Beobachter die Signallampen simultan erscheinen, wird der ruhende Beobachter darauf zurück führen, dass das Licht der hinteren Signallampe nun den mit dem Zug bewegten Beobachter erst einholen muss und somit den gesamten Zeitvorsprung wieder einbüßt, während der Zugpassagier dem Licht der vorderen Signallampe entgegen kommt, so dass es seinen Zeitrückstand durch das spätere Auslösen genau wieder aufholt und gleichzeitig mit dem Licht der hinteren Lampe eintrifft.
Was ein zunächst nur ein wenig kurios erscheint, hat in Wahrheit tief reichende Implikationen für die Struktur des gesamten Universums. Für den Beobachter im Zug ist die Gegenwart eine andere Menge von Raumzeitpunkten als für den Beobachter am Bahnsteig. Seine Gegenwartsebene erscheint aus Sicht des Beobachters auf dem Bahnsteig verkippt. Ereignisse, die für den Beobachter auf dem Bahnsteig in der Zukunft oder in der Vergangenheit liegen, erscheinen dem Beobachter im Zug als gegenwärtig. Er kann in Fahrtrichtung gewissermaßen in die Zukunft des Bahnsteigbeobachters schauen (bzw. gegen die Fahrtrichtung in die Vergangenheit). Je weiter entfernt im Raum ein Ort liegt, desto weiter in der Zukunft des ruhenden Beobachters reicht die Ebene der Gleichzeitigkeit des bewegten Beobachters. Er sieht quasi einen anderen Schnitt durch die Raumzeit, wie eine schräg angeschnittene Wurst. Zwar sieht er diese Zukunft auch erst mit der Verzögerung der Lichtlaufzeit und kann dem ruhenden Beobachter beim Passieren noch nichts darüber erzählen, was in dessen Zukunft liegt, aber da die Gegenwart nach obigem das Geschehen ein- für alle Mal festlegt und zur unabänderlichen Realität macht, sind für den bewegten Beobachter offenbar Ereignisse schon fest bestimmt, die für den ruhenden Beobachter scheinbar noch vollkommen offen sind. Z.B. ein Würfelwurf auf Proxima Centauri b.
Ein Beobachter, der uns gerade passiert, kann kein Ereignis in seiner Gegenwart haben, das innerhalb unseres Lichtkegels liegt, die Gegenwartsebene bleibt immer außerhalb des Lichtkegels. Wenn der bewegte Beobachter sich mit fast c bewegt, liegt die Ebene und die x-Achse außen am Konus an. Mit zunehmender räumlicher Entfernung wird die Zeitdiskrepanz zwischen der Gegenwart des bewegten Beobachters und uns als ruhendem Beobachter immer größer. Die Gegenwartsebene von uns entfernten Beobachters kann unseren Lichtkonus durchaus durchschneiden. Ein hinreichend weit entfernter Beobachter hat Ereignisse in seiner Gegenwart, die für uns noch lange bevor stehen und die wir für bisher vollkommen unbestimmt halten, auf die wir noch einen Einfluss zu haben glauben. Die Lichtlaufzeit vom Ereignis zum entfernten Beobachter und dessen Entfernung von uns hindert ihn allerdings daran, uns von dieser Zukunft berichten zu können, bevor sie für uns real wird.
Wenn also für den bewegten Beobachter Ereignisse in Raumzeitpunkten real und fest bestimmt sind, die es für den ruhenden Beobachter noch nicht sind, dann platzt die Blase des Präsentismus. Für jedes zukünftige oder vergangene Ereignis wird sich ein bewegtes Inertialsystem und ein Ort finden, aus deren Sicht das Ereignis gerade jetzt passiert. Das heißt in aller Konsequenz allerdings nichts anderes, als dass die Zukunft schon feststeht und die Vergangenheit noch nicht verflogen ist. Unsere Entscheidungsfreiheit wäre demnach nur imaginär. Vergangenheit und Zukunft sind nur eine Illusion, hat Einstein gesagt – wenn auch eine sehr hartnäckige.
Außer einer gedachten zeitlosen Sicht von außen, von nirgendwann, wie der Philosoph Huw Price es ausdrückt, ist das Universum ein vierdimensionaler starrer Block, in dem sich nichts verändert. Der Geist eines Beobachters ist eine Abfolge von Gedächtniszuständen, die wie der Scheinwerferkegel eines Autos diesen Block in einem bestimmten Winkel durchzieht, welcher von der Raumzeitgeschwindigkeit abhängt. Was im Scheinwerferlicht auftaucht, erscheint möglicherweise überraschend und unerwartet, obwohl es schon “immer” da war, so wie ein im Kino gezeigter Film, dessen Bildfolge schon vor dem Beginn der Vorführung feststand. Ein vollkommen zufälliger, unvorhersehbarer radioaktiver Kernzerfall – solche sind bekanntlich einzeln vollkommen unvorhersagbar; man kann lediglich Aussagen darüber machen, dass in einer gewissen Zeit ein gewisser Anteil einer großen Menge von Kernen zerfallen wird, aber keinesfalls, wann genau welcher zerfällt – ist längst in Stein gemeißelt, ebenso wie das Ergebnis einer jeden, für uns nicht vorhersagbaren Quantenmessung. Es ist aber lediglich unsere Unwissenheit zu einem bestimmten Zeitpunkt, die uns die Unbestimmtheit vorgaukelt. Wem das unplausibel erscheint: Die Zukunft und die Vergangenheit gehorchen denselben physikalischen Gesetzen, auch im Nachhinein stimmt die Statistik radioaktiver Zerfälle, obwohl wir da schon wissen (jedenfalls wissen könnten) welche Kerne in einer Probe zerfallen sind. Die Vergangenheit erscheint uns vollkommen bestimmt, also kann es auch die Zukunft sein, nur dass wir sie eben noch nicht kennen. Wie den Verlauf einer unbekannten Straße im Dunklen oder den Ablauf eines Films, den wir zum ersten Mal sehen.
Das einzige Hintertürchen, das der Unbestimmtheit noch bleibt, ist die bereits behandelte Viele-Welten-Theorie, die – hier stark verkürzt zusammengefasst – besagt, dass nicht nur der Mikrokosmos der kleinsten Teilchen, sondern die ganze Welt eine Überlagerung von Quantenzuständen ist, deren gemeinsame Wellenfunktion niemals an irgendeiner Stelle kollabiert, wie es die quantenmechanische Interpretation von Bohr (“Kopenhagener Deutung”) behauptet, sondern die den Beobachter einer Quantenmessung einfach mit in die Überlagerung einbezieht. Er verschränkt sich mit den Quantenzuständen, die er beobachtet, und wenn es davon viele gibt, dann gibt es entsprechend viele überlagerte Zustände des Beobachters. Die quantenmechanische Unbestimmtheit besteht dann einfach darin, mit welchem Beobachter man sich gerade identifiziert. Dann wäre die Raumzeit nicht nur ein solider Block, sondern eine quantenmechanische Überlagerung unzählig vieler Blöcke. Das Universum hätte viele (nämlich genau alle physikalisch möglichen) Historien und man fände sich als Beobachter zufällig in einer von diesen wieder, am wahrscheinlichsten in einer solchen, die ein hohes Gewicht hat, das heißt die zu einem breiten Strang wahrscheinlicher und ähnlicher Historien gehört.
Während die Realität von Vergangenheit und Zukunft und damit die Vorbestimmtheit des Universums unausweichliche Folgerungen aus der Relativitätstheorie sind, ist diese Erweiterung natürlich spekulativ und nicht falsifizierbar (andere würden sagen: unphysikalisch), aber ich möchte sie dennoch erwähnen und später noch einmal darauf zurückkommen, weil sie uns später hilfreich sein wird bei der Formulierung einer Hypothese über die Natur der Zeit. Aber mehr dazu im übernächsten Teil der Artikelreihe. Der nächste wird sich zunächst mit Zeitreisen und Zeitparadoxa beschäftigen.
“Zeit” ist eines der in der Sprache am häufigsten verwendeten Substantive. Unser ganzes Leben dreht sich um Zeitpunkte (das fängt morgens schon mit dem Klingeln des Weckers an) und Zeiträume. Zeit hat im wesentlichen drei Funktionen:
Diese Eigenschaften machen Zeit zu einer Dimension, das heißt einem Freiheitsgrad, den wir zur Verortung einer Position in Raum und Zeit mit einem Wert, einer Koordinate, versehen. Wir verabreden uns an einem Ort zu einer Zeit. Zur Verabredung an einem Ort geben wir normalerweise ein Gebäude, eine Adresse oder irgendeiner Landmarke an, weil wir uns Orte so besser merken können, aber in einem Raum ohne (bekannte) Landmarken verwenden wir Koordinatenangaben, wie etwa Längen- und Breitengrade. Den Ort alleine anzugeben, reicht nicht, wenn sich ein Objekt bewegt, dann braucht es auch eine Zeitkoordinate, die von der Ortsangabe vollkommen unabhängig ist: man kann aus Ortsangaben keine Zeitangabe ableiten, mit der Zeit kommt eine unabhängige (orthogonale) Dimension hinzu.
Mathematisch gesehen bilden Ort und Zeit einen vierdimensionalen Raum mit einem Viertupel (Vierervektor genannt) als Koordinate. Den Ort im Raum kann man entweder als Polarkoordinaten in Form von Winkeln zu zwei Bezugsrichtungen und der Entfernung vom Koordinaten-Nullpunkt angeben (geographische Koordinaten verwenden die Erdachse und eine Achse in der Äquatorebene dazu, die den 0-ten Längengrad festlegt, der bekanntlich durch Greenwich verläuft). Oder man verwendet (meist auf kleinem Raum) kartesische Koordinaten mit Länge, Höhe und Breite gemessen in einer Längeneinheit.
Als Zeitkoordinate verwenden wir eine Zahl von Zyklen, die wir nach einem sehr archaischen System aus der Länge des tropischen Jahres abgeleitet haben. Ein tropisches Jahr misst die Zeit zwischen zwei Sonnenwenden, d.h. den Umkehrpunkten der Sonne auf ihrer jahreszeitlichen Wanderung am Himmel nach Norden bzw. Süden. Die Wendekreise, die auf der Erde den Breitengraden entsprechen, über denen die Sonne zum Sommer- bzw. Winteranfang senkrecht steht, heißen auf Latein “Tropicus” (englisch tropic), daher das tropische Jahr, und den Gürtel zwischen ihnen auf der Erde nennen wir die Tropen. Neben dem tropischen Jahr gibt es noch andere Jahreslängen, etwa in Bezug der Position der Sonne zwischen den Fixsternen (siderisches Jahr, von lat. sideris = das Gestirn) oder zwischen zwei sonnennächsten Punkten auf der Erdbahn (anomalistisches Jahr), aber es ist das tropische Jahr, das dem Kalender zugrunde liegt, weil der Kalender sich an den Jahreszeiten und nicht an den Gestirnen orientiert. Der Beginn der Jahreszeiten hängt davon ab, wie die Erdachse in Bezug auf die Sonne geneigt ist: zum Sommeranfang auf der Nordhalbkugel weist der Nordpol maximal zur Sonne hin. Da die Erdachse im Raum taumelt (präzediert), verlagert sich der Ort auf der Erdbahn, wo dies eintritt, von Jahr zu Jahr ein wenig, weshalb das tropische Jahr und das siderische nicht gleich lang sind. Die Folge ist, dass in 13000 Jahren unsere Wintersternbilder im Sommer zu sehen sein werden.
Das Jahr unterteilen wir in 365 Tage (von Mitternacht zu Mitternacht, also auf die Sonne bezogen), aber das tropische Jahr ist ein wenig länger als 365 Tage, nämlich 365 Tage, 5 Stunden, 48 Minuten und 45,261 Sekunden. Das ist nahe bei 365,25 Tagen, weshalb es alle vier Jahre einen Schalttag am 29. Februar gibt. Was 365 Tagen und 6 Stunden entspricht, 11:15 Minuten zu viel. Deswegen lässt man alle 100 Jahre den Schalttag ausfallen (zuletzt 1900). Nach 100 Jahren summiert sich der Fehler zu 100 mal 11:15 Minuten = 18h45m, der ausfallende Schalttag lässt also 5h15m zu viel weg oder in 400 Jahren 21h. Daher bleibt alle 400 Jahre der Schalttag erhalten (zuletzt 2000), dann ist man bis auf 3h wieder an der korrekten Jahreslänge. Dies ist die gregorianische Schaltjahresregel, mit welcher Papst Gregor XIII. die auf Julius Cäsar zurückgehende einfachere 4-Jahres-Regel 1582 ablöste. Um die Sonnenwenden wieder kalendarisch zurecht zu rücken musste er 10 Tage streichen und auf den 4. Oktober 1582 den 15. folgen lassen. Für 3220 Jahre wird das so funktionieren, dann wird man voraussichtlich im Jahr 4800 den Schalttag außerplanmäßig streichen und hat dann wieder rund 3200 Jahre Ruhe.
Unsere Tage sind in babylonischer Tradition weiter in 2×12 Stunden zu je 60 Minuten unterteilt. Tatsächlich gab es in Babylon allerdings nur 6 Unterteilungen für die Nacht und 6 für den Tag, erst zu Zeiten Alexanders des Großen wurden die babylonischen Doppelstunden zu unseren gewohnten Stunden halbiert. Das Wort “Minute” kommt vom lateinischen pars minuta, was “verkleinerter Teil” heißt – die Stunde wird also in kleinere Teile zerteilt. Die Sekunde (von pars minuta secunda – “zweiter verkleinerter Teil”) als weitere Unterteilung kam erst im 13. Jahrhundert hinzu.
Heute definieren wir die Sekunde nach dem SI-System als das 9.192.631.770-fache der Periodendauer einer bestimmten Mikrowellenstrahlung, die Cäsiumatome abgeben (wenn ein Elektron seinen Spin umkehrt) und Physiker rechnen in Bruchteilen von Sekunden von Millisekunden (10-3 s) bis hinunter zu Attosekunden (10-18 s), in denen sich chemische Reaktionen oder Quantensprünge ereignen.
Ob es eine kürzeste Zeitdauer gibt, wissen wir nicht. Max Planck hatte nach der Entdeckung seines Wirkungsquantums entdeckt, dass er daraus in Kombination mit anderen bekannten Naturkonstanten ein komplettes System von Einheiten für die physikalischen Grundgrößen ableiten konnte, ähnlich unserem SI-System mit Definitionen für kg, Meter, Sekunde etc., aber komplett auf der Basis von physikalischen Konstanten. Die Planck-Länge lässt sich so aus dem Wirkungsquantum, der Gravitationskonstanten und der Lichtgeschwindigkeit ableiten und die zugehörige Planck-Zeit ist die Planck-Länge dividiert durch die Lichtgeschwindigkeit, also die Zeit, die das Licht braucht, um eine Planck-Länge zurück zu legen. Die Planck-Zeit beträgt 5,39·10-44 Sekunden. Es gibt keinen Hinweis darauf, dass dies die kürzestmögliche Zeitperiode ist. Aber sie ist verdammt kurz.
Zeit ist also eine Dimension, aber sie unterscheidet sich fundamental von den drei Raumdimensionen. Im Raum können wir uns frei bewegen. Die Zeit hingegen fließt in eine Richtung und wir können nur wenig daran ändern (ein wenig schon – später dazu mehr). Wir können in jede Raumrichtung mit dem Finger zeigen, aber nicht Richtung der Vergangenheit oder Zukunft. Und noch eines ist speziell an der Zeit: in der Zeitdimension herrscht Kontinuität, im Raum nicht. Wenn wir uns durch den Raum bewegen, kann uns abrupt und ohne Vorwarnung ein Laternenpfahl oder ein anderes Objekt begegnen. Beim Fließen der Zeit ergibt sich ein neuer Zustand jedoch stets aus dem Zustand zuvor. Dinge verändern sich mit der Zeit, aber sie entstehen nicht plötzlich aus dem Nichts oder verschwinden wieder ohne Überrest. Masse bzw. Energie bleiben erhalten, Teilchen können zwar zerfallen, aber in ihren Zerfallsprodukten finden sich ihre gesamte ursprüngliche Masse-Energie, Ladung, Impuls etc. wieder.
Raum und Zeit sind somit von Grund auf von verschiedener Natur: Der Raum ist die Bühne, die Zeit ermöglicht ihre Veränderung und dies nach strengen Gesetzen. Eines davon ist beispielsweise die Gleichförmigkeit der Bewegung: in Abwesenheit von Kräften bewegt sich ein Objekt in gleichen Zeiten gleiche Strecken voran. In einem kartesischen Koordinatensystem mit der Bewegungsrichtung als x-Achse und der Zeit als y-Achse ergibt sich bei konstanter Geschwindigkeit eine Gerade, deren Steigung die Geschwindigkeit ist. Legt man die Achsenskalierung so fest, dass als Zeitkoordinate die Zeit mal Lichtgeschwindigkeit aufgetragen wird und auf den Raumachsen der Abstand zum Nullpunkt in Metern, dann hat man auf allen Achsen die gleiche Einheit Meter, und der Lichtgeschwindigkeit entspricht eine Gerade mit der Steigung 1, die das Koordinatensystem genau halbiert (“Winkelhalbierende”). Über die Geschwindigkeit hängen Raum und Zeit zusammen. Tatsächlich wird der Meter im SI-System über die vonm Licht in einer bestimmten Zeit zurückgelegten Strecke definiert.
Bis vor rund 100 Jahren dachte man, Raum und Zeit seien vollkommen unabhängig voneinander, so wie es die Raumrichtungen untereinander sind. Eine Bewegung durch den Raum habe keinen Einfluss auf das Fortschreiten der Zeit. Die Zeit verginge an allen Orten gleich schnell und man könne sich theoretisch mit beliebiger Geschwindigkeit durch den Raum bewegen. Raum und Zeit seien absolut – zum Beispiel könne man seine absolute Geschwindigkeit jederzeit relativ zur Lichtgeschwindigkeit als naturgegebene Konstante bestimmen. Dies entsprach der menschlichen Erfahrung bei niedrigen Geschwindigkeiten. Zum Beispiel werden die Geschwindigkeiten von Flugzeugen relativ zur Schallgeschwindigkeit als Machzahl gemessen (wobei die Schallgeschwindigkeit streng genommen von Druck und Temperatur der Luft abhängt, um gar nicht davon zu sprechen, dass sie in anderen Stoffen eine ganz andere ist). Es war eine große Überraschung für die Physiker, als sie dies überprüfen wollten und die Bewegung der Erde relativ zu einem Lichtstrahl im Labor zu messen versuchten. Egal ob das Licht in Richtung der Erdbewegung um die Sonne oder senkrecht dazu gemessen wurde, egal ob im Frühjahr oder im Sommer mit 90° verdrehter Bewegungsrichtung – es war immer gleich schnell.
Versuch nach Michelson und Morley zur Konstanz der Lichtgeschwindigkeit: Licht durchläuft einen Strahlteiler (halbdurchlässiger Spiegel) und die beiden rechtwinklig aufgespaltenen Teilstrahlen werden an Spiegeln reflektiert und im Strahlteiler wieder vereint. Bei einer Bewegung der Apparatur mit der Erde durch den Raum käme es zu einem Laufzeitunterschied und damit zu einer Phasenverschiebung der Lichtstrahlen, sie würden sich gegeneinander versetzt überlagern, je nach Ausrichtung des auf einem drehbaren Tisch montierten Aufbaus. Der Strahl senkrecht zur Erdbewegung würde maximalen Zickzack laufen, der in Richtung Erdbewegung nicht. Tatsächlich war die Überlagerung vollkommen unabhängig von der Orientierung des Tisches oder der Position der Erde auf ihrer Bahn.
Während andere Physiker noch versuchten, sich einen Reim darauf zu machen, wie vielleicht ein von der Erde mitgezogenes Ausbreitungsmedium, der “Äther”, die Messergebnisse erklären könnte, nahm der junge Albert Einstein einfach hin, dass die Lichtgeschwindigkeit für alle Beobachter konstant erscheint und leitete aus dieser einzigen Grundannahme seine spezielle Relativitätstheorie ab. Wenn man demnach einem Lichtstrahl hinterher eilen würde, dann würde er niemals auch nur einen Meter pro Sekunde langsamer erscheinen. Selbst wenn wir aus der Sicht eines am Startpunkt verbliebenen Beobachters mit 99% der Lichtgeschwindigkeit hinter dem Lichtstrahl her jagten, schiene er uns immer noch mit 100% der Lichtgeschwindigkeit davon zu eilen. Das hat zwei Konsequenzen: Wir können niemals mit einem Lichtstrahl mithalten oder ihn gar überholen, er ist immer einen Ticken schneller: die Lichtgeschwindigkeit ist die höchstmögliche Geschwindigkeit, mit der sich ein Signal im Raum ausbreiten kann. Materielle Objekte müssen stets ein wenig langsamer bleiben. Und zum anderen vergeht die Zeit nicht überall gleich schnell.
Denn um die Beobachtungen des ruhenden Beobachters, der uns hinterher schaut, mit unseren eigenen in Einklang zu bringen, müssen die Maßstäbe für Raum und Zeit, die wir verwenden, verschieden von seinen sein. Das eigentlich nur knapp schneller als wir davon sausende Licht gewinnt nach unserem Maßstab so viel Vorsprung, weil es unseren langsam tickenden Uhren schneller als die vom ruhenden Beobachter gemessene Geschwindigkeitsdifferenz erscheint. Und da unsere Uhren langsamer laufen, scheinen zurückgelegte Strecken entsprechend verkürzt, denn wir legen eine für den ruhenden Beobachter festliegende Strecke in weniger Zeittakten zurück, als mit seiner Uhr gemessen. In meinen Artikeln über das Zwillingsparadoxon habe ich es vorgerechnet. Raum und Zeit hängen also in der Relativitätstheorie innig miteinander verwoben zusammen und ihre Maßstäbe sind vom Bezugssystem des Beobachters abhängig. Es gibt keinen absoluten Raum oder eine absolute Zeit. Dies alleine schon hat eine tiefgründige Bedeutung für die Struktur der Zeit, wie wir im 2. Artikel der Serie erfahren werden.
Die Mathematik der Relativitätstheorie hat interessante Aspekte. Man misst Abstände zwischen zwei Koordinatenpunkten im Raum bekanntlich mit Hilfe der Formel des Pythagoras, etwa in der Ebene zwischen den Punkten (x1,y1) und (x2,y2):
s² = (x2-x1)²+(y2-y1)²
⇒ s = √[Δx²+Δy²]
wobei das Delta Δ für die Differenz der jeweiligen x- und y-Koordinaten steht.
Kommt die dritte Raumdimension hinzu, dann ist der Abstand zweier Punkte (x1,y1,z1) und (x2,y2,z2) im Raum gegeben durch
s = √[Δx²+Δy²+Δz²]
Egal welchen Anteil Δx, Δy oder Δz man vergrößert, die Strecke wird insgesamt länger – gegenüberliegende Ecken eines Quaders entfernen sich weiter voneinander, egal ob man ihn länger, breiter oder höher macht, oder auch alles zugleich. Kennt man. In der vierdimensionalen Raumzeit sieht die Formel jedoch ein wenig anders aus. Vierervektoren haben die Form (c⋅t,x,y,z). Damit die Einheiten in jeder Dimension zusammen passen, muss man die Zeitkoordinate mit der Lichtgeschwindigkeit multiplizieren. Für zwei Vierervektoren (c·t1,x1,y1,z1) und (c·t2,x2,y2,z2) ist dann der Raumzeitabstand definiert durch
s = √[c²Δt² – (Δx²+Δy²+Δz²)]
Und der ist wegen des Minuszeichens umso kleiner, je größer der räumliche Anteil (Δx²+Δy²+Δz²) wird. Das heißt, unter all den Wegen, die ich von hier zu einem anderen Raumzeitpunkt nehmen kann, dauert derjenige für mich am längsten, der die kürzeste Entfernung im Raum zurücklegt. Je größer der Umweg durch den Raum, der mich zum selben Zeitpunkt an den selben Zielort bringt, desto weniger Zeit vergeht für mich.
Man könnte beispielsweise von (0,0,0,0) aus starten und sich zuerst zur Raumzeitkoordinate (1s·c,10.000 km,0,0) begeben und danach zur Koordinate (2s·c,0,0,0), also an den Urpsrungsort, nur 2 Sekunden später. Dann hat man mit Lichtgeschwindigkeit c=300.000 km/s∗ s1=√[(300.000 km/s·1s)² – (10.000 km)²] = 299833,3 km + s2=s1, also insgesamt 2·s1=599.666,6 km zurückgelegt. Dividiert man die Raumzeitstrecke durch die Lichtgeschwindigkeit, wird daraus die im Flug vergangene Zeit: 599.666,6/300.000 = 1,998889 s. Wäre man einfach an Ort und Stelle geblieben, dann wäre die Strecke s’=2·√[(300.000 km/s·1s)²=600.000 km gewesen, entsprechend 2 Sekunden vergangener Zeit. Der Umweg hat also ein Tickchen weniger Zeit gekostet.
Was passiert, wenn der Inhalt der runden Klammer, also größer als c²Δt² wird? c·Δt ist genau die Strecke, die das Licht in der Zeit Δt zurücklegen kann. (Δx²+Δy²+Δz²) ist das Quadrat der im Raum zurückgelegten Strecke, und wenn diese größer als das Quadrat der in derselben Zeit von Licht zurückgelegten Strecke ist, dann wäre man schneller als das Licht gewesen. Dann wird die Wurzel negativ und s ist nicht mehr definiert (bzw. eine imaginäre Zahl).
Zumindest in der klassischen Physik gilt das Lokalitätsprinzip: nur was in sich in meiner Nähe befindet, kann mich irgendwie beeinflussen. Damit mich ein ferner Vorgang beeinflussen kann, muss er mir ein Signal senden (z.B. der Donner eines Blitzes, oder das Licht desselben), und dieses kann höchstens mit Lichtgeschwindigkeit zu mir eilen. Daraus ergibt sich ein Kegel im Raumzeitdiagramm, der die Raumzeit-Koordinaten einschließt, die mich an einem gegebenen Ort in irgendeiner Weise aus der Vergangenheit beeinflussen können oder die ich zukünftig werde beeinflussen können. Alles, was außerhalb des Kegels ist, ist jenseits meines Erfahrungshorizonts und vollkommen kausal von mir entkoppelt. Es kann mich nicht beeinflussen, es existiert für mich nicht.
Anders ausgedrückt umfasst der Lichtkegel die Raumzeitpunkte, an denen ich in der Vergangenheit gewesen sein könnte, oder die ich in Zukunft noch erreichen könnte.
Linien, die meine Raumzeitkoordinate mit anderen innerhalb des Lichtkegels verbinden, heißen zeitartig – hier überwiegt der Anteil der durch die Zeit zurückgelegten Strecke. Die Raumzeit-Länge zeitartiger Linien ist eine reelle Zahl. Linien, die aus meinem Kegel herausführen, heißen raumartig – hier dominiert die im Raum zurückgelegte Strecke, der Raumzeitabstand ihrer Enden ist imaginär. Und Linien, die genau entlang der Oberfläche des Lichtkegels verlaufen, nennt man lichtartig. Sie entsprechen den Weltlinien von Lichstrahlen, die ich aussende oder die mich erreichen.
Die Arbeit stammt von Emily Levesque von der University of Washington, Seattle, und Philip Massey von der Abteilung für Astronomie und planetare Wissenschaft der Northern Arizona University im Staate Washington. Die Autoren haben am 15. Februar Beteigeuze mit dem Lowell Discovery Teleskop (LDT) des Lowell Observatoriums im Coconino National Forest in Arizona beobachtet. Das Teleskop war aus einer Zusammenarbeit von Discovery Communications, dem Herausgeber von Discovery Channel, Animal Planet und anderen wissenschaftsbezogenen TV-Kanälen, und dem Lowell Observatorium in Flaggstaff, Arizona, entstanden. Mit dem vom Sender gesponsorten 4,3-m-Spiegelteleskop wird echte Wissenschaft betrieben, allerdings hat Discovery die Erstverwertungsrechte an Bildern und Ergebnissen.
Die Autoren hatten Beteigeuze bereits Anfang März 2004 mit dem 0,9 m WIYN-Cassegrain-Teleskop am Kitt Peak Observatorium in Arizona aufgenommen, als der Stern mit 0,5m fast im Helligkeitsmaximum war. Damals hatten sie mit einem einfachen Gitterspektrographen und einer CCD-Kamera ein Spektrum von Beteigeuze aufgenommen. Der Spektrograph zerlegt vermöge eines engmaschigen Gitters (ca. 500 Linien pro Millimeter) das Licht in seine verschiedenen Farben (= Wellenlängen) und das Teleskop fokussiert dieses Spektrum auf den Bildsensor. Aus dem punktförmigen Stern wird ein langgezogener Strich, der mit einer (Schwarz-Weiß-) CCD-Kamera aufgenommen wird und in welchem die Wellenlängen von lang nach kurz nebeneinander angeordnet sind. Pixel für Pixel nimmt die Kamera andere Wellenlängen des Spektrums auf und kann deren relative Helligkeit (im Vergleich zu anderen Wellenlängen) aufzeichnen. Diese als Graph aufgetragen erhält man zwar keinen bunten Regenbogen mit dunklen Linien, aber eine viel aussagekräftigere Kurve der Helligkeitsverteilung über der Wellenlänge – im Prinzip ein Abschnitt der nahezu Planckschen Strahlungskurve des Sterns, nur eben gespickt mit Spektrallinien. Die dunklen Spektrallinien verursachen Einbrüche in der Kurve, deren Position, Breite und Tiefe man auswerten kann.
Die damaligen Messungen wiederholten sie nun mit dem selben Spektrographen am LDT, wo er sich mittlerweile als Dauerleihgabe befindet. Das Problem bei der Beobachtung des hellen Beteigeuze (und Grund dafür, weshalb Gaia seine Entfernung noch nicht mit großer Präzision messen konnte), ist seine immense Helligkeit, selbst in diesem tiefen Minimum. Insbesondere durch ein 4,3-m-Teleskop betrachtet. Die Wissenschaftler mussten deswegen ein Graufilter mit satten 7,5 Größenklassen Absorption vorschalten – dieses ließ nur noch 1/1000 des Sternenlichts durch, was schon beinahe zum fotografischen Sonnenfilter taugt!
Die Messung zielte darauf ab, die Effektivtemperatur des Sterns zu messen: das ist die Temperatur eines schwarzen Strahlers, der pro Flächeneinheit die gleiche Leistung abstrahlt wie der Stern. Schwarze Strahler sind in der Optik idealisierte Objekte, die nur Strahlung nach dem Planckschen Strahlungsgesetz abgeben, jedoch kein Licht reflektieren (daher: schwarz). Für diese gibt es einige Formeln, mit deren Hilfe man beispielsweise die Helligkeitsverteilung über den einzelnen Farben (Plancksche Strahlungskurve), das Maximum der Ausstrahlung (Wiensches Verschiebungsgesetz) oder die Abstrahlleistung pro Flächeneinheit in Abhängigkeit von der Temperatur (Stefan-Boltzmann-Gesetz) berechnen kann.
Sterne sind nur näherungsweise schwarze Strahler, vor allem weil ihre Strahlungskurve von Spektrallinien zerhackt ist, und so kommt man nicht zum selben Wert der Temperatur, wenn man sie einmal aus der Farbe ableitet (typischerweise über B-V, die Helligkeitsdifferenz in den Bändern Blau und Visuell) und ein anderes Mal aus den Linien im Spektrum. Denn auch dieses verändert sich mit der Temperatur – Spektrallinien verändern ihre Tiefe, tauchen auf oder verschwinden. Zum Beispiel bildet sich Titanoxid erst unterhalb von ca. 4000K und beginnt dann mit bei abnehmender Temperatur und zunehmender Menge mehr Licht zu absorbieren. Bei Roten Riesensternen sind die Linien von Titanoxid daher ein hervorragender Indikator für die Temperatur des Sterns. Diese Methode hatten Edward Guinan und Richard Wasatonic und in ihren beiden Astronomischen Telegrammen beschrieben (Photometrie an den Flanken der Titanoxid-Linien). Sie hatten die Temperaturabnahme des Sterns vom Maximum im September auf 80K im Dezember und 85K im Januar bestimmt.
In meinem Artikel vor zwei Wochen hatte ich bereits die beiden derzeit konkurrierenden Theorien für Beteigeuzes Schwächeanfall vorgestellt. Eine Theorie für die Verdunklung war, dass abkühlende, riesige Konvektionszellen den Stern dunkler erscheinen lassen, denn ein kühlerer Stern strahlt weniger Licht ab. Tatsächlich maßen Levesque und Massey ebenfalls eine leichte Abkühlung zwischen 2004 und 2020 um 50K von 3650K auf 3600K (jeweils ±25K). Der Wert ist konsistent zu den Messungen von Guinan und Wasatonic, die die Temperaturdifferenzen zwischen dem letzten Maximum im September und den Werten in Dezember bzw. Januar verglichen hatten, welche ein wenig höher ausfallen. Die Gretchenfrage ist: reicht das aus, um die Verdunklung zu erklären? Levesque und Massey haben nachgerechnet.
Und die Antwort ist: nein! Eine Abkühlung um 50 K könne bestenfalls eine Verdunklung um 0,17m erklären. Selbst bei einer Abkühlung um 100 K auf 3550K reichte es nur für 0,38m – der Stern war jedoch gegenüber 2004 um 1,1m dunkler geworden. Selbst wenn man die Verdunklung durch die Titanoxidlinien mit hinzu zieht, reicht es nicht – in der Gegenüberstellung der Spektren von 2004 und 2020 im vorletzten Bild ist die Helligkeitsabnahme insgesamt durch die geringere Temperatur (schwarze Linie liegt tiefer als rote) viel stärker ausgeprägt als durch die geringfügig verbreiteten, tieferen Linien. Die Abkühlung und die TiO-Linien können nur einen kleinen Teil der Verdunklung erklären.Was ist also dann die Erklärung? Die Lösung steckt im folgenden Bild:
Dort sieht man noch einmal das Spektrum von Beteigeuze vom Februar 2020 (schwarze Linie) gegenübergestellt einem modellierten Spektrum eines Roten Überriesen mit vergleichbarer Temperatur und Oberflächenschwerkraft g (log g=0 heißt g=1, das bedeutet ca. Erdschwerkraft an der Sternoberfläche, was sich auf die Druckverhältnisse an der Oberfläche auswirkt). AV steht für den Wert der Extinktion: Staub zwischen uns und dem Stern schwächt dessen Licht ab, und wir wissen ja (siehe Titelbild des Artikels), dass der Stern von einer Wolke aus Staub umgeben ist, den er selbst in der Vergangenheit ausgestoßen hat. Außerdem befindet sich Staub im interstellaren Raum zwischen den Sternen. Der Staub streut das Licht, und zwar Blau stärker als Rot. Genau dasselbe tut die irdische Atmosphäre, weswegen die Sonne rot untergeht (blaues Licht fehlt in der Durchsicht, weil es in alle anderen Richtungen gestreut wurde) und der Himmel blau ist (das gestreute blaue Licht erreicht unser Auge aus anderen Richtungen des Himmels). Der Effekt nennt sich nach seinem Entdecker Lord Rayleigh “Rayleigh-Streuung” und tritt genau dann auf, wenn die streuenden Partikel kleiner als die Wellenlänge des Lichts sind. Das heißt, der Stern erscheint durch sehr feinkörnigen Staub etwas röter, was man beim quantitativen Vergleich der Spektren über die Wellenlängen berücksichtigen muss.
So, und wo ist jetzt also die Lösung in dem Bild versteckt? Ganz links. Über weite Teile passt das Spektrum des Sterns sehr gut zum Modell, aber unterhalb von 4500 Å (oder 450 nm), das ist im blauen Bereich des Lichts, da ist Beteigeuze deutlich heller, ein sogenannter Blauexzess des Sternenlichts liegt vor. Die Erklärung von Levesque und Massey ist: hier reflektiert den Stern umgebender Staub das Licht, welcher 2004 noch nicht da war, was man im direkten Vergleich der Spektren zwei Bilder zuvor erkennen kann. Oberhalb 4500 Å ist der Stern heute noch ebenso hell wie er es 2004 war, während der Rest des Spektrums dunkler erscheint. Der Staub, der sich aus unserer Sicht vor dem Stern befindet, verdunkelt ihn und ist die Hauptursache für sein derzeit extremes Minimum. Der Staub, der sich seitlich vom Stern befindet, reflektiert hingegen Licht und vergrößert die leuchtende Fläche.
Es fragt sich nun allerdings, warum das Spektrum dann immer noch zu einer Extinktion von AV = 0,62 passt, denn mehr Staub würde ja eigentlich mehr Extinktion bedeuten, die sich durch eine stärkere Rötung des Lichts bemerkbar machen sollte (die Kurve würde zum Blauen hin stärker fallen). Statt dessen ist bis auf den blauen Bereich das Spektrum gleichmäßig durch den Staub verdunkelt. Dies ist genau dann der Fall, wenn die Staubteilchen vergleichsweise groß sind. Die Tröpfchen in einer Wolke streuen und reflektieren alle Lichtwellenlängen gleichermaßen, deswegen erscheinen Wolken weiß, wie auch die Sonne durch Nebel in der Durchsicht. Die Staubteilchen, die Beteigeuze umgeben, könnten in der Größenordnung von 300 nm sein – diese Partikelgröße hatte ein anderes Team im vergangenen Jahr für Staubteilchen ermittelt, die sich in der Nähe des Sterns nachweisen ließen. Bei Staubpartikeln dieser Größenordnung (nahe der Wellenlänge des blauen Lichts) wäre das von ihnen gestreute Licht noch nicht weiß, folgte aber einem anderen Farbverlauf als bei kleineren Partikeln, was den Blauexzess bei gleichzeitig geringer Rötung erklärt.
Einen ähnlichen Blauexzess hatten Levesque und Massey schon 2005 bei einer Reihe von Roten Überriesen in der Milchstraße beobachtet und daraus auf die Sterne umgebenden Staub geschlossen. Die auf dem Foto von Montargès et al. (Titelbild des vorangegangenen Beteigeuze-Artikels) sichtbare Verdunklung eines Großteils der Oberfläche des Sterns wäre demnach kein Muster der Konvektionszellen, sondern asymmetrisch produzierter, ausgestoßener Staub, der vom Sternwind nun weggeblasen wird und sich langfristig zu der Staubwolke gesellen wird, die den Stern in größerer Entfernung umgibt. Offenbar ist dieser Ausstoß von Staub mit einer leichten Abkühlung des Sterns während seiner halbregelmäßigen Pulsationen verbunden und sorgt dann manchmal für sehr tiefe Minima. Bei einer anderen Klasse von veränderlichen Sternen, den R-Coronae-Borealis-Sternen, kann der gelegentlich auftretende Ausstoß von Kohlenstoffstaub (also Ruß) dafür sorgen, dass der Stern kurzfristig um bis zu 9 Größenklassen (Faktor 4000) dunkler wird und damit vollkommen von der Bildfläche verschwindet, weshalb diese Sterne manchmal als “umgekehrte Novae” bezeichnet werden. So extrem ist Beteigeuze nicht, aber es scheint ein ähnlicher Mechanismus im Spiel zu sein.
Die Theorie von Levesque und Massey muss nun noch durch weitere Beobachtungen unterstützt werden. So erwartet man beispielsweise bei an Staub gestreutem Licht, dass dieses teilweise polarisiert ist. Durch Messungen im mittleren Infrarot lässt sich die Partikelgröße des Staubs ermitteln und im ultraviolettem Licht, das Staub kaum durchdringt, die Außenseite der Staubwolke und ihre Ausbreitung beobachten. Das fliegende Observatorium SOFIA, das hoch über dem dichtesten Teil der Atmosphäre im mittleren Infrarot beobachten kann, war schon unterwegs, um Aufnahmen des Sterns zu machen, von denen wir sicher bald hören werden.
Die Schlinge um Beteigeuze zieht sich also langsam zu. Wir können dem Stern offenbar dabei zuschauen, wie er frisches Baumaterial für Planeten zukünftiger Sterne produziert! Staubkörnchen von weniger als einem tausendstel Millimeter Größe. All dies lesen die Astronomen aus dem Beugungsbildchen eines Sterns heraus, der unerreichbar für sie ist. Das fasziniert mich immer wieder.
[1] Emily M. Levesque, Philip Massey, “Betelgeuse Just Isn’t That Cool: Effective Temperature Alone Cannot Explain the Recent Dimming of Betelgeuse“, Preprint eingereicht am 24.02.2020, arXiv:2002.10463.
[2] en.wikipedia.org, “Lowell Discovery Telescope”
Noch hat kein menschliches Auge diesen Anblick erlebt. Von den knapp 600 Menschen, haben nur die 24 Astronauten, die mit Apollo zum Mond geflogen sind, die Erde als Kugel im samtschwarzen Weltraum gesehen. Aber wir haben Raumsonden ins All geschickt, und die haben uns Bilder gesendet, die einen kleinen Eindruck davon vermitteln, wie die Erde aus der Ferne aussieht.
Vom Mond aus gesehen ist die Erde beeindruckend groß. Mit 1,8° Winkeldurchmesser durchmisst sie 3,7 Vollmonddurchmesser und hat die 13,4-fache Fläche der Mondscheibe. Da die Erde außerdem rund 40% des einfallenden Lichts reflektiert – im Gegensatz zum Vollmond, der nur 12% zurückstrahlt – erscheint sie hell strahlend am Himmel. In Größenklassen gemessen hätte sie ca. -16,9m. Das ist 50-mal so hell wie der Vollmond. Das entspricht ca. 12 Lux Beleuchtungsstärke, etwa so hell wie unter einer Straßenlaterne. Dies gilt natürlich nur bei “Vollerde”.
Einen Logenblick auf die Erde aus dem Mondorbit hat der amerikanische Lunar Reconnaissance Orbiter LRO, der über eine Weitwinkel- und eine Telekamera verfügt. Normalerweise schaut er damit nach unten, aber manchmal schauen die Kameras zu Kalibrierzwecken oder zum Beobachten der dünnen Mondexosphäre auch parallel über die Mondoberfläche, und dann kann die Erde manchmal ins Blickfeld geraten. Wie hier ins Blickfeld der Weitwinkelkamera (Wide Angle Camera, WAC):
Auch das folgende Bild ist mit beiden Kameras des LRO aufgenommen, der WAC und der Telekamera NAC (Narrow Angle Camera). Das Problem der WAC ist, dass sie nur eine einzelne Bildzeile mit rund 10.000 Pixeln aufnimmt und das Bild sich erst dadurch zu einer Bildfläche zusammensetzt, dass sich der Mondorbiter um den Mond herum bewegt. Dadurch ergeben sich perspektivische Effekte, die für die Erde im Hintergrund ganz andere sind als für den viel näheren Mond im Vordergrund. Deswegen wurde hier der Mond mit der NAC aufgenommen, die Erde jedoch mit der WAC. Damit das Erdbild hinreichend scharf wurde, wurde die Erde 20 bis 50 Mal aufgenommen (also manche Zeilen öfter, manche weniger oft) und diese Aufnahmen zu einem insgesamt schärferen Bild kombiniert.
Die Farben geben nur ungefähr den Eindruck des menschlichen Auges wieder, weil die WAC nur schmale Frequenzbänder durch ihre 6 Filter sieht, die zudem nicht den Grundfarben Rot, Grün und Blau entsprechen. Wie im oberen Bild wurden hier die Filter 604 nm (Orangefarben), 556 nm (Gelbgrün) und 415 nm (Violett) verwendet. Der Mond selbst ist in Schwarz-Weiß abgebildet und in der Helligkeit verstärkt. Daher wirkt das Ergebnis ein wenig künstlich, aber die Detailschärfe ist beeindruckend.
Komplette Bilder nahm hingegen die HDTV-Kamera der japanischen Mondsonde Kaguya auf, die im folgenden Video vom November 2009 den Südpol des Mondes überflog, wobei sie einen Erduntergang filmte. Damit die Erde wie gewohnt mit Norden nach oben erscheint, wurde das Originalvideo invertiert. Die beiden HDTV-Kameras (Weitwinkel und Tele) dienten hauptsächlich zu PR-Zwecken und daher entspricht ihre Wiedergabe ziemlich genau dem, was das menschliche Auge sehen würde.
Video: JAXA/NHK
Der LRO kreist immer noch eng um den Mond in 20 km – 165 km Höhe. Deutlich mehr Abstand hatte ein anderer Besucher von der der Erde gegenüber liegenden Seite des Mondes, die chinesische Sonde Chang’e 5-‘T1, eine Testmission für die erst in diesem Jahr geplante Mission Chang’e 5, die Proben von der Mondoberfläche zur Erde bringen soll. Die Sonde flog an der Rückseite des Mondes vorbei und erreichte dabei 540.000 km Entfernung von der Erde. Das folgende Bild zeigt Mond und Erde auf einem Bild aus ca. 16.000 km Entfernung zum Mond (von mir grob überschlagen aus den Abmessungen von Erde und Mond) und soll laut Quelle am 28. Oktober 2014 aufgenommen worden sein.
Man sieht größtenteils die von der Erde nicht sichtbare Rückseite des Mondes mit dem dunklen Mare Moscoviense (dunkler Fleck nahe der Mitte) und am linken Rand auf 9 Uhr-Position das Mare Marginis und Mare Smythii. Oben am linken Rand bei 11 Uhr das Mare Humboldtianum und der kleine dunkle Fleck auf 7 Uhr ist der Krater Tsiolkowski.
Das Pärchen Erde-Mond war auch stets ein gerne verwendetes Motiv für Raumsonden, die sich von der Erde entfernten oder sich bei Flybys Schwung an der Erde holten. Einerseits um die Instrumente zu testen und zu kalibrieren, anderseits natürlich auch, weil es coole Bilder ermöglichte.
Zum Beispiel diese schöne Animation einer vollen Erdumdrehung, aufgenommen am 2./3. August 2005 von der Raumsonde Messenger, als sie sich auf den Weg zum Merkur machte. Während dieser Zeit entfernte sie sich von zu Beginn 65.600 km auf 436.000 km – weiter als die Entfernung des Mondes von der Erde (im Mittel 384.000 km).
Video: NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington
Man sieht sehr schön, wie sich halb links die Sonne spiegelt. Selbst über Land lässt ihre Reflexion die Wolken hell erstrahlen. Das Video wurde mit der Weitwinkelkamera des Messenger aufgenommen und besteht aus 358 Einzelbildern. Man hat also richtig viel Aufwand betrieben, um das Video zu erstellen.
Die europäische Rosetta-Sonde nahm auf dem Weg zum Kometen Tschurjumow-Gerassimenko dreimal Schwung beim Passieren der Erde auf (und einmal am Mars). Bei der zweiten Passage am 13. November 2007 nahm sie mit der hochauflösenden OSIRIS-Kamera unter anderem die Erdsichel im Gegenlicht auf. Dieses Bild ist unten mit einer lang belichteten Aufnahme der Nachtseite der Erde kombiniert, auf der sich deutlich die Kontinente anhand der beleuchteten Städte abzeichnen. Die Sichel nahe dem rechten Rand bei 2 Uhr ist die Küste Chinas, rechts oberhalb der Bildmitte das Dreieck des indischen Subkontinents, links davon der mittlere Osten, die arabische Halbinsel mit dem hellen Nildelta und oben links am Rand die Mittelmeerküsten, Sizilien, der italienische Stiefel und die französisch-spanische Küstenlinie. Ganz oben am Rand auf 10:30 das helle Belgien und die Rhein-Ruhr-Region.
Das erste Portrait von Erde und Mond aus der Ferne schoss die Voyager-1-Sonde 13 Tage nach ihrem Start am 18. September 1977 aus einer Entfernung von knapp 12 Millionen km – weit genug entfernt, dass das bloße Auge den Mond nicht mehr als Scheibe hätte erkennen können (1′ Durchmesser), die Erde bei guten Augen so eben noch (3’40”). Aber Voyager hatte eine leistungsstarke Kamera in Form eines 176 mm Cassegrain-Objektivs mit 1500 mm Brennweite und 0,4° Gesichtsfeld mit einer Vidicon-Bildaufnahmeröhre als Sensor, sowie diversen Farbfiltern.
Bei dem Bild wurde die Helligkeit des Mondes um den Faktor 3 erhöht, damit er überhaupt im Bild erkennbar ist – so viel heller ist die Erde.
Nur halb so weit entfernt, 6,2 Millionen km, war die Jupitersonde Galileo am 16. Dezember 1992, als sie 8 Tage nach ihrem zweiten Vorbeiflug an der Erde in nur 30 km Entfernung ihre Kamera zurück auf Erde und Mond richtete, die strategisch günstig fast in einer Linie standen (also in Konjunktion, wie der Astronom sagt), wobei der Mond der Sonde näher war – man blickt hier also auf die Rückseite des Mondes. Die dunkle Stelle unten ist das Südpol-Aitken-Becken. Die Helligkeit des Mondes wurde auch hier angehoben. Auf der Erde erkennt man unten den antarktischen Kontinent im Südhemispheren-Sommer.
Für die Aufnahmen wurden Violett-, Rot- und Infrot-(1000 nm)-Filter verwendet. Die Kamera verwendete die gleiche Optik wie zuvor Voyager, aber statt der Röhrenkamera verfügte sie über einen CCD-Sensor mit 800×800 Pixeln, als eine der ersten Sonden überhaupt. Leider entfaltete sich die regenschirmartig zusammengeklappte Hauptantenne nicht, so dass sie unbrauchbar blieb und Galileo seine Aufnahmen mit 160 bits pro Sekunde über die eigentlich nur für Notfälle gedachte Rundstrahlantenne zur Erde funken musste. Daher gab es später nicht die erhofften Videos vom Jupiter.
Da die Bitrate in der Nähe der Erde höher war und man zu dieser Zeit sonst nichts anderes aufzunehmen hatte, konnte die Sonde beim ersten Vorbeiflug an der Erde im Dezember 1990 jedoch dieses schöne Video eine kompletten Erdrotation (25 Stunden) aus nicht weniger als 2 Millionen Kilometern Entfernung aufnehmen und zur Erde übertragen.
NASA / JPL
Das nächste Filmchen wurde von der Kometensonde Deep Impact während ihrer Verlängerungsmission EPOXI im Mai 2008 aus einer Entfernung von nicht weniger als 49,6 Millionen Kilometern aufgenommen – das ist schon in der Größenordnung zur Entfernung des Mars von der Erde bei der größten Annäherung. Die Erde erscheint aus dieser Entfernung nur 53″ (Bogensekunden) groß, etwa so groß wie die Venus bei der größten Annäherung. Deep Impact trug jedoch ein 30 cm Teleskop mit 10,5 m Brennweite und einem 1008×1008-Pixel-CCD-Sensor, die einen damaligen Astro-Amateur schon neidisch gemacht hätte. Besonders schön am Video ist, dass etwa in der Mitte der Mond den Clip fotobombt und einen Transit vor der Erde vollzieht – der erste Transit des Mondes vor der Erde, der jemals aufgenommen wurde. Auch hier sieht man wieder, wie dunkel er gegenüber der Erde erscheint und wie klein er im Vergleich zu ihr ist. Mehr Hintergrund zu dem Video auf dieser Seite.
Donald J. Lindler, Sigma Space Corporation/GSFC; EPOCh/DIXI Science Teams
Es gibt bisher offenbar kein gescheites Foto der Erde von der Venus aus. Aber vom weiter entfernten Merkur! Das folgende Bildchen wurde am 6. Mai 2010 von der Messenger-Sonde auf der Suche nach Vulkanoiden in der Nähe der Sonne aufgenommen – damit sind keine Aliens gemeint, sondern hypothetische Asteroiden innerhalb der Merkurbahn, benannt nach dem ebenso hypothetischen Planeten Vulkan innerhalb derselben, den man vor der Entdeckung der Relativitätstheorie für die Periheldrehung des Merkur verantwortlich gemacht hatte. Da die Vulkanoiden nahe der Sonne von der Erde aus schwer aufzuspüren wären, befand sich Messenger so nahe bei der Sonne in einer weit besseren Position, von der aus sie die Objekte beim Blick nach außen im vollen Sonnenlicht würde aufnehmen können. Allerdings fand sich kein Vulkanoid – der Strich am oberen Bildrand ist die Spur eines kosmischen Partikels, das den Sensor getroffen hatte.
Das Bild entstand aus einer Entfernung von 183 Millionen Kilometern zur Erde, die hier unten links begleitet vom Mond das hellste Objekt im Bild ist, und damit weiter von der Erde entfernt, als diese sich von der Sonne befindet. Tatsächlich befand sich Messenger hier noch nicht in der Umlaufbahn des Merkur, aber in der Gegend seiner Bahn. Die Erde hatte von hier aus eine Helligkeit von -3,5m und war damit eine knappe Größenklasse dunkler als die Venus von der Erde aus. Die Aufnahme wurde 10 Sekunden lang belichtet und verwendete keine Filter. Das Blickfeld der verwendeten Weitwinkelkamera ist 10,5°, etwa eine Handbreit bei ausgestrecktem Arm.
Ein besonderer Schnappschuss gelang dem Messenger-Team am 8. Oktober 2014, diesmal wirklich aus dem Merkurorbit: die Aufnahme einer Mondfinsternis vom Merkur aus! Das Video besteht aus 31 Bildern mit 2 Minuten Abstand, aufgenommen mit der Telekamera (Narrow Angle Camera) zwischen 9:18 und 10:18 UTC und zeigt den Eintritt des Mondes in den Kernschatten der Erde. Der Mond wurde hierbei 25-fach aufgehellt und das Bild 2-fach gezoomt, damit er besser zu erkennen ist.
NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington
Bilder der Erde von einer Planetenoberfläche aus gesehen gibt es nur vom Mars – sie entsprechen am ehesten dem Kriterium, die Erde als Planet am Himmel zu zeigen. Ich erinnere mich, dass ich irgendwann 1996 während der Pathfinder Mission den am Projekt beteiligten Wissenschaftler Matthew Golombek angemailt hatte, was er von der Idee halte, die Erde vom Mars aus aufzunehmen, um den Menschen zu zeigen, wie weit weg der Lander von der Erde entfernt war, und Golombek antwortete mir tatsächlich, dass man dies für später plane, wenn die wichtigeren Aufnahmen gemacht worden seien. Es kam jedoch nie zu der Aufnahme, aber acht Jahre später holte das Team der Mars Exploration Rover mit Golombek als wissenschaftlichem Leiter die Aufnahme mit dem Rover Spirit nach – es wurde das erste Bild der Erde von der Oberfläche eines anderen Planeten.
Das Bild zeigt die Erde als Morgenstern am Himmel des Mars, eine Stunde vor Sonnenaufgang. Sie befand sich zu dieser Zeit 257 Millionen km vom Mars entfernt, noch weiter entfernt als dieser von der Sonne, und sie war etwa -2,9m hell, heller als Jupiter aber dunkler als Venus von der Erde aus gesehen. Man musste ein wenig zaubern, um mit den beschränkten Mitteln des kleinen Rovers die Erde mit dem Hintergrund ablichten zu können. Die Erde war zu lichtschwach, um mit Farbfiltern aufgenommen werden zu können, und um sie überhaupt zu sehen, musste sie mit der Panoramakamera aufgenommen werden, die ein kleines Blickfeld hat, das den Vordergrund nicht im gleichen Bild mit einem Schuss hätte ablichten können. Man musste für den Vordergrund die Navigationskamera mit größerem Blickfeld verwenden. Der Mond ist leider zu lichtschwach, um auf dem Bild sichtbar zu sein.
Den Mond lieferte am 31. Januar 2014 der Curiosity Rover nach. Die folgende Aufnahme entstand mit dem linken “Auge” der Mastcam, welches 53 mm Öffnung und 34 mm Brennweite hat. Das Bild entstand 80 Minuten nach Sonnenuntergang, und die Erde war 160 Millionen Kilometer entfernt. Hier die Version mit einem vergrößerten Ausschnitt mit Erde und Mond. So ungefähr werden spätere Astronauten auf dem Mars ihre Heimatwelt aus der Ferne sehen können.
Noch ein Bild von Erde und Mond aus dem Marsorbit. Deutlich besser als die Marsrover mit ihren kleinen Kameras ist der Mars Reconnaissance Orbiter MRO mit der HiRISE-Kamera bestückt, einem 50 cm durchmessenden Teleskop mit 12 m Brennweite. Mit HiRISE kann der MRO die Marsoberfläche mit 30 cm Auflösung auf einem Blickfeld von 1,2 km Breite vom Marsorbit aus ablichten. Am 3. Oktober 2007 nahm HiRISE jedoch die Erde aufs Korn und lieferte dieses spektakuläre Bild aus 142 Millionen Kilometer Entfernung:
Man müsste als Mars-Astro-Amateur schon eine gute Ausrüstung einsetzen, um ein solches Bild von Erde und Mond zu erstellen.
Am 19. Juli 2013 war der Tag, als die ganze Erde lächelte – jedenfalls stellte sich Cassini-Bildgebungsteam-Leiterin Carolyn Porco dies so vor und betrieb vor der Erstellung des geplanten Bildes ein wenig Publicity und ließ über die Medien und die Organisation Astronomers without Borders Events organisieren, um auf ihr Projekt aufmerksam zu machen. Denn an diesem Tag befand sich die Cassini Sonde von der Erde aus gesehen 1,2 Millionen km weit hinter dem Saturn, der die Sonne aus ihrer Sicht verfinstern würde. Bei dem geplanten Gegenlichtfoto – solche sind besonders geeignet, um neue Ringe zu entdecken – würde die Erde wie auch Mars und Venus dicht neben Saturn mit auf dem Bild zu sehen sein. Die Menschen auf der Erde sollten genau zur Zeit, zu der ihr Licht nach 1h20m Laufzeit beim Saturn einträfe, der Sonde zuwinken. Diese befand sich 1,44 Milliarden km von der Erde entfernt, 9,5 Mal so weit wie die Erde von der Sonne. Das Bild wurde aus 141 von insgeamt 323 Einzelaufnahmen zusammengesetzt und überblickt ein Blickfeld von 652.000 km Breite um Saturn herum. Hier ist das Ergebnis:
Selbst in der 9000 Pixel breiten Vollversion des Bildes ist die Erde nur ein kleines Pünktchen und der Mond gar nicht zu sehen, daher noch ein Ausschnitt aus dem Teilbild, das die beiden enthält, 5-fach gezoomt. Man sieht den Farbkontrast der beiden Objekte, wobei dem Mond wieder mit einem Kontrastboost unter die Arme gegriffen wurde.
Von noch weiter weg entstand schließlich das “Pale Blue Dot”-Bild (“blasser blauer Punkt [im All]”), das am 14. Februar 1990 von der Raumsonde Voyager 1 aufgenommen wurde und anlässlich seines 30. Geburtstags diesen Monat noch einmal überarbeitet neu veröffentlicht worden war. Es geht auf eine Idee von Carl Sagan zurück, der als letzte Aufnahmen von Voyager vor der endgültigen Abschaltung ihrer Kamera ein Familienportait der Planeten des Sonnensystems aufnehmen lassen wollte, natürlich vor allem auch von der Erde. Bis auf Merkur und Pluto (damals noch Planet) gelang das auch mit insgesamt 60 Einzelbildern, aufgenommen aus 6 Milliarden km Entfernung, 40 Astronomischen Einheiten oder etwa so weit wie Plutos mittlere Entfernung von der Sonne. Da die Erde so nahe an der Sonne stand, blendete diese – immer noch so hell wie 250 Vollmonde – die Kamera, obwohl sie gar nicht im Blickfeld war, und verursachte Reflexe im Bild, unter einem von denen die nur 4m dunkle Erde im Originalbild kaum zu erkennen ist. Zum Vergleich: Alkor, das “Reiterlein” neben Mizar, dem mittleren Deichselstern im großen Wagen, hat eben jene Helligkeit. In der Überarbeitung wurden modernere Bildverarbeitungsmethoden angewendet, um das Pixel mit der Erde besser hervor zu heben. Hier das Ergebnis:
Dies ist das bislang fernste von der Erde aufgenommene Foto – die Voyager Sonde ist längst schon mehr als dreimal so weit von der Erde entfernt.
Ich möchte den Artikel mit Sagans Worten zum Original-Blue-Dot-Bild (1994) beenden, denn diesen ist nichts hinzu zu fügen:
]]>Schau’ noch einmal auf diesen Punkt. Das ist hier. Das ist unser Zuhause. Das sind wir. Darauf haben alle, die du liebst, alle, die du kennst, alle, von denen du je gehört hast, alle Menschen, die es jemals gab, ihr Leben verbracht. All unsere Freude und all unser Leid, Tausende von stolzen Religionen, Ideologien und Wirtschaftsdoktrinen, jeder Jäger und jede Jägerin, jeder Held und jeder Feigling, jeder Schöpfer und jeder Zerstörer der Zivilisation, jeder König und jeder Bauer, jedes verliebte junge Paar, jede Mutter und jeder Vater, jedes hoffnungsfrohe Kind, jeder Erfinder und jeder Wissenschaftler, jeder Moralprediger, jeder korrupte Politiker, jeder “Superstar”, jeder “große Führer”, jeder Heilige und jeder Sünder in der Geschichte unserer Spezies lebten dort – auf einem Staubkorn, das in einem Sonnenstrahl schwebt. […]
Es heißt, dass die Astronomie bescheiden mache und den Charakter bilde. Es gibt vielleicht keine bessere Verdeutlichung der Torheit menschlicher Überheblichkeit als dieses ferne Bild unserer winzigen Welt. Für mich unterstreicht es unsere Verantwortung, freundlich miteinander umzugehen und den blassblauen Punkt, die einzige Heimat, die wir je kannten, zu bewahren und zu pflegen.
Seit meinem ersten Artikel über Beteigeuze sind nun schon 8 Wochen vergangen. Damals war Beteigeuze noch ca. 1,2m-1,3m hell auf rekordverdächtiger Talfahrt, aber immer noch erkennbar heller als der rechte Schulterstern Bellatrix, der 1,6m hell ist. Mittlerweile ist die Helligkeit von Beteigeuze ebenfalls auf 1,6m gefallen, er ist fast exakt gleich hell wie Bellatrix. Der direkte Vergleich ist wegen der deutlich verschiedenen Farben und der vergleichsweise hohen Helligkeiten der Sterne nicht einfach – meiner Beobachtung nach hilft etwas Lichtverschmutzung, die den Hintergrund aufhellt. Vermutlich verkleinert dies den Pupillendurchmesser und die beiden Sterne erscheinen etwas dunkler, was den Vergleich erleichtert. Man darf den Stern auch nicht zu lange fixieren, sonst erscheint er heller wegen des Purkinje-Effekts, denn die Helligkeit des Sterns reizt die farbsehenden Zapfenzellen des Auges, und im roten Bereich ist Beteigeuze heller als im Blauen, dem Bereich in dem die für die Nachtsicht optimierten Stäbchenzellen am empfindlichsten sind.
Hier zwei aktuelle Lichtkurven geplottet ab Anfang Dezember bis zum 15. Februar. Die schwarze Linie entspricht den visuellen Schätzungen menschlicher Beobachter, die grüne Linie gibt photometrische Messungen (auf der Basis von Digitalfotos) durch ein V-Filter aus dem Johnson UBV-Farbsystem wieder. Die Werte sind jeweils über 5 Tage gemittelt (Kreise). Dass die V-Messungen fast immer ein wenig unterhalb der visuellen Werte verlaufen, mag am oben beschriebenen Purkinje-Effekt liegen, denn das V-Filter hat sein Maximum im Grünen und auch dort ist Beteigeuze dunkler als im Roten. Man erkennt auch, dass sich die Helligkeitsabnahme zum Februar hin verlangsamt hat und möglicherweise dem Minimum nahe ist, obwohl es am Ende noch einmal einen kleinen Knick nach unten gibt – der Kurvengenerator zeigt je nach gewähltem Startdatum und Mittelungsperiode nicht immer den selben Trend am Ende, der letzte Punkt ist stets mit Vorsicht zu genießen. Derzeit liegt die Kurve bei 35% der normalen Helligkeit von Beteigeuze.
Der nächste Plot zeigt fast die gesamte in der AAVSO-Datenbank verfügbare Lichtkurve seit Beginn des vergangenen Jahrhunderts. Mit den Bordmitteln der Webseite lässt sich die Darstellung leider nicht übersichtlicher machen. Dennoch ist offensichtlich, dass das derzeitige Minimum ganz rechts das tiefste im gesamten Zeitraum ist – so dunkel war der Stern in den vergangenen 120 Jahren noch nie!
Im Astronomer’s Telegram #13439 [1] berichten Edward Guinan und Richard Wasatonic von der Villanova-Universität bei Philadelphia, Pennsylvania, USA, die den Stern seit 40 Jahren beobachten, davon, dass laut ihren Messungen die Gesamtleuchtkraft des Sterns seit September um 23% gefallen sei (0,28 Größenklassen), die Temperatur um 85 K gesunken und aufgrund dieser Werte der Radius um 8% abgenommen habe (ausgehend von der nicht ganz korrekten Annahme, die Sternenscheibe sei kreisförmig und gleichförmig hell, siehe unten).
Beim normalen ca. 420- bis 430-Tage-Zyklus schwankt die Helligkeit aufgrund von Absorption in der Atmosphäre des Sterns (Kappa-Effekt, siehe ersten Artikel), wie bei regulären periodischen Veränderlichen, allerdings normalerweise nur bis auf 0,9m Mindesthelligkeit. Das derzeitige Minimum fällt auf jeden Fall aus dem Rahmen. Falls es sich bei seinem Minimum nur um ein besonders tiefes des aktuellen 420-Tage-Zyklus handelt, dann sollte die Helligkeit laut Guinan und Wasatonic ab der 3. Februarwoche +/- 1 Woche wieder ansteigen. Dann wäre das Minimum also innerhalb der nächsten zwei Wochen erreicht. Sollte die Helligkeit jedoch weiter sinken, dann haben wir es mit einem anderen Phänomen zu tun.
Die folgende Computersimulation von Dr. Bernd Freytag aus dem Jahr 2012, damals Centre de Recherche Astronomique de Lyon – Ecole Normale Supérieure (CRAL-ENS), zeigt, wie die Oberfläche des Sterns aufgrund von Konvektion (dem Emporsteigen heißen Gases aus dem Inneren) wie dicke Brühe in einem heißen Kessel wabert [3].
Die längere ca. 2100-tägige sekundäre Pulsationsperiode des Sterns wird durch seine riesigen Konvektionszellen verursacht. Arturo Lopez Ariste et al. [2] haben durch Analyse der Polarisation des Lichts auf eine typische Zellengröße von 0,6 Sternradien geschlossen – und das bei einem Sternradius in der Größenordnung des Radius der Jupiterbahn! Aufsteigendes Gas ist hell und absinkendes ist dunkel, und das Aufsteigen und Absinken, das sich auch an der Radialgeschwindigkeit im Spektrum erkennen lässt, wechselt sich ab im Rahmen der sekundären Pulsationsperiode. Das pulsierende Plasma ist mit wechselnden Polarisationsmustern des Lichts verbunden: Licht aufsteigenden Gases ist eher linear, das absinkenden Gases eher zirkular polarisiert, so dass sich aus der wechselnden Polarisation im Verbund mit der Radialgeschwindigkeit die sich verändernden Konvektionsmuster ableiten lassen. Die Polarisation wird von wechselnden Magnetfeldern verursacht, die vom strömenden Plasma erzeugt werden. Die oberflächliche Abkühlung (dunkle Zonen) könnte diesmal im Durchschnitt über die Sternenscheibe einfach besonders stark ausgefallen sein.
Dazu passt nun das am Freitag veröffentlichte Bild der ESO [4]. Es wurde von einem Team um Miguel Montargès vom Institut für Astronomie der katholischen Universität Löwen, Belgien, mit dem SPHERE-Instrument (Spectro-Polarimetric High-contrast Exoplanet REsearch instrument) am VLT im sichtbaren Licht aufgenommen. Eigentlich handelt es sich bei SPHERE um ein Gerät zur direkten Abbildung von Exoplaneten, das einerseits dank eigener integrierter adaptiver Optik eine hervorragende Auflösung von 19 Millibogensekunden (milliarcseconds, mas) im Visuellen hat – das entspricht 1/90.000 des Monddurchmessers und 39 m Auflösung auf dem Mond. Andererseits kann es polarisierte Anteile aus dem normalerweise unpolarisierten Licht eines Sterns ausfiltern – das von Planeten reflektierte Licht ist oft polarisiert und lässt sich so besser vom Licht des Sterns trennen.Da nun aber die Konvektionszellen von Beteigeuze ebenfalls polarisiert sind, lässt sich mit der hervorragenden Auflösung von SPHERE ein direktes Bild der Oberfläche des Sterns im Visuellen aufnehmen, das die örtlichen Helligkeitsunterschiede des Sterns zeigt (Titelbild). Dabei handelt es sich noch um ein Bild vom vergangenen Dezember, als die Verdunklung noch weniger extrem als derzeit war. Die Sternenscheibe durchmisst nur 50 mas und ist dennoch nach der Sonne die größte für uns sichtbare Sternenoberfläche.
Zufälligerweise hatte das Montargès-Team vor einem Jahr schon einmal ein Bild von Beteigeuze mit SPHERE aufgenommen, und die beiden Bilder zeigen nun im direkten Vergleich die dramatische Veränderung des Sterns:
Man sieht die Verdunklung des damals noch 1,3m hellen Sterns deutlich – die helle, dichte Fläche hat sich auf den oberen Randbereich zurück gezogen und die Sternenscheibe ist abgeflachter und damit kleiner als zuvor. Noch nicht klar ist, ob man hier nun konvektionsbedingt kühlere Bereiche der Sternoberfläche sieht, oder ob die Sternoberfläche teilweise verdeckt ist. Damit zur nächsten möglichen Erklärung.
Sieht man sich die Lichtkurve im Infraroten an (leider sind bei der AAVSO erst Daten ab dem 7. Januar verfügbar), so erkennt man zunächst an der Beschriftung der y-Achse, dass der Stern hier insgesamt weitaus heller ist als im Visuellen: -3,1m im J-Band (1200 nm) und sogar -3,9m im H-Band (1600 nm). Bei einer visuellen Helligkeit von gewöhnlich +0,4m bedeutet dies die 25- bzw. 50-fache Helligkeit im J- bzw. H-Band. Außerdem zeigt die Infrarot-Helligkeit kaum Schwankungen, die Werte streuen ein bisschen innerhalb von 1/10 Größenklassen. Das heißt, die Verdunklung findet hauptsächlich im Visuellen statt, das sehr empfindlich auf Temperaturschwankungen reagiert. Die Gesamtleuchtkraft (bolometrische Helligkeit) hat sich kaum verändert.
Dies deutet darauf hin, dass das Licht des Sterns absorbiert und als Wärmestrahlung wieder abgestrahlt wird. Dies könnte sowohl von Partikeln und Molekülen in der Sternatmosphäre verursacht werden, als auch von Gas und Staub, die der Stern gerade im Begriff ist auszustoßen, denn die tiefe Konvektion des Sterns reicht phasenweise (während sogenannter “dredge-ups“) bis in den Bereich der Schalen um den Kern, wo Fusion stattfindet, und so kommen Atome wie Silizium und Aluminium an die kühle Oberfläche, wo sie sich mit Sauerstoff zu Siliziummonoxid (einem Vorläufermolekül von Quarz) und Aluminiumoxid (Tonerde) verbinden. Auch Wassermoleküle entstehen in der Sternatmosphäre. Der vom Magnetfeld des Sterns angetriebene starke Sternwind bläst diese Moleküle in den Raum, wo sie sich zu größeren Partikeln zusammenfinden, die den Stern als Wolken umhüllen. In seiner Nähe kurz nach dem Ausstoß können sie dicht genug sein, sein Licht abzuschwächen.
Welche der beiden Erklärungen zutrifft, wird sich bald zeigen: dauert die Verdunklung über den Februar hinaus an und nimmt sie danach nur langsam ab, dann dürfte es eher Staub sein, der sich vor dem Stern in unserer Sichtlinie befindet und sich langsam ausdünnt. Nimmt die Helligkeit ab Ende Februar wieder wie bei anderen Minima binnen weniger Wochen zu, dann dürfte es sich um absorbierende Moleküle handeln, die beim Emporquellen heißen Gases wieder zerbrechen und transparent werden. Dies sollte auch im Spektrum erkennbar sein.
Das Team um Montargès hat weitere Beobachtungszeit auf dem fliegenden Observatorium SOFIA der NASA und DLR gebucht, mit dem Spektroskopie im mittleren Infrarot vorgenommen werden kann, um z.B. die Bewegung von Staub auf uns zu messen zu können. Auch andere Teams planen Beobachtungen mit dem Hubble-Weltraumteleskop, im Radiobereich bei 22 und 15 GHz mit den britischen Mikrowellen-Interferometrie-Radioteleskop-Netzen e-MERLIN und AMI, sowie mit im Optischen mit SPHERE am VLT Interferometer (VLTI) und dem CHARA-Interferometer in Georgia [6]. Wie schon im ersten Artikel vorausgesagt stürzen sich also derzeit die Astronomen auf Beteigeuze, um ihm sein Geheimnis um die dramatische Verdunklung zu entreißen. Nur die von manchen erhoffte Supernova wird aller Voraussicht nach vertagt und noch ein paar zehntausend Jahre auf sich warten lassen. Aber Orion wäre nach der kurzen Lightshow ohne Beteigeuze auch nicht mehr das, was er mal war. Vielleicht spendiert uns Mutter Galaxis ja zum Trost eine andere Supernova; überfällig wäre sie schon lange.
[1] Edward Guinan, “Betelgeuse Updates“, The Astronomer’s Telegram ATel #13439, 01. Februar 2020.
[2] Arturo López Ariste, P. Mathias et al., “Convective cells in Betelgeuse: imaging through spectropolarimetry”, Astronomy & Astrophysics, Vol. 620, A199, Dezember 2018; arXiv:1811.10362.
[3] Bernd Freytag, “Numerical simulations of a red supergiant“, August 2012.
[4] ESO photo release eso2003, “ESO Telescope Sees Surface of Dim Betelgeuse“, 14. Februar 2020.
[5] Rich Roberts, “Star of the Month – February 2020 – Alpha Ori“, AAVSO Homepage, 30. Januar 2020.
[6] Bob King, “Is Betelgeuse Approaching a Crossroads?“, Sky & Telescope, 14. Februar 2020.
]]>
Wenn man die Expansion des Universums über kosmologische Zeiträume bestimmen will, braucht man ihr dabei eigentlich nur zuzuschauen. Je weiter man in die Ferne blickt, desto weiter blickt man auch in die Vergangenheit und so kann man aus der Bewegung der Galaxien in verschiedenen Entfernungen die Expansion rekonstruieren. Wenn man eine Kurve auftragen möchte, wie sich die Geschwindigkeit der Expansion über das Alter des Universums geändert hat, muss man die Rotverschiebung verschieden weit entfernter Galaxien und ihre Entfernung messen – die Rotverschiebung ergibt die Expansionsgeschwindigkeit und über die Entfernung kann man auf die Zeit schließen, wann sich das Licht auf den Weg zu uns machte. Über die Friedmann-Lemaître-Gleichung, welche die Entwicklung des Universums auf der Basis der Allgemeinen Relativitätstheorie beschreibt, kann man dann berechnen, welche Anteile an Materie und eben Dunkler Energie die beobachteten entfernungsabhängigen Rotverschiebungen am besten wiedergeben.
Die Rotverschiebung ist sehr leicht zu messen: man muss lediglich die Lage der Wasserstofflinien im Spektrum der jeweiligen Galaxie bestimmen und wie weit sie gegenüber ihren Laborwellenlängen zum Roten hin verschoben sind. Weit schwieriger ist die Bestimmung der Entfernung. Perlmutter und Riess bedienten sich dazu der hellsten bekannten Standardkerzen, eines bestimmten Typs von Supernova-Explosionen, dem Typus Ia.
Ia-Supernovae sind nicht die üblichen Kernkollaps-Supernovae am Lebensende von Überriesen, bei denen Neutronensterne oder Schwarze Löcher entstehen, sondern das Standardmodell ist ein Weißer Zwerg, also der Überrest eines sonnenähnlichen Sterns mittlerer Masse, der von einem engen Begleiter Materie absaugt, der am Ende seines Lebens zum Roten Riesen angeschwollen ist (eine Phase, die der Weiße Zwerg schon hinter sich hat). Der Riese hat sich so weit ausgedehnt, dass ein Teil seines Gases vom nahen Weißen Zwerg stärker angezogen wird als von ihm selbst, und so kann Materie hinüber fließen. Wenn der Weiße Zwerg auf diese Weise so viel Ballast eingesackt hat, dass er die nach ihrem Entdecker benannte Chandrasekhar-Grenze von 1,45 Sonnenmassen überschreitet, dann kollabiert er und es zerreisst ihn komplett in der folgenden Supernova-Explosion.
Diese unterscheidet sich wesentlich von den üblichen Kernkollaps-Supernovae (Typ II), da ihr Spektrum praktisch frei von Wasserstoff- und Heliumlinien ist und statt dessen starke Siliziumlinien zeigt – ein Weißer Zwerg hat bis auf das zugeflossene Material seine Wasserstoff-Helium-Hülle schon lange vorher ins All gepustet. Da die Typ-Ia-Explosionen alle bei der gleichen Masse stattfinden, ähneln sie sich stark und sind demgemäß gleich hell mit ähnlicher Lichtkurve, deshalb taugen sie als Standardkerzen. Und sie sind über kosmologische Distanzen zu sehen. Aus dem Vergleich der beobachteten Helligkeit mit der bekannten Leuchtkraft, die man anhand näherer Ia-Supernovae kalibrieren konnte, deren Entfernung mit anderen Methoden (v.a. Cepheiden) bestimmt wurde, kann man dann auf die Entfernung schließen. Und somit folgerten Perlmutter und Riess, dass sich die Expansion des Universums entgegen allen Erwartungen beschleunigte, wofür sie (wie auch Brian Schmidt aus Riess’ Gruppe) 2011 den Nobelpreis erhielten. Der als “Dunkle Energie” bezeichnete Effekt ist dabei bisher weitgehend unerklärt – zwar ergibt sich aus der Allgemeinen Relativitätstheorie die Möglichkeit einer Vakuumenergie, die den leeren Raum expandieren lässt, aber jegliche bisherigen Versuche, sie in der nötigen Größenordnung aus der Teilchenphysik abzuleiten, scheiterten kolossal.
Nun haben koreanische Forscher von den Universitäten in Seoul und Lyon untersucht, ob Ia-Supernovae wirklich alle gleich hell sind und die Entfernungsmessungen mit ihnen genau genug, um die Dunkle Energie zu begründen.
Denn die Supernovae könnten einer Entwicklung unterliegen – in der Frühzeit des Universums gab es weniger Metalle als heute, und aus früheren Arbeiten schien hervor zu gehen, dass der Metallgehalt einen Einfluss auf die Helligkeit der Supernova haben könnte. Supernovae in metallarmen Galaxien könnten bis zu 20% leuchtschwächer sein als solche in metallreichen Galaxien. Auch die Galaxienmasse und die Sternentstehungsrate in der jeweiligen Galaxie schienen einen Einfluss auf die Leuchtkraft zu haben. Die Koreaner, deren Arbeit im Januar 2020 im Astrophysical Journal erschien, schauten sie sich 32 Ia-Supernovae in relativ nahen Galaxien an und bestimmten Ihre Leuchtkräfte in Abhängigkeit vom Alter der sie umgebenden Sternenpopulation, des Metallgehalts und der Sternentstehungsrate.
Die Forscher fanden, dass es eine klare (Konfidenz > 99,5%) Abhängigkeit der Helligkeit der Supernovae vom Alter der Sternenpopulation ihrer beherbergenden Galaxien gibt. Je älter die Galaxien, desto heller die Supernovae.Nun besagt die Theorie der Dunklen Energie, dass das Universum zu Beginn langsamer expandierte und ab ca. 7 Milliarden Jahren zunehmend schneller. Die Rotverschiebung z plus 1 ergibt den Faktor a (auch Skalenfaktor genannt), um den das Universum in der Zeit gewachsen ist, während das Licht einer Supernova, die wir heute mit Rotverschiebung z sehen, unterwegs zu uns war. Mit Dunkler Energie wuchs das Universum zunächst langsamer als heute, das heißt es dauerte länger, bis es um einen bestimmten Faktor a gewachsen war, als dies ohne Dunkle Energie bei konstanter Expansion der Fall gewesen wäre. Das Licht einer Supernova mit einer bestimmten Rotverschiebung z=a-1 bräuchte also mit Dunkler Energie länger zu uns also ohne diese. Länger unterwegs bedeutet aber auch, dass die Strecke, die das Licht überwinden musste (Lichtlaufzeit mal Lichtgeschwindigkeit) mit Dunkler Energie größer ist (Obacht, diese Strecke ist weder gleich der damaligen noch der heutigen Entfernung der Supernova, sondern liegt dazwischen). Das heißt, mit Dunkler Energie erscheint eine Supernova für eine gegebene Rotverschiebung dunkler als ohne Dunkle Energie.
Wenn nun aber Supernovae in jungen (also fernen) Galaxien per se dunkler sind als in älteren, dann würden sie Galaxien im frühen, fernen Universum weiter entfernt erscheinen lassen, als sie es sind. Dies würde den Effekt der Dunklen Energie vortäuschen. Reichte die Helligkeitsentwicklung der Supernovae aber auch quantitativ dafür aus, den Effekt von 73% Anteil an Dunkler Energie und 27% Dunkler Materie, wie ihn das aktuell gültige ΛCDM-Modell der Dunklen Energie Λ plus kalter dunkler Materie (Cold Dark Matter) CDM vorsieht, komplett vorzutäuschen?
Die obigen Grafiken bejahen dies. ΛCDM entspricht der schwarzen durchgezogenen Linie, während die grüne und rote Linie eine Altersentwicklung der Helligkeit wie in den Bildern zuvor annehmen. Die blauen Punkte sind Supernovamessungen aus einer früheren Arbeit. Die Werte passen recht gut zueinander. Nimmt man im zweiten Bild noch das Fehlerintervall hinzu, so fällt das ΛCDM-Modell auf jeden Fall in den Bereich von 68% Konfidenz. Das Modell würde also die Supernova-Helligkeiten ganz ohne Dunkle Energie erklären können – oder zumindest mit wesentlich weniger. Also gibt es gar keine Dunkle Energie?
Am 29. Januar wurde eine eingereichte Arbeit eines britisch-kanadisch-norwegischen Teams um Seshadri Nadathur [2] auf arXiv veröffentlicht, in der die Expansionsparameter des Universums auf vollkommen andere Weise und mit noch größerer Präzision als durch Supernovae bestimmt wurden. In meiner Urknall-Reihe hatte ich bereits die Baryonischen Akustischen Oszillationen (BAOs) vorgestellt – kurz gesagt handelt es sich um Strukturen, die im Plasma des Feuerballs bis zu 380000 Jahre nach dem Urknall durch akustische Schwingungen der baryonischen Materie entstanden, und die, als das Plasma zu neutralem Gas rekombinierte, transparent wurde und die kosmische Hintergrundstrahlung auf den Weg schickte, als Orte lokal erhöhter Dichte und Temperatur in der Hintergrundstrahlung eingefroren wurden. Die absolute Größe dieser Strukturen kann man berechnen, sie bilden ein Standardlineal.
Von da an wuchsen sie mit der Expansion des Universums und durchmessen heute typischerweise etwa 500 Millionen Lichtjahre. Sie bildeten das Gerüst, aus dem die heutigen Filamente und Voids (Leerräume) der Galaxienverteilung hervorgingen. Man denke sich die Voids dabei als kugelförmige Leerräume mit Galaxien am Außenrand. Wenn man nun die Durchmesser der Voids für verschiedene Entfernungen bestimmt, kann man daraus ihre Größenzunahme seit der Rekombination zur damaligen Zeit bestimmen und erhält so eine Übersicht über das Wachstum des Universums zu verschiedenen Zeiten.
Das Problem ist dabei – die Entfernung kennt man ja gerade nicht! Was man messen kann, ist die Rotverschiebung z für die Galaxien am nahen und fernen Ende eines Voids sowie seinen Winkeldurchmesser am Himmel. Da aber Durchmesser in Breite und Tiefe unterschiedlich mit den Parametern ΩM und ΩΛ wachsen (also den Dichten für Materie und Dunkle Energie), so kann man über die Friedmann-Lemaître-Gleichung genau die Kombinationen der Parameter ableiten, für welche das ΛCDM-Modell kugelförmige Voids auf der Basis der gemessenen Winkel und z-Werte gegenüberliegender Void-Enden ergibt. Diese Methode wird im Folgenden den Autoren gemäß mit “BAO” bezeichnet.
Man kann das Ergebnis noch um einen Faktor 4 in der Genauigkeit verbessern, wenn man die Eigenbewegungen der Galaxien von den Void-Zentren weg und hin zu den umgebenden Filamenten modelliert, denn diese verfälschen die z-Messungen: die Voids erscheinen in der Tiefe gestreckt, denn Galaxien, die von der Erde aus gesehen näher als das Void-Zentrum liegen, bewegen sich auf uns zu, ihre Rotverschiebung wird verkleinert, der nahe Void-Rand erscheint näher, während Galaxien, die hinter dem Void-Zentrum liegen, sich von uns entfernen, ihre Rotverschiebung wird vergrößert und der ferne Void-Rand erscheint weiter weg. Bei der Tiefenverteilung der Galaxien ist es genau umgekehrt, diese erscheint gestaucht [4]. Die Eigenbewegungen lassen sich aber modellieren und herausrechnen, so dass man korrigierte Tiefendurchmesser für die Voids erhält. Diese Methode wird im Folgenden mit “Voids” bezeichnet.
Die Analyse der BAOs und Voids beruht dabei auf dem im Rahmen des Sloan Digital Sky Surveys durchgeführten BOSS-Projekt (Baryon Oscillation Spectroscopic Survey), das bis 2014 die Position und Rotverschiebungen von knapp 1,4 Millionen Galaxien und fast 300.000 Quasaren ermittelt hat.
Für sehr große z wird das Datenmaterial aufgrund der in der Ferne immer lichtschwächer werdenden Galaxien zwangsläufig dünner, aber für diesen Bereich stehen Messungen das “Lyman-Alpha-Waldes” zur Verfügung – dabei handelt es sich um Absorptionslinien von neutralem, nicht selbst leuchtendem Wasserstoffgas, welches von fernen Quasaren durchleuchtet wird. Je nach der Entfernung sind diese Lyman-Alpha-Linien verschieden kosmologisch rotverschoben. Das Gas umgibt Voids und anhand der Häufung der Linien bei bestimmten Rotverschiebungen folgt deren Tiefenausdehnung in Abhängigkeit von z.
Und was kommt heraus? Zunächst ein spannendes Ergebnis für den Wert der Hubble-Konstanten H0, also der heutigen Expansionsgeschwindigkeit des Universums:
Die grauen senkrechten Balken sind Bestimmungen von H0 auf der Basis von Supernovae Ia, welche Adam Riess 2019 mit Hilfe des Hubble-Weltraumteleskops an Cepheiden in der Magellanschen Wolke neu kalibriert hat. Sie ergeben einen Wert von 74,03±1,42 km/s/Mpc, der absolut unverträglich ist mit dem Wert aus den Messungen der Hintergrundstrahlung durch die Sonde Planck (violette Linie) – im Artikel Hubble in Trouble hatte ich die Diskrepanz schon vorgestellt. Die Messungen aus der Arbeit [2] zeigen in Grün Messungen von Galaxien für z < 2. BBN bezieht sich auf die Theorie der “Big Bang Nukleosynthese”, die zur Bestimmung der Baryonen-Teilchendichte verwendet wurde, um von Messungen der Hintergrundstrahlung unabhängig zu sein. Hier ergibt sich ein Wert von 73,7±3,9 km/s/Mpc, der mit dem Riess-Ergebnis verträglich ist, aber so stark streut, dass er auch Planck so eben noch mit einschließt. Nimmt man die Void-Messungen mit hinzu (orange), wird der Wert kleiner und genauer (72,3±1,9 km/s/Mpc), er passt noch gut zu Riess, aber nicht mehr gut zu Planck. Kommen schließlich noch die Werte für große z aus dem Lyman-Alpha-Wald hinzu, wird H0 mit 69,0±1,2 km/s/Mpc noch einmal kleiner und ist wieder besser mit Planck verträglich, aber nicht mehr mit Riess. Außerdem zieht es die Materiedichte zunehmend zu kleineren Werten. Eine Entwicklung der Hubble-Konstanten!Wie lässt diese sich erklären? Z.B. indem man die Annahme, dass das Weltall flach sein muss (also ΩΛ + ΩM = 1 gelten muss) lockert. Das nächste Bild zeigt den aus den Messungen folgenden möglichen Bereich für die beiden Parameter:
Das blaue Oval zeigt Supernova-Ia-Messungen für kleinere z, die am besten zum bekannten flachen ΛCDM-Modell passen, aber auch Werte oberhalb der Diagonalen (positiv gekrümmtes, geschlossenes Universum) und unterhalb derselben (negativ gekrümmtes, offenes Universum) zulassen. Die BAO-Messungen (grün) schränken den Bereich der Materiedichte etwas stärker ein und favorisieren ein offenes Universum Die Planck-Messungen (violett) favorisieren ein geschlossenes Universum mit einer Materiedichte um 0,5 und einer Dunklen Energiedichte von 0,56, sind aber noch soeben verträglich mit einem flachen Universum. Die Kombination aus BAOs und Voids (orange) spricht eher für ein offenes Universum, dessen Dunkle Energiedichte bei 0,6±0,058 liegt. Das Ergebnis ist aber auch noch innerhalb 1σ (Konfidenz 68%) mit einem flachen Universum verträglich – wie alle anderen auch. Es ist die – laut Autoren – bis dato genaueste Bestimmung der Dichte der Dunklen Energie. Und sie ist vollkommen unabhängig von Supernova-Messungen.
Die Betrachtung von Voids alleine verlangt schon mit 99,99% Konfidenz, dass die Dunkle Energie ΩΛ nicht Null sein kann, denn die graue Zone verläuft nirgends in der Nähe von 0. Das Konfidenzintervall um die BAO+Void-Messungen liegt laut den Autoren 10σ von einem Universum ohne Dunkle Energie entfernt. Das entspricht einer Konfidenz von 99,999999999999999999999% (!) – womit das Ergebnis der ersten hier betrachteten Arbeit in der Luft zerfetzt wird. Das Ergebnis der koreanischen Forscher ist schon deshalb suspekt, weil ein Universum ohne Dunkle Energie jünger sein müsste, es wäre keine 11 Milliarden Jahre alt und damit im Konflikt mit dem Alter der ältesten Sterne. Adam Riess hat sich zu dieser Arbeit schon kritisch geäußert [3] und bemerkt, dass sie zum einen teils auf Galaxienalter von mehr als 15 Milliarden Jahren kommt (was erst Recht im Konflikt mit einem Universum ohne Dunkle Energie steht) und dass Messungen an weitaus größeren Stichproben von Supernovae den Ergebnissen widersprächen.
Die BAO- und Void-Messungen der zweiten Arbeit lassen rein messtechnisch zwar ein Universum mit einer negativen Krümmung zu, das etwas jünger wäre als ein flaches ΛCDM Universum, aber keinesfalls so viel jünger wie ohne Dunkle Energie. Es gibt theoretische Gründe, von einem flachen Universum auszugehen, und dieses Ergebnis ist im Rahmen der Genauigkeit der BAO-Void-Messungen noch drin. Allerdings ist interessant, dass die Arbeit [2] für große z eine Entwicklung der Materiedichten und Hubble-Konstanten sieht. Man darf gespannt sein, ob sich dies bestätigt und ob es vielleicht eine Fährte zu neuer Physik ist.
[1] Yijung Kang, Young-Wook Lee et al., “Early-Type Host Galaxies of Type Ia Supernovae. II. Evidence for Luminosity Evolution in Supernova Cosmology“, The Astrophysical Journal, Volume 889, Number 1, 20. Januar 2020; arXiv:1912.04903v2.
[2] Seshadri Nadathur, Will J. Percival et al., “Testing low-redshift cosmic acceleration with large-scale structure”, eingereicht 29. Januar 2020, arXiv:2001.11044.
[3] Chelsea Gohd, “Has Dark Energy Been Debunked? Probably Not.“, Space.com, 09. Januar 2020.
[4] Seshadri Nadathur, Paul M. Carter et al., “Beyond BAO: improving cosmological constraints from BOSS with measurement ofthe void-galaxy cross-correlation”, Physical Review D 100, 023504, 09. Juli 2019; arXiv:1904.01030.
]]>
Cirruswolken bestehen aus kleinen Eiskristallen, die am oberen Rand der Troposphäre zwischen 8000 und 12000 m Höhe schweben, wo die Verkehrsflugzeuge auf Reiseflughöhe unterwegs sind. Die Wolken entstehen, wenn feuchte Luft in große Höhen getragen wird, und Tiefdruckgebiete zeichnen sich dadurch aus, dass in ihnen die Luft aufsteigt. Deswegen ist der Luftdruck am Boden dann tiefer – die aufsteigende Luft senkt das Gewicht der über dem Boden liegenden Luftmasse. In der dünnen, klaren Luft dort oben bei Temperaturen von -20° bis -30°C ist der Wasserdampf in der Luft unterkühlt und gefriert sofort, wenn sich ein Kristallisationskeim findet, etwa ein Staubteilchen oder ein schon existierender Eiskristall. Auch Kondensstreifen von Flugzeugen entstehen so, denn die Abgase enthalten Wasser und Rußteilchen aus der Verbrennung; wenn das Abgas abkühlt, kristallisiert das Wasser an den Rußteilchen zu Eis. Normalerweise verdunstet das Eis in der trockenen Höhenluft danach rasch wieder. Bei einer Cirrus-Wetterlage können die Kondensstreifen jedoch zu breiten Cirruswolken wachsen, die den ganzen Himmel überspannen.
Aufgrund der dreieckigen Form der Wassermoleküle – die Wasserstoffatome schließen beiderseits des Sauerstoffatoms einen Winkel von 104,5° ein – gruppieren sich die Moleküle im Eiskristall zu sechseckigen Strukturen. Der Winkel zwischen den Wasserstoffatomen ist nahe am 120°-Winkel der Ecken eines Sechsecks – und noch näher am 109,5°-Winkel, der vom Mittelpunkt eines Tetraeders zwischen den Linien zu zwei Eckpunkten hin gebildet wird, so dass der Eiskristall aus Tetraedern zusammengesetzt ist mit den Sauerstoffatomen an den Ecken und in der Mitte der Tetraeder. Blickt man senkrecht zu den Gitterebenen in den Kristall hinein, so erkennt man eine sechseckige Grundstruktur.
Diese Struktur setzt sich bis ins Makroskopische fort. Jede Schneeflocke hat sechs Äste mit zahlreichen Verzweigungen im charakteristischen 120°-Winkel. In den Cirruswolken wachsen jedoch keine fetten Schneeflocken, dazu gibt es zu wenig Wasser, und die Kristalle bleiben klein und simpel. Es entstehen vor allem kleine sechseckige Säulen oder Plättchen, die, weil sie von innen nach außen wachsen, klar und durchsichtig sind. Solche Formen nennt man auch hexagonale Prismen, (griech. hexa = sechs, gonía = Ecke) und das nicht ohne Grund.
Ein Prisma sollte aus dem Physikunterricht noch geläufig sein. Wenn man Licht durch ein Glasprisma schickt, wird es abgelenkt, und da blaues Licht stärker abgelenkt wird als rotes, erhält man bei parallel einfallendem weißen Licht ein Spektrum. Bei einer ausgedehnten Lichtquelle ist das Licht nicht parallel und das Spektrum wird etwas verwischt, weil die Spektren von in unterschiedlichen Winkeln einfallenden Lichtstrahlen gegeneinander versetzt sind und sich überlappen und mischen.
Kappt man an einem Prisma mit dreieckiger Grundfläche die Oberkante, so erhält man eine Trapezsäule, und legt man zwei solcher Trapezsäulen mit der breiten Seite aneinander, bekommt man ein hexagonales Prisma. Dieses bricht also weiterhin das Licht so, wie es das dreieckige Prisma tat, nur hat es mehr Seitenflächen und damit kann es das Licht in noch vielfältigerer Weise ablenken, z.B. gleichzeitig in zwei sich überkreuzenden Richtungen.
Da oben am Himmel schweben also bei Cirrusbewölkung kleine hexagonale Prismen herum und je nach ihrer Form und Orientierung können daraus die sogenannten Halo-Phänomene entstehen. Über 40 verschiedene sind bekannt und benannt, von den ich die drei häufigsten vorstellen will.
Am häufigsten sichtbar ist der 22°-Haloring. Er entsteht dann, wenn die Prismenkristalle kleine Säulen sind, die ungefähr gleich lang wie breit sind, so dass sie in der Luft keine bevorzugte Orientierung haben. Wenn der Himmel großflächig von einer dünnen Cirrostratus-Schicht, einer gleichmäßigen Schichtbewölkung, bedeckt ist, dann erscheint um die Sonne, manchmal auch um den Vollmond, gelegentlich ein Ring mit einem Radius von 22°. Dies ist genau der Winkel, um den die Eiskristalle das Licht ablenken. Das Sonnenlicht (oder Mondlicht) fällt parallel von oben auf die Wolken und passend orientierte Eiskristalle lenken es um 22° von der Einfallsrichtung ab. Einen Beobachter am Erdboden treffen genau die abgelenkten Lichtstrahlen, die von solchen Eiskristallen abgelenkt werden, die sich in 22° Winkelabstand zur Sonne befinden und die zufällig so ausgerichtet sind, dass sie das Licht genau zum Beobachter hin ablenken. Es gibt stets genug Kristalle im Mix, die genau dies tun. Da dieses Szenario kreissymmetrisch zur Sonne im Mittelpunkt ist, entsteht ein Ring um die Sonne herum. Für einen Haloring braucht die Sonne (oder der Mond) dabei nicht tief am Horizont zu stehen. Die Kristalle haben nämlich keine bevorzugte Ausrichtung in Bezug auf den Horizont.
Der 22°-Winkel entsteht, wenn das Licht durch eine der 6 Seitenflächen so eintritt, dass es von innen auf die übernächste Seite trifft. Um genau zu sein sind die 22° nur der minimale Winkel. Kein Licht wird weniger stark abgelenkt, darum ist der Ring innen klar. Wenn das Licht zunehmend flacher eintritt, kann der Winkel bis auf 46° anwachsen, jedoch nimmt die Lichtintensität bei zunehmendem Winkel ab, so dass der Ring nach außen hin verblasst. Da Rot am wenigsten gebrochen wird, hat der Ring oft einen roten Innenrand, aber nach außen verwischen sich die Farben verschiedener Brechungswinkel, so dass der Ring insgesamt überwiegend weiß erscheint.
Es gibt auch einen viel selteneren 46°-Ring, bei dessen Entstehung das Licht schräg in Richtung der Längsachse der Säule durch eine Seite eintritt und an einer der um 90° gegen die Seiten gewinkelten Grundflächen wieder austritt. Der Winkelbereich für den Eintritt ist nur klein und daher findet nicht sehr viel Sonnenlicht diesen Weg und der 46°-Ring ist entsprechend lichtschwach und daher eben auch selten.
Fast ebenso häufig* sind die Parhelia (Singular: Parhelion, von griechisch pará helios, “neben der Sonne”), bei uns Nebensonnen genannt, im Englischen sun dogs (Sonnenhunde) oder mock suns (gefälschte Sonnen). Nebensonnen stehen ein- oder beidseitig der Sonne (je nach der Verteilung der Cirrus-Wolken) vor allem wenn die Sonne niedrig steht, obwohl sie bis 60° Sonnenhöhe auftreten können; dann sind sie aber eher lichtschwach.
Nebensonnen sind, wie der Name schon andeutet, gemeinhin recht hell und auffällig, deutlich heller als der 22° Ring. Sie zeigen deshalb auch kräftigere Farben, wobei Rot innen liegt. Nach außen ist aber kein ausgeprägtes Grün oder Blau sichtbar. Sie haben meistens ebenfalls rund 22° Abstand von der Sonne und fallen damit mit dem Haloring zusammen, wenn dieser auftritt. Bei höher stehender Sonne liegen sie ein Stück außerhalb des Rings (bis zu 45° Abstand bei 60° hohem Sonnenstand), aber dann sind sie blaß und kaum zu sehen. Sie liegen stets auf einer nahezu horizontalen Linie durch die Sonne, nie signifikant gegen den Horizont geneigt. Manchmal sind sie in Höhe oder Breite ausgedehnt – als kurze Bögen entlang des Halorings, oder im rechten Winkel dazu, entlang des Horizontalkreises (Nr. 5 der Haloeffekte oben in der Grafik).
Ursache für Nebensonnen sind flache, sechseckige Plättchenkristalle, die sich beim Fall in ruhiger, turbulenzfreier Luft waagerecht ausrichten. Da anders als beim Ring sehr viele Kristalle in der gleichen Orientierung vorhanden sind, wird sehr viel Licht in gleicher Weise abgelenkt, was die Parhelia so hell machen kann. Je flacher der Lichteinfall, desto mehr Licht kann die volle Breite des Plättchens durchlaufen und desto kräftiger erscheinen Helligkeit und Farben.
Das Licht fällt wie bei den Säulenkristallen im Ring an einer Seite ein und kommt an der übernächsten wieder heraus, daher ergibt sich wieder ein Minimalwinkel von 22°, wobei Rot weniger abgelenkt wird als Blau, d.h. die Innenseite des Parhelions ist rot. Da die Kristalle in der Waagerechten gegeneinander verdreht sind, so dass auch größere Ablenkwinkel auftreten, vermischen sich die Spektren der Kristalle und die Farben sind zur blauen Seite hin nicht mehr klar separiert – stärker abgelenktes Gelb und Rot mischt sich mit Blau und Grün von Kristallen mit kleinerer Ablenkung zu Weiß.
Bei höherem Sonnenstand wird das Licht nicht nur zur Seite, sondern beim Eintritt in Richtung der Waagerechten und beim Austritt in Richtung der Senkrechten gebrochen. Somit kommt zur seitlichen Ablenkung eine senkrechte hinzu, die den gesamten Ablenkwinkel vergrößert – deswegen entfernen sich die Parhelia bei zunehmendem Sonnenstand von der Sonne. Bei mehr als 60° Sonnenhöhe schafft das Licht es nicht mehr durch die volle Breite des Plättchens. Aber dann ergibt sich ein anderer interessanter Lichtweg.
Selten blickt der Mensch senkrecht nach oben. Bei einer Nebensonnen-Erscheinung könnte sich der Blick allerdings lohnen und sollte antrainiert werden. Denn die gleiche Wetterlage sorgt für die Entstehung eines Zirkumzenitalbogens. Wie der Name verrät, umzirkelt dieser den Zenit, allerdings nicht als Vollkreis, sondern als Bogen von ca. 60° Öffnung. Die Farben eines Zirkumzenitalbogens wetteifern mit denen eines Regenbogens – ganz ohne Regen. Zirkumzenitalbögen sollen etwa so häufig auftreten wie Regenbögen (ich habe deren allerdings erst zwei gesehen). Neben der Nebensonnen-Wetterlage ist Voraussetzung, dass die Sonne tiefer als 32° über dem Horizont steht (also etwa 1/3 der Strecke von Horizont zum Zenit), sonst verschwindet der Bogen, und man muss das Cirrus-Feld mit den Eisplättchen senkrecht über sich haben. Und man muss vor allem nach oben gucken.
Wie oben angedeutet sind es die gleichen Kristalle, die den Zirkumzenitalbogen verursachen, die auch für die Nebensonnen verantwortlich zeichnen. Auch sie müssen überwiegend waagerecht orientiert sein. Allerdings ist der Lichtweg ein anderer: das Licht dringt in die Oberseite des Plättchens ein und wird an einer der 90°-Kanten nach unten gebrochen. Die Brechung ist mit mindestens 48° stärker als die seitliche Ablenkung bei den Parhelia, wo die lichtbrechenden Seiten im 60°-Winkel zueinander stehen. Deswegen ist Bogen entsprechend weit von der Sonne entfernt und nahe dem Zenit. Die Farben sind hier sehr rein bis zum Blauen hin, weil eine seitliche Verdrehung der Plättchen in der Waagerechten nicht dazu führt, dass sich Spektren überlagern – dafür wäre eine Verkippung der Plättchen gegen die Waagerechte nötig. Eine seitliche Verdrehung sorgt vielmehr dafür, dass das Licht von innen schräg auf die Austrittsfläche fällt und nicht nur nach unten, sondern auch zur Seite abgelenkt wird. Dadurch vergrößert sich der Ablenkwinkel insgesamt und die Plättchen, die das Licht zum Beobachter lenken, sind weiter von der Sonne entfernt und liegen seitlich der Sichtlinie zur Sonne – so ergibt sich der Bogen.
Zirkumzenitalbögen sind wohl die schönste Haloerscheinung überhaupt. Wenn mal wieder die Cirrusgespinste am Himmel wabern und falsche Sonnen neben der echten auftauchen, lohnt es sich vor allem in der kühleren Jahreszeit nach den bunten Bögen Ausschau zu halten. Erstaunlich, was simple Sechsecke mit Sonnenlicht alles anstellen können!
Sauerstoff wird nicht nur als Atemgas für die Bewohner einer Mondbasis oder in Raumfahrzeugen benötigt, sondern auch als Raketentreibstoff. Wenn man ihn beispielsweise mit Wasserstoff verbrennt, dann reagieren 2 Wasserstoffmoleküle H2 mit einem Sauerstoffmolekül O2 zu Wasser: 2H2 + O2 → 2H2O. Wasserstoffatome H haben das Atomgewicht 1, H2-Moleküle entsprechend 2. Sauerstoffatome haben hingegen das Atomgewicht 16 (8 Protonen + 8 Neutronen), O2-Moleküle entsprechend 32. Demnach benötigt man zum Verbrennen von 4 Gewichtsanteilen Wasserstoff deren 32 an Sauerstoff – die achtfache Menge. Wenn man – wie demnächst das Spaceship von SpaceX – Methan (CH4) als Treibstoff verwendet, dann macht der zur Verbrennung benötigte Sauerstoff immer noch das Vierfache an Gewicht des Methans aus. Da jedes Kilogramm Masse, das man von der Erde in den Weltraum befördert, immer noch (zehn)tausende Euro kostet, ist es wirtschaftlicher, Treibstoff zum Nachtanken von Raumfahrzeugen, die zwischen Erde und Mond, zu Asteroiden oder zum Mars fliegen, auf dem Mond zu gewinnen, als dies auf der Erde zu tun.
Wie kann auf dem atmosphärelosen Mond Sauerstoff gewinnen? Am naheliegendsten erscheint, ihn aus dem Wasser zu ziehen, das in den Kratern an den Polen im ewigen Schatten vorhanden sein soll. Mittels Elektrolyse, also der Aufspaltung unter Stromfluss, lässt sich das Wasser in Sauerstoff und Wasserstoff aufspalten, und man erhält sogar die zweite Treibstoffkomponente im richtigen Mengenverhältnis gleich mit dazu. Allerdings ist man damit auf einen kleinen Bereich des Mondes beschränkt, und die Wasservorräte auf dem Mond sind nicht unendlich groß – man schätzt das Vorhandensein von etwa 6,6 Milliarden Tonnen Eis, das ist ca. das Doppelte der Menge im Starnberger See, die allerdings mit reichlich Staub vermengt sein dürften.
Tatsächlich ist Sauerstoff das vom Gewichtsanteil häufigste Element auf dem Mond überhaupt. Der Regolith, das Mondgestein, besteht nämlich zu 40%-45% Gewichtsprozent aus Sauerstoff, und den gibt es überall. Das Problem ist nur, dass dieser Sauerstoff chemisch stabil gebunden ist, z.B. in Form von Eisenoxid (a.k.a. Rost), Siliziumdioxid (Glas) oder dem Mineral Ilmenit (FeTiO3), und er lässt sich nur mit hohem Aufwand aus dem Gestein entziehen. Eine Möglichkeit ist, den Regolith auf über 1000°C zu erhitzen und ihn dann mit Wasserstoff in Kontakt zu bringen. Der Wasserstoff reagiert dann mit dem Sauerstoff zu Wasser und dieses kann durch Elektrolyse wieder in Wasserstoff und Sauerstoff aufgespalten werden. Damit werden Ausbeuten von 2%-3% Gewichtsprozenten des ursprünglichen Gesteins erreicht. Durch die nachfolgend nötige zusätzliche Elektrolyse fällt der Energieaufwand doppelt an. Alternativ kann man den Regolith bei mehr als 1600°C aufschmelzen und mit Methan versetzen, wobei Kohlenmonoxid und Wasserstoff entstehen. Dem Kohlenmonoxid kann man mit Hilfe des Wasserstoffs den Sauerstoff in Fom von Wasser entziehen und das Methan wieder zurückgewinnen. Das Wasser muss dann wieder per Elektrolyse aufgespalten werden. Auf diese Weise erreicht man 10-20% Ausbeute. Oder man schmilzt den Regolith bei noch höheren Temperaturen selbst auf und führt an ihm direkt eine Elektrolyse durch. Hier werden Ausbeuten von 20-30% erreicht, aber das Hantieren mit dem extrem heißen geschmolzenen Regolith ist kein Pappenstiel und der Energieaufwand noch größer.
Bei der ESA am ESTEC (European Research and Technology Center) in Noordwijk an der niederländischen Küste wird an der Erschließung von Sauerstoff aus Mondgestein geforscht. Am 17. Januar berichtete die ESA nun in einer Pressemeldung darüber, dass eine von ihr geförderte Gruppe von den Universitäten Glasgow und Edinburgh um Bethany Lomax den Protoypen einer “Sauerstofffabrik” am ESTEC entwickelt habe, der eine neue Technologie einsetzt, die wesentlich effizienter als die oben genannten Extraktionsmethoden ist. Der Prozess basiert auf dem nach den Entwicklern benannten FFC-(Fray, Fathing, Chen)-Cambridge-Prozess, einer Form der Schmelzflusselektrolyse. Der Prozess wurde von der britischen Firma Metalysis (die an der hier vorgestellten Arbeit beteiligt war) industrialisiert, um aus Erzen die Metalle heraus zu ziehen. Dazu wird das Gestein zu Pulver zermahlen und in ein über 900°C heißes Bad aus geschmolzenem Kalziumchlorid-Salz gegeben, durch das man zwischen zwei Elektroden (Kathode und Anode) einen Strom fließen lässt. An der negativ geladenen Kathode lagert sich das Metall ab. Beim FFC wird eine Anode aus Graphit, also reinem Kohlenstoff, verwendet, mit dem sich der abgeschiedene Sauerstoff zu CO2 (Kohlendioxid) und CO (Kohlenmonoxid) verbindet, die aus der Schmelze aufsteigen. Die Anode löst sich dabei auf und muss irgendwann ersetzt werden.
Die wesentliche Modifikation der Wissenschaftler vom ESTEC und der mit ihr kooperierenden Universität Glasgow besteht darin, eine Anode aus Zinndioxid (SnO2) zu verwenden, an der reiner Sauerstoff entsteht und die sich daher nicht auflöst (während Zinn bei 232°C schmilzt, weswegen man es zum Löten verwendet, ist Zinndioxid bis 1630°C fest). Außerdem musste man die Zelle hart gegen den aggressiven heißen Sauerstoff machen. Als Kathode verwendete man einen Korb aus Edelstahl und schloss das Ganze in einer zylinderförmigen Zelle ein. Das auf der Erde kostbare Mondgestein simulierte man durch einen Tuffstein, genannt JSC-2A, der ähnliche Oxide in vergleichbarer Menge enthält. 30 Gramm JSC-2A-Pulver wurden in die Salzschmelze gegeben. Dann ließ man die Zelle rund zwei Tage lang bei 4 Ampere brutzeln.
Die Methode entzog dem Gestein rund 34% Gewichtsanteil an Sauerstoff. Theoretisch lassen sich 96% des Sauerstoffs aus dem Gestein entziehen (entsprechend 42% Gewichtsprozent). In nur 15 Stunden erreicht man bereits 75%, was wirtschaftlicher ist als das letzte Gasbläschen herauszukitzeln. Und dies bei Temperaturen unter 1000°C, bei denen der Regolith nicht aufgeschmolzen wird, in einem einzigen Verarbeitungsschritt. An der Kathode wurden Metalllegierungen abgeschieden, die durch Auswaschen des Kathodenkorbs und Trocknen der Schlacke gewonnen werden konnten – somit gewinnt man neben Sauerstoff auch noch wertvolle Rohstoffe wie Aluminium, Titan oder Eisen zur Weiterverarbeitung oder gar direktem 3D-Druck. Die Methode hat zudem den Vorteil, dass sie auf alle Mondgesteine anwendbar ist, man muss also nicht umständlich Basalt oder Ilmenit aus dem Boden graben.
Der Begriff “Sauerstofffabrik” trägt etwas dick auf – das Experiment wurde bisher nur im Kleinen in einer Zelle von der Größe eines Einweckglases durchgeführt und soll nun zunächst weiter optimiert werden. Bis Mitte des Jahrzehnts möchte man den Prozess jedoch hochskalieren und eine Demonstrationsfabrik bauen, die auf dem Mond betrieben werden und tonnenweise Sauerstoff produzieren könnte. Dort ließe sich der nötige Strom durch Solarzellen generieren. Dies in ein wichtiger Schritt zur Erschließung des Mondes, aber auch von Asteroiden, zur Gewinnung von Rohstoffen im Weltall und deren Einsatz in situ (also vor Ort – In-Situ-Ressourcenproduktion).
]]>
Er war aber nicht nur als Schlagzeuger berühmt, sondern er war auch der Texter der Band – den Gesang übernahm indessen Bassist Geddy Lee, der mit Gitarrist Alex Lifeson die Musik zu den Songs komponierte. Seine Fans nannten ihn den “Professor”. Wegen seiner von Science Fiction, Technik und Wissenschaft inspirierten Texte und seinem Kampf gegen Aberglauben, religiösen Fundamentalismus und Diskriminierung verkörperte er das, wofür die Scienceblogs stehen. Daher möchte ich ihm den heutigen Artikel widmen.
Ich stieß zufällig auf Rush als ein Freund und Jahrgangsstufen-Mitschüler nach einem einjährigen Aufenthalt 82 die Alben “Moving Pictures” (1981) und “Signals” (1982) aus den Staaten mitbrachte, die mir sofort gefielen. Schnell wurden sie eine meiner Lieblingsbands. Von ihren 19 Alben habe ich 14 – nur die ersten sprachen mich nicht so an. Beim allerersten war Peart noch gar nicht dabei.
Mein ältestes Rush-Album ist “A Farewell to Kings” (1977), dessen letztes Stück vom nur 5 Jahre zuvor (1972) ersten entdeckten Schwarzen Loch Cygnus X-1 handelt (so auch der Songtitel):
Invisible
To telescopic eye
Infinity
The star that would not die
All who dare
To cross her course
Are swallowed by
A fearsome force
Im Song fliegt der Protagonist des Songs mit seinem Raumschiff Rocinante (eine Hommage an Don Quijotes Pferd) in das Schwarze Loch, spiralt um es herum, wie es die Physik verlangt, und wird schließlich verschlungen.
Sound and fury
Drowns my heart
Every nerve
Is torn apart
Peart, Neil. Cygnus X-1. New York: Polygram Records, Inc., 1977.
Die angekündigte Fortsetzung folgt dann auf dem nächsten Album “Hemispheres”, wo es dann sehr mystisch wird.
In Jacob’s Ladder auf dem Album “Permanent Waves” geht es nicht etwa um die biblische Himmelsleiter, die Jakob im Traum erblickte, sondern um Krepuskularstrahlen, die sichtbaren Sonnenstrahlen, die entstehen, wenn die verdeckte Sonne durch Wolkenlücken scheint, und die manchmal eine Himmelsleiter zu bilden scheinen (Titelbild). In plastischen Worten malt er, wie sich Kumulonimbus-Gewitterwolken auftürmen, den Himmel verdunkeln, das Gewitterdonnern rumpelt, bis plötzlich die Wolken aufreißen und ein Lichtstrahl zu Boden fällt
The clouds prepare for battle
In the dark and brooding silence
Bruised and sullen stormclouds
Have the light of day obscured
Looming low and ominous
In twilight premature
Thunderheads are rumbling
In a distant overture
All at once,
The clouds are parted
Light streams down
In bright unbroken beams
Follow men’s eyes
As they look to the skies
The shifting shafts of shining
Weave the fabric of their dreams…
Peart, Neil. Jacob’s Ladder. New York: Polygram Records, Inc., 1980.
Das nächste Album “Moving Pictures” (1981) hat ein vieldeutiges Cover, dass den Albumtitel gleich mehrfach repräsentiert. Zum einen werden da Bilder aus einem Musem heraus getragen – sie ziehen um (“moving” auf Englisch). Die Bilder zeigen teils bewegende (“moving”) Szenen, etwa die einer Hexenverbrennung (aufgegriffen im Albumsong “Witch Hunt”), die am Rande stehende Zuschauer zu Tränen rührt. Auf der Rückseite sieht man die Szene mit mehr Abstand als das Set eines Filmdrehs mit Kameras und Scheinwerfern – Filme werden allegorisch im Englischen auch als “Moving Pictures”, kurz “Movie” bezeichnet.
Im Song Witch Hunt geht es vordergründig um eine Hexenverbrennung. Der Mob lyncht die Unschuldige.
The righteous rise
With burning eyes
Of hatred and ill-will
Madmen fed on fear and lies
To beat, and burn, and kill
In der zweiten Strophe wird dann klar, dass es eigentlich um den Hass und Rassismus der heutigen Gesellschaft geht:
They say there are strangers, who threaten us
In our immigrants and infidels
They say there is strangeness, too dangerous
In our theatres and bookstores shelves
Those who know what’s best for us
Must rise and save us from ourselves
um zu enden mit
Quick to judge
Quick to anger
Slow to understand
Ignorance and prejudice
And fear
Walk hand in hand
Peart, Neil. Witch Hunt. New York: Polygram Records, Inc., 1981.
Aktueller kann ein Song, rund 10 Jahre vor dem Internet und 25 Jahre vor Twitter geschrieben, kaum sein.
Auf dem Albumcover vom nächsten Album “Signals” (1982) erschnüffelt ein Dalmatiner an einem signalroten Hydranten, welche Botschaften ihm der vorangegange Rüde hinterlassen hat. Das Album handelt von der Alltags-Langeweile der Jugendlichen in den geometrisch angelegten amerikanischen Suburbs (“The suburbs have no charms to soothe the restless dream of youth“) und ihren Träumen vom Großstadtleben (“The Analog Kid”; im Licht späterer Texte scheint mir der Song autobiographisch zu sein). Die beginnende Digitalisierung Anfang der 80er ist auch ein Thema. In “Losing It” wird geschildert, wie traurig es ist, wenn Künstler im Alter ihr Talent verlieren – die Tänzerin, die nur zu rasch außer Atem gerät; der Schriftsteller, der mit glasigem Blick auf sein leeres Papier starrt und es verflucht. Ein bewegendes Stück.
Das letzte Stück “Countdown” beschreibt, wie die Band zum ersten Start des Space Shuttles eingeladen war und ihn am Kennedy Space Center live erlebt hat.
Floodlit in the hazy distance
The star of this unearthly show
Venting vapours, like the breath
Of a sleeping white dragon[…]
The earth beneath us starts to tremble
With the spreading of a low black cloud
A thunderous roar shakes the air
Like the whole world explodingScorching blast of golden fire
As it slowly leaves the ground
Tears away with a mighty force
The air is shattered by the awesome sound[…]
Like a pillar of cloud, the smoke lingers
High in the air
In fascination – with the eyes of the world
We stare…
Peart, Neil. Countdown. New York: Polygram Records, Inc., 1982.
Das ganze unterlegt mit dem Original-Funkverkehr der NASA mit den Astronauten John Young und Robert Crippen (“What a view! What a view!” “Glad you’re enjoying it“). Macht immer wieder Gänsehaut.
Das Album “Grace under Pressure” handelt von Umweltzerstörung (“Distant Early Warning”), vom Kampf gegen die innere Angst (“The enemy within”) und wie Heranwachsende sich Achtung erkämpfen müssen (“Kid gloves”). Der Verlust eines geliebten Menschen wird in “Afterimage” verarbeitet – so heißt das Nachbild im Auge, das kurze Zeit mit geschlossenen Augen sichtbar bleibt, wenn man in eine helle Szenerie geschaut hat.
Das – meiner bescheidenen Meinung nach – musikalisch beste Rush-Album ist “Power Windows”. “Big Money” handelt davon, wie das große Geld seelenlos die Fäden in der Welt zieht. In “Marathon” geht es nicht nur um den Lauf und das Durchstehen der Belastung, sondern ganz allgemein, dass man ehrgeizige Ziele mit Ausdauer verfolgen muss, um sie zu erreichen. “Manhattan Project” handelt von der Entwicklung der Atombombe – und wie die Wissenschaftler dabei ein Monster erschufen, das sie nicht mehr unter Kontrolle halten konnten:
Imagine a place
Where it all began
They gathered from across the land
To work in the secrecy of the desert sand
All of the brightest boys
To play with the biggest toys
More than they bargained for…
Peart, Neil. Manhattan Project. New York: Polygram Records, Inc., 1985.
Und in “Territories” wird der Nationalismus angeprangert. Die folgenden Zeilen sollten sich gewisse Zeitgenossen hinter die Ohren schreiben.
The whole wide world
An endless universe
Yet we keep looking through
The eyeglass in reverse
Don’t feed the people
But we feed the machines
Can’t really feel what international means[…]
They shoot without shame
In the name of a piece of dirt
For a change of accent
Or the colour of your shirt
Better the pride that resides
In a citizen of the world
Than the pride that divides
When a colourful rag is unfurled
Peart, Neil. Territories. New York: Polygram Records, Inc., 1985.
Das Album “Presto” (1989) hat viele starke Texte. “Show Don’t Tell” handelt vom mangelnden Vertrauen unter den Menschen und wie sie sich zum Richter und zur Jury zugleich über andere machen und nurmehr Evidenz zählt. “War paint” greift wieder das Thema der jugendlichen Selbstfindung auf, und wie die jungen Leute gewissermaßen Kriegsbemalung auftragen, um als mehr zu erscheinen, als sie sind. In “Superconductor” werden geniale Sänger, Schauspieler oder Händler mit Supraleitern gleichgesetzt, deren Energie verlustfrei in die die Köpfe der Zuschauer fließt. In “Scars” geht es um die Narben, die das Leben hinterlässt und die bei Wetterumschlägen wieder schmerzen können. “Chain Lightning” handelt von der Begeisterung für Naturphänomene wie Gewitter, Nebensonnen (sun dogs) oder ein Meteorschauer, die am schönsten sind, wenn man sie gemeinsam erleben darf:
Sun dogs fire on the horizon
Meteor rain stars accross the night
This moment may be brief
But it can be so bright
Reflected in another source of light
When the moment dies
The spark still flies
Reflected in another pair of eyes
Peart, Neil. Chain Lightning. New York: Atlantic Recording Co. and Anthem Entertainment, 1989.
“Anagram” spielt mit zahlreichen Anagrammen, also Wörtern, die man durch Buchstabenumstellung aus anderen Wörtern herausholen kann (“He and she are in the house / But there’s only me at home“, “Lonely things like nights I find / End finer with a friend“). Und in “The Pass” wird die Verzweiflung eines Jugendlichen beschrieben, der sich den Tod Jesu als schlechtes Vorbild zu nehmen und Selbstmord zu begehen droht, und dem der Song eindringlich machen soll, dass er es damit nicht allen zeigen wird, wie er vielleicht glaubt. Der Song will ihm vielmehr Mut machen, die seelischen Täler durchzustehen, die jeder Mensch im Laufe des Lebens durchmacht:
Someone set a bad example
Made surrender seem alright
The act of a noble warrior
Who lost the will to fightAnd now you’re trembling on a rocky ledge
Staring down into a heartless sea
Done with life on the razor’s edge
Nothing’s what you thought it would be
[…]
No hero in your tragedy
No daring in your escape
No salutes for your surrender
Nothing noble in your fate
Christ, what have you done?All of us get lost in the darkness
Dreamers learn to steer by the stars
All of us do time in the gutter
Dreamers turn to look at the cars
Turn around and turn around and turn around
Turn around and walk the razor’s edge
Don’t turn your back and slam the door on me
Peart, Neil. The Pass. New York: Atlantic Recording Co. and Anthem Entertainment, 1989.
Auf “Roll the Bones” (1991) geht es um Glauben, Aberglauben und magisches Denken. Wie im Titelstück:
We go out in the world and take our chances
Fate is just the weight of circumstances
That’s the way that lady luck dances
Roll the bonesWhy are we here?
Because we’re here
Roll the bones
Why does it happen?
Because it happens
Roll the bones
Peart, Neil. Roll the Bones. New York: Atlantic Recording Co. and Anthem Entertainment, 1991.
In “You Bet Your Life” geht es um Weltanschauungen, “-ismen”, auf die manche ihr Leben verwetten würden:
Anarchist reactionary running-dog revisionist
Hindu muslim catholic creation/evolutionist
Rational romantic mystic cynical idealist
Minimal expressionist post-modern neo-symbolist
Peart, Neil. You Bet Your Life. New York: Atlantic Recording Co. and Anthem Entertainment, 1991.
Und in “Heresy” feiert Rush den Fall der Mauer und das Ende des kalten Krieges:
All around that dull gray world
From Moscow to Berlin
People storm the barricades
Walls go tumbling inThe counter-revolution
People smiling through their tears
Who can give them back their lives
And all those wasted years?
All those precious wasted years —
Who will pay?[…]
All around this great big world
All the crap we had to take
Bombs and basement fallout shelters
All our lives at stakeThe bloody revolution
All the warheads in its wake
All the fear and suffering —
All a big mistake
All those wasted years
All those precious, wasted years
Who will pay?
Peart, Neil. Heresy. New York: Atlantic Recording Co. and Anthem Entertainment, 1991.
Auf dem Album “Counterparts” (1993) geht es um Gegensätze und ihre Überwindung: zwischen Instinkt und Verstand (“Animate”, “Stick it Out”, “Double Agent”), zwischen jung und alt (“Cut to the Chase”), zwischen besungenen und unbesungenen Helden (“Nobody’s Hero”), zwischen Geschlechtern und Ethnien (“Alien Shore”, “ColdFire”) und um die Grautöne zwischen Schwarz und Weiß, die für manche vollkommen unbekannt scheinen (“Between the Sun and Moon”). Der Song “Everyday Glory” richtet sich an uns alle, uns aufzuraffen um etwas zu bewegen, unser Schicksal selbst in die Hand zu nehmen:
If the future’s looking dark
We’re the ones who have to shine
If there’s no one in control
We’re the ones to draw the lines
Though we live in trying times –
We’re the ones who have to try
Though we know that time has wings –
We’re the ones who have to fly
Peart, Neil. Everyday Glory. New York: Atlantic Recording Co. and Anthem Entertainment, 1993.
Könnte auch das Motto von Fridays for Future sein.
“Test for Echo” (1996) handelt von Medien, der zunehmenden Spaltung der Gesellschaft und Pearts zunehmender Abneigung gegen die Religion. Es folgten noch drei Studio-Alben, auf denen der Sound aggressiver wurde, die Texte ernster, weniger melodisch, und die mir folglich nicht mehr so gut gefielen. Auf “Vapor Trails” verarbeitet Peart den Verlust seiner 19jährigen Tochter durch einen Autounfall und seiner Ehefrau durch Krebs binnen eines Jahres. Und die beiden letzten Alben “Snakes & Arrows” (2007) und “Clockwork Angels” (2012) behandeln fast nur noch die Religion und Fundamentalismus als Thema (wobei “Clockwork Angels” mir autobiographisch erscheint). Wie etwa in “Faithless”
I don’t have faith in faith
I don’t believe in belief
You can call me faithless
But I still cling to hope
And I believe in love
And that’s faith enough for me
Peart, Neil. Faithless. New York: Atlantic Recording Co. and Anthem Entertainment, 2007.
oder “The Way the Wind Blows”, ein Song darüber, wie die Gesellschaft die Freidenker zunehmend beugt und bricht.
Now it’s come to this
It’s like we’re back in the Dark Ages
From the Middle East to the Middle West
It’s a world of superstitionNow it’s come to this
Wide-eyed armies of the faithful
From the Middle East to the Middle West
Pray, and pass the ammunition
Peart, Neil. The Way the Wind Blows. New York: Atlantic Recording Co. and Anthem Entertainment, 2007.
“Bete und reich’ mir die Munition“. Man merkt die zunehmende Verbitterung. In den 1990er war noch Hoffnung, aber die amerikanische Gesellschaft (und mittlerweile ja auch die europäische) begann sich zu spalten, Aberglaube, Ideologie und Fundamentalismus waren auf dem Vormarsch und sind es bis heute, mit ungewissen Folgen.
Ich hatte das Glück, die Band in Oberhausen 2007 live zu erleben, bei der “Snakes & Arrows” Tour. Das Konzert dauerte 3 1/2 Stunden lang und alle großen Songs kamen darin vor. Ich erinnere mich an die unglaubliche Lautstärke, die mir für mehr als einen Tag lang fast komplett das Gehör nahm, an einen Grill mit Hähnchenspießen auf der Bühne und einen Besuch der Blue Man Group, die nebenan gastierte. An Pearts 360°-Schlagzeug, in dessen Mitte er auf einem Drehstuhl saß – und an ein unglaubliches Schlagzeugsolo.
2015 machten sie ihre letzte Tour und 2018 löste Rush sich auf, nach 41 Jahren – da wusste Peart schon um seinen Hirntumor, gegen den er seinen Kampf nach 3 1/2 Jahren verlor. In seinen Songs lebt er weiter fort und wird mich für den Rest meines Lebens begleiten, wie er das seit schon seit meiner Schulzeit getan hat.
Die Geschichte der Mondgeologie fängt nicht erst mit Apollo an – schon lange bevor es die ersten Mondgesteine in irdische Labore schafften, hat man den Mond mit Teleskopen und Fotografie untersucht. Die uns vertraute Vorderseite des Mondes zeigt ausgeprägte, dunkle Flächen, die Maria (lateinischer Plural von mare – das Meer; Betonung auf der ersten, lang gesprochenen Silbe), wie die bekannten Mare Imbrium (Regenmeer), Mare Tranquilitatis (Meer der Stille) oder Oceanus Procellarum (Ozean der Stürme). Bei diesen handelt es sich um mit Lava angefüllte Becken riesiger Einschläge, die von Asteroiden der 100-km-Klasse verursacht worden sein müssen. In diesen finden sich kaum Krater. Im Gegensatz dazu stehen die vollkommen verkraterten Hochländer.
Anhand der heutigen Anzahl von Asteroiden verschiedener Größen im Sonnensystem und der daraus gefolgerten Einschlagsrate schätzte man vor Apollo, dass die Maria rund 3,6-3,8 Milliarden Jahre (Gigajahre, Ga) alt sein dürften und damit 700-800 Millionen Jahre jünger als der Mond selbst. Da die Kraterhäufigkeit in den Hochländern etwa 32-mal höher als in den Maria ist, konnte man somit erschließen, dass die Einschlagsrate im ersten Fünftel des Mondalters im Schnitt 160-mal höher gewesen sein muss als in den 4 Fünfteln der Zeit nach Entstehung der Maria. Sie könnte bei einem allmählichen Abklingen ursprünglich aber auch noch sehr viel höher gewesen sein, zumal die Dichte in den Highlands gesättigt ist – neue Krater überdeckten hier ältere und erhöhten ihre Zahl somit nicht mehr weiter.
Mit Apollo hoffte man, die Entstehungsgeschichte des Mondes endgültig zu entschlüsseln. Der Chemiker und Planetologe Harold C. Urey rührte für das Apollo-Programm, bei dem er beratend beteiligt war, mächtig die Werbetrommel mit dem Spruch “Bringt mir einen Stein vom Mond und ich erzähle euch die Geschichte des Sonnensystems“. Ganz wörtlich gemeint war das sicher nicht, aber man ging davon aus, auf dem Mond ein Buffet von unmodifiziertem Gestein diversen Alters bis zurück zur Entstehung von Mond, Erde und dem Sonnensystem zu finden, an dem man sich nur selbst bedienen musste. Durch Analysen der Mengenverhältnisse verschiedener Isotope ließ sich das Gestein datieren und so hoffte man, die Geschichte des Mondes aus ihm ablesen zu können.
Als die ersten Apollo-Missionen dann die ersten Steine vom Mond mitbrachten, wurden die Gesichter der Forscher lang und mit jeder Mission länger. Die Steine waren alle gleich alt! Und zwar 3,9 Ga, also 600 Millionen Jahre jünger als Mond und Erde es waren. Man schob dies anfangs auf die Landstellen, die zunächst in den Maria lagen, weil das Gelände dort für eine Landung am berechenbarsten war. Spätere Apollo-Missionen landeten dann auch in den Highlands, wo man die Crews, die vorher entsprechend geologisch geschult worden waren, auf die Suche nach dem “Genesis-Stein” schickte. Während der Apollo-15- Mission hörte man beim Fund des Steins #15415 einen Astronauten über Funk erfreut ausrufen: “Ratet mal, was wir gerade gefunden haben! Ratet mal, was wir gerade gefunden haben!” und der andere entgegnete “Ich denke, das, weswegen wir hierher gekommen sind.” #15415 erwies sich später als wenig beeindruckende 4,08 Ga alt.
Der Mond war nun definitiv älter als die Maria, was schon an der starken Verkraterung der Highlands zu erkennen war. Aber warum fand sich keinerlei deutlich älteres Gestein? Schließlich gab es auf dem Mond weder Plattentektonik, die auf der Erde das Gestein der Kontinente irgendwann in die Tiefe zieht, noch Wetter, also Erosion, die das Gestein verändern könnte.
Eine Möglichkeit war, dass der Imbrium-Einschlag mit seinem Auswurfmaterial alles überdeckt hatte – oder ein kataklysmisches Ereignis kurz zuvor: eine zeitlich kurze, enorm erhöhte Rate von Einschlägen, relativ spät nach der Entstehung des Sonnensystems: ein Spätes Großes Bombardement. Der Begriff, der zum ersten Mal in einer Arbeit von George Wetherill aus dem Jahre 1975 auftauchte, war geboren. Wobei “spät” hier im Maßstab zur Entstehungszeit des Sonnensystem zu verstehen ist, die nur ein paar zehn Millionen Jahre benötigte. Gemessen am heutigen Alter des Mondes waren 600 Millionen Jahre immer noch jung. Dieser “terminale Kataklysmus” habe die Entstehung des Mondes abgeschlossen, bei dem dann auch die riesigen Einschläge stattfanden, die die Maria formten. Denn auch andere Maria waren gemäß ihrer Gesteinsproben vergleichbar alt. Das Mare Orientale am westlichen Mondrand hätte beispielsweise im Rahmen der Messgenauigkeit gar mit dem Imbriumeinschlag zusammen entstanden sein können, wenn der Asteroid einen Begleiter gehabt hätte, der nur Stunden später einschlug.
Spätere Analysen der Apollo-Proben fanden dann einige wenige winzige Bruchstücke von Krustengestein, das 4,4-4,5 Milliarden Jahre alt war, eingeschlossen im als Brekzie bezeichneten Konglomerat aus zerkleinertem, durchmischtem und unter Druck zusammengekittetem Gestein, jedoch keinerlei Einschlagsschmelzen älter als 3,9 Ga.
1990 vertrat Graham Ryder in einer Arbeit folgende These, die prägend für die LHB-Theorie wurde: Da es kein Schmelzgestein jünger als 3,9 Milliarden Jahre gibt, kann es vorher auch keine nennenswerten Einschläge gegeben haben. Denn jüngere Einschläge können die Einschlagsschmelzen früherer Einschläge nicht komplett durch Aufschmelzen verjüngt haben – das meiste Auswurfmaterial ist kalt, und es findet sich noch ursprüngliches, unverändertes Gestein in kleiner Menge, das die Einschläge offenbar ohne aufgeschmolzen zu werden überlebt hat. Und wegen der chemischen Diversität des überall gleich alten Mondgesteins kann die Oberfläche des Mondes nicht nur durch eine handvoll Mare-formende Einschläge geprägt worden sein. Daher müsse der Mond über einen Zeitraum von nur 50 bis höchstens 150 Millionen Jahren einem intensiven Bombardement ausgesetzt gewesen sein. Das klassische Late Heavy Bombardement.
Alsbald machten sich die Theoretiker an die Arbeit zu erklären, wie es mehr als eine halbe Milliarde Jahre nach der Entstehung des Sonnensystems zu einem erneuten Bombardement von Planetoiden gekommen sein könnte, wie man dieses eigentlich nur während der eigentlichen Entstehungsphase erwartet hätte.
Die ersten im Laufe der 1990er entdeckten Planeten in anderen Sternsystemen erwiesen sich völlig überraschend als “heiße Jupiter”- ein Auswahleffekt, denn massive, eng umlaufende Planeten wirbeln ihre Sterne am stärksten im Kreis, so dass ihr Spektrum am deutlichsten messbar hin- und her wackelt. Dennoch waren sie zunächst schwer zu erklären, denn große Planeten sollten dort entstehen, wo viel Materie in einem Sternsystem vorhanden ist, und das ist da, wo die mengenmäßig im Weltall überwiegenden Gase und Eise reichlich vorhanden sind – weit weg vom Stern in der “Schneezone”, wo sie gefroren vorliegen. So lernte man, dass Planeten in der Wechselwirkung mit dem Staub und den Asteroiden, aus denen sie entstehen, im Sternsystem nach innen wandern können.
Damit war die Theorie der planetaren Migration geboren. Im Sonnensystem stellte sich der Fall allerdings genau umgekehrt dar (Jupiter ist bekanntlich nicht heiß): der Neptun befindet sich bei 30 AE so weit draußen im Sonnensystem, dass er dort eigentlich nicht hätte entstehen können, weil sich dort zu wenig Asteroiden als Baumaterial mit zu großen Entfernungen untereinander befunden haben sollten. Nach dem Nizza-Modell soll Neptun jedoch näher an der Sonne, bei < 15 AE zwischen Uranus und Saturn entstanden sein. Eine 2:1-Bahnresonanz von Jupiter und Saturn sorgte dann über ein Aufschaukeln der Bahnen von Uranus und Neptun dafür, dass sie die Plätze tauschten, wobei Neptun weit nach außen in den Kuipergürtel geriet, den äußeren Asteroidengürtel des Sonnensystems. Diesen wirbelte Neptun mächtig durcheinander und er enthält zum Teil sehr große Objekte (mehrere 100 km Durchmesser). Damit hatte man eine potenzielle zeitlich verzögerte Quelle von Einschlagskörpern, und auch die von Jupiter eingefangenen Trojaner und seine äußeren Monde, die so dunkel sind wie Objekte des Kuiper-Gürtels, stützen die Theorie – wie auch ihr bloßes Vorhandensein, denn Einfänge sind selten und es braucht sehr viele Asteroiden, um die mehr als 70 eingefangenen kleineren Jupitermonde zu liefern (viele davon umkreisen ihn im Gegensinn zu seiner Rotation). Außerdem könnten diese Asteroiden das Wasser der Erde geliefert haben – die Erde war zu Beginn noch zu heiß, um Wasser halten zu können. Damit war auch erst danach die Entstehung von Leben möglich, das die Einschläge zuvor, die die ganze Erde aufschmolzen, ohnehin kaum hätte überleben können.
Man musste zwar die Startbedingungen für Nizza sehr speziell auswählen, um eine so lange Verzögerung hin zu bekommen – aber diese war mit dem LHB gesetzt.
In den 1990ern und 2000ern modellierten Neukum und Ivanov die Entwicklung der Einschlagsraten über die Zeit mit Hilfe neuartiger Analysemethoden. Demnach war die Einschlagsrate vor 4 Milliarden Jahren 1000mal höher als vor 2 Milliarden Jahren und heute ist sie noch 1 bis 0,3-mal so hoch wie vor 2 Ga. Wegen der Kratersättigung vor 4 Milliarden Jahren konnten die Analysen nicht klären, wie hoch die Einschlagsraten in den ersten 500 Millionen Jahren waren – jedenfalls müssen sie nach 4 Milliarden Jahren dramatisch steil gefallen sein, um die wenig verkraterten Maria zu erklären. Die Rate muss vorher so hoch gewesen sein, dass nur wenige ältere Gesteine überlebten und danach so gering, dass kaum jüngere erzeugt wurden – dies erschien nicht besonders plausibel.
Datierungen der Maria anhand der Krateranzahl ergaben, dass das Mare Serenitatis, in dem Apollo 17 landete, eigentlich 4,2 Milliarden Jahre alt sein müsste, während das von den Astronauten heim gebrachte Gestein sich wieder nur als 3,87 Milliarden Jahre alt erwies. Eine Hypothese lautete, dass der benachbarte Imbrium-Einschlag das Serenitatis-Becken verunreinigt haben könnte. Simulationen ergaben, dass die Auswurfschicht des Imbrium-Einschlags im Mare Serenitatis 25-100 m Dicke aufweisen könnte, und dass Material aus den übrigen Maria das Sediment gar bis auf 55-230 m angehäuft haben könnten.
Das Gestein hat dabei seine nach dem Auswurf grobschlächtige Struktur nicht lange beibehalten. Untersuchungen zufolge werden 99% der Steine von mehr als 2 m Größe binnen 120-300 Millionen Jahren durch fortwährende Einschläge kleiner Meteoriten zu Brocken von weniger als 2 m zerkleinert und Steine unterhalb von 20 cm binnen 50 Millionen Jahren zu Pulver gemahlen – dem Regolith, der den Mond bedeckt und in dem Armstrong seinen berühmten Stiefelabdruck hinterließ.
Auch andere Maria haben mehr Krater und scheinen damit älter als das Imbrium zu sein, obwohl das dort gesammelte Gestein stets ca. 3,9 Mia Jahre alt war. Man konnte das scheinbar jüngere Alter des Mare Serenitatis und anderer Fundstellen durch Verunreinigungen erklären – es fand sich dort an der Oberfläche kaum Material aus der Entstehungszeit, sondern dieses war unter einer Schicht von mittlerweile fein gemahlenem Material jüngeren Ursprungs begraben. Und bei einem Serenitatis-Alter von 4,2 Ga wäre das LHB schon auf die mindestens doppelte Länge angewachsen. Neuere Datierungen von Apollo-Gesteinen fanden gar Brekzien-Fragmente, die 4,2 bis 4,35 Ga alt sind.
Die Untersuchung des Alters von Meteoriten, die bestimmten Asteroiden als Quelle zugeordnet werden konnten, lieferten weitere Munition gegen die LHB-Theorie. Nach der Nizza-Theorie, aber auch anderen (“Grand Tack“) Modellen, bei denen die Migration von Jupiter und Saturn eine Rolle spielte, wäre der Asteroidenhauptgürtel zwischen Mars und Jupiter notwendigerweise heftig in Mitleidenschaft gezogen worden, denn die Asteroiden wären miteinander und mit den ins innere Sonnensystem katapultierten Kuipergürtel-Objekten kollidiert. Die ermittelten Kollisionsraten über die Zeit ergaben jedoch keinerlei Hinweis auf ein kataklysmisches Ereignis vor 3,9 Milliarden Jahren – weder auf eine geringere Kollisionsrate vorher, noch auf einen plötzlichen Anstieg derselben zu just dieser Zeit. Die meisten Kollisionen ereigneten sich vor 3,74-3,21 Ga, aber auch zahlreiche zwischen 4,5 und 4 Ga.Dynamische Computersimulationen der Planetenentstehung produzierten eine anfangs hohe und dann allmählich abklingende Einschlagsrate durch die in der protoplanetaren Scheibe entstandenen Asteroiden und Planetesimalen, deren Entwicklung gut mit Kraterzählungen des Mondes und der Asteroiden in Einklang zu bringen war.
2015 fanden zwei Konferenzen statt, bei denen sich die internationalen Koryphäen der Mondforschung trafen und austauschten. Unter ihnen wurde der Begriff “LHB” zwar noch verwendet, seine Semantik unterschied sich bei den verschiedenen Autoren jedoch bereits deutlich von Graham Ryders ursprünglichem Kataklysmus – das LHB wurde nun etwa zum “Ausklang der Einschlagsperiode”, die bereits mit der Entstehung des Sonnensystems begann. Der Autor der hier betrachteten Arbeit trug dort ebenfalls vor und erntete keinerlei Widerspruch, als er in seinen Vorträgen äußerte, die Ryder-Hypothese sei nun endgültig vom Tisch.Mehrere noch jüngere Paper (2016/17) gehen von einem Bombardement zwischen 4,2 und 3,4 Milliarden Jahren mit einer allmählichen Abnahme der Einschlagsraten bis vor 2,0-2,5 Milliarden Jahren aus. Die Rate kann aber durchaus sägezahnförmige Spitzen gehabt haben und damit episodisch angestiegen sein. Das Gestein von Apollo 17, das dem Serenitatis-Einschlag zugeordnet wurde, stammt ihnen gemäß wahrscheinlich vom Imbrium-Einschlag.
Der LHB-Begriff wird immer noch verwendet, hat aber mit dem ursprünglichen Terminus nichts mehr zu tun. Die Verfremdung des LHB-Begriffs erinnerte Hartmann an einen Scherz, in welchem ein Museum die Original-Axt ausgestellt haben will, mit der George Washington einer bekannten amerikanischen Legende gemäß den Kirschbaum seines Vaters gefällt haben soll. Nur sei der Griff der Axt schon viermal und die Klinge schon zweimal ersetzt worden.
Die Grundregel von Graham Ryder war: keine nachweisbaren Einschlagsschmelzen – keine Einschläge. Diese Regel stand unter der Prämisse der Prä-Apollo-Ansicht, dass auf der Mondoberfläche Gestein unversehrt Milliarden Jahre überdauern und nur von gelegentlichen Einschlägen durch die Gegend geschoben werden würde. Und dass es somit einen Kataklysmus bräuchte, um das Alter des Gesteins auf 0 zurück zu setzen.
Hartmann, der Autor der hier betrachteten Arbeit, vertrat jedoch schon in den späten 1970ern die Auffassung, dass der Mondboden durch einschlagende Meteorite aller Größen einer fortwährenden Erosion und damit Evolution (Entwicklung) unterworfen sei, die vor allem in der ersten halben Milliarde Jahre bis in große Tiefen reichte. Auf diese Weise entstand eine Schicht aus Mega-Regolith.
Gewöhnlicher Regolith-Staub ist auf dem Mond nur 10-20 cm tief und entstand durch die permanente “Sandstrahlung” der Oberfläche mit Mikrometeoren, die fortwährend mit mehreren Kilometern pro Sekunde ungebremst auf den Mondboden prasseln und Gestein allmählich zerbröseln. Der Mega-Regolith hingegen besteht aus Schichten immer wieder neuen Auswurfmaterials von Einschlägen, in die große Meteoriten und Asteroiden immer wieder neue Krater reißen.
Wenn hinreichend viele Einschläge unterhalb einer gewissen Größe stattfinden, tritt Sättigung ein und der Boden wird komplett bis zur entsprechenden Tiefe der Krater umgegraben. Bei der heutigen Einschlagsrate würde es 4 Milliarden Jahre dauern, bis Einschläge von 2 km ihre Sättigungsgrenze erreichen (Bild unten links). Bei zu Beginn tausendfach höherer Einschlagsrate wurde die Sättigung im Kilometer-Krater-Bereich jedoch schon nach 100 Millionen Jahren erreicht und der Boden in den ersten 500 Millionen Jahren entsprechend tief mehrfach umgegraben.
Der so angehäufte Mega-Regolith könnte über Oberflächen von 4,25 Ga Alter 10 km dick sein, der über Schichten von 4,2 Ga 1 km, über 4,0-4,1 Ga alten Schichten 100 m und über 3,9 Ga 40-60 m. Vom ursrpünglichen Boden fänden sich nur noch mikrometergroße Staubkörner an der heutigen Oberfläche.Unter dem Druck der darüber liegenden Schichten wird das Material in zunehmender Tiefe zu Brekziengestein gepresst, das vergleichsweise leicht und porös ist. Seismologische Messungen mit den Apollo-Seismometern haben ergeben, dass wenigstens die obersten 3 Kilometer aus porösem Material geringer Dichte bestehen. Die GRAIL-Mission, die das Gravitationsfeld des Mondes vermaß, bestätigte die geringe Dichte (etwa 2550 kg/m³), die in der Kruste der stark verkraterten Hochländer stets weitaus kleiner als die von festem Gestein ist.
Wenn ein großer Einschlag einen Krater reisst, dann schmilzt er den Boden auf und in der schüsselförmigen Vertiefung bildet sich ein Lavasee, der zu einer Basaltlinse erstarrt, die von oben später mit zurückfallendem Geröll überdeckt wird. Solche Lava wird durch Verlust flüchtiger Stoffe scheinbar verjüngt und anhand bestimmter Isotope kann man das Alter seit ihrem Erstarren bestimmen.
Unter den frühesten Einschlägen waren die härtesten, auch diejenigen, die die Maria formten. Durch fortwährende Einschläge wurden ihre Basaltlinsen jedoch zerkleinert und zu Staub zermahlen, und dies gerade bei Bruchstücken, die es bis zur Oberfläche geschafft haben, wo die kleinsten und häufigsten Einschläge mit ihrer Erosion noch wirksam sind. Alte Einschlagsschmelzen, z.B. das Urbecken des Imbrium-Einschlags, wurden so pulverisiert. Daher wird man dort kaum altes Gestein finden, bestenfalls in Form winziger Einschlüsse in jüngeren Brekzien. Die Maria sind auch nicht etwa mit Schmelzgestein ihrer Einschläge angefüllt – sie liefen später mit Lava aus dem damals noch flüssigen Mondinneren voll, was ihre an Kratern armen Oberflächen erklärt.
Die Einschlagsrate und damit die Erosion des Mega-Regoliths nahm von Beginn ab, bis sie unter die Sättigungsrate fiel, unterhalb derer das Gestein an zunehmend mehr Stellen während des restlichen Mondalters nicht mehr getroffen wurde und erhalten blieb. Das charakteristische Alter von 3,9 Milliarden Jahren ist dann einfach das Alter, ab welchem Gestein erstmals eine nennenswerte Chance bekam, bis heute zu überdauern.
Jüngere Einschläge konnten viel später feste Gesteinsbrocken aus geringer Tiefe nach oben befördern, während die Mondoberfläche ansonsten größtenteils von fein geriebenem Regolithstaub bedeckt ist. Die Evolution des Mega-Regoliths filtert somit, was an der Oberfläche gefunden werden kann. Wenn man altes Gestein sucht, dann sollte man es deshalb im Auswurfmaterial sehr junger, großer Einschläge wie Kopernikus (Kraterdurchmesser 93 km, Tiefe 3,8 km, Einschlag bis in 30 km Tiefe), Erathostenes (59 km Durchmesser, 3,6 km Tiefe) oder Aristillus (55 km, 3,6 km) suchen, die unversehrte Kruste an die Oberfläche befördert haben dürften. Die meisten Steine auf der Oberfläche sind jüngere Brekzien kleinerer Einschläge und keinesfalls eine zufällig durchmischte Zusammenstellung von Steinen verschiedenen Alters, wie man vor Apollo dachte.Somit bleibt nicht mehr viel übrig vom späten, kurzen, schweren Bombardement. Das tatsächliche Bombardement fand früher statt, es war weniger intensiv, bestand möglicherweise aus mehreren Episoden und dauerte viel länger als Ryder dachte. Damit entspannt sich auch die Situation für das Nizza-Modell, bei dem Uranus und Neptun ihre Plätze nun früher tauschen können. Wasser kann die Erde früher erreicht haben und mögliches frühes Leben auf der Erde wurde nicht notwendigerweise von einer kataklysmischen Einschlagswelle ausgelöscht. Es war viel mehr fortwährenden, nachlassenden Einschlagsepisoden ausgesetzt und seine Überlebenschancen in geschützten Nischen waren größer und wurden zunehmend besser, so dass es früher entstanden sein könnte.
Der Begriff “Großes Bombardement” wird noch eine Weile durch die Planetologie geistern, aber er meint schon lange nicht mehr das, was er ursprünglich bedeutete. Sein Werdegang zeigt, wie in der Wissenschaft neue Daten zur allmählichen Modifzierung von Theorien führen. Es muss nicht immer ein Paukenschlag wie bei Einsteins Relativitätstheorie sein – oft entwickelt sich das Wissen allmählich und zerbröselt alte Weisheiten, wie beim Mega-Regolith auf dem Mond.
[1] William K. Hartmann, “History of the Terminal Cataclysm Paradigm: Epistemology of a Planetary Bombardment That Never (?) Happened“, Geosciences 2019, 9(7), S. 285, 28. Juni 2019.
[2] Korey Haynes, “New date for ‘Late Heavy Bombardment’ may change life’s timeline on Earth“, Astronomy, 15. August 2019.
[3] Bill Gray, “Late Heavy Bombardment may not have happened“, Geological Society of Glasgow, 24. Dez. 2016.
Unter diesen Gesichtspunkten mutet ein Projekt des US-Militärs aus den frühen 1960er Jahren umso abenteuerlicher an: Projekt West Ford. Dieses wollte der Erde einen Ring aus hunderten Millionen kleiner Kupferantennen verpassen.
Funkwellen breiten sich normalerweise nur geradlinig aus, das heißt Empfänger hinter dem Horizont befinden sich im Funkschatten. Lediglich im Kurzwellenbereich (und mit Einschränkungen im Langwellenbereich) ist es möglich, Signale um die Erdkrümmung herum zu senden, weil diese Frequenzen an der Ionosphäre, einer leitenden Schicht in der Hochatmosphäre oberhalb 80 km, und auch am Erdboden reflektiert werden und so im Zickzack die ganze Erde umrunden können (Langwelle breitet sich hingegen über eine Welle durch den Erboden aus). Allerdings gilt dies nur im Kurzwellenbereich zwischen 3 und 50 MHz, und der davon zu einer Zeit nutzbare Frequenzbereich ändert sich mit der Tageszeit, der Jahreszeit und hängt vor allem von der Sonnenaktivität ab, die die Dichte von geladenen Teilchen in der Ionosphäre und die Dichte der Hochatmosphäre beeinflusst. Die Qualität solcher Verbindungen ist schon durch die schwankenden Pegel und Reichweiten anderer Sender auf der gleichen Frequenz (z.B. Kurzwellen-Radiostationen), die als Störer wirken, sehr unzuverlässig für eine militärische Kommunikation. Um mit U-Booten oder fernen Truppen Nachrichten auszutauschen, ist sie kaum geeignet.
Um Telefongespräche und Daten in akzeptabler Qualität von einem Kontinent zum anderen zu übertragen, waren die USA und Europa in erster Linie auf durch den Atlantik verlegte unterseeische Kabelstrecken angewiesen. Diese Kabel wären im Falle einer militärischen Auseinandersetzung – man befand sich bekanntlich im kalten Krieg mit der Sowjetunion – ein leichtes Ziel. Unterwasserbomben konnten sie mühelos kappen. Hierin sah das Militär ein großes Risiko.
So suchte man nach alternativen Möglichkeiten zur interkontinentalen Kommunikation per Funk. 1946, lange vor dem ersten künstlichen Erdsatelliten Sputnik 1, gelang es Wissenschaftlern, Funksignale am Mond zu reflektieren, aber durch die große Entfernung und ein folglich schwaches Empfangssignal sowie der nur halbtäglichen Verfügbarkeit des Mondes war dies kein brauchbarer Kommunikationskanal. 1960 starteten die Amerikaner ihren ersten primitiven Kommunikationssatelliten: Echo 1. Es handelte sich dabei um einen Ballon aus einer mit Aluminium bedampften Polyesterfolie, die durch Sublimation eines Feststoffes im All auf 30 m Durchmesser aufgeblasen wurde und somit den Verlust von Füllgas durch von Mikrometeoriten verursachte Punktierungen der Hülle in Grenzen ausgleichen konnte. Echo 1 umkreiste die Erde in ca. 1600 km Höhe. Mit Echo 1 gelang es, Mikrowellen-Signale zwischen der West- und der Ostküste der USA über 4000 km Entfernung hinweg auszutauschen und später auch TV-, Radio- und Telefonübertragungen über den Atlantik. Der Satellit hielt sich immerhin bis 1968 im Orbit und hatte 1964 mit Echo 2 noch einen größeren, verbesserten Nachfolger, der die Erde bis 1969 in 1000-1300 km Höhe umkreiste. Aber auch hier waren die Funkstrecken nur zeitweise und zudem kurzfristig verfügbar, so dass es bei Experimenten blieb.
Das wohl verrückteste Kommunikationssystem ersann aber Walter E. Morrow 1958 an den Lincoln-Laboren des Massachusetts Institute of Technology (MIT), einer Forschungsstation auf einer Luftwaffenbasis nahe Boston: das Projekt West Ford, auch Westford Needles genannt, benannt nach der Ortschaft Westford, Massachusetts, wo die Lincoln Labs eine Parabolantenne installiert hatten. Ziel des Projekts war, die Erde mit einer Art “künstlichen Ionosphäre” zu umgeben, einem radio-reflektierenden Ring aus kleinen Kupferdrahtnadeln. Dieser wäre vor sowjetischer Sabotage sicher und nicht von den Unbilden der Sonnenaktivität abhängig. Die Nadeln sollten 1,78 cm Länge und 25,4 Mikrometer Durchmesser haben (etwa vergleichbar dem Durchmesser eines Kopfhaares), und somit für Mikrowellen von 8 Gigahertz (Wellenlänge 3,75 cm) wie kleine Dipolantennen wirken. In ihnen würden von der Westford-Schüssel hinauf gesendete Funkwellen die Elektronen genau im Takt der 8-GHz-Welle hin- und her schwingen lassen. Dadurch strahlten die Dipole Wellen in alle Richtungen aus. Durch die Überlagerung vieler Wellenfronten von zahlreichen Dipolen würde das Signal wie an einem Spiegel reflektiert werden, Einfallswinkel = Ausfallswinkel. Damit würde man Signale von den USA nach Europa und zurück reflektieren können. Die Dipole sollten die Erde in mittlerer Höhe von 3000 bis 4000 km umkreisen – je näher sie der Erde waren, desto stärker wäre das Signal, allerdings nimmt mit Höhe auch der Horizontradius und somit die überbrückbare Reichweite ab. Wegen der in dieser Höhe nur rund dreistündigen Umlaufzeit könnte man die Dipole nicht ortsfest über einem Punkt der Erde halten, also müsste man einen kompletten Ring von ihnen um die Erde legen, um jederzeit Funkkontakt herstellen zu können. Mit drei solchen um 60° gegeneinander versetzten Ringen in polaren Umlaufbahnen, unter denen sich die Erde weiter dreht, würde man eine permanente Verfügbarkeit der Funkstrecke sicherstellen können.
En 1963, l’armée américaine voulant un système de communication à grande échelle, plaça en orbite 480 millions de “petites antennes”, des aiguilles en cuivre d’1,78 cm, qui formèrent alors une ceinture de 15 km de large et de 30 km d’épaisseur tout autour de la Terre !
pic.twitter.com/bx5JFyAEYv— Tu sais pas quoi ?! (@tuCpakoa) September 16, 2018
Radioastronomen liefen allerdings Sturm gegen das Programm, weil sich fürchteten, dass die West Ford Nadeln die Signale ferner Radioquellen abschirmen würden. Außerdem machten Wissenschaftler auf die Problematik des Weltraummülls aufmerksam, der zukünftige Satelliten gefährden könnte. Die Regierung berief sich darauf, dass da oben am Himmel sehr viel Platz sei und man lieber das Risiko trage, gelegentlich einen zukünftigen Satelliten zu verlieren, als von den Kommunisten überrannt zu werden. Den Radioastronomen versprach man, dass die Kupfernadeln in einer niedrigen Höhe kreisen würden und nach zwei Jahren durch den Druck des Sonnenwindes in die Atmosphäre gedrückt und verglühen würden. Man würde dann zunächst Ergebnisse sammeln und auswerten und dann weitersehen.
Es blieb nicht bloß bei Plänen – am 21. Oktober 1961 startete eine Atlas-Agena als Huckepack neben einem militärischen Aufklärungssatelliten den West Ford 1 “Dispenser” (engl. Spender) (Bild) mit 480 Millionen Kupfernadeln (20 kg Masse) an Bord. Der Dispenser-Satellit sollte einen Behälter mit den Westford-Nadeln via eines Sprungfedermechanismus rasch rotierend aussetzen, aus dem sie sich langam lösen, durch die Rotation fortgeschleudert werden und gleichmäßig im Orbit verteilen sollten. Die Nadeln waren dazu in Naphtalin, einem leicht sublimierenden Gel auf der Basis von Erdöl, eingelassen, aus dem sie sich bei seiner Verdunstung im All allmählich lösen sollten. Die russische Tageszeitung Prawda titelte “Die USA versauen den Weltraum”. Aber die Mission misslang: der Dispenser trennte sich anscheinend nicht von der Oberstufe und das Aussetzen der Nadeln schlug fehl.
Am 9. Mai 1963 nahm das Militär einen zweiten Anlauf, der gelang. Bis Juli 1963 verteilten sich die knappe halbe Milliarde Nadeln als 15 km breiter und 30 km dicker Torus um die Erdkugel. Bereits am 14. Mai, als die Nadeln noch dichter beieinander waren, unternahm man den ersten Kommunikationsversuch zwischen zwei 18,5 m durchmessenden Mikrowellen-Schüsseln in Kalifornien und Massachusetts. Es wurden digitale Sprachsignale mit ca. 20 kbit/s ausgetauscht – deutlich mehr Datenrate als bei GSM (6,5-13 kbit/s), aber damals verwendete man noch keine hochgezüchtete, komprimierte Kodierung wie im heutigen Mobilfunk, und dann sind 20 kbit/s nicht viel – normale Telefonqualität benötigt 8000 Symbole zu 8 bit pro Sekunde um Sprache bis 4 kHz zu übertragen – macht 64 kbit/s. Dementsprechend wurde das Sprachsignal als “verständlich” beschrieben. Am 2. Juli 1963 wurde das Experiment beendet. Die Weltraumnadeln hatten sich nun auf 400 m mittleren Abstand voneinander entfernt und die Sprachqualität war noch viel schlechter geworden – aber man hatte gezeigt, dass das Prinzip funktionierte. Es brauchte nur genug Nadeln.
Zum Glück war der Erfolg aktiver Nachrichtensatelliten so groß, dass das heftig kritisierte Projekt nicht weiter verfolgt wurde. Der britische Radioastronom Sir Bernard Lovell wurde Ende Mai 1963 in einer Zeitung zitiert “Der Schaden liegt nicht nur in diesem Experiment alleine, sondern in der mentalen Einstellung, die es ohne internationales Abkommen und Absicherungen möglich gemacht hat.” Die USA hatten sich nicht erst nach diesem Experiment, sondern insbesondere nach der Zündung einer Kernwaffe im Weltraum (Starfish Prime), die mit ihrem elektromagnetischen Puls die Straßenbeleuchtung auf Hawaii lahmlegte und in deren Folge sieben Satelliten funktionsunfähig wurden, einen Ruf als Weltraum-Rowdies erworben. Das Westford-Projekt wurde sogar vor die Vereinten Nationen gebracht und führte 1967 unter dem Eindruck von Starfish Prime schließlich zum Beschluss des Weltraum-Vertrags, der die Nutzung des Weltraums bis heute regelt. Die Westford-Ingenieure waren jedoch von ihrem Konzept überzeugt und gaben den sie kritisierenden Wissenschaftlern die Schuld an der Einstellung des Projekts.
Was wurde aber aus den Weltraumnadeln? Die meisten von ihnen dürften den Beobachtungen und theoretischen Erwägungen nach bis 1970 in der Atmosphäre abgebremst worden und auf den Boden gerieselt sein – zum Verglühen waren sie zu leicht. Man hatte sogar darüber nachgedacht, sie zu wissenschaftlichen Zwecken im Eis der Arktis zu suchen, um mehr über die Bedingungen im Weltraum zu lernen – etwa 5 Stück erwartete man pro Quadratkilometer im ewigen Eis zu finden. Man unterließ die aufwändige Suche dann allerdings aus Kostengründen.
Im Naphthalin hatten aber auch etliche Nadeln direkten Metallkontakt untereinander, und der kann, wie wir heute wissen, im Vakuum dazu führen, dass sie miteinander verschweißt werden und verklumpen. Solche Klumpen verbleiben viel länger auf der mittleren Umlaufbahn. Der amerikanischen Weltraumüberwachung NORAD sind tatsächlich über 40 Westford-Klumpen bekannt, deren heutige Umlaufbahnen sie ihn ihrer Datenbank über Weltraumschrott verzeichnet hat. Eine Studie der ESA aus dem Jahr 2001 kommt gar zu dem Schluss, dass die fehlgeschlagene Mission von 1961 tausende weiterer Klumpen freigesetzt haben könnte, von denen viele zu klein zur Verfolgung von der Erde aus sein dürften. Dennoch machen die Westford-Nadeln nur einen Bruchteil des gesamten Weltraumschrotts aus.
Und nun scheint sich die Geschichte in Form von Starlink in gewisser Weise zu wiederholen. Bleibt zu hoffen, dass dieses Projekt genau so glimpflich ausgeht.
Die Sowjetunion und die USA, ehemalige Alliierte im 2. Weltkrieg, befanden sich wenige Jahre nach dem Ende des Krieges im kalten Krieg. Aus Angst vor der Möglichkeit, dass das dritte Reich eine Atombombe entwickeln könnte, hatten die ungarisch-amerikanischen Physiker Leó Szilárd, Edward Teller und Eugene Wigner Einstein gedrängt, einen Brandbrief an Präsident Roosevelt zu unterschreiben, die Bombe als erste zu entwickeln, denn es waren deutsche Chemiker (Otto Hahn und Fritz Strassmann) und österreichische Physiker (Lise Meitner und Otto Frisch), die die Grundlagen der kontrollierten Kernspaltung entdeckt hatten. Und so brachte Roosevelt das Manhattan-Projekt auf den Weg, das binnen 3 Jahren den Kernreaktor, die Urananreicherung, die Produktion von Plutonium, den Zündmechanismus, die erste Testzündung Trinity im Juli 1945 und schließlich zwei Bombentypen hervorbrachte, die noch im August 1945 gegen Menschen eingesetzt wurden und Tod und Verwüstung über Hiroshima und Nagasaki brachten. Ein Schicksal, dass Deutschland nur deshalb erspart blieb, weil es bereits im Mai zuvor kapituliert hatte.
Die Sowjets, die seit 1942 ihr eigenes Atombombenprojekt ebenfalls aus Angst vor Hitlers Bombe verfolgten und dieses nach den Atombombeneinsätzen der Amerikaner forciert hatten, zogen bald nach und zündeten 1949 ihre erste Spaltungsbombe.
Während der Leiter des Manhattan-Projekts Robert Oppenheimer nach dem Einsatz der Atombombe gegen Menschen entsetzt war und versuchte, die Verbreitung von Atomwaffen durch internationale Verträge zu stoppen, was ihn alsbald in Verruf brachte, die Sowjets mit Wissen über die Bombe versorgt zu haben, forderte Edward Teller die Weiterentwicklung der Spaltungsbombe zur thermonuklearen Fusionsbombe – er wurde der Vater der Wasserstoffbombe. Denn gegen Atomwaffen gibt es keinen Schutz. Kombiniert mit der Möglichkeit, per Rakete fast ohne Vorwarnung jeden Ort der Welt binnen 30 Minuten in Schutt und Asche zu legen, bleibt als möglicher Schutz nur die Drohung eines ebenso wenig abzuwehrenden Rückschlags, und so steigerten sich die Supermächte USA und UdSSR bald in ein mörderisches Wettrüsten um die zerstörerischsten Waffen.
Die Sprengkraft der Wasserstoffbombe und der durch sie verursachte Fallout war so stark, dass die Amerikaner ihre Tests von zunächst Nevada (wo weiterhin kleinere Bomben getestet wurden) auf die zu den Marshall-Inseln gehörenden Bikini- und Eniwetok-Atolle im Nordpazifik auslagerten. Die Marshall-Inseln (wie auch die Marianen und Karolinen) gehörten zum vor dem Krieg unter dem Mandat des japanischen Kaiserreichs stehenden Mikronesien, das die USA nach dem Pazifik-Krieg besetzten und das ihnen 1947 von den Vereinten Nationen als Treuhandgebiet zur Verwaltung übergeben worden war – ohne jede Nutzungsbeschränkung. Die US NAVY siedelte im Februar 1946 die 167 Bewohner des Bikini-Atolls in dem guten Glauben, bald wieder zurückkehren zu können, auf das wesentlich kleinere, unbewohnte Atoll Rongerik um, welches eine nur unzureichende Versorgung mit Süßwasser und Nahrungsmitteln bot, so dass sie bald darauf auf Versorgungslieferungen der Amerikaner angewiesen waren und schließlich erneut auf mehrere Atolle umgesiedelt wurden. Die Tests auf Bikini begannen noch im Jahr 1946 mit der Operation Crossroads, die zwei 22-Kilotonnen-Bomben vom Typ der Nagasaki-Bombe detonierte, eine davon (Baker) unter Wasser, deren Bilder sehr prominent wurden.
Der erste Test einer thermonuklearen Zündung fand am 8. Mai 1951 auf dem Eniwetok-Atoll statt. Der Test Greenhouse George beruhte nicht auf einem Design, das für eine als Waffe taugliche Wasserstoffbombe geeignet gewesen wäre: es verwendete einen torusförmigen Behälter, in dem eine Atombombe als Schale eine kleine Menge gekühlten, flüssigen Wasserstoff umgab, der aus den Isotopen Deuterium (2H, 1 Proton, 1 Neutron; gewöhnlicher Wasserstoff 1H hat nur 1 Proton als Kern) und Tritium (3H, 1 Proton, 2 Neutronen) bestand. Zwar hätten je zwei Deuteriumkerne alleine gereicht, zu Helium-4 (4He, 2 Protonen, 2 Neutronen) zu verschmelzen, aber die Energie der zündenden Spaltungsbombe wird größtenteils als Röntgenstrahlung frei, die vom Deuterium alleine nicht stark genug absorbiert wird, um die zur Fusion nötige Temperatur zu erreichen. Tritium war hingegen nur sehr teuer zu produzieren und zerfiel rasch – man hätte für das gleiche Geld eine größere Spaltbombe bauen können. So setzte Greenhouse George auch nur 225 kT frei – die meiste Energie entstammte der Kernspaltung, nur 25 kT kamen aus der Fusion von 30 Gramm an Wasserstoffisotopen. Aber die Fusion gelang und verstärkte die Explosionswirkung.
Die erste echte Wasserstoffbombe war Ivy Mike, ein riesiger, 6,2 m langer, 2 m durchmessender Zylinder mit 30 cm dicker Hülle, genannt Sausage (Wurst), der 82 Tonnen wog. Als Fusionsbrennstoff enthielt er 2000 Liter flüssigen Deuteriums, dessen Kühlvorrichtung alleine 26 Tonnen auf die Waage brachte. Das Deuterium sollte durch ein neues Design nach Edward Teller und Stanislaw Ulam zur Zündung gebracht werden. Hierbei dient eine Spaltungsbombe an einem Ende des zylinderförmigen Stahlbehälters als Zünder für das Deuterium, das in einem inneren Gefäß aus nicht kritischem Uran-238 enthalten ist, in dessen Mitte sich ein Plutoniumstab als zusätzlicher Zündkern (Sparkplug) befindet. Das Urangefäß ist eingepackt in Bleimatten und der Leerraum zwischen Außenwand und Urangefäß ist mit einem wärmeisolierenden Kunststoff ausgefüllt. Die Röntgenstrahlung der Spaltungsbombe wird im Zylindergehäuse nach innen reflektiert, der Kunststoff verdampft und komprimiert die Fusionsladung; der Plutoniumstab wird dadurch überkritisch und beginnt eine Kettenreaktion, die Neutronen freisetzt, welche wiederum die Kernspaltung in der Uranhülle auslösen, so dass das Deuterium von innen und außen erhitzt, unter Druck gesetzt und mit Neutronen beschossen wird. Dies löst die Fusion des Deuteriums aus.
Ivy Mike wurde, wie vorher öffentlich angekündigt, am 31. Oktober 1952 auf der Insel Elugelab im Eniwetok-Atoll von einem Schiff aus 50 km Entfernung gezündet. Die Explosion setzte eine Energie von 10,4 Megatonnen TNT frei – 700mal so viel wie die Hiroshima-Bombe. Dies lag im Rahmen der Erwartungen von 5 bis 10 MT. Der Feuerball der Explosion erreichte initial bis zu 80 Millionen Kelvin und wuchs auf einen größten Durchmesser von ca. 3 km. Er stieg binnen 90 Sekunden auf 17 km Höhe und erreichte eine maximale Höhe von 43 km. Die Explosionswolke dehnte sich auf 160 km Breite aus. Die Insel Elugelab wurde vollständig verdampft – an ihrer Stelle verblieb nur ein Krater von 1,9 km Durchmesser und 50 m Tiefe. Ivy Mikes Pilzwolke sog 80 Millionen Tonnen verdampften und zertrümmerten Bodengrund mit sich in die Höhe. Noch in 56 km Entfernung fielen verstrahlte Korallenstücke auf ein Schiff. Der NAVY-Beobachter Harold Agnew, der die Explosion aus 40 km Entfernung beobachtet hatte, berichtete später, dass die ganze Welt in Flammen gestanden zu haben schien.
Was ich nie vergessen werde ist die Hitze – nicht die Druckwelle, sondern die Hitze, die kam und immer weiter andauerte – das ist eine wirklich beängstigende Erfahrung, weil die Hitze nicht aufhört. Bei einer Kilotonnen-Explosion gibt es einen Blitz und das war’s, aber bei diesen großen Explosionen ist es wirklich beängstigend.
Er fuhr fort, dass seiner Meinung nach die politischen Führer der Welt alle 5 Jahre eine Multi-Megatonnen-Explosion wie Ivy Mike persönlich miterleben sollten.
Das würde ihnen Ehrfurcht vor Allah, Gott, Mohammed, Buddha oder wem auch immer in die Adern jagen.
Edward Teller war nicht vor Ort, sondern 7700 km entfernt im Keller des geophysikalischen Instituts in Berkeley, Kalifornien, und konnte dort noch die Schockwelle mit einem Seismometer messen. Noch ehe das für die Konstruktion der Bombe verantwortliche Labor in Los Alamos über die erfolgreiche Zündung Nachricht erhalten hatte, sendete Teller dorthin ein Telegramm: “It’s a boy” – es ist ein Junge.
Auf der Nachbarinsel Engebi, 5 Kilometer von Ground Zero entfernt, fand man später nur den Körper eines toten Vogels und ansonsten keine Spur eines lebenden Wesens. Von der ursprünglichen Vegetation waren nur noch Stümpfe im Boden übrig. Man fand tote Fische, die verbrannt waren – bei einem fehlte auf einer Seite die Haut, so als ob ihn jemand in eine Pfanne mit heißem Fett geworfen hätte. Und man fing Jahre später noch Fische, die auf eine Röntgen-Fotoplatte gelegt ihr eigenes Röntgenbild hinterließen.
Zwar wurde auf dem Design von Ivy Mike aufbauend auch eine Fliegerbombe entwickelt, aber der Aufwand, das Deuterium auf -250 °C gekühlt zu halten, war zu groß für eine gefechtsmäßige, jederzeit für einen Gegenschlag bereite Waffe.
Mit der Operation Castle kehrten die Tests erstmals wieder auf Bikini zurück. Castle Bravo war der erste Test in der Reihe. Für diese zweite große Wasserstoffbombe setzte man auf Lithiumdeuterid als Fusionsbrennstoff: LiD, das ist Lithiumhydrid LiH mit dem schwereren Wasserstoffisotop Deuterium (D) anstelle des Wasserstoffs (H). Lithiumdeuterid ist eine Art Salz, das bei Raumtemperatur ein Feststoff ist, also nicht gekühlt zu werden braucht und das sich dementsprechend beliebig lange lagern lässt. Durch Neutronenbeschuss sollte das Lithium teilweise zu Tritium und Helium zerfallen und das Tritium dann mit dem Deuterium zur Fusion gelangen. So war die Sprengkraft auf 5-6 Megatonnen TNT kalkuliert worden.
Der zylinderförmige Behälter, genannt SHRIMP, war 4,60 m lang, durchmaß 1,40 m und wog kanppe 11 Tonnen – leicht genug, um von einem Bomber ins Ziel gebracht zu werden. Er enthielt (nur) 400 kg Lithiumdeuterid. Man deponierte den SHRIMP auf einer künstlichen Insel nahe Namu am Nordwestende des Bikini-Atolls. Die Zündung war für den 1. März 1954 um 6:45 Ortszeit (28. Februar 19:45 MEZ) geplant. Der Zeitpunkt war geheim und es gab, anders als bei Ivy Mike, keine zivilen Evakuierungen, denn man erwartete, dass der lokale Fallout keine bewohnten Gebiete treffen würde und wollte sich im Übrigen die Kosten sparen. Natürlich verließen alle Militärs das ansonsten nicht mehr bewohnte Bikini-Atoll, bis auf das Zündkommando, das in einem atombomben- und wasserfesten Bunker am südöstlichen Ende auf der Insel Eneu, 30 km entfernt von Ground Zero, untergebracht war. 3 Tage vor dem Test hatte der Wetterdienst günstige Winde vorhergesagt, die den Fallout aufs offene Meer treiben sollten, aber 6 Stunden vorher drehte der Wind unerwartet und der Fallout drohte, auf unbewohnte Inseln niederzugehen. Dennoch hielt der zuständige Generalmajor Percy Clarkson am geplanten Termin fest, weil die Vorbereitungen so aufwändig gewesen waren.
Die Zündung erfolgte planmäßig, aber die Explosion verlief alles andere als nach Plan. Der Feuerball breitete sich binnen einer Sekunde auf 7 km Durchmesser aus und verdampfte drei Inseln, an deren Stelle nun ein 2 km durchmessender Krater von 75 m Tiefe klafft. Die Pilzwolke wuchs binnen 10 Minuten auf 40 km Höhe und 100 km Durchmesser. Anwohner der Marschall-Inseln in 400 km Entfernung berichteten später, dass die Explosion am frühen Morgen wie ein Sonnenaufgang im Westen mit rotem und orangefarbenem Himmel ausgesehen habe – und wie sie die nachfolgende Schockwelle erschreckte.
Wie spätere Analysen ergaben, setzte die Explosion eine Sprengkraft von 15 Megatonnen TNT frei – 2,5 mal mehr, als die Physiker in Los Alamos berechnet hatten, 1000mal so viel wie die Hiroshima-Bombe und mehr als jede andere von Menschen herbeigeführte Explosion zuvor.
Marine-Veteran John Halderman war einer der am Test beteiligten Soldaten. Er befand sich an Bord der USS Curtiss und beobachtete die Explosion der Bombe, die er zuvor mit seiner Unterschrift signiert hatte, aus 40 km Entfernung. In einem TV-Interview berichtete er:
Wir trugen dunkle Schutzbrillen, aber als die Bombe hochging, konnten wir die Knochen in unseren Armen sehen, wie auf einem Röntgenbild. Und dann drehten wir uns um und nahmen die Brillen ab, wir alle dachten, [die Explosion] sei in weiter Ferne. Aber sie war direkt über uns. Dann konnte man die Schockwelle kommen sehen. Wie eine Mini-Flutwelle oder ein Tsunami. Du schnappst nach Rettungsleinen und hältst dich an Kanonenmontierungen fest und Kameraden rutschen über das Deck und du versuchst sie festzuhalten. Dann neigte [das Schiff] sich in die andere Richtung. Ich drehte mich zu meinem Kumpel um und sagte ‘Hey, ich glaube, wir sind erledigt’ und er sagte ‘ich glaube du hast Recht’.
20 Sekunden nach der Zündung wurde der Bunker auf Eneu von einem Erdbeben erschüttert. Nach 90 Sekunden traf die Schockwelle ein und verursachte Risse im Beton des Bunkers. Aber am meisten Angst machte den Soldaten des Zündkommandos die draußen ansteigende Strahlung. Die Geigerzähler stiegen immer weiter, denn der Fallout der Bombe wurde vom Wind in Richtung des Bunkers geweht. Die Soldaten wurden nach einigen Stunden, nachdem die stärkste Strahlung von bis zu 25 Röntgen pro Stunde etwas abgeklungen war, von einem Hubschrauber abgeholt, und hüllten sich zum Schutz vor dem von den Rotoren aufgewirbelten radioaktiven Staub in Betttücher.
Auch auf der USS Curtiss ging Fallout nieder. Halderman berichtet, dass die Besatzung 10 Tage lang unter Deck kommandiert wurde und sie den Befehl hatten, jeden der den Innenraum des Schiffs verlassen wollte, zu erschießen.
In der Gegend hielt sich zufällig und unbemerkt ein japanisches Fischerboot auf, die Daigo Fukuryū Maru, deren Besatzung erschrocken und fasziniert zugleich das Lichtspiel der Explosion aus 145 km Entfernung beobachtete. Das Schiff befand sich damit außerhalb der von der US-Regierung verordneten Sperrzone. Besatzungsmitglied Oishi Matashichi berichtete:
Ein gelber Blitz strahlte durch das Bullauge herein. Ich wunderte mich, was das war, rannte an Deck und war verblüfft. Die Schiffsbrücke, Himmel und Meer wurden schlagartig sichtbar, gebadet in flammende Sonnenuntergangsfarben. Ich sah mich völlig verwirrt um – ich hatte keine Ahnung, was da vor sich ging.
Nach 7 Minuten hörten die 23 Seeleute den Donner der Explosion und nach zwei Stunden begann der Fallout, der aus pulverisierten Korallen bestand und an fallende Schneeflocken erinnerte, auf das Schiff zu rieseln. Die Seeleute sammelten das Pulver, das an Haaren und Kleidung haften blieb, in Säcken und einer prüfte sogar mit der Zunge seinen Geschmack. Die gesamte Besatzung erkrankte danach wochenlang an der Strahlenkrankheit. Einer verstarb, allerdings nur indirekt an den Folgen der Verstrahlung, denn während der Behandlung, unter anderem mit unreinen Bluttransfusionen, zogen sich die Seeleute eine Hepatitis-Infektion zu, die der Funker des Schiffs nicht überlebte.
Der zunächst vertuschte Vorfall, der den geheim gehaltenen Castle Bravo Test erst an die breite Öffentlichkeit brachte, führte zu einer diplomatischen Krise zwischen Japan und den USA, insbesondere als das Gerücht für Panik in der Bevölkerung sorgte, dass verstrahlter Thunfisch des Fischerboots auf den japanischen Markt gelangt sei.
5 Stunden nach der Explosion erreichte der Fallout die bewohnten Marschall-Inseln der Rongelap-, Rongerik-, Utrik und Ailinginae-Atolle und rieselte stundenlang herunter, bis die Inseln von einer 2 cm tiefen weißen Staubschicht bedeckt waren. Die Kinder hielten den Fallout für Schnee, von dem die Missionare ihnen erzählt hatten, spielten damit und aßen ihn sogar. Frauen rieben ihn sich in ihre Haare. Fast alle entwickelten Stunden später schwere Symptome der Strahlenkrankheit: Verbrennungen oder Entzündungen der Haut, Übelkeit, Erbrechen, Durchfall, brennende Augen oder anschwellende Gliedmaßen. Das US-Militär ordnete an, dass seine auf der Insel stationierten Meteorologen sich in Metallbunkern verschanzen sollten und dort auf die Evakuierung warten. Erst 48 Stunden später evakuierte das Militär hastig die rund 250 Einwohner der am stärksten betroffenen Atolle Rongelap und Rongerik, die ihr ganzes Hab und Gut zurücklassen mussten, auf andere Inseln. Da man ihnen dort viel bessere Unterkünfte zur Verfügung stellte als daheim, hielt sich ihr Protest in Grenzen – anfänglich für 6-12 Monate geplant mussten sie 3 Jahre bis 1957 in der Evakuierung bleiben.
Sie hatten Strahlendosen von 60-300 rem erhalten – 5 bis 10 rem führen schon zu genetischen Schäden und 400 rem töten 50% der Betroffenen. 20 von 29 der Kinder, die dem Fallout ausgesetzt waren, entwickelten Knoten in der Schilddrüse, viele bösartig. Viele Frauen brachten entstellte Kinder zur Welt, manche mit vergrößerten Schädeln oder durchsichtiger Haut, die nur ein paar Tage überlebten. In den Jahren darauf starben noch viele Kinder an Leukämie. Die Bevölkerung wurde nie umfassend über die Verstrahlung aufgeklärt und viele erlitten psychologische Traumata. Währenddessen testete die US-Regierung allerlei Medikamente an der Bevölkerung, aber die Ärzte erklärten den Betroffenen nur selten, was die Ursache ihrer Krankheiten war.
Warum war die Explosion so viel heftiger ausgefallen als vorhergesagt?
Lithium hat 3 Protonen im Kern und kommt natürlicherweise als Gemisch der stabilen Isotope Lithium-7 (also mit 4 Neutronen) (92,5% Anteil) und Lithium-6 (3 Neutronen) (7,5% Anteil) vor. Man hatte das Lithium für die Bombe auf 40% 6Li und 60% 7Li angereichert. Die Reaktion sollte nämlich wie folgt ablaufen:
Ein Neutron (initial aus den Spaltreaktionen der Zünder geliefert) zertrümmert einen 6Li-Kern in Tritium und 4He (das Neutron wird dabei von einem der Kerne eingefangen). Das Tritium fusioniert dann mit dem Deuterium zu 4He und einem freien Neutron, das die Reaktion beim nächsten 6Li-Kern fortsetzt. Das Lithium-7 sollte hingegen eingefangene Neutronen unverändert wieder abstoßen und somit an der Reaktion nicht teilnehmen.
Dem war jedoch nicht so. Das Lithium-7 wurde durch die eingefangenen Neutronen genau so in Tritium und 4He zertrümmert, wie das Lithium-6, nur dass das eingefangene Neutron dabei wieder frei wurde. Damit war 60% mehr Tritium für die Fusion verfügbar, was die Fusionsreaktion so viel heftiger ausfallen ließ. So führte neben dem verantwortungslosen Festhalten der Verantwortlichen am trotz sich ändernder Wetterbedingungen geplanten Zündzeitpunkt die Fehlkalkulation der Physiker in Los Alamos zur bis dahin größten nuklearen Verseuchung der Geschichte.
1985 wurden die mittlerweile 350 Bewohner von Rongelap nach einer entsprechenden Bitte des Senators der Marshall-Inseln an Greenpeace durch deren Schiff Rainbow Warrior erneut evakuiert, mitsamt all ihrem Besitz. 1996 kehrten sie dann im Rahmen einer $45-Millionen-Dollar Vereinbarung mit der US-Regierung zurück und trugen die Oberfläche der Insel einige Zentimeter tief ab.
Frauen hatten nach einer Untersuchung aus dem Jahre 1997 auf den Marshall-Inseln ein 60mal höheres Risiko für Gebärmutterhalskrebs als solche in den USA, sowie ein 5-fach erhöhtes Risiko für Brustkrebs. Das Risiko von Magen-Darm-Krebsarten war in der Bevölkerung fünffach und das für Lungenkrebs dreifach erhöht. Messungen aus dem Jahr 2014 ergaben schließlich, dass die Strahlung auf Rongelap nun nicht mehr gefährlich war.
Weniger Glück hatten die ehemaligen Anwohner des Bikini-Atolls – auch sie kehrten 1972 vorübergehend in ihre Heimat zurück, mussten sie aber 1978 wieder verlassen, weil in ihrem Urin Plutonium und in den Brunnen radioaktivees Strontium-90 gefunden worden war. Das Atoll wird noch für Jahrhunderte unbewohnbar bleiben – nur kurze Aufenthalte von Sporttauchern sind erlaubt. Die ehemaligen Bewohner sind immer noch auf Versorgungslieferungen der Amerikaner angewiesen.
Der bis in die Stratosphäre getragene Fallout wurde über die ganze Welt verteilt und führte zu den ersten internationalen Protesten gegen die überirdischen Atomversuche, die allerdings erst 1963 nach einem Abkommen zwischen den USA und der Sowjetunion eingestellt und durch unterirdische Versuche, die keinen Fallout freisetzen, ersetzt wurden (die von den USA bis 1992 fortgesetzt wurden, von Frankreich bis 1996 und Nordkorea hat zuletzt noch 2017 getestet). Castle Bravo wurde noch von drei Nukleardetonationen übertroffen, zwei 20-Megatonnen-Versuche und die berühmte Zar-Bombe mit 58 Megatonnen, allesamt sowjetische Versuche, die in großer Höhe gezündet wurden und daher kaum Fallout produzierten.
Castle Bravo führte zur Entwicklung kompakter, nur wenige hundert Kilogramm schwerer Sprengköpfe und Bomben mit Megatonnen-Sprengkraft, die immer noch zu Tausenden existieren, einige davon befinden sich noch auf deutschem Boden. In den Händen besonnener, rationaler Politiker sichern sie einem Land die Unangreifbarkeit, weswegen einige Länder nach Atomwaffen streben oder sie schon besitzen. In den Händen eines lebensmüden Psychopathen, dem wie zuletzt Hitler im Führerbunker alles egal ist, bringen sie uns nur einen Knopfdruck entfernt an den Rand des Weltuntergangs. Das einzige wirklich wirksame Mittel zur Abwehr der atomaren Bedrohung ist Vertrauen zwischen den Nationen.
CHEOPS ist zunächst einmal keine Exoplaneten-Suchmission. Anders als TESS, die den gesamten Himmel nach nahe gelegenen Exoplaneten absucht, oder Kepler, der während seiner Hauptmission ein zufällig ausgewähltes Feld mit rund 200.000 überwiegend fernen Sternen fest im Blick hatte, wird man mit CHEOPS gezielt Sterne beobachten, bei denen bereits Exoplaneten nachgewiesen wurden.
Es gibt mehrere Methoden zum Aufspüren von Exoplaneten. Die wichtigsten sind:
Um einen Planeten charakterisieren zu können, wie CHEOPS Name es verspricht, um also etwas detailliertes über seine Natur sagen zu können, braucht man im Allgemeinen mindestens seine Masse und seinen Durchmesser, denn dann kennt man auch seine Dichte und kann mit Hilfe von Modelle abschätzen, ob er eher aus Gasen und Eis mit kleinem Gesteins- und Eisenkern besteht, oder eher massiv mit geringem Anteil flüchtiger Stoffe ist. Gerade im Bereich von Objekten zwischen Neptun- und Erdgröße ist dies wesentlich, denn es gibt Mini-Neptune und Supererden, die beide die gleiche Masse haben, aber verschiedene Dichten haben und somit komplett verschieden sind – auf der einen Seite Planeten vermutlich ohne feste Oberfläche, die von ausgedehnten Gashüllen umgeben sind und auf der anderen Seite solche mit wohl dünner, transparenter Atmosphäre über festem Land oder einem planet-umspannenden Ozean. Solche Planeten, von denen es im Sonnensystem keinen Vertreter gibt, sind Hauptziele der Mission.
Statt nach neuen Planeten zu suchen, soll CHEOPS vor allem solche Planeten genauer vermessen, deren Masse bereits mit der Radialgeschwindigkeitsmethode bestimmt wurde. Wenn so ein Planet einen Transit durchführt, weiß man, dass seine Umlaufbahn in der Sichtlinie liegt und die gemessene Masse exakt ist.
Aber auch von TESS gefundene Planeten sollen länger und genauer untersucht werden, und es soll nach Transitzeit-Variationen gesucht werden, die auf weitere Planeten im gleichen System oder auf den Planeten umlaufende Monde zurückgehen könnten. Weiterhin soll CHEOPS die Lichtkurven großer Gasplaneten messen, die ihren Stern eng umkreisen (sogenannte heiße Jupiter), um mehr über den Energietransport in ihren Atmosphären zu lernen – CHEOPS wird dazu das kombinierte Licht von Stern und Planet messen, wenn der Planet neben dem Stern steht, im Vergleich zu den Phasen Transit und Bedeckung. Schließlich wird man auch die beobachteten Sterne selbst erforschen und z.B. Sternflecken, Sternoszillationen (Asteroseismologie) oder den Lichtwechsel veränderlicher Sterne untersuchen. 80% der Beobachtungszeit sind vom CHEOPS-Wissenschaftsteam fest verplant (Guaranteed Time Observing oder GTO-Programm) und 20% stehen auf Antrag Gastbeobachtern aus der Wissenschaftsgemeinschaft zur Verfügung (Guest Observers oder GO-Programm).
Ziel der Beobachtungen ist, mehr über die Zusammensetzung von Planeten und damit ihre Entstehung und Entwicklung zu erfahren, womit wir letztlich auch etwas über unser Sonnensystem lernen. Außerdem sollen Kandidaten gefunden werden, deren Atmosphären man mit zukünftigen Großteleskopen wie dem ELT, TMT, GMT oder dem James-Webb-Weltraumteleskop wird spektroskopieren können, um ihre Zusammensetzung zu bestimmen und vielleicht sogar nach Spuren von Leben zu suchen.
Der Hauptvorteil gegenüber TESS ist die wesentlich größere Optik des Teleskops, mit der schwächere Sterne mit höherer Empfindlichkeit beobachtet werden können, als die vier kleinen TESS-Optiken es leisten können: während TESS nur mit 10,5-cm-Linsen-Objektiven von 150 mm Brennweite den Himmel in großen Sektoren beobachtet, die ungefähr das komplette Sternbild Orion fassen können, verfügt CHEOPS über ein 33 cm durchmessendes Spiegelteleskop mit 2,68 m effektiver Brennweite. Das Blickfeld ist mit 19×19 Bogenminuten etwa halb so groß wie die Fläche des Vollmonds und damit auch wesentlich kleiner als das 24 Vollmonddurchmesser durchmessende Blickfeld des nicht mehr operativen Kepler-Teleskops, das mit 1 m Durchmesser noch deutlich größer war, dessen Zielsterne allerdings auch viel weiter entfernt und lichtschwächer waren.
CHEOPS ist also für gezielte Beobachtungen naher Sterne ausgelegt, aber anders als das Hubble- oder das kommende James-Webb-Teleskop auf Helligkeitsmessungen spezialisiert und nicht wie diese durch andere Beobachtungsprogramme gebunden. Seine Kamera hat zwar nur 1024×1024 Pixel, also 1 Megapixel (Kepler: 96,4 Mpx, TESS: 4×16 Mpx), von denen sogar nur 200×200 für ein beobachtetes Ziel benötigt werden, kann aber noch Helligkeitsschwankungen von 20 ppm (Teile pro Million) für Sterne 9. Größenklasse bei 6 Stunden Belichtungszeit erkennen, was der Zielempfindlichkeit von Kepler (allerdings für 12. Größe) entspricht, die dieser jedoch nie erreichte (29 ppm wurden im Schnitt erreicht). Zum Vergleich: Neptun würde beim Transit vor der Sonne eine Verdunklung um 1300 ppm verursachen, die Erde 80 ppm und Merkur etwa 12 ppm. Dabei werden die Sterne nicht punktförmig abgebildet, sondern ihr Licht wird unscharf auf eine Fläche von 765 Pixel verteilt (ein Kreis von 31 Pixeln Durchmesser), so dass viele Pixel zur Messung beitragen und sich Unterschiede in der Empfindlichkeit ausmitteln, was die Messgenauigkeit erhöht. Der CCD-Sensor ist zwischen 1100 und 400 nm Lichtwellenlänge empfindlich, was im Wesentlichen dem sichtbaren Licht (400-700 nm) plus ein wenig nahem Infrarot entspricht.
Als kleines Gimmick wurden auf der Sonde zwei 18×24 cm große Titanplaketten angebracht, auf denen ca. 3000 Miniaturen von Zeichnungen eingraviert sind (Bild), die nach einem Aufruf des Cheops Konsortiums an Schulen von den Kinden eingereicht worden waren.
Während Kepler sich weitab von der Erde bewegte und TESS in einer Bahn die Erde umläuft, die bis zur Mondbahn reicht, bleibt CHEOPS in einer niedrigen Erdumlaufbahn von 700 km Höhe. Da für die Messungen eine konstante Sensortemperatur (-40°C auf 1/100°C) und eine permanente Stromversorgung durch die Solarzellen benötigt werden, wählte man eine sonnensynchrone Umlaufbahn: eine solche hat eine Bahnneigung von 98° gegen den Äquator und präzediert aufgrund der abgeplatteten Form der Erde pro Tag um 0,986°, d.h. die Richtung der Bahnebene verschiebt sich pro Tag um 1/365 des Vollkreises, genau um den Betrag und in derjenigen Richtung, um den sich die Sonne aufgrund des Umlaufs der Erde am Himmel verschiebt. Die Bahn hat somit relativ zur Sonne immer die gleiche Orientierung. Die Bahnebene wurde so gewählt, dass sie ungefähr entlang der Licht-Schatten-Grenze der Erde (Terminator) entlang verläuft, so dass der Satellit aus Sicht der Sonne nie hinter der Erde verschwindet. Damit erhält er immer die gleiche Licht- und Wärmemenge. Das Teleskop weist stets innerhalb eines Konus von 60° Halbwinkel in Gegenrichtung zur Sonne und 35° vom beleuchteten Teil der Erde weg und meidet den Mond um 5°. Somit fällt kein Streulicht von Erde oder Mond und erst recht kein direktes Licht von der Sonne in die Optik hinein. Während der Beobachtung darf CHEOPS um seine Längsachse rollen, um Wärme in den kalten Weltraum abzustrahlen. Das Teleskop fällt mit der Drehachse zusammen, so dass die Helligkeitsmessung davon nicht beeinträchtigt wird; sie wird über längere Zeiten gemittelt.
Der Satellit kann über 4 Reaktionsräder – je eines pro Hauptachse plus eines zur Redundanz – ohne Treibstoffverbrauch rotiert und auf ein Ziel ausgerichtet werden. Reibungsverluste der Reaktionsräder werden über Magnetotorquer ausgeglichen.
Die Kommunikation mit der Sonde wird über zwei Empfangsantennen in Villafranca und Torrejón, Spanien abgewickelt, die CHEOPS zweimal pro Tag überfliegt (einmal morgens, einmal abends). Dabei werden pro Tag 1,2 Gbit an Daten übertragen und zwischen den Kommunikationsfenstern in einem Massenspeicher mit 3,8 Gbit Kapazität vorgehalten. Das ist nicht furchtbar viel, aber es handelt sich ja nicht um Bilddaten, sondern nur um Helligkeitsmessungen. Die Daten werden am Science Operation Centre an der Universität Genf ausgewertet – dort, wo Michel Mayor und Didier Queloz arbeiteten bzw. wo Queloz heute noch arbeitet. Die beiden haben in diesem Jahr den Nobelpreis für die Entdeckung von 51 Pegasi b erhalten, des ersten entdeckten Exoplaneten, der einen gewöhnlichen Stern umkreist. Queloz ist nun der Vorsitzende des CHEOPS-Wissenschaftsteams.
CHEOPS ist ein kleines “S-Klasse” ESA-Programm, die nur 100 Millionen Euro kosten dürfen und in wenigen Jahren umgesetzt werden müssen. Die Kosten von CHEOPS waren sogar auf 50 Millionen Euro begrenzt und das Gerät wurde in nur 2,5 Jahren entwickelt. Der Satellit ist auch in den Abmessungen klein, misst er doch nur 1,5 m × 1,5 m × 1,5 m bei einer Masse von 280 kg. Er wurde von Airbus Defence and Space (Airbus DS) in Spanien entwickelt und gebaut und verwendet eine Plattform (Bus), die bereits für 8 vorausgegangene ESA-Missionen eingesetzt wurde. Die Universität Bern leitet das CHEOPS-Programm, an dem 11 ESA-Staaten teilnehmen, darunter auch Deutschland. Die Schweiz trägt 30 Millionen der Kosten, die anderen Länder teilen sich die übrigen 20 Millionen. Das ist ziemlich kleines Geld für eine solch ambitionierte Mission (zum Vergleich: Kepler kostete 640 Millionen Dollar, TESS immerhin 287 Millionen Dollar). Die nominelle Missionslaufzeit ist auf 3,5 Jahre angesetzt.
Der Start war erfolgreich und nun wird CHEOPS rund 2 Monate lang vom Hersteller Airbus DS getestet und kalibriert werden, zunächst noch mit geschlossener Aperturklappe (die Optik wird von einer Klappe bedeckt). Nach der Inbetriebnahmephase wird das Gerät dem Wissenschaftsteam übergeben. Ab März wird dann Wissenschaft betrieben.
CHEOPS ist die erste von drei geplanten Exoplaneten-Missionen der ESA. 2026 soll PLATO (PLAnetary Transits and Oscillation of stars) folgen und mit 26 Kameras von 120 mm Öffnung, 240 mm Brennweite und insgesamt 104 CCDs über eine Million Sterne nach Transits von erdgroßen Planeten absuchen. Das Weltraumteleskop, ein M-Klasse-Projekt (Kostenobergrenze 500 Millionen Euro) ist bereits im Bau.
2028 soll dann ARIEL (Atmospheric Remote-sensing Infrared Exoplanet Large-survey) folgen, ebenfalls ein M-Klasse-Projekt, das mit einem ovalen 1100×700 mm durchmessenden Spiegelteleskop mindestens 1000 Exoplaneten beim Transit im sichtbaren Licht beobachten und ihre Atmosphären im infraroten Licht (1950-7800 nm) spektroskopisch untersuchen soll.
Das Erbe von Kepler ist nach dessen Missionsende also nicht in Gefahr.
Alpha Orionis, wie der Stern im Katalog von Johann Bayer heißt, ist ein roter Überriese, der ins Sonnensystem versetzt etwa bis zur Bahn des Jupiters reichen würde, aber in diesem riesigen Volumen von 1,5 Milliarden Sonnen nur 20 Sonnenmassen aufbringt – seine äußere Atmosphäre ist entsprechend dünn und der Stern, der groß genug ist, mit moderner Aufnahmetechnik flächig zu erscheinen, gleicht eher einer kosmischen Amöbe als einer Kugel. Er ist mit 3650 Kelvin vergleichsweise kühl und verdankt seine trotz einer Entfernung von rund 700 Lichtjahren immense Helligkeit alleine seiner Ausdehnung.
Gewöhnlich ist er der zweithellste Stern im Orion, mit rund 0,5m (zur Bedeutung dieser Schreibweise siehe hier) ein wenig dunkler als der mit 860 Lichtjahren ähnlich weit entfernte Rigel, rechts unten gegenüber im Orion, der es auf 0,1m bringt. Beide Sterne sind jedoch in der Helligkeit variabel, wobei Rigels Variation nur mit messtechnischen Hilfsmitteln beobachtet werden kann und erst 1930 entdeckt wurde.
Beteigeuzes Variabilität ist jedoch schon den australischen Ureinwohnern aufgefallen und sie haben diese in ihre mündlichen Überlieferungen beschrieben. Sir John Herschel war der erste westliche Astronom, der die Variabilität des Sterns 1836 beschrieb. Der Stern kann bis zu 0,0m erreichen und damit Rigel übertreffen – möglicherweise der Grund, warum Johann Bayer ihm und nicht Rigel den griechischen Buchstaben Alpha zuordnete, der normalerweise dem hellsten Stern eines Sternbilds gebührt. Er kann aber auch bis auf 1,5m herunter dimmen – eine Helligkeitsspanne von 1,5 Größenklassen entspricht einem Faktor 4 in der Strahlungsleistung! Die American Association of Variable Observers (AAVSO) zeichnet seit 1910 systematisch die Helligkeit von veränderlichen Sternen auf und verzeichnet für Beteigeuze ein Allzeit-Maximum von 0,2m in den Jahren 1933 und 1942 und ein Allzeit-Minimum von 1,2m in den Jahren 1927 und 1941. Vorgestern (17.12.2019) wurden mit einem V-Filter, der ungefähr die spektrale Empfindlichkeitskurve des Auges nachbildet, wieder 1,2m gemessen und ein AAVSO-Mitglied hat gestern Morgen mit bloßem Auge 1,5m geschätzt. Ich war gestern Abend kurz draußen und schätzte ihn einen Ticken heller als den rechten Schulterstern Bellatrix (1,6m) aber schwächer als Pollux in den Zwillingen (1,2m), die gegen 20:00 Uhr etwa gleich hoch am östlich-südöstlichen Himmel standen – somit also in der Gegend von 1,4m. Hier eine Lichtkurve der AAVSO für die letzten 300 Tage, wobei die schwarzen Kreise von menschlichen Beobachtern stammen und die grünen Quadrate Messungen im V-Band sind:
Und dies sind die bis 1965 zurückgehenden V-Band-Messungen in der AAVSO-Datenbank:
Die Variationen von Beteigeuze sind halbregelmäßig. Es gibt mehrere Perioden: eine dominante von ca. 420 Tagen, eine schwächere von 5-6 Jahren (ca. 2100 Tage) und eine kurzperiodische von 180 Tagen. Regelmäßige Pulsationen, wie sie etwa in noch größerem Maße vom berühmten Roten Riesen Mira bekannt sind, können dadurch entstehen, dass in der Sternatmosphäre bei steigender Temperatur und Druck durch Ionisation die Opazität κ (griechisch Kappa) des Wasserstoffs schlagartig zunimmt. Opazität ist das Gegenteil von Transparenz: opakes Gas absorbiert mehr Strahlung als transparentes, was zu einer Erhöhung von Temperatur und Druck führt, was dann wiederum die Atmosphäre expandieren lässt. Dabei kühlt sie ab und der Druck fällt, so dass das Gas wieder transparenter wird, der Strahlungsdruck abnimmt, das Gas unter seinem Gewicht wieder zurück auf den Stern fällt und dabei wieder opaker wird und der Zyklus von neuem beginnt (der sogenannte κ-Mechanismus). Solche Pulsationen sind mit einer radialen (nach innen oder außen gerichteten) Bewegung des Gases verbunden, der Stern pulsiert also im Radius. Der Stern ist dann am hellsten, wenn die Temperatur am höchsten ist, was kurz nach dem kleinsten Radius der Fall ist, da die Leuchtkraft mit der vierten Potenz der Temperatur steigt, die abstrahlende Fläche aber nur mit dem Quadrat des Radius.
Bei Beteigeuze beobachtet man ebenfalls radiale Pulsationen, die jedoch mit den langen Perioden nicht gut korrelieren. Möglicherweise spielen hier andere Schwingungen eine Rolle, die wellenförmig den Stern umlaufen (sogenannte g-Moden). Eine Theorie besagt, dass im Zusammenspiel mit der Rotation des Sterns regelmäßig aufsteigende Konvektionszellen Hotspots auf der Sternoberfläche erzeugen, die einen signifikanten Teil des Sterndurchmessers ausmachen können und ihn somit heller erscheinen lassen.
Eine Verdunklung kann wiederum durch geringere Temperaturen in der äußeren Atmosphäre verursacht werden, wenn im Gas Titanoxid entsteht. Titan und Sauerstoff sind relativ häufige Elemente in Roten Riesen, die sich erst bei hinreichend niedrigen Temperaturen zu Molekülen zusammenfinden können, welche sehr effizient Licht absorbieren – Titanoxid wird beispielsweise in Sonnenschutzcreme verwendet. Tatsächlich wurde am 8. Dezember in einem astronomischen Telegramm vermeldet, dass man eine Abkühlung von Beteigeuze auf 3580 K mit verbreiterten Titanoxid-Banden im Spektrum beobachtet habe. Beteigeuze hat also anscheinend zur Zeit Sonnencreme aufgetragen.
Ganz genau weiß niemand, was die Variabilität von Beteigeuze verursacht, aber man kann davon ausgehen, dass sie ihre Ursache nicht tief im Inneren des Sterns hat, sondern in der dünnen Atmosphäre. Deswegen beobachten wir hier auch nicht etwa den nahenden Supernova-Ausbruch des Sterns – Michelle Dolan und Grant Mathews geben ihm in ihrer Arbeit aus dem Jahr 2016 noch 100.000 Jahre – sondern eher eine vorübergehende Störung in seiner Atmosphäre, die sicherlich die Aufmerksamkeit der Astronomen auf sich ziehen und zu weiteren Beobachtungen des Sterns führen wird.
Dass sich am scheinbar unveränderlichen Fixsternhimmel etwas tut, kann man nicht alle Tage beobachten. Wer selbst einmal schauen will, findet den markanten Orion gegen 20 Uhr im Südosten – der aus drei ähnlich hellen Sternen bestehende Gürtel ist leicht zu finden. Besser wartet man bis gegen Mitternacht, wenn das Sternbild hoch im Süden steht. Man suche sich Sterne ähnlicher Helligkeit und schätze ab, zwischen welchen Sternen die Helligkeit von Beteigeuze liegt. Als Vergleichssterne bieten sich die Zwillinge Castor (1,6m) und Pollux (1,2m) an; Pollux ist von den beiden Sternen für uns Nordhalbkugler der untere, Castor der obere Stern, was man sich gut anhand des “U”s bzw. “O”s in der jeweils letzten Silbe ihrer Namen merken kann. Außerdem Bellatrix (rechte Schulter des Orion, 1,6m), Alnilam (mittlerer Gürtelstern, 1,7m) und Elnath, der zwar eigentlich Beta im Sternbild Stier ist, aber im 5-Eck des Fuhrmann gegenüber von der hellen Capella in etwa auf halber Strecke zu Beteigeuze steht (1,65m). Leider gibt es nicht allzu viele Vergleichssterne mit der Helligkeit von Beteigeuze. Aldebaran im Stier ist mit 0,75m-0,95m normalerweise gleich hell oder schwächer als Beteigeuze, jetzt jedoch deutlich heller.
Wer die Helligkeitsentwicklung des Sterns lieber am PC beobachtet, kann sich vom AAVSO hier die Lichtkurve ausgeben lassen. Als Sternname kann man “Betelgeuse” oder “ALF ORI” eingeben, dann bei “Select Bands” “vis” für visuelle Beobachtungen von AAVSO-Mitgliedern und/oder V für photometrische Messungen im V-Band anhaken. Als Zeitintervall wählt man einen Bereich des Julianischen Datums aus, wobei das “To Date” schon auf dem aktuellen Datum steht – man braucht nur beim “From Date” eine entsprechende Zahl von Tagen zurück zu rechnen, wobei das letzte Jahr als Vergleichszeitraum einen schönen Überblick bietet. Mit dem Button “Preferences” kann man sich die Kalenderdaten an der Zeitachse ausgeben lassen und die y-Achse skalieren.
Wir dürfen gespannt sein, wie sich die Helligkeit des derzeit für Beobachtungen hervorragend am Abendhimmel platzierten Sterns weiter entwickeln wird und welchen Minusrekorden sie entgegen strebt.
Schon zu Apollo-Zeiten nahm jedoch das Interesse der Öffentlichkeit an den Mondflügen stark ab. Kennedys Auftrag war erfüllt, die Russen waren geschlagen (zumindest sah die Öffentlichkeit im Westen das so) und die Spannung war vorüber – been there, done that. Daher wollte die NASA den Unterhaltungsfaktor der Flüge erhöhen. Statt der grottigen Monochrom-Kamera sollte eine viel bessere Farb-TV-Kamera zum Einsatz kommen. Man hatte eine große, ausfaltbare S-Band-Schüssel-Antenne dabei, um die Bilder (aber auch Daten der Experimente) mit hoher Qualität zur Erde übertragen zu können. Und man hatte eine Mannschaft zusammengestellt, die sich schon seit vielen gemeinsamen Jahren bei der NAVY kannte (alle waren dem Dienstgrad nach Fregattenkapitäne – natürlich als Piloten) und die weitaus entspannter im Umgang miteinander waren, als der eher zugeknöpfte Armstrong und der verbissene Aldrin es je hätten sein können.
Außerdem war das Ziel der Mission deutlich anspruchsvoller – man wollte nicht einfach wie beim ersten Mal an der leichtesten Stelle irgendwo auf dem Mond landen, sondern an einem sehr präzisen Ort, denn für die weiteren Missionen hatte man vor, in schwierigem Terrain zwischen Bergen zu landen. Da bot es sich an, einem alten Bekannten von der Erde einen Besuch abzustatten: dem Surveyor 3, einer Landesonde, die im April 1967 im Meer der Stürme (Oceanus Procellarum) gelandet war, um mit ihren Schwestersonden zu erkunden, wie die Mondoberfläche beschaffen war, auf der man bald darauf Menschen landen wollte. Und da bei der Apollo-12-Mission noch kein Mondauto dabei war, musste man also in fußläufigerhopsiger Entfernung von der Sonde landen.
So übten die Astronauten Charles “Pete” Conrad (Kommandant der Mission) und Alan LaVern Bean (Pilot der Mondlandefähre) nicht nur das Erkennen und Sammeln von Mondgestein, sondern auch, wie der Surveyor zu untersuchen und sein Zustand fotografisch zu dokumentieren sei, und wie man Teile von ihm (unter anderem seine Kamera) abmontieren konnte, um sie zur Erde zurück zu bringen. Dritter im Bund war Richard Francis Gordon, Pilot des Apollo-Raumschiffs.
Der Start der Mission fand bei einem Wetter statt, bei dem man heutzutage noch keinen Satelliten starten würde. Es zog gerade ein Gewitter auf. Am Boden war der Wind ruhig, aber es regnete – so stark, dass es durch die Verkleidung der Apollo-Kapsel hindurch, die das Raumschiff beim Start vor den aerodynamischen Kräften schützen sollte, auf die Fenster des Raumschiffs tropfte. Dennoch verlief der Countdown planmäßig. Um 17:22 deutscher Zeit – 11:22 Ortszeit, gleich zu Beginn des dreistündigen Startfensters – hob die Saturn V mit der Nummer 507 ab. Alleine 10 Sekunden dauerte es, bis die Rakete ihre eigene Länge zurückgelegt und den Startturm hinter sich gelassen hatte – ein kritischer Zeitraum, jede Kursabweichung konnte zur Kollision der voll betankten Rakete mit dem Startturm führen. “Turm geklärt”, sagte Gordon. “Roger, Turm geklärt”, wiederholte Conrad, “Ich habe ein Neige- und Rollprogramm, und das Baby ist wirklich unterwegs”. Nach 20 Sekunden: “Wunderbarer Start. Gar nicht schlecht.” 30 Sekunden: “Rolle komplett”. Und Bean “Das Ding bewegt sich, nicht wahr?”
Tatsächlich waren sie schon 2000 m hoch, als Gordon nach 36,5 Sekunden ein grelles Licht sieht und ausruft: “Was zum Teufel war das?” Conrad: “Huch?” Gordon: “Ich habe hier einen Haufen Zeugs verloren, ich weiß nicht…”. In der Tat: Masteralarm, Wechselstromnetz-Überlast, Hauptbus A und B Überlast, alle drei Brennstoffzellen, die 75 Ampere Strom lieferten, waren vom Netz getrennt worden und die Elektronik musste auf Batteriestrom umschalten. Neun Sensoren fielen dauerhaft aus, die für die Temperaturmessung der Außenhülle, die Treibstoffmenge des Manövriersystems und die Temperatur eines Messgeräts für radioaktive Teilchen zuständig waren. Außerdem fiel die Signal-Aufbereitungs-Einheit (Signal Conditioning Entity, SCE) aus, die die Signale aller Sensoren bündelte und skalierte, eine Vorstufe für die Digitalisierung und Funkübertragung zur Bodenstation. Somit ging die Telemetrie, also die Übertragung der Zustandsdaten der Rakete zum Boden komplett verloren. 52 Sekunden nach dem Start in 4400 m Höhe wiederholte sich das Ganze und nun fiel auch noch der künstliche Horizont der Apollo aus (es gab aber noch ein Hilfssystem).
Die Rakete war in den Wolken, die bis 7000 m Höhe reichten, gleich zweimal vom Blitz getroffen worden, und zwar von Blitzen, die sie selbst ausgelöst hatte. Denn der heiße Abgasstrahl enthielt Plasmateilchen, also geladene Ionen, die die Rakete zum Blitzableiter werden ließen. Die Blitze liefen durch die Rakete und schlugen neben der Startrampe ein. Dass die Rakete weiter unbeirrt ihrem Kurs folgte und sich durch Winde von 280 km/h , ihren Weg bahnte, mehr als bei jedem anderen Start einer Saturn, war der Tatsache zu verdanken, dass die Steuerung während dieser Phase der ersten Stufe oblag, die nicht von den Blitzen beeinträchtigt worden war. Dennoch konnte das Raumschiff natürlich nicht im Blindflug weiter fliegen und es drohte ein Missionsabbruch. Die Kapsel wäre dann mit Hilfe des Rettungsturms (Launch Escape Tower, LET) an der Spitze der Rakete von dieser fort katapultiert worden, bevor man die Rakete vom Boden aus gesprengt hätte. Aber so schnell geben Piloten ihr Fluggerät nicht auf, wenn es noch unterwegs ist, und so gab Conrad der Bodenstation die Fehleranzeigen durch. Eine Minute 36 nach dem Start gab der Capcom (Capsule Communicator) Gerald Carr durch: “Versucht SCE auf AUX!” “Versucht FCE auf AUX,” wiederholte Conrad und nach innen gewandt “was zum Teufel heißt das?” Gordon spekulierte “Brennstoffzellen…?” (engl. Fuel Cells). Carr wieder “SCE, SCE auf AUX”. Alan Bean erinnerte sich als erster an den Schalter, der die Signal Conditioning Entity auf Hilfsstrom umschaltete. “Es sieht – alles sieht gut aus”. Danach lief wieder Telemetrie am Boden ein. Es war ein 24jähriger Ingenieur, John Aaron, der für die elektrischen Systeme zuständig war, dem der rettende Einfall “SCE to AUX” kam und damit zur Legende wurde. Er hatte sich an ein ähnliches Fehlerbild aus dem Training erinnert.
Die nächsten Minuten, über die Stufentrennung hinaus, waren die Astronauten anschließend damit beschäftigt, alle Systeme neu zu starten und bis auf die neun Sensoren gelang das auch. Mittlerweile dämmerte es auch Conrad: “Ich weiß nicht genau was passiert ist, aber ich bin nicht sicher, ob wir nicht vom Blitz getroffen wurden.” Die Rakete erreichte daraufhin planmäßig ihren Orbit und die Astronauten checkten alle Systeme besonders gründlich durch, bevor sie sich auf den Weg zum Mond machten. Eine Sorge blieb: einige Techniker befürchteten, dass der pyrotechnische Mechanismus zum Auslösen der Fallschirme Schaden genommen haben könnte und die Kapsel somit drohte, mit hoher Geschwindigkeit auf dem Ozean aufzuschlagen. Dies teilte man den Astronauten nicht mit – sie hätten ohnehin nichts daran ändern können. Zum Glück erwies sich die Sorge als unberechtigt.
Der weitere Flug verlief planmäßig. Die drei Astronauten, die ihr Raumschiff nach einem Segelschiff-Typen “Yankee-Clipper” genannt hatten, erreichten den Mond am frühen Morgen des 18. November 1969 und umkreisten ihn für einen Tag, bis Conrad und Bean sich in der Mondlandefähre “Intrepid” (engl. furchtlos) auf den Weg zur Oberfläche machten. Das Landegebiet war nur 45 km vom geologisch jungen Krater Kopernikus entfernt, von dem man hoffte, Auswurfgestein aus der Tiefe des Mondes zu finden. Die Landung gelang, allerdings aufgrund von Felsen nicht auf der “Pete’s Parkplatz” getauften Ziel-Landestelle, sondern nur halb so weit entfernt wie geplant vom Surveyor, der dadurch ein wenig gesandstrahlt wurde. Nur 164 m von der Sonde entfernt setzte Intrepid mit reichlich verbliebenem Treibstoff auf. Nicht zuletzt auch dank eines verbesserten Landeradars.
Viereinhalb Stunden nach der Landung stieg Conrad dann zur ersten von zwei rund vierstündigen “EVAs” (Extra-vehikulären Aktivitäten, sprich, Außeneinsätzen) aus der Landefähre aus. Auch er hatte sich wie Neil Armstrong einen Spruch für den Ausstieg zurecht gelegt. Er hatte mit einer italienischen Journalistin $500 gewettet, dass ihm die NASA die Worte nicht vorschreiben würde, und der eher kurz geratene Conrad sagte dann nach dem Sprung von der Leiter den mit der Journalistin abgesprochenen Satz auf: “Hoppla! Mensch, das war vielleicht ein kleiner [Schritt] für Neil, aber für mich ist das ein großer!” Wo der sachliche Neil noch die Konsistenz des Bodens, die Aussicht und seine nächsten Aktionen kommentierte, hopste Conrad auf dem Mond herum und sang “Didum, didum, ich fühl’ mich wie Bugs Bunny!”.
Eine der ersten Aufgaben war, die S-Band-Antenne und die neue, großartige TV-Farbkamera aufzustellen. Die schirmartige Antenne zickte anfangs ein wenig, rastete jedoch schließlich ein. Die Astronauten hatten großen Spaß daran, dass sie die Wärmeschutzfolie so hoch und weit werfen konnten. Sie liebten es, Dinge auf dem Mond zu werfen. In der luftleeren Ödnis flogen Isolationsfolien genau so weit und hoch wie Steine, und bei 1/6 der Erdschwerkraft flogen sie noch viel höher und weiter als auf der Erde.
Die Kamera war extrem lichtempfindlich und niemals durfte direktes Sonnenlicht in das Objektiv fallen. Es gab eine Anweisung, die Kamera nicht einmal gegen das Licht zu richten, selbst wenn die Sonne nicht im Blickfeld war. Ungünstigerweise befand sich nach der Landung der an einem der Landebeine befestigte Staubehälter MESA (Modular Equipment Stowage Assembly), der unter anderem die TV-Kamera mit Stativ und Kabel enthielt, im direkten Sonnenlicht. Bean verkabelte die Kamera gleich und schraubte sie auf das Stativ. Der Capcom beklagte sich über das helle Bild und bat Bean darum, die Kamera tiefer einzustellen und dann nach links und rechts zu schwenken, aber das Bild veränderte sich nicht: das obere Fünftel des Bildes war weiß und die unteren vier schwarz. Spätere Auswertungen der Aufnahmen ergaben, dass die Kamera ein paar Sekunden die Sonne im Bild gehabt hatte – das war es dann für die TV-Übertragung des nachfolgenden Auspackens und Aufstellens der ALSEP-Experimente. So gab es kaum TV-Bilder – nur die Kamera an der Mondlandefähre zeigte einen kleinen Ausschnitt. Die großen Fernsehstationen schalteten sich daher alsbald ab.
Als nächstes sollte die Flagge aufgestellt werden. Eigentlich wollte die Crew gar keine mitnehmen – schließlich hatte Apollo 11 bereits die symbolische Annektierung des Mondes durch das Aufstellen der US-Flagge vollzogen. Stattdessen wollte man die Zeit für Wissenschaft nutzen. Bis zum 3. Oktober war im Apollo 12 Flugplan auch keine Rede von einer Flagge gewesen. In einer Version vom 15. Oktober war sie dann doch drin. Die Astronauten schlugen also den unteren Teil des zweiteiligen Mastes mit dem Hammer 30 cm tief in den Boden. Dann schraubten sie den oberen Teil auf. Bei Apollo 11 hatten Neil und Buzz die zusammengesteckte Stange mit bloßen Händen ein paar Zentimeter tief in den Boden gedrückt und nicht gewagt, mit dem Hammer auf die lange, biegsame Stange zu klopfen. Die Konsequenz war, dass die Apollo-11-Flagge beim Rückstart zur Erde von den Abgasen des Triebwerks umgepustet wurde. Zuletzt musste nur noch die Querstange zum Aufrechthalten der Flagge am oberen Ende der Fahnenstange befestigt werden. Aber die Befestigung ging kaputt und rastete nicht ein. Bean meinte später, sie habe seiner Meinung nach nie funktioniert und sei wohl schon bei der Produktion defekt gewesen. So hing die Flagge schlaff am Mast.
Die beiden hatten nun etwas Zeit sich umzusehen. Sie fanden zwei merkwürdige kleine Hügel, wo die Mondoberfläche doch ansonsten von Kratern aller Größen übersät war. Möglicherweise war hier Material von einem entfernten Meteoriteneinschlag niedergegangen. In der Nähe der Hügel wollten sie das ALSEP mit seinen Experimenten und seiner Radionuklidbatterie aufbauen. Als sie den Arbeitsplan umblätterten, stießen sie allerdings nicht auf die entsprechende Arbeitsanweisung, sondern auf die Miss September des 1967er Playboy mit der Notiz: “Einige interessante Hügel und Täler gesehen”? Dieses und weitere Pin-up-Bilder hatte die Ersatzcrew ohne Wissen der Besatzung in den Plan hineingeschmuggelt. So bierernst wie bei den bisherigen Flügen nahm man die Arbeit offenbar nicht mehr.
Die Astronauten stellten schließlich die ALSEP-Geräte auf – das Passive Seismische Experiment (PSE) zur Messung von Mondbeben, das Sonnenwind-Spektrometer (SWS), das Lunar Surface Magnetometer (LSM) zur Messung des Magnetfelds, das Ionendetektor-Experiment (Suprathermal Ion Detector Experiment, SIDE) und das Cold Cathode Ion Gauge (CCIG, etwa “Kaltkathoden-Ionenspur-Experiment”), mit dem der winzige Druck einer potenziellen Atmosphäre auf dem Mond bestimmt werden sollte. Nach dem Aufstellen der Geräte wurde den Astronauten noch eine Stunde gewährt, um Steine zu sammeln. Mit noch mehr als halbvollen Sauerstoff- und Wasservorräten in den Anzügen kehrten sie dann nach fast 4 Stunden in die Intrepid zurück. So viel Reserve plante man ein, weil man befürchtete, dass die Kühlpumpe, die Wasser durch Schläuche in der Unterwäsche der Raumanzüge pumpte um die Temperaturunterschiede zwischen Sonne und Schatten auszugleichen, ausfallen könnte und dann wollte man genug Sauerstoffreserve haben, um den Anzug eine halbe Stunde lang bei voll aufgedrehtem Sauerstoffhahn kühlen zu können – expandierendes Gas kühlt bekanntlich ab. In einer halben Stunde sollten die Astronauten die Mondfähre erreichen können.
Nach dem Ausziehen der Überstiefel stellten die Astronauten fest, dass sie nasse Füße hatten – Wasser hatte sich in den inneren Stiefeln gesammelt. Spätere Analysen ergaben, dass die Wasserabscheider, kleine Zentrifugen im Rucksack, die der Atemluft die Feuchtigkeit entzogen, mit maximaler Drehzahl gelaufen waren. Dabei konnte es vorkommen, das bereits abgeschiedenes Wasser überschwappte. Ausziehen konnten die Astronauten nur die äußeren Stiefel – die inneren auszuziehen, war zu riskant, weil man im Falle eines Druckabfalls in der Landefähre, die aus Gewichtsgründen nur eine hauchdünne Hülle hatte, sehr schnell den Anzug luftdicht verschlossen haben musste. Man wies die Astronauten an, die Schläuche des Anzugs abzuschrauben und die Schwerkraft in geeigneter Weise zu nutzen, um das Wasser aus den Öffnungen laufen zu lassen. Ansonsten würde das Wasser auch durch die Wärme im Anzug verdunsten. Conrad meinte, so viel Wasser sei es nicht, es sei nicht kalt und kein Schweiß, so dass er keinen großen Aufwand betreiben wollte. 12 Stunden nach der Landung legten sich beide Astronauten in Hängematten und hatten 7 Stunden Zeit zum Schlafen. Tatsächlich schliefen die beiden nur 4,5 Stunden. Bean sagte später, es sei ihm nicht machomäßig genug erschienen, die mitgenommenen Schlaftabletten zu schlucken. Und Conrad schlief wegen seines Raumanzugs schlecht – die Beine waren zu kurz.
Am nächsten Tag, dem 20. November, stand die zweite vierstündige EVA an. Es war eine Strecke von 1500 m um 4 größere Krater zurück zu legen, an denen Proben gesammelt werden sollten, unter anderem auch eine Probe aus 40 cm Tiefe mit Hilfe eines in den Boden gehämmerten Rohres. Unterwegs streikte Conrads Kamera, der Bildzähler und der Filmtransportmechanismus funktionierten manchmal nicht. Daher beschlossen die Astronauten, ihre an den Anzügen eingeklinkten Kameras untereinander zu tauschen. Allerdings wollte sich Beans Kamera nicht lösen und bei dem Versuch, die Kamera mit Kraft aus der Halteklammer zu lösen, brach die Kappe der Schraube ab, mit welcher der pistolengriffartige Halte- und Auslösegriff an der Kamera angeschraubt war. Damit wurde Beans Kamera praktisch nutzlos. Sie konnte nicht mehr am Anzug befestigt werden. Zwar ließ sie sich wohl noch irgendwie in der Hand gehalten am Gehäuse auslösen, aber nicht mehr einhändig auf die einfache Weise, wie man einen Pistolenabzug zieht. Bean bemerkte, dass die entsprechende Schraube an Conrads Kamera lose war und zog sie fest, was im folgenden die Probleme mit dem Filmtransport und dem Zähler behob, und behielt die Kamera. Beans ursprüngliche Kamera kam in einen Beutel, falls sie noch einmal benötigt würde, wurde dann aber nicht mehr benutzt und am Ende der EVA auf dem Mond zurück gelassen.
Der letzte Stopp war dann der Surveyor. Die Astronauten näherten sich der Sonde quer zur Neigung der inneren Kraterwand entlang (also parallel zum Kraterrand), die ihnen zunächst steil erschienen war. Sie hatten auch ein Seil dabei, mit dem der eine Astronaut den anderen vom Kraterrand aus hätte sichern können, aber das Seil kam nicht zum Einsatz, weil sie gut Tritt fassen konnten. Bean fotografierte die Sonde ausgiebig von allen Seiten, um ihren Zustand zu dokumentieren. Die ursprünglich weiße Sonde erschien den Astronauten bräunlich – leider gibt es von EVA 2 nur Schwarzweißaufnahmen. Ein Magazin mit einem angebrochenen Farbfilm hatten sie vor der EVA in eine abnehmbare Seitentasche von Beans Anzug gepackt, dann aber vergessen, vor dem Besuch des Surveyors das Magazin an Conrads Kamera gegen das Farbmagazin auszutauschen.
Die Sonde hatte über die Jahre einen feinen Überzug von Mondstaub angesammelt. Das UV-Licht der Sonne sorgt nämlich dafür, dass sich die Oberfläche elektrisch auflädt, was sehr feine Staubpartikel aufgrund elektrostatischer Abstoßung emporschweben lässt, die in der Mondnacht wieder absinken. Der Abgasstrahl der Landefähre hatte dabei mehr Staub weggeblasen als neuen deponiert.
Nun hatten die beiden Astronauten eigentlich einen Gag vorgehabt: die Hasselblad-Kameras waren zwar für Apollo modifiziert, aber beruhten auf handelsüblichen Kameras, die man mit Zubehörteilen im Fotofachhandel kaufen konnte. Und so hatte sich Conrad einen aufschraubbaren Selbstauslöser gekauft, den er in einer Tasche am Raumanzug mit in das Apollo-Raumschiff geschmuggelt hatte. Damit wollte er, die Kamera auf das HTC-Tragegestell gestützt (Hand Tool Carrier, siehe Bild 14 in der Fotostrecke unten), ein Selfie beider Astronauten mit dem Surveyor aufzunehmen um die NASA und die Presse zu verblüffen – wer hat denn bitteschön dieses Foto aufgenommen? Er hatte den Auslöser während des Flugs in der Mondlandefähre deponiert und beim Aussteigen mit nach draußen genommen und in den Sammelbeutel des HTC gelegt. Aber als er nun den Auslöser suchte, fand er ihn nicht – er war ganz unten im Beutel, der schon voller Steine, Staub und Tüten mit Proben war. Am Ende gab er auf und machte statt dessen zwei “Touristenbilder” von Bean neben der Sonde.
Danach durchtrennten sie mit einem Bolzenschneider die Kabel und Haltestangen der Surveyor-Kamera, um die Kamera abzunehmen, und schnitten noch einige Alu-Stangen-Stücke und die Probenschaufel des Surveyors ab. Sie sollten außerdem ein Stück losgeschlagenes Glas von einem optischen Gerät mitbringen, aber das Glas haftete zu stark am Metallrahmen und ließ sich nicht ablösen und kleinere Splitter wagten sie nicht mit den Handschuhen anzufassen – das Risiko eines Schnitts war zu groß.
Nach der Rückkehr zur Landefähre entluden sie die Steine und beim Umfüllen des HTC-Beutels lag der vorher vermisste Selbstauslöser oben auf. “Der hat uns gerade noch gefehlt”, meinte Bean und Conrad warf den Selbstauslöser verärgert weg. Die Idee, dass sie ja vielleicht noch ein gemeinsames Bild vor der Landefähre hätten machen können, das womöglich besser als das am Surveyor geworden wäre, kam ihnen erst nach der Rückkehr zur Erde in den Sinn – der Flugplan diktierte wohl zu stark das Denken. Nicht mehr benötigte Utensilien ließen die Astronauten am Fuß der Landefähre zurück. Darunter auch Beans abnehmbare Seitentasche.
Beim Abschlussgespräch mit Houston drei Stunden nach der EVA fiel ihnen dann erst auf, dass sie mit Beans Tasche auch den Farbfilm draußen gelassen hatten. Es waren wohl nur ein paar Aufnahmen aus dem Mondorbit darauf, bei der EVA war er nicht wie geplant verwendet worden. Es war jedenfalls nicht daran zu denken, die Landefähre nochmals zu verlassen um den Film noch nach drinnen zu holen, und so liegt er heute noch auf dem Mond.
Nach weiteren 4 Stunden, am 20. November gegen 15:25 deutscher Zeit, erfolgte der Rückstart vom Mond und um 19:00 Uhr hatte die Aufstiegsstufe der Intrepid am Clipper angedockt. Die Proben und Filme wurden umgeladen und die Aufstiegsstufe auf den Mond gecrasht. Dies löste ein kleines Mondbeben aus, das vom PSE-Seismometer registriert wurde und weit über eine halbe Stunde andauerte. Am 21. November um 21:50 schoss sich der Clipper auf die Transferbahn zur Erde ein, wo seine Kapsel am 24. November um 21:58:25 deutscher Zeit mit einwandfrei funktionierenden Fallschirmen im südlichen Pazifik wasserte. Aber auch diesmal nicht ganz ohne Pech und Pannen – eine 16-mm-Filmkamera löste sich beim Aufschlag aus ihrer Befestigung, traf Bean an der Stirn und schlug ihn kurzfristig bewusstlos. Die Wunde wurde später mit 6 Stichen genäht.
Bei allen Problemchen, die es während der Mission gab, war sie am Ende ein großer Erfolg. Die Astronauten brachten 34,35 kg Mondgestein, 1725 Fotos, 1h25m 16-mm-Film (hier komplett zum Download) und die Teile des Surveyors mit zur Erde, darunter die TV-Kamera, die heute im National Air & Space Museum in Washington ausgestellt ist. Im Isolationsschaumstoff der Kamera fand man auf der Erde Streptokokken-Bakterien, die mutmaßlich 2,5 Jahre auf dem Mond überlebt hatten – oder möglicherweise auch erst nach der Landung durch unsachgemäße Behandlung in die Kamera gelangt waren. Bis heute ist diese Frage ungeklärt.
Unter den gesammelten Steinen fand sich ein Stück eines Gesteinstyps, der bei Apollo 11 nicht gefunden worden war: KREEP. Die Abkürzung steht für Kalium, Rare Earth Elements (seltene Erden) und Phosphor, Elemente, die im Gestein angereichert sind. Es handelt sich um Elemente, die sich in Magma nicht auflösen. Später wurde überall KREEP auf dem Mond gefunden – ein Hinweis darauf, dass der Mond bei seiner Entstehung zum großen Teil aufgeschmolzen war und die nicht löslichen, leichteren Stoffe im Magma nach oben gestiegen waren. Daraus und aus der großen Ähnlichkeit der Sauerstoff-Isotop-Konzentrationen zu denen der Erde schloss man schließlich darauf, dass der Mond aus Magma der Erde hervorgegangen sein musste. So entstand schließlich die Kollisionstheorie.
Dick Gordon gehörte später noch zur Ersatzcrew von Apollo 15 und war als Kommandant der Apollo-18-Mission vorgesehen gewesen, die allerdings gestrichen wurde. Er flog nicht wieder ins All, sondern arbeitete mit am Space-Shuttle-Design und verstarb 2017 mit 88 Jahren. Pete Conrad flog noch zum Skylab und heuerte danach bei einem Fernsehsender an. Schließlich wurde er Marketing-Vizepräsident des Flugzeugherstellers McDonald Douglas in der militärischen Sparte. 1999 verstarb er an den Folgen eines Motorradunfalls. Alan Bean flog ebenfalls zum Skylab und gehörte der Ersatzcrew des Apollo-Sojus-Flugs 1975 an. Danach bildete er Astronauten aus. Bean wurde aber vor allem durch seine Malerei bekannt – er hatte schon vor seinem Mondflug das Malen erlernt und malte ab 1981 Bilder, die seine Eindrücke der Mondlandung widerspiegeln, wobei er gelegentlich auch Mondstaub mit in die Farbe mischte. Seine zahlreichen Bilder kann man auf dieser Webseite bestaunen. Bean starb im Mai 2018 im Alter von 86 Jahren.
Wie immer gibt es auch hier eine Fotostrecke. Mit den Pfeilen oben links und rechts kann man blättern, ein Klick auf das Bild öffnet es in voller Größe in einem neuen Fenster.
]]>
InSight war, wie berichtet, am 26. November 2018 auf dem Mars gelandet und hatte seine Instrumente das Seismometer SEIS und die Wärmesonde HP³ (Heat Flow and Physical Properties Package) am 19. Dezember 2018 bzw. am 12. Februar 2019 auf dem Marsboden drapiert. Der laut ersten Fotos scheinbar ideale und an Steinen arme lockere Sandboden schien für HP³, dessen Sonde sich durch einen integrierten Hammer-Mechanismus bis in 5 m Tiefe unter die Oberfläche vorarbeiten sollte, geradezu ideal zu sein. Es sah nicht so aus, als wenn größere Hindernisse zu erwarten wären, und kleinere sollte der “Maulwurf” beiseite schieben können. Auf dem Weg in die Tiefe sollte der Maulwurf den Wärmefluss aus dem Inneren messen, um in Erfahrung zu bringen, ob der Mars im Inneren noch heiß und aufgeschmolzen ist. Dies würde die Messungen des Seismometers komplementieren, welches seismische Wellen von Marsbeben und Meteoriteneinschlägen registrieren sollte, um so den inneren Aufbau des Planeten zu ertasten – genau so, wie man es mit Seismometern auf der Erde tut.
Während SEIS offenbar hervorragend funktionierte und sogar empfindlich genug war um Windgeräusche aufzunehmen, gelang es HP³ hingegen nicht, mit dem 40 cm langen Bohrkopf mehr als ca. 30 cm tief in den Boden einzudringen. Geplant waren für das erste Vordringen eigentlich 70 cm. Die ersten 20 cm legte der “Maulwurf” offenbar in nur 5 Minuten zurück, um danach nur noch langsam voranzukommen, bis er schließlich stecken blieb. Auch zahlreiche weitere Hammer-Einsätze im Verlauf der folgenden Wochen brachten keinerlei Vortrieb mehr. Die erste, naheliegende Vermutung war, dass der Maulwurf wohl doch auf einen größeren Stein gestoßen sein könnte. Eine alternative Theorie besagte, dass der Boden möglicherweise nicht genug Halt bot und die Schläge des Maulwurf-Hammers gewissermaßen wirkungslos verpufften. Messungen wiesen darauf hin, dass er um 15° seitlich verkippt war, was für die zweite Theorie sprach. Schließlich bestand die eher unwahrscheinliche Möglichkeit, dass das Flachbandkabel, mit dem der Maulwurf mit Strom versorgt wurde und das seine Datenleitungen führte, in der Stützstruktur, die den Sondenkörper zu Beginn beherbergt und geführt hatte, hängen geblieben war und ihn von oben festhielt.
Der Hammer-Mechanismus funktioniert dabei folgendermaßen: der Hammer besteht aus einem massiven Bolzen, der vor dem Schlag von einem Motor hochgezogen wird, wobei eine Zugfeder, die den Bolzen nach unten ziehen will, gespannt wird. Am höchsten Punkt wird der Bolzen losgelassen und die Feder rammt ihn aufgrund ihrer Zugspannung nach unten. Durch den abrupten Stopp des Bolzens am unteren Ende seines Wegs treibt er den gesamten Hüllenkörper genauso nach unten, wie ein Hammer dies bei Schlägen von außen tun würde. Wenn nun aber der Boden sehr locker wäre, dann könnte er sich vielleicht nur kurz elastisch verdichten und den Maulwurf nach dem Schlag wieder nach oben hüpfen lassen, so dass er nicht von der Stelle käme.
Um zwischen den Theorien zu unterscheiden, wertete man zunächst mit Hilfe von SEIS aus, wie sich der Hammer bei jedem Schlag genau verhielt. Der Bolzen prallte nach dem Aufschlagen auf seine innere Auflage natürlich wieder ein wenig zurück und die Zugfeder zog ihn dann erneut nach unten, d.h. nach dem Hauptschlag gab es einen kleineren “Nachschlag”. Je nachdem, wie sich der Hüllenkörper bewegte, sollte der zeitliche Abstand der beiden Schläge variieren. Beim normalen Hämmern mit Vortrieb sollten etwa 100 ms zwischen den Schlägen liegen, bei einem Zurückspringen des Maulwurfs sollten es 50 ms sein. Gemessen wurden 70-80 ms, was für ein wenig Reibung der Hülle am Boden sprach, aber offenbar für nicht genug.
Um nachzuschauen, wie es wirklich um HP³ stand, erwog man schließlich, die Stützstruktur, in welcher der Maulwurf zu Beginn gesteckt hatte, vom InSight-Greiferarm anheben und beiseite stellen zu lassen. Das war nicht ganz ohne Risiko, denn im Falle, dass ein hängengebliebenes Kabel die Ursache war, drohte man den Maulwurf unwiderruflich aus dem Boden zu ziehen und das Experiment wäre gescheitert. Mangels Alternativen entschloss man sich, Ende Juni die Trägerstruktur in drei Schritten anzuheben und seitlich versetzt wieder abzusetzen, wobei man sie zunächst nur minimal anhob, um im Falle des verklemmten Kabels noch Einhalten zu können, bevor es die Sonde ganz aus dem Boden zog. Das Kabel war jedoch frei.
Tatsächlich zeigte sich, dass nur die obersten Zentimeter des Marsbodens fest waren und darunter sehr lockerer Staub folgte. Der Maulwurf hatte in seiner Umgebung den Boden pulverisiert und einen kleinen Krater verursacht. Vermutlich hatte er sich im Bohrloch wie ein Kreisel gedreht.
Als nächstes versuchte man, mit etwas Druck auf den Boden in unmittelbarer Nähe des Maulwurfs mit Hilfe der Schaufel am Ende des Greifarms den Widerstand des Bodens etwas zu erhöhen, in der Hoffnung, dies würde dem Maulwurf den nötigen Halt geben, aber es reichte nicht.
Bild: NASA/JPL Caltech
Anfang September kam die Marskonjunktion zur Sonne – der Mars zog hinter der Sonne vorbei und beeinträchtigte die Funkverbindung von der Erde zu InSight. Nachdem Ende September wieder Funkkontakt hergestellt war, versucht man nun, die Schaufel des Greifarms als zusätzliche Führung und Widerstand an den Hüllenkörper anzulegen und erneut zu hämmern. Und siehe da, der Maulwurf versenkte sich fast mit seiner kompletten Länge im Boden!
The mole is digging deeper into #Mars thanks to the tremendous efforts by my team. Unofficial depth is ~38 cm down in the ground, almost the length of the mole (40 cm). This may be the last time we see the mole, more drilling later this week. #SaveTheMole #DiggingMars pic.twitter.com/c1sZsGSLxj
— NASA InSight (@NASAInSight) October 21, 2019
Es sah so aus, als wenn das Experiment nun gerettet war. Tief im Boden versenkt hatte der Maulwurf mehr Reibungswiderstand und er sollte nun problemlos weiter vordringen können.
Bis dann am Sonntagmorgen, dem 27.10.2019, neue Bilder eintrafen, die etwas völlig unerwartetes zeigten: der Maulwurf kam wieder aus dem Boden heraus, und das in Riesenschritten und fast voller Länge! Mittlerweile hängt er nur noch schräg mit der Spitze im Boden:
InSight sol 325 Instrument Deployment Camera. This is not good at all, folks. HP3 appears to have jumped. Gah pic.twitter.com/xXt3qrf76r
— Lars, but scarier than normal (@LarsTheWanderer) October 27, 2019
Bisher gibt es noch keine Stellungnahme des DLR oder der NASA zu den Bildern, die sicherlich genau so überrascht und entsetzt sind wie wir. Daher kann man derzeit nur spekulieren, was passiert ist. Der Hammer-Mechanismus hat definitiv keinen Rückwärtsgang. Ist da etwas am Hammermechanismus kaputt gegangen? Er war für 45000 Hammerschläge ausgelegt, etwa 20% davon waren im Rahmen der bisherigen Versuche aufgewendet worden. Aber es kann natürlich stets etwas Unvorhergesehenes eintreten.
Mal als persönliche Spekulation in den Raum gestellt: Könnte es vielleicht sein, dass der Maulwurf auf Gas gestoßen ist, das ihn aus dem Bohrloch hinaustrieb? Methan, Kohlendioxid oder vielleicht auch Wasser, das nur unter dem Druck der darüber liegenden Erde flüssig oder gefroren blieb und bei Druckentlastung und unter den Hammerschlägen zu Dampf wurde?
Wir werden es – hoffentlich – in den nächsten Tagen und Wochen erfahren. Ich fürchte allerdings, dass man den Hüllenkörper nicht mehr wird im Boden versenken können, falls der Hammermechanismus nicht ohnehin schon zerstört sein sollte. Und wenn es wirklich Gegendruck von unten gäbe, würde der bei weiterem Vordringen wieder zu erwarten sein. Es sieht derzeit leider gar nicht gut für das HP³-Experiment aus. Die Eingriffsmöglichkeiten von der Erde aus sind bei einer solchen robotischen Mission leider sehr beschränkt.
Ich drücke dem DLR-Team weiterhin die Daumen, das Experiment doch noch irgendwie zu retten oder wenigstens die Ursache des Scheiterns ermitteln zu können.
[1] Tilman Spohn, “Das Logbuch zu InSight“, DLR.
[2] en.wikipedia.org, Heat Flow and Physical Properties Package.
[3] en.wikipedia.org, InSight.
[4] Raumfahrer.net, Forum.
“Erste Analysen deuten auf unerwartete Bodeneigenschaften hin”.
“Eine Möglichkeit, die beim Testen beobachtet wurde, ist dass Erde vor die Spitze des Maulwurfs fällt, wenn er zurückprallt, so dass sich der Hohlraum vor ihm langsam füllt, während er zurückweicht.” Hm, aber warum erst jetzt und nicht schon beim Eingraben? Man untersucht weiter und wird in den nächsten Tagen einen Plan vorlegen. Wir sind gespannt.
Mars continues to surprise us. While digging this weekend the mole backed about halfway out of the ground. Preliminary assessment points to unexpected soil properties as the main reason. Team looking at next steps. #SaveTheMole #Teamwork pic.twitter.com/UURvU8VTwZ
— NASA InSight (@NASAInSight) October 27, 2019
Es gibt einen neuen Eintrag auf dem DLR InSight-Blog. Demnach ist der geringe Atmosphärendruck auf dem Mars und die geringe Reibung im Boden Schuld, die den Rückstoß des Maulwurfs nicht hinreichend abbremst. Auf der Erde hilft der Luftdruck, den Rückstoß des Bohrers aufzufangen, weil unter dem Bohrer im beim Hämmern entstehenden Hohlraum ein Unterdruck entsteht, der ihn nach innen zieht, dies entfällt in der dünnen Marsatmosphäre. Wenn dann statt dessen Material von der Seite in das Bohrloch rutscht, kann es den Bohrer nach oben schieben. Dass dies beim Eindringen vorher nicht der Fall war, lag also nur an der der anliegenden Schaufel des Greifarms.
Man hatte sogar damit gerechnet, dass der Bohrer langsamer werden und ein wenig rückwärts laufen könnte, aber niemals so weit bei nur 30 bis 50 Schlägen. Man hat noch Hoffnung, den Maulwurf erneut versenken zu können und wird zunächst das Bohrloch inspizieren. Dann will man versuchen, den Bohrer wieder mit Hilfe der Schaufel in den Boden zu versenken und danach vorsichtiger bei weiteren Voranschreiten sein.
Na ja, dann besteht ja noch etwas Grund zur Hoffnung. Ich drücke dem Team fest die Daumen, dass es doch noch klappt.
Ist diese Idee wirklich so absurd? Everett sprach selbst nie von “vielen Welten”, es war sein Doktorvater James Wheeler, der die Idee so zu popularisieren versuchte, wobei er ihr womöglich keinen Gefallen tat, denn es klingt ziemlich esoterisch. “Viele Welten – was für ein Quatsch” dachten dann auch die meisten Physiker, damals wie heute. Aber tatsächlich ist die Theorie der Wellenfunktion bereits eine Viele-Welten-Theorie, denn sie besagt z.B., dass ein Elektron gleichzeitig durch zwei Spalte gehen kann. Ein anderes Beispiel sind die Feynman-Diagramme, mit denen sich nicht nur Teilcheninteraktionen qualitativ beschreiben lassen, sondern mit denen man auch die Wahrscheinlichkeiten ausrechnen kann, dass bestimmte Teilcheninteraktionen stattfinden. Man muss dafür aber alle Möglichkeiten aufsummieren (und obwohl es sich hier regelmäßig um unendlich viele Möglichkeiten handelt, kommt man normalerweise gut weg, wenn man nur die häufigsten Fälle betrachtet und den Rest ausklammert). Wenn ein Elektron sich im leeren, feldfreien Raum von A nach B bewegt, dann tut es das mit größter Wahrscheinlichkeit auf direktem Wege, da aber Ort und Geschwindigkeit nicht beide gleichzeitig bestimmt sind, geht es mit gewisser Wahrscheinlichkeit auch sehr große Umwege, und zwar gleichzeitig, deren Wahrscheinlichkeit mit berücksichtigt werden muss. So rechnet man in der Quantentheorie schon seit Jahr und Tag – wenn das keine Viele-Welten-Theorie ist, was dann?
Everett zieht die Theorie nur konsequent durch: statt den Messvorgang zu einem mystischen Prozess zu erklären, der Wellenfunktionen kollabieren lässt oder Dinge erst real werden lässt, wenn jemand hinschaut, bezieht er das Messgerät einfach mit in die Wellenfunktion ein: für jedes mögliche Messergebnis für den Zustand eines Quantenteilchens gibt es einen entsprechenden Zustand des Messgeräts mit dem jeweiligen Ergebnis, die alle einander überlagert sind. Die Überlagerung entsteht, wenn das Teilchen mit dem Messgerät (oder jedem beliebigen anderen Teilchen oder System von Teilchen) interagiert: dekohärieren bedeutet dann, dass es seinen Zustand mit dem des Messsystems verschränkt, das heißt beide haben fortan eine gemeinsame Wellenfunktion die sich nicht mehr unabhängig voneinander für beide entwickeln kann. So wie verschränkte Elektronen im Stern-Gerlach-Experiment keinen unabhängigen Spin mehr haben, so bilden gemessener Quantenzustand und Messgerät fortan eine Einheit. Man kann sich dies dann so versinnbildlichen, als ob die Welt sich in zwei (oder je nach Experiment/Prozess auch viel mehr) Zustände aufteilen würde – aus Sicht jeder dieser “Welten” steht der Quantenzustand des Teilchens somit ein für allemal fest. Man kann aber auch ganz einfach von überlagerten Zuständen der Wellenfunktion sprechen, wie man dies bei quantenmechanischen Systemen bereits tut. In letzter Konsequenz sind beide Deutungen gleichwertig, die “vielen Welten” sind nur etwas plastischer für die menschliche Vorstellung.
Die quantenmechanische Wahrscheinlichkeit besteht dann nicht darin, was ein Teilchen in einem Experiment tun wird, sondern es ist klar, dass es alles tun wird, was es tun könnte. Die Wahrscheinlichkeit besteht vielmehr in der Unsicherheit, in welcher “Welt”, also in welchem überlagerten Zustand, sich ein Beobachter selbst lokalisiert. Das Prinzip funktioniert hier ganz analog zu den Boltzmann-Hirnen von neulich: wenn es unendlich viel mehr Boltzmann-Hirne gäbe als biologische Hirne, dann ist man fast sicher ein Boltzmann-Hirn. Und wenn eine stark überwiegende Zahl von Zuständen in der Überlagerung vorliegt, die ein Elektron auf dem kürzesten Weg von A nach B fliegen sehen, dann wird man bei der Durchführung eines solchen Experiments mit hoher Wahrscheinlichkeit genau dieses beobachten. Wenn man ab und zu etwas anderes beobachtet, dann sieht das wie die statistische Streuung des Quantenzustands bei der Messung aus. Wenn es, wie beim Stern-Gerlach-Experiment, nur zwei gleich wahrscheinliche Möglichkeiten gibt, dann spaltet sich die Welt in zwei Zustände mit gleichem Gewicht. Bei der Hintereinanderschaltung von zwei Stern-Gerlach-Magneten, die um weniger als 90° zueinander verdreht sind, sind die Gewichte nicht gleich verteilt, sondern vom Winkel abhängig zwischen 100 : 0 und 50 : 50, so wie die Wellenfunktion es für diesen Fall vorschreibt (1-½ sin²(θ) : ½ sin²(θ) für den Winkel θ). Damit reproduziert sie exakt das, was die Kopenhagener Deutung voraussagt. Das ist eigentlich schon alles.
Fragt sich natürlich, warum man nichts von den überlagerten Zuständen sieht. Was würde man denn zu sehen erwarten? Was sieht man von einem Elektron in einem überlagerten Zustand? Der Spin-Zustand eines Elektrons offenbart sich, wie wir gelernt haben, genau dann, wenn man ihn misst, und dann ist er eindeutig. Feuert man ein Elektron auf einen Doppelspalt ab und weist man es auf einem Schirm dahinter nach, dann findet man es an einer eindeutigen Stelle. Der Charakter der Wellenfunktion oder die Häufigkeit der winkelabhängigen Spinmessungen im hintereinander geschalteten Stern-Gerlach-Versuch ergibt sich erst durch die vielfache Wiederholung desselben Versuchs. Eine Überlagerung kann man nicht “sehen” sondern nur indirekt erschließen.
Betrachtet man noch einmal Schrödingers Katze, so wird diese nach Everett in einem Überlagerungszustand von lebendig und tot enden (bei Carroll wird sie aus ethischen Erwägungen nur betäubt ). Sobald der radioaktive Atomkern, der den Mechanismus der Gasfreisetzung auslöst, mit der Umgebung dekohäriert, bilden sich zwei überlagerte Zustände aus, die mit der Umgebung jeweils verschränkt sind, so dass auch die Umgebung samt späterem Beobachter in zwei Zuständen vorliegt. Der zum Zustand “lebendige Katze” gehörige Beobachterzustand wird nur mit Photonen interagieren, die von eben diesem Zustand des Tieres ausgehen und der zum Zustand “tote/betäubte Katze” gehörige Beobachter entsprechend mit solchen von entsprechenden Tier. Gewissermaßen zwei parallele Welten, die sich rasch auseinanderentwickeln und daher auch nie mehr in Kontakt miteinander treten werden, obwohl dies theoretisch möglich wäre.
Carroll macht im Buch eine obere Abschätzung für die Zahl der Zustände, in die sich das Universum seit Beginn aufgespalten haben kann. Zunächst scheint diese Zahl unendlich zu sein, denn ein Elektron könnte ja außerhalb eines Atoms jeden Energiezustand annehmen oder sich bei scharf bestimmtem Impuls an jeder Stelle des Universums befinden. Wie er an späterer Stelle im Buch erläutert, legt eine quantenmechanische Deutung der Gravitation jedoch nahe, dass es nur endlich viele Quantenzustände gibt. Das beobachtbare Universum hätte dann ca. 210122 mögliche Freiheitsgrade, wobei ein Freiheitsgrad eine Größe ist, mit der man den Zustand eines physikalischen Objekts eindeutig beschreiben kann (in der Newtonschen Physik reichen drei Dimensionen für den Ort und drei für die Richtungen der Geschwindigkeit eines Teilchens, macht 6 Freiheitsgrade; für 2 Teilchen sind dann 2×6=12 etc. In der Quantenphysik ist der Spin ein weiterer Freiheitsgrad; demnach haben 2 verschränkte Teilchen weniger Freiheitsgrade als zwei unverschränkte).
Geht man von 1088 Teilchen im beobachtbaren Universum aus, von denen die weitaus meisten Photonen und Neutrinos sind, die ohne Interaktion durch das Vakuum sausen, und sich der Zustand jedes Teilchens im Schnitt eine Million Mal pro Sekunde in zwei Zustände aufteilt, dann kommt man bei einem Weltalter von rund 1018 Sekunden auf 210122 Aufteilungen. Das ist eine große Zahl, aber sie ist endlich und sie ist viel kleiner als die Zahl der möglichen Freiheitsgrade, die das beobachtbare Universum haben kann.
Ist das eigentlich noch Physik? Viele Physiker wenden ein, da man die Korrektheit der Everettschen Deutung nicht messtechnisch beweisen oder widerlegen kann, gehört sie nicht zur Physik. Das ist durchaus nachvollziehbar, gilt für die Kopenhagener Deutung aber genau so, und das hat sie nicht daran gehindert, ihren Weg in die Physik-Hörsäle zu finden. Wenn es dem Verständnis dient, ist es legitim, auf solche metaphysisch-philosophischen Modelle (wie z.B. auch das Multiversum) zurück zu greifen. Weil die Viele-Welten-Deutung mit weniger Zusatzannahmen als andere Deutungen auskommt, müsste sie, so Carroll, nach dem Prinzip von Ockhams Rasiermesser eigentlich die zu bevorzugende sein.
Carroll macht noch einen Exkurs in die Ethik, den ich hier aus Platzgründen nur ganz kurz anreißen kann: In einer Welt, in der alles passiert, was passieren kann, kann man da noch einen freien Willen haben? Und muss man sich noch an irgendwelche Normen halten, wenn man doch ohnehin in irgendeinem Überlagerungszustand mit Sicherheit ein Mörder wäre? Ja und ja.
Ad freier Wille: der hat zum Einen nichts damit zu tun, was quantenmechanisch passiert, sondern die Prozesse des Denkens finden in der Welt der klassischen Physik und Chemie statt, in der eine Aufspaltung von Quantenzuständen keine relevante Auswirkung hat – die Welt ist halt nicht durchgängig zur Potenzierung von Quantenprozessen ausgelegt, wie es Schrödingers Katzen-Gedankenexperiment ist (wer aber die Welt gezielt aufteilen will, kann das mit dieser App tun, indem er sein Handeln vom im Labor bei idQuantique in Genf gemessenen Quantenzustand eines Photons abhängig macht!). Zum Anderen geht es bei der Willensfreiheit überhaupt nicht darum, von irgendeinem Determinismus der Physik eingeschränkt zu sein, sondern von gefühlten Zwängen, die einen daran hindern, das zu tun, was man gerne würde. Es ist derjenige frei im Willen, der tun kann, was er mag (selbst wenn er dabei nicht merkt, dass dieser Wille von der Physik determiniert ist). Darüber hat Martin Bäker schon einen empfehlenswerten Artikel geschrieben, unter dem sich eine ebenso empfehlenswerte Diskussion findet.
Ad Ethik: Jede entstehende Kopie seiner selbst ist von einem Menschen mindestens so unabhängig wie sein Zwilling (eher noch mehr, weil sie nie mehr miteinander in Kontakt treten können), daher “kämpft jeder für sich alleine” und ethisches Handeln heißt, dass man dafür Sorge trägt, ethisch korrekte Überlagerungszustände mit möglichst viel Gewicht auszustatten. Dabei ist der heftige Gebrauch der oben genannten App zur Erzeugung zahlreicher Kopien allerdings kein geeigneter Weg hierzu, denn das Gewicht eines Zustands ändert sich nicht, wenn man ihn weiter verzweigt. Vielmehr müssten möglichst wenige unethische Zweige überhaupt erst entstehen, d.h. jeder muss seinen Zweig von vornherein sauber halten. Im Prinzip gilt also in jedem Zweig dasselbe, was im einzigen realen Zweig einer nicht-everettschen Deutung ebenfalls gilt.
Im letzten Teil des Buchs geht es dann um Carrolls aktuelles Forschungsthema, wie die Raumzeit und die Gravitation aus der Quantenfeldtheorie hervorgehen könnten. Bitte anschnallen, es ist mit Turbulenzen zu rechnen!
Was sind eigentlich “Raum” und “Zeit”? In der gewöhnlichen Mechanik sind sie einfach eine gegebene Bühne, in denen sich alle Vorgänge abspielen. In der Allgemeinen Relativitätstheorie sind ihre Geometrien abhängig von der enthaltenen Masse bzw. Energie (und einigen anderen Größen) und sie erzeugen so die Schwerkraft als Scheinkraft, aber dennoch sind sie auch hier zunächst einmal einfach “da”. Einsteins Feldgleichungen beschreiben dabei, wie Masse/Energie auf der einen Seite der Gleichungen und Raumkrümmung auf der anderen sich gegenseitig bedingen. Die Gravitation entsteht dann dadurch, dass ein Objekt in der gekrümmten Raumzeit den kürzesten Weg nehmen möchte, der für einen externen Beobachter beispielsweise wie ein Orbit oder eine Wurfparabel aussieht. Mit den Worten von John Wheeler: “Die Masse sagt dem Raum, wie er sich zu krümmen hat, der Raum sagt der Masse, wie sie sich zu bewegen hat”.
In der Quantenphysik können beliebig verschränkte Teilchen in beliebigen weiten Entfernungen verzögerungsfrei voneinander abhängiges Verhalten zeigen, die sogenannte “Nichtlokalität” der Quantenmechanik. Kann man sich darauf einen Reim machen? Carroll meint ja, wenn man Raum und Zeit auf der Basis der Viele-Welten-Theorie als Grad der Verschränkung von Quantenfeldern betrachtet.
Nach der Quantenfeldtheorie gibt es eigentlich gar keine Teilchen, sondern Teilchen sind vielmehr Anregungszustände von Feldern, die den Raum füllen. So ist das Photon ein Anregungszustand des elektromagnetischen Felds, das Elektron ein solcher eines Elektron-Felds. Man kann sich Anregungszustände ein wenig wie die Schwingungen und Oberschwingungen von Gitarrensaiten vorstellen, die im Grundzustand in voller Länge schwingen, in erster Oberschwingung bilden sie auf der Hälfte einen stillstehenden Knoten, um den die beiden Hälften schwingen, in dritter Oberschwingung drittelt sich die Saite etc. Das Vakuum ist von solchen Feldern im Grundzustand erfüllt, die ihm eine gewisse Energie verleihen. Nach der Quantentheorie ist der jeweilige Zustand eines Feldes an einem Ort aber einer Wellenfunktion unterworfen, die verschiedene mögliche Anregungszustände überlagert, und wenn man ihn misst, wird man zufällige angeregte Zustände finden, die bei der nächsten Messung ganz anders aussehen, deswegen wird oft nicht ganz korrekt vom “fluktuierenden Vakuumzustand” gesprochen, der in Wahrheit ganz friedlich vor sich hinschwingt.
Nach der Viele-Welten-Theorie ist jeder Ort im Universum nun mit unterschiedlichem Grad untereinander verschränkt. Zwei benachbarte Vakuum-Regionen müssen dabei stark miteinander verschränkt sein, d.h. ihre Quantenfelder schwingen in Phase miteinander. Denn würden sie unabhängig voneinander schwingen, dann würde zwischen ihnen eine Diskontinuität entstehen, und solche führen in der Physik zwangsläufig zu Oberschwingungen hoher Frequenz, d.h. das Vakuum wäre nicht mehr im Grundzustand. Die Verschränkung nimmt dann mit wachsender Entfernung ab. Man kann die Sache aber auch umgekehrt betrachten und die Entfernung über den Grad der Verschränkung definieren. Orte sind dann einfach eine zunächst ungeordnete Menge von Punkten, die über Verschränkungen miteinander verbunden sind, und der Grad der Verschränkung lässt sie uns als nah oder weit entfernt erscheinen. Lokalität bedeutet dann, dass ein Vorgang nur Auswirkung auf stark verschränkte Orte hat. Zwar können Quantensysteme wie etwa verschränkte Elektronen nicht-lokales Verhalten zeigen, aber der Raum als solcher verhält sich strikt lokal. Was an einem Ort passiert, beeinflusst am stärksten die nächste Umgebung, alles weiter entfernte erst in abgeschwächter Form. Macht Sinn.
Um den Bogen von der obigen Entfernungsdefinition über die Verschränkung zu Einsteins Feldgleichungen zu ziehen, braucht es noch den Begriff der Verschränkungsentropie. Dieser von John von Neumann geprägte Entropiebegriff weist dem Grad der Verschränkung mehrerer Quantensysteme eine Entropie zu, die mit zunehmender Verschränkung größer wird. So hat auch das Vakuum als untereinander verschränkte Punktmenge eine Entropie. Betrachtet man ein Raumvolumen (definiert über Strecken gemäß dem oben eingeführten Maß der Verschränkung), das von einer Oberfläche nach außen begrenzt wird, dann ist die Verschränkung vom Inneren des Volumens nach außerhalb hin maßgeblich für die Verschränkungsentropie des Volumens und diese wächst demgemäß proportional zur einschließenden Oberfläche.
Interessant wird das Ganze durch eine Arbeit von Ted Jacobson aus dem Jahr 1995. Jacobson bemerkte, dass eine Veränderung der Quantenfelder im Inneren eines Volumens (man denke: Vorhandensein von angeregten Zuständen = Teilchen a.k.a. Masse/Energie) die Verschränkung nach außen verringert. Damit verkleinert sich die einschließende Oberfläche in Abhängigkeit des Anregungszustands der im Volumen eingeschlossenen Quantenfelder, und das ist genau das, was in Einsteins Feldgleichungen die Masse mit dem umgebenden Raum macht. Die von einer Masse verursachte Raumkrümmung verkleinert die Oberfläche einer Kugel mit gegebenem Radius, weil sie die Geometrie des Raums verändert. Man überlege sich, dass etwa ein Kreis auf einer (positiv) gekrümmten Kugeloberfläche einen kleineren Umfang als 2πr hat, wenn der Radius r auf der Kugeloberfläche gemessen wird (der Äquator der Erde ist z.B. mit 40.000 km Umfang deutlich kleiner als 2π·10.000 km = 62.831 km, mit dem Abstand 10.000 km vom Äquator zum Nordpol), und das gilt analog eine Dimension höher für Kugeln im positiv gekrümmten Raum. So konnte Jacobson die von Einstein postulierten Feldgleichungen über die Entropie aus der Quantenfeldtheorie ableiten!
So könnte der Raum (ähnliches gilt für die Zeit, siehe Carrolls Buch) und somit also auch die Gravitation eine aus der Quantenfeldtheorie hervorgehende (emergente) Eigenschaft der Quantenwelt zu sein. Statt, wie in der Stringtheorie oder Schleifen-Quantengravitation zu versuchen, die Gravitation analog zum Elektromagnetismus irgendwie zu quanteln, was bisher niemandem gelang, könnte die Quantentheorie die Gravitation bereits enthalten und man findet sie, tief verborgen (wie Carroll sein Buch genannt hat), wenn man die Welt als von einer Wellenfunktion durchzogen betrachtet. Vielleicht ist das der Weg zur Quantengravitation, geebnet von der Viele-Welten-Theorie.
Wem das hier zu dicht und kompliziert war, dem empfehle ich die Lektüre des Buchs. Wobei das letzte Drittel auch im Buch einigermaßen kompliziert ist und es einiger Mühe bedurfte, dieses hier stark gerafft so darzustellen, dass man wenigstens eine Ahnung davon erhält, womit Carroll und sein Team sich beschäftigen (aber auch Leute wie Eric Verlinde). Vermutlich ging ihm zum Ende des Buches hin der Platz aus, den eine ausführlichere Erläuterung verbraucht hätte. Der Rest des Buchs liest sich jedoch deutlich leichter nachvollziehbar.
[1] Sean Carroll, “Something Deeply Hidden: Quantum Worlds and the Emergence of Spacetime“, ISBN-13: 978-1524743017, 2019.
Die Quantenmechanik hat ihren Ursprung in der Beobachtung, dass Elektronen in Atomen keine beliebigen Energien annehmen können, sondern nur bestimmte diskrete Energieniveaus. Springen sie von einem Energieniveau auf ein anderes, dann geben sie ein Lichtquant ab, also eine gewisse Menge, lateinisch Quantum, von Licht. Dieses hat dann eine ganz bestimmte Frequenz f, die über die Plancksche Formel E=h·f die Energie des Quants bestimmt, wobei das Plancksche Wirkungsquantum h eine Naturkonstante ist. Ein anderes Wort für Lichtquanten sind Photonen.
Umgekehrt gilt, nur Licht oberhalb einer bestimmten Frequenz f kann etwa Elektronen aus einer Metallplatte lösen (in diesem Fall im Ultravioletten). Man kann noch soviel Licht geringerer Wellenlänge auf das Metall schießen, ohne großen Effekt. Nur wenn die Lichtquanten die Energie passend portioniert abliefern, können die Elektronen die Metallplatte verlassen. Für die Erklärung dieses Photoelektrischen Effekts (und nicht etwa für seine Relativitätstheorien) durch die Quantennatur des Lichts erhielt Albert Einstein 1921 den Nobelpreis. Damit hat Licht, dessen Wellennatur aus Versuchen mit engen Spalten längst bekannt war, auch einen Teilchencharakter.
Denn schickt man Licht einer bestimmten Frequenz durch zwei eng benachbarte Spalten, so entsteht auf einem Schirm dahinter ein Streifenmuster: Genau in der Mitte zwischen den Spalten haben die Lichtwellen aus beiden Spalten den gleichen Weg zurückgelegt und sie verstärken sich, weil stets Wellenberg mit Wellenberg und Wellental mit Wellental zusammentrifft. Links und rechts davon sind die Wege zu den Spalten nicht gleich lang, weil die Ebene der Spalten ein wenig verkippt erscheint, und dann treffen die Wellen gegeneinander versetzt ein – bei einer halben Wellenlänge Versatz treffen Wellenberge auf Wellentäler und löschen sich genau aus. Noch weiter von der Mitte entfernt treffen die Wellen dann wieder im Gleichtakt aufeinander und es gibt wieder einen hellen Streifen. Das Phänomen nennt sich Interferenz.
Umgekehrt haben auch Teilchen Wellencharakter. Man kann Elektronen ebenfalls durch einen Doppelspalt schicken und erhält genau so ein Streifenmuster auf einem Leuchtschirm wie bei Lichtwellen. Versperrt man hingegen einen der Spalte, dann verschwindet das Streifenmuster und es landen einfach die meisten Elektronen in der Mitte und nach außen hin klingt die Anzahl allmählich ab. Gut, dann interferieren vielleicht Elektronen miteinander, die gleichzeitig nebeneinander durch die beiden Spalte gehen, könnte man annehmen. Dem ist aber nicht so: man kann den Versuch so abändern, dass immer nur ein einzelnes Elektron gleichzeitig auf den Doppelspalt abgefeuert wird. Wenn man die auf dem Schirm dahinter entstehenden Leuchtpunkte aufsummiert, kommt wieder das Streifenmuster heraus. Jedes Elektron geht irgendwie durch beide Spalte. Wie Lichtwellen.
Aber was passiert da genau? Wenn man näher hinschaut? Wenn man nachschaut, durch welchen Spalt das Elektron geht? Auch das lässt sich messen. Aber wenn man nachweist, durch welchen Spalt jedes Elektron geht, dann verschwindet das Streifenmuster und man erhält nur das Bild, das sich aus der Überlagerung von zwei Elektronenverteilungen durch zwei Einzelspalte ergibt.
Was ist das los? In der Quantenphysik erklärt man sich das so: mit dem Elektron verbunden ist eine Wellenfunktion Ψ (Psi). Die Welle, genauer gesagt, das Quadrat ihrer Amplitude Ψ², gibt an, wie wahrscheinlich man ein Elektron an einem bestimmten Ort misst, z.B. auf dem Schirm. Und diese Welle ist es, die durch den Doppelspalt geht und mit sich selbst interferiert. Nun ist das Elektron aber kein von der Welle separates Ding, es ist ja gerade nicht so, dass das Elektron gemäß der Wellenwahrscheinlichkeit abwechselnd mal durch den einen und mal durch den anderen Spalt geht, auch einzelne Elektronen gehen durch beide Spalte. Das Elektron ist die Welle. Aber wenn wir es messen, dann messen wir stets ein Teilchen an einem bestimmten Ort. Warum? Was passiert bei der Messung?
Und noch ein Beispiel für die Merkwürdigkeit der Quantenmechanik: Elektronen haben ein magnetisches Moment, sie sind wie kleine Magneten mit Nord- und Südpol. Ein kreisender Strom (und Strom sind bekanntlich bewegte Elektronen) hat ebenfalls ein magnetisches Dipolmoment (wenn man mit den Fingern der rechten Hand in Richtung der Windung zeigt, dann zeigt der ausgestreckte Daumen in Richtung des magnetischen Nordpols) und daher nennt man das magnetische Moment der Elektronen “Spin”, also “Drehung”, so als ob das Elektron rotierte und so einen kreisenden Strom darstellte, der ein Magnetfeld hervorbrächte. Aber Elektronenspins nehmen keine beliebigen Werte an, sie sind gequantelt, wie ihre Energien im Atom. Im Experiment nach Stern und Gerlach (1922) schickt man neutrale Silberatome durch ein (inhomogenes) Magnetfeld, siehe Video. Silber hat die Eigenschaft, dass ein einzelnes Elektron das magnetische Moment des gesamten Atoms bestimmt, die Spins der anderen Elektronen heben sich gegenseitig auf. Aufgrund dieses überzähligen Elektronenspins wird die Hälfte der Atome in Richtung des Magnetfelds abgelenkt, die andere Hälfte in Gegenrichtung. Niemals in einem schrägen Winkel oder geradeaus, wie es bei zufällig ausgerichteten Drehachsen klassischer Magnete der Fall wäre (erster Teil des Videos). Dabei ist es völlig egal, in welcher Richtung das Magnetfeld ausgerichtet ist, die Ablenkung erfolgt immer zur Hälfte in der Richtung bzw. Gegenrichtung der Magnetfeldlinien. Der Spin ist gequantelt, aber offenbar nicht gemäß einer ursprünglichen Ausrichtung der Elektronenspins, sondern gemäß der Messung.
Dreht denn etwa das äußere Magnetfeld den Spin in seine Richtung? Lässt man die nach oben abgelenkten Atome noch einmal durch ein gleichartig ausgerichtetes Magnetfeld gehen (hier mit allerlei Bildern erläutert) , werden sie zu 100% wieder in die gleiche Richtung wie vorher abgelenkt, also die nach oben abgelenkten gehen nochmals nach oben (Fig. 9 im verlinkten Artikel), die nach unten abgelenkten in die Gegenrichtung. Wählt man hingegen für das zweite Feld eine um 90° gegen das erste verdrehte Ausrichtung, also von rechts nach links (Fig. 11), dann werden 50% der zuvor nach oben abgelenkten Atome nach links und 50% nach rechts abgelenkt (entsprechendes gilt für die zuvor nach unten abgelenkten Elektronen). Bei einem kleineren Winkel, etwa einer Ausrichtung des Feldes von links unten nach rechts oben, werden mehr Atome nach rechts oben abgelenkt als nach links unten (Fig. 13), und das Verhältnis wächst gegen 100%, je mehr man das zweite Feld in Richtung des ersten verdreht. Das äußere Magnetfeld dreht die Richtung also offenbar nicht nach Belieben, denn sonst müssten ja bei jeder Ausrichtung 50% der Atome nach oben und 50% nach unten abgelenkt werden.
Die Quantenmechanik besagt, dass die Elektronen sich in einem Überlagerungszustand befinden, aus dem sie durch die Messung befreit werden. Bevor sie in das Magnetfeld eintreten, sind sie zu 50% im Zustand Spin aufwärts und zu 50% im Zustand Spin abwärts. Das Magnetfeld erzwingt eine Entscheidung, wobei ein Elektron dann zufällig nach oben oder unten abgelenkt wird, mit 50% Wahrscheinlichkeit. Nach der Messung weiß man die Spinrichtung. Misst man noch einmal auf die gleiche Weise, bekommt man erwartungsgemäß das gleiche Ergebnis. Misst man aber um 90° verkippt, dann ist der zuvor eindeutig bestimmte Spin wieder völlig offen: die Ablenkung kann nur in Richtung oder Gegenrichtung des Magnetfelds erfolgen, das mit dem vorherigen keinen gemeinsamen Richtungsanteil teilt. Die Messung fragt jetzt eine andere Quantelung ab. Bei weniger als 90° Verkippung ist hingegen noch ein Anteil der ursprünglichen Richtung vorhanden und der beeinflusst die Statistik der Messung.
Auch das zweite Experiment kann durch eine Wellenfunktion beschrieben werden, die die Unsicherheit des Spins mathematisch ausdrückt. Der Zustand des Spins ist vor der Messung unbestimmt, die Wellenfunktion weist jeder möglichen Richtung eine Wahrscheinlichkeit zu. Führt man jedoch eine Messung durch, dann sind auf einen Schlag alle vorher offenen Möglichkeiten bis auf eine verboten. Das Elektron taucht im Doppelspaltversuch an einer Stelle auf dem Schirm auf, obwohl es vorher durch zwei Spalte ging. Es hat einen bestimmten Spin, obwohl die Richtung vorher unbestimmt war (und die Messung erzwingt eine Entscheidung zwischen zwei Richtungen). Die Wellenfunktion verwandelt sich von einer breit über alle Möglichkeiten verteilten Funktion in eine scharfe Spitze an der Stelle des gemessenen Zustands und 0 überall sonst. Erwin Schrödinger stellte eine Gleichung auf, die das Verhalten der Wellenfunktion und ihre Entwicklung beschreibt. Er hatte die Hoffnung, dass aus der Gleichung folgen würde, warum sie sich bei einer Messung auf einen Punkt zusammenzieht, aber das tat sie nicht.
Kluge Köpfe wie Werner Heisenberg, Niels Bohr, und Wolfgang Pauli konnten sich darauf keinen besseren Reim machen als die “Kopenhagener Deutung”, die sie 1927 in Kopenhagen als Kompromisslösung formulierten, die sich allmählich etablierte und die heute allen Physikstudenten eingetrichtert wird. In der klassischen Mechanik gilt: kennt man den Anfangszustand eines Körpers (Masse, Geschwindigkeit mit Richtung) und die auf ihn wirkenden Kräfte, dann kann man genau berechnen, wie er sich weiter bewegen wird. In der Quantenmechanik kann man ebenso mit Hilfe von Schrödingers Gleichung berechnen, wie sich die Wellenfunktion ausgehend von einem Startzustand entwickeln wird. Die Wellenfunktion schließt dabei streng genommen die ganze Welt mit ein, nicht nur ein einzelnes Teilchen; wenn Quantenteilchen miteinander interagieren dann ist ihr Verhalten miteinander verknüpft; das berühmteste Beispiel sind verschränkte Teilchen, bei denen zwei zusammen entstandene, aber danach räumlich getrennte Teilchen voneinander “wissen”, wie der Zustand des jeweils anderen bei einer Messung ausfällt, und man kann zeigen, dass diese Information nicht schon bei der Trennung der beiden vorhanden war. Aber auch bei Teilchenkollisionen kann das Ergebnis nicht durch separate Wellenfunktionen der beteiligten Kollisionspartner beschrieben werden. Wenn ein Teilchen jedoch isoliert von Interaktionen mit der Umwelt ist, dann kann man seinen Teil der universalen Wellenfunktion näherungsweise für sich alleine betrachten.
Wenn man nun eine Messung des aktuellen Zustands der Wellenfunktion eines Teilchens durchführt, dann gelten laut Kopenhagener Deutung einige Zusatzbedingungen:
Einen Grund für diesen Kollaps kann die Quantenmechanik nicht nennen – ist eben so. Kann man nicht verstehen. Carroll kritisiert heftig, dass alle Versuche, eine sinnigere Interpretation zu entwickeln, bei den Physikern verpönt war und zum Karrierekiller mutieren konnten.
Die Physik kann auch nicht erklären, was denn nun eigentlich die Messung ausmacht, das sogenannte Messproblem der Quantenmechanik. Die Absurdität der Situation versuchte Schrödinger mit seiner berühmten Katze zu verdeutlichen: in einer verschlossenen Kiste befinde sich eine Katze, ein Geigerzähler, der radioaktive Zerfälle misst, und ein radioaktives Atom. Der Geigerzähler löse bei einem radioaktiven Zerfall einen Mechanismus aus, der Gift aus einer Flasche entlässt, das die Katze sofort tötet. Nach der Kopenhagener Deutung befindet sich der radioaktive Atomkern in einem Zustand der Überlagerung aus Zerfall und stabilem Zustand, solange niemand ihn misst. Beim Zerfall wird die Katze getötet, ansonsten bleibt sie am Leben. Wenn das Atom in einem überlagerten Zustand ist, dann müsste es auch die Katze sein, in einer Überlagerung von tot und lebendig – solange niemand nachschaut, die Kiste öffnet und die Wellenfunktion zum Kollaps bringt. Schrödinger meinte nicht ernsthaft, dass die Katze tot und lebendig zugleich sei, er wollte damit nur zum Ausdruck bringen, wie absurd das Messproblem ist.
Das Standardargument ist, es brauche niemand in die Kiste hinein zu schauen, der Geigerzähler führe ja schon eine Messung aus. Es reiche aus, dass das radioaktive Atom in Kontakt mit hinreichend viel Materie der makroskopischen Welt käme, dann dekohäriere der überlagerte Zustand und entscheide sich für ein Ergebnis. Kohärent nennt man in der Quantenmechanik vereinfacht gesagt einen Zustand, in dem die Wellenfunktion weit ausgebreitet und maximal unbestimmt ist. Dekohärieren ist dann ein anderes Wort für das Kollabieren der Wellenfunktion zu einem bestimmten Wert. Aber was ist “hinreichend viel” Materie und warum macht das einen Unterschied? Was da genau passiert und warum, das kann die Quantenphysik nicht erklären.
“Nichts”, war die Antwort eines jungen Physikers namens Hugh Everett (dem Dritten), der darüber 1956 seine Doktorarbeit schrieb. Oder auch “alles”, je nach Standpunkt. Everetts Standpunkt war, man könne die oben genannten Zusatzbedingungen einfach vergessen. Die Wellenfunktion kollabiere nicht. Wenn der Zustand eines Teilchens dekohäriere, dann verschränke es sich lediglich mit seiner Umgebung, die dann mit in den Überlagerungszustand überginge. Es entstünden dann zwei (oder mehr) überlagerte Zustände der universalen (also die ganze Welt einschließenden) Wellenfunktion, einmal mit dem Teilchen in dem einen der überlagerten Zustände und einmal in dem anderen. Die Welt habe sich gewissermaßen in zwei überlagerte Zustände aufgeteilt. Schrödingers Katze existiere in zwei Kopien, die eine sei tot und die andere zugleich lebendig (siehe Titelbild). Das gelte dann aber eben auch für den Messapparat. Es gebe damit auch zwei Beobachter, die die Kiste öffneten, der eine sehe eine tote Katze und der andere eine lebendige. Jedesmal, wenn ein Teilchen (und davon gibt es verdammt viele, so um die 1088 im beobachtbaren Universum) in einen überlagerten Zustand übergehe, teile sich die globale Wellenfunktion auf. Gehe ein Elektron durch einen Doppelspalt, so teile sich die Welt in zahlreiche mögliche Pfade auf, die jeweils einem Endpunkt auf dem Schirm entsprächen. Es gebe nicht nur eine Welt, sondern eine gigantische Zahl sich ständig weiter teilender Pfade, in denen alles, was quantenmechanisch möglich ist, auch tatsächlich passiere.
Die mittlerweile älteren Recken der Kopenhagener Runde hielten das für ausgemachten Unsinn. Es sei ja offensichtlich, dass die makroskopische Welt sich in keiner Überlagerung befinde, alle makroskopischen Dinge hätten eindeutige Orte, seien entweder tot oder lebendig, das sehe man doch! Einer Anekdote gemäß wurde eine junge Physikerin von ihrem Professor einmal gefragt, warum man sage, es sei natürlich gewesen, davon auszugehen, dass die Sonne um die Erde kreise und nicht umgekehrt. Weil es so aussehe, antwortete sie. Ja schon, entgegnete er, aber wie hätte es denn anders herum ausgesehen?
Fühlt es sich irgendwie anders an, wenn sich die universale Wellenfunktion aufspaltet? Tatsächlich zeigte Everett, dass jeder Beobachter in einer der aufgespaltenen Welten genau dasselbe beobachten würde, wie bei der Kopenhagener Deutung. Die lässt jeweils nur ein Ergebnis eines Quantenexperiments zu, das vorher potenziell sehr viele mögliche Ausgänge hatte, und jeder Ausgang ist mit einer gewissen Wahrscheinlichkeit möglich. Bei Everett spalten sich die Welten so auf, dass die wahrscheinlicheren Ergebnisse häufiger auftreten und somit ein höheres Gewicht haben. Als Beobachter weiß man selbst nicht, in welchem Zweig man sich befindet, aber die Wahrscheinlichkeit ist am größten, dass man sich auf einem breiten Bündel mit wahrscheinlichen Ergebnissen befindet. 500mal eine 6 hintereinander würfeln? Passiert in irgendeiner Welt und irgendein Beobachter wird sich dort am Kopf kratzen und darüber grübeln, ob die Physik bei ihm verrückt spiele (und dann vermutlich die Schlussfolgerung ziehen, dass er zufällig Zeuge einer extrem seltenen statistischen Schwankung geworden sei). Eine überwältigende Zahl von Beobachtern wird hingegen eine mehr oder weniger gleichverteilt streuende Augenzahl der Würfelwürfe beobachten.
Dieser erste Teil war nur das Aufwärmprogramm mit der notwendigen Einführung in das Thema. Im zweiten Teil des Artikels will ich die Implikationen der Everettschen Idee gemäß Carrolls Buch erläutern. Ist die Idee wirklich so absurd? Wie genau erklärt die Viele-Welten-Theorie die Probleme der Quantenphysik? Wo sollen die ganzen Welten eigentlich Platz finden? Wie viele davon soll es überhaupt geben? Wie real sind sie? Kann man andere Welten nachweisen? Wenn sowieso alles eintritt, macht es dann noch Sinn, sich moralisch zu verhalten? Und ist das alles überhaupt noch Physik?
Mehr dazu im zweiten Teil.
[1] Sean Carroll, “Something Deeply Hidden: Quantum Worlds and the Emergence of Spacetime“, ISBN-13: 978-1524743017, 2019.
Noch nie hatte man jedoch ein Objekt im Sonnensystem gefunden, das nachweislich von einem anderen Stern stammte. Bis vor knapp 2 Jahren am 19. Oktober 2017 das Objekt mit der vorläufigen Bezeichnung C/2017 U1 vom Pan-STARRS-Teleskop auf Hawaii entdeckt wurde – die Bezeichnung für einen langperiodischen Kometen (U1 steht für die Monatshälfte, in der er entdeckt wurde). Als man erkannte, dass seine Geschwindigkeit höher als die Fluchtgeschwindigkeit der Sonne war, gab man ihm als endgültige Bezeichnung eine völlig neuartige Katalognummer: 1I/2017 U1, wobei 1 bedeutet, dass es das erste Objekt der neuen Klasse I war und I für “interstellar” steht. Das Objekt stammte nicht aus dem Sonnensystem, sondern es kam von den Sternen. Ein echtes Alien!
Bis heute weiß man nicht so genau, um welche Art von Objekt es sich bei dem gemäß seiner Lichtkurve anscheinend zigarrenförmig langgestreckten 1I/2017 U1 eigentlich handelt, dem alsbald der Name 1I/’Oumuamua1 gegeben wurde, was soviel wie “Botschafter aus der Ferne” auf Hawaiianisch bedeutet: ob es ein Komet ist, der nicht mehr ausgast, oder ein Asteroid, der sich anscheinend schneller von der Sonne entfernte, als ein Asteroid das hätte tun sollen (was allerlei seltsame Erklärungen auf den Plan rief). Leider entdeckte man ‘Oumuamua erst, als er sich schon von Sonne und Erde entfernte und so blieb mit 80 Tagen kaum Zeit, ihn zu erforschen. Er wurde auch nie viel heller als 20. Größenklasse (20m).
Lange hatte man auf ‘Oumuamua warten müssen und es war völlig unklar, wie lange es dauern würde, bis das nächste interstellare Objekt gefunden ist. Es ging schneller als gedacht: am 30. August entdeckte der Amateurastronom Gennadi Borisow auf der Krim mit einem selbstgebauten 65-cm-Spiegelteleskop den (eindeutigen) Kometen C/2019 Q4, der, wie sich herausstellen sollte, ebenfalls schneller als mit Fluchtgeschwindigkeit unterwegs ist – viel schneller. Und genau dies verrät Objekte, die nicht zum Sonnensystem gehören.
Wenn ein Objekt die Sonne umkreist, tut es das gemäß Keplers 1. Gesetz auf einer Ellipsenbahn. Die Form der Ellipse wird dabei durch die (numerische) Exzentrizität e beschrieben, in die das Verhältnis der größten und kleinsten Halbmesser a und b der Ellipse zum Quadrat eingeht; die Formel lautet e=√(1-b²/a²). Bei einer Kreisbahn sind beide gleich, kürzen sich zu 1 weg und demnach ist e=0. Je größer a im Verhältnis zu b wird, desto flacher wird die Ellipse und weil b²/a² dann immer kleiner wird, nähert sich die Exzentrizität der 1.
Ist a unendlich viel größer als b, die Ellipse also in eine Richtung hin offen, dann erhält man eine Parabel mit der Exzentrizität 1. Ein Objekt befindet sich auf einer Parabelbahn, wenn der sonnenfernste Punkt im Unendlichen liegt, also das Objekt die Sonne verlässt und erst im Unendlichen zum Stillstand käme (unendlich bedeutet hier nur: weit genug; in der Praxis geriete es vorher in den Einflussbereich anderer Sterne und der Milchstraße, die seine Bahn dann verändern würden – zurück zur Sonne käme es sicherlich nicht mehr). Umgekehrt gilt, dass ein Objekt, welches im Unendlichen ruht und von der Sonne angezogen wird, auf einer Parabelbahn auf sie zufällt und sich dann nach einer Umlenkung um 180° wieder ins Unendliche entfernt. Kometen aus der Oortschen Wolke befinden sich weit genug weg und bewegen sich hinreichend langsam, so dass sie sich, wenn sie etwa durch einen vorbeifliegenden Stern durcheinander gewirbelt und dabei zufällig in Richtung Sonne abgelenkt werden, im Rahmen der Messgenauigkeit auf einer Parabelbahn bewegen. Eine Bahnexzentrizität nahe 1 weist daher auf ein Objekt aus der Oortschen Wolke hin.
Bewegt sich ein Objekt im Unendlichen bereits mit einer Anfangsgeschwindigkeit auf die Sonne zu, von der es zusätzlich angezogen wird, so bewegt es sich auf einer Hyperbelbahn. Bei einer Hyperbel wird die Flugrichtung um weniger als 180° umgelenkt. Auch für Hyperbeln lässt sich eine Exzentrizität definieren, die stets größer als 1 und nach oben unbegrenzt ist – eine Hyperbel mit Exzentrizität nahe 1 sieht einer Parabel mit 180° Kursumkehr ähnlich, während sich die Hyperbeläste für gegen unendlich wachsendes e zu einer durchgehenden Geraden auseinander biegen. Bei 90° Ablenkung – man denke sich den Graphen der Funktion f(x)=1/x – ist die Exzentrizität √2 = 1,41.
Die Exzentrizität der Bahn von ‘Oumuamua war mit 1,2 groß genug, um auch mit einer gewissen Reserve für Messfehler keine Parabel sein zu können und die Bahn damit eindeutig hyperbelförmig (siehe Bild oben). ‘Oumuamua war auch keinem Planeten nahe gekommen, der ihn hätte zusätzlich beschleunigen und eine anfänglich parabelförmige Bahn in eine Hyperbel hätte ändern können (wie das bei ein paar zuvor gefundenen Kandidaten mit e>1der Fall gewesen war). Die Flugbahn wurde von der Sonne um deutlich mehr als 90° umgelenkt.
Borisovs Komet ist noch keine 3 Wochen entdeckt und daher ist die beobachtete Bahn nur kurz und noch recht unsicher, aber alle Messungen deuten auf eine Exzentrizität zwischen 3,0 und 3,7(!) hin. Drei-Komma-Sieben. Noch nie wurde ein Objekt entdeckt, das eine Exzentrizität auch nur des halben Werts gehabt hätte. Die Bahn des Kometen erfährt durch die Sonne nur eine kleine Ablenkung und er schießt geradezu durch das Sonnensystem hindurch. Wie ‘Oumuamua durchstößt er die Ebene der Planetenbahnen in einigermaßen steilem Winkel von 43° und konnte deshalb ebenfalls keinem Planeten nahe kommen, der ihn hätte beschleunigen können – bei dieser Exzentrizität wäre das ohnehin ausgeschlossen gewesen. Er dürfte also sehr bald schon die Bezeichnung 2I/Borisov erhalten.
Und das Erfreuliche ist, C/2019 Q4 ist noch auf dem Weg zu seinem sonnennächsten Punkt, den er mit fast genau 2 AE knapp außerhalb der Marsbahn am 8. Dezember erreichen wird. Mars ist ganz in der Nähe und hat Logenblick, die Erde hingegen derzeit leider noch auf der gegenüberliegenden Seite der Sonne, 3 AE entfernt, aber sie wird sich dem Kometen am 27. Dezember bis auf 1,96 AE nähern. Borisov wird deshalb noch heller werden (derzeit 18m, rund 15m werden erwartet; ‘Oumuamua erreichte nur 19,7m) und damit in den Bereich von (üblichen) Amateurteleskopen und -kameras rücken und bis etwa April 2020 mit solchen beobachtbar sein. Erst in einem Jahr wird seine Helligkeit voraussichtlich unter 23m fallen und er bis zum Jahresende 2020 auch für die großen Sternwarten langsam verblassen. Das lässt genug Zeit, dass die besten Teleskope der Welt ihn aufs Korn werden nehmen können.
Als Komet lässt sich seine Zusammensetzung aus dem Spektrum seines reichlich versprühten Gases ermitteln, was beim gaslosen ‘Oumuamua schwieriger war.
Was wissen wir schon über diesen Alien? Seine Anfangsgeschwindigkeit, mit der er sich der Sonne näherte, betrug 33,8±0,6 km/s [2] (‘Oumuamua hatte sich mit 26 km/s angenähert). Das ist die typische Geschwindigkeit von Sternen in der Umgebung der Sonne, die selbst mit 20 km/s relativ zum “local standard of rest” unterwegs ist, einem gedachten, auf einer Kreisbahn am Ort der Sonne um das Zentrum der Milchstraße befindlichen Bezugspunkt. Borisov kaum aus Richtung des Sternbilds Kassiopeia, etwa 70° von dem Punkt im Sternbild Leier entfernt, auf den sich die Sonne zu bewegt, also beinahe rechtwinklig zu ihrer Bewegungsrichtung. Laut Meldung des JPL dürfte der Kometenkern zwischen 2 und 16 km durchmessen [3].
Die ersten teleskopischen Aufnahmen mit dem 8,2-m-Gemini-Nord-Teleskop auf Hawaii und dem 4,2-m-William-Herschel-Teleskop auf der Kanareninsel La Palma durch Piotr Guzik et al. [1] gestalteten sich schwierig, da der Komet nur 40° von der Sonne entfernt stand (die wenigstens 18° unter dem Horizont stehen muss, damit es richtig “astronomisch” dunkel ist), so dass zunächst nur die Farbe gemessen wurde. Der Komet ist rötlich und ähnelt in der Farbe den langperiodischen Kometen der Sonne, die aus der Oort-Wolke ins innere Sonnensystem kommen. Julia de León et al. [2] nahmen dann ein erstes grobes Spektrum mit dem Gran Telescopio Canarias (GranTeCan) auf La Palma auf, dem derzeit größten Teleskop der Welt. Das Spektrum ähnelt dem von Asteroiden des Typs D, wie sie im äußeren Asteroidengürtel und als Trojaner des Jupiter zu finden sind. Man nimmt an, dass sie aus dem Kuiper-Gürtel, also Plutos Umgebung stammen. Die rote Farbe bei Pluto oder dem von New Horizons besuchten Kuipergürtel-Objekt (486958) 2014 MU69 (“Ultima Thule”) rührt von Tholinen her, organischen Verbindungen, die unter UV-Bestrahlung aus gefrorenem Methan und Ammoniak entstanden sein sollen, und bei Borisov könnte die Farbe ebenfalls auf Tholine zurückgehen. Das zeigt schon einmal, dass in dem fremden Planetensystem, aus dem Borisov stammt, die gleichen Stoffe vorhanden und die gleichen Prozesse am Werk waren, wie in unserem Sonnensystem. Um Unterschiede zu solaren Kometen aufzuspüren, wird es besserer Spektren bedürfen, die sich erst aufnehmen lassen, wenn der Komet etwas mehr Winkelabstand zur Sonne gewonnen hat.
Noch spannender wären natürlich Nahaufnahmen. Allerdings bräuchte man zur Vorbereitung einer Mission zu einem Kometen rund 5 Jahre [4] und bis dahin ist Borisov unerreichbar. Aber die ESA plant eine Mission namens Comet Interceptor [5], eine Raumsonde, die 2028 gestartet werden soll und dann im Lagrange-2-Punkt des Erde-Sonne-Systems darauf warten soll, dass ein Komet, der die Sonne zum ersten Mal besucht, ins innere Sonnensystem kommt, um dann nahe an ihm vorbei zu fliegen, denn alle bisher besuchten Kometen haben die Sonne schon tausende Male umrundet und wurden von ihrer Wärme verändert. Man möchte das erste Mal einen frischen Kometen näher untersuchen und dazu muss man ihm gewissermaßen auflauern.
Bis dahin wird das Large Synoptic Survey Telescope (erstes Licht voraussichtlich 2020) den kompletten Nachthimmel zweimal die Woche bis über 25m Grenzgröße aufnehmen und potenziell Objekte wie Borisov bereits jenseits der Saturnbahn und damit Jahre vor ihrem Flug durch das innere Sonnensystem aufspüren können, was die Chancen für die Entdeckung weiterer interstellarer Kometen gewaltig erhöhen wird. So könnte der Comet Interceptor statt eines Oort-Kometen vielleicht sogar einen interstellaren Kometen anfliegen und uns somit die erste Nahansicht eines Objekts aus einem anderen Sonnensystem liefern. Darauf hoffen jedenfalls die für die Sonde verantwortlichen Wissenschaftler.
Warten wir aber zunächst ab, welche Erkenntnisse wir dem Kometen Borisov von der Erde aus abgewinnen können.
[1] Piotr Guzik, Michał Drahus et al., “Interstellar comet 2I/Borisov”, 12. September 2019, arXiv:1909.05851.
[2] Julia de León, Javier Licandro et al., “Interstellar Visitors: A Physical Characterization of Comet C/2019 Q4 (Borisov) with OSIRIS at the 10.4 m GTC“, preprint AAS20106, 13. September 2019,.
[3] JPL, “Newly Discovered Comet Is Likely Interstellar Visitor“, Jet Propulsion Laboratory, California Institute of Technology, 12. September 2019.
[4] en.wikipedia.org, “C/2019 Q4 (Borisov)“.
[5] Jonathan O’Callaghan, “European Comet Interceptor Could Visit an Interstellar Object“, Scientific American, 24. Juni 2019.
1 Der merkwürdige Apostroph vor dem O bedeutet einen “stimmlosen glottalen Plosiv”, bei dem man die Luft in einem kleinen Stoß aus dem Kehlkopf entlässt, wenn man das O auszusprechen beginnt. Das hört sich dann so an.
Warum die ganze Lobhudelei? Neulich hörte ich Penrose in einem Interview über seine Theorie eines zyklischen Universums reden. Und wenn sie nicht von Penrose persönlich vorgetragen worden wäre, der in dem Interview keineswegs senil klang, hätte ich sie für ausgemachten Unsinn gehalten. Aber angesichts des prominenten Namens erscheint mir das etwas anmaßend und ich möchte die Idee statt dessen einmal hier vorstellen.
Bei den Boltzmann-Hirnen hatte ich das Konzept der Entropie vorgestellt. Da diese im Universum gemäß dem 2. Hauptsatz der Thermodynamik stets steigt, muss das Universum in einem Zustand geringer Entropie begonnen haben. Die offene Frage ist, wie dieser Zustand zustande kam. Gemäß der Theorie der kosmischen Inflation hat sich der ursprünglich gekrümmte, ungleichförmig dichte (Vakuumfluktuationen!) und winzig kleine Raum in Sekundenbruchteilen gigantisch aufgebläht. Danach war er, jedenfalls soweit unser Blick reicht, flach, gleichmäßig mit Materie angefüllt und riesengroß, und dies entspricht einer Abnahme der Entropie in einem vorgegebenen Volumen. Nach der Inflation gab es zunächst nur Strahlung, nur Photonen (und vermutlich Gravitonen), die allesamt masselos waren und aus denen erst durch einen noch nicht vollständig verstandenen Paarerzeugungsprozess massebehaftete Teilchen entstanden, bei denen am Ende Materie gegenüber Antimaterie die Oberhand behielt. Penrose hält von der Inflationstheorie gar nichts, er gab ihr nach ihrem Erscheinen 1981 nur zwei Wochen, denn sie verletze den 2. Hauptsatz. Aber sie hat sich dennoch bis heute gehalten und ist mittlerweile gar zur vorherrschenden Theorie über den Beginn des Universums geworden.
Das Ende des Universums ist gemäß der derzeitig anerkannten Theorie ein ewig expandierendes Universum, in dem alle Materie irgendwann einmal in Schwarzen Löchern endet: die Reste von verloschenen Sternen in Galaxien, die nicht selbst Schwarze Löcher sind, lösen sich entweder durch Protonenzerfall auf, oder verlieren durch Abstrahlung von Gravitationswellen, und damit Gravitonen, langsam an Energie und sinken zum Zentrum der Galaxie, wo sie vom zentralen Schwarzen Loch vereinnahmt werden. Und die Schwarzen Löcher lösen sich dann durch die Abstrahlung von Hawking-Strahlung langsam zu Photonen auf. Am Ende hat man so nach ungefähr 10100 Jahren ein riesengroßes Universum, das von extrem langwelliger Strahlung (durch die kosmische Expansion) aus Photonen und Gravitonen erfüllt ist. Das sieht nun dem ursprünglichen Universum irgendwie ähnlich. Es ist nur um einen immensen Faktor größer und kälter.
Penroses Idee ist nun die folgende: Was wäre, wenn man das Ende des Universums als Beginn eines neuen Universum betrachten würde, in dem einfach die Maßstäbe um etliche hundert Zehnerpotenzen vergrößert sind? So ähnlich, wie man in der (finanziellen) Hyperinflation in den 1920ern der Reichsmark einfach hinten ein paar Nullen wegnahm, damit ein Brot nicht mehr ein paar Milliarden Mark kostete, kann man das riesige Universum in Raum und Zeit schrumpfen, indem man die Entfernungs- und Zeitskalen neu definiert. Die geschrumpften Wellenlängen der Strahlung würden dann viel höheren Temperaturen entsprechen. Und schwups hat man einen neuen Urknall, ganz ohne Inflation! Das Ganze kann sich dann beliebig oft wiederholen, immer eine Skalenstufe höher.
Klingt zunächst absurd. Denn aus den von der kosmischen Expansion absurd lang gewordenen Wellenlängen der Photonen sollen ja wieder Teilchen hervorgehen, die beim Urknall bei Milliarden Kelvin und ultrakurzwelligen Gammastrahlen mit Wellenlängen im Bereich eines Protonendurchmessers entstanden. Aber was, außer der Wellenlänge, ist der Unterschied zwischen Photonen, die im Urknall Teilchen bildeten, und Photonen, die nach 10100 Jahren durch die kosmische Expansion auf Wellenlängen gestreckt wurden, gegenüber denen der Durchmesser unseres heutigen beobachtbaren Universums ein Nichts wäre? Es gibt keinen!
Elektromagnetische Wellen gibt es in allen Wellenlängen, es gibt weder nach unten noch nach oben eine Begrenzung (außer der mutmaßlichen Planck-Länge auf der einen und der Größe des Universums auf der anderen Seite), und die Energie E, die in einem Photon mit einer gewissen Wellenlänge steckt, hängt einfach über die Gleichung E=h·c/λ von der Wellenlänge λ ab (c/λ=f ist hierbei die Frequenz des Lichts mit der Einheit 1/s = Hertz). h und c sind Naturkonstanten, das Plancksche Wirkungsquantum h und die Lichtgeschwindigkeit c. Skaliert man nun die Strecken und Zeiten um, dann kommen ganz andere Energien heraus.
In einem Universum, in dem es nur noch (ruhe-)masselose Teilchen gibt, fehlt jeglicher Maßstab für Raum und Zeit. Es gibt keine Uhren mehr, denn Photonen (wie auch die masselosen Gravitonen) haben keine Eigenzeit – für sie ist eine Unendlichkeit nur ein Augenblick – und ansonsten wäre nichts mehr da, welches eine haben könnte. Eine Uhr setzt etwas voraus, das ticken kann, das eine charakteristische Frequenz hat: egal, ob es das Schwingen eines Pendels ist, das eines elektronischen Quarzes oder ob man Wellenzüge abzählt, die der Übergang eines Elektrons von einem Energiezustand zu einem anderen erzeugt – so funktionieren Atomuhren. Zwar hätten die Photonen im ansonsten leeren Raum natürlich auch ihre Eigenfrequenzen (f=c/λ), aber wenn es keinen Maßstab gibt, an dem man eine bestimmte Wellenlänge als Maßeinheit festmachen kann, dann ist nicht definiert, welches Photon mit welcher Frequenz den Zeittakt vorgibt. Somit gibt es keinen Zeitmaßstab mehr und die Energie eines Photons ist unbestimmt, also beliebig. Wenn der Zeitmaßstab weg fällt, ist auch der Streckenmaßstab nicht mehr gegeben, denn unser Meter ist heutzutage über die Lichtgeschwindigkeit und eine Zeitspanne definiert, nämlich 1/299792458tel der Strecke, die das Licht in einer Sekunde zurücklegt. Folglich ist die Situation von langwelligen Photonen in einem riesengroßen Universum über einen sehr langen Zeitraum von demjenigen mit kurzwelligen Photonen in einem winzigen Universum über Sekundenbruchteile nicht unterscheidbar, wenn man keinen Vergleichsmaßstab mehr hat. Warum sollen dann also nicht im Kleinen wie im Großen die gleichen physikalischen Prozesse ablaufen können?
Das einzige Problem, das Penrose sieht, seien die Elektronen, weil sie gemäß der akzeptierten Quantenphysik (im Gegensatz zu den Protonen) nicht zerfallen können und durch die Expansion des Universums isoliert innerhalb kosmologischer Horizonte enden können, in denen sie nie die Chance hätten, mit einem Positron zusammen zu treffen und zu annihilieren. Damit bleiben Uhren übrig. Vielleicht, so spekuliert Penrose, irre sich die Quantenphysik aber auch einfach und die Elektronen könnten doch irgendwann zerfallen [1].
Man kann das Problem auch geometrisch betrachten. Wir haben vor einer Weile das Konzept der mitbewegten Entfernung kennengelernt. Bei diesem Entfernungsmaß wächst der Maßstab mit der kosmischen Expansion, d.h. die Galaxien entfernen sich in mitbewegter Entfernung nicht voneinander (außer durch lokale Eigenbewegungen). In einem vorgegebenen Radius mitbewegter Entfernung sind für alle Zeiten dieselben Galaxien eingeschlossen. In einem solchen Maßstab dargestellt ist das beobachtbare Universum kein expandierender Trichter, sondern ein Zylinder mit festem Radius, vom Urknall an bis in die unendliche Zukunft. Geht man in die Vergangenheit, so landet man bei der Urknallsingularität, die aber in mitbewegter Entfernung kein Punkt mehr ist, sondern ein unendlichfach aufgeweiteter Radius, der perfekt auf das obere Ende eines entsprechenden Zylinders eines Vorgängeruniversums passen würde, welcher nach unendlicher Zeit in mitbewegter Entfernung unendlich geschrumpft werden würde.
Die Höhe des Zylinders entspräche einer Zeitdauer, die bei einem offenen Universum zunächst unendlich lang wäre. Zur mitbewegten Entfernung gibt es auch ein passendes Zeitmaß, die “konforme Zeit”, die einfach der Zeit entspricht, die das Licht zum Zurücklegen einer bestimmen mitbewegten Entfernung benötigt. Da das Universum in 14 Milliarden Jahren in gewöhnlichen Entfernungen (“Eigendistanzen”) gemessen den doppelten Durchmesser haben wird (der Skalenfaktor des Universums, der für heute zu 1 festgelegt ist, wird dann 2 sein), braucht ein Lichtstrahl zum Durchqueren einer mit der Hubbleexpansion auf das Doppelte angewachsenen Strecke (z.B. den Durchmesser eines großen Galaxienhaufens) zu dieser Zeit doppelt so lange in gewöhnlicher Zeit, wie er heute brauchen würde. In konformer Zeit braucht er aber genau so lange, weil beim Skalenfaktor 2 die konforme Zeit im Vergleich zur gewöhnlichen Zeit nur halb so langsam vergeht wie beim Skalenfaktor 1. In einem Raumzeitdiagramm mit der Entfernung auf der x-Achse und der Zeit auf der y-Achse bilden die Weltlinien von Photonen (also Licht) bekanntlich Geraden; bei passender Skalierung mit einer Lichtsekunde und einer Sekunde als gleich lange Einheiten auf Raum- bzw. Zeitachse hat die Gerade einen 45°-Winkel zu beiden Achsen. In einem Diagramm mit mitbewegter Entfernung auf der x-Achse erscheint die Weltlinie eines Lichtstrahls genau dann als Gerade, wenn die Zeit in konformer Zeit gemessen wird.
In konformer Zeit wird zudem eine unendlich lange Zeitdauer auf eine endliche Strecke abgebildet (siehe Bild oben). Wir haben im Artikel über die Expansion des Universums gelernt, dass es einen kosmologischen Ereignishorizont gibt, über den wir nicht hinaus blicken können. Heute erreicht uns gerade noch Licht, das von Quellen stammt, die durch die Raumexpansion mittlerweile 46 Milliarden Lichtjahre entfernt sind. Je älter das Universum wird, von desto weiter weg kann uns noch Licht erreichen, aber da die Expansion sich beschleunigt, wird es für das Licht zunehmend schwieriger, mit der Expansion Schritt zu halten. Licht von Quellen, die heute (bei den bekannten Parametern des ΛCDM-Modells) 62 Milliarden Lichtjahre entfernt sind, braucht nach gewöhnlicher Zeitmessung unendlich lange, um uns zu erreichen, und Licht von noch weiter weg erreicht uns nie, es ist auf ewig von unserem beobachtbaren Universum kausal entkoppelt. In mitbewegter Entfernung wird diese Strecke immer und ewig 62 Milliarden Lichtjahre groß bleiben, und das Licht erreicht uns von dort logischerweise nach 62 Milliarden Jahren konformer Zeitmessung. Da uns von weiter weg Licht nie erreicht, entsprechen 62 Milliarden Jahre dem Weltalter in konformer Zeit, die in gewöhnlichem Zeitmaßstab unendlich lange dauern.
Damit erhält man in konformer Zeit und mitbewegter Entfernung gemessen praktisch stapelbare “röhrenförmige” Universen, die nahtlos aneinander anknüpfen und die sich in endloser Folge wiederholen können. Deswegen heißt die von Penrose und Vahe Gurzadyan entwickelte Theorie CCC (Cyclic Conformal Cosmology) – zu Deutsch “zyklische konforme Kosmologie”. Jede “Röhre” nennt Penrose ein Äon, welches in gewöhnlicher Zeitrechnung unendlich lange dauert. Die CCC kommt ohne Inflation aus, denn den Temperaturausgleich und die homogene Verteilung der Energie zu Beginn eines Äons hat das Äon davor hergestellt, indem sich die darin entstandene Strahlung über sehr lange Zeit gleichmäßig verteilen konnte. Die Entropie kann hier stetig wachsen, aber da durch die Neuskalierung beim Übergang von einem Äon zum nächsten der Raumzeitmaßstab neu skaliert wird, wird auch die Entropie gewissermaßen neu eingenullt (re-normiert): das gedachte Behältnis, in dem sich die Materie aufhält, wird geschrumpft, so als ob das aus einer Gasflasche ausgetretene Gas sich in einer größeren Flasche wiederfindet und man die Ansicht herauszoomt. Ein solches Universum hat dann auch kein Boltzmannhirn-Problem, weil immer genug Baumaterial für biologische Hirne nachgeliefert wird.
Die Strahlung, die über unendlich lange Zeit im Universum herumschwirrt, wird dabei durch die konforme, unendlich große Stauchung der Zeit auf eine endliche Dauer unendlich verstärkt, d.h. man hätte beim Übergang von einem Äon zum nächsten mathematisch genau die Situation des Urknalls, die in einem Punkt unendlich hoher Dichte und Temperatur beginnt.
Die CCC mag eine nette Idee sein, aber ist sie auch eine Theorie, die sich belegen oder falsifizieren lässt? Penrose sagt ja, und er will die Belege bereits gefunden haben. Und zwar liegt der Zerfall der größten supermassereichen Schwarzen Löcher in der Nähe des Übergangs von einem Äon zum nächsten (auch wenn unendlich viel reale Zeit dazwischen liegt, ist es in konformer Zeit nicht viel). Das Verdampfen eines Schwarzen Lochs setzt über die Zeit eine gewaltige Energiemenge frei – nämlich das Masseäquivalent des supermassereichen Schwarzen Lochs gemäß E=mc² -, welche durch die Kompression der Abstrahldauer in der konformen Zeitskala eine enorme Leistung freisetzt. Die Strahlung sollte daher in der kosmischen Hintergrundstrahlung aufspürbar sein, und zwar als Ringe von 4° Winkeldurchmesser. Der Durchmesser wird bestimmt durch die Ausbreitung der Strahlung in konformer Zeit bis zum Zeitpunkt der Freisetzung der Hintergrundstrahlung; die Breite des Ringes hängt davon ab, wie lange die Abstrahlung zuvor erfolgte, und da die Hawking Strahlung mit abnehmender Masse eines Schwarzen Lochs langsam zunimmt und dann nach explosionsartigem Anstieg abrupt endet, sollten die Ringe innen scharf begrenzt sein, jedoch nach außen diffus.
Die Quellen solcher Ringe nennt Penrose Hawking-Punkte und sie sollten in der Inflationstheorie nicht auftreten – Ereignisse vor oder während der Inflation wären viel stärker vergrößert; nach der Inflation sollte es keine Abhängigkeiten über mehr als 1° Winkelabstand geben dürfen. In einer Arbeit vom August 2013 [3] wollen Penrose und Gurzadyan jedoch solche Ringe von Hawking-Punkten in der Hintergrundstrahlung gefunden haben. Zwar wollte keiner der Gutachter der Theorie folgen, so Penrose [8], es konnte ihm und dem Koautor aber auch kein Gutachter einen Fehler in der Argumentation nachweisen und somit sah sich der Verleger wider Willen genötigt, die Arbeit zu veröffentlichen. Eine Entgegnung von DeAbreu, Contreras und Scott aus dem Jahr 2015 [4] warf den Autoren vor, dass die Kreise auch durch Zufall entstanden sein könnten (wenn sie nämlich genau zum Ende der Inflation verursacht worden wären). Daraufhin führte das Penrose-Team zehntausend Simulationen auf der Basis der Inflationstheorie durch [5] und fand nur in 2 von 10.000 Simulationen eine zufällige Entstehung von Strukturen dieser Größe und Flankensteilheit, so dass sie mit 99,98% ausschließen, dass die Kreise zufällig entstanden sind.
Andere Kosmologen halten die Theorie hingegen für eine mathematische Spielerei und nehmen sie nicht ernst; die meisten seiner Arbeiten zum Thema erschienen nur auf arXiv. Wohl weil ihnen der physikalische Mechanismus fehlt, der die Reskalierung vom riesigen kalten Universum zu einem winzigen, heißen herbei führt und dann wieder Teilchen hervorbringt. Das ganze erscheint ihnen zu ad-hoc, also ohne bedingende Grundlage in den Raum gestellt. Mir erscheint sie, wie eingangs gesagt, ebenfalls sehr an den Haaren herbeigezogen, zum Beispiel dass die ewige Existenz von ein paar Elektronen den konformen Übergang verhindern soll, oder dass es möglich sein soll, dass Elementarteilchen entstehen können, gegen die unser heutiges beobachtbares Universum winzig klein wäre. Aber sie stammt immerhin von einem Sir Roger Penrose und es gibt eine ganze Reihe von Arbeiten auch anderer Autoren dazu. Ein interessanter Gedankengang ist sie auf jeden Fall.
[1] Roger Penrose, “Before the Big Bang: An Outrageous New Perspective and its Implications for Particle Physics“, Proceedings of the EPAC 2006, p.2759-2767, 26.06.2006, Edinburgh, Scotland.
[2] V. G. Gurzadyan, R. Penrose, “Concentric circles in WMAP data may provide evidence ofviolent pre-Big-Bang activity”, 16. November 2010; arXiv:1011.3706.
[3] V. G. Gurzadyan, R. Penrose, “On CCC-predicted concentric low-variance circles in the CMB sky“, The European Physical Journal Plus, 25. Februar 2013; arXiv:1302.5162.
[4] Adam DeAbreu, Dagoberto Contreras, Douglas Scott, “Searching for concentric low variance circles in the cosmic microwave background“, Journal of Cosmology and Astroparticle Physics 2015(12), August 2015; arXiv:1508.05158.
[5] Daniel An, Krzysztof A. Meissner, Pawel Nurowski, Roger Penrose, “Apparent evidence for Hawking points in the CMB Sky”, 17. Dezember 2018; arXiv:1808.01740.
[6] Jason Palmer, “Cosmos may show echoes of events before Big Bang” BBC News, 27. November 2010.
[7] Edwin Cartlidge, “New evidence for cyclic universe claimed by Roger Penrose and colleagues“, PhysicsWorld, 21. August 2018.
[8] “Conformal Cyclic Cosmology. Roger Penrose and Hannah Fry – Oxford Mathematics London Public Lecture now online“, University of Oxford, Mathematical Institute, 6. November 2018.
[9] Sean Carroll, “Penrose’s Cyclic Cosmology“, Preposterous Universe Blog, 7. Dezember 2010.
[10] Brian Koberlein, “The Strange Physics of Cyclic Conformal Cosmology“, 21. Dezember 2015.
[11] en.wikipedia.org, “Conformal cyclic cosmology“.
Ein anonymer iranischer Techniker bestätigte gegenüber der Nachrichtenagentur Reuters noch am selben Tag einen Unfall bei dem die Rakete explodiert sei. Ursache sei ein “technisches Problem” gewesen. Über Verletzte oder Tote ist nichts bekannt. Einen Tag später twitterte Donald Trump mit ironischem Unterton, die USA seien an dem katastrophalen Unfall während der Startvorbereitungen nicht beteiligt gewesen und er wünsche dem Iran viel Glück bei der Suche nach der Ursache.
The United States of America was not involved in the catastrophic accident during final launch preparations for the Safir SLV Launch at Semnan Launch Site One in Iran. I wish Iran best wishes and good luck in determining what happened at Site One. pic.twitter.com/z0iDj2L0Y3
— Donald J. Trump (@realDonaldTrump) August 30, 2019
Dass eine iranische Rakete explodiert ist, ist nun noch nicht sonderlich ungewöhnlich. Dass US-Präsident Trump darüber hämisch twittert, auch nicht. Allerdings garnierte er den Tweet mit einem Bild, das einiges über die eingesetzte Spionagetechnik verrät – und das ist durchaus bemerkenswert!
Zur Orientierung und Einordnung der Anmerkungen im Bild hier ein paar Aufnahmen der iranischen Nachrichtenagentur Fars aus dem Jahr 2011.
Es dauerte nicht lange, bis die Twitter-Gemeinde begann, sich über den möglichen Ursprung der Aufnahme auszutauschen. Darunter befinden sich ausgemachte Experten. Die Bildschärfe und der schräge Blickwinkel legen nahe, dass es eine Drohnenaufnahme sein könnte. Ein Reflex in der Bildmitte deutet darauf hin, dass das Bild mit einer Handykamera vom Original abfotografiert wurde. Ein dunkler Balken oben in der Ecke soll wohl die Quelle verbergen. Eine nähere Untersuchung mit dem Bildanalyseprogramm Tungstène ergab, dass hier in der Tat eine Schwarzweißaufnahme abfotografiert wurde, denn das Bild hat überall den exakt gleichen Farbton; nur der abdeckende Balken nicht, der also nachträglich im kopierten Bild eingefügt worden war.
Eine Drohnenaufnahme wäre zwar denkbar, allerdings liegt der Khomeini Weltraumbahnhof 250 km südöstlich von Teheran ziemlich tief im Landesinneren und die iranische Flugabwehr ist auf der Hut. Der Iran hatte bereits 2011 und Anfang 2019 US-Drohnen abgeschossen. Natürlich könnte die Mission trotzdem erfolgreich gewesen sein.
Jedoch lieferten die Amateur-Satellitenbeobachter Cees Bassa (@cgbassa) und Dr. Marco Langbroek (@marco_Langbroek) alsbald eine alternative Erklärung: der Spionagesatellit USA-224 des National Reconnaissance Office NRO (also des nationalen Amts für militärische Aufklärung), der sich auf einer sonnensynchronen1 Bahn mit Perigäum (erdnächstem Punkt der Bahn) von 258 km und Apogäum (erdfernstem Punkt der Bahn) von 1010 km sowie 97,9° Neigung gegen den Äquator bewegt, passierte am 29. August um 9:43:50 UT (11:43:50 MESZ) den iranischen Weltraumbahnhof fast senkrecht in einer Entfernung von minimal nur 280 km.
Der Neigungswinkel der Blickrichtung zur Erdoberfläche, der sich aus der kreisrunden Form der Startplattform leicht ermitteln lässt, beträgt ca. 46° und die Blickrichtung ist nach Norden gerichtet (aus 196° Azimuth; 180° wäre genau aus südlicher Richtung), wie sich an den Schatten der Service-Türme ablesen lässt. Dieser Winkel wurde um 9:44:20 UT erreicht, als die Entfernung 382 km betrug. Der Überflug passt perfekt zur Blickrichtung und zum Schattenwurf zur entsprechenden Uhrzeit! Damit war in der Twittergemeinde akzeptiert, dass es sich um eine Satellitenaufnahme handeln müsse.
Unter anderem aus von Edward Snowden geleakten Dokumenten war bekannt, dass es sich bei USA-224 um einen KH-11 KENNEN Spionagesatelliten der Generation Block IV (“Advanced Crystal”) handelt, die so geheim sind, dass es nur Vermutungen über ihr genaues Aussehen gibt. Sie dürften demnach im Design dem Hubble-Weltraumteleskop ähneln, denn sie werden in ähnlichen Containern transportiert. Sie hätten dann mit 19,5 m Länge und 3 m Durchmesser etwa die Größe eines Busses. Der Hauptspiegel durchmisst nach offiziellen Verlautbarungen des Verteidigungsministeriums 2,4 m – genau wie der des Hubble-Weltraumteleskops und des in Entwicklung befindlichen WFIRST-Weltraumteleskops der NASA. Letzteres baut auf einem von der NRO ausrangierten, aber unbenutzten Spionagesatelliten auf, bei dem es sich möglicherweise um eine ältere FIA-O (Future Imagery Architecture-Optical) genannte Serie aus den späten 1970ern handelt. Zwei solcher Satelliten waren 2012 vom NRO an die NASA verschenkt worden, allerdings aller Instrumente und Elektronik beraubt, da diese der Geheimhaltung unterliegen (aus diesem Grund kostet WFIRST bis zum Start trotzdem noch 2 Milliarden Dollar).
USA-224 war am 20. Januar 2011 von der Vandenberg US-Air-Force-Basis aus gestartet worden und wird seitdem von Amateur-Satellitenbeobachtern verfolgt, so dass die Bahnelemente trotz militärischer Geheimhaltung bekannt sind. Die Winkelauflösung der Satelliten und damit die kleinstmögliche noch erkennbare Struktur auf der Erdoberfläche ist ebenfalls geheim. Neben der Größe der Optik spielt hierbei auch die verwendete Kamera und Lichtwellenlänge eine Rolle.
Dank Trumps Tweet konnten die Amateure nun jedoch eine Abschätzung liefern: auf Aufnahmen kommerzieller Satelliten, wie sie z.B. auf Google Earth zu finden sind, lässt sich der Durchmesser der kreisrunden Startplattform vermessen. Misst man dann die Zahl der Pixel auf Trumps Foto, so ergibt sich eine Obergrenze von 10 cm pro Pixel, gegeben durch die Auflösung von Trumps Kamera. Das Original könnte noch feiner aufgelöst sein.
Dieser Wert gilt für die ermittelte Entfernung von 382 km. Bei größtmöglicher Annäherung im Perigäum, also rund 250 km, ergäbe sich somit eine Auflösung von 6-7 Zentimetern. Dies entspräche der Leistung eines 2,7 m durchmessenden Spiegels, aber in Anbetracht von Messfehlern und der unbekannten Wellenlänge könnte die Auflösung durchaus mit einem 2,4-m-Spiegel kompatibel sein.
Damit passen die aus Trumps Tweet abgeleiteten Parameter zu der vermuteten Leistungsfähigkeit der KH-11-Satelliten. Nun ist es eine Sache, dass die vorher schon bekannten oder vermuteten Parameter aus teils illegalen Quellen stammen – schließlich wird Snowden dafür von den USA verfolgt. Dass der amtierende US-Präsident geheime Unterlagen auf Twitter verbreitet, die diese Angaben bestätigen, hat dann noch einmal eine ganz andere Qualität. Die Aufnahme dürfte ihm bei einem Briefing des Verteidigungsministeriums vorgelegt worden sein. Hatte er sie in Absprache mit dem Ministerium veröffentlicht, oder aus eigenem Antrieb? Politische Experten sind überzeugt [2,4], dass das Verteidigungsministerium hier seine Zustimmung zur Veröffentlichung gab, zumal die Quelle oben links geschwärzt ist. Wie hier gelesen war das allerdings keine besonders gute Idee. Vielleicht hatte man im Ministerium die möglichen Folgen unterschätzt. Oder Trump hatte doch auf eigene Faust gehandelt – wundern täte es nicht.
Schließlich gibt Trumps sarkastischer Ton Rätsel auf – seinem selbsternannten Todfeind viel Glück bei der Aufklärung des Unglücks zu wünschen, mit dem die USA – angeblich – nichts zu tun hätten. Ehrlich meinen wird er dies wohl kaum. Bestenfalls macht er sich lustig über den Fehlschlag. Ziemlich unfair, angesichts der Fehlstarts, die sich die Amerikaner zu Beginn ihres Weltraumprogramms geleistet hatten:
(hier nett zusammengeschnitten im Film “The Right Stuff”, zu deutsch “Der Stoff aus dem die Helden sind”, aus dem Jahre 1983).
Sicherlich ist seine Botschaft an den Iran “Wir haben Euch im Blick!” Der US-Aufklärung entgeht nichts, weder zivile noch militärische Weltraumaktivitäten. Wollte Trump am Ende gar damit prahlen, dass die Amerikaner den Start (oder andere?) sehr wohl sabotiert hatten? Dafür gibt es natürlich keinerlei Beweise. Fakt ist lediglich, dass der Iran in diesem Jahr nun bereits den dritten Fehlstart bzw. Unfall zu verzeichnen hat (am 15. Januar den Startversuch der Simorgh-Mission und am 5. Februar den Start einer weiteren Safir 1B-Rakete). Die wahren Ursachen der Fehlschläge bleiben vermutlich für immer verborgen. Falls Trump sich nicht vertwittert.
[1] Daniel Marín, “Trump, el satélite espía Crystal y el cohete Safir iraní“, Eureka-Blog, 31. August 2019.
[2] Geoff Brumfiel, “Trump Tweets Sensitive Surveillance Image Of Iran“, NPR News, 30. August 2019.
[3] Stephen Clark, “Surveillance photos reveal apparent explosion on Iranian launch pad“, Spaceflight Now, 30. August 2019.
[4] Clark Mindock, “Trump accused of tweeting image from secret intelligence briefing as he says US not involved in Iran satellite launch failure“, The Independent, 31. August 2019.
[5] Donald Trump, Tweet, Twitter.com, 30. August 2019.
[6] Cees Bassa, @cgbassa, Thread, Twitter.com, 31. August 2019.
[7] Dr. Marco Langbroek, @Marco_Langbroek, Thread, Twitter.com, 31. August 2019.
[8] Sam Meyer, @Ranger_Smeyer, Thread, Twitter.com, 31. August 2019.
1 Eine sonnensynchrone Bahn passiert dieselben Orte auf der Erde immer zu den gleichen Tageszeiten und Beleuchtungsrichtungen. Die Bahnebene des Satelliten präzediert dabei täglich um genau denselben Winkel von knapp einem Grad, den sich die Sonne pro Tag relativ zu den Sternen am Himmel weiterbewegt. Die Präzession wird durch die Abplattung der Erde verursucht, und wählt man die Bahnneigung bei ca. 96°-98°, so kann man die gewünschte Präzession erreichen. Die Bahn verläuft also beinahe über die Pole der Erde.
Auf der anderen Seite muss man ihm zugute halten, dass er die Elektromobilität sexy gemacht hat und binnen weniger als zwei Jahrzehnten aus dem Nichts die derzeit stärkste einsatzfähige Rakete der Welt zum Fliegen gebracht hat – und teilweise sogar wieder zum Landen. Womit er zahlreiche selbsternannte wie ausgewiesene Experten, die solcherlei für unmöglich hielten, Lügen gestraft hat. Es ist also durchaus nicht alles nur heiße Luft, die er von sich gibt. Aber man weiß auch nie so richtig, wann er etwas ernst meint und wann nicht.
Nuke Mars! twitterte Musk am 16. August 2019 und einen Tag später T-shirt soon. Es ist ja bekannt, dass Musk unbedingt auf den Mars will – höchstpersönlich! – und er gerade an einer noch größeren Rakete bastelt, die ihn dort hinbringen soll. Aber Atombomben auf den Mars werfen? Wozu?
T-shirt soon
— Elon Musk (@elonmusk) August 16, 2019
Er meint es diesmal wirklich ernst. Tatsächlich hatte er die Idee schon im September in Stephen Colberts Late Night Show vorgetragen, der ihn vorher gefragt hatte, ob ein Superheld oder ein Superschurke sei: Es gebe zwei Möglichkeiten, den Mars aufzuwärmen und bewohnbar zu machen, eine langsame und eine schnelle. Was denn die schnelle sei, wollte Colbert wissen. “Schmeiß’ thermonukleare Bomben über die Pole.” Ach so, meinte Colbert, dann bist Du also doch ein Superschurke…!
Es geht Musk um Terraforming. Das ist eine Idee, die auf den berühmten Astrophysiker Carl Sagan zurückgeht, der 1961 einen Artikel darüber im Wissenschaftsmagazin Science veröffentlicht hatte. Er wollte die fast genau erdgroße, aber unter ihrer 90-bar-Kohlendioxidatmosphäre glühend heiße Venus bewohnbar machen, indem er Algen in die Atmosphäre einbringen wollte, die den Kohlenstoff aus dem Kohlendioxid (CO2) binden sollten, das den Planeten durch den Treibhauseffekt so aufgeheizt hat. Die obere Atmosphäre hat nämlich Zonen mit gemäßigter Temperatur, wo Algen nach Sagans Idee vielleicht überdauern könnten. Dies erwies sich später jedoch als falsch. Sagan konnte noch nicht wissen, dass die Venusatmosphäre sehr viel Schwefelsäure enthält, die alle Algen abtöten würde, und selbst wenn der Prozess funktioniert hätte, hätte er große Mengen abgestorbener vertrockneter Algen produziert, die sich am Boden gesammelt hätten und verkohlt wären, bis sie sich in der schließlich aus fast reinem Sauerstoff bestehenden, zu Beginn immer noch heißen Atmosphäre von selbst entzündet und das Kohlendioxid wieder freigesetzt hätten.
Obwohl er viel kleiner als die Erde ist, ist der Mars wesentlich erdähnlicher. Wenn man sich die Aufnahmen der Marsrover anschaut, die eine rotbraune Landschaft mit blauem Himmel und manchmal sogar leichter Cirrusbewölkung zeigen, wähnt man sich in einer der Wüsten im Südwesten der USA. Die Temperatur kann am Äquator deutlich über 0°C steigen. Der Rover Spirit maß einmal 35°C im Schatten nahe des Äquators, und es gibt heute noch fließendes Wasser unter der Oberfläche, das manchmal zum Vorschein kommt. Sehr große Mengen an Wasser befinden sich unter der Oberfläche und in der Nordpolkappe. Die Südpolkappe besteht größtenteils aus gefrorenem Kohlendioxid, auch bekannt als Trockeneis. Wir wissen heute mit Sicherheit, dass es auf dem Mars einmal warm genug und die Atmosphäre dicht genug war, um große Seen und kleinere Meere bestehen zu lassen. Aber heute beträgt der Luftdruck auf dem Mars im Mittel nur 6 mbar, etwa so viel wie auf der Erde in 30 km Höhe – der normale irdische Atmosphärendruck liegt hingegen bei 1 bar. Die Luft ist auf dem Mars so dünn, dass flüssiges Wasser dort sofort zu sieden beginnt, während es durch die Verdampfungskühlung gleichzeitig gefriert – es kann in flüssiger Form nicht dauerhaft bestehen.
Die Atmosphäre ist insbesondere zu dünn, um die geladenen Teilchen des Sonnenwinds und der kosmischen Strahlung aufzuhalten. Daher ist man auf dem Mars der gleichen Strahlenbelastung wie im Weltraum ausgesetzt, die bei Sonnenflares auch vorübergehend tödliche Dosen erreichen kann, so dass man Habitate auf dem Mars vergraben oder mit Wasser oder Blei abschirmen muss.
Wer sich noch an Felix Baumgartners Stratosphärensprung erinnert, der aus 39 km Höhe stattfand, hat sicher noch den Druckanzug in Erinnerung, den Baumgartner trug. Auch die U2- und SR-71-Piloten, die in 20 km Höhe unterwegs waren, mussten Druckanzüge tragen, die dafür sorgen, dass sich keine Embolien durch ausperlendes Gas in den Gefäßen und Ödeme in der Lunge bilden. Und solch einen klobigen Anzug müsste man auch auf dem Mars tragen, genau wie auf dem Mond. Wenn der Druck auf dem Mars deutlich höher wäre, selbst bei einer Atmosphäre aus reinem Kohlendioxid, bräuchte man sich hingegen nur warm zu kleiden und Sauerstoff über eine Atemmaske wie ein Jetpilot zu atmen. Das wäre eine große Erleichterung.
Welcher Luftdruck wäre dafür erforderlich? Flüssiges Wasser kann oberhalb des Tripelpunkts bestehen, der auf dem Mars knapp unterschritten ist: er liegt bei 6,1 mbar und 0°C, dafür reichte eine kleine Erhöhung des Atmosphärendrucks; es käme mehr auf die Temperatur an, die im Mittel auf dem Mars bei -63°C liegt. Unterhalb 15 km Höhe brauchen Piloten auf der Erde keinen Druckanzug mehr, das sind 100 mbar Druck; allerdings müsste man dort immer noch Sauerstoff unter erhöhtem Druck atmen, man bräuchte einen luftdichten Anzug mit Helm. Ab 250 mbar (10 km Höhe auf der Erde) reicht der Luftdruck zum Atmen von reinem Sauerstoff mit Atemmaske; Kohlendioxid dürfte man nicht mit einatmen, weil Konzentrationen von mehr als 1% in der Atemluft Schläfrigkeit verursachen; 7%-10% führen zur Erstickung, selbst wenn Sauerstoff geatmet wird. Für längere Aufenthalte und einen ausgeglichenen Druck mit den Habitaten (in denen man ebenfalls 100% Sauerstoff atmen würde), der Luftschleusen zum Druckausgleich überflüssig machen würde, sollte man vielleicht 350 mbar (5 psi) anstreben, ähnlich wie in den Raumschiffen bei den Apollo-Missionen. So viel Atmosphäre würde dann auch den Großteil der Strahlenbelastung auf der Marsoberfläche absorbieren, so wie das bei der Erde der Fall ist.
Musk verficht nun die Idee, zwei künstliche Sonnen über den Marspolen aufgehen zu lassen, indem dort eine Wasserstoffbombe nach der anderen gezündet wird, um die Polkappen zu schmelzen. Das freigesetzte Wasser und Kohlendioxid, beides Treibhausgase, würden die Atmosphäre erwärmen und ihre Dichte erhöhen, so dass flüssiges Wasser wieder auf der Oberfläche Bestand hätte und man sich ohne Druckanzug draußen aufhalten könnte. Die thermonuklearen Bomben sollen im Weltraum gezündet werden, wo sie nur ein ganz klein wenig Fallout und Verstrahlung verursachen würden; der meiste Fallout bei irdischen Nuklearexplosionen entsteht durch den aufgewirbelten verstrahlten Staub, der bei Weltraumdetonationen nicht auftritt. Der bei Weltraumdetonationen im Erdorbit aufgetretene elektromagnetische Puls wäre auf dem Mars egal (na ja, die vorhandenen Rover würde man wohl abschreiben müssen) und die auf der Erde beobachtete Entstehung eines Strahlungsgürtels aus schnellen Elektronen, der Satelliten zerstören könnte, würde vermutlich nicht auftreten, da der Mars kein nennenswertes Magnetfeld hat, und wenn, dann nur temporär sein.
Klingt also ganz nett. Jedenfalls wenn man den Atomwaffen-Weltraumvertrag außer Acht lässt, der den Einsatz von Kernwaffen außerhalb der Erdatmosphäre verbietet, und alle ethischen Bedenken dagegen über Bord wirft, dass man auf dem möglicherweise von noch nicht entdeckten Mikroben belebten Mars einfach mal so das Klima umkippen würde (tun wir bei uns zu Hause ja auch). Aber würde es überhaupt funktionieren? Und was würde es bringen?
In Nature erschien im Juli 2018 eine Arbeit von Bruce Jakosky und Christopher Edwards [2], die sich konkret auch auf Musks Äußerungen von 2015 bezieht. Die Autoren haben analysiert, wie viel Kohlendioxid im Licht der mit Raumsonden und Rovern gesammelten Erkenntnisse der letzen 20 Jahre auf dem Mars überhaupt noch vorhanden ist. Ist die frühere dichte Atmosphäre nur eingefroren und kann wieder aufgetaut werden, oder ging sie unwiderruflich verloren?
Die Autoren stellen zunächst fest, dass Wasser alleine als Treibhausgas nicht ausreichen würde, es würde rasch wieder gefrieren, wenn man es irgendwie auftaute. Methan oder andere Gase sind nur in Spuren vorhanden, nur CO2 ist einigermaßen häufig und als potenzielles Treibhausgas geeignet. Die Achsenneigung des Mars ist mit 25,19° ähnlich derjenigen der Erde (23,5°), so dass es ausgeprägte Jahreszeiten gibt. Im Winter gefriert daher rund ein Drittel des atmosphärischen Kohlendioxids auf der sonnenabgewandten Polkappe und lässt den Atmosphärendruck um 2 mbar sinken. Wie Radarmessungen gezeigt haben, ist unter den Polkappen weiteres CO2 vorhanden, genug, um den Atmosphärendruck auf 12 mbar zu verdoppeln, wenn es in die Atmosphäre entlassen würde.
Die Autoren führen weitere CO2-Senken auf. Im Regolith, einer im Mittel 100 m dicken Staubschicht, die sich auf der Oberfläche abgelagert hat, können große Mengen CO2 durch Adsorption, also Anlagerung an die Staubteilchen, gebunden sein. Darin steckt das Potenzial für 40 mbar CO2-Druck. Nicht sehr viel, und dieses Reservoir könnte man auch nur anzapfen, wenn man die 100 m Regolith planetenweit bis in die Tiefe erwärmen würde, aber dazu würde die zusätzliche Wärme des Kohlendioxids aus den Polen nicht reichen. Man müsste den Boden umgraben und aktiv erwärmen. Und währenddessen würde das freigewordene CO2 gleich wieder an vorhandenem Staub anhaften und der Atmosphäre entzogen werden, solange diese nicht warm genug wäre. Somit ist diese Quelle praktisch nicht auszubeuten.
Weiteres CO2 ist in Mineralien gebunden. Eine 15 m dicke planetenumspannende Schicht solcher Karbonatmineralien könnte das Äquivalent von einem bar Atmosphärendruck an CO2 halten. Leider wurden solche Mineralien nur in wenigen Gegenden oberflächennah gefunden. In den Nili Fossae, wo diese Mineralien am stärksten konzentriert sind, könnte auf 6800 km² bis in eine Tiefe von 200 m das Äquivalent von gerade einmal 0,25 mbar stecken. Im benachbarten Isidis-Becken könnten auf 1,8 Millionen km² bis in 500 m Tiefe 150 mbar gebunden sein. Aber um diese Reserven anzuzapfen, müsste man die Mineralien auf 300°C erhitzen – dagegen wäre die Freisetzung aus Regolith geradezu ein Kinderspiel. Noch tiefer unter der Erde – Verzeihung, dem Mars – könnten durchaus Karbonatmineralien mit dem Potenzial für 1 bar verborgen sein, aber diese lägen zu tief, um sie jemals anzuzapfen.
Aber wo ist das ganze Gas denn geblieben, das einst die dichte Atmosphäre des Mars gebildet hatte? Der Mars-Orbiter MAVEN hat nachgewiesen, dass die Atmosphäre vom Sonnenwind erodiert wurde. Da der Mars kein signifikantes Magnetfeld wie die Erde hat, treffen die Protonen, Elektronen und Alpha-Teilchen des Sonnenwinds ungebremst auf die Atmosphäre, zertrümmern die Moleküle und deren Bruchstücke fliegen mit hoher Geschwindigkeit – mehr als die Fluchtgeschwindigkeit des Planeten – davon. Auf diese Weise hat der Mars ca. 0,5 bar an Atmosphärendruck eingebüßt. Was übrig geblieben ist, haben wir gelesen. Das, was theoretisch ausbeutbar ist, reicht nicht aus, um den Mars auf Zimmertemperatur und Hochgebirgsluftdruck zu bringen.
Und nun zur von Musk vorgeschlagenen Technik: Auf dieser Seite wird – als Übungsaufgabe für Studenten – vorgerechnet, wie viel Energie in Form von thermonuklearen Bomben notwendig wäre, um das Trockeneis der Polkappen frei zu setzen (dieses schmilzt nicht zu einer Flüssigkeit, sondern sublimiert zu gasförmigem Kohlendioxid). Ausgehend von einer gebundenen Menge von 1,18 Billionen Kubikmeter (oder 1180 Kubikkilometer) an gefrorenem Kohlendioxid in beiden Polkappen bräuchte man 1,14·1021 Joules, um diese Menge zu sublimieren. Eine einzelne 250-Kilotonnen-Bombe – das entspricht etwa der Sprengkraft moderner Kernwaffen – würde etwa 1015 Joules freisetzen, wovon allerdings mehr als die Hälfte in alle möglichen Richtungen außer dem Mars abgestrahlt würde. Würde man alle Kernwaffen der Erde (rund 15000) zusammenrechnen, käme man auf 1,6·1019 Joules, das ist nur 1/70 der benötigten Energie zum Sublimieren des Pol-Trockeneises auf dem Mars, und angesichts der ungerichteten Abstrahlung bräuchte es wohl das 200fache, so um die 3 Millionen Bomben. Selbst mit Megatonnen-Sprengkraft bräuchte es hunderttausende Sprengköpfe. Ob das dann in Summe immer noch “nur ein bisschen Fallout” bedeuten würde, sei dahingestellt, denn Wasserstoffbomben werden mit einer Plutoniumbombe gezündet. Die Waffenindustrie würde es sicher freuen, aber hunderttausende bis Millionen Sprengköpfe muss man auch erst einmal zum Mars bringen. Wir schaffen es bisher ja noch nicht einmal, einen einzelnen Menschen dort zu landen… die Kosten dafür werden auf eine Größenordnung von 100 Milliarden Dollar geschätzt.
Gibt es also gar keine Möglichkeit, Mars zu terraformen? Man könnte ihn mit Asteroiden und Kometen bombardieren – genau so erhielt die Erde auch ihre Ozeane. Allerdings bräuchte es hunderttausende bis eine Million von ihnen. Derzeit können wir – theoretisch! – bestenfalls Objekte von höchstens 1 km ein wenig ablenken, um sie die Erde knapp verfehlen zu lassen. Solche dutzende Milliarden Tonnen schwere Brocken gezielt auf den Mars zu lenken, ist noch einmal eine ganz andere Hausnummer. Ohne Atomwaffen ist auch dies kaum denkbar, und dann sind wir wieder beim selben Problem wie zuvor. Und wenn es klappte, würde der Mars ordentlich umgekrempelt werden und am Ende wie der Mond aussehen. Wahrscheinlich dauerte es alleine hunderttausende Jahre, die aufgeheizte Oberfläche wieder auf wohnliche Werte abkühlen zu lassen. Nichts, worauf es sich für den Leser zu warten lohnt. Planeten sind halt groß, Prozesse, die sie verändern, dauern lange.
Musks Idee ist also Unsinn, aber er wird nicht damit aufhören, darüber zu reden, schon um im Gespräch zu bleiben. Aber wer das T-Shirt mag, kann es schon kaufen.
[1] Todd Leopold, “Elon Musk’s new idea: Nuke Mars“, CNN, 11. September 2015.
[2] Mike Wall, “Elon Musk Floats ‘Nuke Mars’ Idea Again (He Has T-Shirts)“, Space.com, 17. August 2019.
[3] Bruce M. Jakosky & Christopher S. Edwards, “Inventory of CO2 available for terraforming Mars“, Nature Astronomy, Volume 2, S. 634–639, 30. Juli 2018.
[4] Phil Plait, “Is Nuking Mars a Good Idea? (No)“, Bad Astronomy, ScyFy Wire, 20. August 2019.
[5] en.wikipedia.org, Terraforming.
[6] en.wikipedia.org, Terraforming of Mars.
[7] M. Özgür Nevres, “Terraforming Mars – Why it’s so hard“, Our Planet, 6. Februar 2019.
Die wohl populärste Variante ist die Modifizierte Newtonsche Dynamik von Mordehai Milgrom (1983), die das Newtonsche Gravitationsgesetz für kleine Schwerebeschleunigungen folgendermaßen modifiziert: Bei Newton gilt zunächst, dass die Schwerebeschleunigung (oder Fallbeschleunigung) a im Abstand r von einer Masse mG gegeben ist durch:
wobei G = 6,67·10-11 m3kg-1s-2 die Gravitationskonstante ist. Beispielsweise ist die Masse der Erde ca. 6·1024 kg und unser Abstand vom Erdzentrum rund 6.380.000 m, das ergibt mit obiger Formel eine Schwerebeschleunigung von 9,8 m/s², also die berühmte Fallbeschleunigung der Erde.
Bei MoND soll die Schwerebeschleunigung unterhalb einer gewissen Grenzbeschleunigung a0 (im sogenannten “MoNDschen Regime”) jedoch folgende Form annehmen:
a0 ist in der Theorie eine Naturkonstante, die bei 1,2·10-10 m/s² liegt – viel weniger Schwerkraft, als sie irgendwo im Sonnensystem zu finden wäre. Setzt man zum Spaß einmal die Erdmasse ein, so erhält man für die Schwerebeschleunigung einen viel kleineren Wert von nur 3,13·10-5 m/s² – aber auf der Erde sind wir ja tief im Newtonschen Regime, wo die Formel nicht gilt. Für sehr kleine Schwerebeschleunigungen kleiner als a0 werden diese in der Milgromschen MoND-Formel hingegen größer als bei Newton, z.B. ergibt MoND da, wo Newton 10-12 m/s² liefert, eine zehnmal höhere Schwerebeschleunigung von 10-11 m/s², und die soll dann dafür sorgen, dass sich Sterne und Galaxien schneller bewegen müssen. Im Bereich oberhalb von a0 soll eine Funktion μ(a/a0) einen glatten Übergang vom Newtonschen Regime zum MoNDschen Regime ermöglichen, so dass μ(a/a0)=1 für große a und μ(a/a0)=a/a0 für kleine a. Dann nimmt das MoNDsche Gravitationsgesetz die allgemeine Form an:
Weder für µ noch für a0 gibt es eine theoretische Grundlage, aber wenn die Formel funktioniert, ist das zunächst einmal zweitrangig. Und die Formel reproduziert die Rotationskurven von Galaxien, wenn man µ und a0 passend wählt; µ(x) = x/√(1+x²) ist ein geeigneter Fit. Sie funktioniert bei allen möglichen Galaxien – mit wenigen Ausnahmen.
Und bei den Ausnahmen kommt der externe Feldeffekt zur Hilfe: dieser besagt, dass die Schwerkraft einer benachbarten Masse (hier: einer benachbarten Galaxie) µ wieder in den Newtonschen Bereich verschiebt. So würde etwa die Schwerkraft der Milchstraße einen Einfluss darauf haben, mit welcher Kraft die Erde den Mond an sich bindet. Bei Newton spielen hingegen räumlich konstante Schwerefelder keine Rolle. Eine Gravitationswaage liefert bei Newton auf der Erde die gleiche gemessene Anziehungskraft wie im Weltraum. Bei MoND mit externem Feldeffekt würde sie im Weltraum eine größere Schwerkraft messen.
Um die Frage zu klären, ob nun Newton oder Milgrom richtig liegen, muss ein unabhängiger Test her. Ein solcher Test müsste die Bewegung einer Masse in einem extrem kleinen Schwerefeld (eben im MoNDschen Regime) betrachten, in dem keine nennenswerte Dunkle Materie vorhanden sein darf, und dann entscheiden, ob hier die kleinere Newtonsche Beschleunigung oder die größere MoND-Beschleunigung wirkt. Gravitationswaagen sind dazu leider nicht genau genug. Der ideale Lackmustest wäre der Wide Binary Test: die Beobachtung eines weiten Sternsystems aus zwei Sternen, die sich in 5.000-20.000 astronomischen Einheiten (AE) Abstand umkreisen. Anders als im Sonnensystem, wo viele Planeten die Bewegung einer Masse beeinflussen, stört in dieser Entfernung kein anderes Objekt, ist man dennoch weit genug von anderen Sternen entfernt (die im Schnitt 250.000 AE voneinander entfernt sind) und auf diesen Distanzen spielt die Dunkle Materie noch keine Rolle. Bei einem Stern von einer Sonnenmasse wird a0 bei einer Entfernung von 7.000 AE erreicht, das sind rund eine Billion km.
Indranil Banik und Pavel Kroupa [1] von der Universität Bonn schlagen dazu vor, den uns nächsten weiten Doppelsternpartner, Proxima Centauri, zehn Jahre lang mit dem zukünftigen Weltraumteleskop THEIA zu beobachten und ihre Bahn um die beiden Hauptsterne α Centauri A und B sehr genau zu vermessen. Da uns Proxima mit 4,2 Lichtjahren sehr nahe ist (sie ist der uns nächste Stern überhaupt), machen bei ihr kleine Geschwindigkeiten vergleichsweise große Winkelgeschwindigkeiten am Himmel aus, und die können wir über die Jahre als zurückgelegte Winkel messen. Proxima ist 13.000 AE von α Centauri A/B entfernt, die selbst im Mittel nur 24 AE voneinander getrennt sind und somit wie eine gemeinsame Punktmasse auf Proxima wirken.
THEIA ist bisher allerdings nur eine Studie und noch lange nicht abgenickt. Dem längst im Weltraum befindlichen Gaia-Teleskop trauen die beiden Autoren nicht zu, dass es eine Chance hätte die Geschwindigkeit von Proxima relativ zu α Centauri A/B hinreichend zu messen, obwohl die Schwerebeschleunigung bei MoND um 45% größer als bei Newton wäre. Ein Problem, warum Gaia bei Proxima nicht einsetzbar ist, dürfte daran liegen, dass sie keine Sterne heller als 3. Größenklasse messen kann – sie wird von deren Licht geblendet. α Centauri A und B sind mit 0,0 und 1,3 Größenklassen deshalb viel zu hell für Gaia und somit kann der Bezugspunkt der Bahn von Proxima nicht genau genug verortet werden.
Banik und Kroupa haben ermittelt, dass sich über zehn Jahre eine Differenz von nur 7,18 Mikrobogensekunden zwischen der Position bei MoND mit externem Feldeffekt und bei Newton ergeben würde, das ist ungefähr der Winkeldurchmesser einer Euromünze – auf dem Mond!
THEIA soll eine Winkelauflösung von 0,5 Mikrobogensekunden erreichen. Führte man hinreichend viele Messungen durch, die den Durchmesser von Proxima, der mit 1,3 Millibogensekunden 180 mal größer ist als die erwartete Winkelabweichung, sowie mögliche Effekte durch große Sternenflecken ausmitteln würden, dann würde man mit der Auflösung von THEIA binnen 10 Jahren zu 99% (5σ) sicher unterscheiden können, ob die Bewegung MoND oder Newton folgt.
Während Banik und Kroupa noch auf THEIA hoffen, haben Charalambos Pittordis und Will Sutherland [2] von der Queen Mary Universität in London ihr Vertrauen in Gaia und ihre gewaltige Datenbasis gesetzt, um den Wide Binary Test tausende Male durchzuführen. Sozusagen Masse statt Klasse (d.h. Präzision). Gaia kann theoretisch bereits Positionsmessungen mit 0,5 Mikrobogensekunden Präzision durchführen; in der Praxis ergeben sich jedoch allerlei Fehlerquellen, die aber minimiert werden, wenn man nur die Abstände eng benachbarter Sterne betrachtet, die von den gleichen Messfehlern betroffen sind.
Im Gaia-Datenrelease 2 sind die Positionen und Bewegungen von 1,3 Milliarden Sternen enthalten. Aus diesen Daten kann man sehr viel Wissen schöpfen, wenn man sie richtig auswertet. Pittordis und Sutherland haben sich automatisch die passenden Sternpaare aus der Datenbank heraussuchen lassen:
Die Gaia-Daten reichen nicht aus, um die Bahnen der einzelnen Sterne umeinander zu bestimmen, sondern lediglich zur Bestimmung der projizierten Geschwindigkeitsdifferenzen Δvp für die projizierten Abstände rp. Man kann es sich ungefähr so vorstellen, als ob man von einem Mobile des Sternenpaares nur die Schatten sieht und aus der Bewegung der Schatten auf die wahre Bewegung der Mobile-Sterne schließen soll. Das ist in jedem Einzelfall unmöglich, weil man nicht weiß, wie die Umlaufbahn gegen die Sichtlinie verkippt ist und mit welcher Geschwindigkeit sich die Sterne parallel zur Sichtlinie bewegen (Radialgeschwindigkeit). Betrachtet man aber die Statistik vieler Sterne, dann ergibt sich eine charakteristische Verteilung der projizierten Geschwindigkeiten, und die weicht bei MoND von derjenigen bei Newton ab.
Um die Geschwindigkeitsdifferenzen Δvp von Sternpaaren mit verschiedenen projizierten Abständen rp und Massen (letztere wurden aus der Helligkeit und der Entfernung geschätzt) untereinander vergleichbar zu machen, haben die Autoren die Geschwindigkeiten als Vielfache der Kreisbahngeschwindigkeiten vc(rp) angegeben, die sich aus der zuoberst genannten Newtonschen Formel ermitteln lassen; man muss a nur durch die Zentrifugalbeschleunigung z=v²/r ersetzen, die bei einer Kreisbahn genau so groß wie die Schwerebeschleunigung a sein muss, und nach v auflösen, dann erhält man die Kreisbahngeschwindigkeit im Abstand r: vc(r) =√(Gmg/r).
Hat also Δvp/vc(rp) den Wert 1, dann ist die projizierte Geschwindigkeitsdifferenz zwischen den beiden Sternen genau gleich der Newtonschen Kreisbahngeschwindigkeit. Ein seltener Fall, denn dazu müsste die Bahn tatsächlich eine Kreisbahn sein und die Bewegung komplett tangential, also senkrecht zur Sichtlinie in der Himmelsebene erfolgen. Die Umlaufbahnen von Sternen sind aber meist elliptisch und die Ausrichtung der Bahn sowie die aktuelle Position des leichteren Sterns auf seiner Bahn haben im Gaia-Katalog zufällige Werte. Betrachtet man die Menge aller Sternpaare, so ergibt sich für Newtonsche Umlaufbahnen statistisch eine bestimmte Verteilung der Häufigkeit wie im folgenden Bild dargestellt und aus Simulationen ermittelt:
Hier sind verschiedene Häufigkeitsverteilungen für die Exzentrizitäten e der Bahnen angenommen, d.h. des Maßes, wie elliptisch die Bahn ist (e=0: Kreisbahn, e=1: Parabelbahn, also keine geschlossene Ellipse mehr). Die rote gestrichelte Kurve nimmt ziemlich unrealistischerweise an, dass alle Exzentrizitäten gleich häufig seien, die grüne durchgezogene ist eine von Tokovin bestimmte Näherung der Statistik von Doppelsternbahnen, und die blaue gepunktete nimmt an, dass die Häugikeit der Exzentrizitäten mit deren Wert linear ansteigt – ein anderes unrealistisches Extrem. Die Kurven weichen voneinander ab, aber nicht dramatisch. Alle sind oben bei 1,4-facher Kreisbahngeschwindigkeit abgeschnitten, weil √2-mal die Kreisbahngeschwindigkeit gleich der Fluchtgeschwindigkeit ist und die Sterne dann nicht mehr aneinander gebunden wären. Geschwindigkeiten von mehr als Kreisbahngeschwindigkeit sind aber durchaus möglich, weil auf langgezogenen Ellipsenbahnen die Geschwindigkeit im sternennächsten Punkt der Bahn (Periastron) größer als die Kreisbahngeschwindigkeit ist und fast die Fluchtgeschwindigkeit erreichen kann. Umgekehrt ist die Geschwindigkeit im sternenfernsten Punkt der Bahn (Apastron) viel langsamer als die Kreisbahngeschwindigkeit, und durch die verzerrende Perspektive, die den Geschwindigkeitsanteil in Richtung der Sichtlinie verbirgt, kann die projizierte Geschwindigkeit noch weiter verringert erscheinen. Die Kurven gehen also bis hinunter zu 0 und das Maximum liegt für die grüne Kurve bei 0,6.
Soweit die Theorie – was ergab die Analyse der Gaia-Daten? Im folgenden Bild sind die Häufigkeitsverteilungen der gemessenen Gaia-Sternpaare den theoretischen Kurven (Tokovinin-Verteilung der Exzentrizitäten) gegenüber gestellt, und zwar für vier Bereiche des Abstands der Sterne im jeweiligen Paar. Die rote Kurve, die weit nach rechts auslädt, entspricht den Messungen von Gaia. Die schwarze Kurve ganz links entspricht der grünen Tokovinin-Kurve aus dem Bild oben mit dem Maximum bei 0,6. Die grüne Kurve mit dem am weitesten rechts liegenden Maximum repräsentiert die erwartete Verteilung für Bahnen, die MoND ohne externen Feldeffekt gehorchen und die verbleibende violette Kurve, die sich fast mit der schwarzen deckt, entspricht einer Verteilung für MoND mit externem Feldeffekt durch die Milchstraße gemäß einer Formel nach Banik (ja, genau der Banik von vorhin) und Zhao aus einer Arbeit von 2018. Auf der x-Achse ist die projizierte Geschwindigkeit in Vielfachen der Kreisbahngeschwindigkeit aufgetragen, so dass die Fluchtgeschwindigkeit bei der gestrichelten Line von √2 liegt. Die Kurven und die y-Achse sind so skaliert, dass die Fläche unter der Kurve links von der gestrichelten Linie 1 ergibt.
Betrachtet man einmal nur den linken Teil der Diagramme, links von der √2-Linie, dann ist sofort klar, dass MoND ohne externen Feldeffekt aus dem Rennen ist und viel zu hohe Geschwindigkeiten vorhersagt. Mit zunehmendem Abstand der Sternpaare wird es erwartungsgemäß schlimmer. Die Newton- und die Banik-MoND-Kurve approximieren die Daten viel besser. Mit etwas Optimismus könnte man behaupten, die Newton-Kurve liege noch etwas näher an den Daten, wenn man sich den Bereich zwischen 0 und 1 anschaut, aber die Differenz ist sehr klein und nicht signifikant genug. Vor allem weichen die Messdaten nach rechts hin dramatisch von allen Vorhersagen ab – fast achtfache Kreisbahngeschwindigkeit – hallo?!
Auch die Autoren waren überrascht von dem Ergebnis und überlegten, wie der Hubbel mit dem Schwänzchen zustande gekommen sein könnte. Nicht entdeckte dunkle Begleitsterne können die Geschwindigkeit zwar beeinflussen, aber niemals in diesem Maße. Zufällig benachbarte Hintergrundsterne wären auch nicht in dieser Häufigkeit zu erwarten gewesen. Als plausibelste Annahme blieb übrig, dass hier tatsächlich Sterne nahe aneinander vorbeifliegen, die aus einem gemeinsamen Sternhaufen stammen und daher ähnlich schnell unterwegs sind, die sich aber lediglich passieren, ohne aneinander gebunden zu sein. Die Autoren simulierten daraufhin solche Vorbeiflüge unter plausiblen Annahmen und konnten die Form der gemessenen Häufigkeitsverteilung hervorragend modellieren:
Die Vorbeiflüge erklären also das Schwänzchen der gemessenen Häufigkeitsverteilung bei hohen Geschwindigkeiten. Leider verfälschen sie die Statistik der echten Doppelsterne vor allem im Bereich nahe der Fluchtgeschwindigkeit, wo man den Unterschied zu MoND mit externem Feldeffekt am besten würde sehen können (da ist die violette MoND-Kurve im vorletzten Bild am deutlichsten gegen die schwarze Newton-Kurve versetzt).Um diesen Bereich besser auszuloten, bräuchte man noch mehr Sterne – man müsste weiter als 200 pc, vielleicht 300 pc weit schauen. Dann könnte man den Anteil der Vorbeiflüge aus der Messung herausrechnen. Der im zweiten Halbjahr 2020 erwartete erste Teil des zweiteiligen Gaia-DR3-Datenreleases soll doppelt so präzise Daten zu Position und zur Bewegung der Sterne enthalten und würde damit genau die nötige zusätzliche Weitsicht ermöglichen, die die Autoren sich wünschen, um die MoND-vs-Newton-Frage eindeutig entscheiden zu können. Aber immerhin – MoND ohne externen Feldeffekt ist schon vom Tisch!
[1] Indranil Banik, Pavel Kroupa, “Directly testing gravity with Proxima Centauri“, Monthly Notices of the Royal Astronomical Society, Volume 487, Issue 2, August 2019; arXiv:1906.08264.
[2] Charalambos Pittordis, Will Sutherland, “Testing Modified Gravity with Wide Binaries in GAIA DR2“, Monthly Notices of the Royal Astronomical Society, Volume 488, Issue 4, October 2019; arXiv:1905.09619.
]]>
Die plausible Entstehung im thermodynamischen Gleichgewicht kann man sich ungefähr so vorstellen: wie wir in meinem Artikel über die Expansion des Universums gelernt haben, hat ein Universum mit dominanter Dunkler Energie (de-Sitter-Universum; unser Universum strebt mit weiterem Wachstum und damit einher gehender Verdünnung der Materie diesem Zustand entgegen) einen Ereignishorizont, jenseits dessen alles kausal getrennt von uns ist. Auch Schwarze Löcher haben bekanntlich einen Ereignishorizont, für den Stephen Hawking gezeigt hat, dass er eine thermische Strahlung, die Hawking-Strahlung aussendet. Weniger bekannt ist, dass Hawking zusammen mit Gary Gibbons 1977 gezeigt hat, dass jeder kausale Horizont, insbesondere der eines de-Sitter-Raums ebenfalls Hawking-Strahlung erzeugt (wir reden hier von einer Temperatur des Strahlungshintergrundes von ca. 10-29 K). Wir erhalten also in einem Universum mit dominant Dunkler Energie eine ewige Quelle von Photonen und eventuell auch Gravitonen, wenn es sie gibt. Stoßen zwei Photonen oder Gravitonen mit hinreichend hoher Energie zusammen, können aus ihnen durch Paarerzeugung massebehaftete Elementarteilchen wie Quarks und Elektronen entstehen, wobei sich Quarks stets zu zusammengesetzten Teilchen zusammenfinden, z.B. Protonen und Neutronen. Somit ist potenzielles Baumaterial gesichert.
In einem Universum im thermodynamischen Gleichgewicht ohne Entropiegefälle sind alle Prozesse zeitlich symmetrisch, d.h. die Entstehung eines Boltzmann-Hirns wäre der zeitlich umgekehrte Prozess seines Zerfalls, der als schnelles Einfrieren nach kurzer Aktivität gefolgt von einem allmählichen Auseinanderfallen vor sich gehen würde. Bei der Entstehung würden die Teilchen sich demnach allmählich zufällig zusammenfinden und eine Struktur bilden. “Nukleation” oder “Keimbildung” nennt sich dieser Prozess, der durchaus sehr lange dauern kann und mit einer kurzen Aufheiz- und Aktivitätsphase beendet würde, in welcher Denk- und Wahrnehmungsvorgänge möglich wären.
Natürlich könnte und würde die Nukleation auch und meistens zur Entstehung allen möglichen anderen Zeugs führen, aber eben gelegentlich auch zu einem Bewusstsein, die minimale Anforderung dafür, welche die Descartsche Beobachtung erfüllt. Und nach dem anthropischen Prinzip können wir uns nur in einem solchen Boltzmann-Bewusstsein wiederfinden, nicht in der Boltzmann-Entsprechung eines Ameisenhirns (genau deswegen sind wir auch Menschen, obwohl es viel mehr Ameisen als Menschen gibt und die Statistik dagegen spricht).
Die meisten Physiker lehnen die Auseinandersetzung mit Boltzmann-Hirnen kategorisch ab. Zum Einen, weil ihre Existenz nicht empirisch bestimmbar ist und damit außerhalb des naturwissenschaftlich erkundbaren Horizonts liegt. Was man nicht messen kann, hat keinen Einfluss auf uns und kann daher getrost ignoriert werden. Manche vertreten die Ansicht, eine Physik die die Existenz von Boltzmann-Hirnen vorhersagt, müsse intrinsisch fehlerhaft sein. Man könnte auch argumentieren, so ein Hirn hätte ja keinen Körper und keine Sauerstoffversorgung und sei gar nicht lange genug lebensfähig. Aber wer sagt, dass ein menschliches Gehirn die einzige Möglichkeit ist, ein Bewusstsein hervorzubringen? Das Boltzmann Hirn wird wohl eher keines aus “Fleisch und Blut” sein, sondern irgendeine minimale organisierte Struktur, die des Denkens fähig ist – ein möglicher Kritikansatz, das so ein Gehirn einen Blutkreislauf mit Sauerstoff bräuchte, geht damit ins Leere.
Zum Anderen werden Boltzmann-Hirne abgelehnt, weil sie in einen logischen Widerspruch führen: Aufgrund der naturwissenschaftlichen Erkenntnisse können wir darauf schließen, dass wir Boltzmann-Hirne sein müssten. Als Boltzmann-Hirn wissen wir aber nichts Wirkliches über die Natur, wir wären nur ein Zufallsprodukt mit zufälligem Gedächtnisinhalt in einem leeren Raum. Damit wären aber zugleich alle von uns geglaubten naturwissenschaftlichen Erkenntnisse Makulatur und damit fiele die physikalische Grundlage weg, aus der wir überhaupt auf unsere Boltzmann-Existenz geschlossen haben. Sean Carroll nennt dies “Kognitive Instabilität” und dies sei Grund genug, Universen mit Boltzmann-Hirnen abzulehnen.
Nun möchte niemand ein Boltzmann-Hirn sein. Es ist leider vollkommen unmöglich, mit absoluter Sicherheit auszuschließen dass man eines ist, denn alles, was man denkt und wahrnimmt, ist so oder so nur ein Produkt des eigenen Hirns, das genau so gut von einem Boltzmann-Hirn geliefert werden könnte. Aber man kann zumindest Auswege suchen, unter denen es möglich und plausibel wäre, dass man keines ist. Sean Carrolls oben erwähnte “Kognitive Instabilität” gibt uns zwar einen guten Grund anzunehmen, warum wir keine Boltzmann-Hirne sind, aber keine physikalisch motivierte Ursache dafür. Schauen wir uns also an, welche Auswege physikalisch denkbar wären.
Wodurch haben wir uns die Boltzmann-Suppe überhaupt eingebrockt? Durch folgende Annahmen: 1) Das Universum existiert ewig, 2) über die gesamte Existenz des Universums gilt dieselbe Physik wie heute, welche Nukleation von Teilchen und zusammenhängenden Strukturen ermöglicht und 3) die Raumzeit*, in der die Entropie ansteigt, ist beschränkt. Die erste Annahme führt zusammen mit der zweiten zur unendlichen Zahl von Boltzmann-Hirnen, die dritte zur endlichen Zahl von biologischen Hirnen.
Dies bietet grundsätzlich zwei Lösungsansätze, um die Boltzmänner (und -frauen?) kurz zu halten. Entweder muss man die Zahl entstehender Boltzmann-Hirne nach oben deckeln – durch eine raumzeitliche Beschränkung des Universums insgesamt, um 1) auszuhebeln, oder zumindest eine Zeitbeschränkung der heute gültigen Physik, um 2) zu entkräften – oder man muss die Zahl entstehender biologischer Hirne gegen unendlich streben lassen, und zwar so, dass sie die der Boltzmann-Hirne bei weitem übertrifft.
Zunächst zum zeitlichen Deckel: Könnte die Lebensdauer des Universums wider Erwarten doch endlich sein? Derzeit sieht es zwar nicht so aus, als ob das Universum irgendwann wieder schrumpfen könnte und in einem “Big Crunch” untergehen, aber wir haben den Mechanismus der Dunklen Energie noch nicht verstanden und deshalb wäre es voreilig, Aussagen über die nächsten 101050 Jahre machen zu wollen. Es wäre denkbar, dass die Dunkle Energie nicht einfach die kosmologische Konstante des aktuell favorisierten ΛCDM-Modell ist, die überall gleich groß ist. Vielleicht hat sie ihren Wert nur lokal im beobachtbaren Universum und ist in größerem Maßstab kleiner oder zeitlich variabel, und irgendwann schrumpft das Universum dann insgesamt wieder und endet in einem großen Kollaps, dem “Big Crunch”, der dann möglicherweise der nächste “Big Bang” wäre, wenn aus ihm das nächste Universum geboren würde usw. (zyklisches Universum; Bild).
Eine weitere Variante bietet das “ekpyrotische Universum” (ex pyros = “aus dem Feuer [geboren]” )das unser Universum in einem höherdimensionalen Raum wie den der Stringtheorie befindlich annimmt, welches regelmäßig mit einem vielleicht gar nur Zentimeter entfernten Nachbaruniversum kollidiert. Man stelle sich zwei riesige Platten vor, die parallel nebeneinander schweben und sich zyklisch voneinander weg und wieder aufeinander zu bewegen, bis sie kollidieren, wobei es zu einem neuen Urknall mit niedriger Anfangsentropie kommt (Bild). In der Realität passierte dies nur eine Dimension höher, zwei Hyperflächen (eine davon unser dreidimensionaler Raum, die andere ein anderes Universum) bewegen sich im mindestens 4-dimensionalen Raum und kollidieren in ihren gesamten 3D-Volumina, wodurch ihr gesamter Inhalt ausgelöscht würde und was sie wieder mit Strahlung füllte. Damit würde quasi regelmäßig die Uhr zurück zum Anfang gesetzt und das Weltall würde nie den Zustand des thermodynamischen Gleichgewichts erreichen.
Zugegeben gibt es weder für ein irgendwann wieder kollabierendes, noch für ein ekpyrotisches Universum irgendwelche Beobachtungshinweise. Ihr einziger nennenswerter Vorteil ist derjenige, dass zyklisches und ekpyrotisches Universum eine zur Inflationstheorie (siehe unten) alternative Erklärungen dafür bieten, warum die Temperatur der Hintergrundstrahlung überall am Himmel ein- und dieselbe ist, auch für Orte, die soweit entfernt voneinander sind, dass sie nie in kausalem Kontakt waren und somit niemals Strahlung zum Temperaturausgleich austauschen konnten. In einem immer wieder kollidierenden Universum besteht zwischen den Kollisionen jedoch genug Zeit zum globalen Temperaturausgleich.
Um Voraussetzung 2) auszuhebeln, müsste sich die Physik in endlicher Zeit so grundlegend ändern, dass die Nukleation von Boltzmann-Hirnen oder zusammengesetzten Objekten unmöglich werden würde. Eine Möglichkeit wäre ein Big Rip (Bild), eine zunehmend beschleunigte Expansion durch immer weiter steigende Dunkle Energie, die am Ende alles bis zum Elementarteilchen zerreissen würde. Damit würde es schließlich auch unmöglich, dass Teilchen sich zu Strukturen zusammenfinden könnten; sie würden zu schnell auseinander getrieben und kausal entkoppelt. Damit könnte kein Boltzmann-Hirn allmählich nukleieren.
Es gibt ja bereits Hinweise darauf, dass die Dunkle Energie angestiegen sein könnte, wobei aber noch nicht auszuschließen ist, dass die Diskrepanz zwischen der im lokalen Universum und im Urknall gemessenen Hubble-Konstante H0 auf einen systematischen Fehler bei der Entfernungsbestimmung zurückgehen könnte. Aber immerhin haben wir zur Stützung dieser Hypothese mehr Daten als für die zeitliche Deckelung der Lebensdauer des Universums.
Die derzeit plausibelste Variante wäre jedoch ein Vakuumzerfall. Nach der kosmologischen Inflationstheorie begann das Universum nach einer kurzen Periode des Temperaturausgleichs mit einer Phase extrem schneller, exponentieller “inflationärer” Expansion, in der es sich alle 10-35 s im Durchmesser verdoppelte. Das brauchte es nur einhundert Mal zu tun, dann wäre es nach 10-33 s um einen Faktor 2100 = 1,3·1030 angewachsen. Das bedeutet, dass binnen dieser kurzen, gar nicht sinnvoll zu irgendetwas in Perspektive zu setzenden Zeit der Durchmesser eines Wasserstoffatoms (in der Größenordnung von 0,1 nm) auf 10.000 Lichtjahre angewachsen wäre (ungefähr halbe Strecke von hier bis zum Milchstraßenzentrum). Als Ursache für die Expansion könnte nach der Allgemeinen Relativitätstheorie eine Vakuumenergie gedient haben, im Prinzip ähnlich zur Dunklen Energie, nur sehr viel größer.
Wenn das Vakuum intrinsisch eine Energie beinhaltet, gespeichert in einem “Inflatonfeld” genannten Kraftfeld, welches den gesamten Raum erfüllt, und es in der Potenzialkurve des Inflatonfelds Zonen gibt, deren Energieniveau tiefer liegt, dann spricht man von einem “falschen Vakuum” – das “echte Vakuum” liegt hingegen an der tiefsten Stelle der Potenzialkurve (siehe Bild unten). Beim Inflatonfeld könnte es sich um ein dem Higgs-Feld ähnliches Skalarfeld handeln, das in unserem Universum den Teilchen ihre Masse vermittelt. Die kosmische Inflation soll damit geendet haben, dass das Inflatonfeld auf einen Zustand niedrigerer Energie fiel und dabei ein neues stabiles Minimum erreichte. Die überschüssige Vakuumenergie materialisierte als Strahlung, aus der später die Materie entstand. Der Ort des Energieminimums bestimmte die physikalischen Eigenschaften unseres Universums und legte die Naturkonstanten fest, und zwar zufällig genau so, dass Materie überhaupt entstehen konnte. Möglicherweise gibt es viele Minima, in denen der Zustand des Inflatonfelds hätte enden können, und die meisten davon hätten niemals zur Entstehung von Teilchen oder Strukturen wie in unserem Universum geführt. In solchen Universen gäbe es uns jedoch nicht als Beobachter und deswegen finden wir uns zwingend in einem solchen wieder, das unsere Existenz ermöglicht (schwaches anthropisches Prinzip).
Die Dunkle Energie als mögliche Folge einer Vakuumenergiedichte deutet darauf hin, dass der derzeitige Energiegehalt des Vakuums noch weiter fallen könnte. Wir leben demnach immer noch in einem falschen Vakuum. Wenn das Higgs-Feld irgendetwas mit der Inflation zu tun hatte, dann ist es nachvollziehbar, dass die Masse des Higgs-Teilchens (einer Anregung des Higgs-Felds) Rückschlüsse auf die Stabilität des Vakuums erlaubt. Aus den Massen des Top-Quarks und des Higgs-Teilchens folgt, dass wir uns in einem metastabilen Vakuumzustand befinden, d.h. er ist nicht für ewig stabil, sondern wird nach einer gewissen Zeit in der Größenordnung mehrerer zehn Milliarden Jahre wieder auf einen neuen Zustand noch niedrigerer Energie fallen. Im folgenden Vakuum wären die Karten dann neu gemischt, die Naturgesetze gänzlich andere und die Existenz von Teilchen und erst recht denkender Strukturen höchstwahrscheinlich ausgeschlossen (das gilt dann übrigens auch für den gesamten Inhalt des vorherigen Universums, der abgeräumt würde), wenn man davon ausgeht, dass die Naturkonstanten dafür einigermaßen aufeinander abgestimmt sein müssen.
Damit wäre die Kuh vom Eis bzw. das Boltzmann-Hirn vom Tisch, denn einige 10 Milliarden Jahre sind zu kurz, um auch nur annähernd ein Boltzmann-Hirn hervorzubringen. Allerdings ungemütlich nahe am bisherigen Lebensalter des Universums. Es wäre allerdings verfrüht, wegen des Vakuumzerfalls in Panik zu verfallen, denn erstens sind die Daten noch viel zu dünn, aufgrund derer auf diese Größenordnung geschlossen wurde, zweitens ist der Spielraum groß genug, dass der Zerfall auch erst nach ein paar weiteren Weltaltern stattfinden könnte und drittens kann die ganz zugrunde liegende Hypothese schlicht falsch sein und es hat weder die kosmologische Inflation stattgefunden, noch zerfällt je das Vakuum.
Aber immerhin ist der Vakuumzerfall ein plausibler Ausweg dafür, kein Boltzmann-Hirn zu sein!
Damit kommen wir zur oben erwähnten Voraussetzung 3): gibt es eine Möglichkeit, die Zahl der biologischen Hirne gegen unendlich wachsen zu lassen?
Die gibt es tatsächlich. Gerade habe ich erklärt, dass bei der Inflation das Vakuum auf einen niedrigeren Energiezustand fiel, der die dramatische Expansion beendete. In den meisten Varianten der Inflationstheorie wird dieser Vorgang durch den Tunneleffekt erklärt (ähnlich dem radioaktiven Zerfall, der durch das quantenmechanische Tunneln von Bestandteilen des Atomkerns durch eine Potenzialbarriere verursacht wird). Der Tunneleffekt ist aber ein statistisch zufälliger, gedächtnisloser Vorgang, der mit einer gewissen Verteilung der Wartezeit eintritt. Gedächtnislos heißt hierbei, dass bereits vergangene Wartezeit keinen Rückschluss auf die noch folgende erlaubt. Ein Beispiel für einen anderen gedächtnislosen Prozess sind die Ankünfte von Kunden an einer Ladentheke; wann der letzte Kunde eingetroffen ist, erlaubt keinerlei Rückschluss darauf, wann der nächste folgen wird, selbst wenn man die Ankunftsrate in Personen pro Stunde kennt, weil die aufeinanderfolgende Kunden gar nichts miteinander zu tun haben.
Da die kosmologische Inflation schon auf kurzen Entfernungen von weniger als einem Protonendurchmesser den kausalen Zusammenhang benachbarter Raumregionen zerstört, weil sie sich schneller als mit Lichtgeschwindigkeit voneinander entfernen (der Ereignishorizont ist entsprechend winzig), gibt es keine Möglichkeit, dass die Inflation überall gleichzeitig endet, sondern sie endet stets lokal und bildet eine mit Lichtgeschwindigkeit wachsende Blase aus Vakuum geringerer Energie, aus der dann ein Universum wie das unsere wächst. Dessen Wachstum hält nun aber bei weitem nicht mit der Expansion des umgebenden inflationär wachsenden Raums mit, und so läuft die Inflation außerhalb der Blase ungehemmt weiter. Gedächtnislos, wie die Inflation ist, hat sie keine maximale Lebensdauer und wird niemals überall enden. Damit erzeugt die Inflation ein “Multiversum” unendlich vieler Blasenuniversen, und jedes davon macht eine Phase steigender Entropie durch, in der eine endliche Zahl von biologischen Hirnen entstehen können. Ergibt insgesamt eine unendliche Zahl von biologischen Hirnen.
Der Haken ist: jedes der Universen, das geeignet ist, endlich viele biologische Intelligenz hervorzubringen, bringt potenziell (wenn die vorherign Argumente nicht greifen) auch unendlich viele Boltzmann-Hirne hervor. Damit scheint zunächst nichts gewonnen. Wenn nun aber in einem solchen Universum nach hinreichend langer Zeit Universen spontan durch zufällige Fluktuationen der Vakuumenergie auf einen hohen Wert wie zur Zeit der Inflation entstünden, die sofort exponentiell wachsen würden und damit durch kausale Entkopplung dem Rückfall auf niedrige Vakuumenergie entgehen würden, dann würde jedes der Universen seinerseits für unendlich lange Zeiten unendlich viele Tochteruniversen hervorbringen, in welchen wieder biologische Intelligenz entstehen könnte und später dann Boltzmann-Hirne.
Um zu entscheiden, wie dieses Wettrennen zwischen biologischen und Boltzmann-Hirnen ausgeht, kommt es darauf an, welche Unendlichkeit mächtiger ist: die der neu entstehenden Universen mit jeweils einer beschränkten Zahl von biologischen Hirnen aber unendlichem Quell neuer Tochteruniversen oder die Zahl der Boltzmann-Hirne, die in einem Universum entstehen kann. Dies kann man sich wie folgt klar machen:
Man betrachte ein de-Sitter-Universum. In diesem entsteht in einem gewissen Zeitintervall durch Vakuumfluktuation eine bestimmte Zahl von Tochteruniversen, die biologische Intelligenz ermöglichen (“anthropische Universen”, von anthropos, der Mensch). Im gleichen Zeitraum entsteht eine bestimmte Zahl von Boltzmann-Hirnen – wir können hier sicherheitshalber davon ausgehen, dass es sehr viel mehr Boltzmann-Hirne als anthropische Universen sind – entscheidend ist nur, dass zu jeder gegebenen Zeit endlich viele Boltzmann-Hirne endlich vielen anthropischen Universen gegenüber stehen. In jedem der Tochteruniversen entstehen aber unendlich viele biologische Hirne und damit unendlich viele mehr, als Boltzmann-Hirne auf gleicher Ebene. Und in der Ebene darunter ist es genau so. Und in der folgenden Ebene wiederum, ad infinitum. Mathematisch sauber begründet wird diese Lösung des sogenannten Maßproblems der Kosmologie in [2] und [3].
Wir hätten dann also eine unendliche Regression von Universen, die dafür sorgt, dass die Zahl der Boltzmann-Hirne verschwindend klein gegenüber derjenigen der biologischen Hirne bleibt. Damit wäre die Wahrscheinlichkeit, sich als zufällig ausgewählter denkender Beobachter in einem Boltzmann-Hirn wieder zu finden, verschwindend klein.
Somit gibt es also gute Gründe und Auswege, warum Du fast sicher kein Boltzmann-Hirn bist. Alle diese Möglichkeiten implizieren eine im ΛCDM-Modell nicht ohne Weiteres gegebene, teilweise dramatische Dynamik – entweder ist die Lebensdauer des Universums beschränkt ODER das Universum ändert sich irgendwann katastrophal ODER es gebiert neben Boltzmann-Hirnen immer wieder neue Universen durch eine Rekursion der ewigen Inflation, die damit quasi als Theorie gesetzt wäre. Sicher erscheint jedenfalls, dass das Universum nicht einfach in einen Zustand der Ereignislosigkeit fallen wird.
Ich finde es ziemlich erstaunlich, wie weitreichende Schlussfolgerungen über das Schicksal des Universums aus der vermeintlichen “Spinnerei” der Freak Observer folgen. Ein Grund dafür, warum sich einige Kosmologen ernsthaft mit dem Thema auseinander setzen.
[1] Sean M. Carroll, “Why Boltzmann Brains Are Bad“, Walter Burke Institute for Theoretical Physics, California Institute of Technology, Pasadena, CA 91125, U.S.A., 6. Februar 2017; arXiv:1702.0085v1.
[2] Alexander Vilenkin, “Freak observers and the measure of the multiverse”, Journal of High Energy Physics, Volume 2007, JHEP01(2007), 26. Januar 2007; arXiv:hep-th/0611271v2.
[3] Andrea de Simone, Alan H. Guth, Andrei Linde, Alexander Vilenkin et al., “Boltzmann brains and the scale-factor cutoff measure of the multiverse”, Massachussetts Institute of Technology, 20. August 2010; arXiv:0808.3778v3.
[4] en.wikipedia.org, “Boltzmann brain“.
[5] Andrew Zimmermann Jones, “What Is the Boltzmann Brains Hypothesis?“, ThoughtCo., 25. Mai 2019.
[6] Joe Felsenstein, “Boltzmann Brains and evolution“, The Skeptical Zone, 19. Juni 2016.
[7] Sven Titz, “Entropie“, Welt der Physik, 23. Juli 2013.
[8] Sean Carroll, The Mindscape Podcast, “Episode 31: Brian Greene on the Multiverse, Inflation, and the String Theory Landscape”, Transscript, 28. Januar 2019.
[9] en.wikipedia.org, “Inflation (cosmology)“.
Boltzmann-Gehirne sind nach dem österreichischen Physiker Ludwig Boltzmann (1844-1906) benannt, der sich mit Thermodynamik und Kosmologie beschäftigt hatte; allerdings sind sie keine Idee von Boltzmann selbst. Boltzmann fragte sich, warum nicht einfach “Nichts” ist, wie das Universum entstanden sein könnte. Zu seiner Zeit wusste man noch nichts vom Urknall, der Expansion des Universums und der Dunklen Energie; was man allerdings wusste war, dass die Entropie des Universums steigen muss. Und dies macht es unlogisch, dass ein strukturiertes Universum mit Sternen, Planeten und sogar intelligentem Leben überhaupt entstehen konnte.
Die Entropie ist ein Maß für die “Unordnung” eines physikalischen Systems. Man denke sich beispielsweise ein aufgeräumtes Zimmer mit Spielzeugen in Kisten und Süssigkeiten in Schubladen, in welches man eine Horde Vorschulkinder als Quelle zufälliger Veränderungen hinein lässt. Erwartungsgemäß wird man bei einer Inspektion des Zimmers nach einer gewissen Zeit ein ziemlich unordentliches Zimmer mit auf dem Boden verteiltem Spielzeug, geplünderten Schubladen, aufgerissenen Süssigkeitentüten etc. vorfinden.
Vereinfacht betrachtet ist die von Boltzmann definierte Entropie als Maß der Unordnung eines Zustands proportional zur Länge der Zifferndarstellung, die wir benötigen, alle möglichen Anordnungen der Teilchen abzuzählen, die gleichwertig dem gleichen Zustand entsprechen. Da es eine sehr große Zahl von Anordnungen gibt, wie Spielzeuge, Süssigkeiten, Möbel etc. im Zimmer verteilt sein können, von denen wir aber nur einen verschwindend kleinen Teil gleichwertig als “aufgeräumt” bezeichnen würden, ist die Entropie eines aufgeräumten Zustands viel kleiner als die eines unaufgeräumten, dem sehr viel mehr mögliche Anordnungen entsprechen. Da es viel mehr unaufgeräumte Zustände als aufgeräumte gibt, ist die Wahrscheinlichkeit sehr viel größer, dass eine zufällige Störung eines aufgeräumten Zustands zu einem weniger aufgeräumten Folgezustand führt, als etwa zu einem noch aufgeräumteren.
Die Entropie muss also statistisch gesehen steigen – das ist der berühmte zweite Hauptsatz der Thermodynamik, der somit allein aus statistischen Überlegungen folgt. Das klassische Beispiel für die steigende Entropie in der Thermodynamik ist das einer Gasflasche, in der sich ein komprimiertes Gas befindet. Das Gas hat darin eine sehr große Zahl möglicher Anordnungen der Gasmoleküle, die aber alle gleichwertig dem Zustand “in der Flasche komprimiert” entsprechen. Öffnet man die Flasche, so werden Teilchen aus dem Behälter entweichen und im Zimmer sehr viel mehr Platz vorfinden, als vorher in der Flasche. Daher gibt es sehr viel mehr Möglichkeiten, das Gas im Raum zu verteilen, die alle gleichwertig dem Zustand “im Zimmer verteilt” entsprechen, als es Möglichkeiten gibt, das Gas in der Flasche zu verteilen. Folglich wird das Gas sich munter im Raum verteilen und nicht im Traum daran denken, in die Flasche zurückzukehren. Die Entropie des im Raum verteilten Gases ist größer als die des Gases in der Flasche.
Entropie hat auch etwas mit Wärme zu tun. Wer schon einmal einen Fahrradreifen mit einer Handpumpe aufgepumpt hat weiß, dass das Gas beim Verdichten warm wird – es ist die Arbeit, die man beim Pumpen gegen den Gasdruck leistet, die das Gas erwärmt. Dank guter Isolation ohne Wärmeverlust (adiabatisch, wie der Physiker sagt) ist der Prozess umkehrbar (reversibel), etwa bei einem luftgefüllten Stoßdämpfer, der unter Belastung zusammengedrückt wird und sich dann wieder auf die ursprüngliche Größe ausdehnt. Da das Gas auf kleinerem Raum zusammengedrängt weniger Anordnungen hat als das expandierte, sollte man mit obigem meinen, die Entropie des zusammengedrückten Stoßdämpfers sei kleiner als im ausgedehnten Zustand. Das kann aber nicht stimmen, weil die Entropie in einem abgeschlossenen System nicht abnehmen darf – da sie nach wieder erfolgter Ausdehnung des Stoßdämpfers so groß ist wie zuvor, muss sie die ganze Zeit gleich geblieben sein. Und daher muss sie im komprimierten Zustand in der Temperatur des erwärmten Gases gesteckt haben. Auch die Temperatur trägt also zur Entropie bei und der Unordnungsbegriff alleine greift zu kurz.
Dies erklärt dann auch, wie das Gas in eine Druckflasche kommt, ohne den 2. Hauptsatz zu verletzen – man muss nur das betrachtete System groß genug wählen. Das Gas wurde beispielsweise von einem Kompressor angesaugt und verdichtet. Eine Möglichkeit, einen Kompressor anzutreiben, ist ein Dieselmotor, der in einem Zylinder Diesel mit Luft verbrennt, wobei jede Menge Wärme und ein bisschen mechanische Energie entsteht, mit der man beispielsweise den Verdichter (im Prinzip eine Art Propeller) im Kompressor antreiben kann, der das Gas in die Flasche pumpt. Die mechanische Energie des Verdichters erwärmt das komprimierte Gas, so dass dessen Entropie zunächst noch gar nicht abnimmt. Da es die Wärme aber über die Leitung durch die Behälterwand an die umgebende Luft abgibt, deren Entropie dadurch steigt, kann die Entropie des Gases in der Flasche sinken. Am Ende hat man sich das Sinken der Entropie des Gases in der Flasche mit einem gehörigen Entropieanstieg der Umgebung erkauft, der in der Wärme der Verbrennungsabgase und der aus der Flasche abgeflossenen Wärme steckt. Wählt man ein hinreichend großes Volumen als abgeschlossenes System um Kompressor und Flasche, außerhalb dessen (kurzfristig) keine Erwärmung zu messen ist, so ist in diesem Volumen die Entropie insgesamt bestenfalls gleich geblieben (nicht wirklich, der Diesel kam zuvor von außen). Und das liegt nicht am Dieselmotor, sondern das gilt grundsätzlich – ein Elektromotor braucht Strom aus dem Kraftwerk, das entweder Wärme erzeugt oder Wind oder Sonnenenergie nutzt – und die Sonne ist dann gezwungenermaßen ein Teil des betrachteten abgeschlossenen Systems.
Und woher stammt die Energie der Sonne? Wir wissen heute, dass die Energie der Sonne durch Kernfusion von Wasserstoff in ihrem Inneren entsteht. Der Wasserstoff wurde gezündet, weil beim Kollaps der kosmischen Gaswolke aus der die Sonne entstand in deren Innerem die Kompression unter dem Eigengewicht des Gases Druck und Temperatur bis zur Zündung der Fusion erhöhten. Die kollabierende Wolke musste sich erwärmen, um die Entropie zu erhalten und strahlte einen Teil der Wärme als elektromagnetische Strahlung in den leeren Raum ab, dessen Entropie dadurch stieg. Nur die (adiabatische!) Expansion des Universums sorgte dafür, dass die Temperatur insgesamt fallen konnte. Durch eine insgesamt ansteigende Entropie konnte lokal die Entropie sinken und strukturierte Objekte wie Sterne, Planeten und schließlich denkende Gehirne entstehen. Wir verdanken unsere Existenz als denkende Wesen also der Tatsache, dass das Universum in einem sehr geordneten Zustand begann, während es wuchs und so trotz frei werdender Wärmestrahlung insgesamt abkühlen konnte. Wir leben buchstäblich davon, dass die Entropie steigt. Irgendwie faszinierend.
Oder auch nicht. Boltzmann ersann nämlich eine alternative Möglichkeit, wie das Universum entstanden sein könnte, weil schwer zu erklären ist, woher das Entropiegefälle stammt, wenn man wie damals üblich von einem ewig existierenden Universum ausgeht. Gegeben hinreichend viel Zeit wird die Entropie gegen ein Maximum streben und dann um dieses herum fluktuieren – so wie sich das aus der Druckflasche entlassene Gas gleichmäßig im Zimmer verteilen wird, aber niemals perfekt homogen, sondern es wird zufällige Verdichtungen und Verdünnungen geben, weil alle Teilchen sich in zufälliger Bewegung befinden. Und wenn man lange genug wartet, können diese Verdichtungen auch sehr groß werden, sich z.B. das gesamte Gas in einer Hälfte des Zimmers sammeln. Oder im Volumen einer Druckgasflasche. Zwar würde das bisherige Alter des Universums dafür bei weitem nicht reichen, aber mit viel, sehr viel Zeit treten auch unwahrscheinliche Ereignisse irgendwann einmal zuverlässig ein. Egal wie klein ihre Wahrscheinlichkeit ist, es ist nur eine Frage der Zeit. Mit unendlicher Zeit sogar unendlich oft.
Deswegen, folgerte Boltzmann, könne mit unendlich viel Zeit ein Haufen Teilchen auch ganz zufällig ein Universum spontan entstehen lassen, ein Boltzmann-Universum. Und nur wenn es denkende, reflektierende Gehirne hervor brächte, könnten die sich, wie wir jetzt, Gedanken darüber machen, warum das Universum existiert. Dann bräuchte es keinen Anfangszustand niedriger Entropie gegeben zu haben. Nur ein Vakuum im thermodynamischen Gleichgewichtszustand maximaler Entropie, das nach sehr, sehr langer, also wirklich extrem langer, völlig unvorstellbar langer Zeit zufällig aus einer Dichteschwankung entstand. Das ist zwar der weitaus langsamere Weg zu einen Universum, aber zugleich der – langfristig – sicherere.
Kritiker entgegneten jedoch alsbald, es bräuchte doch kein spontan entstandenes Universum mit hunderten Milliarden Galaxien und Trillionen von Sternen, um reflektierende Gehirne auf diese Weise zu beherbergen – es reichte doch eine einzige Galaxie, die würde doch viel wahrscheinlicher und damit früher und häufiger als gleich ein ganzes Universum entstehen. Und warum 100 Milliarden Sterne einer Galaxie, warum nicht nur einer, das würde doch noch viel öfter passieren? Ja, und warum überhaupt ein Stern, warum nicht einfach nur ein Gehirn, komplett mit (eingebildeten) Wahrnehmungen und (falschen) Erinnerungen, das sich für einen kurzen Moment einbildet, in einem expandierenden Universum voller Sterne zu leben und umgeben von zahlreichen Zeitgenossen zu sein. Absurd? Eine reductio ad absurdum – eine Reduktion auf das Absurde. Könnte man meinen.
Nun sieht es derzeit so aus, als ob die Dunkle Energie dafür sorgt, dass sich unser Universum ewig ausdehnen wird. Alle Sterne werden irgendwann verlöschen und auskühlen. Schwarze Löcher werden durch Hawking-Strahlung schrumpfen und letztlich zu Strahlung werden. Vielleicht zerfallen auch die Teilchen, aus denen die ausgekühlten Sterne und Planeten bestehen und alles was bleibt sind ein paar einsame Elementarteilchen in einem unermesslich großen, kalten, dunklen Raum, in dem nie mehr etwas passiert.
Nie mehr? Nicht ganz: Es wäre genau in jenem thermodynamischen Gleichgewichtszustand, aus dem in unermesslich langen Zeiträumen aus Schwankungen des Vakuumgrundzustands Elementarteilchen, Moleküle oder auch ganze Boltzmannhirne entstehen würden. Eines so etwa alle 101050 Jahre – das ist eine Eins mit 1050 Nullen! Wenn jede Null einen kleinen Würfel mit 5 mm Seitenlänge beanspruchte, könnte man das beobachtbare Universum mit den Nullen gut auffüllen. Wobei jede einzelne Null die Zahl um jeweils einen Faktor zehn vergrößert, das muss man sich auf der Zunge zergehen lassen.
Und weil der Raum so groß wäre und die Ewigkeit so unendlich viel länger als 101050 Jahre dauert, würde das nicht nur einmal oder ein paarmal passieren, sondern unendlich oft. Die Zeit und der Raum* der Phase von steigender Entropie, die unsere (mutmaßliche!) Evolution speisten, wären hingegen beschränkt, und damit könnten durch Entopiezunahme im endlichen Volumen und endlicher Zeit sehr viele, aber dennoch nur eine endliche Zahl “biologische Gehirne” entstehen. Die Zahl der Boltzmann-Gehirne in der unendlichen Geschichte unseres offenen Universums würde also die Zahl der biologischen Gehirne ums Unermessliche übersteigen! Wenn man berücksichtigt, dass ein Boltzmann-Gehirn nicht unterscheiden kann, ob es ein biologisches Hirn ist oder nicht, so müsste man als zufällig ausgewähltes denkendes Bewusstsein mit statistisch großer Konfidenz davon ausgehen, dass man nur das flüchtige Hirngespinst eines Boltzmann-Hirns ist. Und zwar nur man selbst, ganz alleine – diese Zeilen hier und der Schreiber wären nur eine kurzfristige Illusion. Wie auch alles andere in der Umgebung und der Erinnerung. Das muss man jetzt zunächst einmal sacken lassen.
Ob diese Schlussfolgerung nun unausweichlich ist oder es doch Hintertürchen gibt, schauen wir uns im zweiten Teil des Artikels an. Gleich vorweg: es gibt sie. Und sie haben es in sich…
Was die Entdeckung etwas beunruhigend macht, ist das Datum des engsten Vorbeiflugs: 25.07.2019 um 00:47 UTC – keinen Tag nach der ersten Beobachtung und 2 ½ Stunden nach der Bekanntmachung!
Der deutlich kleinere Tscheljabinsk-Meteorit (ca. 20 m; vom Volumen her im Größenverhältnis ca. eines Prozents) war deshalb nicht vorher entdeckt worden, weil er aus der Richtung der Sonne kam, d.h. von der Tagseite her und von der Rückseite beleuchtet quasi als schmale Sichel, aber das war bei 2019 OK absolut nicht der Fall. Bei der Entdeckung hatte 2019 OK einen Phasenwinkel von 9,3° – das ist der Winkel zwischen den Sichtlinien zu Erde und Sonne aus der Sicht des jeweiligen Objekts, und dieser Winkel ist 180°, wenn die Erde vom Objekt aus gesehen gegenüber der Sonne steht und somit das Objekt aus Sicht der Erde vor der Sonne, bzw. 0°, wenn vom Objekt aus gesehen die Erde in Richtung der Sonne steht und sich das Objekt folglich von der Erde aus gesehen gegenüber der Sonne befindet. Der Asteroid war somit fast voll beleuchtet, einen Tag vor der nächsten Annäherung, groß wie ein Fußballfeld, 2,2 Millionen km entfernt und von 14,7. Größenklasse (ca. eine Größenklasse oder einen Faktor 2,5 lichtschwächer als der Planet Pluto). Groß genug, dass er von einem Amateurfernrohr aufgespürt worden sein könnte.
Was heißt könnte – er wurde! Von einem Celestron RASA f/2,22 Astrographen mit 28 cm Spiegeldurchmesser bestückt mit einer FLI ML16803-CCD-Kamera auf einer Paramount-Montierung. Mit fast 40 k€ kein eben billiges Equipment, aber ein Schnäppchen im Vergleich zu einer millionenteueren Profi-Sternwarte. Dieses Gerät steht neben einem 18-Zoll (457 mm) f/2,9 Selbstbau-Spiegelteleskop in einer Baracke 2 km entfernt von Oliveira in Brasilien [6], einem kleinen ländlichen Ort 125 km südwestlich von Belo Horizonte und 300 km nordwestlich von Rio de Janeiro. Die kleine Sternwarte wurde 2013 von einer Gruppe von Amateurastronomen gebaut, darunter einige Bergleute aus Belo Horizonte. Die Teleskope werden über das Internet ferngesteuert, der 18-Zöller erreicht bis zu 20. Größenklasse (373000 mal schwächer als das menschliche Auge) und die beiden sind die ganze Nacht im Einsatz. Die von den Teleskopen aufgenommenen Bilder werden mittels Software auf Differenzen gescannt, die auf ein bewegtes Objekt hindeuten könnten, und die Auswahl wird anschließend manuell gesichtet, um Reflexionen, veränderliche Sterne oder bereits bekannte Objekte auszufiltern.
Nur einen Monat nach der Inbetriebnahme machte das Team seine erste Entdeckung, den Kometen C/2014 A4 SONEAR, zugleich der erste Komet überhaupt, der von Brasilianern entdeckt wurde. Und nun also 2019 OK.
9h später fand auch der All-Sky Automated Survey for Supernovae (ASAS-SN) den Asteroiden, sogar mit einem 14-cm-Linsenfernrohr. Nach der Identifizierung der beiden Beobachtungen als dasselbe Objekt konnten durch Rückrechnung der Bahn weitere frühere Aufnahmen ausfindig gemacht werden, so vom 50 cm ATLAS-(Asteroid Terrestrial-impact Last Alert System)-Teleskop auf dem Berg Haleakala auf Maui/Hawaii am 21. Juli, zu dieser Zeit noch bei 17. Größe. Tatsächlich war der Asteroid jedoch bereits am 28. Juni 2019 vom 1,8-m-Spiegel des Pan-STARRS-1-Teleskops, ebenfalls auf dem Haleakala auf Hawaii installiert, aufgenommen worden. Da hatte der Asteroid noch fast 23. Größenklasse – sechsmillionen Mal schwächer als mit dem bloßen Auge sichtbar und an der Grenze der Empfindlichkeit des Teleskops (22,7m). Anscheinend wurde der sich nähernde und damit heller werdende Asteroid danach gar nicht mehr von Pan-STARRS erfasst.
Aufgrund des nun bekannten Bahnabschnitts der Asteroidenbahn von einem Monat konnten die Bahnparameter ermittelt werden. Bei dem Objekt handelt es sich – zum Mondlandungsjubiläum passsenderweise – um einen Apollo-Asteroiden, das sind solche Asteroiden, die die Erdbahn von außen kreuzen (d.h. ihre große Bahnhalbachse ist größer als 1 AE und ihr sonnennächster Punkt, das Perihel näher als der sonnenfernste der Erde, ihr Aphel bei 1,017 AE). Die große Bahnhalbachse von 2019 OK liegt bei 1,948 AE und sein Perihel liegt bei 0,4635 AE. Damit bewegt er sich zwischen den Bahnen des Merkur und des Jupiters.
Dies zeigt, dass noch einiges an Arbeit zu leisten ist, bis ein Großteil der Near Earth Asteroids (NEAs), also der Asteroiden, die der Erde nahe kommen können, entdeckt ist. Die amerikanische Regierung hatte sich 2005 zum Ziel gesetzt und die NASA damit beauftragt, bis 2020 90% aller NEAs von mehr als 140 m Durchmesser zu entdecken (diese hätten eine Einschlageenergie von ca. 50 Megatonnen TNT, vergleichbar mit der größten je gezündeten Wasserstoffbombe, der russischen Zar-Bombe). Davon sind wir 2019 allerdings noch weit entfernt: Während wir die großen Objekte von mehr als 10 km Größe fast alle kennen und von den gefährlichen NEAs mit mehr als 1 km Durchmesser immerhin über 80%, sieht es für Objekte von 200 m und weniger ziemlich schlecht aus – mehr als 90% von diesen kennen wir noch nicht, denn wir können sie erst entdecken, wenn sie der Erde zufällig nahe kommen.
Das im Bau befindliche Large Synoptic Survey Telescope LSST soll die Statistik mit 8,4 m Öffnung ab 2022 wesentlich verbessern, wird aber wohl bestenfalls 65% der 140-m-Objekte binnen 12 Jahren aufspüren können [9]. Wenn zusätzlich noch Weltraumteleskope z.B. in der Nähe der Venusbahn mit Blick nach außen eingesetzt würden, könnte man das Ziel, 90% der NEAs über 140 m zu entdecken, jedoch binnen 7-10 Jahren erreichen (Wink mit dem leeren Portemonnaie).
Aber ob wir die Objekte kennen oder nicht – das Risiko eines Einschlags bzw. einer Luftdetonation (Airburst) solch großer Objekte ist sehr klein. Ein Tscheljabinsk-Ereignis ist ca. einmal pro Jahrhundert zu erwarten, eines wie das Tunguska-Ereignis nur alle 1000 Jahre und der Einschlag eines Objekts der 100-m-Klasse nur alle 10.000, und die Zerstörung wäre auf eine Region beschränkt. Man müsste ein ganz blödes Pech haben, wenn es die eigene Region beträfe – zumal 2/3 der Erde unbewohnter Ozean sind, um nicht erst von den unbewohnten Wüsten, Tundren und Polarregionen zu reden. Ein Tag Vorwarnung wäre allerdings denkbar knapp für eine Evakuierung der Einschlagsregion, geschweige denn irgendeine andere denkbare Gegenmaßnahme. Die Damen und Herren Profi-Astronomen mögen sich bitte bemühen, die Vorwarnzeit deutlich zu erhöhen, und sich angesichts heute verfügbarer riesiger Teleskope und Rechenanlagen nicht mehr von den Amateuren die Butter vom Brot nehmen zu lassen.
Am 21. Juli 2019 entdeckte ATLAS Haleakala den auf einer ähnlichen Bahn unterwegs befindlichen Apollo-Asteroiden 2019 DO [2] bei einem Phasenwinkel von nur 4,2°, der mit 77±25 m unwesentlich kleiner als 2019 OK ist und sich nachträglich auf einer Pan-STARRS-Aufnahme bereits vom 5. Juli 2019 fand. Der Asteroid passierte die Erde in relativ sicherer Entfernung von 357.500 km (0,93 Mondentfernungen) am 24. Juli 2019 um 13:31 UTC, 3 Tage nach seiner Entdeckung.
[1] Minor Planet Electronic Circular MPEC 2019-O65, 24. Juli 2019, 22:17 UT.
[2] Minor Planet Electronic Circular MPEC 2019-O43, 22. Juli 2019, 01:03 UT.
[3] JPL Small-Body Database Browser, 2019 OK, 27. Juli 20:19 UT.
[4] de.wikipedia.org, 2019 OK.
[5] Michael J.I. Brown, “An asteroid just buzzed past Earth, and we barely noticed in time“, The Conversation, 25. Juli 2019.
[6] Anna Lúcia Silva, “Astrônomos falam de descoberta de cometa ‘Sonear’ em Oliveira, MG“, G1 Centro-Oeste – MG, 23. Januar 2014.
[7] Teo Blašković , “Asteroid 2019 OK to flyby Earth at 0.19 LD on July 25 – the largest of the year“, The Watchers, 24. Juli 2019.
[8] Teo Blašković , “Asteroid 2019 OD to flyby Earth at 0.93 LD on July 24“, The Watchers, 22. Juli 2019.
[9] Lindley Johnson, Dr. Tom Statler, NASA HQ, “Study on Use of LSST for NEO Detection and Tracking“, 27. Januar 2016.
Collins verrät in seinem Buch, dass er 1969 $17.000 pro Jahr verdient. Das entspricht nach heutiger Kaufkraft ungefähr $118.000 oder 105.000 €. Hinzu kam allerdings noch ein Vertrag mit dem Life-Magazin über 2 Jahre zu $16000/Jahr und Kopf, der in der Öffentlichkeit umstritten war. Collins verteidigt ihn damit, dass sein Privatleben eigentlich niemanden etwas angehe, und wenn er schon die Presse in sein Wohnzimmer lasse, dann sei es fair, dafür auch entlohnt zu werden.
Collins schreibt, dass er nach seiner Bekanntgabe als Crewmitglied allerlei Post vor dem Flug erhalten habe, von Leuten aus dem Raumfahrtprogramm wie von Fremden. Die meisten wollten gerne, dass er Kleinigkeiten für sie mit zum Mond nehme, kleine Schmuckstücke, Münzen, Fähnchen und dergleichen. Einer schickte ihm eine winzige Dose, vielleicht 6 mm lang, in der 50 noch winzigere, aus Elfenbeinstreifen geschnitzte Elefanten enthalten waren, die er später an seine Mitarbeiter verteilen wollte. Jemand aus Israel schickte ihm stapelweise “Infos” über riesige Ameisen, die angeblich den Mond bevölkerten, und auf deren Nestern man ganz sicher nicht landen wolle. Er könne auch genau verraten, wo sich diese befänden. Natürlich nur gegen Bares…
Die Missions-Logos und die Namen der Raumschiffe wurden seit Gemini von den Astronauten selbst entworfen. Mike Collins dachte darüber nach, wie er die friedliche Landung der Amerikaner auf dem Mond am besten versinnbildlichen könne und in einem Gespräch brachte Jim Lovell den amerikanischen Seeadler ein. Collins war sofort elektrisiert, ein landender Adler, und zwar das Wappentier der USA, natürlich! Er blätterte National-Geographic-Hefte durch und fand das Bild eines Seeadlers, der mit teils gefalteten Schwingen und aufgesperrten Klauen zur Landung ansetzte. Er machte eine Skizze des Vogels über einer Kraterlandschaft mit der Erde im Hintergrund, wie man sie von den Apollo-8-Fotos kannte. Zum Zeichen der friedlichen Mission sollte der Vogel nach dem Vorschlag eines Computertechnikers einen Olivenzweig im Schnabel tragen. Der Schriftzug Apollo Eleven sollte statt der Namen der Besatzungsmitglieder den Rand des Insigniums zieren, denn so viele Menschen hatten zu der Mission beigetragen, dass die Astronauten sich ihnen gegenüber nicht herausstellen wollten. Armstrong wandte ein, man verwende statt Eleven lieber Ziffern wie XI oder 11, weil sie international besser verstanden würden. Ein Grafiker fertigte einen Entwurf an, den die Astronauten nach Washington sandten.
Bisher waren alle Entwürfe der Astronauten dort abgenickt worden, aber diesmal nicht. Der Adler sehe mit seinen geöffneten Klauen zu feindlich und kriegerisch aus, man wolle den Mond ja nicht angreifen. Eingefahrene Greife kamen auch nicht in Frage, der Albtraum eines jeden Piloten war die Landung mit eingefahrenem Fahrgestell. Irgendjemand schlug dann vor, den Olivenzweig vom Schnabel in die Klauen zu verschieben, dann blieben diese verschlossen und wirkten nicht mehr bedrohlich. Zwar sah der Adler nach Collins Auffassung nun leicht unbehaglich aus, aber so wurde der Vorschlag eingereicht – und akzeptiert. Collins hoffte, der Adler möge den Zweig vor der Landung noch fallen lassen.
Vom Adler auf dem Missionslogo leitete sich sofort das Funkrufzeichen Eagle der Mondlandefähre ab. Neil und Buzz fanden es angemessen und der Name war über Funk gut zu verstehen. Collins tat sich schwer mit einem Namen für sein Apollo-Raumschiff, und nahm dann dankend den Vorschlag eines NASA-PR-Direktors an, der ihm Columbia vorschlug. Columbia ist einerseits der poetische Name der USA, zum zweiten ähnelt der Name dem des Raumschiffs “Columbiad”, das in Jules Vernes “Reise zum Mond” mit einer Kanone auf denselben geschossen wird, und drittens ist der Name zugleich eine kleine Hommage an Christoph Columbus, der einen neuen Kontinent entdeckte.
Die Landestelle auf dem Mond war weniger wegen ihres geologischen Werts ausgewählt worden, sondern man wollte das Risiko der Landung minimieren, indem man eine möglichst flache, krater- und felsenarme Gegend auswählte. Außerdem musste der Ort nahe dem Mondäquator sein, um den die Columbia kreisen würde, und mit guter Sicht zur Erde, damit der Funkkontakt dorthin optimal wäre. Die Wahl fiel auf die südwestliche Seite des Mare Tranquilitatis, des “Meeres der Ruhe”. Schon bei Apollo 10 war der Anflug auf genau diese Landestelle geübt worden und man hatte sich Landmarken wie bestimmte Krater, eine wellenförmige Rille namens “Sidewinder” und einen Berg, von Jim Lovell nach seiner Frau Marylin benannt, ausgesucht, anhand deren Fotos im Simulator die Landung trainiert wurde.
Dann wünschte man sich bei der Landung, dass die Gegend noch nicht zu lange im Sonnenlicht aufgeheizt war, denn auf dem Mond konnte es 130°C heiß werden, also musste der Startzeitpunkt so gewählt sein, dass man am Morgen des 29-tägigen Mondtages landen würde. Die Sonne sollte dabei im Anflug in Flugrichtung hinter dem landenden Mondmodul stehen, damit sie die Astronauten nicht blendete, und sie sollte nicht zu hoch und nicht zu tief stehen, damit Schatten Oberflächenunebenheiten gut sichtbar machten, aber nicht übertrieben groß erscheinen ließen. So wählte man 10°. Da sich der Sonnenstand pro Erdtag auf dem Mond um 12° änderte, kam nur ein Tag je Monat für die Landung in Frage, und im Juli 1969 war das der 20. Bei 3 Tagen Anflugzeit und einem Tag im Orbit, um alle Systeme noch einmal durchzuchecken, ergab sich der 16 Juli als Starttag.
Die Erdachse (und damit die Äquatorebene) ist gegen die Ebene der Erdbahn geneigt und die des Mondes ebenso. Zur Zeit von Apollo 11 war der Winkel, den die Mondbahn gegen den Äquator geneigt war, ungefähr 29°. Während der Mond die Erde bei seinem Umlauf umkreiste, stieg er auf der einen Seite der Erde bis zu 29° nördlich des Äquators und 2 Wochen später stand er gegenüber 29° südlich des Äquators. In den Zeiten dazwischen befand er sich irgendwo zwischen diesen Breitengraden. Um den Mond am 20. Juli anzutreffen, ergab die Geometrie, dass er zum Startzeitpunkt über 10° Süd stehen würde. Man musste die Bahn und den Startzeitpunkt nun noch so planen, dass nach einem 90-minütigen Parkorbit um die Erde zum Checken aller Systeme die Bahn anschließend genau durch den Punkt auf 10° südlicher Breite verlief, die dem Mond gegenüber stand, denn dort feuerte man die S-IVb-Oberstufe, die das Raumschiff auf den Weg zum Mond schickte. Und die Bahn musste ungefähr in der Ebene der Mondbahn verlaufen. Durch ein wenig Toleranz in Bezug auf die mögliche Richtung des Starts und der Treibstoffreserven zur Korrektur der Bahnneigung konnte man das mögliche Zeitintervall für den Start auf 4,5 Stunden strecken, und dies war das Startfenster für den Mondflug am 16. Juli 1969.
Mit einigen. Die Saturn V bestand aus 5,6 Millionen Teilen. Selbst wenn die Zuverlässigkeit 99,9% betragen hätte, bedeutete dies potenziell immer noch 5600 Defekte, mit denen sich die Astronauten auf dem Flug auseinander zu setzen hatten. Die meisten Systeme waren redundant ausgelegt, z.B. die Turbopumpen der Triebwerke. Trotzdem gab es einige kritische Teile nur einmal, z.B. das Triebwerk des Apollo-Raumschiffs. Wenn es beim Einschwenken in die oder Verlassen der Mondbahn zu kurz gefeuert hätte, wären die Astronauten in einem Orbit um die Sonne gelangt, aus dem sie nur mit sehr viel Glück und Unterstützung aus Houston zurück zur Erde gekommen wären. Hätte es im Mondorbit komplett versagt, wären sie niemals zurück gekommen. Ähnliches gilt für die Aufstiegsstufe des Mondlandemoduls. Von der Abstiegsstufe hätten sie sich im Falle einer Fehlfunktion noch trennen können, aber die Aufstiegsstufe musste sie mindestens bis in einen Orbit bringen, sonst wären sie gestrandet oder gecrasht.
Die Astronauten atmeten während des Fluges reinen Sauerstoff bei 5 psi = 345 Hektopascal (rund ein Drittel des normalen atmosphärischen Drucks). Der Stickstoff in unserer Atemluft ist für unser Überleben belanglos und könnte genau so gut weggelassen werden, dann hätten wir noch etwa 3 psi = 210 Hpa fast reinen Sauerstoffs übrig. Durch den geringeren Druck sparte man überflüssiges Gewicht und die Raumanzüge waren nicht so stark aufgeblasen, was sie steif und unbeweglich gemacht hätte.
Warum aber 5 statt 3 psi? Die Apollo-Kapsel war beim Start zunächst mit einem Gasgemisch bei Normaldruck, 14,7 psi = 1010 Hpa gefüllt. Diese bestand zu 60% aus Sauerstoff und 40% aus Stickstoff. Nach dem Feuer in der Apollo-1-Kapsel vermied man eine reine Sauerstoffatmosphäre. Während des Aufstiegs ließ man das Gas in der Kapsel binnen der ersten Minuten bis zu einem Druck von 5 psi durch ein Ventil entweichen. Für den Übergang von 14,7 psi auf 5 psi brauchte man dann 60% Sauerstoff, da 60% von 5 psi genau die nötigen 3 psi Sauerstoff beinhalteten, so dass die Astronauten die Helme nach dem Start abnehmen konnten. Mit der Zeit wurde die Kapselatmosphäre gegen reinen Sauerstoff ersetzt, wobei man den Druck beibehielt.
Das schnelle Absenken des Drucks von fast 15 auf 5 psi wäre für die Astronauten trotzdem problematisch gewesen, wenn sie vorher normale Luft geatmet hätten, denn unter Druck nimmt das Blut mehr Gas auf, als es bei geringerem Druck halten kann. Ähnlich wie beim zu schnellen Auftauchen beim Drucklufttauchen hätten sich beim Druckabsenken im mit Stickstoff angereicherten Blut Gasbläschen gebildet, die zu Embolien geführt und die Astronauten getötet hätten. Deswegen mussten sie bereits 2 Stunden vor dem Start reinen Sauerstoff atmen, um jeglichen Stickstoff aus dem Körper auszugasen. Deswegen tragen sie beim Einsteigen in den Bus zur Startrampe schon den Helm, und in den Köfferchen sind Sauerstoffflaschen und Pumpen, die sie mit dem Atemgas versorgen. Der Wechsel in eine Atmosphäre mit 40% Stickstoff nach dem Druckabsenken in der Kabine bedeutete dann kein Problem mehr, weil der Druck im Helm vorher langsam abgesenkt worden war.
Dennoch hatte Collins vor allem bei seinem Gemini-10-Flug und in geringerem Maße bei Apollo 11 am ersten Tag vorübergehend Schmerzen im Knie, die wahrscheinlich von einer kleinen Embolie herrührten. Stickstoff hält sich im Gewebe der Gelenke wohl besonders hartnäckig.
Der Start der Apollo 11 wurden von 201 NASA-Kameras verfolgt, darunter 119 zur technischen Überwachung, zum Beispiel für die Rekonstruktion der Ursache nach einem möglichen Unglück. Zu den bekanntesten Aufnahmen gehören die der Kamera E8, die auf Höhe des Starttischs die vorbeifliegenden Triebwerke mit 500 Bildern pro Sekunde auf 16 mm Film aufnahm. Der Abgasstrahl der Saturn V hatte eine Temperatur von 3000 K (3300 °C), keine Kamera hätte das überstanden. Wie gelangen die Aufnahmen?
Die Kamera selbst befand sich nicht auf dem Starttisch, sondern außerhalb des Feuerstrahls. Sie filmte die Triebwerke über einen besonders hitzebeständigen Quarzspiegel. Zusätzlich war sie durch ein ablatives Material geschützt, dass in der Hitze verdampfte und die Wärme abführte, ganz ähnlich dem Hitzeschild unter der Apollo Kapsel. Von Apollo 8 gibt es ähnliche Aufnahmen von der Triebwerkszündung aus der Sicht des Ableitungskanals für die Abgase unterhalb des Starttischs – hier wurden die Kameras in den Beton eingelassen und von einem Stahlzylinder geschützt, der mit einem extra für diesen Zweck von Corning Glass entwickelten Schutzglas versehen waren, das Temperaturen wie auf der Sonne aushalten konnte. Eines der vielen Nebenprodukte, die das Apollo-Projekt hervorbrachte (Teflon gehörte übrigens nicht dazu).
Collins beobachtete den Start der ersten unbemannten Saturn V aus 6 km Entfernung – zunächst stieg sie lautlos auf, weil der Schall ihn erst nach mehr als 15 Sekunden erreichte, aber dann erfasste ihn das Donnern regelrecht, er fühlte es von den Zehen bis zum Kopf und er spürte den Boden beben. Der Schall soll Vögel töten, die ihm zu nahe kommen. Gemessen wurden ca. 205 dB. Die Dezibel-Skala ist logarithmisch, 3 dB bedeuten eine Verdopplung der Lautstärke. Für eine halb so große Entfernung steigt der Schalldruck um den Faktor 4 = 6 dB. 90 dB Dauerschall kann Schäden am Gehör verursachen – die Saturn V hatte diese Lautstärke in ca. 9 km Entfernung. 125 dB sind die Schmerzgrenze des Gehörs, diese Lautstärke wurde in 1,5 km Entfernung erreicht; dies entspricht einer mechanischen Energie von 100 W/m². In weniger als einigen 100 m Entfernung würde es einem Menschen bei ca. 180 dB die Trommelfelle zerreissen. Der Schall war so laut, dass der Beton der Startrampe hätte Schaden nehmen können. Um ihn zu schützen, wurden riesige Mengen Wasser unter den Starttisch gesprüht.
Der Lärm erreichte die Astronauten stark abgeschwächt durch die Kapselwände und die Helme, aber er war laut. Zu Beginn schien die Rakete zu schwanken, weil ihre Triebwerke sich bewegten, um sie wie einen Bleistift auf der Fingerspitze zu balancieren, was man am gegenüber liegenden Ende am stärksten spürte. Und die Rakete vibrierte sehr stark, so stark, dass die Instrumententafel unscharf erschien. Frank Borman hatte bei Apollo 8 die Hand vom Abbruchhebel genommen, weil er befürchtete, ihn aus Versehen auszulösen. Die Beschleunigung ist zuerst sanft, kaum spürbar. Während jedes der 5 Triebwerke der Rakete pro Sekunde 3 Tonnen Treibstoff ausstößt, wird sie binnen der 2,5 Minuten Brenndauer der ersten Stufe um 2000 Tonnen leichter, so dass die Beschleunigung allmählich auf mehr als 4 G zunimmt. Die Stufentrennung fühlt sich wie eine Explosion an, die Triebwerke verstummen abrupt und die Astronauten fliegen beim Sprung von fast 4,5 G auf 0 G nach vorn in die Gurte. Nach ca. 5 Sekunden zünden die Triebwerke der zweiten Stufe und drücken sie wieder sanft in die Sitze. Nach 11 Minuten 42 Sekunden hat die dritte Stufe sie in den Orbit befördert und sie sind schwerelos.
Um das Schwerefeld der Erde zu verlassen, musste die S-IVb-Oberstufe das Apollo-Raumschiff auf fast 11,2 km/s beschleunigen, knapp unterhalb der Fluchtgeschwindigkeit der Erde. Bei einer Entfernung von knapp 400.000 km hätte man den Mond bei konstant dieser Geschwindigkeit in 10 h erreicht. Warum dauerte es drei Tage? Weil die Geschwindigkeit mit dem Augenblick des Ausschaltens des Triebwerks der 3. Stufe nach dem Mondeinschuss (Trans Lunar Injection, TLI) sofort zu fallen beginnt, denn das Raumschiff befindet sich im freien Fall und wie ein nach oben geworfener Stein verlangsamt es sich mit zunehmender Höhe bzw. Entfernung von der Erde. Die Geschwindigkeit fällt schon auf den ersten 18.000 km auf den halben Wert und fällt danach weiter, bis in etwa 345000 km Entfernung auf 900 m/s. Danach steigt sie durch die zunehmende Schwerkraft des Mondes wieder auf 2300 m/s an.
Während des Flugs zum Mond war das Apollo-Raumschiff seitlich zur Sonne orientiert (und hatte auch die Erde zur einen Seite und den Mond gegenüber). Sie war dabei in langsame Rotation versetzt (3 Umdrehungen pro Stunde), damit die Wärme vergleichbar mit einem Hähnchen auf dem Drehspieß gleichmäßig über die Oberfläche verteilt wurde, so dass sich das Raumschiff nicht einseitig stark aufheizen und auf der Gegenseite einfrieren würde. Das Sonnenlicht schien sehr hell in die Kapsel, so hell, dass keine Sterne am Himmel zu sehen waren. Damit sie besser schlafen konnten, schraubten die Astronauten Platten vor die 5 Fenster, um sie zu verdunkeln. Ein Astronaut schlief auf einem der Sitze, die beiden anderen hatten dünne Leinenschlafsäcke unten an der Außenseite der Kapsel im Freiraum unter den Sitzen.
Auch auf dem Mond musste geschlafen werden. Armstrong schlief in einer Hängematte, Aldrin auf dem Boden der Mondlandefähre.
Collins schwärmt beinahe vom Astronautenessen. Zwar musste man alle Nahrung aus Tüten saugen, die man zuvor mit nicht wirklich heißem Wasser füllen und durchkneten musste (auch Kaffee mit Milch und Zucker), aber über die Hühnercremesuppe kann er nichts wirklich Schlechtes sagen und gibt ihr 3 von 5 Löffeln, dem Lachssalat gar 4.
Das Trinkwasser gewann man aus den Brennstoffzellen, in denen Wasserstoff mit Sauerstoff zu Wasser reagierte, wobei Strom erzeugt wurde. Die Reaktion war wohl nicht 100% effizient und so war im Wasser noch ein Rest von Wasserstoffbläschen gelöst, der für schlechte Luft in der Kapsel sorgte, die Collins gemäß am Ende der Mission nach einer Mischung aus “nassem Hund und Sumpfgas” roch. Man war froh, nach der Landung im Pazifik die Luke öffnen zu können.
Urin und die übrigen Exkremente wurden in getrennten Tüten aufgefangen. Der Urin wurde regelmäßig über ein Entlüftungssystem nach außen abgelassen, wo die kleinen Tropfen gefroren und im Sonnenlicht wie Sterne blinkten – “Das Sternbild Urinon”, wie Apollo-7-Astronaut Wally Schirra es treffend beschrieb. Deswegen durfte nach einem Urin-Ablass zehn Minuten lang nicht mit dem Sextanten (s.u.) gemessen werden – es hätten Urintropfen mit Sternen verwechselt werden können!
Was die anderen Abfälle betraf, die wurden an Bord in einem Abfallbehälter gesammelt. Wie das vor sich ging, ist auf dieser Seite der NASA beschrieben.
[…] das Fäkaliensammelsystem wurde wie folgt eingesetzt. Das Fingerlager wurde verwendet, um den Fäkalienbeutel über den Anus zu legen. Das Fingerlager wurde nach dem Stuhlgang verwendet, um Fäkalien aus dem Analbereich zu separieren und zum Boden des Beutels zu schieben. Der Beutel wurde dann vom Gesäß entfernt, und der Anus wurde mit Reinigungstüchern gereinigt. Diese wurden in den Fäkalienbeutel entsorgt. Der Benutzer entnahm dann ein aus zwei ineinander liegenden Taschen bestehendes Säckchen mit einer keimtötenden Flüssigkeit und legte es nach dem Abschneiden einer Ecke der äußeren Tasche des Säckchens in den Fäkalienbeutel. Der Beutel wurde dann versiegelt. Die keimtötende Flüssigkeit war eine Mischung aus Natriumorthophenylphenol und Natriumchlorophenylphenol. Der Beutel wurde geknetet, um die Innentasche des Germizidsäckchens zu zerreißen und das Germizid mit den Abfällen zu mischen. Der Fäkalienbeutel wurde dann in einen umhüllenden Außenbeutel gesteckt, welcher auf das kleinstmögliche Volumen gerollt und dann in den Abfallbehälter gelegt wurde. […] Für spätere Apollo-Missionen war das Volumen des Abfallbehälters unzureichend. Daher wurde für zusätzliches Volumen bei der Entsorgung von Fäkalienbeuteln ein zusätzlicher Abfallverstaubeutel vorgesehen. Beide Abfallbehältnisse konnten bei Überdruck die im Kot entstehenden Gase entlüften.
Natürlich wurde die Position des Raumschiffs von der Erde aus verfolgt und ein Lageregelungssystem wachte über die Ausrichtung des Raumschiffs, aber trotzdem kontrollierte man die Orientierung desselben mittels eines Sextanten. Das ist ein aus der Seefahrt bekanntes Gerät, mit dem man Winkel zwischen zwei Objekten messen kann, etwa Sonne und Horizont. Collins musste ca. 80 Sterne erkennen lernen, die er am Himmel mit dem Sextanten finden und deren Winkel gegen den Horizont von Erde oder Mond oder markanten Punkten auf dem Mond er messen können musste. Die Positionen gab er dann in den Computer ein, der daraufhin das Lageregelungssystem neu kalibrierte.
Allerdings handelte es sich bei dem Sextanten nicht wie auf Schiffen um ein in der Hand gehaltenes Gerät, sondern es war im Raumschiff verbaut und besaß ein Fernrohr mit 26-facher Vergrößerung. Damit konnte Collins Winkel bis auf 0,01° (0,6 Bogenminuten) genau messen.
“That’s one small step for [a] man, one giant leap for mankind” – Dies ist ein kleiner Schritt für einen Menschen, aber ein riesiger Sprung für die Menschheit. Armstrong hatte sich diesen Satz höchstpersönlich selbst überlegt. Man hatte ihm zuvor allerdings nahe gelegt, sich einen schlauen Spruch für einen der denkwürdigsten Momente der Geschichte zu überlegen. Er hatte den Spruch vorher niemandem verraten, auch nicht seiner Besatzung, nicht einmal während des Flugs. Michael Collins war sehr gespannt darauf, was Neil sagen würde (er hörte über Funk mit).
Über das, was er dann genau gesagt hat, gibt es seitdem eine Kontroverse – sagte er (aus Versehen) “for man” (für die|alle Menschen?) was wenig Sinn ergab, weil die ja schon im zweiten Teil des Satzes vorkamen. Ist das “a” wegen seines Akzents im “man” mit aufgegangen, oder gab es just zu diesem Moment einen kleinen Funkaussetzer, der das Wort verdeckte? Ich denke, er hat das “a” beim Sprechen nur vor Aufregung verschluckt. Was meint Ihr? Der Spruch ist im folgenden Video ab 2:25 zu hören.
Die Raumanzüge waren weniger darauf ausgerichtet, dass der Astronaut sich darin frei bewegen konnte, sondern vielmehr darauf, dass er vor Hitze, Kälte, Strahlung und Mikrometeoriten geschützt war. Aufgepumpt mit Luft waren sie steif und unbeweglich, Schritte gegen diesen Widerstand waren mühsam. Aldrin experimentierte mit einigen Fortbewegungstechniken herum und fand, dass das galoppierende Hopsen die kraftsparendste Fortbewegung war. Der Astronaut mit Raumanzug wog auf dem Mond nicht viel, und die Kraft der Knie und Sprunggelenke reichte aus, um weite Sprünge zu machen. Die Beine brauchten kaum bewegt zu werden.
Die Apollo-11-Mission brachte nicht allzu viele wissenschaftliche Geräte auf den Mond, das war bei der ersten Landung zweitrangig.
Zum Einen sammelte man natürlich Steine und hatte Hammer und Greifwerkzeuge mit dabei. Einen kleinen Beutel Staub sammelte Armstrong gleich zu Beginn mit einem Säckchen an einem langen Griff, damit man für den Fall eines vorzeitig nötigen Rückstarts nicht mit leeren Händen nach Hause käme. Die nachfolgend gesammelten Steine wurden dann in zwei Vakuumbehältern verstaut, damit keine Luft sie verändern konnte. Sie wurden auf der Erde auch erst wieder im Vakuum geöffnet.
Weiterhin nahm man Bodenproben mit Hohlröhren (drive tubes), die per Hammer in den Mondboden geschlagen wurden. Tiefer als 20-25 cm gelang das nicht, weil der Boden nur an der Oberfläche pulvrig war, darunter jedoch felshart.
Das Experiment mit dem “meisten Nutzen für das wenigste Geld”, wie die Astronauten meinten, war das Solar Wind Composition Experiment (SWC) der Universität Bern in der Schweiz, zugleich das einzige nicht-amerikanische Experiment der Mission. Dabei handelte es sich einfach um eine auf einem ausklappbaren Gestell aufgespannte Folie aus hochreinem Aluminium, die während der EVA (extravehikulare Aktivität = Außeneinsatz) auf dem Mond aufgestellt und am Ende wieder aufgerollt und eingepackt wurde. Bei Apollo 11 war sie nur 77 Minuten draußen. Auf der Erde untersuchte man dann die Teilchen des Sonnenwinds, die in der Folie stecken geblieben waren.
Das Hauptgerätepaket war das Early Apollo Scientific Experiments Package (EASEP), eine Vorläuferversion des bei den späteren Missionen eingesetzten Apollo Lunar Surface Experiments Package (ALSEP).
Das EASEP bestand aus nur zwei Experimenten (spätere Versionen aus bis zu 6; es gab insgesamt 15 verschiedene Experimente, die bei den einzelnen Missionen in verschiedenen Zusammenstellungen im ALSEP kombiniert wurden). Das eine war ein Retroreflektor, Laser Ranging Retroreflector (LRRR oder LR-3), der aus einer Reihe von Eckenreflektoren bestand, die Licht stets in die gleiche Richtung zurückwerfen, aus der es kommt. Mit einem starken Laserstrahl von der Erde und einem Teleskop dort konnte man nun die Entfernung über die Lichtlaufzeit des Laserpulses auf den Zentimeter genau messen.
Das zweite Experiment war das Passive Seismic Experiment Package (PSEP), ein Seismometer, das Mondbeben messen sollte. Neben natürlichen seismischen Erschütterungen aus dem Mondinneren waren das auch Einschläge von Meteoriten oder bewusst auf den Mond gecrashte Teile des Apolloprogramms, wie die S-IVb-Oberstufen und die Landefähren ab Apollo 12. Ähnlich wie bei der irdischen Seismologie mit Detonationen konnte man so das Mondinnere durch die Echos der Einschläge erkunden. Das PSEP wurde, im Gegensatz zu späteren Modellen, durch eigene Solarzellen betrieben und war autark; spätere ALSEPs hatten zur Stromversorgung aller Geräte eine Radionuklidbatterie dabei. LR-3 ist immer noch im Einsatz, während PSEP nur drei Wochen lang funktionierte.
Als Aldrin als erster der beiden Astronauten zurück in die Landefähre kletterte, muss er wohl mit seinem Rückentornister (Portable Life Support System, PLSS) einen Schalter abgebrochen haben, der nicht beidseitig durch Sicherungsbügel geschützt war. Der Schalter diente dazu, den Stromkreis für das Rückstarttriebwerk zu unterbrechen, damit es nicht vorzeitig ausgelöst werden konnte. Ohne diesen Schalter war kein Rückflug in den Mondorbit und zur Columbia möglich. Als Aldrin dies entdeckte, fragte er bei der Bodenkontrolle nach, ob der Schalter gedrückt oder offen sei. Den offenen Schalter hinein zu drücken, traute er sich zu, aber nicht, ihn zu lösen, wenn er schon gedrückt sei. Von der Erde aus prüfte man den Status des Schalters und versicherte ihm, dass er offen sei und gedrückt werden müsse. Man empfahl ihm, damit zu warten, bis der planmäßige Zeitpunkt gekommen sei. Als es soweit war, gelang es Aldrin, den Schalter mit der Spitze eines Filzstifts zu drücken. Das Triebwerk konnte dann problemlos gestartet werden.
Idealerweise startete die Mondfähre genau zum richtigen Zeitpunkt kurz bevor die Columbia über die Landestelle hinweg zog, um diese im Orbit zu treffen. Es gab eine Reihe von Szenarien, unter denen die beiden sich verpassen konnten, z.B. bei einem Abbruch der Landung oder einem verfrühten bzw. verspäteten Start. Falls die Landefähre genug Treibstoff hatte, konnte sie selbst in einen Orbit unterhalb oder oberhalb der Columbia einschwenken und diese dann überholen (unterhalb) oder sich von ihr einholen lassen (oberhalb), um dann im richtigen Augenblick die Bahn so zu anzuheben bzw. abzusenken, dass sie im höchsten bzw. tiefsten Punkt der Bahn die Columbia treffen würde. Bei Treibstoffknappheit konnte die Columbia ähnliche Manöver fliegen und der Mondlandefähre entgegen kommen. Insgesamt hatte Collins 18 verschiedene Andockmanöver studieren müssen, von denen er einige nicht einmal hatte im Simulator ausprobieren können, und er hoffte sehr, dass es beim Standardanflug blieb, was es dann auch tat. Man wäre dabei auch auf die Hilfe aus Houston angewiesen gewesen, die den Astronauten die richtigen Programme und Daten für die Computer hinaufgefunkt hätte. Die mussten die Astronauten übrigens als Zahlencodes selbst eintippen – Software per Computernetz laden ging damals noch nicht.
Nachdem das Service-Modul die Kapsel (das Kommando-Modul) in den richtigen Einflugwinkel in die Atmosphäre bugsiert hatte, wurde es abgetrennt und das Kommandomodul flog im Batteriebetrieb mit dem Heck voran bei ca. 40.000 km/h in die Atmosphäre hinein. Beim Wiedereintritt steigerte sich die Bremsverzögerung auf bis zu 6,5 G und machte den Astronauten, die lange Zeit gar keine Schwerkraft mehr gespürt hatten, das Atmen schwer, allerdings nur für kurze Zeit.
Dabei wurde die gewaltige Bewegungsenergie der Kapsel an einem verdampfenden Hitzeschild verbraucht und die Kapsel hüllte sich in ein Plasma aus ionisierter Luft, das man im folgenden Video vom Inneren der Kapsel aufgenommen sehen kann. Ab und zu fliegen Funken vom Hitzeschild durch das Bild.
Da ein Plasma wie ein Metall elektrisch leitend ist, schirmte es die Kapsel wie ein metallener Faradayscher Käfig ab und ließ keine Funkwellen durch. Erst nach der Plasmaphase drang der Funk wieder durch und dann wusste man in Houston, dass die kritischste Phase vorbei war. Nun musste nur noch das System aus Überschall-Bremsfallschirm und den drei Hauptschirmen funktionieren, dann waren die Astronauten sicher. In einem Interview verriet Collins vor ein paar Jahren, was für ihn der großartigste Moment der Mission war, vielleicht die Erde als Kugel zu sehen, den Mond aus der Nähe, die Landung am Funk zu verfolgen? Nein! “Der großartigste Moment war, als die Fallschirme aufgingen, denn danach konnte nicht mehr viel schief gehen.”
Die See im Landegebiet war rau, etwa 2 m hoch waren die Wellen, und im ursprünglichen Landegebiet blies sogar ein Sturm, so dass man die Landestelle noch vor dem Wiedereintritt in die Atmosphäre geändert hatte. Schon anderen Astronauten war in der auf dem Meer schaukelnden Kapsel übel geworden, daher nahm die Apollo-11-Crew vorsichtshalber Tabletten gegen Seekrankheit vor dem Wiedereintritt.
Collins hatte mit Armstrong um ein Bier gewettet, dass die Kapsel sich im Wasser nicht überschlagen werde. Dazu musste Buzz beim Aufschlag sofort den Stromunterbrecher für den Fallschirmtrenner drücken und Collins sofort danach den Fallschirm ablösen, da dieser sonst durch den Wind aufgespannt die Kapsel umreißen könnte. Buzz hatte die Hand vor dem Aufsetzen am Schalter, aber der Aufschlag im Wasser war so hart, dass er seinen Arm vom Schalter wegriss – und Armstrong gewann die Wette. Die Astronauten hingen danach 10 Minuten kopfüber, bis aufblasbare Schwimmkörper die Kapsel wieder in die richtige Lage mit der breiten Seite nach unten umgedreht hatten.
Das waren die Biological Isolation Garments (BIGs) zu deutsch die “Biologischen Isolations-Anzüge”. Bei Apollo 11 wollte man es nicht vollkommen ausschließen (obwohl man es für extrem unwahrscheinlich hielt), dass die Astronauten Mikroben mit auf die Erde bringen, gegen die der Mensch möglicherweise keine Abwehrkräfte haben könnte – ähnlich wie bei den Krankheiten, die die spanischen Eroberer nach Südamerika einschleppten, und an denen große Teile der indigenen Bevölkerung starben. Die Wahrscheinlichkeit war zwar sehr klein, aber der potenzielle Schaden sehr groß, daher ging man auf Nummer sicher und entwarf diese Anzüge, die den Schutzanzügen in Biolabors ähnelten und auch über Gasmasken verfügten.
Sobald sich bei der Bergung die Luke öffnete, warf ein Mann des Bergungsteams, der selbst so einen Anzug trug, drei Anzüge in die Kapsel, die die Astronauten anziehen und sich danach gegenseitig mit desinfizierender Flüssigkeit von außen reinigen mussten. Dann erst wurden sie vom Helikopter geborgen. An Bord des Bergungsschiffs Hornet stiegen sie dann in eine Art Wohnwagen ohne Räder um, der Mobile Quarantine Facility (MQF), wo sie die Anzüge ablegen und endlich duschen und sich umziehen durften. Und danach mit Präsident Nixon reden, der mit an Bord der Hornet war. Die MQF wurde danach auf Hawaii an Land gebracht, per LKW zum Flughafen transportiert und danach nach Houston geflogen, wo die Crew von ihrer Familie begrüßt wurde, die sie aber nur durch das Fenster der MQF begrüßen durften. In Houston zogen sie dann in eine deutlich luxuriösere Unterkunft mit mehreren Schlafzimmern und Kantine um: ins Lunar Reception Laboratory, wo sie mit Köchen, Haushältern und sogar einem PR-Mann wohnten, sowie einigen weißen Mäusen, deren Gesundheitszustand ausschlaggebend für ihre Entlassung aus der Quarantäne war. Später zog noch eine Wissenschaftlerin mit ein, die aus Versehen mit Mondgestein in Kontakt gekommen war.
Vom Zeitpunkt des Betretens des Mondes an gerechnet 3 Wochen dauerte die Quarantäne. Da allen danach eine gute Gesundheit bescheinigt wurde und man auch im Mondgestein erwartungsgemäß keine Lebensspuren fand, senkte man die Sicherheitsanforderungen bei den folgenden Flügen. Bei Apollo 12 und 14 gab es nur noch Atemschutz beim Aussteigen und danach verzichtete man komplett auf jegliche Maßnahmen.
Einerseits ja, er hatte die Hoffnung gehabt und sich darüber geärgert, als er vom Pilot einer Mondlandefähre von Apollo 8 auf das Kommandomodul von Apollo 11 umschulen musste, weil man drei flugerfahrene Astronauten auf die Apollo-11-Mission schicken wollte, und der zuerst vorgesehene Kommandomodul-Pilot Fred Haise war ein Neuling. Aber Collins hatte ein Angebot von Deke Slayton, dem Chefastronauten bekommen, Kommandant der Ersatzcrew von Apollo 14 und späterer Kommandant der Primärcrew von Apollo 17 zu werden, was ihn auf die Mondoberfläche gebracht hätte. Er lehnte jedoch noch vor dem Apollo-11-Flug ab. Noch einmal jahrelang trainieren, noch einmal im Training lange getrennt von der Familie zu sein, noch einmal sie der Angst um sein Leben auszusetzen, das wollte er nicht. Er sei halt nicht der Typ wie John Young, der nach zwei Gemini-Flügen, Apollo 10, Apollo 15 mit Betreten des Mondes später auch noch das erste Space Shuttle flog und danach noch einmal mit dem Shuttle startete. Collins, wie auch Armstrong und Aldrin, verließen die NASA nach einer Apollo-11-Welttour und er war letztlich damit zufrieden, einen wichtigen Beitrag zur ersten Mondlandung beigetragen zu haben.
]]>
]]>
Und noch ein Gastartikel, diesmal freundlicherweise von UMa geschrieben, der ein wenig kompensiert, dass ich derzeit aus beruflichem Stress sehr wenig Zeit zum Schreiben finde. Er hat sich für den Autor eines Science-Fiction-Romans einige plausible, wenn auch spekulative Gedanken gemacht, wie es auf einem Planeten in der habitablen Zone eines Roten Zwerges aussehen könnte, und dafür zahlreiche Fachartikel studiert. Rote Zwerge sind der häufigste Sternentyp und wir haben schon eine Reihe von erdgroßen Planeten gefunden, die solche Sterne umkreisen. Die habitable Zone dieser leuchtschwachen Gesellen liegt jedoch so eng beim Stern, dass ein Planet dort binnen weniger Millionen Jahren nach seiner Entstehung in eine gebundene Rotation gezwungen wird, bei der er dem Stern stets die gleiche Seite zuwendet, wie der Erdmond dies bei der Erde tut. Dies bedeutet für eine Hälfte des Planeten ewigen Tag, für die andere ewige Nacht, mit interessanten Konsequenzen für Klima und Bewohnbarkeit solcher Welten. Vielen Dank, UMa!
Dieser Artikel ist für Marc, der einen Roman schreibt, der auf einem gebunden rotierenden Planeten spielen soll. Ursprünglich als Forumspost geplant, ist er etwas länger geworden und Alderamin hat mir freundlicherweise die Möglichkeit eingeräumt, ihn hier als Gastartikel einzustellen.
Hier nun ist mein Versuch, die Frage zu beantworten, wie es auf einem solchen bewohnbaren Planeten aussehen könnte.
Diesen Stern habe ich im Folgenden als “Sonne” bezeichnet. Bei den Lebewesen habe ich mich an das Bekannte von der Erde gehalten, das kann aber natürlich auf anderen Planeten stark abweichen. Ich habe dabei versucht ein für die Bewohner eher günstiges Klima zu beschreiben. Andere Klimate, viel kälter oder viel wärmer, sind natürlich denkbar.
Ein hervorstechendes Merkmal ist natürlich, dass es keinen Tages- und, falls die Rotationsachse senkrecht steht, auch keinen Jahreszyklus gibt. Die “Sonne” steht immer an der gleichen Stelle und es wird keinen Schlaf- oder Aktivitätszyklus der Bewohner geben. Vielleicht werden sie sich nach ihren Tätigkeiten ausruhen und Pausen machen, aber nicht alle gleichzeitig. Vielleicht gibt es auch keinen Schlaf.
Ich werde im Folgenden das Gebiet des Planeten, wo die “Sonne” am höchsten steht, als Zentrum bezeichnen. Ost, West, Nord und Süd sind die normalen Bezeichnungen, bezogen auf das Zentrum.
Es sind natürlich verschiedene Klimate denkbar, abhängig von der Einstrahlung der Sonne, vom Wärmetransport von der Vorder- auf die Rückseite, von der vorhandenen Wassermenge, der Dichte und Zusammensetzung der Atmosphäre usw.
Gehen wir von einer Situation aus, die der hier beschriebenen gleicht. Dabei ist die Wassermenge nicht sehr groß und der größte Teil steckt im riesigen Eisschild auf der Rückseite des Planeten, so dass es keine großen Meere gibt.
Dort, wo die stärkste “Sonnen”-einstrahlung ist, wird die Luft aufsteigen. Dabei wird sie so hoch steigen, dass der Wasserdampf kondensiert, sich Wolken bilden und es regnen wird. Luft strömt dabei zum Zentrum hin. Letztlich wird dadurch das Zentrum sehr feucht werden, umgeben von einer Wüste, wo es trocken ist, weil die Luft, die sich abgeregnet hatte, wieder absinkt.
Das ist ähnlich der Situation auf der Erde, wo in den Tropen in der sogenannten ITC (innertropische Konvergenz) die Luft aufsteigt sich Dichte und hohe Wolken bilden und es einen starken Niederschlag gibt. Nur dass diese Zone auf der Erde in einem Band um den Äquator führt, während auf dem Planeten diese Zone auf das Zentrum hin konzentriert ist.
Die bodennahe Luft wird zum Zentrum hin strömen und dort aufsteigen. Am Boden werden vielleicht Temperaturen von 50°C und mehr erreicht, aber wenn die Luft aufsteigt, kühlt sie ab und der Wasserdampf wird kondensieren und mächtige, hohe Wolken bilden (vermutlich bis in mehr als 30 oder gar 50 km Höhe, also viel höher als in den Tropen der Erde) und es wird auf einem Gebiet von mehr als tausend Kilometern Durchmesser ein sehr starker Niederschlag fallen, vermutlich um ein Vielfaches stärker als in den niederschlagsreichsten Tropen der Erde. Dadurch wird auch der Boden in der Nähe des Zentrums sehr feucht sein mit vielen Seen und Flüssen vielleicht auch kleiner Meeren. Dabei wird immer neues Wasser aus den zentrumsfernen Gebieten durch die bodennahen Winde herangeführt, selbst wenn die Luft dort relativ trocken ist. Weitere Feuchtigkeit nimmt die Luft dann durch die Verdunstung in der feuchten Region nahe des Zentrums auf. Nach dem sie sich abgeregnet hat, strömt die nun sehr trockene Luft in großer Höhe wieder vom Zentrum weg.
Aufgrund der großen Hitze wird es dort aber (wenn man von irdischen Verhältnissen und Lebewesen ausgeht) kein höheres Leben geben, bei Wassertemperaturen von über 50°C. Allerdings gibt es viele Bakterien und andere Kleinstlebewesen, die diese hohen Temperaturen überstehen und dort in der sehr feuchten, heißen Zone des Zentrums ein eigenes Ökosystem bilden.
Rund um das Zentrum schließt sich eine breite, trockene Wüstenzone an, auf die, außerhalb der zentralen Wolkenmassen, die “Sonne” erbarmungslos einprasselt.
Doch werden durch diese Zone Flüsse fließen, ausgehend von großen, überlaufenden Seen des feuchten Zentrums, und bei geeignetem Gefälle auch die Außengebiete jenseits der Wüste erreichen. Vergleichbar damit auf der Erde wäre der Nil, der in den feuchten Tropen entspringt und durch die Wüstenzone nach Norden fließt. Auf der Erde fließt aber das meiste Wasser der feuchten Tropen dort direkt in den Ozean, z.B. durch Amazonas oder Kongo. Auf dem Planeten, ohne große Meere, müssen die gesamten Wassermassen jedoch in gewaltigen Flüssen in die heiße Wüstenregion fließen, die sich rings um das Zentrum gebildet hat. Dort verdunstet ein Großteil des Wassers, manche Flüsse auch ganz, bevor es die Wüstenregion durchflossen hat, und es wird von der zum Zentrum strömenden, bodennahen Luft wieder zum Zentrum gebracht wo es erneut aufsteigen, Wolken bilden und sich abregnen kann.
In den Außenbereichen der Wüste, bevor sie in die gemäßigten Zonen übergeht wo es nicht mehr so heiß ist, werden die dort ankommenden Reste der Flüsse von Vegetationsstreifen umgeben sein. Einzelne Gruppen von Bewohnern könnten sich an diese Flüsse vorwagen, allerdings ist es dort sehr heiß.
Allmählich wird diese Zone von einer heißen Wüste in eine warme Zone mit gelegentlichen Niederschlägen übergehen, die bessere Lebensbedingungen bieten wird.
In der gemäßigten Zone könnte es in feuchteren Gebieten dichte Wälder geben, während in trockeneren Gebieten trockenangepasste Pflanzen wie Gräser vorherrschen könnten. Diese und die warme Zone werden am besten zu Besiedlung geeignet sein, allerdings steht die “Sonne” in der gemäßigten Zone schon recht tief. In dieser Zone wird es, wie auch auf der Erde, viele Wolken geben.
In allen diesen Zonen wird es in Senken auch verschiedene große Seen geben, die entweder von Schmelzwasser des Eisschildes oder eventuell auch von den aus dem Zentrum fließenden großen Flüssen gespeist werden. Seen mit Abfluss werden Süßwasser enthalten, während abflusslose Seen in ariden (die Verdunstung ist größer als der Niederschlag) Gebieten Salzseen sein werden. Insbesondere bei den Schmelzwasserseen des Eisschildes könnte man an die großen Seen Nordamerikas denken.
Schließlich grenzt an die gemäßigte Zone nach außen hin eine zwischen ihr und dem Eisschild gelegene Tundrenzone, in der es für Wälder zu kalt ist und nur spärliche Vegetation herrscht. Die wärmsten Teile könnten noch für Weidetiere herhalten und in Seen und Flüssen könnte es Fische geben, aber ansonsten ist sie weniger zur Besiedlung geeignet. Auch sollte generell der Wind eher kalt vom Eisschild her wehen. Insbesondere steht die “Sonne” dauerhaft tief am Horizont. In der Nähe zum Eisschild ist mit sehr starken, eiskalten Fallwinden zu rechnen, wie sie auf der Erde am Rande der Antarktis vorkommen.
Insgesamt dürfte die von der Temperatur her bewohnbare Zone das Zentrum ringförmig umgebend ca. 2000 bis 2500 Kilometer breit sein und 39000 Kilometer Umfang haben, wenn der Planet den gleichen Durchmesser wie die Erde hat. Das sind 85 Millionen Quadratkilometer, wovon aber noch große Seen oder unbesiedelbare Gebiete abgehen. Die gesamte Fläche wäre also gar nicht so klein.
Die gesamte Rückseite, also die Hälfte des Planeten, bedeckt ein riesiger Eisschild, wo sich in einer Kältefalle der größte Teil des Wassers gesammelt hat. Dieser Teil dürfte den Bewohnern wegen der Unwirtlichkeit unbekannt sein. Dort ist es, außer in der Dämmerungszone am Rand, ewig Nacht. Interessant ist der Vergleich mit Eisschilden (z.B. in Nordamerika) während der letzten Eiszeit, die auch eine Grenze zum Inland hatten, im Unterschied zur Antarktis, wo das Eis im Wesentlichen ins Meer mündet.
Bei Gebirgen ergibt sich, da die “Sonne” am Himmel feststeht, eine “Sonnen”-seite zum Zentrum hin und eine Schattenseite in Gegenrichtung. Da der Wind meist zum Zentrum hin wehen wird, fällt der Regen gewöhnlich auf der Schattenseite. Da höhere Lagen kühler sind, könnte sich die bewohnbare Zone im Gebirge etwas weiter zum Zentrum erstrecken. Allerdings ist die Einteilung der Berge in trockene Sonnenseite und regenreichere Schattenseite eher nachteilig.
Ähnliches ist bei Gebäuden usw. zu beachten. Die “Sonne” steht an der gleichen Stelle, je nach Zone ziemlich tief, und alles, was im Schatten ist, bleibt auch da. Das dürfte sich auch auf die Pflanzen auswirken, die sich zur Sonnenseite hin ausrichten.
Die dunkle Rückseite ist von einem kilometerdicken Eisschild (immerhin die Hälfte des Planeten) bedeckt, hier ist das meiste Wasser gebunden, dafür gibt es keine Ozeane. Eine Art supergroße Antarktis mit vergleichbaren Temperaturen. Obwohl dort nie die “Sonne” scheint, wird durch Winde vom Zentrum aus über den Osten Wärme auf die Rückseite transportiert. Je nach Stärke dieses Wärmetransportes könnte es auch durchaus wärmer als in der Antarktis sein.
Da der Planet, wenn auch langsam, rotiert, ist der Wind nicht zentralsymmetrisch und es gibt Unterschiede zwischen den Himmelsrichtungen vom Zentrum aus. Insgesamt sollte eine Windströmung von West nach Ost der vorherrschenden thermischen Strömung – am Boden zum Zentrum (wie auf der Erde der Passatwind), in großer Höhe vom Zentrum weg – überlagert sein. Außerdem ist die Luftströmung vom Äquator zu den Polen erschwert, wenn auch weitaus weniger als auf der Erde. Daher sollte es folgende Abweichungen von der Symmetrie geben:
Der Nordwesten und Südwesten ist generell kühler und die Zonen liegen etwas näher zum Zentrum. Daher ist dort bei gleicher Temperatur der Sonnenstand höher. Der Westen ist (von topographischen Unterschieden aufgrund des Reliefs abgesehen) auch eher kälter und trockener, außerdem weht dort der Wind stärker vom Eisschild in die gemäßigte Zone.
Im Osten hingegen strömt die Luft ausnahmsweise auch in Bodennähe teilweise vom Zentrum weg. Daher herrscht dort in den kalten Gebieten ein eher warmer Wind und es ist wärmer, als in gleicher Entfernung vom Zentrum in andere Richtungen. Daher liegen die Zonen dort weiter vom Zentrum weg. Außerdem gibt es dort mehr Niederschläge. Die “Sonne” steht dort tiefer als in anderen Richtungen bei gleicher Temperatur. Dort könnte der Eisschild am weitesten vom Zentrum entfernt sein. Daher könnte sich die Tundra dort bis in die Dämmerungszone erstrecken. Dies ist das einzige Gebiet (außer den Eisschilden) wo die Bewohner bis in die Dämmerungszone vordringen könnten, wo die “Sonne” nicht mehr scheint, was natürlich etwas ganz besonderes ist. In allen anderen Gebieten außerhalb des Eisschildes scheint immer die “Sonne”, von Bewölkung abgesehen.
In Zeiten, in denen die Exzentrizität mit etwa 0.01 (siehe unten) groß ist, ist die Tundrenzone im Osten das einzige Gebiet (maximal wenige hundert Kilometer breit und ein paar tausend Kilometer lang), wo durch das Pendeln der Sonne im Jahresrhythmus ein Sonnenauf- und -untergang beobachtet werden kann. Ist die Exzentrizität 0, steht die “Sonne” natürlich still. Das könnte diese Gegend im tiefen Osten zu einer ganz besonderen für die Bewohner der ringförmigen, bewohnbaren Zone machen und starken kulturelle Einfluss haben.
Außerdem sind im Osten die Niederschläge am größten. Auch über dem Rand des Eisschildes fällt viel Schnee und entsprechend ist der Schmelzwasserabfluss groß, wodurch diese Gegend noch feuchter wird. Außerdem könnte es hier Gebirge geben, auf denen es nicht auf der Schattenseite außen, sondern auf der dem Zentrum zugewandten Sonnenseite regnet, günstig für die Bewohner und die Vegetation.
Ob es wirklich insgesamt sehr trocken ist, ist die Frage. Immerhin fehlt der Tagesgang der Temperatur, der zur Kondensation am Boden, zu Bodennebel, Tau oder Reif führen könnte. Daher könnte die Luft selbst möglicherweise gar nicht so trocken sein.
Rote Zwerge sind für starke Eruptionen, Flares, bekannt. Daher sollte der Abstand des Planeten möglichst groß sein und mithin auch die Umlaufzeit und die Helligkeit des roten Zwergsterns. Bei einer Masse von 0.46 Sonnenmassen für den Stern (“Sonne”) ist ein Abstand von 0.138 Astronomischen Einheiten (Abstand Erde-Sonne) plausibel, das ergibt eine Umlaufzeit und damit Tages- und Jahreslänge von 27.6 Erdentagen oder 662 Erdenstunden. Allerdings ist davon bei einer kreisförmigen Umlaufbahn und ohne Neigung der Rotationsachse nichts zu merken. Die “Sonne” steht immer an der gleichen Stelle. Die Zahlen sind ein Beispiel.
Wenn die Bahn aber durch die benachbarten Planeten beeinflusst wird, sollte die Bahn nicht genau kreisförmig bleiben, sondern deren Exzentrizität z.B. zwischen 0.00 und 0.01 schwanken, siehe unten.
Wenn starke Eruptionen in unregelmäßigen Abständen auftreten, kann das natürlich von den Bewohnern bemerkt werden. Man denke an das Carrington-Ereignis, nur viel stärker.
Aufgrund ihrer Nähe wird die “Sonne” größer erscheinen als die Sonne der Erde, etwa dreimal so groß im Durchmesser. Dafür ist sie aber kühler und daher röter als die Sonne der Erde. Die Helligkeit der “Sonne” aus dieser Entfernung ist insgesamt so groß wie die der Sonne der Erde von der Erde aus. Wenn die Bewohner an das Licht ihrer Sonne angepasst sind und das rote Licht gut sehen können, wird ihnen dieses Licht aber völlig normal weiß und nicht rot erscheinen, es sei denn, sie befinden sich in einer äußeren Zone, wo die “Sonne” sehr tief steht.
Man könnte denken, dass auf der Tagseite außer der “Sonne” keine Sterne zu sehen sind und somit keine astronomischen Beobachtungen wie auf der Erde möglich sind. Für die Sterne mag das zutreffen, eventuell könnte man einige wenige helle Sterne so wie Sirius auch am Taghimmel sehen.
Wenn aber weitere Planeten um diesen Stern laufen, erscheinen sie unter Umständen heller als die Venus im Sonnensystem, da sie dem Beobachter näher sind. Ein weiter innen liegender Planet mit einer geringeren Umlaufzeit könnte durchaus 5 Größenklassen heller als die Venus erscheinen und damit auch am Taghimmel sichtbar sein. Außerdem könnte er (wenn etwas größer im Durchmesser als die Erde) etwa 10 mal so groß wie die Venus erscheinen und damit, je nach Position als eine kleine Sichel von einigen Bogenminuten Durchmesser. Nicht so groß wie der Erdmond, aber mit bloßem Auge als Sichel erkennbar.
Eventuell könnten auch ein oder zwei äußere Planeten am Taghimmel beobachtet werden, wenn sie hell genug sind. Ihre Beobachtung ist natürlich am einfachsten, wenn sie einen möglichst großen Winkelabstand von der “Sonne” haben, da sie sonst von dieser überstrahlt werden.
Einen Mond sollte der Planet nicht besitzen. Durch die Nähe zum Stern ist die dem Planeten umgebende für stabile Umlaufbahnen von Monden sehr klein. Dann sind die Gezeitenkräfte sehr groß und das Planet-Mondsystem entwickelt sich sehr schnell. Schließlich wird ihm schon nach wenigen Millionen Jahren durch die “Sonne” soviel Drehimpuls entzogen, dass der Mond auf den Planeten stürzt. Das passiert aber alles noch während der Entstehungszeit des Planeten bevor er abkühlen konnte. Statt des Mondes können die Bewohner die inneren Planeten am Taghimmel beobachten, wenn auch nicht so groß wie wir den Erdmond.
Die Abbremsung wird schon in der Frühzeit des Planeten passiert sein, nicht erst wenn er bewohnt ist. Außerdem würde eine unplausibel schnelle Abbremsung den Planeten stark aufheizen, so dass er wohl unbewohnbar würde.
Statt dessen dürfte die Exzentrizität der Umlaufbahn zwischen 0.00 und 0.01 durch Störungen der Nachbarplaneten über die Jahrtausende (irdische Jahrtausende) variieren. Daher sind im Osten – dort ist es am wärmsten (bei gleichem Abstand vom Zentrum) – in der Tundrenzone Sonnenauf- und -untergänge bei einer Exzentrizität von 0.01 möglich. Dies verursacht eine Änderung der Sonnenposition um wenige Grad, vielleicht um den 2 bis 3-fachen scheinbaren Durchmesser der “Sonne”, auf und ab im Laufe eines Jahres von etwa 662 Erdenstunden.
]]>