SG_LogoDas ist die Transkription einer Folge meines Sternengeschichten-Podcasts. Die Folge gibt es auch als MP3-Download und YouTube-Video. Und den ganzen Podcast findet ihr auch bei Spotify.

Mehr Informationen: [Podcast-Feed][iTunes][Bitlove][Facebook] [Twitter]

Wer den Podcast finanziell unterstützen möchte, kann das hier tun: Mit PayPal, Patreon oder Steady.

Über Bewertungen und Kommentare freue ich mich auf allen Kanälen.

————————————————–
Sternengeschichten Folge 478: Die solare Gravitationslinse

Wenn man etwas über das Universum sagen kann, dann: Es ist sehr, sehr groß und alles ist sehr, sehr weit weg. Das wissen wir natürlich schon länger, aber es macht die Astronomie auch zu einer sehr schwierigen Wissenschaft. Wir wollen ja beobachten, was da draußen abgeht. Aber weil alles so weit weg ist, müssen wir uns auch richtig anstrengen, dort draußen was zu sehen. Sterne beobachten ist vergleichsweise leicht. Dazu muss man nur in einer klaren Nacht nach draußen gehen und zum Himmel schauen. Voilá: Sterne! Wer aber gerne mehr als jede Menge Lichtpunkte sehen will, hat ein Problem.

Natürlich: Sterne sind gigantisch große Objekte. Das nützt uns aber nichts, weil sie eben so verdammt weit weg sind. Bis auf ganz wenige Ausnahme können wir Sterne immer nur als Punkte sehen, nie als ausgedehnte Objekte. Wir können auch – wieder bis auf ganz wenige Ausnahmen – keinerlei Strukturen dort erkennen. Gut, wir haben gelernt aus diesen Lichtpunkten jede Menge Informationen zu holen. Wir können bestimmen, wie groß, wie alt, wie schwer der Stern ist, selbst wenn wir ihn nur als Lichtpunkt sehen. Wir können rausfinden, wie weit er weg ist und woraus er besteht. Wir können sogar untersuchen, ob er von Planeten umkreist wird oder nicht. Die Astronomie ist super! Aber was für Sterne gilt, gilt für Planeten noch viel mehr.

Sieht man mal von den acht Stück ab, die sich in unserem Sonnensystem befinden, haben wir derzeit keine Chance, irgendwelche Details auf Planeten zu beobachten, die andere Sterne umkreisen. Wir können in den allermeisten Fällen ja nicht einmal den Planeten selbst sehen! Von der Existenz dieser extrasolaren Planeten wissen wir nur indirekt; weil wir zum Beispiel sehen, wie die Gravitationskraft des Planeten den Stern ein klein wenig zum Wackeln bringt. Oder der Planet ab und zu vor dem Stern vorüber zieht und dabei ein klein wenig seines Lichts verdunkelt. Planeten sind kleiner als Sterne, sie leuchten nicht selbst und sind genau so absurd weit weg die Sterne. Sie direkt zu beobachten ist derzeit fast unmöglich. Und in den ganz wenigen Spezialfällen, wo wir den Planeten eines anderen Sterns direkt gesehen haben, haben wir natürlich auch nicht mehr gesehen als einen Lichtpunkt.

Es wäre natürlich schon cool, wenn wir mal einen echten Blick auf einen extrasolaren Planeten werfen könnten. Und schauen, ob da vielleicht der eine oder andere Ozean zu sehen ist. Mit ein paar Kontinenten darin? Die vielleicht schön grün sind, weil dort irgendeine Art von pflanzlichen Leben existiert? Und wer weiß, vielleicht sieht man ja auch ne Alien-Stadt oder so! Aber das ist Science-Fiction, oder?

Na ja, das mit den Alien-Städten vermutlich schon. Aber es ist nicht völlig ausgeschlossen, dass wir irgendwann mal den Planeten eines anderen Sterns “richtig” sehen, mit Details der Oberfläche. Und zwar, ohne dorthin zu fliegen, wozu wir ja erst wieder irgendwelche Science-Fiction-Raumschiffe bräuchten. Was wir brauchen sind Teleskope! Gut, die braucht man in der Astronomie immer und je größer, desto besser. Aber es kommt nicht immer nur auf die Größe an, sondern auch auf die Technik und vor allem darauf, wo man das Teleskop hinstellt.

Ein Teleskop auf der Erde ist praktisch, weil man da leicht hin kommt, aber man muss eben immer durch die Atmosphäre hinauf zu den Sternen schauen und das stört die Beobachtung. Teleskope im Weltall haben dieses Problem nicht, aber dafür muss man das Ding mühsam mit Raketen dorthin schaffen und kann es danach nicht mehr reparieren oder updaten. Aber für das Teleskop, um das es in dieser Folge gehen soll, haben wir keine andere Wahl. Wir müssen ins All und zwar nicht irgendwo hin, sondern an einen ganz bestimmten Ort.

Sterne schauen ist leicht. Aber Details sieht man nicht (Bild: Public Domain)

Denn die Natur hat uns quasi das perfekte Fundament für eine astronomische Beobachtungsstation gelegt. Obwohl “Fundament” vermutlich das falsche Wort ist. Es geht nicht darum, ein Teleskop auf einem anderen Himmelskörper zu stationieren. Der Ort, zu dem wir müssen, liegt weit entfernt von der Sonne, mitten im leeren All. Mindestens 550 mal weiter von der Sonne weg als die Erde. Dort ist nichts – aber wenn wir DORT ein Teleskop hätten, wäre das leistungsfähiger als alles, was wir anderswo bauen könnten.

Um zu verstehen warum das so ist, müssen wir kurz auf das schauen, was Albert Einstein so getrieben hat. Zum Beispiel – und wie ja alle wissen werden – hat er die Allgemeine Relativitätstheorie aufgestellt. Die unter anderem besagt, dass Masse den Raum krümmt und alles, inklusive Licht, folgt bei seiner Bewegung der Krümmung des Raums. Was unter anderem bedeutet: Fliegt Licht in der Nähe einer großen Masse vorbei, dann kann es dabei abgelenkt werden. Genau so wie eine Linse aus Glas oder ein Spiegel den Weg eines Lichtstrahls verändern kann, kann das auch eine große Masse im Weltraum. Das nennt man “Gravitationslinseneffekt” und ich habe in früheren Folgen schon oft darüber gesprochen, wie das genau funktioniert und wie die Astronomie diesen Effekt nutzt. Aber WENN wir ihn nutzen, müssen wir auf den Zufall hoffen. Wenn zum Beispiel – zufällig – ein Stern von uns aus gesehen genau vor einem anderen Stern vorüber zieht, dann kann der eine Stern als Gravitationslinse wirken und das Licht des anderen Sterns ablenken oder verstärken.

Unsere Sonne ist auch ein Stern. Und krümmt mit ihrer Masse ebenfalls den Raum. Licht, das in der Nähe der Sonne vorbeifliegt, wird abgelenkt (das haben wir auch schon beobachtet; unter anderem konnte durch solche Beobachtungen die Gültigkeit der Allgemeinen Relativitätstheorie nachgewiesen werden). Das Problem: Um die Sonne gezielt als Gravitationslinse zu nutzen, sind wir auf der Erde zu nah dran. Der amerikanische Astronom Von Russell Eshleman hat das in einer Arbeit aus dem Jahr 1979 alles genau durchgerechnet. Entfernt man sich circa 550 Astronomische Einheiten von der Sonne, das entspricht der 550fachen Entfernung zwischen Sonne und Erde, dann befindet sich man quasi genau im Fokus der “Solaren Gravitationslinse”. Also genau dort, wo die Sonne Lichtstrahlen anderer Objekte dank ihrer Masse “hinbiegt”. Ansonsten schwach leuchtende Himmelskörper würde man dort sehr viel heller sehen können als normal; je nach Wellenlänge des Lichts das man beobachtet kann die Verstärkung das 100millionenfache des ursprünglichen Signals betragen. Und auch die Auflösung wäre dort viel besser; man könnte also Himmelskörper nicht nur als Lichtpunkte sehen, sondern durchaus auch als ausgedehnte Objekte mit Details.

Eine Gravitationslinse ist was tolles (Bild Horst Frank, CC-BY-SA 3.0)

Apropos Details: Im Detail ist das natürlich alles sehr viel komplizierter. Man kann nicht einfach 550 Astronomische Einheiten durchs Sonnensystem fliegen, dann das Raumschiff parken, aus dem Fenster schauen und die wunderbare Pracht des Universums beobachten. Man braucht dort zuerst einmal ein Teleskop. Das aber gar nicht gigantisch groß sein muss, ein Spiegeldurchmesser von nem Meter würde schon reichen. So. Und jetzt haben wir schon das erste Problem: Wir kriegen wir das Teleskop an den passenden Punkt? 550 Astronomische Einheiten ist VIEL. Der sonnenfernste Planet – Neptun – ist gerade mal 30 Astronomische Einheiten weit weg. Der Pluto entfernt sich maximal 50 Astronomische Einheiten von der Sonne. Der Zwergplanet Eris schafft es auf knapp 100 Astronomische Einheiten. Die im Jahr 1977 gestarteten Voyager-Raumsonden haben in folgenden 45 Jahren gerade mal knapp 160 beziehungsweise 135 Astronomische Einheiten geschafft. Der Weg bis zum Fokus der Gravitationslinse fängt da gerade erst so richtig an.

Es gibt theoretische Überlegungen, dass man mit sehr großen Sonnensegeln ein Raumfahrzeug vielleicht schnell genug machen kann, so dass es die Strecke in gut 20 Jahren schafft. Aber so etwas haben wir noch nie probiert; und wir waren auch noch nie so weit draußen. Im All ists gefährlich, da gibt es kosmische Strahlung, da gibt es Mikrometeorite, da ist es eiskalt und da kann jede Menge schiefgehen, vor allem je länger man dort unterwegs ist. Eine kompakte kleine Raumsonde ist das eine. Ein großes Weltraumteleskop das andere. Es ist zweifelhaft, ob wir derzeit in der Lage wäre, ein Teleskop in halbwegs brauchbarer Zeit 550 Astronomische Einheiten weit zu schicken.

Aber tun wir mal so als ob. Dann stellt sich gleich noch eine Frage: Wohin denn eigentlich genau. “550 Astronomische Einheiten von der Sonne entfernt” ist ja keine exakte Ortsangabe. Man kann an sehr vielen Orten 550 Astronomische Einheiten von der Sonne entfernt sein. Und zwar überall auf einer um die Sonne zentrierten Kugelschale mit einem Radius von 550 Astronomischen Einheiten! Wohin man da steuern muss hängt davon ab, was man beobachten will. Denn das was man beobachten will, muss ja vom Teleskop aus gesehen in Richtung Sonne am Himmel stehen. Man muss das Teleskop auch SEHR genau ausrichten. Hier wird die starke Vergrößerung jetzt auf einmal zum Problem. Wenn wir zum Beispiel einen extrasolaren Planeten beobachten wollen, werden wir nur einen Ausschnitt seiner Oberfläche sehen können, je nach Konfiguration nur ein paar Kilometer im Durchmesser. Das Teleskop muss also EXTREMST genau ausgerichtet sein, sonst trifft man den Planeten nicht. Wenn es auch nur um einen Winkel von einem Milliardstel Grad in die falsche Richtung schaut, sieht es nix. Und dann bewegt sich ja auch noch alles. Das Teleskop um die Sonne; der extrasolare Planet um seinen Stern; die Sonne und der andere Stern durch die Milchstraße. Nach ein paar Millisekunden ist der Planet also sowieso aus dem Bildfeld geflutscht. Man muss das Teleskop ständig und sehr schnell und sehr exakt neu ausrichten und das möglichst oft, um ein Bild der gesamten Planetenoberfläche abzurastern. Dazu kommt: Man sieht kein “echtes” Bild; das was man sieht ist durch die von der Sonne verursachte Raumkrümmung verzerrtes Licht. Der Planet erscheint uns wie in einem extremen Zerrspiegel; sein Bild kann sogar scheinbar um die Sonne herumgebogen sein. Man muss daraus irgendwie ein normales Bild zurückrechnen. Was zwar geht, aber auch nicht unbedingt einfach ist. Und dann ist da noch die Sonne: In dem Beispiel dient sie zwar als Gravitationslinse, ist aber natürlich keine echte Linse, sondern ein Stern. Die Sonne ist keine simple Kugel, sondern ein brodelnder Haufen Plasma, mit einer chaotischen Atmosphäre rundherum und das macht die Beobachtung nochmal schwieriger.

So könnte ein Bild aussehen, das mit der solaren Gravitationslinse gemacht wird Bild: NASA, S. Turyshev)

Und wenn man dann doch irgendwie ein Bild hat – dann muss man das Teleskop für die nächste Aufnahme irgendwo anders hinfliegen, weil wer weiß, wo das nächste interessante Ziel liegt. Wenn es blöd kommt, dann genau auf der anderen Seite der Kugelfläche, also 1100 Astronomische Einheiten weit weg.

Es gibt Vorschläge, wie so eine Mission aussehen kann. Die NASA hat eine Machbarkeitsstudie beauftragt die zu dem Ergebnis gekommen ist, dass man mit bestehender Technik eine Mission ausrichten kann, mit der sich Bilder von extrasolaren Planeten machen lassen, die Details von bis zu 25 Kilometer auf deren Oberfläche zeigen könnten. Aber wie gesagt: Die Theorie ist das eine, die Praxis etwas ganz anderes. Würde man so etwas real durchführen, wäre es wohl eine der kompliziertesten und teuersten Weltraummissionen aller Zeiten. Bei der bis zum Schluss nicht sicher gestellt ist, ob sie überhaupt erfolgreich ist. Es ist zweifelhaft, ob wir jemals die solare Gravitationslinse zur Beobachtung andere Himmelskörper benutzen werden. Aber wer weiß: Wenn es da draußen etwas zu sehen gibt, dann hat die Astronomie meistens so lange nicht locker gelassen, bis wir es auch gesehen haben.

Kommentare (9)

  1. #1 Rob
    Oberland
    21. Januar 2022

    Mal eine grobe Abschätzung mit dem Strahlensatz – wenn man einen Planeten in 10 Lichtjahren Entfernung beobachten würde, könnte man mit einem 1m-Teleskop einen Bildausschnitt mit einem Durchmesser von knapp über 1km beobachten. Eigentlich sieht man also realistisch gesehen nur einen Bildpunkt und müsste das gesamte Bild abfliegen, um den Planeten im ganzen zu sehen. Das Abbild der Erde wäre etwas über 10km im Durchmesser.

    Das Prinzip ist sehr verlockend, dürfte aber mehr in der Theorie existieren. Aber danke für den interessanten Artikel!

  2. #2 next
    Digital Native
    21. Januar 2022

    Oder man benötigt einen Sack voll Mikrosatelliten in einem Raster positioniert, die eine Folge von Bilder aufnehmen. Jeder Satellit nimmt nur “einen Bildpunkt” auf, zusammen könnten sie aber ein bewegtes Bild aufnehmen, ohne genau wissen zu müssen, wann der Planet vorbeihuscht. VLT im All sozusagen. Die Auswertung macht dann die KI, die bis dahin als einzige intelligente Lebensform noch auf der Erde existiert.

    Hmm, ich sollte keine Bücher schreiben. Das würden nur Dystopien.

  3. #3 Lutze
    22. Januar 2022

    Gibt es eine Quelle für die Machbarkeitsstudie der NASA? Bei meinen Recherchen bin auf dies gestoßen:
    https://ui.adsabs.harvard.edu/abs/1994JBIS…47….3M/abstract
    Ist aber schon von 1994. Gibt es da was neueres?

  4. #5 Adam
    Berlin
    24. Januar 2022

    @FF:

    Aber das ist Science-Fiction, oder?

    Na ja, das mit den Alien-Städten vermutlich schon.

    Das verstehe ich nicht so ganz, wenn widerum das hier gilt:

    (…) mit der sich Bilder von extrasolaren Planeten machen lassen, die Details von bis zu 25 Kilometer auf deren Oberfläche zeigen könnten

    Tokio ist mwn die flächig größte Stadt der Erde, über 8000 km². Würde also eine Alien-Zivilisation eine Stadt (oder Sonstiges) in dieser Größenordnung bauen, müssten wir es doch laut dieser Studie sehen können, oder nicht?

  5. #6 Michael Stängl
    24. Januar 2022

    @Adam
    Der urbane eigentliche Bereich von Tokyo ist 621 Quadratkilometer groß
    Die Präfektur Tokyo samt umliegenden Städten ist 2.194,05 km² groß.
    Die gesamte Metropolregion, die über die Präfektur hinausgeht, ist 13.572 km² groß
    Siehe: https://de.wikipedia.org/wiki/Tokio

    Zum Vergleich:
    München hat eine Fläche von 310,7 km² und eine Ost-West-Ausdehnung von etwa 20 und eine Nord-Süd-Ausdehnung von etwa 14 Kilometern.

    München könnte auf einem Gravitationslinsen-Teleskop mit einer 25×25 Kilometer-Auflösung gerade mal als ein betongraues Pixel erscheinen, wohingegen Tokyo immerhin zwei bis 21 Pixel auf dem resultierenden Bild einfärben könnte.

    Ich könnte mir einen ganzen Dyson-Schwarm solcher Raumteleskope in einer Hohlkugel mit einem Radius von 550 AE um die Sonne herum vorstellen, die zudem noch in Gruppen umherfliegen um noch mehr Licht auffangen zu können.
    Womit sich meines bescheidenen Laienwissens nach eine Art Interferrometrie-Gravitationslinsen-Teleskop-Astronomie vielleicht machen ließe.

    PS: Noch nicht beim noch mal Durchgehen meiner Antwort gefundenen Rächtschraipfehler sind Ausdruck meiner künstlerischen Freiheit 😉

  6. #7 Adam
    Berlin
    26. Januar 2022

    @Michael Stängl

    Ich kam grob über den Daumen auf 16 Pixel, wäre von 4 x 4 ausgegangen. Doch die eigentliche Frage ist, wieso wir das dann nicht als etwas Artifizielles deuten sollten, weil sehen würden wir es ja, eben als eine zweistellige Zahl von Pixeln.

    Ist das zu wenig, setzte es eine streng quadratische und damit sehr wahrscheinlich nicht natürliche Form voraus? Was wäre denn ein Minimum an Informationsdichte, bei dem wir mit an Sicherheit grenzender Wahrscheinlichkeit sagen könnten, dass es nicht natürlichen Ursprungs ist?

  7. #8 Adam
    Berlin
    26. Januar 2022

    @Michael Stängl

    Ich kam grob über den Daumen auf 16 Pixel, wäre von 4 x 4 ausgegangen. Doch die eigentliche Frage ist, wieso wir das dann nicht als etwas Artifizielles deuten sollten, weil sehen würden wir es ja, eben als eine zweistellige Zahl von Pixeln.

    Ist das zu wenig, setzte es eine streng quadratische und damit sehr wahrscheinlich nicht natürliche Form voraus und zudem ein noch größere, also mit noch mehr Pixeln? Was wäre denn ein Minimum an Informationsdichte, bei dem wir mit an Sicherheit grenzender Wahrscheinlichkeit sagen könnten, dass es nicht natürlichen Ursprungs ist?

  8. #9 Adam
    Berlin
    26. Januar 2022

    Grml, sorry wegen dem Doppelpost.