Ja, lange Zeit nicht geschrieben, das postdoc-Leben ist halt doch um einige Zacken stressiger als das Doktoranden-Leben. (Sorry). Es gibt aber ein kurzes Stelldichein hier, weil ich am Dienstag den 17.Oktober 2017 zwischen 12.00 und 15:00 bei Zeit-Online im Chat zu den großen Fragen der Menschheit sein werde.
Das Thema soll sein, Ursprung des Lebens.
Da ich ja eher die Exoplaneten-Klima-Atmosphären-Expertin bin, stelle ich das folgende Thema vor: Wie das Leben die Atmosphäre der frühen Erde beeinflusst hat. Zur zeitlichen Einordnung hab ich eine Grafik eingebunden (s.u.). Ich werde v.a.über den Zeitraum von vor 3,8 – 2,5 Milliarden Jahre erzählen, dem Archaikum.
Das erste Leben entstand schon sehr früh, vor etwa 4 Milliarden Jahre und hinterließ womöglich schon recht früh Spuren in der Atmosphäre und zwar andere als das heutige Leben in der heutigen Atmosphäre. Aber wie sah diese Atmosphäre eigentlich aus … äh, sagen wir mal so, wie wissen es nicht so ganz genau. Zwischen 4 – 2.5 Milliarden Jahre ist es nicht so genau sicher, wie die Erdatmosphäre aussah.
Die ersten Atmosphären der Erde- alles andere als einladend für Menschen
Die allererste Atmosphäre bestand wohl aus Wasserstoff und Helium, wie die der Gasriesen in unserem Sonnensystem. Die verzog sich aber wohl innerhalb von ein paar Millionen Jahre schnell dorthin, wo sie hergekommen war: in’s Weltall. Diese Gase waren Teile der protoplanetaren Gasstaub-Scheibe. Nur war die Gravitation der Erde zu gering und diese durch den Verklumpungsvorgang so heiß, dass der Wasserstoff sich nicht lange auf der Erde halten konnte. Das war bei den Gasriesen draußen anders. Weil die Erde recht heiß war vor etwa 4,5 bis 3,8 Milliarden Jahre nennt man diese Zeitalter auch das Hadaikum oder auch das Höllenzeitalter. In dieser Zeit bildete sich die zweiten Atmosphäre. Diese hatte die Erde förmlich ausgeschwitzt. Da wird vor allem bereits die heutige Menge an Stickstoff dabei gewesen sein. Und sonst? Zwischenzeitlich war auch wohl sehr viel Wasserdampf (bis zu 80%) in der Atmosphäre, das sich aber recht schnell abregnete, je mehr die Erde abkühlte. 40 000 Jahre sintflutartiger Regen könnte die Folge gewesen sein. Für außerirdische Forscher, die von außen in die Erdatmosphäre geblickt hätten, wäre die zweite Atmospähre zumindest sehr vielversprechend gewesen. “Dieser Planet ist zumindest grundsätzlich habitabel und wird es wohl demnächst sein, nur nicht gerade jetzt.”
Nachdem das meiste Wasser dann in den Ozeanen gelandet ist, wird wohl wieder vor allem Stickstoff in der dritten Atmosphäre zurückgeblieben sein. Das und einiges an Treibhausgasen. Letzteres nehmen wir an, weil die Erde vor etwa 3 Millarden Jahre von einer etwa 80% leuchtschwächeren Sonne beschienen wurde. D.h. 20% weniger Energie. Mit der heutigen Atmosphäre hätte sich die Erde schnell in eine Eiskugel verwandelt. Das ist aber vermutlich nicht passiert.
Das Treibhausgas, welches als erstes entsteht und welches in großen Mengen freigesetzt werden kann ist CO2. Davon wird es vor 3-4 Milliarden Jahren mehr als heute gegeben haben. Auch weil Plattentektonik, welches CO2 effizient vergräbt, wohl etwa ne halbe Milliarde Jahre später in der Gänge gab. Wieviel mehr? Wirklich schwer zu sagen. 10% der Erdatmosphäre CO2 und noch mal 2 Promille Methan wird wohl ausgereicht haben, um den Äquator etwa vor 3.8 Milliarden eisfrei zu kriegen, wie z.B. Charnay und co in Simulationen (1) ausgerechnet haben. Vor etwa 2.5 Milliarden Jahren war dann CO2 durch in die Gänge kommende Plattentektonik und Verwitterungsvorgänge, wieder zum großen Teil aus der Atmosphäre in die Erdkruste übergangen. Man braucht aber dann immer noch etwa 1% CO2 und 2 Promille Methan, weil die Erdeinstrahlung immer noch “nur” 85% des heutigen Wertes ist. Und das ist auch das, was die frühen geologischen Zeugnisse hergeben.
2 Promille Methan…weil Leben
Interessant ist, dass zumindest Charnay und Kollegen davon ausgehen, dass man doch auch was an Methan braucht, um die Erde von vor 3 -2.5 Milliarden Jahre warm genug für flüssiges Wasser zu halten. Und zwar ne relativ große Menge. Etwa das 1000fache des heutigen Wertes. Und als einzige Quelle für soviel Methan steht auf der Erde eigentlich nur folgendes zur Verfügung: Leben. Genauer gesagt, Methanbildner. D.h. hier gehen die Kollegen davon aus, dass die Entstehung von Leben dafür gesorgt hat, dass die Atmosphäre der archaischen Erde so mit dem Treibhausgas Methan angereichert war, dass die Erde auch weiterhin lebensfreundlich blieb.
Und in Ermanglung von Sauerstoff als Reinigungsmittel der Atmosphäre, wird dann vermutlich das passiert sein, was heute immer noch auf dem Titan passiert: Komplizierte photochemische Prozesse setzten Stickstoff und Methan (2) um in photochemischen orangefarbenen Dunst oder Tholine. Und wenn Ihr jetzt fragt, was Tholine sind…Tholin heißt einfach nur “schlammfarbiges Zeugs” aber auf griechisch. Klingt halt gelehrter ;-P Na ja, es handelt sich wohl um komplexe also lange Kohlenstoff-Wasserstoff-Verbindungen. Und es wird im Moment recht intensiv daran geforscht, welche das genau sein könnten. Es muss durch Photochemie in einer Planetenatmosphäre entstehen und es ist eben orange. Vielleicht sind noch andere Planeten außerhalb des Sonnensystems in orange-farbenen Dunst gehüllt, was auf einem nicht allzu kaltem Planeten – wärmer als Titan – durchaus auf Leben hindeuten könnte. Giada Arnay und Kolleginnen sind da zumindest zuversichtlich, dass sich so etwas anhand der recht charakteristischen breiten UV- Absorptions-Signatur aufspüren ließe (3).
Der Himmel lichtet sich vom orangefarbenen Dunst und wird blau – weil Leben sich weiterentwickelte
Tja, und dann erfand das Leben die effiziente oxygene Photosynthese zur Nutzung der Sonnenstrahlung als Energiequelle. Und der orange-farbene Himmel des allerersten Lebens von damals wurde nach der großen Sauerstoffkatastrophe so blau, wie wir es heute gewohnt sind. Sauerstoff und Wasserdampf entfernte den ganzen schönen orangene Dunst. Und spätestens jetzt würden etwaige außerirdische Beobachter heftig darüber spekulieren, ob soviel freier Sauerstoff in der Atmosphäre ein eindeutiges Zeichen von Leben ist oder nicht? So wie wir schon heute darüber diskutieren, obwohl wir noch keine Atmosphäre eines felsigen extrasolaren Planeten gesehen haben. Schon gar nicht die eines möglicherweise lebensfreundlichen.
Aber wenn Ihr mal in den Himmel hochschaut, vielleicht denkt Ihr daran, dass der Himmel unserer Erde ganz früher mal orange war und nicht blau. Und vielleicht sieht der Himmel ganz woanders aufgrund von Leben auch so aus – mit Sauerstoff-Maske, damit man nicht erstickt ;-P
_________________________________
Letztes Jahr haben meine Kollegen und ich aber festgestellt, dass diese natürliche Klimaanlage in der Atmosphäre gestört werden kann. Und zwar bei habitablen Planeten mit sehr kurzen Umlaufperioden – kürzer als 6 Tage – wenn sich ein starker Windstrom entlang des Äquators legt. Tatsächlich haben wir drei verschiedene Möglichkeiten für Windströmungen oder besser gesagt Klimasysteme gefunden, die auf Planeten auf sehr engen Bahnen herrschen können. Und eine dieser möglichen Szenarien hat diese starke äquatoriale Windströmung, die dann dafür sorgt, dass heiße aufsteigende Luft auf der Tagseite nicht zur kühlenden Nachtseite transportiert werden kann. Die Superrotation ist einfach im Weg (Bild 2, linke Seite).
In unseren neuen Studie haben wir an unserer Klimamodellierung rumgeschraubt. Unter anderem haben wir untersucht, was mit diesen Klimazuständen passiert, wenn wir die Stärke der “effektive Reibung”(2) zwischen der Oberfläche des Planeten erhöhen und verringern. Dabei fanden wir heraus, dass dieses relativ einfache Verstellen einer kleinen Schraube eines 3D-Klimamodells, das gesamte Klima drastisch verändert und hier insbesondere welches Windsystem in der oberen Atmosphäre vorherrscht – da wo die heiße Luft vornehmlich von der Tagseite zur Nachtseite transportiert wird. Dabei gilt anscheinend: Je stärker die effektive Reibung zwischen Oberfläche und Atmosphäre, desto mehr wird Superrotation unterdrückt, d.h. die Tagseite-Nachtseite Klimaanlage ist damit sicherer vor Störungen (Bild 3).
In Bild 3 ist die Superrotation links oben als helles Band um den Äquator sichtbar, das von grauen Linien eingefasst sind. Rechts oben sieht es schon anders aus. Und deswegen wird die Tagseite bei exakt gleicher Energieeinstrahlung links unten heißer als rechts unten.
Was heißt das eigentlich “habitabel”?
Jetzt könnte man natürlich bei Blick auf Bild 3 anwenden, dass es selbst bei “kaputter Klimaanlage” genügend andere Stellen auf dem Planeten gibt, welche dann eben kühlere Temperaturen aufweisen und wo es eben nicht 100 Grad Celsius oder heißer ist.
Antwort: Ja, aber…
In der Zukunft habe ich vor auf diesen hypothetischen Planeten Seen an den Stellen anzulegen, wo es die Temperaturen grundsätzlich zulassen, und zu schauen, was dann passiert. (3) Es ist nämlich so: So ein See ist auch in die globale 3D Umwälzung der Atmosphäre eingebunden.
Was passiert denn, wenn man einen Becher Wasser irgendwo im Haus stehen lässt? Er verdunstet … und kommt erstmal nicht wieder. Schön! Nützt einem wenig, wenn man gerade was Lebendiges im Becher hatte. Draußen vor der Haustür aber hat man – vor allem bei dem derzeitigen Wetter (!) – recht große Chancen, dass wieder Wasser in den Becher regnet. Wir brauchen also einen geschlossenen Wasserkreislauf.
Und die funktionierende Klimaanlage in Bild 1 ist genau so ein Mechanismus, der nicht nur Wärme sondern auch Wasserdampf in einem geschlossenen Kreislauf transportieren kann. Mit sowas hat man eine gute Chance, dass ein See auch über eine gewisse Zeit ein See bleibt. Ist aber auch nicht unbedingt selbstverständlich. Es gibt so diverse Mechanismen, die auch bei einem grundsätzlich geschlossenen Kreislauf Wasser entziehen können. Z.B. wenn Wasser auf der Nachtseite permanent ausfriert oder wenn zuviel Wasser verdunstet und der Wasserdampf als effektives Treibhausgas einen “Runaway greenhouse effect”(4) auslöst, der eine Erde in eine heiße knochentrockene Venus mit dichter CO2-Atmosphäre verwandeln kann.
Ich vermute, dass der “Runaway greenhouse effect” gerade bei gestörter Klimaanlage – also in der Situation Bild 3 links und Bild 2 links – ein größeres Problem sein könnte. Die sehr heißen Temperaturen auf der Tagseite und die Blockierung von Luft- und damit auch Wasserdampftransport von der Tagseite auf die Nachtseite, scheinen mir nicht gerade vielversprechend um eine exzessive Wasser-Verdunstung zu vermeiden. Das müssten wir aber – wie gesagt – dezidiert untersuchen.
Aber eins weiß ich jetzt schon. Die unteren Atmosphären-Schichten werden auch bei diesem Thema eine wenn nicht sogar die entscheidende Rolle spielen. Und wir werden da verschiedene Szenarien ausprobieren müssen. Schließlich werden wir auf absehbare Zeit nicht direkt erfahren können, wie die Oberfläche auf so Planeten genau aussieht – Berge, Kontinente, Ozean-Verteilung, vielleicht sogar andere Gesteinssorten als auf der Erde? Umgekehrt, wenn man via Modellierung ungefähr weiß, wie sich so eine Oberfläche auf den Zustand der gesamten Atmosphäre auswirkt…tja, dann hat man vielleicht die Möglichkeit von dem Zustand der oberen Atmosphäre etwas über die Oberflächenbeschaffenheit zu schließen.
Ihr seht. Es ist noch viel zu tun…Packen wir es an!
————————————-
(1)Dieser wird in der Exoplaneten-Community ‘Superrotation’ genannt, was ich allerdings etwas unglücklich finde, weil diese Situation leicht mit der Superrotation auf der Venus verwechselt werden kann. Zwar gibt es zwischen Exoplaneten-Superrotation und Venus-Superrotation Gemeinsamkeiten, aber auch einige entscheidende Unterschiede (in Ursache und Form). Es handelt sich also nicht um verwandte aber nicht identische Effekte.
(2) Es ist nicht nur einfach Reibung sondern vor allem turbulente Strömungen im unteren Bereich der Atmosphäre, welche dann effektiv die Windgeschwindigkeiten abmindern gegenüber der “freien” Atmosphäre. Aber auch so Dinge, wie Berge und Vegetation, die direkt und auch indirekt via Turbulenzen bremsen. Wir haben die Reibung so eingestellt, wie es andere Kollegen (Held & Suarez 1994) für die Erde gemacht haben. Diese definieren die unteren 2.8 km als “unteren Atmosphären-Bereich”. Wir haben in unserer jetzt erschienen Arbeit auch kleinere Werte (1,8 km und 0,8 km) ausprobiert. Machte keinen großen Unterschied.). Und ja, diese sehr großzügige und einfache Reibungsbeschreibung funktioniert für die Erde erstaunlich gut.
(3) Bislang machen wir “trockene” Simulationen, weil wir erst mal die grundsätzliche Mechanik des 3D-Lufttransportes auf globalen Skalen verstehen bzw. untersuchen wollten. Und bei sowas “stört” Wasserdampf sogar. Selbst für das Erdklima rechnet man oft mit trockenen Modellen, wenn man die reine Dynamik besser verstehen will.
(4) Die Idee dahinter ist die folgende. Wenn “zuviel” Wasser verdunstet, dann wird der Treibhauseffekt stärker, der führt zu heißeren Temperaturen auf der Oberfläche, noch mehr Wasser verdunstet und der Treibhauseffekt wird noch stärker bis letztendlich alles Wasser verdunstet ist. In so einer Situation wird Wasserdampf in der oberen Atmosphäre durch UV-Strahlung in Wasserstoff und Sauerstoff abgespalten, wobei der Wasserstoff auf einem erdgroßen Körper in’s Weltall entweicht. Letztendlich ist alles Wasser verschwunden und der übrig gebliebene Sauerstoff oxidiert die Planetenoberfläche. Durch den allmählichen Verlustes des Bodenwassers als Lösungsmittel und die höheren Bodentemperaturen entweicht das in der Planetenoberfläche gebundene CO2 ebenfalls in die Atmosphäre, was das Treibhaus nur noch mehr aufheizt. Und es ist sehr, sehr viel CO2 was dabei rauskommen kann. Im Grunde nehmen wir an, dass die 90bar CO2 Atmosphäre der Venus ursprünglich im Planetenboden gebunden war und durch den “run away greenhouse effect” herausgelöst wurde.
———————————————————-
L. Carone, R. Keppens, & L. Decin (2016). Connecting the dots III: Night side cooling and surface friction affect
climates of tidally locked terrestrial planets MNRAS arXiv: 1605.09545v1
Und jetzt kommen folgende Überlegungen in’s Spiel. Felsige Planeten um kleine M-Sterne lassen sich besser entdecken und untersuchen als Planeten um größere Sterne. Und das geht um so besser je näher der Planet am Stern ist. Erstens ist dann die Wahrscheinlichkeit höher, dass der Planet von uns aus gesehen vor seinem Stern herzieht (also einen Transit ausführt) und dabei Sternenlicht durch die Atmosphäre streift, was wiederum uns auf der Erde erlaubt, zu sehen ob da eine Atmosphäre ist und wie die aussieht. Zweitens sieht man mehr Transits innerhalb eines Beobachtungszeitraums. Mehr Daten erlauben eine robustere Interpretation der Atmosphäre von – sagen wir mal über einen Zeitraum von 3 Jahren, was der angepeilten Lebensdauer von einem typischen Weltraum-Teleskop entspricht, das unter anderem dazu da ist, nach Exoplaneten zu gucken – wie z.B. Kepler, CoRoT und wie geplant PLATO (1). Gleichzeitig sind M-Sterne so kalt, dass ein Planet sowieso recht nah dran sein muss, um das Erd-Äquivalent der Sonnenenergie abzukriegen. Zudem sind mindestens 70% aller sonnenähnlicher Sterne sowieso M-Sterne…
Eine wirklich gründliche Studie mit 165 virtuellen Planeten um kleine M-Sterne
Es gibt also eine Reihe guter Gründe kleine potentiell habitable Planeten um M-Sterne mal genauer anzusehen. Und das haben wir – also meine Kollegen Rony Keppens und Leen Decin und ich auch getan. Wir haben erst einmal ein vereinfachtes Modell der Zirkulationsbewegung von Planeten mit ewigen Tag- und Nachtseiten gebaut (2). Wie Slartibartfass nur mit Windströmungen statt Fjorden
Dann haben wir 165 hypothetische Planeten auf nen Supercomputer geschickt und angeschaut, was mit der Zirkulation passiert, wenn wir die Planeten-Größe zwischen 1-2 Erdradiien variieren und vor allem den Planeten immer näher an seinen Stern schieben. Wobei wir der Einfachheit halber immer angenommen haben, dass die mittlere Dichte der der Erde entspricht und dass der Planet immer das Erd-Äquivalent der Sonnenenergie abkriegt. Dabei haben wir die Planeten sogar auf eine 1-Tages-Umlaufperiode herunter gebracht. In unserer Studie ging es uns aber vor allem darum, das Klima und die Zirkulation gründlich zu verstehen. Und da lohnt es sich durchaus in die Vollen zu gehen und die Extreme auszuloten und sehr viele Fälle miteinander zu vergleichen.
Dabei stellten wir fest, dass bei kurzen Umlaufperioden von etwa 12 Tagen – abhängig von der Planetengröße – sich die Luftzirkulation schlagartig verändern kann. Nennen wir das mal Kipp-Punkt I. Das war übrigens nicht ganz neu. Bereits 2011 haben Adam Edson und Kolleginnen einen solchen Kipp-Punkt gesehen (3). Wir haben uns das ganze allerdings nochmals viel genauer und auch für Supererden angesehen. Dabei haben wir sogar ein paar mehr solcher Klima-Übergänge und einen weiteren Kipp-Punkt gefunden. Kipp-Punkt II liegt bei 5 Tagen Umlaufperioden für Supererden.
Was passiert jetzt bei diesen Kipp-Punkten des Klimas? Oder welches Windsystem nehmen wir denn heute? I, II oder doch lieber III?
Der Wind strömt in der oberen Atmosphäre nicht mehr symmetrisch von der Tag- zur Nachtseite. Auf einmal bilden sich Windströme, die entlang bestimmter geographischer Breiten wehen und recht schnell werden können. 100 km/h und mehr sind absolut drin. Genauer gesagt, gibt es an Kipp-Punkt I zwei Möglichkeiten und bei Kipp-Punkt II sogar drei Möglichkeiten, die das Klima des Planeten einnehmen kann.
Nehmen wir mal Klima I: Hier strömt der Wind in der oberen Atmosphäre entlang des Äquators Richtung Osten. Das kennen wir bereits von den heißen Jupiter-Exoplaneten und nennen wir gemeinhin Superrotation. Dann gibt es noch Klima II. Hier weht der Wind in der oberen Atmosphäre in zwei langsameren Windströmen entlang höherer Bereiten. Bei Kipp-Punkt I kann das Klima entweder Klima I oder Klima II einnehmen. Bei Kipp-Punkt II kann der Planet sogar eine dritte “salomonische” Möglichkeit dazwischen einnehmen: Eine schwächere Superrotation am Äquator flankiert von zwei Windströmungen in höheren Breiten. Wir konnten auch dezidiert nachweisen, welche Rossbywelle zu welchem Windsystem führt und dass Klima III tatsächlich beide Wellen enthält.
Klima III – nicht gut für die Klimaanlage und damit die Habitabilität
Wie man in dem Bild oben sieht, hat Klima I dabei ein “kleines” Problem. Die Tagseite wird sehr heiß. Das liegt daran, dass die schnelle Superrotation die Luftzirkulation von der Tag- zur Nachtseite stört. Ich stelle mir das so vor: Die Tagseite wird vom Stern erhitzt, heiße Luft steigt vor allem über dem Äquator nach oben und wird von der schnellen Luftströmung entlang des Äquators – der Superrotation – gestoppt. Es ist in etwa so, als ob ein Lastwagen versucht auf eine Autobahn zu kommen, die gerade voll besetzt mit Rennwagen in voller Fahrt ist. Der LKW – und damit die Hitze von der Tagseite – kommt nicht mehr auf die Autobahn und kann daher nicht wegtransportiert werden. Es kommt im wahrsten Sinne des Wortes zu einem Hitzestau. Die Situation ist natürlich bei Klima II besser, wenn die “Autobahn” entlang des Äquators leer ist. Und auch Klima III ist besser, weil die “Autobahn” nicht ganz so voll ist und die Rennwagen nicht ganz so schnell sind. D.h. Klima II und III erlauben die Existenz einer Luftzirkulation, welche die Tagseite abkühlt, während Klima I die Zirkulation unterdrückt und daher weniger habitabel sein dürfte.
Grundsätzlich, scheinen erst mal alle drei Windsysteme möglich zu sein, wenn die Umlaufperioden kurz genug sind. Allerdings, so “frei” scheint das Klima aufgrund meiner Simulationen auch nicht “wählen” zu können. Vor allem meine großen Planeten (1.75-2 Erdradien) finden sich in Klima I wieder, wenn wir den Planeten recht nah an seinen Stern schieben. In einem weiteren Paper werde ich außerdem zeigen, dass eine ganz besondere Eigenschaft des Planeten dafür sorgt, dass auch größere Planeten Klima II und III einnehmen und damit habitabler werden. Aber das wäre jetzt spoilern
Ist das denn realistisch?
In den letzten Jahren haben einige Kolleginnen Studien herausgegeben, die zeigen, dass gerade die gezeitengebundene Planeten tatsächlich recht nah an ihre M-Sterne geschoben werden können. Umlaufperioden von 6 Tagen sind durchaus möglich und felsige Super-Erden können doppelt so groß werden wie die Erde. Kipp-Punkt I kann also auf jeden Fall erreicht werden und Kipp-Punkt II ist auch nicht so weit weg. Das Schöne: Genau solche Planeten sind auch extrem gut zu detektieren und zu untersuchen. Ich bin jedenfalls schon gespannt, was die Zukunft bringt, und ob sich die verschiedenen Windsysteme nachweisen lassen
Auf jeden Fall zeigt unsere Studie wieder einmal, dass wir uns nicht allzu sehr auf Erdzwillinge versteifen sollten. Auch Welten mit ewigen Tag- und Nachtseiten auf engen Planetenbahnen sind spannend und können unter bestimmten Bedingungen flüssiges Wasser beherbergen. Und wir haben sogar schon einige gute Ideen, was diese Bedingungen sein könnten
——-
(1) Die Astroseismologen-Kolleginnen mögen mir verzeihen. Ihr seid auch drauf und schaut in’s Sterneninnere. Soll der Vollständigkeit halber nicht unerwähnt bleiben.
(2) Carone, L., Keppens, R., & Decin, L. (2014). Connecting the dots: a versatile model for the atmospheres of tidally locked Super-Earths Monthly Notices of the Royal Astronomical Society, 445, 930-945 DOI: 10.1093/mnras/stu1793
(3) Edson und co haben das in ihrem Paper leider nicht genauer untersucht und hatten auch zu wenige Fälle, um es genauer einkreisen zu können. Sie haben aber ganz richtig vermutet, dass hier Rossby-Wellen eine Rolle spielen. Dazu will ich im Detail aber heute nichts erzählen. Das ist eine Serie von eigenen Blogeinträgen wert.
———————————
Carone et al. 2015, Connecting the dots II: Phase changes in the climate dynamics of tidally locked terrestrial exoplanets
Und ja, es gibt gute Gründe anzunehmen, dass wir Wasser zum Leben brauchen. Irgendein Lösungsmittel und Transportmittel muss ja her und genügend Energie, um so etwas wie einen Stoffwechsel und Vermehrung anzutreiben. Grundsätzlich wären auch exotischere Lösungsmittel wie flüssiges Methan auf dem Titan möglich. ABER dann haben wir ein Energieproblem. Titan hat hat eine durchschnittlichen Oberflächen-Temperatur von -178 Grad Celsius. Zwar kann sich Leben wohl grundsätzlich auch an so etwas anpassen. Aber kann es sich auch unter solchen Bedingungen entwickeln? Selbst auf der sehr viel wärmeren Erde hat es gefühlte Ewigkeiten gedauert, bis die Geschichte mit dem Leben in die Gänge kam: Ungefähr 2 Milliarden Jahre, wenn nicht noch länger. Und auch für den Kohlenstoff als Basis gibt es gute Gründe. Kohlenstoff-Verbindungen sind unglaublich vielfältig, was jeder weiß, der die anorganische mit der organischen Chemie vergleicht. Kohlenstoff bildet gerne Ketten mit sich selbst und anderen Elementen und ist daher so etwas wie der “Legostein” für das Leben. Es lässt sich einfach unheimlich viel damit anstellen.
Aber selbst die einfachste Grundannahme, dass man flüssiges Wasser braucht, ist nicht so einfach. James Kasting und seine Kollegen meinten 1993 noch, dass Planeten am unteren Ende der Größenskala der sonnenähnlichen Sterne ein Problem bekommen könnten. Die sogenannten M- und K-Sterne sind recht “kalt” mit Temperaturen von etwa 3000 Kelvin (unsere Sonne ist zum Vergleich etwa 5800 Kelvin heiß) . Ein Planet muss also recht nah dran sein, damit er genug Sternenenergie abkriegt, damit die Atmosphäre warm genug werden kann, damit es an der Oberfläche Wasser gibt. Zu nah – für den Geschmack von Kasting und seinen Kollegen. Denn wenn ein kleiner Körper, einem großen Körper recht nah kommt, dann entstehen auch riesige Gezeitenkräfte und die neigen dazu die Planetenrotation mit dem Planetenumlauf zu synchronisieren. Das ist auch dem Mond passiert, der deswegen unserer Erde immer dieselbe Seite zuwendet.
Passiert das bei einem Planeten und einem Stern, dann hat dieser Planet eine ewige Tag- und eine ewige Nachtseite und es ist dann Essig mit flüssigem Wasser. Dachten sie damals jedenfalls. Wobei sie immerhin einwarfen, dass zumindest der Terminator – also die Bereiche des Planeten, die in ewiger Dämmerung liegen würden – vielleicht Wasser haben könnten. Hier hab ich ein Bild dazu gefunden, wie man sich naiverweise so eine Welt vorstellen würde. Nur, ist das viel zu einfach gedacht.
1997 zeigten Manoj Joshi und Kollegen nämlich, dass Kasting und Co einen wichtigen Faktor bei ihren Berechnungen nicht berücksichtigt haben: Dass heiße Luft von der Tag- zur Nachtseite strömt und wieder zurück. Die Luft ist ja nicht festgenagelt und bleibt da, wo sie auch erhitzt bzw. abgekühlt wird. Um das nachzubilden, braucht man aber ein 3D Modell und das hatten Joshi und Kollegen. Diese fanden heraus, dass simple Luftumwälzung, die bei uns auf der Erde als Hadley-Zirkulation bekannt ist, bereits ausreicht, um zu verhindern, dass die Nachtseite so kalt wird, dass die Atmosphäre ausfriert und die Tagseite zu heiß wird. Zumindest wenn der Luftdruck auf der Oberfläche höher ist als 30 mbar (zum Vergleich auf der Erde sind es 1 bar). So eine Lufthülle ist eben eine verdammt gute Klimaanlage.
Joshi und co kriegen etwa Temperaturen um die 46 Grad Celsius an sonnennächsten und damit heißesten Punkt eines solchen gezeitengebundenen Planeten. Ist also alles halb so wild – wenn die Klimanlage funktioniert
—————————————————————————–
Joshi, M., Haberle, R., & Reynolds, R. (1997). Simulations of the Atmospheres of Synchronously Rotating Terrestrial Planets Orbiting M Dwarfs: Conditions for Atmospheric Collapse and the Implications for Habitability Icarus, 129 (2), 450-465 DOI: 10.1006/icar.1997.5793
Kasting, J., Whitmire, D., & Reynolds, R. (1993). Habitable Zones around Main Sequence Stars Icarus, 101 (1), 108-128 DOI: 10.1006/icar.1993.1010
Heißer Kern, ‘kühle’ Oberfläche…anormal heiße Krone (Korona)
Aber ein großes Rätsel bleibt noch: Warum die äußerste Sonnenschicht – die Korona – so unglaublich heiß ist. Normalerweise ist die Atmosphäre/Plasmahülle eines Himmelskörpers innen (bei größerem Druck) heißer als außen (bei niedrigerem Druck) (1).
Das ist bei der Sonne auch so. Die Temperatur nimmt von innen (von schnuckelig warmen 14 Millionen Kelvin) nach außen hin ab (auf verhältnismäßig kühle 5800 Kelvin) – bis wir auf die Korona stoßen. Die Korona ist wieder mehr als 1 Million Kelvin heiß und damit etwa tausendmal heißer als die darunterliegende Schicht, die Photosphäre. Die Photosphäre ist übrigens die Schicht, welche das Sonnenlicht aussendet, das uns auf der Erde erreicht und das ohne große Probleme durch die Korona hindurchgeht. Die Korona ist nämlich nicht nur extrem heiß, sondern auch sehr dünn – (10-12 mal so dünn wie die Photosphäre oder ein Millionstel von einem Millionstel), und nur bei einer kompletten Sonnenfinsternis für unser Auge sichtbar.
Die große Hitze der Korona im Vergleich zur Photosphäre verrät uns, dass irgendwo eine Heizung in der Korona existieren muss – und das diese vermutlich von den darunterliegenden Plasmaschichten der Sonne gespeist wird. Energie ist da mehr als genug vorhanden. Nur wie diese Heizung funktioniert, wie Energie von unten nach oben in die Korona gelangt, das ist in der Sonnenphysik seit etwa 70 Jahre als das “Heiße Korona-Problem” bekannt. Zumindest weiß man was es nicht ist: Es ist nicht die Sonnen-Strahlung der Photosphäre. Die Korona ist für diese Strahlung im großen und ganzen durchsichtig.
Aber da die Korona auch ein Plasma ist und damit aus elektrisch geladenen Teilchen besteht, sind Interaktionen mit dem Magnetfeldern darunter ein ganz heißer Kandidat für den Heizmechanismus. Tatsächlich sieht man mit speziellen Sonnensatelliten wie dem SDO, dass sich in die Korona hinein ständig Magnetfeld-Schlaufen erstrecken.
Aber Forscherinnen wollen es ganz genau wissen: Wie denn jetzt genau die Energie von diesen Magnetfeld-Schlaufen in die Korona kommt. Zu sagen: Da sind halt Magnetfeld-Schlaufen und die interagieren halt scheinbar irgendwie, ist doch unbefriedigend.
Der wirbelnde magnetische Rock der Sonne
In den letzten 70 Jahren haben sich die Kolleginnen jedenfalls einige Gedanken gemacht und diese Gedanken in ausgeklügelte Gedanken-Experimente sprich Computersimulationen und Rechnungen gesteckt (2). Dabei gehen die Kolleginnen an meinem Institut in Leuven (dem Centre for mathematical Plasma-Astrophysics) aus, dass sich die äußere Sonnenmaterie annäherungsweise wie eine magnetische Flüssigkeit beschreiben lässt. Eine Idee für die Koronaheizung ist die sogenannte ‘resonante Absorption’ von rotierenden Turbulenzen ausgelöst durch magnetische Wellen.
Tom Van Doorsselaere beschreibt das etwa so: Die brodelnde von Magnetfeld-Schlaufen durchzogene Photosphere löst Wellen aus, die entlang der Sonnenoberfläche wandern. So wie der Rock einer Tänzerin Wellen wirft, wenn sie mit ihren Hüften seitwärts schwingt. Es gibt allerdings eine Verzögerung zwischen dem Hüftschwung und der Ausbildung der Wellen im Rock. Das ist auch im Fall des magnetischen Rocks der Sonne der Sonne so. Die Verzögerung zwischen Auslöser und der Ausbildung der Wellen, führt zu Reibung und Störungen der Welle zu rotierenden Turbulenzen (siehe auch unten). Diese erzeugen sehr viel Reibung zwischen den Wellen und der Korona und heizen so die Korona auf. Turbulenzen sind in Gasen und Flüssigkeit sowieso immer super um Energie in das System zu bringen. So wurde das zumindest in den 70ern vorhergesagt.
Aber erst vor kurzem wurde dieser Mechanismus tatsächlich beobachtet – in einer konzertierten Aktion mit dem japanischen HINODE-Weltraumteleskop und dem NASA IRIS-Teleskop (3). Der Blick mit zwei Teleskopen aus unterschiedlichen Blickwinkeln war nötig, da man die Bewegung des schwingenden rotierenden Sonnenplasmas in drei Dimensionen brauchte, um sie eindeutig mit den Vorhersagen aus den Simulationen vergleichen zu können. Und die Beobachtungen passten genau zu diesem Mechanismus.
Das ist das Beste, was einem Theoretiker passieren kann: Wenn er oder sie bislang unbeobachtete Phänomene vorhersagt und wenn Beobachtungen hinterher das Modell bestätigen. Wobei die Vorhersagen aus dem Modell so eindeutig sein sollten, dass sie mit nichts anderem verwechselt werden können. Es gibt noch einige andere Kandidaten für die Koronaheizung, auf die ich jetzt nicht eingehen möchte. Der Artikel ufert sonst aus, nich
Ist jetzt das Rätsel der Sonnenkorona-Heizung gelöst?
Warscheinlich nicht. Der Prozess der resonanten Absorption der magnetischen Wellen wurde jetzt erst das erste Mal und damit genau einmal nachgewiesen. Jetzt muss man erst mal herausfinden, wie oft das mit den rotierenden Turbulenzen passiert und wieviel Hitze dabei jeweils erzeugt wird. Kolleginnen meinten allerdings, dass sie es für unwahrscheinlich halten, dass nur ein einziger Mechanismus die Korona anheizt. Wie bereits erwähnt, es gibt noch andere heiße Kandidaten. Aber die resonante Absorption der rotierenden Turbulenzen ist zumindest ein bestätigtes Puzzlestein. Wie wichtig er ist, wird sich in der Zukunft herausstellen.
Es ist auch ein schönes Beispiel wie Theorie und Beobachtung Hand-in-Hand arbeiten können.
———————————
(1) Kleiner Exkurs: Für dieses Phänomen ist das so genannte hydrostatische Gleichgewicht verantwortlich: Relativ kühles Gas bleibt am Boden, während heißes Gas oder Plasma aufsteigt (wie ein Heißluftballon), es dehnt sich dabei aus und wird dabei kälter. Das expandierende Gas steigt solange auf, bis es eine Höhe erreicht, in der es ‘schwimmen’ kann – also der Auftrieb von seiner Gewichtskraft genau ausgeglichen wird. Und da Gase und Plasma sich extrem ausdehnen bei niedrigerem Druck, wird das anfangs heiße Gas in großer Höhe sogar kälter als das Gas am Boden. Letztendlich bilden sich so richtige Schichten mit unterschiedlich großer (innerer und potentiellen) Energie, wobei die Schichten mit der größten Energie am weitesten “außen” liegen, aber aufgrund des verschwindend geringen Drucks sehr kalt erscheinen. In der Atmosphärenforschung hantieren wir da gerne mit der potentiellen Temperatur, welche die Temperaturänderung aufgrund der Expansion in verschiedenen herausrechnet, sodass wir den Energiegehalt einzelner Luftschichten unabhängig von der Höhe miteinander vergleichen können. Wenn ich genau darüber nachdenke, ist es gar nicht so leicht zu erklären, warum Temperatur mit der Höhe abnehmen sollte – falls nicht etwas passiert, was Energie zuführt oder wegnimmt – wie z.B. in der irdischen Stratosphäre, wo das Ozon durch die UV-Strahlung angeheizt wird und so zu einer Temperaturanomalie führt. Letztendlich ist es eine Eigenschaft von Gasen, dass diese sich enorm stark ausdehnen, wenn der mittlere Druck sich mit der Höhe verringert und dabei die Temperatur entsprechend stark abfällt.
——————————
Was macht Kepler-452b so besonders?
Kepler-452b ist aber tatsächlich ein Meilenstein, was man bereits daran erkennt, dass es der potentiell habitable kleine Exo-Planet mit der bislang längsten Umlaufperiode ist: Die beträgt etwa 385 Tage und ist damit nur etwas länger als die unserer Erde (1).
Habitabel heißt hier, dass der Planet sich im ‘richtigen’ Abstand zu seinem Zentralgestirn befindet. Die Sonneneinstrahlung darf nicht zu stark und nicht zu schwach sein. Die Bandbreite dieser Planetenorbits ist die habitable Zone. Dabei gilt, je kleiner der Stern, desto kühler ist er und desto näher liegt seine habitable Zone am Stern.
Die früher gemeldeten “erdähnlichsten” Planeten umkreisten kleinere Sterne mit kleineren Umlaufperioden. Das liegt erstens daran, dass Planeten mit kleinen Umlaufperioden leichter zu entdecken sind. Zweitens sind auch Planeten um kleine Sterne besser zu entdecken als um größere. Drittens sind kleinere sonnenähnliche Sterne weitaus häufiger als größere.
Sonnenähnliche Sterne nennen wir Wasserstoff-fusionierende Plasma-Ansammlungen im All, die einige Milliarden Jahre relativ stabil Licht und Wärme abgeben. Das umfasst genauer gesagt Hauptreihen-Sterne der Spektral-Klasse M, K, G und F mit Massen zwischen 10%-120% der Sonnenmasse. Unsere Sonne ist ein G-Stern – so wie Kepler-452. Genauer gesagt ist Kepler-452b der allererste entdeckte kleine Exoplanet um einen G-Stern, der sich auch noch in der habitablen Zone befindet. Das ist der Meilenstein.
Dazu muss man aber eben wissen, dass es verschiedene “Klassen” sonnenähnlicher Sterne gibt und das die auch noch unterschiedlich häufig sind. G-Sterne machen nur etwa 7% aller sonnenähnlicher Sterne aus, M-Sterne machen dagegen über 70% aus. Tatsächlich sind große Sterne seltener als kleine.
Was ist bei Kepler-452b anders als bei unserer Erde?
Allerdings ist Kepler-452b etwa 60% größer als unsere Erde und der Planet liegt etwa 1400 Lichtjahre weit weg, so dass wir in absehbarer Zeit nicht einmal seine Masse kennen werden. Dummerweise liegt der Übergang zwischen felsigen und kleinen Neptun-Planeten bei etwa 1.5 Erdradien. Damit kann es durchaus sein, dass Kepler-452b zwar in der habitablen Zone liegt, aber dummerweise eine zu dichte Atmosphäre hat, um flüssiges Wasser zu beherbergen, wenn er überhaupt eine feste Oberfläche hat. Aber auch wenn Kepler-452b eine Mini-Neptun ist, dann wäre das auch ok. Denn mit jeder Super-Erde lernen wir mehr über Planeten und damit, inwiefern unsere Erde etwas Besonderes unter allen Planeten in dieser Galaxie ist – oder eben nicht.
Denn die Datengrundlage auf Grund dessen wir beurteilen, ob ein Planet einer gewissen Größe felsig oder gasförmig ist, ist sehr dünn. Sie basiert auf ein, zwei Handvoll Planeten von denen wir Radius und Masse haben. Die Analyse, die bei der Entdeckung von Kepler-452b herangezogen wurde, basierte auf echten Masse-Messungen von gerade mal 16 Kepler-Planeten (2). Deswegen ist es auch dringend notwendig, die Natur dieser kleinen Super-Erden mit 1-2 Erdradien besser zu verstehen- bevor wir noch besser abschätzen können, welche Planeten habitabel sind.
Erde 2.0 – Brauchen wir das überhaupt?
Überhaupt stimme ich Ethan Siegel voll und ganz zu, dass es sogar verheerend ist, sich allzu sehr auf eine Erde 2.0 auf der Suche nach dem ersten wirklich habitablen Exoplaneten zu versteifen. Ich halt es durchaus für wahrscheinlich, dass wenn wir irgendwann tatsächlich einen Planeten um einen anderen Stern finden, der flüssiges Wasser und Wasserdampf-Wolken hat, er in vielen entscheidenden Punkten von der Erde abweichen wird. Ich werde dazu demnächst eine Serie anfangen, die das genauer ausführen wird, denn es gibt schon einige ausgefeilte Gedanken-Experimente (sprich Simulationen), die flüssiges Wasser unter recht überraschenden Bedingungen zulassen.
Außerdem finde ich diese ‘erdähnlichste Planet’-Nummer inzwischen recht billig und abgedroschen. Es lässt sich damit anscheinend gut Schlagzeilen machen, aber auf die Dauer ermüdet es schon. Die Satire-Sendung WDR2 hat schon gewitzelt, dass sich die Forscherinnen bitte erst dann wieder melden sollten, wenn sie eine Köln-ähnliche Stadt in einem deutschähnlichen Land auf einem erdähnlichen Planeten entdeckt haben (WDR2-Zugabe 18.7.2015). Kann ich sogar nachvollzoiehen. Wenn man kein(e) Expert(in) ist, dann ist es auch schwer, auf die Dauer Begeisterung für “wieder einen erdähnlichen Planeten” zu zeigen. Da hat auch Florian letztens schon was zu geschrieben.
Von daher höchste Zeit für eine ausführlichere Serie zum Thema: Der lange und vor allem spannende und überraschende Weg zum ersten habitablen Exoplaneten.
—————-
(1) Jon M. Jenkins, Joseph D. Twicken, Natalie M. Batalha, Douglas A. Caldwell, William D. Cochran, Michael Endl, David W. Latham, Gilbert A. Esquerdo, Shawn Seader, Allyson Bieryla, Erik Petigura, David R. Ciardi, Geoffrey W. Marcy, Howard Isaacson, Daniel Huber, Jason F. Rowe, Guillermo Torres, Stephen T. Bryson, Lars Buchhave, Ivan Ramirez, Angie Wolfgang, Jie Li, Jennifer R. Campbell, Peter Tenenbaum, Dwight Sanderfer, Christopher E. Henze, Joseph H. Catanzarite, Ronald L. Gilliland, & William J. Borucki (2015). Discovery and Validation of Kepler-452b: A 1.6-Re Super Earth Exoplanet
in the Habitable Zone of a G2 Star The Astronomical Journal 150 : 56 (2015) arXiv: 1507.06723v1
(2) Geoffrey W. Marcy, Howard Isaacson, Andrew W. Howard, Jason F. Rowe, Jon M. Jenkins, Stephen T. Bryson, David W. Latham, Steve B. Howell, Thomas N. Gautier III, Natalie M. Batalha, Leslie A. Rogers, David Ciardi, Debra A. Fischer, Ronald L. Gilliland, Hans Kjeldsen, Jørgen Christensen-Dalsgaard, Daniel Huber, William J. Chaplin, Sarbani Basu, Lars A. Buchhave, Samuel N. Quinn, William J. Borucki, David G. Koch, Roger Hunter, Douglas A. Caldwell, Jeffrey Van Cleve, Rea Kolbl, Lauren M. Weiss, Erik Petigura, Sara Seager, Timothy Morton, John Asher Johnson, Sarah Ballard, Chris Burke, William D. Cochran, Michael Endl, Phillip MacQueen, Mark E. Everett, Jack J. Lissauer, Eric B. Ford, Guillermo Torres, Francois Fressin, Timothy M. Brown, Jason H. Steffen, David Charbonneau, Gibor S. Basri, Dimitar D. Sasselov, Joshua Winn, Roberto Sanchis-Ojeda, Jessie Christiansen, Elisabeth Adams, Christopher Henze, Andrea Dupree, Daniel C. Fabrycky, Jonathan J. Fortney, Jill Tarter, Matthew J. Holman, Peter Tenenbaum, Avi Shporer, Philip W. Lucas, William F. Welsh, Jerome A. Orosz, T. R. Bedding, T. L. Campante, G. R. Davies, Y. Elsworth, R. Handberg, S. Hekker, C. Karoff, S. D. Kawaler, M. N. Lund, M. Lundkvist, T. S. Metcalfe, A. Miglio, V. Silva Aguirre, D. Stello, T. R. White, Alan Boss, Edna Devore, Alan Gould, Andrej Prsa, Eric Agol, Thomas Barclay, Jeff Coughlin, Erik Brugamyer, Fergal Mullally, Elisa V. Quintana, Martin Still, Susan E. hompson, David Morrison, Joseph D. Twicken, Jean-Michel Désert, Josh Carter, Justin R. Crepp, Guillaume Hébrard, Alexandre Santerne, Claire Moutou, Charlie Sobeck, Douglas Hudgins, Michael R. Haas, Paul Robertson, Jorge Lillo-Box, & David Barrado (2014). Masses, Radii, and Orbits of Small Kepler Planets: The Transition from
Gaseous to Rocky Planets Geoffrey W. Marcy et al. 2014 ApJS 210 20 arXiv: 1401.4195v1
]]>
In Mitteleuropa haben wir dagegen eher mit einem zuviel an Bodenfeuchte zu kämpfen, was in Verbindung mit hohen Niederschlägen oder Eisschmelze dann zu Überflutungen führt.
Nun sind die Böden Europas recht gut zugänglich für Forscherinnen. Aber auch in entlegeneren Gebieten lässt sich Wüstenbildung und Überflutung überwachen – aus dem All. Zumindest verspricht das der NASA Satellit SMAP, der im Januar 2015 startete. Nicht nur das, SMAP kann aufgrund der sehr großen sich drehenden Empfangsschüssel und seines beinah-polaren Erdorbit ( die Erde dreht sich also unter dem Satelliten hinweg) in etwa 685 km Höhe alle 2-3 Tage eine komplette Kartierung des Globus durchführen.
Als ich das las, war ich erst mal überrascht. Wie soll das gehen? Wie soll man Wasser im Boden nachweisen? So etwas wie “Wasserstrahlen” gibt es ja nicht. Wasser – genauer gesagt – Wasserdampf absorbiert wiederum Teile des Lichts, insbesondere im Infrarot-Bereich. Dummerweise enthält bereits die Atmosphäre schon recht viel Wasserdampf und der Großteil der Wellen, die auf Wasser ‘reagieren’ wird geschluckt, bevor sie den Boden erreichen können. Ganz abgesehen davon, dass eine Welle zweimal durch die Erdatmosphäre durch müsste – vom Satelliten zum Boden und wieder zurück – um ein Signal zu ergeben.
SMAP verwendet tatsächlich Radar bzw. Mikrowellenstahlung im L-Band (1.4 GHz). Der Schlüssel zum Erfolg liegt in verschiedenen Effekten: Die sogenannte Permittivität epsilon gibt an, inwiefern ein Material – hier der Erdboden – für elektrische Felder und damit auch die Radarwelle durchlässig ist. Letztendlich bestimmt epsilon die Stärke des reflektierten Radarsignals. Und die Permittivität ist wiederum vor allem vom Wassergehalt abhängig. Epsilon bestimmt die Signalstärke.
Das reflektierte Radar gibt außerdem Aufschluss über die Rauhheit der Oberfläche: Glatte Oberflächen geben ein ‘scharfes’ helles Signal zentriert in einem bestimmten Reflektionswinkel, welligere Oberflächen streuen das Signal, dessen Stärke ist abgeschwächt und das reflektierte Signal ist über einen größeren Winkelbereich verschmiert. Die Rauhheit bestimmt also die Signalstreuung. Über letzteres kriegen Forscherinnen z.B. auch Vegetation heraus. Regenwald mit vielen hohen Bäumen streut anders als eine Tundra oder Savanne, die von Büschen und Gras als Vegetationsform dominiert ist. Wenn man weiß, welche Vegetationsform vorliegt, lässt sich wiederum auf den Wassergehalt des Bodens zurück schließen. In einer Wüste gedeihen schließlich keine großen Laubbäume.
Dazu kommt noch, dass sich die Frequenzen des Radarsignals bei der Reflektion verändern. Es wird ja nicht eine einzige Welle mit einer Frequenz ausgesandt, sondern ein ganzes Bündel mit einer gewissen Bandbreite um die Sendefrequenz. Die Signalfrequenzen des reflektierten Signals geben – nach Abzug des Doppler-Effektes – ebenfalls Auskunft über Bodenbeschaffenheit und Feuchte.
Zuletzt misst SMAP noch die Polarisation d.h. die Schwingungsebene des reflektieren Radarsignals, das sich ebenfalls in Abhängigkeit der Bodenbeschaffenheit ändert. Elektromagnetische Wellen, die an Wasseroberflächen gespiegelt werden, sind z.B. teilweise polarisiert.
Alle diese Effekte werden mit experimentell bestimmten Referenzdaten simuliert: Welcher Wert epsilon gehört zu welchem Boden und wie verändert er sich mit dem Wassergehalt? Wie werden Radarwellen gestreut? Zum Schluss gleicht man das tatsächlich von SMAP empfangene Radarbild mit den erwarteten simulierten Szenarien ab und berechnet so die aktuelle Bodenfeuchte.
Schon pfiffig, was man alles aus einem Radarsignal rauskriegt und wie die Raumfahrt mal wieder, fast unbeachtet von der Öffentlichkeit etwas sehr Nützliches hervorbringt.
——
P.S.:
Hallo Ihr’s! Ja, es gibt mich noch. Es war halt die letzten Monate doch arg stressig. Mein Projekt trägt jetzt so langsam richtig gute Früchte. Mein erstes Paper zu dem Thema ist dann auch letztes Jahr im Oktober erschienen \o/ Und ein weiteres Erst-Autoren-Paper ist gerade in der Review, das andere wird bald eingereicht und ein anderes Paper, mit mir als Co-Autorin ist auch gerade in der Mache.
Letztens hatte ich folgendes Beispiel: “Ich bin verwirrt, wegen Frage X und weiß nicht, wie die Antwort lautet. Und komm mir bitte nicht mit Studien. Wenn Du eine Studie anbringst, dann finde ich garantiert eine Studie, die das Gegenteil behauptet.”
Was soll ich auf so was antworten? Im Grunde ist das ja die totale Kapitulation vor der Komplexität der Realität. Aber es stecken auch eine Reihe falscher Vorstellungen bzw. Klischees dahinter, wie Wissenschaft angeblich funktioniert.
Manche scheinen Wissenschaftler als Buchhalter der Wirklichkeit zu sehen mit einer langen Checkliste:
Schwerkraft? Entdeckt.
Higgs-Teilchen? Entdeckt!
Mit so einem Bild ist es vielleicht verwirrend, wenn man von einer neuen Studie erfährt, die der letzten Studie zu widersprechen scheint. Es scheint mir so, als ob die Leute erwarten, dass nie wieder irgendjemand an einem naturwissenschaftlichen Phänomen forscht, wenn es mal entdeckt wurde. Ich könnte es auch das “Die Wissenschaft hat festgestellt”-Syndrom nennen.
Dabei ist Wissenschaft harte Arbeit und oft genug sehr verwirrend. Deswegen schreibe ich auch über sich widersprechende Planeten-Angaben im Exoplaneten-System Gliese 561. Weil genau so wissenschaftliche Arbeit auch aussieht – und das ist auch gut so. Man kann doch nicht immer nur dem Leithammel und der Leitkuh hinterher dackeln. Erstens ist das langweilig und zweitens vertun die sich oft genug selbst. Das muss nicht mal Datenfälschung oder Manipulation. Schon der ehrliche Wunsch z.B. einen neuen Planeten entdecken zu wollen und der seiner/m Liebsten zu widmen reicht schon, um ein Signal sehen zu wollen, wo andere keins sehen. Irren ist zutiefst menschlich oder wie Richard Feynman es formulierte: “The first principle is that you must not fool yourself and you are the easiest person to fool.” Ich formuliere es etwas anders: “Die erste Person, die Du verarschst, bist Du selbst”
Leider kam letztens wieder ans Licht, wie wichtig dieses Prinzip gerade in der Forensik ist. Cornelius erzählt dazu Erschütterndes. Wenn ich als Exoplaneten-Forscherin einen Planeten zuviel entdecke, ist das vielleicht ärgerlich, vielleicht schrotte ich meine Karriere, wenn ich absolut unbelehrbar bin. Kurz – der Schaden hält sich in Grenzen. Dazu beitragen Menschen fälschlicherweise zum Tode zu verurteilen, dass ist schon eine Riesenschweinerei – auch weil es Jahre dauerte bis die Wissenschaft dahinter endlich mal wahrgenommen wurde. Wer hört auch schon auf die doofen Wissenschaftlerinnen, wenn man vermeintlich sichere Verurteilungen will? *Grummel*
Diese kognitive Verzerrung gilt sowieso immer und überall. Wir halten uns selbst im Allgemeinen für toller, klüger, schöner und netter als die meisten anderen Menschen, was natürlich nur auf einen Bruchteil wirklich zutrifft. Sonst wäre das Leben vielleicht auch schwer zu ertragen. Es gibt einen Grund warum der unsterbliche Terry Pratchett als Gegenteil von betrunken nicht nüchtern eingeführt hat, sondern knurd, ein Zustand der einem die Welt in einem erschreckenden harschen Licht zeigt und den man nicht lange erträgt (1)
Aber ungeachtet aller Verzerrungen, wird sich der harte Kern der Wahrheit(TM) schon herausschälen – zumindest solange es erlaubt und auch finanziell gefördert wird nachzufragen. Wenn jemand etwas Neues herausgefunden haben will, was vorher noch niemand gesehen hat, dann muss sich das eben erst einmal bewähren. Letztens habe ich einen interessanten Artikel gelesen zum Thema “Idee, die erst mal gut klang und dann doch länger dauerte sich durchzusetzen: ” This week in Science 100 years ago. Es ging um die Meldung der Entdeckung eines Typhus-Impfstoffes im Jahr 1915, die sich dann als doch nicht so effektiv erwies als gedacht. Solche Geschichten passieren ständig, geraten aber im Laufe der Zeit in Vergessenheit, weil sich echte Erfolgsgeschichten einfach besser verkaufen.
Umgekehrt natürlich ist irgendwann Wissen so gefestigt, dass es sich nicht nur über Jahrzehnte gehalten und eine Flut von nachfolgenden und aufbauenden Ergebnissen liefert, irgendwann kann man es vielleicht beim Discounter um die Ecke kaufen. Mein Navi hab ich da gekauft. Dieses gebraucht den Teil der allgemeinen Relativitätstheorie, der vorhersagt, dass Uhren langsamer oder schneller ticken – je nachdem ob man sich im Gravitationsfeld der Erde auf dem Boden oder im Orbit aufhält – und den Teil der speziellen Relativitätstheorie, der vorhersagt, dass Uhren unterschiedlich gehen, wenn sich zwei Objekte recht flott relativ zueinander bewegen – wie eben das Auto am Boden und der Satellit. Das heißt nicht, dass jetzt die Gravitation in allen ihren Einzelheiten komplett verstanden ist und da nicht irgendwo was drinsteckt, was überarbeitet werden wird. Aber nur weil wir nicht alles wissen, heißt es nicht, dass wir nichts wissen. Binäres 1:0 denken, ist hier einfach nicht.
Leider fallen immer wieder Leute auf die, “das einsame Genie zeigt es dem verkalkten Establishment”-Geschichte herein. Es gibt sicherlich tausende, die dem Paten der Wissenschaft ‘widerlegen’ möchten – was gut und billig ist, schließlich ist der Mann Jahrzehnte tot und kann sich nicht wehren. Sie sehen dabei leider nicht, dass Ihr eigentlicher Gegner weder eine tote Berühmtheit, noch das wissenschaftliche Establishment ist, sondern die Wirklichkeit selbst.
Das scheint mir überhaupt ein Kardinal-Problem des ‘Pans narrans’ zu sein: Der Geschichten-erzählende Affen – also wir – zieht eine gute Story der Wirklichkeit in der Regel vor – und nimmt sich dabei selbst so unglaublich wichtig. Wie meinte ich noch oben: “Wir sind die Tollsten und Schönsten bla bla bla” Dabei ist die Welt hinter den Geschichten dank Citizen Science inzwischen auch für jeden erreichbar. Es war noch nie so leicht wie heute, Wissenschaft zu seinem Hobby zu machen. Im Niederländischen gibt es die schöne Redewendung “al doende leert men“: Nur wer etwas damit tut, kann es auch wirklich begreifen. Ich bin sowieso absolut dafür, in Schulen ständig kleine Studien durchführen zu lassen. Kinder sind aufgrund ihrer natürlichen Neugierde perfekte kleine WissenschaftlerInnen.
Allerdings verstehe ich schon, dass nicht jeder soviel Mühe darauf verwenden will. Und auch das Lesen und Bewerten von Studien ist für den normalen Laien einfach zu viel verlangt. Die Arbeiten sind auf Englisch verfasst, dazu kommt die so genannte ‘Paywall’, die dafür sorgt, dass viele Fachaufsätze gar nicht erst von jedermann gelesen werden können. Deswegen braucht es Wissenschafts-Übersetzer. Fachjournalisten, die das Ganze einordnen. Man lässt ja auch keinen Wirtschaftsjournalisten ein wichtiges Fußballspiel kommentieren, der noch nicht mal die Spielregeln kennt. Leider passiert aber genau das oft genug in der Presse- und Medienlandschaft. Man liest einen Artikel von jemandem, der einfach nicht versteht, wie “Wissenschaft” funktioniert. Wir bloggenden WissenschaftlerInnen dagegen können dem Prozess Wissenschaft ein menschliches Gesicht geben und hoffentlich ein wenig zeigen, was es im Alltag bedeutet. Oder aus unserer Perspektive eingreifen.
Weitere nette Beiträge zum Thema:
‘Tooth fairy science‘ aber auch Englisch.
Carl Sagans productivity kit. (auch Englisch).
Florian hatte letztens einen schönen Beitrag geschrieben. Internet-Diskussionen bringen nichts.
Ein anderer Florian Jörg produziert unter diewahrheit.at auch immer schöne Videos zu dem Thema.
———
(1) Sir Terry Pratchett (seufz) einer der lustigsten und scharfsinnigsten Humanisten, die je gelebt haben. So long, Terry…
Gesichert ist die Existenz von mindestens zwei Planeten: 2005 wurde mit Gliese 581 b ein Neptun-Planeten entdeckt, 2007 folgte die Entdeckung von Gliese 581 c, der mit einer fünf-fachen Erdmasse eine Super-Erde oder ein Mini-Neptun ist. Leider kennen wir von Gliese 581 c seine genaue Natur nicht, weil die Planeten ‘nur’ durch die so genannte Radialgeschwindigkeitsmethode entdeckt wurden. Damit ist die Planetenmasse und sein Abstand zum Zentralstern bekannt, das war es aber auch schon.
Tja und jetzt wird es haarig. 2007 wurde auch scheinbar ein weiterer 8-Erdmassen-Planeten, Gliese 581 d, entdeckt. 2009 folgte die Entdeckung von Gliese 581 e, der gerade mal 2 Erdmassen groß ist. Der Planet besteht also ziemlich sicher aus ähnlichem Material wie unsere Erde, er umkreist aber seinen Stern in einer sehr engen Umlaufbahn, für die Gliese 581 e gerade mal etwas mehr als drei Erdtage braucht. 2010 wurde dann angeblich Gliese 581 f und g entdeckt. Gliese 581 g sollte sogar ein nur 3 Erdmassen-schwerer Planet in der habitablen Zone des Sterns zu sein. Leider stellten sich beide “Planeten” letztendlich als Artefakte heraus.
Das war ein Drama!
Das Super-Erden Teil 1
Das Super-Erden Teil 2
Das Super-Erden Teil 3
Das Super-Erden Teil 4
Das Super-Erden Teil 5
Es ist nämlich gar nicht so einfach mit der Radialgeschwindigkeitsmethode mehrere Planeten zu entdecken, vor allem wenn man nach kleinen erdgroßen Planeten sucht.
Denn die Methode funktioniert nur, wenn wir die Anziehungskräfte der vermuteten Planeten auf den Zentralstern messen. Hier hatte ich es noch mal genauer erklärt. Aber wenn da mehrere Planeten sind, wirken die Anziehungskräfte aller Planeten gleichzeitig und überlagern sich. Da ist es nicht weiter verwunderlich, wenn zusätzliche Messdaten mit einem anderen Gerät oder/und eine neue Auswertung der Daten zum “Verschwinden” von Planeten führt.
Seit letztem Jahr steht nun auch die Existenz von Gliese 581 d zur Disposition -aber nicht, weil es kein Signal gibt – da ist schon was, da sind sich alle ExpertInnen einig. Aber Paul Robertson und seine KollegInnen haben sich die Aktivität des Zentralsterns genauer angehen. Jeder Stern – auch unsere Sonne – flackert etwas, alleine aufgrund der Prozesse, die in der äußeren Sternenschale stattfinden. SDO schaut sich das ganze sehr genau bei unserer Sonne an:
Dazu kommt, dass der Stern Gliese 581 selbst mit etwa 130 Tagen um seine eigene Achse rotiert. Wenn wir das mit der Orbitperiode von Gliese 581 d mit 66 Tagen vergleichen, dann ist das recht nach an der Hälfte der Sternrotation. Das wäre schon ein recht außergewöhnlicher Zufall und ich hab zumindest gelernt, dass bei genauen Vielfachen in einer Periodenanalyse alle Alarmglocken klingeln sollten. Fairerweise muss man sagen, dass die ursprünglichen Entdecker nicht genau wussten, welche Rotationsperiode der Stern hat. Sie wussten nur, dass sie sehr langsam ist. Jetzt im Nachhinein ist es natürlich leicht zu sagen “Könnte, würde, hätte”.
Am 6.3. 2015 gab es dann eine Antwort auf die Arbeit von Paul Robertson und co: Guillem Anglada-Escudé und Mikko Tuomi machen die durchaus nicht von der Hand zu weisende Bemerkung, dass Robertson und seine Kolleginnen die Sternenaktivität von der Planetenaktivität abgezogen haben und dann mit der Differenz weitergearbeitet haben und dass das aber nur dann Sinn macht, wenn man die Sternenaktvität auch genau versteht. Und das ist tatsächlich ein großer Knackpunkt – nicht nur bei dem vorliegenden Fall sondern allgemein, wenn wir sehr kleine Exoplaneten untersuchen wollen, oder die Atmosphäre von Exoplaneten. Die Sternaktivität macht uns da die Arbeit nicht gerade leicht.
Wir sind im Moment jedenfalls in einer Situation, in der nicht die Ungenauigkeit der Messinstrument, sondern die Ungenauigkeit der Modelle der Sternenphysik eine weitere Erforschung von Exoplaneten schwierig macht. Das ist aber auch jedem in der Exoplaneten-Forschung bewusst und es wird auch einiges in der Hinsicht unternommen. Neue Modelle, neue Beobachtungsstrategien. In der Zwischenzeit geht es halt ein bisschen rund
Apropos rund! Robertson und co hatten auch eine Antwort auf den Kommentar zu ihrer ursprünglichen Arbeit: Die Autoren geben zu, dass Guillem Anglada-Escudé und Mikko Tuomi grundsätzlich Recht haben und dass im Moment alle daran arbeiten, die Sternenvariation besser in den Griff zu kriegen. Sie sagen aber auch, dass sie im Grunde ähnliche Methoden verwendet haben, die ursprünglich zur Entdeckung von Gliese 581 d geführt haben. Was natürlich auch stimmt. Letztendlich finden sie aber immer noch, dass es wahrscheinlicher ist, dass das Signal kein Planet ist. Wie gesagt: Die Hälfte der Rotationsperiode des Sterns ist schon arg verdächtig. Gliese 581 d existiert also vermutlich nicht.
Aber wir werden sehen. Ich bin mir relativ sicher, dass das nicht das letzte Wort zu den Planeten von Gliese 581 war. Tja, das ist nun mal Forschung am Rande des Machbaren. Aber das macht für mich auch den Reiz in der Exoplaneten-Forschung aus: No risk, no fun
]]>
Nach einer Milliarden Jahre sind sonnenähnliche Sterne gerade erst ihren Kinderschuhen entwachsen und erdähnliche Planeten beginnen gerade erst soweit abzukühlen, dass sich die ersten Kontinente bilden können. Ein Stern wie unsere Sonne hat zu diesem Zeitpunkt noch neun Milliarde Jahre zu “leben”. Zwar gibt es durchaus gute Theorien, wie es zwischen einer und 10 Milliarden Jahre weitergeht mit der Rotation, nur finde ich das persönlich schon ein bisschen wackelig, wenn wir dazwischen nur die Sonne als einzig wirklich belastbaren Datenpunkt haben.
Um so mehr freue ich mich über die Arbeit von Soren Meibom und seinen KollegInnen, die am 29. Januar 2015 in Nature veröffentlicht wurde (1). Es gibt da nämlich tatsächlich einen Sternenhaufen, der ganze 2.5 Milliarden Jahre alt ist. Dieser Haufen heißt NGJ 6819 und wurde bereits von Caroline Herschel entdeckt, über deren Leben Florian letztens was erzählt hat. NGJ 6819 ist allerdings mit einer Entfernung von etwas 7200 Lichtjahren recht weit weg. Es wird also schwierig, die Rotation eines Sterns zu messen. Soren Meibom und co ist es nun gelungen, die Rotation dieser Sterne sehr genau zu vermessen und zwar mit Kepler. Aber zunächst einmal ein kleiner Exkurs.
Wie messen wir jetzt eigentlich Sternrotation? Doppler-Effekt und Sternendrehung
Die am weitesten verbreitete Methode – die aber leider nicht sehr genau ist – nutzt wieder einmal den guten alten Dopplereffekt und wendet ihn auf die Spektrallinien des Sterns an. Spektrallinien, das bedeutet, dass bestimmte Farben des Lichtes von der Sternenatmosphäre bzw. von den Atomen darin geschluckt werden. Das sind sehr eindeutige Linien, deren Wellenlängen – also Farbe – sich immer bestimmten Atomen zuordnen lassen. Und eben diese Linien werden durch die Rotation eines Sterns beeinflusst. Wenn ein Stern sich dreht, bewegt sich die eine Hälfte des Sterns in unsere Richtung, die andere Seite von uns weg. Wir sehen dabei allerdings immer “nur” den Anteil der Rotationsgeschwindigkeit der äußeren Sternenbereiche entlang unserer Blickrichtung. Da wir den Stern selbst nicht räumlich auflösen können, sehen wir diese ganzen Dopplerverschiebungen aller rotierenden Außenteile des Sterns gleichzeitig – sowohl die in die blaue und als auch die in die rote Richtung. Dadurch erscheint die Spektrallinie breiter als sie es ohne Rotation sein sollte.
Allerdings ist die Sternrotation bei weitem nicht der einzige Effekt, der die Spektrallinien verbreitert, wie das auch hier auf der Webseite von Brian E. Martin erklärt wird. Temperatur und Druck und Turbulenzen auf dem Stern verändern ebenfalls die Spektrallinien. Je langsamer ein Stern rotiert, desto schwieriger wird es daher die Rotation von den anderen Einflüssen zu trennen. Ab 10 km/s – das entspricht etwa einer Sternrotation von 15 Tagen – wird es sehr, sehr schwer. Das ist aber leider genau der Bereich für den wir uns interessieren . Zur Erinnerung, unsere Sonne hat sogar eine Rotationsperiode von nur 27 Tagen.
Und hier kommt jetzt Kepler in’s Spiel.
Kepler war ursprünglich für die Planeten-Entdeckung und für die Astroseismologie konzipiert (zu letzterem erzähle ich demnächst mehr). Dazu nimmt Kepler die Helligkeit von vielen Sternen mit sehr hoher Genauigkeit auf. Bei einigen dieser Sterne haben wir Glück, dass ihre Planeten – von uns aus gesehen – vor ihnen herziehen. Wir sehen einen Planetenschatten – einen Transit. Zufälligerweise liegen auch die Sterne aus dem Haufen NGJ 6819 in Keplers Blickrichtung. Weiterhin sieht man nicht “nur” Planeten, wenn man die Helligkeit eines Sterns genau aufzeichnet.
Sternenflecken als Indikator für Sternrotation
Unsere Sonne hat Flecken. Diese bilden sich aufgrund des Zusammenspiels zwischen Magnetfeld und dem “kochenden” Plasma auf der Sternenoberfläche. Wobei “kochend” durchaus wörtlich gemeint ist.
Das Brodeln auf der Sonnenoberfläche ähnelt durchaus dem Brodeln im heimischen Wassertopf. Tatsächlich handelt es sich in beiden Fällen um Konvektion. Auch sonnenähnliche Sterne haben Magnetfelder und Konvektion und stoßen Sternenwind aus. Sie haben also auch Sternenflecken. So ein Sternenfleck ist kühler als die umgebenen Plasmamassen und erscheint daher dunkler als die “ungestörte” Sternenoberfläche. Das Auftreten dieser Flecken führt also in einer genauen Aufzeichnung der Sternenhelligkeit – wie sie Kepler durchführt – zu einer Verdunkelung. Tatsächlich haben junge Sterne sogar richtig große Flecken.
Wie bei unserer Sonne entstehen und vergehen neue Sternenflecken auf sonnenähnlichen Sternen am laufenden Band. Aber sie leben meist lange genug, um mindestens zwei Sternrotationen mitzumachen. Und genau deswegen können wir auch anhand von Sternenflecken die Sternrotation bestimmen. Wir können bei einer Helligkeitaufzeichnung die Zeit zwischen dem Erscheinen von Sternenflecken messen. Da die Abstände verschiedener Flecken zueinander und auch der Zeitpunkt des Vergehens eines einzelnen Fleckens recht zufällig ist, werden wir zwar erst mal eine ganze Reihe willkürlicher Perioden sehen. Da aber die meisten Flecken lange genug leben, um einmal um den Stern herumgetragen zu werden, wird die Sternrotations-Periode immer und immer wieder auftauchen. Eine gute Frequenzanalyse des Sternenflecken-Auftauchens ergibt daher die Sternrotation – vor allem wenn man so hervorragende Daten hat wie Kepler sie produziert. Soren Meibom und co haben das Verfahren mit den Sternenflecken auf den 2.5 Milliarde Jahre alten Sternenhaufen NGJ 6819 angewandt und voila: Endlich wurde zumindest die Lücke zwischen einer und 4.5 Milliarden Jahre gefüllt. Ach ja und es passt auch ganz gut zu der Theorie, die ich im letzten Teil erwähnt hatte. Puh! Glück gehabt
Und zum Abschluss habe ich dann noch das folgende tolle Video von Soren Meibom zur Entdeckung gefunden: Es lohnt sich, es anzuschauen.
——————————————————————————————————————–
(1) Meibom, S., Barnes, S., Platais, I., Gilliland, R., Latham, D., & Mathieu, R. (2015). A spin-down clock for cool stars from observations of a 2.5-billion-year-old cluster Nature, 517 (7536), 589-591 DOI: 10.1038/nature14118
Aber ein paar Dinge verändern sich im Laufe eines Sternen-Lebens dann doch. In den 60ern und 70ern fiel einigen AstronomInnen auf (1), dass sonnenähnliche Sterne sich unterschiedlich schnell um sich selbst drehen: Junge Sterne rotieren recht flott mit Perioden von einigen Tagen und ältere recht langsam mit Rotationsperioden von typischerweise ein paar Dutzend Tagen. Die Sonne z.B. dreht sich etwa alle 25-27 Tage um sich selbst (2). Als Kalibrierungspunkte dienten für die Beziehung zwischen Alter und Rotation: unsere Sonne und ein paar Sternenhaufen.
Denn auch wenn wir von einzelnen Sternen – mit Ausnahme unserer Sonne – das Alter nicht herauskriegen können, so kriegen wir aber das Alter von einer zusammenhängenden Sternen-Gruppe heraus.
Sternenhaufen – gemeinsamer Startpunkt, unterschiedlich schnell tickende Uhren
Sterne werden nicht alleine geboren sondern in einem großen Haufen. Sie bewegen sich auch erst einmal gemeinsam als Gruppe, weil sie nah genug zusammen stehen, dass sich durch Gravitationskraft gegenseitig “an den Händen halten” Sie lassen sich durch die gemeinsame Bewegung durch den Raum und ihre ähnliche chemische Zusammensetzung (weil sie ja aus der gleichen Gaswolke stammen) auch eindeutig als zusammengehörig bestimmen. Zudem beinhaltet so ein Sternenhaufen (der hunderte bis tausende Sterne enthält) eine ganze Bandbreite von unterschiedlich massiven Sterne, je nachdem wie viel Gas sich zufällig an der Geburtsstätte im unmittelbaren Einflussbereich des Kollaps befand. Unterschiedlich schwere Sterne, haben aber eine sehr unterschiedliche Lebensdauer – und lassen sich auch noch anhand ihrer Farbe (Temperatur) gut voneinander unterscheiden. Masse-reiche Sterne sind z.B. heiß und blau Sterne und leben nur ein paar dutzend Jahrmillionen. Ihre Lebensuhren ticken sehr, sehr schnell im Vergleich zu weniger massiven Sternen. Sonnen-Zwillinge leben dagegen etwa 10 Milliarden Jahre. Wenn es also keine heißen, blauen Sterne mehr in einem Cluster gibt, ist der Haufen – und damit alle Sterne darin – auf jeden Fall älter. Wenn man also eine Bestandsaufnahme der noch Wasserstoff-fusionierenden Sterne eines Sternenhaufens anhand ihrer Masse macht, lässt sich so das Alter aller Sterne des Haufens recht genau bestimmen.
Dummerweise leben Sternencluster nicht sehr “lange”. Auch wenn das Weltall recht leer ist, so sprechen wir hier von Zeiträumen von Jahrhundertmillionen bis Jahrmilliarden. In dieser Zeit kommt einer Sternen-Gruppe genügend anderes Zeugs so nah, dass es über die Gravitation miteinander interagiert: einzelne Sternen, Sternengruppen, kleinere Galaxien und auch die Sterne im Haufen selbst kommen sich immer wieder gegenseitig in die Quere. Die Sterne sind ja nicht festgenagelt und stehen recht eng beieinander. Eine kleine Störung reicht schon, und es kommt zu “Rempeleien”. Durch alle diese Prozesse werden Sterne aus dem Cluster heraus katapultiert und der Haufen dünnt nach und nach aus. Dann sollte so ein Sternenhaufen auch nicht allzu weit weg sein, sonst kann man die Eigenschaften der individuellen Sterne nicht gut studieren, wie eben ihre Rotation.
Hier gibt es ein sehr hübsches Bild von den Hyaden, die gerade einmal 10 Lichtjahre entfernt und etwa 625 Millionen Jahre alt sind. Diese und die Plejaden werden gerne für solche Altersstudien genommen,
Leider gab es lange Zeit “nur” Rotations-Messungen aus Sternenhaufen, die maximal 1 Milliarde Jahre alt waren. D.h. die Verlangsamung der Sternen-Rotation mit zunehmendem Alter konnte nur mit echten Jungspunden unter den sonnen-ähnlichen Sternen und unserer Sonne richtig gut kalibriert werden. Irgendwie müssen also die Lücken dazwischen gefüllt werden.
Warum rotieren die Sterne eigentlich immer langsamer?
Wenn man z.B, weiß, warum Hauptreihen-Sterne im Laufe ihres Lebens immer langsamer rotieren, und das gut genug versteht, dann kann man berechnen, zu welchem Alter welche Rotationsperiode passt. Wir könnten Gyrochronologie betreiben. Tatsächlich haben die ForscherInnen eine recht gute Idee, was da passiert und sie können es auch anhand der Sonne recht gut direkt nachzuvollziehen (3). Der Effekt nennt sich “magnetic braking” Um diesen Mechanismus zu erklären, finde ich es ganz nützlich eine anschauliche Analogie heranzuziehen – und die kommt aus der Raumfahrt.
Einige Raketenstufen werden in schnelle Rotation versetzt, um ihre Flugbahn zu stabilisieren. Die letzte Stufe der Rakete, welche die Mars-Sonde Phoenix in’s Weltall brachte, war z.B. so stabilisiert. Je nach Aufgabe des Satelliten muss man aber in einigen Fällen diesen Spin wieder loswerden, bevor der Satellit ausgebracht wird. Und das passiert auf eine – wie ich finde – sehr elegante und pfiffige Art und Weise ohne Treibstoff zu verschwenden und mit einem Minimum an Fehlern: Mit der Yo-Yo-Despin-Methode:
Hier ist eine schön detaillierte Beschreibung der Gleichungen dahinter. Im Grunde braucht man nur zwei Gewichte an je einem langen Faden, die beide um die Raumsonde gewickelt sind. Wenn die Verankerung der Gewichte gelöst wird, werden die beiden Massen an den sich selbst aufwickelnden Fäden nach außen geschleudert und dabei wird Drehimpuls vom Zentralkörper auf die beiden Massen transferiert. Und zwar wird weitaus weitaus mehr Drehimpuls transferiert, als wenn man die Massen direkt vom rotierenden Körper – ohne Fäden – abwerfen würde. In vielen Fällen werden die Fäden schließlich gekappt und die Massen ganz weggeworfen. Es ist ein bisschen so, wie das Beispiel mit dem Drehstuhl und den Hanteln, die man ausstreckt. Nur dass hier dann oft die “Hanteln” und die “Arme” hinterher entfernt werden.
So etwas ähnliches passiert auch bei sonnenähnlichen Sternen. So ein Stern stößt ständig geladene Partikel – also Plasma – als Sternenwind aus. Diese Teilchen sind also unsere Yo-Yo-Gewichte. Da der Sternenwind elektrisch geladen ist, “hängt” er erst einmal am Magnetfeld des Ursprung-Sterns fest. Genauer gesagt bewegen sich die Ionen und Elektronen in Korkenzieher-Bahnen entlang der Magnet-Feldlinien. Man könnte also die Magnetfeldlinien hier als imaginäre ” Fäden” sehen, an denen sich das Sternenwind-Plasma nach außen wickelt und dabei Drehimpuls weg trägt. Aber einer gewissen Distanz werden die “Fäden” sogar “gekappt”. Das Plasma wird immer schneller, wenn es sich von der Sonne weg bewegt und irgendwann wird es so schnell, dass es sich vom Magnetfeld in unmittelbarer Nähe zur Sonne lösen kann (4). Natürlich sind die Sternenwind-Teilchen winzig. Wir sprechen v.a. von Protonen und Elektronen. Aber davon wird zum einen eine durchaus große Menge ausgestoßen: Pro Sekunde stößt die Sonne etwa eine Million Tonne als Sonnenwind aus. Das Ganze passiert dann auch über einen sehr langen Zeitraum von Jahrmilliarden Jahren und der “Hebelarm” ist sehr lang: Bei unserer Sonne werden die “Fäden” etwa bei drei Sonnenradien-Entfernung “gekappt” (4).
Mit diesem Wissen, lässt sich die Verlangsamung der Sternrotation von jungen Sternenhaufen aus vorhersagen. Umgekehrt könnte man dann also theoretisch einer Sternrotation ein Alter zuweisen.
“Seufz” Ich hab mir das durchaus sehr genau angeschaut, und auch damit gearbeitet und es ist eben leider nicht ganz so simpel.
Es gibt Unsicherheiten in der Theorie, die immer größer werden, je weiter wir uns massen-mäßig von der Sonne entfernen. Unserer Sonne liefert leider “nur” einen einzelnen “Datenpunkt” in einem Massenbereich, der idealerweise 1.4-0.2 Sonnenmassen abdecken sollte. Zudem werden die Unsicherheiten der Kalibrierung immer größer, wenn wir von den jungen Sternenhaufen zu älteren Sternen hoch rechnen. Dann sind die jungen sonnenähnlichen Sterne aus den Sternenhaufen, die man zur Kalibrierung einsetzt, teilweise noch nicht “komplett” fertig. Sie sind in einer Zwischenphase zwischen Proto-Stern und einem ruhig vor sich hinstrahlendem sonnenähnlichen Stern. Und wenn diese Sterne gerade Planetensysteme bilden, kann die Interaktion mit der umgebenen Staub-und Gasscheibe auch einen Einfluss auf die Sternrotation haben. Diese protoplanetaren Scheiben wurden aber erst ab den 90ern so richtig untersucht – mit den Entdeckungen der Exoplaneten. Die Teleskope waren eben lange Zeit nicht so weit, die Planeten und Planeten-Entstehung sehen zu können. Es passiert also potentiell einiges mit der Sternrotation zwischen der Momentaufnahme, die uns die jungen Sternenhaufen liefern und einem eher mittelalten Stern, der vielleicht von einem habitablen Planeten umkreist wird. Und dann habe ich noch nicht damit angefangen, dass sich Sternrotationen sehr schwer messen lassen, wenn so ein Stern erst mal bei ner Rotationsperiode von 10 Stunden und darüber angelangt ist. Jahrelang hab ich Messungen zusammengetragen, die typischerweise so aussahen:
Rotationsperiode: 30-10 +20 Stunden (Und das war noch eine gute Messung).
Oder: Die Rotationsperiode ist langsamer als 40 Stunden.
Ja, danke auch! Die Methoden gaben leider lange Zeit nicht mehr her. Es ist aber auch nicht so, dass es viele ForscherInnen gibt, die sich mit sowas beschäftigen. Deswegen nerve ich auch so ziemlich jede/n Astronomen/-in damit, dass wir PlanetenforscherInnen: Das Alter von sonnenähnlichen Sternen brauchen! Und das Thema wichtig ist. Und es sich lohnt da genauer hinzusehen. Ja, ich hab inzwischen einen gewissen Ruf hier in Leuven. Ich bin die, die mit dem Alter rumnervt
Hach ja, was hab ich mir jahrelang irgendwas gewünscht,um diesen ganzen Kladderadatsch an Unsicherheiten besser abzusichern, damit ich dann damit weiterarbeiten kann. Vor ein paar Wochen ist mein Wunsch dann endlich, endlich, endlich (teilweise) erhört worden. Dank Caroline Herschel und dem Weltraum-Teleskop Kepler. Aber dazu mehr im nächsten Teil.
—————————————
(1) Skumanich, A., Time Scales for CA II Emission Decay, Rotational Braking, and Lithium Depletion.,Astrophysical Journal, vol. 171, p.565, 1972
(2) Je nachdem, ob man am Sonnen-Äquator oder eher am Sonnen-Pol misst. Aber das fällt hier nicht weiter in’s Gewicht.
(3) Weber&Davis, The Angular Momentum of the Solar Wind, Astrophysical Journal, vol. 148, p.217-227, 1967
(4) Für Cracks, hier ist die Rechnung dazu.
Wie sie entstehen. (Kollaps einer Gaswolke unter Eigengravitation).
Ja, sogar wie sie enden werden. (Erst Roter Riese dann weißer Zwerg.)
Wir wissen auch ungefähr, wie lange sie etwa sonnenähnlich bleiben werden: Die Sonne z.B. hat eine Gesamtlebensdauer von 10 Milliarden Jahren. Aber wo sie genau altersmäßig in ihrer Entwicklung stehen, das ist überraschend schwierig festzustellen – falls der Stern sich nicht ganz am Anfang oder ganz am Ende seiner Entwicklung vom Proto-Stern zum Roten Riesen befindet; oder vor unserer Haustür, wie unsere Sonne.
Ich weiß noch, wie ich ganz am Anfang meiner Doktorarbeit versucht habe herauszufinden, wie alt so ein Stern ist, um den ein Exoplanet kreist. Heraus kam – wenn ich den überhaupt Werte fand – z.B. Alter: 5 Milliarden Jahre plus/minus 3 Milliarden Jahre. Wenn so ein Stern insgesamt mindestens 10 Milliarden Jahre alt werden kann (2), ist das jetzt nicht soooo eine starke Aussage.
Aber warum ist es so verdammt schwer, dem Stern sein Alter anzusehen?
Das liegt vor allem daran, dass vom Gesichtspunkt eines Sterns die Hauptreihe- so nennt sich die sonnenähnliche Phase – eine recht langweilige Phase der Sternenentwicklung ist. Der Stern fusioniert zwar stetig Wasserstoff in seinem Inneren. Es ist aber leider nicht so, dass er außen eine genaue Tankanzeige trägt, die anzeigt, wie hoch der “Füllstand” an Wasserstoff im Inneren ist. Ok, der Stern wird im Laufe der Zeit etwas größer und heller, aber das sind Zunahmen um die 10% im Verlauf mehrerer Jahrmilliarden. Die Sternenmodelle geben aber von Anfang an “nur” eine Genauigkeit von 5-10% für den Sternenradius her. Das ist schon recht genau, wenn man bedenkt, dass wir da nie hin fliegen und Maß nehmen können. Außerdem..wozu genauer hinsehen? Es passiert ja eh nicht viel in der Zeit?
Eine vom Standpunkt des Sterns langweilige Frage ist für Planeten auf einmal überlebenswichtig
Laien mögen denken, dass es zu jedem Thema irgendwo AkademikerInnen gibt, die sich ihm Vollzeit widmen. Aber erstens sind wir gar nicht so viele und zweitens leben wir auch nicht von Luft und Liebe, sondern sind darauf angewiesen, dass uns jemand Geld zum Forschen gibt. Gerade wenn es darum geht, Gelder zu einzutreiben, gewinnen natürlich die Forschungsanträge, die spektakulär klingen. Meiner persönlichen Einschätzung nach galten mittelalte sonnen-ähnliche Sterne bis Ende der 90er als ziemlich uninteressant. Das änderte sich erst so langsam, als die Exoplaneten entdeckt wurden.
Für Planeten – und vor allem mögliches Leben – sind langweilige Sterne nämlich super. Ihr wollt ganz sicher nicht einen variablen Stern (Leuchtkraft schwankt viel zu stark) oder einen blauen Riesen (lebt nicht lang und strahlt viel UV und Röntgenstrahlung) am Himmel stehen haben.
Für Leben auf einem Planeten nämlich können bereits 10% Unterschied in der Sonneneinstrahlung den Unterschied zwischen blühenden Landschaften und Tod und Vernichtung ausmachen. Tatsächlich verschiebt sich die habitable Zone im Laufe der Jahrmilliarden Jahre immer weiter vom Stern weg und wird auch enger.
Für PlanetenforscherInnen ist das Alter also verdammt wichtig. Wenn ich ein Sternensystem habe, von dem ich “nur” weiß, dass es zwischen 2 und 8 Milliarden Jahre alt ist, dann steckt ein Erd-Zwilling entweder gerade mitten im Archaikum – bildet also gerade erst Kontinente und seine (mehr oder weniger endgültige) Atmosphäre aus – oder aber wir haben einen geologisch inaktiven Planeten vor uns, ohne Plattentektonik und schützendes Magnetfeld, auf dem zu allem Übel das ganze Wasser verdunstet ist.
Ende Teil 1
Im nächsten Teil, “Wie alt bist du strahlende Schönheit? (II) – Wie entlocken wir Dir Dein Geheimnis?”, geht es dann um “Händchen-haltende Jungsterne”, Jo-Jos im Weltall und Sternenklänge.
P.S. Die Webseite von Werner von Bloh ist zwar nicht mehr ganz aktuell, aber schon mal ein guter Einstieg zum Thema habitablen Zone und v.a. auch in Deutsch: Wo kann es Zwillinge der Erde geben?
—————————————
(1) Alles, was nicht Helium und Wasserstoff ist, ist für AstronomInnen Metall. Warum auch immer.*Schulter zuck*
(2) Wenn wir als sonnen-ähnlich alles nennen, was etwa 0.2-1 Sonnenmasse hat. Es gibt da so eine Gruppe von Sternen mit Massen darüber, die man hier – aus gutem Grund – vernachlässigt, weil die einem so richtig Kopfschmerzen bereiten.
Gerade für Leute wie mich, die versuchen irgendetwas über Atmosphären von noch kleineren felsigen Exoplaneten herauszufinden, ist das eine sehr gute Nachricht. Sprich: Die Wahrscheinlichkeit in der Richtung Forschungsgelder zu bekommen, ist gerade stark angestiegen Denn tatsächlich hatten wir da in der Hinsicht so einige Probleme.
Diese doofen Wolken! Grmpf!
Das wird auch schön in dem kommentierenden Nature Artikel vom Eliza Kempton erklärt. Andere Leute haben schon früher versucht Neptunartige Exoplaneten-Atmosphären zu untersuchen. Nur dummerweise haben ihnen da diese gottverdammten Wolken die Sicht versperrt. Wir sprechen hier übrigens nicht über Wasserwolken, sondern über anderes Zeugs. HAT-P-11b z.B. ist ganz, ganz nah dran an seinem Stern. Er braucht gerade einmal 4.9 Tage für einen vollen Umlauf. Solange dauert das “Jahr” auf dem Planeten und mit einer mittleren Temperatur von etwa 880 Kelvin (also 600 Grad Celsius) ist es dort einfach etwas zu warm für Wasserwolken, die entweder aus Wassereis-Kristallen oder feinen Wassertropfen bestehen. Woraus bestehen also diese Wolken? Sagen wir mal so: Das wird gerade noch diskutiert. Aber um zu wissen, was da Wolken bildet, wäre es durchaus erst mal hilfreich zu wissen, woraus eigentlich dieses Luftmeer besteht, in dem die Wolken oben raufschwimmen. Wir haben allerdings ne recht gute Idee, was Hat-P-11b und andere ähnliche Planeten angeht. Das ist ein Planet, der einen Transit macht, so dass wir also seinen Radius kennen. Und seine Masse ist auch bekannt. Daher wissen wir in erster Näherung die Dichte das Planeten und die sagt uns: Gasplanet. Vermutlich v.a. Wasserstoff und Helium wie bei all den Gasplaneten in unserem Sonnensystem. Aber besser wäre es natürlich, es zu wissen und nicht einfach nur davon ausgehen zu müssen, dass die Planetenbildung und damit deren Zusammensetzung so ähnlich abgelaufen sein muss wie bei uns.
Wolken sind da für Astronominnen einfach hinderlich. Unsere Teleskope kommen da nicht durch. Der Planet Venus z.B. ist von einer derart dichten Wolkenschicht verhangen, die nur Mikrowellen und Radarwellen durchdringen oder eben Raumsonden. Das sind aber alles Optionen, für die mensch bei der derzeitigen Technik sehr nah dran am Planeten sein muss. Das ist aber für Exoplaneten nicht drin. Sie sind einfach zu weit weg. Wir sind also darauf angewiesen, dass die Atmosphären von Exoplaneten von den Wellen durchdringen werden können, die wir aus großer Entfernung relativ ungestört empfangen können. V.a. Infrarot und sichtbares Licht.
Die Methode, die dann für Exoplaneten zur Anwendung kommt, nennt sich “Transmissions Spectroscopie”. Wenn Ihr an Exoplaneten-Atmosphären interessiert seid, dann merkt Euch die Methode. Denn sie ist gerade das beste Instrument für deren Untersuchung.
Transmission Spektroskopie, der heiße Scheiß in der Exo-Atmosphärenforschung: Wie funktioniert’s?
Als erstes braucht es einen Transit. D.h. der Planet mit Atmosphäre muss von uns aus gesehen vor seinem Stern herziehen. Der Planet verdunkelt den Stern ein wenig. Das kann mensch zwar nicht direkt sehen, aber indirekt fällt auf, dass das empfangene Sternen-Licht in einer ganz charakteristischen Weise etwas weniger wird.
So ein Transit-Signal ist zum Glück sehr eindeutig und es gibt nichts auf dem Stern, was das auch hervorrufen könnte; schon gar nicht periodisch und sich so pünktlich wiederholend. Den Kepler’schen Gesetzen folgend eben. Wenn mensch nun so einen Transit in verschiedenen Wellenlängen (also Farben) ansieht, dann fällt (hoffentlich) auf, dass der Transit nicht überall gleich tief ist. Das liegt daran, dass es Wellenlängen gibt, die unterschiedlich tief in die Planetenatmosphäre eindringen. Je nachdem, wie dick die Atmosphäre ist und woraus sie besteht. Unsere Erdatmosphäre z.B. ist ziemlich durchlässig für Licht im sichtbaren Spektrum. Sonst könnten wir ja am Boden des Luftmeeres nichts sehen. Sonnenlicht in diesem Bereich würde bei einem Transit, der von einem Alien beobachtet wird, erst an der Erdoberfläche geblockt. Für Infrarot-Strahlung dagegen ist die Atmosphäre ziemlich undurchlässig. Das liegt daran, dass Zeugs in unserer Atmosphäre herumschwirrt, welches das Licht in dem Bereich gerne verschluckt. V.a. Wasserdampf und Kohlendioxid. Sonnenlicht in dem Bereich wird bereits weiter oben abgeblockt und ein Erd-Transit ist in diesem Licht betrachtet für einen Außerirdischen flacher. Der Planet erscheint ‘aufgebläht’. Und dabei ist Wasserdampf und Kohlendioxid nur in geringen Mengen in der Luft. Unsere Atmosphäre besteht v.a. aus Stickstoff, aber die macht erst einmal recht wenig mit dem Sonnenlicht. Hier kommt es also nicht auf die Menge an, sondern auf die Wirkung. Wenn mensch jetzt die Transit-Tiefe für verschiedene Wellenlängen aufzeichnet, dann können wir schon allerhand über die Atmosphäre herausfinden. Wenn denn eben keine Wolken im Weg sind.
Und genau das war das Problem bei vorherigen Versuchen in die Atmosphären von Neptun-Exoplaneten zu blicken. Die Messungen ergaben eine langweilige flache Linie. Gnarf. Ok, es sind Wolken da, das ist auch ein Ergebnis. Aber wenigstens so ein Loch in der Wolkendecke wäre ganz nett gewesen.
Endlich mal keine Wolken!
Jonathan Fraine und seine Kolleginnen haben es nun endlich geschafft, entweder genau so eine Lücke in der Wolkendecke zu erhaschen oder es sind einfach in der oberen Atmosphäre keine Wolken da.(1) Jedenfalls gibt es da Struktur im Transmissions-Spektrum: Es ist relativ sicher etwas Wasserdampf in der oberen Atmosphäre (wir blicken hier bis auf etwa 1 mbar bzw. 100 Pa ‘hinunter’, siehe Bild unten). Aber immerhin schwirrt hier genügend Zeugs rum, das es mit dem durchdringenden Sternenlicht beim Transit interagiert und genau so etwas brauchen wir, um endlich, endlich mal die Atmosphäre bei nem kleineren Planeten festnageln zu können (Also kleiner als so ein Jupiter-Gasriese.)
Genauer gesagt schluckt die HAT-P-11b-Atmosphäre Licht um 1.4 Mikrometer, wo es bekannt ist, dass Wasserdampf schluckt. Hat mensch im Labor gemessen oder/und simuliert und wir sehen es eben auch bei uns vor Ort. Zum Glück sind solche Absorptionssignale ziemlich eindeutig und fungieren als “Fingerabdrücke” des Moleküls. Zum Glück misst die WC3 Kamera auf dem Hubble-Teleskop in dem Bereich. Und das simultan in verschiedenen Wellenlängen in dem Bereich, was sehr wichtig ist. Dazu später mehr.
Die Form des Wasserdampf-Schluck-Signals sagt: Verdreckter Gasplanet
Um aber dieses Wasserdampf-Lichtschluck-Signal zu produzieren, ist eine Atmosphäre nötig, die vor allem durch leichte Elemente dominiert wird. Das kriegen die Forscherinnen aus dem Vergleich mit Modellen mit der Form des Signals heraus, die einiges über Temperatur und Druck vor Ort verrät. Also der Kontext, in dem da Wasserdampf Licht schluckt, verrät uns das. Man muss sich vorstellen, dass so ein Wassermolekül beim Strahlen bzw. Schlucken ständig von der umgebenden Luft angerempelt wird und das stört bzw. bestimmt dann auch die Form des Signals. Ach ja und natürlich auch die Temperatur des Moleküls. Auf den kleinen Größenordnungen heißt Temperatur immer Eigenbewegung des Moleküls. (2) Und hier kommt es dann wirklich auf die reine Masse und Häufigkeit an, also auf das, was zum größten Teil die Atmosphäre ausmacht. Die bestimmt den Außendruck und Temperatur vor Ort. Bei HAT-P-11b kann das schon mal kein reiner Wasserdampf sein. Es ist vermutlich eine Atmosphäre, die v.a. aus Wasserstoff und Helium besteht. Allerdings mit wesentlich mehr “Dreck” aus bei unseren Gasiesen vor der Haustür. Wobei ‘Dreck’ oder ‘Metall’ für Astronomen alles das ist, was nicht Helium und Wasserstoff ist.
Das war jetzt nicht unerwartet, wir haben ja aufgrund der niedrigen mittleren Dichte eine Gasplanetenzusammensetzung erwartet. Ok, der Anteil Dreck ist schon recht hoch, aber auch das ist nicht sooo ungewöhnlich. Dann war halt die protoplanetare Staubscheibe, aus der sich die Planeten herausklumpten dort deutlich verschmutzter aus bei uns im Sonnensystem (etwa 700 mal so dreckig :-).
Wichtig ist allerdings hier: Wir können auch bei kleineren Planeten als Jupiter Größe zumindest ein wenig in die Atmosphäre linsen. Und es kam halt ungefähr das raus, was wir erwartet haben. Wasser ist nämlich immer irgendwo in ner Planetenatmosphäre drin, egal ob Fels-oder Gasplanet, es wäre eher sehr seltsam, wenn da keines wäre.
Bonus: Für alle, die noch was Geduld haben bzw. mehr in die Details gehen möchten.
Transmissions-Spektroskopie hat derzeit mit einigen Problemen zu kämpfen.
April, April, Dein Instrument hat Dich vera*!
1) Bei dem kleinen Signal, das wir messen wollen, müssen wir das Instrument verdammt genau kennen. Letztens erst kam eine Arbeit heraus zum Atmosphärensignal von HD 209458b. Das ist einer der beststudierten Exoplaneten überhaupt. Der Jupiter-Planet ist schon recht lange bekannt, macht einen Transit, der Stern strahlt sehr hell und da sind auch keine Wolken im Weg. Also haben da auch Forscherinnen mit dem besten hingesehen, was sie zur Verfügung hatten und das war u.a. Spitzer so etwa 2007-2009 bis die Kühlung ausging. Damals haben die Kolleginnen geschlussfolgert: Ok, normalerweise wird die Atmosphäre mit zunehmender Höhe kühler, hier aber nicht. Da gibt es zwischendurch eine anormal warme Schicht. Sowas kommt nur zustande, wenn da ein Molekuel unter den Druck-Temperatur-Verhältnissen auf einmal anfängt, Licht zu schlucken und damit die Umgebung aufheizt. Bei uns auf der Erde ist das z.B. die Ozonschicht in der Stratosphäre. HD 209458b ist allerdings auch recht nah an seinem Stern und von daher sehr heiß, so dass eigentlich nur noch so exotisches Zeugs wie Titanium- oder/und Vanadiumoxid übrig blieb. Wobei das nur für Planeten exotisch ist, bei bestimmten Sternen wissen wir, dass diese Moleküle sehr wichtig werden können. Auch hier braucht es nicht viel an Menge, es muss nur entsprechend gut wirken.
Na ja, jedenfalls haben Forscherinnen um Hannah Diamond-Lowe die “alten” Spitzer-Daten untersucht. Sie hatten den Vorteil, dass sie heute das Instrument und damit systematische Effekte besser kennen. Damals war Spitzer ja brandneu und ein Prototyp. Und siehe da: Die Struktur der Planeten-Atmosphäre hat sich drastisch geändert. Die anormal heiße Schicht ist weg. Was übrigens auch nicht so schlecht ist. Titanium- oder/und Vanadiumoxid hätte eigentlich unter Atmosphärenbedingungen die Tendenz herabzusinken. Es ist also gar nicht so einfach das Zeugs da hinzukriegen, wo es angeblich hätte absorbieren sollen. Jetzt ist es vermutlich gar nicht da. “Problem”gelöst. Die Atmosphäre wird einfach ganz langweilig immer kühler je weiter es nach oben geht. Für den Nature-Artikel von heute ist das übrigens nicht zu erwarten. Hubble ist ‘alt’ genug, so dass systematische Effekte recht gut untersucht sind. Blöd gelaufen, aber so ist das nun mal wenn Neuland betreten wird. Mensch tut sein Bestes und dann überprüfen andere es wieder und dann hält es stand – oder eben nicht. Wissenschaft eben! Wer nicht wagt, der nicht gewinnt.
Exoplaneten-Forscher sehen verschwommen
2) Es gibt bislang nur wenige Instrumente, die genau für den Zweck gebaut wurden, um Atmosphären von Exoplaneten zu durchleuchten. Die Hubble Kamera ist zwar schon super, aber da wollen viele mit messen. Und sie sieht eben nur die eine Wasserdampf-Linie “scharf”. Mehr wäre schon schöner. Exoplaneten-Forscherinnen sind Zaungäste und müssen das benutzen, was da ist. Was meistens bedeutet, dass wir nicht einen engen Wellenlängenbereich sehen, sondern ein breites Band, in dem aber alles mögliche in einer kühlen Planetenatmosphäre absorbieren und auch emittieren kann. Für die Untersuchung von heißen und v.a. fernen Sternen, sind die Instrumente aber gerade richtig. Klar, dafür wurden sie auch gebaut. Exoplaneten-Leute sehen also meistens unscharf. Allerdings werden gerade Messungen wie die hier vorgestellte mit dazu beitragen, dass sich das noch schneller ändert.
Der Stern flackert
3) Wir sind darauf angewiesen, den Planeten vor dem Stern zu sehen. Der flackert aber und teilweise richtig heftig. Er pulsiert, dehnt sich aus und schrumpft wieder. Mensch könnte sagen, so ein Stern atmet. Für Planeten-Forscher ist das Mist. Denn dabei verändert sich die Sternen-Helligkeit. Woher sollen wir also wissen, dass ein Planet 10 Tage später in einer bestimmten Farbe nicht alleine deswegen kleiner erscheint, weil der Stern selbst inzwischen heller geworden ist? Messungen zur gleichen Zeit wie die in dem heutigen Nature-Paper haben da den Vorteil, dass das Signal in sich konsistent ist. Die Form der Wasserlinie kann durch Sternenpulsationen nicht verfälscht worden sein. In der Tiefe könnte es sich ein bisschen nach oben oder unten verschieben, aber das ist nicht so tragisch. Die meisten Transmissions-Spektra setzen sich aber aus Messungen zusammen, die zu einem anderen Zeitpunkt gemacht wurden. Und da könnte es zu echten Problemen kommen.
Das Wasser ist gar nicht auf dem Planeten, sondern auf dem Stern?
4) Wasser auf nem Stern? Ist es da nicht zu heiß für? Im allgemeinen schon. Der Heimatstern von HAT-P-11b ist aber schon an sich etwas kühler als unsere Sonne und er hat Flecken. Diese konnten die Forscherinnen sogar in den Kepler-Daten sehen. Das Problem bei solchen Flecken ist, dass sie relativ kühl sind. Sie vermindern einerseits die Helligkeit des Sterns und tragen zu Problem 3) bei, sie sind andererseits aber auch vielleicht so kühl, dass vielleicht doch da was auskondensieren könnte. Dann hätten die Forscherinnen zwar immer noch Wasserdampf entdeckt. Aber eben auf dem falschen Himmelskörper. Zum Glück ergab die genauere Analyse von Jonathan Fraine und co mit Hilfe der Kepler-Daten, dass die Flecken zwar kühler, aber immer noch zu heiß für Wasserdampf-Bildung ist. Es kann also nur vom Planeten kommen. *Puh*
Das wird übrigens immer gefährlicher, je kleiner und damit kühler der Heimatstern eines Planeten ist. Dummerweise sind kleine Sterne aber sehr gut um kleine Planeten zu finden. Ein Planeten-Transit ist da einfach deutlicher zu sehen, weil selbst ein kleiner Planet verhältnismäßig viel Stern abdeckt.
Wie gesagt: Es ist kompliziert und knifflig, Jonathan Fraine und co haben viel richtig gemacht und genau so nähern wir uns auch langsam dem Ziel, noch kleinere Planetenatmosphären zu erforschen. Es bleibt…spannend!
Hier ist übrigens noch mal ein kleines Video zum Thema zu einer Messung bei einem größeren Exoplaneten. Auch hier wurde Hubble verwendet.
—————————
(1) Ehrlich gesagt, bin ich mir nicht wirklich sicher, ob wir hier von Wolken reden sollten. Dunst oder Staubschleier träfe es vermutlich eher. Aber solange wir nur so halbwegs einschränken können, was es sein könnte, was uns da die Sicht versperrt, tut es die Bezeichnung “Wolken” erst einmal.
(2) Wenn da nichts rempeln und das Molekül selbst sich nicht bewegen würde, dann wäre das Signal eine oder eine Serie von feinen scharfen Spitzen bei jeweils einer Wellenlänge.
Und seit einiger Zeit sieht man auch die folgenden Leinwände.
Diese Leinwand erinnert an den Brand von Leuven und auf dem Foto oben speziell an die Zerstörung der alten Universitätsbibliothek von Leuven. Die neue Bibliothek ist im folgenden Bild zu sehen…
… und wurde fast vollständig mit amerikanischen Mitteln gebaut, u.a. viele Privatpersonen, Vereine sind als Spender auf Tafeln im Treppenhaus verewigt. Zu diesem Thema gibt es übrigens eine interessante Notiz, nachdem sich der damalige US-Präsident Herbert Hoover und die damalige Leitung der Universität Leuven weigerte auf einen Vorschlag einzugehen, folgende Inschrift an die Vorderseite anbringen zu lassen: Destroyed by German ferocity, rebuilt by American generosity.
Das finde ich tatsächlich eine sehr anrührende Art und Weise mit Kriegsfolgen umzugehen: Nicht dem naheliegenden Wunsch nach Rache nachzugehen und die Gegner als Unmenschen zu verteufeln, sondern einfach zu feiern, dass in Zeiten der Not, wildfremde Menschen versuchten das Leid wenigstens zu mildern. Tatsächlich haben amerikanische Freiwillige auch während des ersten Weltkrieges – noch vor Kriegseintritt der USA – mit der Komission für das Belgische Hilfswerk versucht, die Lebensmittelversorgung der belgischen Bevölkerung während der deutschen Besatzung sicherzustellen, die ein Opfer des Schlieffenplanes geworden war.
In diesem Jahr finden dann auch in ganz Belgien zum Gedenken an den Großen Krieg – wie er auch hier genannt wird- einige Sonderausstellungen statt. Persönlich war ich bereits in Brüssel im Militärmuseum, und fand die dortige Ausstellung zwar nicht ganz billig aber sehr gelungen. Hier wurde der Versuch unternommen, das Leid in den Schützengräben “lebensnah” darzustellen, viele Alltagsgegenstände, Briefe, Filme, Fotografien und eine interaktive Doku versuchen die Zuschauer in das Geschehen zu ziehen. Das Kriegsmuseum in Ypern soll auch recht sehenswert sein und steht bei mir noch auf der To-do-Liste. Der Museumsname verweist auf das bekannte Gedicht “In Flanders Fields“. Hier gibt es noch eine kleine Auflistung von weiteren Gedenkaktivitäten. Selbst als Geocacher kann man sich dem Thema nähern. Ein Multi setzt sich z.B. dezidiert mit dem Brand von Leuven auseinander.
P.S. Bezüglich der Universitätsbibliothek. Sehr eindrucksvoll ist es das Carillion mit 63 Glocken spielen zu hören. Während des akademischen Jahres (also derzeit leider nicht) gibt es jeweils zwei mal die Woche kleine Konzerte, währenddessen alles mögliche gespielt wird: Vom Popsong, zum Schlager über Filmmusik bis Klassik ist alles dabei.
Ich kann Raumfahrer.net schon verstehen. Und ein offener Brief an die ESA und den PI der Osiris-Kamera ist schon mal ein guter Anfang. Aber damit ist es nicht getan. Ich nehme mal aber die Geschichte um die Rosetta-PR, um mal einiges über die europäische Forschungslandschaft aus meiner Sicht zu erläutern, weil ich beide Sichtweisen kenne.
Ich habe mich einerseits immer für mehr Öffentlichkeitsarbeit und Transparenz eingesetzt, andererseits kenne ich auch die Sachzwänge im Hintergrund, die einem manchmal diese Arbeit sehr, sehr schwer und teilweise sogar unmöglich machen. Der Tag hat nur 24 Stunden, ich muss auch von was leben und reklamiere inzwischen auch mein Recht auf Freizeit.
Zudem habe ich jahrelang für die Radio Science Gruppe auf Rosetta gearbeitet und dabei u.a. auch die Daten aufbereitet für die Freigabe an die Öffentlichkeit. Und saß dabei regelmäßig mit den Leuten der ESA zusammen, die sich nach bestem Wissen und Gewissen bemühten, dabei zu helfen, dass die Daten irgendwann – wie versprochen – rausgehen. Ich weiß auch – zumindest von den Radiowellen-Daten -, was alles notwendig ist, damit irgendjemand anders irgendetwas damit anfangen kann. Das ist bei Radiodaten natürlich um einiges aufwendiger als bei Bildern, aber auch die haben ihre Tücken, von denen die meisten in der Anfangsphase des Betriebs im Weltall noch nicht einmal bekannt sind. Deswegen gibt es die so genannte Commissioning-Phase, in der die Leute erstmal Erfahrungen mit ihren Instrumenten sammeln müssen. Wir hatten bei Rosetta bereits einige Commissioning-Phasen kurz nach dem Start. Jetzt im Anflug von Churyumov-Gerasimenko wird es da sicherlich noch mal solche Phasen geben, weil die Raumsonde sich einer relativ “verschmutzen Umgebung” nähert; voll mit Plasma und Gas, das vom Kometen selbst ausgestoßen wird und wo noch nicht klar ist, wie das die einzelnen Instrumente beeinflusst.
Glaubwürdigkeit über alles
Glaubwürdigkeit erachten gerade WissenschaftlerInnen älteren Kalibers als ein rares Gut, das man nicht leichtfertig verspielen sollte. Denn das brauchen die Leute, um Drittmittel von den Forschungsgemeinschaften für die Zeitverträge ihrer MitarbeiterInnen zusammenzukriegen. Ohne dieses Geld, bricht wirklich alles zusammen.
Von daher finden es nicht wenige Verantwortliche in der europäischen Wissenschaft ganz super, dass sie eben nicht halbgaren Quark raushauen, den man ein halbes Jahr später korrigieren oder gar widerrufen muss (Arsen-Bakterien der NASA? Da war was, nicht?). Lieber wartet mensch etwas länger, um sich ja keine Blöße zu geben. Wenn also Raumfahrt-Enthusiasten den Rosetta-Verantwortlichen Öffentlichkeitsarbeit aus dem letzten Jahrtausend vorwerfen, dann werden das einige KollegInnen vielleicht eher als Kompliment denn als Vorwurf sehen. Schaut doch mal, wann die Leute wissenschaftlich groß geworden sind! In den 80er Jahren des letzten Jahrtausend.
Die argumentieren nach dem Motto: Gut, dass wir uns diesem Social Media Dings entziehen. (Hat Rosetta überhaupt eine Facebook-Seite? Ich konnte keine finden. Florian hat mich darauf hingewiesen, doch ja, es gibt ne Facebook-Seite.) Die Berührungsängste sind groß und einige bezeichnen sich auch als gebrannte Kinder:”Da hab ich das ewig und lang erklärt und es kam immer noch halbgarer Kram bei dem Medium heraus, der dann auf mich zurückfällt.”Mir wurde selbst sehr nahegelegt tunlichst nicht von einer europäische Konferenz zu twittern, und ich werde mich auch hüten, solange ich noch im europäischen Forschungsumfeld arbeiten möchte. Ich sehe schon, dass amerikanische Kolleginnen damit weniger Probleme haben, aber Europa ist nicht die USA.
Behindert es die Öffentlichkeitsarbeit? Manchmal schon. Statt peinlicher Falsch-Meldungen passieren dann folgende Dinge.
Beispiel 1: Ich hab schon mitangesehen, wie KollegInnen sich quer über Europa über die zweite Nachkomma-Stelle eines Wertes stritten, um dann die Pressemitteilung nach Redaktionsschluss der europäischen Print-Medien rauszuhauen, um hinterher beleidigt zu sein, dass diese die Meldung gar nicht mehr gedruckt wurde.
Beispiel 2: Ich musste schon mal eine piss-langweilige Pressemitteilung raushauen, die nur eingefleischte Liebhaber der Materie unter den JournalistInnen aufgriffen, weil mein Auftraggeber darauf bestand, dass man erst einmal alle Institute und Beteiligten in voller Länge erwähnen musste, bevor endlich mal geschrieben werden konnte, worum es ging und warum das so toll ist. Umgekehrte Pyramiden-Struktur…pfff Es war viel wichtiger, die wichtigen Leute zu erwähnen.
Zu Ruhm und Ehre des Chefs/der Chefin
PR dient den einzelnen Arbeitsgruppen zuallererst einmal der Selbstbeweihräucherung. Öffentlichkeitsarbeit umfasst natürlich dann auch den Bildungsauftrag, aber gerade jetzt bei Rosetta hoffen sicherlich nicht wenige, dass Medienpräsenz ihnen beim Eintreiben von Forschungsgeldern hilft (ohne die alles zusammenbricht). Nach meiner Meinung ist letzteres – zumindest in Deutschland – ein Irrtum. Medienpräsenz interessiert die, welche letztendlich den ihn zugewiesenen Teil Eurer Steuergelder an die ForscherInnen verteilen, meiner Erfahrung nach herzlich wenig. Publikationen gehen über alles. Ach ja zum Bildungsanspruch: Nicht selten stehen Hochschul-Lehrer den Experimenten vor, die zwischendurch auch im Hörsaal sind. Sie haben also bereits einen dezidierten Bildungsauftrag, der zuallererst erfüllt werden muss.
Aufklärung der Öffentlichkeit wird außerdem nicht selten eher als Aufgabe der JournalistInnen gesehen und wenn die angeblich oder tatsächlich versagen, dann wird das dann leider auch als Bestätigung gesehen, sich noch weiter einzuigeln. Engagierte PressesprecherInnen und DiplomandInnen, DoktorandInnen und Postdocs haben so langsam verstanden, dass es allen Seiten hilft, auch mal was zu erklären. Aber es ist nicht unbedingt etwas, was bei den gestandenen WissenschaftlerInnen angekommen ist.
Es ist ja auch nicht so, dass das System die belohnt, die sich in Öffentlichkeitsarbeit engagieren. Es ist sogar eher das Gegenteil. In der Zeit könnte mensch ja Publikationen schreiben. Hab ich so bereits mehrfach über andere hinter vorgehaltener Hand gehört. Sogar von Leuten, die sich eigentlich rühmen für Öffentlichkeitsarbeit zu sein und Vorträge am DLR und Sternwarten geben.
Viele können es einfach nicht, weil sie es nie gelernt haben
Und selbst die, welche sich irgendwie die Zeit nehmen ab und an Öffentlichkeitsarbeit zu betreiben, sind teilweise nicht gut darin. Die andere Seite der Wahrheit ist allerdings auch, dass ich an der Uni Köln, die wahrlich nicht klein ist, in meiner gesamten Zeit dort nur einmal einen Medien-Kurs mitgemacht habe und ich wurde aufgrund der geringen Anzahl an Plätzen persönlich angesprochen, ob ich einen mitmachen wollte. Das Angebot kam von dem neuen Pressesprecher, der ganz erstaunt war, dass es sowas noch nicht gab. Woher sollen WissenschaftlerInnen es also lernen? Vor allem, bei all den anderen Dingen, die sie angeblich eigentlich tun sollten: Publizieren! Habe ich schon erwähnt, dass die, die an den Geldhähnen sitzen, v.a. auf die Publikationsliste gucken? Um dann zu entscheiden, welche Arbeitsgruppe weiterleben darf?
Es ist kaum Geld für PR da
Ich hab mal im Juni 2004 eine Veranstaltung im Rahmen des Venustransits organisiert, speziell für Schülerinnen. Ich musste förmlich bei allen mit bekannten Pressestellen betteln gehen, um genug Material für 300 SchülerInnen zum Verteilen zusammen zu bekommen. Und wir sprechen hier von Plastik-Tüten mit ESA-Aufschrift und Info-Broschüren mit einem gewissen Inhalt. Das lag auch nicht an den PR-KollegInnen, die sich ein Bein ausgerissen haben, um mir zu helfen. Es war einfach nicht mehr da, und es musste ja auch genug für andere übrig bleiben. Das hat mich damals als Frischling ziemlich erschüttert. Ich sehe auch nicht, dass es besser geworden ist.
Personalmittel sind auch nur begrenzt da. Die ESA kann es alleine von der Man-Power kaum mit der NASA aufnehmen. Ich selbst habe jahrelang als Doktorandin PR nebenher betrieben. Das ist übrigens die häufigste und kostengünstigste Variante. Der Chef/die Chefin drückt es einem jungen Menschen auf’s Auge, der Bock drauf hat.
Akute Geldnot
Wenn wir mal ganz, ganz ehrlich sind, dann haben wir schon zu wenig Geld, um Wissenschaft zu betreiben. Das Problem hatten deutsche WissenschaftlerInnen bei Huygens und Venus Express, dass auf einmal kein Geld mehr da war, um mit den Daten auch zu arbeiten. Es ist italienischen KollegInnen auf Mars Express passiert. Ach was rede ich, wir bekamen nach dem Start von Venus Express vom Chef mitgeteilt, dass leider die versprochenen Gelder nicht fließen würden, um die Radiowellen-Daten auszuwerten. Da hatten wir noch das Glück, dass wir bei Mars Express ein ähnliches Instrument an Bord hatten, die Infrastruktur stand und sich bereits bei MEX bewährt hatte, so dass zumindest die grundlegende operationelle Arbeit halbwegs nebenher erledigt wurde. Die zusätzliche Last wurde, solange bis wieder irgendwo Gelder aufgetrieben werden konnten, auf uns alle verteilt. Und es war ja nicht so, dass wir zu dem Zeitpunkt nicht alle bereits hackedicht mit Arbeit waren.
Meistens leiden so getroffene WissenschaftlerInnen still vor sich hin und versuchen irgendwo mal Geld locker zu machen, um irgend etwas auf die Reihe zu kriegen. Und solange arbeiten sie nebenher irgendwie dennoch mit den Daten, obwohl sie eigentlich noch tausend andere Dinge zu tun haben. Weil ja publiziert werden muss.
Man könnte natürlich einwenden, dass WissenschaftlerInnen das Publizieren verweigern könnten, solange kein Geld da ist. Nur tut das keiner, weil die nicht unbegründete Angst herrscht, dass man hinterher noch weniger Geld kriegt, weil man ja nicht genügend publiziert hat. Und ich hab schon live und in Farbe gesehen, wie Arbeitsgruppen fast gekillt worden sind, obwohl die super Ergebnisse raushauen und das ist ein weltweites Phänomen. Da blieben versprochene Gelder an einer entscheidenden Stelle einfach aus oder es wurden mal eben feste Stellen gestrichen oder irgendwer meinte sich mit irgendjemandem anlegen zu müssen und schon brach das ganze Kartenhaus zusammen. Das ist nicht lustig, v.a. wenn mensch denkt: Das könnte Dir auch passieren.
Im Falle von Huygens gab es zumindest mal einen öffentlichen Aufruf der europäischen Wissenschaftler, der es auch in die Presse schaffte. (Ich finde den Text aber leider nicht mehr. Ich glaube, es stand bei Spiegel-Online). Sonst kriegt man von dem mehr oder weniger stillem Leiden hinter den Kulissen nichts mit.
Und dann dieses gottverdammte Hochschulrahmen-Gesetz, das meiner Meinung nach der deutschen Wissenschaft das Genick gebrochen hat. Forschung wird im Moment v.a. von DoktorandInnen erledigt, ProfessorInnen sind derart gestresst vom Fördermittel eintreiben und dem sonstigen Verwaltungskram und Netzwerkpflege – sprich Konferenzen, ach ja und Lehre muss auch noch betrieben werden – dass eigentlich gar keine Zeit mehr bleibt, um den DoktorandInnen unter die Arme zu greifen. Letztere arbeiten immer noch zu oft für einen Hungerlohn und nach ein paar Jahren ist Schluss und dann kommt der/die nächste, die wieder eingearbeitet werden muss usw. usf.. Kurz: Es ist ein Kartenhaus, erwähnte ich schon.
Publikationen sind überlebenswichtig
Viele Forschungsgruppen stehen mit dem Rücken zur Wand. Und das letzte, was irgendeiner riskieren möchte ist, dass jemand anders als sie mit den Daten publiziert, für die sie Jahre ihres Lebens investiert haben. Und ja, da sind die KollegInnen paranoid. Ihr habt keine Ahnung wie paranoid. Weil es hier schlicht um die Existenz geht. Und es kommt ja auch vor. In nem Klima, wo es nur darum geht viel zu publizieren, werden dann schon mal Daten von Konferenzen ‘geklaut’. Ach ja und was steht im Artikel ‘Many high-profile journals, including Nature, have strict rules about authors publicizing data before publication.’
Wisst Ihr, was das heißt?
Wenn Ihr in Nature publizieren wollt, dann dürft Ihr die Daten nicht vorher rausgeben. Und high-profile journals sind wiederum genau das, was WissenschaftlerInnen brauchen, damit sie aus dieser Lotterie, zu der wissenschaftliche Arbeit langsam aber sicher verkommt, nicht rausfliegen. Es muss nicht nur viel publiziert werden, sondern auch noch in Edelpapern. Die, die damit ein Problem haben, verlassen das System. Die, die drin bleiben, haben sich damit arrangiert. Und jetzt ratet mal, ob das die sind, die gerne und gut PR betreiben?
Und was soll auch die ESA sagen, wenn ein PI (also der wissenschaftliche Chef) sagt, dass kein Geld da ist, um Wissenschaft, geschweige denn Datenarchivierung und PR zu machen? Die verwalten auch den Mangel und sind an Verträge gebunden und die sehen nun mal vor, dass die Daten erst einmal den WissenschaftlerInnen gehören. Für normalerweise 6 Monate.
Ach ja und es wird immer wieder die NASA als großes Vorbild in der Diskussion genannt. Sogar NASAs Kepler hat eine Verlängerung der Eigentumsphase durchgesetzt, weil sie Angst hatten, dass jemand anders ihnen mit der Publikation zuvorkommen könnte. Und brachen damit dann sogar ihre eigenen Regeln. Weil Publikationen dass allerallerwichtigste ist, weil die Leute sonst keine Förderanträge kriegen, um Ihre auf Zeitverträgen sitzenden MitarbeiterInnen bezahlen zu können.
Warum machen wir eigentlich noch weiter?
Aus demselben Grund, warum wir dann doch ab und an Zeit für PR finden. Weil es ‘leider geil’ ist. Es ist ja spannend und unser Herzblut hängt dran. Weil Forschung, wenn es denn halbwegs funktioniert auch unheimlich befriedigend ist. Es ist ja auch nicht so, dass in der freien Wirtschaft alles supi ist. Zumindest für eine Weile hält das Gefühl, was wirklich einzigartiges zu machen, auch vor. Für mich persönlich, habe ich mich damit abgefunden, dass meine Rente vermutlich minimal sein wird und ich mit viel Glück vielleicht eine kleine Wohnung mein eigen nennen werde, wenn ich auf größere Urlaube verzichte. Dafür habe ich eben ‘geile Sachen’ gemacht, auf die ich stolz bin und die mir Spaß machen. Noch. Aber ich mache nicht (mehr) alles mit und dann suche ich mir eben, vielleicht irgendwann einen Job in der freien Wirtschaft. In den USA nehmen sie zumindest noch Leute, die spät von der Uni abgehen.
Was tun?
Nicht auf die Falschen einprügeln
Die ESA ist meiner Erfahrung nach noch die Organisation, die am ehesten auf Eurer Seite steht. Und mit Euch meine ich die, die an Forschung interessiert sind. Mit der ESA würde ich es mir nicht verscherzen, aber auch keine Wunderdinge erwarten. Sie sind an existierende Verträge gebunden, die sie im Alleingang nicht aushebeln können. Bei den ForscherInnen müsst Ihr verdammt aufpassen, dass die sich nicht noch mehr in die Enge getrieben fühlen, sonst gehen reflexartig die Scheuklappen hoch. Ich finde den offenen Brief an sich richtig, aber im Ton doch so, dass es mich nicht wundern würde, wenn KollegInnen sagen: Wir reißen uns bereits beide Beine aus, was wollt Ihr denn noch von uns?
Where is the money?
Ja, Ihr seid die SteuerzahlerInnen und im Grunde wissen die WissenschaftlerInnen, dass es ohne Euch gar nicht geht. Aber es ist nun mal eine riesige Kluft dazwischen. Ihr drückt den ForscherInnen das Geld nicht direkt in die Hand. Das machen Eure VertreterInnen und deren Priorität liegt nicht auf Öffentlichkeitsarbeit. Dazu kommt noch, dass Raumfahrt Grundlagen-Forschung ist, die schon von vornherein benachteiligt ist gegenüber Forschung, die einen unmittelbar verständlichen materiellen Nutzen bringt. Wir haben hier das “Wozu-soll-es-gut-sein”-Problem. Auf jeden Raumfahrtenthusiasten kommen zehn andere, für die es eine sinnlose Geldverschwendung ist. Die sind auch SteuerzahlerInnen. Andererseits wissen die wenigsten Forschungsfans wie Forschung wirklich aussieht und wieviel Kampf und Frust dahinter steckt. Meine eigene Schwester konfrontiert mich regelmäßig mit völlig falschen Ideen, wie sie denkt, wie mein Alltag abläuft. Weil wir auch lange Zeit nichts gesagt haben. Vermutlich, um den Nachwuchs nicht zu verschrecken oder in der irrigen Hoffnung, dass es doch vielleicht wieder besser wird.
Also, wenn Ihr wirklich wollt, dass mehr PR geschieht, dann hat die europäische Forschungslandschaft als Ganzes mehr Geld nötig und vor allem muss langsam Schluss sein mit den elenden Zeitverträgen, die keinerlei Planungssicherheit bieten. Und es muss gezeigt werden, dass sich Öffentlichkeitsarbeit (und gute Lehre) sich wirklich lohnt.
Ihr könntet mit Euren VolksvertreterInnen im Bundestag/Landtag/in der Kommunalverwaltung reden, an das Bundesministerium für Bildung und Forschung appelieren, schreibt an das Europäische Parlament, dass Ihr vernünftige PR wollt und dass es sich auch für die ForscherInnen lohnen muss.
Alternative Forschungsfinanzierung
Ich sehe auch eine gewisse Zukunft in Crouwdfunding. Damit könntet Ihr wirklich den ForscherInnen das Geld direkt gegen Gegenleistung in die Hand drücken, wie bei den ScienceStartern. Die Planetary Society macht Lobbyarbeit für Planetenforschung.
P.S.: Dass die ganze derzeitige Forschungs-Situation auf lange Sicht weder gut für die Wissenschaft noch für die universitäre Lehre ist, sollte sich von selbst verstehen. Aber es ist harter, harter Weg, sich daraus wieder zu befreien. Ich hab für mich entschieden, dass ich zwar finanziell nichts groß erwarte von meinem Traumjob, aber meine persönliche Integrität lass ich mir nicht nehmen. In dem Moment wird es dann nämlich zum Alptraum-Job und das muss und will ich nicht.
]]>Jedenfalls hab ich die Zeit genutzt, mir ein wenig Wien anzusehen. Netterweise bekam ich die Gelegenheit von dem Co-Kurator der Meteoritensammlung des Naturhistorischen Museums, Ludovic Ferrière,eine Führung mitzumachen. Prädikat: Empfehlenswert.
Mir gefällt alleine schon dieses altehrwürdige Gebäude, das eigens für die Naturaliensammlung des Gemahls von Kaiserin Maria Theresia – Franz Stepfan – geschaffen wurde. Jeder Saal ist so gestaltet, dass die Ausstattung zu den jeweiligen Exponaten passen. Z.B. schmückt ein Gemälde eines Bolliden den Saal, der die Meteoritensammlung beherbergt. Was natürlich auch gewisse Einschränkungen in der Neugestaltung des Museums mitbringt wie Ferrrier erklärte.
Ich muss zugeben, dass ich mich mit Gesteinen nicht wirklich auskenne. Von daher brachte die Führung allerhand Neues für mich. Ein besonderes Gestein ist im folgenden Bild zu sehen. Gemeint sind die dünnen Platten.
Das ist Gelenkquarzit bzw. biegsame Sandstein-Platten, von denen noch nicht ganz so ganz klar ist, warum die sich plastisch verformen lassen, wenn man sie in zentimeter-dicke Schichten schneidet. Im Museum waren die Platten so geschnitten, dass sie sich recht weit durchbiegen konnten, was sich sehr unwirklich anfühlte. In dem folgenden Video kommt das leider nicht annähernd so beeindrucken raus, weil die Platte nicht dünn genug geschliffen ist. Und ich hab natürlich vergessen, dass ich ein Video hätte machen können.
Einen schwarzen Raucher habe ich auch noch nie aus der Nähe gesehen.
Im Bereich Astrobiologie sind Schwarze Raucher wie im Bild oben interessant, weil sie als Quelle für mögliches außerirdisches Leben, z.B. auf dem Jupitermond Europa sein könnten bzw. manche vermuten, dass hier auf der Erde das erste Leben an solchen Quellen entstand.
Natürlich durften bei der Führung auch Kristalle nicht fehlen. Der oben abgebildete Kristall wurde in jeder Wachstumsphase durch verschiedene Verunreinigung vor Ort eingefärbt. Oder zumindest ist es das, was mir bei der Erklärung hängengeblieben ist
Für mich als Planetenforscherin war die Meteoriten-Abteilung natürlich das Allergrößte und habe dabei auch allerhand gelernt.
Ich hab z.B. nicht gewusst, dass Meteoriten innerhalb von ein paar hundert Jahren verwittern, wenn sie auf der Erde einschlagen. Manchmal allerdings bleiben ihre Abdrücke im Gestein erhalten und werden so zu Meteoriten-Fossilien:
So nah bin ich Mondgestein von der Apollomission noch nie gekommen.
Sogar Teile des Meteoriten von Chelyabinsk waren da schon in der Vitrine.
Baff erstaunt war ich zu hören, dass Marsmeteoriten in Inklusionen noch “alte” Marktatmosphäre enthalten, die sich analysieren lässt.
Leider waren keine Mond-Meteoriten vor Ort, weil die schweineteuer sind – wir sprechen hier von einer Preiskategorie von 500 000 Euro und mehr. Dieses Problem, dass Sammler den Zugang der Forscher zu wichtigem Material erschweren oder gar verhindern, ist also leider nicht nur auf Fossilien beschränkt. Dazu kommt, dass zumindest in Europa die Sammler lieber auf dem Zeug sitzen als es zumindest als Leihgabe mal ausstellen zu lassen. Das sei in den USA ganz anders, wo es durchaus nicht selten sei, dass Sammler auch Gegenstände an Museen stiften.Überhaupt war ganz deutlich eine gewisse Geldknappheit in der Forschung herauszuhören. Auf www.inject-power.at kann mensch die nächste Expedition allerdings finanziell unterstützen. Hier geht es zur Spenden-Seite: Spenden für Expeditionen zut Impakt-Krater-Suche.
Die Einladung eine solche Expedition selber mitzumachen, werde ich aber persönlich ausschlagen, nachdem Ludovic Ferriere in einem Nebensatz meinte. “Und dann stürzte mein Flugzeug ab und ich verbrachte zwei Tage im Dschungel” So ein unberührter Einschlagskrater liegt nun mal eben Abseits, z.B. im Kongo. Unterstützendswert finde ich die Forschung auf jeden Fall.
Ansonsten könnt Ihr Euch hier über Ludovic Ferriere’s Webseite informieren.
Ach ja, wenn Ihr in Wien sein solltet: Das Naturhistorische Museum ist wirklich einen Besuch wert.
]]>Auch wenn der astronomische Frühling (die Tag-und Nachtgleiche) erst im Jahr 2017 erwartet wird, so ist doch der tiefste Winter vorbei, in dem sich Titan’s Nordhalbkugel bei der Ankunft von Cassini im Jahr 2004 befand. (1) Die zusätzliche Sonnen-Wärme sollte sich im Norden vor allem an der Grenze zwischen ‘Küste’ und den Titanseen irgendwann bemerkbar machen. Nur, dass hier die Zeichen des Frühlings anders aussehen als auf der Erde. Es sollten keine abbrechenden schwimmenden Eisschollen zu sehen sein, weil der Feuchtigkeits-Kreislauf auf dem Titan nicht auf Wasser sondern auf Methan beruht. Und Wasser verhält sich in einem entscheidenden Punkt anomal.
Da wir jeden Tag damit konfrontiert werden, ist uns nicht bewusst, wir seltsam es ist, dass festes Wasser (in Form von Eis) auf flüssigem Wasser schwimmt. Die Eise ‘normaler’ Materialien dagegen sinken zu Boden. Methaneis sollte auf dem Titan daher eher auf den Boden der Seen und nicht als Schollen obenauf zu finden sein. (2)
Wie sieht also ein Zeichen des nahenden Frühlings auf Titan aus? Das folgende Video zeigt eine Radar-Aufnahme vom Vorbeiflug Cassinis über Ligeia Mare am 10.7.2013: Ein heller klar 20 km mal 20 km großer abgegrenzter Fleck, der beim nächsten Vorbeiflug über diese Gegend 16 Tage später und beim vorherigen Vorbeiflug in dem Aufnahmemodus am 27.12.2009 nicht zu sehen ist. Ligeia Mare liegt übrigens ziemlich nahe am Nordpol und ist tatsächlich ein See aus Methan mit einer Tiefe von etwa 170m , was sich auf der folgenden verlinkten Karte ganz gut erkennen lässt: Titan-Seen am Nordpol.
Nun, ist es schon etwas blöd nur eine einzige Aufnahme einer Veränderung der Oberflächen- bzw. Seenstruktur zu haben. Einmal ist eigentlich keinmal; vor allem bei einem so unbekanntem Terrain wie dem Titan. Von daher ist es nicht verwunderlich, dass 3 der 4 Seiten in der Originalveröffentlichung sich nur darum drehen, ein falsches Signal – eine Störung, ein Radarecho, ein Bildartefakt – auszuschließen.
Die Autoren schlussfolgern, dass sie tatsächlich ein vorübergehendes Phänomen auf dem Titan eingefangen haben. Sie können aber nicht genau sagen, was es wirklich gewesen ist. Es lässt sich aber anhand dessen, was wir von dem Titan wissen und anhand dessen, was es nicht sein kann, innerhalb einer gewissen Bandbreite spekulieren. Der dunkle Bereich ist flüssiges Methan und der weiße außen herumragende feststehende Bereich ist festes Material. Zusätzliche Informationen zeigen den Forschern aber, dass der helle “vorübergehend aufgetauchte” Fleck nicht aus demselben Material besteht wie die Küstenlinie. Reflexionswinkel, geben Auskunft über Materialbeschaffenheit und Streuungsparameter sagen etwas über die Oberflächenrauheit aus. Hier gibt es eine ESA-Seite, die ein bisschen mehr erzählt, was sich alles aus so einem Radarsignal an Schlussfolgerungen ziehen lassen.
Die Autoren selbst nennen drei mögliche Ursachen für den hellen Fleck: Wellen, die durch einen Anstieg der Windgeschwindigkeiten auf der Nordhalbkugel angeregt werden. Es könnten Blubberbläschen sein, die vom abschmelzenden Methan oder Ethan vom Grund des Sees emporsteigen oder auch Schwebteilchen, die durch die einsetzende Schmelze vom Ufer in den See getragen worden sind. Es handelt sich also eher um kleinskalige Strukturen. Leider lässt sich nicht ganz so genau aussagen, wie lange das Phänomen andauerte, da die einzige klare Aufnahme von der Region vor dem Fleck von Ende 2009 stammt. Es könnte Monate oder Jahre gedauert haben. Vermutlich sieht man ein bisschen was vom Phänomen in einer Aufnahme vom 23.5.2013, die aber in einem anderen Messmodus gefahren wurde und auch nicht wirklich eindeutig ist, soweit ich es beurteilen kann. Das deutet darauf hin, dass – was immer es auch war- es ein paar Monate anhielt.
Fazit: Auf dem Titan gibt es einen Jahreszeitenwechsel und deswegen verändert sich die Oberfläche – vor allem auf der Nordhalbkugel. Es lohnt sich also, da in den nächsten Jahren genauer hinzusehen.
——————————————————-
(1) Saturn und damit auch sein Mond Titan benötigen etwa 29.5 Jahre für einen Umlauf um die Sonne. Eine Jahreszeit dauert demnach etwa 7.4 Jahre. Die Bahn ist leicht exzentrisch und von daher verursachen hier – anders als auf der Erde – tatsächlich die Entfernung zur Sonne die Jahreszeiten. Bei der Erde ist es die Achsenneigung, welche dafür sorgt, dass pro Quadratmeter auf den verschiedenen Halbkugeln mal mehr und mehr Sonnenenergie den Boden trifft. Hier ist es ganz gut und anschaulich erklärt.
(2) Es sei denn, bei der Eisbildung wurde mindestens 5% Umgebungsluft – also Stickstoff – miteingelagert. Grundsätzlich wären also schwimmende Eisberge möglich, aber vermutlich instabil und von daher eher unwahrscheinlich anzutreffen. Nachgewiesen wurden meines Wissens aber keine.
——————————
Hofgartner, J., Hayes, A., Lunine, J., Zebker, H., Stiles, B., Sotin, C., Barnes, J., Turtle, E., Baines, K., Brown, R., Buratti, B., Clark, R., Encrenaz, P., Kirk, R., Le Gall, A., Lopes, R., Lorenz, R., Malaska, M., Mitchell, K., Nicholson, P., Paillou, P., Radebaugh, J., Wall, S., & Wood, C. (2014). Transient features in a Titan sea Nature Geoscience DOI: 10.1038/ngeo2190
Wie komme ich dazu, so etwas profanes wie Händewaschen als ‘vergessene Kunst’ zu titulieren? Schlüsselerlebnis hierbei war mein letzter Besuch im Kadewe in Berlin. Da gibt es diese herrliche Feinkostabteilung. Jedenfalls, musste ich irgendwann auch auf Toilette verschwinden und als ich mir die Hände waschen wollte, sah ich wie eine ältere distinguierte Frau mit Pelzmäntelchen ihre Bakterien badete. Anders kann ich das nicht ausdrücken. Die Dame hielt, ohne den Seifenspender betätigt zu haben und mit den Handflächen nach unten gerichtet, ihre Finger für kaum 10 Sekunden unter fließendes Wasser. Dann stellte sie das Wasser ab, schüttelte kurz die Hände und ging.
Leider deckt sich diese Beobachtung auch mit Studien, die belegen, dass viel zu viele Menschen ihre Hände nach dem Toilettengang entweder gar nicht oder nicht richtig waschen (Hier die Originalstudie). Auch das Robert-Koch-Institut ist der Ansicht, dass da einige Menschen einen gewissen Nachholbedarf haben. Wir gegen die Viren: (Bei 0:39 kommt dann auch die Übertragung mit einer Banknote.)
Hier gibt es eine schöne Episode der allseits beliebten Sendung mit der Maus zu dem Thema:
Ich hab mir nach dem Schock im Kadewe auch einen Ruck gegeben und mir angesehen, wie lange und mit welcher Technik mensch seine Hände waschen sollte. 20-30 Sekunden sollten es schon sein und immer schön zwischen den Fingern und auch von beiden Seiten und abtrocknen nicht vergessen.
Wo wir gerade beim Thema “richtiges Verhalten” und Toilette sind. Letztens entdeckte ich folgende Anweisung in der KU Leuven:
Leider musste ich mir sagen lassen, dass es schon Kolleginnen gegeben hat, welche die Technik oben links anwendeten und Schuhabdrücke auf der Klobrille hinterließen. Und jetzt will ich nicht wissen, was bei den Männern steht.
]]>Das scheint wie eine Binsenweisheit, aber ich habe genug ältere Wissenschaftler erlebt, für die Öffentlichkeitsarbeit unter ihrer Würde war. Ich habe noch Zeiten erlebt, als es selbst an großen Unis nicht unüblich war, dass Wissenschaftlerinnen völlig verkopfte, extrem lange und vor allem tödlich langweilige Texte verfassten, die dann beinahe unredigiert in den Presseverteiler gegeben wurden. Das lag nicht unbedingt daran, dass die Pressestelle nicht ihre Arbeit machen konnte oder wollte. Die Wissenschaftler dahinter wollten einfach nicht riskieren, dass irgendsoein ‘Pressefuzzi’ eine Falschinformation herausgibt, die sie dann vor anderen Wissenschaftlerinnen doof aussehen läßt. Mit anderen Worten: als Zielgruppe der Öffentlichkeitsarbeit waren ausschließlich Wissenschaftler gesehen und die Aufgabe, das Ganze spannend und auch noch richtig an die breite Masse zu verkaufen, wurde alleine den Presseleuten zugedacht.
Das ist natürlich auch ein Standpunkt. Nur wenn mensch selber wie ein emotionsloser Roboter agiert, warum sollte sich dann irgendjemand anderes für ihre Forschung begeistern? Und wer kennt das Thema besser als mensch selbst und ist daher eher geeignet es knapp und anschaulich, aber dafür auch richtig darzustellen? Gerade in der heutigen Zeit, bei der Fülle an Themen und leider auch der immer weiter sinkenden Bereitschaft in den Medien eine ordentliche Recherche zu finanzieren, ist es extrem naiv anzunehmen, dass sich schon irgendjemand finden wird, der erkennt wie überragend die eigene Forschung ist und das auch entsprechend darstellen kann. Ganz abgesehen davon, dass es eigentlich nicht die Aufgabe einer Journalistin ist, Werbung für Wissenschaft zu machen. Sie sollte doch wohl eher kritisch berichten und das Ganze in einem größeren Kontext einordnen. Ob letzteres dann auch geschieht, ist wiederum eine andere Frage. In einem englischen Artikel auf den Scilogs wurde das Thema auch angesprochen und dabei auch auf ‘social medias’ wie Twitter, Blogportale etc, eingegangen.
Die klassische Pressemitteilung ist und bleibt natürlich wichtig, aber social media eröffnet völlig neue Perspektiven: Angefangen damit, dass mensch jetzt auch direkt mit interessierten Laien über seine Arbeit reden kann – außerhalb der wenigen Tage der offenen Tür – macht es die eigene Arbeit auf eine ganze neue Weise sichtbar und v.a. zeigt es einer breiten Öffentlichkeit, v.a. Multiplikatoren wie Presseleuten, warum mensch forscht und warum es wichtig ist, auch wenn kein unmittelbarer Nutzen entsteht. Das wiederum könnte die Chancen erhöhen, seine Forschung auch finanziert zu kriegen. Klar, eine Garantie ist es nicht, aber wie heißt es so schön: Wer nicht spielt, der kann auch nicht gewinnen.
Ich habe gerade ein ganz aktuelles Beispiel parat für die Interaktion zwischen Wissenschaft, Politik und öffentliche Wahrnehmung über social media:
Der belgische Ministerpräsident gratuliert auf Twitter einem Kollegen, der einen neuen Exoplaneten gefunden hat: What asteroseismology can do for exoplanets: Kepler-410A b. Hier ist die niederländische Pressemitteilung dazu und hier die englische. Der Erstautor Vincent van Eylen bloggt auch selbst.
Ich würde sagen: Alles richtig gemacht. Schaden kann es jedenfalls nicht. Und das sollten sich gerade ältere Wissenschaftlerinnen hinter die Ohren schreiben, die gerne hinter dem Rücken von jungen Wissenschaftlern, die Öffentlichkeitsarbeit machen, lästern, dass diese doch lieber mehr Wissenschaft machen sollten und nicht ihre Zeit ‘verplempern’ sollten.
]]>Die Muppet show
Wenn mensch z.B. diesen deutschen Schlager spielt und
es dann damit vergleicht,
dann gibt es doch eine frappierende Ähnlichkeit. Es gibt aber eine noch frühere Version eines ganz ähnlichen Musik-Themas.
Ich vermute allerdings, dass auch das nicht unbedingt die ‘originalste’ Version sein wird. Wenn ich mein altes Schulwissen hervorkrame, dann scheinen mir alle drei Stücke im Ragtime verwurzelt zu sein.
Diese Fälle zeigen allerdings, dass die Grenze zwischen Plagiat, Hommage und Inspiration fließend ist. Gerade bei Musik ist es unmöglich, völlig unbeeinflusst gänzlich neue Werke zu schaffen. Wie soll mensch auch sicherstellen, dass ein Lied, das mensch als Kind gehört und inzwischen vergessen hat, einen nicht unbewusst inspiriert?
Selbst in der Wissenschaft ist es nicht immer ganz so einfach zu erkennen, wer ‘zuerst’ auf eine revolutionäre Idee kam. Auch hier arbeiten wir nicht im luftleeren Raum, sondern bauen auf früheren Arbeiten auf. So wurde die Integralrechnung unabhängig voneinander von Newton und Leibniz erfunden, was dann bekanntlich zu dem berüchtigt-berüchtigten Prioritätsstreit führte, der auch recht anschaulich vor Augen führt, dass intelligentere Menschen nicht zwangsläufig bessere Menschen sind, sondern genauso verbohrt, eifersüchtig und kindisch sein können wie…normale Menschen eben
Pulp Fiction
Während mensch sich wohl weiter oben noch streiten kann, ob die Stücke wirklich so ähnlich sind, ist der Fall für den Song aus dem Film ‘Pulp Fiction’ sehr eindeutig, schließlich verweist bereits der Titel ‘Misirlou’ auch recht eindeutig auf die ursprünglich griechische Quelle:
Hier eine frühere Version aus dem Jahr 1927(!) im Rembetiko-Stil: Das ägyptische Mädchen:
Der ‘deutsche’ Schlager aus Polynesien
Beim folgendem Beispiel hat es mir dann die Schuhe ausgezogen: Ein polynesisches Volkslied, das dann von einem deutschen Produzenten zu einem sehr bekannten Schlager verwurstelt wurde:
Ich glaub es ist jedem klar, welcher Schlager gemeint ist
Interessantes Thema, auch wenn der letzte Fall für mich einen schalen Beigeschmack von Kultur-Kolonialismus hat. Allerdings weist die Wikipedia-Seite auf die Herkunft hin und dass Tony Marshall die Ehrenbürgerschaft Bora Boras bekommen hat, weil er angeblich ‘polynesisches Liedgut’ bekannt gemacht hat, u.a. mit dem Hit ‘Bora Bora’ (2). Auch wenn bei ‘Schöne Maid’ die Herkunft aus der polynesischen Kultur erstmal nicht so erkennbar ist, so ergibt eine kurze Suche auf Youtube, dass es auch kein großes Geheimnis ist und dieser Beitrag macht es zusätzlich sichtbar.
Ich schreibe übrigens ‘polynesich’, weil es über das Internet nicht so einfach zu eruieren ist, woher das Lied genau stammt. Auf Wiki und auf Youtube wird Tahiti genannt und bei ‘Originals‘ wird eine Aufnahme aus den 30ern von Maoris auf Neusseland angegeben. Zumindest ein Kommentator auf Youtube merkte auch an, dass der Liedtext Maori sei.
Jedenfalls hab ich mir die “Originals” gebookmarkt und bin mal gespannt, was ich sonst noch entdecken werde.
———————–
(1) Keine Sorge, die Seite gibt es auch auf Englisch.
(2) Ich denke, ich lehne mich nicht zu sehr aus dem Fenster, wenn ich anmerke, dass bei der Verleihung der Ehrenbürgerschaft der Hintergedanke “Tourismus” eine nicht unwesentliche Rolle gespielt haben dürfte.
]]>10. Wenn an Heiligabend das Glöckchen klingelt: Rennt nicht wie die Verrückten zum Baum, sondern lasst die Kinder vor. Hier geht es nicht um den FTF!
Also…Wisst Ihr Bescheid
Dafür gibt es jetzt auch den richtigen Soundtrack.
Aber jetzt mal Spaß beiseite: Gerade in der Forschung besteht – finde ich – die fatale Neigung es in dieser Hinsicht zu übertreiben. Es ist ok, wenn eine Deadline mal so knapp ist, dass eine Nacht dabei drauf geht oder wenn ein Experiment derart zickig ist, dass das Wochenende daran glauben muss, damit mensch rechtzeitig zur Konferenz die Ergebnisse präsentieren kann. Oder wenn der unvorhergesehene Crash eines Super-Computers dazu führt, seine Simulationen auf den allerletzten Drücker laufen zu lassen.
Aber wenn es die Regel und nicht die Ausnahme ist, dann ist Schluss mit lustig. Wissenschaftlerinnen sind Menschen und brauchen als solche Erholungsphasen. Gerade in einem kreativen Beruf wie unserem ist das sogar das Gebot der Stunde. Schlafdefizit und permanente Überforderung sind keine Anstecknadeln, die mensch vor sich herträgt um zu zeigen: “Schaut her, wie toll ich motiviert bin. Ich kontrolliere sogar noch im Bett meine Emails und welche Simulation gerade durchläuft”.
Ich habe zwar von sagenhaften Wesen gehört, die das bringen können, ohne irgendwann komplett zusammenzubrechen. Meine Erfahrungen sehen in der Hinsicht leider anders aus. Ein solches Arbeitsumfeld macht auf die Dauer krank. Und davon hat niemand was. Und nein, es ist nicht die Schuld desjenigen/derjenigen, die dann einfach irgendwann nicht mehr kann, weil auch die allerletzten Reserven aufgebraucht sind. Das ist dann noch das Allerperfideste in dieser Situation. Das so etwas als Schwäche ausgelegt und von dem/der Betroffenen auch so empfunden wird. Gerade Doktorandinnen und Post-Docs sind da in einer recht verletzlichen Lage, weil einerseits auf Jahre in einer sehr abhängigen Position und andererseits sowieso ständig am Hadern darüber, ob sie in die Forschung gehören oder nicht.
Mein Rat: Wenn Ihr Euch in einer solchen Situation befindet, dann sucht Euch professionelle Hilfe (Mediatoren, Vermittler, Psychologen/Psychiater*) und schaut zu, dass Ihr da wegkommt. Ich hab leider zu viele Freunde und Kolleginnen in den letzten Jahren in genau solchen Fallen erlebt – auch in der ach so freien Wirtschaft, nur dass da die Ausbeutung besser bezahlt wird. Letztendlich haben alle übereinstimmend gesagt, dass zu gehen, die beste Entscheidung war.
Es ist natürlich scheiße, was in solchen Situationen passiert und Ihr könntet versuchen, Euer gutes Recht einzufordern. Aber das kostet auch Kraft. Wenn Ihr komplett fertig mit Euch und der Welt seid, ist es sehr schwer auch noch die Strukturen Eures Arbeitsumfeldes zu bekämpfen – und Ihr könnt auch nicht damit rechnen, dass Euch das irgendjemand dankt. Ihr müsst sogar damit rechnen, als Querulantin und Nestbeschmutzer angesehen zu werden.
Das kann verdammt hart sein: Es kann bedeuten, auf den Doktortitel zu verzichten. Oder sich mitten in der Promotion einen komplett neuen Betreuer in einer neuen Stadt mit anderem Thema zu suchen. Oder die Doktorarbeit mit einer schlechten Note fertig zu kriegen. Oder bei einer anderen Firma in einer neuen Stadt weit weg vom sozialen Umfeld mehr oder weniger von vorn anzufangen. Aber auch davon ist die Welt für die Betroffenen nicht untergegangen und sie waren hinterher zufriedener.
Das heißt nicht, dass diese Strukturen gar nicht bekämpft werden sollten. Aber die Aufgabe sollten jene übernehmen, die nicht bereits krank sind. Aber dafür muss erst einmal ein Bewusstsein dafür geschaffen werden, dass es da etwas gibt, wogegen mensch sich wehren sollte/könnte. Am besten bevor alles zusammenbricht. Es passiert ja sogar ab und an. Irgendwann wurde z.B. dem Monitor gesteckt, wie an manchen Universitäten das Arbeitsamt missbraucht wird. Ich bin fast vom Glauben abgefallen, als ein Kollege mir erzählte, dass es an seiner Uni üblich sei, Doktorarbeiten in der Arbeitslosigkeit zusammenschreiben zu lassen. Vielleicht könnte diskutiert werden, dass immer noch zu viele Doktoranden-Löhne in Deutschland jenseits von gut und böse sind.
Und ganz ehrlich: Ein Doktorvater oder eine Doktormutter, der/die behauptet, dass Doktorarbeit Privatvergnügen sei, dem/der gehört die Leviten gelesen. Denn dieses “Privatvergnügen” wird komischerweise ganz gerne genommen, um Geld einzutreiben, die daraus resultierenden Paper auf den eigenen Lebenslauf/Institutsseite zu setzen und zu zeigen, wie toll mensch seine/ihre Lehrpflichten wahrnimmt. Es gibt genügend Institute, wo die Forschung fast ausschließlich als angebliches “Privatvergnügen” von Doktorandinnen erledigt wird. Privatvergnügen…my ass. Was eine perfide Mischung aus Geringschätzung und Ausbeutungsmentalität, die dann auch noch ganz offen und als normal zelebriert wird. Ich hab schon von Kolleginnen gehört, die meinten, dass sie das Gefühl haben im Nachteil zu sein, weil sie darauf achten, dass ihre Doktorandinnen in angemessener Zeit fertig werden.
Dann heißt es als Rechtfertigung immer: Ja, dieser immense Druck…Ja, das wissen wir, dass der Druck enorm ist, und natürlich ist es bequem diesen Druck schön nach unten weiterzugeben, anstatt sich mal zu wehren. Aber rein menschlich ist es ein Armutszeugnis, wenn mensch für die Erfüllung seines/ihres persönlichen Lebenstraum dafür billigend in Kauf nimmt, dass die schwächsten Glieder in der Kette darüber zerbrechen.
Ups, jetzt ist es doch länger geworden, als ich vorhatte. Aber es muss mal gesagt werden und durchaus oft und laut.
———-
Letzteres ist leider ein Problem für sich. Es ist gerade in den Ballungszentren fast unmöglich jemanden für den Notfall zu finden.
Allerdings geht es Rick Mastracchio nicht einfach darum seinem Hobby nachzugehen, sondern er will das inzwischen recht populäre Geocachen nutzen, um jungen Menschen das Thema Geographie näher zu bringen. Es bietet sich auch einfach an Raumfahrt und Geographie und Geocachen zu verbinden. Geocachen wäre ohne GPS nicht möglich und GPS nicht ohne Raumfahrt. GPS – finde ich – ist ohnehin eine der Anwendungen, anhand derer sich der Nutzen der Raumfahrt und von auf den ersten Blick ‘nutzloser Grundlagenforschung’ recht gut nahe bringen lässt. GPS wird heutzutage nicht nur in vielen Privat-Autos zur Navigation verwendet, sondern ist inzwischen für viele Logistik-Anwendungen unverzichtbar. Außerdem steckt in der GPS-Navigation angewandte Relativitätstheorie. Wer hätte das im Jahr 1905 vorhersehen können, dass sich mit so etwas in 100 Jahren Milliarden verdienen lässt? Wer hätte selbst 1957 vorhersehen können, dass 50 Jahre später Wettervorhersagen, Rundfunk- und Fernsehübertragungen auf Sputnik-Nachkömmlinge zurückgreifen würden. Und eben Menschen mit einem etwas anderen Hobby
Für Geocacher jedenfalls ergibt sich zwischen dem 6. und 7. November die Möglichkeit an einem Space-Geocaching-Event (also einem Treffen unter Geocachern) teilzunehmen und dabei ein virtuelles Souvenir abzustauben. In der Nähe meines Wohnortes haben ein paar ganz Harte das Event für den 7. November zwischen 5 und 6 Uhr morgens angesetzt. Da werd ich dann mal vor der Arbeit vorbeischneien. In der Hoffnung, dass es nicht allzu sehr regnet
]]>Jetzt beschäftige ich mich schon fast 10 Jahre mit Exoplaneten und bin doch immer wieder erstaunt, was clevere Kolleginnen aus etwas herauskitzeln können, was im Grunde nichts anderes als ein winziger Flecken Licht irgendwo am Nachthimmel ist. Besonders transitierende Planeten sind da ein sehr dankbares Betätigungsfeld.
Ein Transit sieht normalerweise so wie in der folgenden Abbildung aus.
Tatsächlich ist das mit dem Transit etwas komplizierter und sieht im sichtbaren Bereich des Sternenlichtes eher so aus, wie weiter unten.
Eine relativ neue Methode bemüht sich darum, transitierende Exoplaten – die von der Erde aus gesehen vor ihrem Stern herziehen und ihn dabei verdecken – durch verschiedene Lichtfilter anzusehen. Licht ist – zum Glück – nicht einfach nur ein monolithisches Ding, sondern besteht aus verschiedenen Farben und tatsächlich ist es so, dass der Planetentransit oder besser gesagt der Planetenschatten in verschiedenem Licht unterschiedlich stark sein kann.
In einem bestimmten Licht sieht der Transit sogar radikal anders aus als gewohnt. Im Röntgenlicht passiert auf einmal folgendes:
Der ‘Buckel’ in der Mitte kommt dadurch zustande, dass der Planet hier einen Bereich des Sterns verdeckt (die Mitte), welche insgesamt weniger Röntgenlicht aussendet als der Rand. Aber nicht nur ist die Form des Transit etwas Besonderes. Tatsächlich ist auch die Tiefe des Transits hier aussagekräftig. Denn die Tiefe sagt uns, wie groß der Planet in diesem speziellen Licht ist.
Moment mal! Wieso sollte sich die Größe eines Planeten ändern, wenn wir ihn mit unterschiedlichem Licht vermessen?
Wenn der Planet lediglich eine Felskugel ist, dann ist die Größe und damit der Planetentransit in jeglichem Licht gleich tief. Aber wenn dieser Planet eine Atmosphäre hat und es sich gar um einen Gasriesen handelt, der fast ‘nur’ aus Gas besteht, dann sieht das Ganze anders aus. Denn dann bleibt das Licht irgendwo am Rand der Atmosphäre stecken. Unterschiedliches Licht dringt unterschiedlich weit ein und von daher ändert sich die Transittiefe. Gemeinhin würde mensch naiverweise annehmen, dass energiereiches Licht tief hineingeht als Licht mit weniger Energie. Also müsste Röntgenlicht ziemlich tief reingehen oder?
Zum Glück haben vor kurzem Katja Poppenhaeger und ihre Kolleginnen einen Durchbruch erzielt und zum ersten Mal einen transitierenden Planeten im Röntgenlicht angesehen: HD189733b.
Woah, ist ganz schön verrauscht. Aber für den ersten Versuch sieht es nicht schlecht aus. Wenn die Forscherinnen das Ganze noch ein paar mal machen und vernünftig mitteln, dann wird das Signal noch deutlicher. Hier stecken übrigens bereits sechs Transitbeobachtungen drin.
Und jetzt zu den Zahlen. Im optischen Licht ist der Transit 2.6% tief, im Röntgenlicht dagegen zwischen 6-8% tief. Mit anderen Worten: Durch die Röntgenbrille betrachtet erscheint der Planet fast vier mal so groß wie im sichtbaren Licht.
Wie kommt das denn?
Um festzustellen, was mit dem Licht der Atmosphäre passiert, muss mensch sich vor Augen halten, woraus diese Luft besteht und wie diese mit dem Licht – und in diesem Fall mit dem Röntgenlicht interagiert. Es ist hier wahrscheinlich eine Wolke von ‘schweren’ Elementen der Atmosphäre wie Eisen, Kohlenstoff, Stickstoff und Sauerstoff, die das Röntgenlicht schlucken, dadurch energetisch stark angeregt werden und dabei ein Elektron verlieren. Dieser Effekt nennt sich photoelektrische Absorption (1). Und die Tatsache, dass das Röntgenlicht bereits so weit draußen komplett verschluckt wird, sagt uns ne ganze Menge darüber, was der arme Planet erleiden muss. Denn hier haben wir es mit einem Gasriesen zu tun, der vornehmlich aus Wasserstoff und Helium besteht. Bei sonnenähnlicher Zusammensetzung machen die eben erwähnten ‘schweren’ (ja für Astronomen ist alles schwer, was nicht Wasserstoff oder Helium ist :-)) Elemente gerade mal 0.1 – 0.001 Promille aus. Und von diesen seltenen Elementen ist so viel so weit außerhalb des Planeten, dass fast das gesamte Röntgenlicht verschluckt wird.
Wenn schon so relativ schwere Bestandteile wie Eisen, Kohlenstoff etc. in solchen Mengen herumschwirren, dann sind die leichteren Elemente wie Helium und Wasserstoff erst recht da. Die sehen wir hier in dem Röntgenlicht zwar nicht, weil sie nicht so stark mit dem Röntgenlicht interagieren, aber wir können sie in anderem Licht sehen. Z.B. unter UV-Strahlung. Mit anderen Worten, da schwirrt eine riesige ausgedehnte Wolke aus Atmosphäre um den Planeten herum.
Warum eigentlich ist da so viel Gas?
Eigentlich habe ich es schon erwähnt. Die Luftmoleküle und Atome schlucken Röntgen- und andere Strahlung und ‘laden’ sich dabei mit Energie auf. Energie ist bei einem einzelnen Moleküle und Atom auch Bewegungsenergie. Und in Röntgenstrahlung steckt sehr viel Energie in einem einzelnen Lichtquant; soviel, dass ein Atom genügend Energie erhält, um sich von der Gravitation seines Heimatplaneten zu verabschieden, weil es Fluchtgeschwindigkeit erreicht. Etwas ähnliches passiert wahrscheinlich den leichteren Atomen, wenn sie hartes UV-Licht absorbieren. Wir sehen hier also nicht einfach nur einne Wolke. Wir sehen gerade jede Menge Atmosphäre, die dabei ist sich vom Planeten zu lösen. Ihr müsst bedenken, dass der hier betrachtete Planet seinen Stern in einem sehr engen Orbit umkreist in einem Abstand von 0.o3 AU (wir sind komfortable 1 AU von unserer Sonne weg). Ihm wird von daher richtig eingeheizt.
Das ist übrigens nicht allzu neu. Es gibt immer wieder Anzeichen für extrasolare Planeten, die sich auflösen. KIC12557548 z.B. zeigt starke Erosion: allerdings aufgrund eines anderen Effektes, auf den ich im Moment noch nicht eingehe. Da muss ich noch mal was nachlesen.
Dass der Jupiter-Planet HD 209458b einen Schweif hinter sich herzieht, ist seit 2010 bekannt.
In diesem Fall hier, schätzen Katja Poppenhaeger und ihre Kolleginnen in ihrem Paper, dass ungefähr 10^11 g/s durch Sternenstrahlung verursachte Erosion verloren geht. Wenn ich konservativ schätze, dass dieser Planet die ganze Zeit soviel Zeugs verliert, dann hat er seit seiner Entstehung (das ist entweder 2 oder 5 Milliarde Jahre her (2)) etwa 1-2 Erden an Masse eingebüßt.
Bei manchen extrasolaren Planeten, die ihren Stern in einer engen Umlaufbahn umkreisen (und das sind viele), ist diese Erosion sogar eine Frage auf Leben und Tod. Ein Jupiterähnlicher-Planet wie der hier betrachtete, der etwa 300 Erdmassen an Zeugs in sich vereinigt, kann den Verlust von ein paar Erdmassen im Laufe seines Lebens verschmerzen. Aber was ist mit Neptun-ähnlichen Objekten, die von vornherein nur 17 Erdmassen oder weniger intus haben? Und die sind eigentlich noch anfälliger für Erosion, weil ihre Gravitationskraft und damit die Bindungsfähigkeit der Atmosphäre noch geringer ist. Löst sich dann allmählich der Planet auf, bis nur noch der feste Kern übrig ist? Das vermuten einige Forscher zumindest (3). Aber noch ist es zu früh, um definitiv etwas zu sagen. Aber Untersuchungen wie diese hier, welche die Erosion im Röntgenlicht sichtbar machen, helfen das mit der Erosion besser zu verstehen.
Wie bereits eingangs gesagt: Es ist erstaunlich, wieviel Informationen so ein kleiner Lichtpunkt alles liefern kann. Wenn er mit den richtigen Instrumenten und vor allem einer großen Portion Einfallsreichtum und Phantasie angesehen wird.
P.S.: Florian hat schon vor über 2 Monaten darüber berichtet. Hier geht’s zu seinem Artikel.
———————————————————————————————————————————————————-
(1) Hier finde ich die Sache mit den Lichtpaketen bzw. Quanten ganz hilfreich. Roentgenlichtquanten haben sehr viel mehr Energie als z.B. rotes oder blaues Licht.
(2) Hmm, das ist interessant. Hier passen zwei Altersindikatoren nicht zusammen.
“Transit observations of the hot Jupiter HD 189733b at x-ray wavelengths,” K. Poppenhaeger, J. H. M. M. Schmitt, and S. J. Wolk, ApJ 773, 62, 2013.
(3)
A scenario of planet erosion by coronal radiation
Poppenhaeger, K.; Schmitt, J. H. M. M.; Wolk, S. J. (2013). Transit Observations of the Hot Jupiter HD 189733b at X-Ray Wavelengths The Astrophysical Journal DOI: 10.1088/0004-637X/773/1/62
]]>Teleskope im Weltall haben den großen Vorteil, dass sie sich nicht mit Störungen der Atmosphäre herumärgern müssen bzw. sie können das ganze Spektrum der Sterne sehen und nicht nur das Licht, das von der Atmosphäre durchgelassen wird. Dafür fehlt ihnen aber etwas Entscheidendes: Ein fester Standort. Das Problem wird umso prekärer, je weiter wir in die Ferne sehen wollen.
Hobby-Fotographen kennen das Problem auch: Wenn es darum geht in der Ferne zu fotografieren, dann führt der Weg an einem Stativ nicht mehr vorbei. Die freie Hand wackelt einfach viel zu sehr für Fernaufnahmen. Als Beispiel verweise ich gerne auf den folgenden Blogbeitrag von Philipp Schmidli, der ein paar echt coole Mondfotos gemacht hat. Er brauchte ein dreibeiniges Stativ für seine Aufnahmen.
Jetzt stellt Euch vor, dass das dritte Bein eines solchen Statives sich nicht mehr ordentlich einstellen lässt, sondern ein bisschen hin-und her wackelt. Das ist das Problem, das Kepler im Moment hat. Damit ist das Teleskop für die Planetensuche nicht mehr stabil genug. Denn Kepler visiert zu diesem Zweck vor allem Sterne in relativ großer Entfernung an. Das hatte ich im letzten Artikel erklärt, dass Kepler so konzipiert ist, viele Sterne in einem relativ kleinen Ausschnitt des Himmels zu sehen und von daher in die Tiefe schauen muss.
Ok, für genaue Fernbeobachtungen ist Keplers “Stativ” zu wacklig geworden. Aber grundsätzlich funktioniert das Teleskop, der Bordcomputer und die Datenübermittlung. Jedenfalls sammelt die NASA gerade fleißig Vorschläge (1), was sich mit einem leicht wackligen Kepler weiter anstellen ließe: Z.B. eingeschränkt weiterhin Astroseismologie betreiben. Ja, Kepler ist nicht nur eine Exoplaneten sondern auch eine Astroseismologie-Mission. Jedenfalls haben ein paar Kolleginnen mir erzählt, dass zwar die Daten mit Ausfall des dritten “reaction wheels” zwar nicht mehr ganz so super sind, aber dass das teilweise durch eine Filterung der Daten kompensiert werden kann. Außerdem wird wohl gerade diskutiert, das Teleskop auf ein ganz neues Sternenfeld zu richten. Dafür ist wohl noch Treibstoff da.
Überhaupt ist es gar nicht so selten, dass Missonen umgewidmet oder reaktiviert werden, wenn sie ihr Hauptziel erreicht haben. Das Infrarot-Teleskop WISE, wird als NEOWISE reaktiviert, um nach Asteroiden in Erdnähe (NEOs) zu suchen. Das Teleskop hatte ursprünglich drei Infrarot-“Fenster”, durch die es schaute. Der Kanal für die langwelligste Strahlung, die von relativ kühlen Objekten stammt, funktioniert nicht mehr, da das Teleskop selbst zu warm geworden ist, nachdem das Kühlmittel an Bord verdampft ist. Die “Eigenwärme” des Teleskops stört die Messung. Wenn ich das richtig sehe, scheinen die beiden heißeren Kanäle nicht so stark davon betroffen zu sein. Gleichzeitig sind die aber für Asteroiden geeignet, die in Erdnähe herumschwirren und dort von der Sonne relativ stark erwärmt werden (also für “Near Earth Objects” sprich NEOs). Aehnliches gilt für das Weltraum-Infrarot-Telskkop Spitzer, das als Warm Spitzer weiter existiert, nachdem auch hier das Kühlmittel verdunstet ist. Die jetzige Messgenauigkeit reicht z.B. immer noch um Exoplaneten im Infrarot zu untersuchen. Hier gibt es einen Film zu “Warm Spitzer”.
Deep Impact wurde nach Erfüllung des Primärzieles “etwas auf einen Kometen zu werfen und dann zu sehen was passiert” zu EPOXI umgewidmet: Extrasolar Planet Observation/eXtended Investigation of comets. Letztens hat die Sonde Beobachtungen vom Kometen ISON gemacht. Last but not least, sind da noch die Missionen Voyager 1 und 2, die ja ursprünglich als Planetentourer konzipiert waren und jetzt den Rand des Sonnensystems erkunden.
P.S.: Da die Frage im letzten Eintrag kam. Bei CoRoT ist der Bordcomputer und damit das Gehirn kaputt. Da geht nix mehr. Aber auch CoRoT hat seine nominelle Lebensdauer um Jahre überschritten.
(1) Jedenfalls ist das die einzig halbwegs offizielle Meldung, die ich auf die Schnelle zu dem Thema finden konnte. Sorry.
]]>Ich meine, ja klar, es gibt in den Kepler- und CoRoT-Daten noch viel auszuwerten. Vor allem Leute, die sich für variable und Doppelsterne interessieren, haben hier einen reichhaltigen Fundus. Aber das klingt auch so ein wenig nach ‘Es kommt jetzt nix Großes mehr nach Kepler’. Aber das ist (hoffentlich) nicht so.
Ich denke, es ist Zeit mal innezuhalten und sich daran zu erinnern, wofür CoRoT und Kepler eigentlich gebaut wurden. Die Satelliten-Missionen waren Planetenjäger/-zähler der ersten Generation. (1) Sie wurden zu einer Zeit konzipiert und gebaut als die Entdeckung des ersten Exoplaneten kaum 10 Jahre zurück lag. Es war damals bekannt, dass es hier und da Planeten um andere Sterne gibt. Aber wieviele Planeten es insgesamt gibt, das stand im wahrsten Sinne des Wortes noch in den Sternen. CoRoT und Kepler sollten hier Abhilfe schaffen und haben es auch getan.
Heute wissen wir einiges über die Planetenverteilung, aber so richtig sicher auch ‘nur’ für Planeten, die ihre Sterne in einem relativ geringen Abstand umkreisen. Wir beginnen erst jetzt die Planetenpopulation systematisch zu durchforsten, die einen ähnlich großen Abstand zu ihren Sternen haben wie die Erde zur Sonne. Und wie wir von unserem Sonnensystem wissen, ist hinter uns auch noch etwas Zeugs Aber dummerweise wird diese Planetenzählung sehr, sehr lange dauern, alleine schon weil weiter entfernte Planeten sehr lange Umlaufdauern haben und mensch je nach Messmethode mindestens ein paar Jahre hinschauen muss, um einen einzigen Planeten zu entdecken. Es wird meiner Einschätzung nach noch sehr lange dauern eine echte (systematische und lückenlose) Übersicht von noch weiter entfernten Planeten zu haben. Und es wird eher tröpfchenweise vorangehen und nicht so spektakulär ablaufen wie bei den Kepler-Planeten.
Inzwischen haben wir also – auch dank Kepler- die Zahl der inzwischen bestätigten Planeten auf fast 1000 getrieben.
Nur, was ist das alles für Zeugs?
Wir wissen schon mal wie groß die Kepler-Kandidaten sind. Das gibt uns schon mal ne halbwegs gute Idee, dass es sich z.B. bei den Viechern um Jupitergröße entweder um einen Gasriesen oder Braunen Riesen handeln muss. Wobei es aber schon einen nicht unwesentlichen Unterschied gibt zwischen einem relativ fluffigen Gasriesen und einem recht dicht gepackten Braunen Riesen, in dessen Inneren Deuterium fusionieren kann. Die Fusion ist ziemlich ineffizient und dauert nicht sehr lang, aber immerhin. Eine Masse wäre also schon bei so großen Objekten recht hilfreich, um ihre Dichte zu bestimmen und sie entprechend richtig einordnen zu können. Bei den Super-Erden – also den Planeten mit 1-2 Erdradien – wäre ne Masse sogar noch hilfreicher. Hier verläuft wahrscheinlich die Grenze zwischen Planeten, die vornehmlich aus Gas bestehen und Felsplaneten wie Mars, Venus und die Erde. Ob ein Planet eher gasig oder felsig ist, das sollte seine Dichte zeigen und auch dafür braucht es neben der reinen Größe die Bestimmung der Masse.
Genau da haben die Kepler-Planetenkandidaten ein Problem. Tatsächlich ist für viele Kepler-Kandidaten die Planetenmasse nicht bekannt – und wird auf absehbare Zeit auch nicht bekannt werden. Deswegen tauchen die meisten Kepler-Planeten nicht auf exoplanet.eu unter Planeten auf.
Das ist der Preis, den wir für die schnelle Planeten-Volkszählung bezahlt haben. Um möglichst schnell und einfach, relativ viele Sterne abzugreifen, ließ mensch CoRoT und Kepler tief in einen relativ kleinen Teil des Sternenhimmels schauen. Das ist im Bild unten rechts zu erkennen. Es gilt: Je größer die Magnitude – scheinbare Helligkeit – desto leuchtschwächer, desto schwächer ist das Signal und desto weniger Informationen kommen dementsprechend von dem Stern und einem eventuell vorhandenen Planeten auf der Erde an.
Wie oben zu sehen ist, erscheinen die meisten der beobachten sonnenähnlichen Sterne recht leuchtschwach. Der Grund für den Helligkeitsunterschied ist hier vor allem die Entfernung der Sterne. Ein Teleskop deckt immer einen gewissen Winkel des Raumes ab wie im Bild unten dargestellt:
In diesem Winkel befinden sich – wenn wir annehmen, dass die Sterne sich relativ gleichförmig verteilen und nicht verdeckt sind – mehr Sterne in großer Entfernung als solche in unmittelbarer Nähe. Wenn wir im Wald stehen, sehen wir auch nur 1-2 Bäume unmittelbar vor uns und desto mehr Bäume in größerer Entfernung.
Von daher ist es also klar, warum so viele Sterne sich bei Magnitude 16 häufen und kaum etwas bei 6 zu finden ist. Zwischen 6 und 16 geht die Helligkeit aber nicht nur ein bisschen sondern massiv in den Keller. Es geht hier um einen Faktor zehntausend zwischen 6 und 16.
Zumindest vor ein paar Jahren war es so, dass es bei Magnitude 15 schon extrem schwierig wurde selbst die Masse eines Hot-Jupiter-Planeten zu bestimmen. Nicht umsonst umkreisen die ersten nachgewiesenermaßen terrestrische Planeten, deren Massen auch bestimmt werden konnten, relativ leuchtstarke Sterne. Der Zentralstern von CoRoT-7bund Kepler-10b hat jeweils ungefähr Magnitude 11. Und selbst da war die Massenbestimmung zumindest bei CoRoT-7b ein mittleres Drama, weil der Stern dann auch noch die Frechheit hatte relativ variabel zu sein Da gingen dann mal eben mehr als zwei Dutzend Bobachtungsnächte drauf, nur um sicherzustellen, dass es sich hier um einen Fels- und keinen Gasplaneten handelt und dann hatte ein Team sogar einen Ausreißer bei der Massebestimmung. Was unserer Meinung daran liegt, dass die Kolleginnen die Variabilität nicht vollständig bei der Auswertung berücksichtigt haben. Und hier ist ne relativ aktuelle Analyse zu dem Thema.
Beobachtungsnächte sind aber nun teuer und heiß umkämpft. So einen Aufwand kann mensch für ausgesuchte Objekte betreiben…Aber nicht für hundert oder gar tausend. Na ja, grundsätzlich ginge es natürlich, aber in dieser realen Welt in der Forschung und Entwicklung insgesamt noch nicht mal 3% des Bruttoinlandproduktes wert ist und in der ja noch andere Leute durch das Teleskop sehen wollen als Exoplaneten-Forscherinnen, geht es dann eben rein praktisch nicht.
Erst mal können wir mit dem arbeiten was da ist. Im Moment stürzen sich die Teams für eine genauere Analyse der Größe, Dichte, Zusammensetzung und Atmosphäre auf bekannte Planeten, die einen relativ hellen Stern umkreisen. Während ich in den letzten Jahren den Eindruck hatte, dass diese Charakterisierung relativ unkoordiniert erfolgte, denke ich, dass das Feld in der post-Kepler-Ära wachsen und sich vernetzen wird – untereinander und mit den beobachtenden Kolleginnen.
Die nächste Generation der Weltraum-Planetensucher spiegelt das auch wider.
Jetzt, da wir wissen, dass wir überall hingucken können und überall Planeten finden werden, lohnt es sich aufwändigere Strategien aufzufahren: TESS und PLATO und Cheops und Echo sind alles Missionen, die sich von daher auf besonders helle Sterne – also Sterne in unserer Nachbarschaft konzentrieren – um vornehmlich weitere lohnenswerte Objekte für eine Langzeit- und Detailuntersuchung zu finden.
Immerhin TESS hat alle Hürden genommen und ist für den Start 2017 vorgesehen. Die anderen Missionen sind derzeit in diversen Bewertungsstadien vor dem entscheidenden GO.
Aber selbst wenn es keine weitere Exoplaneten-Mission in’s Finale schaffen sollte: Es gibt immer noch eine ganze Reihe bodengestützter Beobachtungsprogramme – alte und neue – die jede Menge vielversprechende Planeten entdecken. Zwar sind hier die Stern- und damit auch die Planeten-Eigenschaften nicht ganz so gut bestimmt wie bei den Weltraum-Missionen – was zum einen an den besseren Daten und zum anderen auch an der i.A: besseren Ausstattung mit Mitteln und Personal liegt – aber das ist noch lange kein Grund diese Planeten zu verschmähen
Ja, es gibt ein Leben für Exoplaneten-Forscherinnen nach Kepler. Und es wird sicherlich mindestens genauso spannend sein, wie das Leben mit Kepler.
…Fortsetzung folgt
—————–
(1) CoRoT war in seiner allerersten Fassung sogar als reine Astroseismologie-Mission konzipiert und hat sich erst allmählich zu einer Mission weiterentwickelt, die neben der Astroseismologie auch Exoplaneten abdeckte.
P.S.: Meine Abwesenheit bedeutete übrigens nichts Schlimmes. In den letzten Monaten reihten sich diverse Meetings/Konferenzen und andere Dinge aneinander, ich kämpfe immer noch mit grenzübergreifender Bürokratie (1) und dann… hatte ich Urlaub nötig. Tja und zuguterletzt wusste ich nicht so recht, wie hier wieder einsteigen. Ihr kennt das vielleicht…je länger mensch darüber nachdenkt, um so schwerer wird es, anstatt es einfach mal so zu tun.
Und damit tu ich es! So!
——
1) Nein, ich werde mein Auto, das ich vor nem halben Jahr gekauft habe, nicht verkaufen. Ich krieg das in Belgien angemeldet. Kann doch nicht so schwer sein? Jetzt hab ich schon mit gefühlt der gesamten VW-Zentrale in Köln telefoniert, um ein EU-Konformitätszertifikat zu kriegen, um letztendlich dann ne Nummer der VW-Welt-Zentrale in Wolfsburg zu kriegen, die ich anrief um eine Händler-Webseite genannt zu bekommen, wo ich ein Kundenkonto eröffnete, um mir dann das Zertifikat zu bestellen. Kostete mich schlappe 0 Euro mit 0 Euro Porto und war innerhalb von drei Tagen da. Immerhin. Überhaupt war der ganze Spaß bislang recht günstig. Außer 3 Cent für das Aufpappen eines Etiketts beim belgischen Zoll habe ich nichts bezahlt. Und ja, ich meine tatsächlich drei Euro-Cent. Ich muss wohl selten dämlich geschaut haben, als ich dem Zollbeamten das 10-Cent-Stück reichte. Kleiner hatte ich es nicht. Ich meine, sorry, wer rechnet denn damit, dass mensch beim Amt einzelne Cents braucht?
Wenn jetzt noch die belgische Zulassungsstelle sich angewöhnen könnte, zu schreiben, was genau an der Anfrage falsch ist, anstatt alles mit den Begründung zurückzuschicken, dass sie einen oder mehrere Fehler festgestellt haben…So musste ich zur Versicherung, die auch nicht wusste, was falsch war. Die nette Dame rief bei der Zulassungsstelle an und bekam dann die Auskunft, dass ich meinen Wagen in Belgien noch technisch prüfen lassen muss. Aber ich hab die belgischen Nummernschilder schon in Reichweite. Ich muss nur noch auf diese Webseite gehen, einen Termin mit der belgischen Auto-Prüfungsstelle machen, und in ein Nachbarstädtchen zu fahren und dann mit dem Stempel wieder bei der Auto-Versicherung aufschlagen, wo sie dann die Unterlagen wieder zur Zulassungststelle schicken, auf dass ich diesmal hoffentlich bald meine Nummernschilder bei der Post abholen darf (weil die nicht in meinen Briefkasten passen). Dann bin ich hoffentlich mit dem gröbsten Bürokratie-Gewusel durch.
]]>Florian hat es bereits verkündet. Kepler ist ziemlich sicher ziemlich tot. Um CoRoT ist es seit November auch ziemlich still. Es wird zwar immer wieder betont, dass die Ingenieure nach einer Lösung suchen, aber eigentlich hab ich wenig Hoffnung. Kepler kann mit zwei Stabilisatoren leider nicht allzuviel machen. Das ist so, als ob jemand versuchte mit zittrigen Händen zu fotografieren.
Schade! Im Moment zirkuliert (wohl) folgendes Gedicht in Exoplaneten-Forscherinnen-Kreisen, für die europäische Version ersetzt Kepler mit CoRoT (in Klammern von mir und dann passt es auch:
Stop all the clocks, cut off the internet,
Prevent the dog from barking with a juicy bone,
Silence the pianos and with muffled drum
Bring out the coffin, let the mourners come.
Let jet airplanes circle at night overhead
Sky-writing over Cygnus (Monocerus&Serpens Cauda): Kepler (CoRoT) is dead.
Put crepe bows round the white necks of doves,
Let the traffic officers wear black cotton gloves.
Kepler(CoRoT) was my North, my South, my East and West,
My working week, no weekend rest,
My noon, my midnight, my talks, my song;
I thought Kepler(CoRoT) would last forever: I was wrong.
The stars are still wanted now; let’s honor every one,
Pack up the moon and dismantle the sun,
Pour away the ocean and sweep up the woods;
For nothing will ever be this good.
(With thanks to W.H.Auden.)
Aber wie auch der Kollege Vicent van Eylen schrieb (auf Niederländisch) und wie mensch (vielleicht) in Köln sagen würde: “Niemals geht man so ganz”
Die Satelliten sind zwar vermutlich tot, aber es warten noch haufenweise Daten und Kandidaten einer weiteren wissenschaftlichen Auswertungen. Es ist so viel, dass wir noch auf Jahre wenn nicht Jahrzehnte beschäftigt sein werden. Und die nächste Generation von Instrumente steht auch in den Startlöchern.
In dem Sinne:
So long and thanks for all the data.
]]>
Der kanadische Astronaut Chris Hadfield wringt in dem folgenden kleinen Video einen nassen Lappen aus. Was wiederum beweist, dass wirklich alles im All spannend ist. Die Oberflächenspannung ist schon witzig.
Solche Videos erinnern mich mal wieder daran, wie schwierig selbst alltäglichste Situationen in der Schwerelosigkeit sein können. Wie z.B. der tägliche Toilettengang.
(Und ja, ab hier wird es unappetitlich, also seid gewarnt!)
In den 60ern haben sich die Ingenieure offensichtlich für eine recht *ähm* rustikale Version einer Bordtoilette entschieden. Privatsphäre beim Toilettengang gab es sowieso nicht, wie denn auch?
Wenn ich das richtig sehe, haben die Astronauten sich für den Stuhlgang einen Beutel hinter das Gesäß geschnallt; in der Hoffnung, dass auch alles dahin geht, wo es auch hingehen soll. Was es offenbar nicht immer tat.
05 13 29 52 CDR Give me a napkin quick. There’s a turd floating through the air
Direktes Zitat aus dem Apollo10-Transkript. Sucht in den Dokument nach mehr ‘turd’ Und was war bei Durchfall? Laut diesem Artikel litt Frank Borman, der Kommandant von Apollo 8, kurz nach dem Start an Durchfall und Erbrechen. Was muss dabei da oben abgegangen sein? Lieber nicht drüber nachdenken, oder?
Oder genau doch darüber nachdenken, weil selbst die hartgesottensten und männlichsten “Helden (TM)” – und als nichts anderes wurden Astronauten in der Apollo (sic!)-Ära stilisiert – auch krank werden können. Wer sich zu fein ist über die Hygiene-Verhältnisse während eines Raumfluges nachzudenken und gar jedwede Form körperlichen Unwohlseins so weit stigmatisiert, dass die Betreffenden alles tun, um ihr Unwohlsein zu vertuschen (wiederum der Verweis auf diesen Artikel), der sorgt dafür, dass hinterher viel Mist rauskommt. (1) Hygiene ist gerade bei längeren Weltraumaufenthalten unverzichtbar mit einer guten Sanitärhygiene verbunden, auch wenn in den meisten Kulturkreisen die schlichte Notwendigkeit zur Defäkation stigmatisiert wird. Das wurde im Film das Gespenst der Freiheit vortrefflich karikiert.
Aber nicht nur für den Gesundheitszustand der Astronauten und Astronautinnen ist gute Hygiene unverzichtbar, sondern auch für das Funktionieren von technischen Geräten, v.a. der Lebenserhaltungssysteme. Obwohl ich schon irgendwo aufgeschnappt hatte, dass die Kontamination mit Pilzen und Bakterien an Bord der Raumstation Mir ein Problem war, war ich doch sehr überrascht in einem Forschungsartikel (2) zu lesen, dass “Biodegradation” zum Ausfall der Klimaanlage und des Wasseraufbereitungssystems führen kann. Auf der ISS wird daher die Kontamination überwacht und ab einem gewissen Kontaminationsgrad die entsprechende Stelle gereinigt. Die Haupt-Komponenten der Verunreinigung sind Staphylococcus sp. und Corynebacterium sp., die
ganz klar menschlichen Ursprungs sind.
Erstaunlicherweise wurde auch im Jahr 2006 das Thema Hygiene an Bord einer Raumstation dennoch als nicht ganz so dringlich erachtet. Die Autoren des besagten Fachartikels ‘beschweren’ sich, dass die bakterielle Kontamination in der ISS erst am Boden analysiert wurde und es daher durchschnittlich eine Zeitverzögerung von einer Woche zwischen Probenentnahme und ersten Ergebnissen gab. Was irgendwie den Sinn und Zweck der Übung etwas in Frage stellt. Ich meine sorry, innerhalb einer Woche haben die da oben auch so mitgekriegt, dass da wohl irgendwo ein Bakterienherd ist.
Ok gut, die ISS ist jetzt kein Kreuzfahrtschiff und auch nicht so leicht zu erreichen, so dass die Kontamination bereits vor dem Eintritt gering gehalten werden kann. Dennoch find ich die Vorstellung einer Zeitverzögerung von einer Woche zwischen Bakterienentnahme und Warnung sehr beunruhigend. Insbesondere, da sich inzwischen gezeigt hat, dass gerade Mikroorganismen sehr unschöne Eigenschaften in der Schwerelosigkeit entwickeln können: Pilze (z.B. Ulocladium chartarum) (3) z.B. vermehren sich mit wenig Ausgangsmaterial (Substrat) und versteckt (tief in porösen Materialien), wo sie fast ungestört sowohl Materialien angreifen wie auch die Gesundheit der Frauen und Männer an Bord gefährden können. Krankheitserreger wie Salomonellen werden in der Schwerelosigkeit sogar noch virulenter (4).
Ich habe jetzt beim Stöbern im Internet nicht herausgefunden, ob die Überwachung von Mikroorganismen an Bord der ISS verbessert bzw. beschleunigt wurde. Ich kann es nur hoffen, sonst könnte es irgendwann zu folgendem Szenario kommen
——-
(1) Sorry, konnte ich mir nicht verkneifen.
(2) Novikova, N., De Boever, P., Poddubko, S., Deshevaya, E., Polikarpov, N., Rakova, N., Coninx, I., & Mergeay, M. (2006). Survey of environmental biocontamination on board the International Space Station Research in Microbiology, 157 (1), 5-12 DOI: 10.1016/j.resmic.2005.07.010
(3) Gomoiu, I., Chatzitheodoridis, E., Vadrucci, S., & Walther, I. (2013). The Effect of Spaceflight on Growth of Ulocladium chartarum Colonies on the International Space Station PLoS ONE, 8 (4) DOI: 10.1371/journal.pone.0062130
(4) Wilson, J., Ott, C., zu Bentrup, K., Ramamurthy, R., Quick, L., Porwollik, S., Cheng, P., McClelland, M., Tsaprailis, G., Radabaugh, T., Hunt, A., Fernandez, D., Richter, E., Shah, M., Kilcoyne, M., Joshi, L., Nelman-Gonzalez, M., Hing, S., Parra, M., Dumars, P., Norwood, K., Bober, R., Devich, J., Ruggles, A., Goulart, C., Rupert, M., Stodieck, L., Stafford, P., Catella, L., Schurr, M., Buchanan, K., Morici, L., McCracken, J., Allen, P., Baker-Coleman, C., Hammond, T., Vogel, J., Nelson, R., Pierson, D., Stefanyshyn-Piper, H., & Nickerson, C. (2007). Space flight alters bacterial gene expression and virulence and reveals a role for global regulator Hfq Proceedings of the National Academy of Sciences, 104 (41), 16299-16304 DOI: 10.1073/pnas.0707155104
]]>Bild: NASA
Und bevor jetzt der Einwand kommt, ja aber es könnte..Ja sicher, können kann vieles, aber Ihr müsst immer daran denken, dass wir nun mal in einer Welt leben, in der wir ständig um Geld betteln müssen und sooo viele sind wir auch nicht. (1)Wenn wir also Leben nachweisen wollen, dann muss das basierend auf dem jetzigen Wissensstand in annehmbarer Zeit geschehen und zwar eindeutig. Und letzteres ist verdammt schwer, selbst auf der Grundlage des Wissens basierend auf irdischem Leben und wenn wir mit Planeten vor unserer Haustür hantieren.
Sind die Methan-Ausdünstungen auf dem Mars nun vulkanischen oder biologischen Ursprungs? Gibt es überhaupt Methan auf dem Mars, oder ist es ein Instrumenten-Fehler bzw. menschliches ‘Versagen’, weil die Forscher und Forscherinnen unbedingt Methan sehen wollen? Oder ist es nur ab und zu da und der Mars-Rover Curiosity hat das Pech zu falschen Zeit vor Ort zu sein? Und was ist mit Europa und seinen unterirdischen Ozeanen? Gibt es da Leben? Und wie finden wir das raus?
Die Kepler-62-Planeten sind aber 1200 Lichtjahre weit weg. Da wird es nochmal ungleich schwerer. Zunächst einmal brauchen wir mal eine Massenbestimmung für diese Planeten. Aber alleine das ist schon eine Herausforderung, sonst hätten die Forscher kaum ihre Entdeckung ohne eine Masse herausgegeben. Wobei auch ich den Original-Text nicht lesen kann, weil meine Uni Science Express nicht abonniert hat.(2)
Als nächstes stünde dann die Atmosphären-Bestimmung an. Es wäre auf jeden Fall schon mal eine extrem gute Nachricht, wenn überhaupt eine Atmosphäre gefunden würde. Aber auch das wird sicherlich noch mal schwerer als die Massenbestimmung. Allerdings ist jetzt die Motivation und damit auch das Geld da, so richtig in die Vollen zu gehen. Und jede Messung, egal ob sie negativ oder positiv ist, wäre eine Publikation wert. Also kommt da in absehbarer Zeit 100%ig noch einiges auf uns zu.
Und wenn wir da schöne Ergebnisse präsentieren könnten, wäre es schön, wenn wir Kepler-62e und -62f irgendwie anders aussprechen könnten. Die Exoplanten-Nomenklatur ist alles andere als einprägsam. Ich sag nur HD2094dingskirchen.
Bild: Künstlerische Darstellung des Exoplaneten ‘Osiris’ ursprünglich von Alfred Vidal-Madjar (Institut d’Astrophysique de Paris, CNRS, France)
HD209458b ist ein extrem wichtiger Exoplanet, weil er sich sehr gut beobachten lässt (er ist etwas mehr als 150 Lichtjahre weit weg), seit 1999 bekannt ist und sehr viele Messungen zu diesem Planeten durchgeführt wurden. Aber ich kann diesen doofen Namen … einfach … nicht …für einen Vortrag gebrauchen. Es stört den Redefluss ungemein und viel schlimmer noch: Mein Publikum steigt mir bei so ner Zahlenkolonne aus, falls es nicht gerade der innere Zirkel der Exoplaneten-Experten ist und die brauchen die Aufzählung auch nicht, die werfen einen Blick auf die Folie und denken ‘ach ja der‘. Ich hab letztens nen Vortrag vor Astronomen gehalten, die gerade nicht Exoplaneten-Expertinnen waren und ich konnte an den Gesichtern so richtig ablesen ‘HD2..häh? Muss ich mir das jetzt merken?’ Es ist zum Mäusemelken! Ich glaub, ich nenne den Planeten zukünftig Osiris, was inoffiziell sowieso viele Kollegen tun.
Bei den Kepler-Planeten und CoRoT-Planeten kommt dann auch regelmäßig eine Verwechslungsgefahr hinzu. Selbst mir als Expertin passiert das, so dass ich vor Vorträgen nochmal nachschlage, um sicherzugehen, dass ich nicht CoRoT-15b mit CoRoT-16b verwechsle oder so ähnlich.
Es ist also allerhöchste Zeit zumindest den wichtigsten (3) Exoplaneten Namen zu geben, die beim Publikum keine glasigen Augen hervorrufen und einen gewissen Wiedererkennungswert haben. Außerdem wäre es eine großartige Gelegenheit, die Öffentlichkeit zu beteiligen und ihnen das Gefühl zu geben, dass diese Planeten auch irgendwie ‘ihrs’ sind und mehr als Datenpunkte, mit denen sich ‘so komische Wissenschaftlerinnen’ abgeben und die eh keiner versteht. Was für ein dankbares Feld, was für eine tolle Aufgabe, was mensch daraus tolles machen könnte…
Stattdessen wird daraus so ein absolut bescheuerter kindischer Hick-Hack.
Ausgelöst wurde das Ganze wohl schon vor ein paar Wochen durch Alan Stern’s Uwingu-Projekt, in dem dazu aufgerufen wurde, den Planeten um Alpha Centauri zu benennen. Der Spaß soll 4.99 Dollar kosten, wobei das Geld laut eigener Angabe in einen Fond fließen soll, der dann dazu benutzt werden soll, weitere Forschung zu finanzieren. An sich finde ich die Idee nicht schlecht und auch die Sache mit dem Forschungs-Fond find ich reizvoll und, ja, Mr. Stern ist ein verdienter Planetenforscher…
ABER er hat effektiv nicht das Recht, auf eigene Faust Planeten-Benennungen vorzunehmen. Was hat er denn gedacht, was passieren würde, dass die Astronomie-Gemeinschaft seinen kleinen Coup einfach so akzeptieren würde? Es kam natürlich, wie es kommen musste und die IAU (die Versammlung internationaler Astronominnen) hat am 12. April dann mit einer reichlich angepissten Pressemitteilung reagiert. Die IAU sagt im Grunde nichts anderes als: ‘Nicht mit uns! Wir machen die Namen und nicht Du und die Namen, machen wir so, wie wir sie als Wissenschaftler brauchen und das sind eben diese drögen Zahlenkolonnen. Ätsch!’
Boah, echt jetzt? Ich kann ja verstehen, dass die IAU was dagegen hat, dass Alan Stern hier nen Alleingang macht, ABER müssen die den Elfenbeinturm derart raushängen lassen? Und dann wundern wir uns, warum Wissenschaftlerinnen als korinthenkackende elitäre Fachidioten wahrgenommen werden. Meine Fresse…Sie hätten ja zumindest das Potenzial und die guten Absichten hinter Uwingu anerkennen können, aber neee…Wer auch immer diese Pressemitteilung verbockt halt, sollte ein Kommunikations-/Streitkultur-Seminar mitmachen.
Ich bin jetzt ehrlich gesagt überfragt, ob die IAU wirklich alleine das Recht hat, astronomischen Objekten Namen zu geben. Sehr demokratisch erscheint mir das nicht. Dass die IAU de facto das Recht ausübt, funktioniert meines Erachtens doch nur, weil die Öffentlichkeit keinen großen Bedarf an Asteroid Nummer 100 001 oder Stern xyz hat und weil Astronominnen nun mal eine verbindliche Nomenklatur brauchen. Ich bin da keine Expertin, aber handelt es sich hier nicht eher um eine Art Gewohnheitsrecht, das sich nur deswegen etablieren konnte, weil niemand außerhalb der Community dagegen protestierte?
Auf jeden Fall haben die Entdecker das Recht, Planeten zu benennen und von daher bin ich persönlich sehr angetan von der Idee von Cumbrian Sky: Lasst die Entdecker einen Namen aussuchen! Zarminas Welt, z.B., klingt doch soviel besser als Gliese 581g und es gibt kaum etwas Schöneres, als wenn ein Mensch einem anderen Menschen aus Liebe einen ganzen Planeten widmet (4)
Nachtrag (pure Spekulation): Vielleicht hat Alan Stern die IAU aber auch bewusst provoziert. Stern ist nämlich auch der PI (sozusagen wissenschaftl. Chef) von New Horizons, das auf dem Weg zum Ex-Planeten Pluto ist. Alan Stern war jedenfalls von der IAU ziemlich angepisst, als dann die Planeten-Nomenklatur reformiert wurde (5) und Pluto auf einmal kein Planet war (6). Nach diesem Debakel hier kann ich wohl mit großer Sicherheit sagen, dass Alan Stern und die IAU in diesem Leben wohl keine Freunde mehr werden.
————————–
(1) Ein Kollege hat mir letztens erzählt, dass er mal nachgeschaut hat, wieviel Astrophysiker/Astronomen es weltweit gibt. Es sind gerade mal 10000. Und die wenigsten beschäftigen sich mit Exoplaneten. Ich würde jetzt mal schätzen -ausgehend von den Namen, die ich immer wieder lese und den Gesichtern, die ich immer wieder auf Konferenzen sehe- dass es wohl weniger als 1000 echte Exoplaneten-Forscherinnen weltweit gibt. Also solche, die sich vorwiegend mit dem Thema beschäftigen. Und das beinhaltet auch die Fluktuation an Doktoranden.
(2) Das kotzt mich auch an. Jetzt investiert meine Uni schon in hunderte von Abos von Fachzeitschriften u.a. natürlich auch in Science Magazine und dann machen die Verlage ein neues Produkt auf und verlangen dafür dann noch mal extra Gebühren. Ich versteh schon, warum manch Uni da streikt.
Ich schlussfolgere daher jetzt mal aufgrund meiner Erfahrungen mit den ersten transitierenden Supererden CoRoT-7b und Kepler-10b , von denen ich weiß, wieviel teure und heiß umkämpfte Teleskopzeit für die Massebestimmung draufgegangen ist; wobei ich da auch nicht mehr auf dem allerneusten Stand bin, allerdings sind die neuesten Geräte zur Massenbestimmung wie ESPRESSO noch nicht soweit, wenn ich das halbwegs im Blick haben.
(3) Z.B. könnten wir alle Exoplaneten-Publikationen nehmen und zählen, wieviel zu welchem Exoplaneten publiziert wird, und den Top-20 dieser Liste griffige Namen geben.
(4) Wermutstropfen: Es könnte sein, dass genau dieser Planet gar nicht existiert; seine Entdeckung ist jedenfalls umstritten. Viel werden wir über diesen Planeten in naher Zukunft jedenfalls nicht herausfinden können. Leider ;-(
(5) Die IAU hat schon damals so eine unglaublich beschissene Pressearbeit geleistet. Die kriegen anscheinend nicht mit, wie sie in der Welt ankommen, oder/und sind nicht willens es besser zu machen.
(6) Pluto hätte nie ein Planet werden dürfen. Aber damals bei seiner Entdeckung wussten die Leute es nicht besser. Das war alles vor der Entdeckung des Kuiper-Gürtels und der Oortschen Wolke. Sie konnten nicht ahnen, dass da noch mehr Zeugs rumfliegt und Pluto nur das größte und nächste von diesem Zeugs ist.
]]>In diesem verpflichtenden (!) Kommunikations-Workshop wurde erklärt, welche “Knöpfe” es in zwischenmenschlichen Beziehungen gibt und welche mensch drücken sollte und welche eher nicht, weil dann das Gespräch von Anfang an zum Scheitern verurteilt ist. Nur so als Beispiel: Wenn ein Projekt nicht so läuft, wie mensch sich das gedacht hat, ist es eine ganz schlechte Idee seine Kolleginnen mit ‘Wieso kriegt Ihr das eigentlich nicht auf die Reihe?’ anzureden. (1)
Im Ernst, das Folgende ist echt harmlos im Vergleich mit der Wirklichkeit.
Aber es hilft immens, darüber zu lachen.
Die Zeiten, in denen einsame Genies in ihrem stillen Kämmerlein vor sich hin werkeln sind lange vorbei – wenn es sie denn je gegeben hat (2). Aber als Wissenschaftlerinnen haben wir in der Regel so viel zu tun, dass so ‘Nebensächlichkeiten’ wie der Umgang mit anderen Menschen gerne aus dem Blickfeld geraten. Wenn denn überhaupt das Bewusstsein existiert, dass da ein gewisser Mangel vorherrscht. Meiner Erfahrung nach bilden sich aber gestandene Forscherinnen ein, dass mensch “irgendwie” lernt ordentliche Präsentation zu erstellen, Paper zu schreiben, Vorlesungen und Übungen zu halten oder in Kollaborationen mit Kolleginnen um Beobachtungszeit zu feilschen. Das ist zum einen Selbstbetrug und zum anderen entledigen sich diese Kolleginnen der Verpflichtung das ihren Studentinnen auch näher zu bringen. Die Zeit wollen sich aber viele nicht nehmen, weil es angeblich immer “Wichtigeres” zu tun gibt. Zum Thema “Störfall Lehre und Ausbildung” ist jedenfalls ein eigener Blogbeitrag fällig.
Ich hatte auch nicht den Eindruck, dass die deutschen Universitäten (in meinem Fall Köln und Bonn) sich ein Bein ausreißen, um da was zu machen. Einmal hab ich einen Lehrgang in Sachen Präsentation an der Uni Köln mitgemacht. Die Themen waren: Wie baue ich einen Vortrag auf, so dass möglichst viel beim Publikum hängen bleibt, wie schreibe ich Pressemitteilungen, die auch wirklich was aussagen und nicht eine ganze DIN-A4 Seite ausfüllen und wie stelle ich mich vor einer Kamera an, ohne wie eine komplette Vollidiotin auszusehen. Damals hieß es, dass der Lehrgang einmal im Jahr durchgeführt werden sollte. Dummerweise gab es aber immer nur insgesamt 20 Plätze und ich hab davon nur erfahren, weil mich der Pressesprecher selbst dazu eingeladen hat, weil ich mich so viel in der Öffentlichkeitsarbeit engagiere. Das ist für eine so große Uni wie die Kölner, dann doch ein bisschen wenig, aber besser als nix.
Vor dem Hintergrund ist es absolut nicht verwunderlich, wenn z.B. die Vorträge europäischer Kolleginnen teilweise ziemlich schlecht bis hin zu absolut grauenvoll sind. Ich hab so absolut lächerliche Dinge gesehen wie Folien mit gleichzeitig blauer, grüner und roter Schrift auf schwarzem Grund oder Präsentationen, in der wirklich jede einzelne Methode verwendet wurde, die Powerpoint bietet, um Folien zu animieren. Da möchte ich als Zuhörerin fast Schmerzensgeld wegen visueller Folter verlangen, insbesondere wenn ich bedenke, dass meine Uni gut und gerne ein paar hundert Euro bezahlt, damit ich größere Konferenzen besuchen kann. Und was für Vorträge gilt, gilt natürlich auch für Vorlesungen und die Verhandlungsfähigkeit mit Studentinnen, Vorgesetzten und Kolleginnen. Ich könnte Stories erzählen^^ Aber ich lass das mal lieber. (3)
Aber sieh mal einer guck, ich bin nicht die einzige, die sich an dem ‘Problem’ stört. Hier ist ein wirklich schönes Tutorial eines deutschen Biologen, der erklärt, wie mensch Poster designen kann, die auch lesbar sind.
Die Videos aus folgender kleinen Serie finde ich auch extrem hilfreich und hol mir da öfter Anregungen:
Dann habe ich letztens gesehen, dass das Sprachinstitut der KU Leuven richtige Kurse in akademischer Sprache (Niederländisch und Englisch) anbietet. Ich hab leider nich die Zeit auch noch einen solchen Kurs zu belegen. Ich lerne gerade das alltägliche Niederländisch und das kostet mich nun mal mind. 6 Stunden die Woche am Abend plus Hausaufgaben und Vokabeltraining und arbeiten muss ich ja auch noch und ein bisschen Freizeit wär auch nicht schlecht Ich vernachlässige schon meinen Blog auf das Sträflichste;-P
Aber es gibt auch ne Online-Seite mit Übungen in Sachen Vokabular und Grammatik. Leider ist die nur für KULeuven-Studenten und Personal zugänglich. Allerdings, wenn es so etwas in Leuven gibt, dann sicherlich auch an anderen Unis und da sind die Seiten vielleicht zugänglich. (Sachdienliche Hinweise in den Kommentaren sind willkommen
Ein guter Workshop in Sachen Taktik und Verhandlung muss auch drin sein. Selbst wenn mensch sich das irgendwie in seiner Freizeit organisiert. Ich wünschte wirklich, ich hätte mich viel früher um so etwas bemüht. Insofern war dieser Workshop jetzt ein echter Augenöffner.
Fazit: Ich kann nur raten, den ‘Nebensächlichkeiten’ mehr Aufmerksamkeit zu schenken. Es hilft nicht nur in der Forschung, sondern ist auch außerhalb der akademischen Laufbahn ein großes Plus. Und Internet sei dank, kann jeder/jede angehende und gestandene Wissenschafler(in) sogar selbst was gegen tun.
P.S.: Bloggen oder sich allgemein mit Scienceblogs zu beschäftigen hilft übrigens auch sehr viel.
——————————————————
(1) Dabei stützten sich die Kursleiter auf die Thesen eines gewissen T. Leary und einer Arbeit aus dem Jahr 1957 Interpersonal diagnosis of personality: a functional theory and methodology. Und ja, die Rede ist von dem Timothy Leary. Bei der Gelegenheit bin ich dann auch über den Briefwechsel zwischen Carl Sagan und Timothy Leary gestolpert. Hach, ich liebe das Internet.
(2) Schon zu Isaac Newtons Zeiten pflegten die Gelehrten sich auszutauschen. Damals war der Brief das Medium der Wahl. Die Royal Society, die damals gegründet wurde, war durchaus auch dazu gedacht, damit die Naturphilosophen sich gegenseitig austauschen und auf dem Laufenden halten konnten.
(3) Ihr könnt Euch natürlich in den Kommentaren so richtig schön auskotzen. Ich bitte sogar drum. Es hilft enorm, wenn mensch sich klarmacht, dass so mancher Mist der da läuft nicht an einem selbst liegt, sondern dass da teilweise ein Haufen egozentrischer Vollnerds ohne das geringste Gespür für Anstand auf unerfahrene junge Menschen losgelassen wird, die dann teilweise echt nicht wissen, wie ihnen geschieht und was sie dagegen tun können.
]]>Ich muss zu meiner Schande gestehen, dass ich nicht viel über Pythagoras wusste, bevor ich Kitty Fergusons Buch in die Hand nahm. Natürlich war mir der Satz von Pythagoras ein Begriff. Aber ich wusste nicht, dass dieser wahrscheinlich nicht von Pythagoras bzw. nicht von ihm als erstes entdeckt wurde. Den Ägyptern und Babyloniern war der Satz auf jeden Fall schon früher bekannt. Vielleicht hat er es von ihnen übernommen? Nach einigen ernstzunehmenden Quellen soll er sich im nahen Osten zwecks Weiterbildung aufgehalten haben. Aber auch das ist bestenfalls eine halbwegs glaubhafte Vermutung und es ist auch nicht gesagt, dass das Wissen um den Satz des Pythagoras nicht zwischenzeitlich verloren ging und wieder neu entdeckt wurde und im nach hinein Pythagoras angedichtet wurde.
Tja und damit kommen wir zu dem Kern des Problems, wenn mensch sich mit Pythagoras beschäftigen will. Es sind nur einige wenige Eckdaten bekannt. Wirkungszeit: Im 6. Jahrhundert vor Christus, Geburtsort: Samos, Wirkungsstätten: Auf jeden Fall Samos und Kroton (Unteritalien). Tod? Wohl in Metapontion. Obwohl auch erzählt wird, er wäre Unruhen in Kroton zum Opfer gefallen. Relativ sicher ist wohl, dass er in Kroton eine Schule gründete und selbst keine Schriften hinterlassen hat. Auch scheint er seine Schule wie eine Geheimgesellschaft oder Sekte geführt zu haben. Seine Schüler durften nichts über die Lehren nach außen hin weitergeben. Nach seinem Tod scheint dieses Gebot, wenn es denn existierte, allerdings nicht befolgt worden zu sein. Sonst wüssten wir logischerweise gar nichts über Pythagoras.
Kitty Ferguson versucht das Problem der widersprüchlichen Quellenlage zu umgehen, indem sie sich auf die wenigen halbwegs gesicherten Daten stützt und ansonsten das Bild des Pythagoras im Spiegel der folgenden Jahrhunderte widergibt (1); was durchaus spannend ist. Mal wird er als Zahlenmagier, mal als naturwissenschaftlich-mathematisches Genie gesehen; und manchmal als beides zugleich. Das meiste, was wir meinen über Pythagoras zu wissen, ist z.B. eher das, was Plato meinte, von Pythagoras zu wissen. Und jetzt versteh ich auch, warum Kepler in seinem Modell des Planetensystems unbedingt himmlische Musik (wohl ein echte pythagoräische Idee) und geometrische Figuren (eine platonische Idee) sehen wollte. Es war sein Versuch einer mathematisch schönen “Theorie von Allem”, heftig inspiriert von Pythagoras und seinen späteren Anhängern.
Überhaupt die Musik: Ob wir Töne als harmonisch wahrnehmen, lässt sich z.B. durch das Verhältnis der Längen von schwingenden Harfensaiten beschreiben. Saiten im Verhältnis 1:2 erzeugen Töne, die genau eine Oktave auseinander liegen. Es muss eine revolutionäre Idee gewesen sein, dass Zahlen nicht nur zum Vermessen und Handeln taugen, sondern das Potenzial haben, die ganze Welt zu beschreiben. Es ist diese Idee, die die Grundlage unserer Wissenschaft bildet und uns z.B. ermöglichte, Menschen auf den Mond zu schicken. Und meiner Meinung nach begreifen bis zum heutigen Tag die meisten Menschen nicht, wie wichtig diese Idee ist. Sonst hätte die Mathematik wohl kaum den Ruch, eine langweilige Sache zu sein.
Fazit: Für jemanden, der sich für Geschichte und Philosophie interessiert und sich näher mit Pythagoras beschäftigen will, ist es ein durchaus empfehlenswertes Buch.
——————————————————————————————————————————————
(1)
Hier zeigt sich auch, wie wichtig richtiges Zitieren ist. Einige Quellen sind verloren gegangen, lassen sich aber rekonstruieren, weil sie manchmal geradezu exzessiv in den vorhandenen Schriften zitiert wurden.
]]>
Jetzt müsste eigentlich das ESOC in Darmstadt, das Raumfahrt-Operationszentrum der ESA, mit einem eigenen Musik-Video nachziehen. Allerdings habe ich meine Zweifel, ob da so viele Menschen mitmachen würden. Europäerinnen und insbesondere Deutsche sind nicht unbedingt für ihre lockere Art bekannt Schade eigentlich…
Ein schönes Wochenende und frohe Weihnachten wünsche ich allerseits.
Die KU Leuven schließt ab Montag bis einschließlich den 1.1.2013 die Pforten und ich verabschiede mich in meinen Weihnachtsurlaub. Die Uni fährt die Heizung in dieser Zeit herunter, d.h. hier wird zwischen den Tagen wirklich nicht gearbeitet; jedenfalls nicht in den Abteilungen Astronomie und Mathematik. \o/
]]>Dafür brauchen wir – wie ich finde – erstaunlich wenig. Wir werden uns dabei an das Rezept von Held-Suarez-Modell (1) halten. Dieses wurde 1994 von Isaac Held und Max Suarez als “Test” eingeführt wurde, um verschiedene Computerprogramme, die das Erdklima berechnen, miteinander vergleichen zu können, ohne von Details verwirrt oder abgelenkt zu werden.
Das Rezept von Held und Suarez lautet dabei wie folgt:
Zutatenliste:
1. Wie nehmen “einfach” die Navier-Stokes-Strömungsgleichung für ein kompressibles elektrisch neutrales Medium, v ist Geschwindigkeit des Flusses, p ist der Druck, F sind die Kräfte und die Pfeile zeigen, dass das Ganze in den 3 Raumdimensionen stattfindet. Das auf dem Kopf stehende Dreieck ist der Gradient, der uns anzeigt, wie sehr sich eine bestimmte Größe ändert, wenn wir in x-, y- oder z-Richtung gehen.
Auf der linken Seite der Gleichung finden wir dann einen Term, der die Geschwindigkeitsänderung einer Strömung beschreibt, was ich etwas detaillierter hier dargestellt habe:
Ok es hilft nichts, hier muss ich bereits einen kleinen Exkurs einlegen:
Haha! “Einfach”. Guter Witz! Also ne, ernsthaft; so verführerisch einfach die Gleichungen auf den ersten Blick aussehen mögen, die Navier-Stokes-Gleichungen sind – selbst ohne so zusätzliche Schweinereien wie Interaktionen mit magnetischen und elektrischen Feldern – mathematisch immer sehr anspruchsvoll.
In der Regel gibt es keine analytische Lösung, so dass wir nicht darum herum kommen, a) je nach Anwendung einige vereinfachende Annahmen zu Hilfe zu nehmen und selbst dann muss b) das Ganze numerisch – also näherungsweise mit stupider Rechenpower – berechnet werden. Wenn wir denn das Glück haben, dass die Berechnung in einer Zeit konvergiert, die unser Computer auch zu leisten vermag. Weder das eine noch das andere ist immer sicher (wenn ich das jetzt halbwegs durchschaut habe).
Zum Glück gibt es frei verfügbare Programme, die wir für unser Rezept zunächst als Black-Box verwenden können, ohne uns Gedanken machen zu müssen, wie das jetzt numerisch-programmtechnisch im Einzelnen funktioniert. Ich hab hier das MITgcm verwendet. Das ist Open-Source, recht gut dokumentiert und es gibt eine recht gute Support-Gruppe.
Das ist das Gute an Wissenschaft. Jede kann sich, wenn sie es denn unbedingt will, beliebig tief in die Grundmaterie einarbeiten und den Code bis auf die Grundmauern auseinander nehmen und verbessern. Aber wenn es um die reine Anwendung geht und hinterher etwas heraus kommt, das Sinn ergibt, dann vertraue ich zuerst einmal darauf, dass da Generationen von Mathematikern/Meteorologen/Informatiker/Physiker etc. darüber geschaut haben. Besonders vertrauend erweckend finde ich es, wenn das Programm als solches auch ständig angewandt und verbessert wird.
Seht es doch mal so: Wenn wir als Wissenschaftler ständig das Rad neu erfinden müssten, dann hätten wir eine wachsende Anzahl ganz besonders toller Räder, aber wir kämen nie dazu ein Auto oder gar ein Flugzeug zu bauen. Wir sind nun mal alle mit begrenzter Lebensdauer ausgestattet. Ganz abgesehen davon, je nach Anwendung ist es nun wirklich schnuppe, ob mein Rad nun zu 90% einem perfekten Kreis entspricht oder zu 99% oder gar zu 99,9%. Einige Leute mögen das unbefriedigend finden, aber denen empfehle ich immer wieder gerne Isaac Asimov’s Klassiker von 1989: The Relativity of wrong. Ich sollte es mir echt angewöhnen, ein paar Kopien des Essays zu diversen Veranstaltungen mitzunehmen. Ach ja und jede sollte mit dem Prinzip von Fermi-Abschätzungen vertraut sein.
Ok, wo waren wir? Ach ja, bei unserem Rezept und da bei den Navier-Stokes-Gleichungen.
2. Wir vereinfachen die Gleichungen, weil wir von Atmosphären wissen, dass mit zunehmender Höhe der Luftdruck geringer wird. Genauer gesagt wissen wir, dass der Zusammenhang zwischen Druck und Höhe dem hydrostatischen Gleichgewicht genügt.
3. Zudem nehmen wir an, dass die Windströmung in der Vertikalen i.A. recht klein ist und dass bei einer vertikalen Bewegung die Reibung vernachlässigbar ist. Wie spalten also die Navier-Stokes-Gleichungen von oben in einen horizontalen und vertikalen Teil und streichen im Vertikalen alles, was wir in erster Näherung vernachlässigen können. Nicht wundern, dass unsere vertikale Geschwindigkeit jetzt w heißt.
4. Weiterhin kommt nichts von nichts. Im Großen und Ganzen verschwindet die Atmosphäre nicht irgendwo und wird auch nicht irgendwo neu generiert. Diese Aussage packen wir auch in eine Formel (stimmt so natürlich nicht 100%ig, aber wie gesagt “relativity of wrong” Und wir müssten schon sehr genau hinsehen, um die Abweichungen von dieser Aussage zu sehen. Wir fahren ja auch nicht mit nem relativistischen Tacho durch die Gegend, nur weil’s “richtiger” wäre.).
5. Bestimme die Höhe jetzt nicht mehr in Metern sondern anhand des Luftdrucks in der entsprechenden Höhe. (Wir führen also eine Koordinatentransformation aus von x,y,z(p) zu x,y,p(z)). Und siehe da: die Gleichungen sehen wieder was einfacher aus.
6. Jetzt müssen wir noch festlegen, innerhalb welcher Grenzen die Gleichungen oben gelten sollen. Wir müssen also die Randbedingungen festlegen. Die sind in unserem Fall durch zwei Dinge festgelegt: Erdboden und Weltall.
7. Kommen wir jetzt zur Reibung, die beliebig komplex sein kann und bei sehr viskosen Stoffen so richtig schwer zu berechnen ist. Zum Glück ist Reibung für die Erdatmosphäre im Allgemeinen global gesehen vernachlässigbar; außer an der Grenze zwischen Erdboden und Atmosphäre. Da müssen wir die Reibung auf jeden Fall berücksichtigen. Held&Suarez machen es sich denkbar einfach und benutzen eine simple pi-mal-Daumen-Annahme bzw. eine Fermi-Abschätzung: Reibung = k mal Geschwindigkeit. Setze k=1 am Boden und lasse k linear so absinken, dass er bei einem Druck von 700 mbar (also in etwa 2-3 km Höhe) null wird. Darüber merkt die Atmosphäre eh nicht mehr, dass da weiter unten ein fester Boden ist.
8. Setze für deine einzelnen Luftpäckchen eine Gleichgewichts-Temperatur an, die zumindest grob für eine bestimmte Höhe und einen Breitenkreis den Wärmehaushalt der Erde nachbilden kann unter Berücksichtigung von Sonneneinstrahlung und der Zusammensetzung der Atmosphäre, die für langwellige Strahlung durchlässig ist, dafür aber im Infraroten recht viel schluckt und gleichzeitig wieder abgibt. (Genaueres dazu gibt es z.B. hier)
Zudem müssen wir auch berücksichtigen, dass insbesondere am Äquator die Luft in Bodennähe durch dieses Wechselspiel an Strahlung von der Sonne, von der Atmosphäre und auch vom Erdboden dermaßen stark erhitzt wird, dass es zur Umwälzungen also zur Konvektion kommt: Ein erhitztes Luftpäckchen steigt wie ein Heißluftballon nach oben. Oben ist aber die Wärmequelle weg und es befindet sich zudem in relativ kühler Umgebung, so dass es abkühlt. Dabei wird es schwerer und sinkt wieder nach unten, wo der Kreislauf wieder von vorne beginnen kann. Das ist auch ungefähr das, was wir in einem Kochtopf sehen, wenn wir Wasser erhitzen. Zum Glück müssen wir die Konvektion nicht in allen Einzelheiten beschreiben. Es genügt, wenn wir das in den Wärmehaushalt einbeziehen und annehmen, dass die Konvektion wiederum einen neuen Gleichgewichtszustand herstellt – was sie in der Realität in der Regel auch tut (Genaueres dazu gibt es hier, genauer gesagt im Abschnitt 4.3.1.).
Ach ja und das Video hier ist auch recht hilfreich:
9. Jetzt kann die Luft aber frei hin-und her schwappen. Wenn also ein Luftpäckchen mit einer anderer Temperatur als der Umgebungstemperatur vor Ort daherkommt, dann sorge dafür, dass die Temperatur in dem entsprechenden Luftpäckchen sich exponentiell mit der Zeit der Umgebungstemperatur angleicht – und dabei umgekehrt natürlich auch die umgebenden Luftpäckchen aufheizt. (Mein morgendlicher Kaffee verhält sich übrigens auch so. Der heiße Kaffee nähert sich (leider) exponentiell mit der Zeit der Umgebungstemperatur an. Hier ist die Umgebungstemperatur, die durch die Heizung eingestellt wird, die ‘verschriebene’ Temperatur.)
Setze die “Halbwertszeit” für die Annäherung auf einen Wert zwischen 4 Tagen (Am Äquator und da auch nur in Bodennähe) – und ansonsten auf 40 Tage. Der Wärmeaustausch in den Tropen muss deswegen so hoch gesetzt werden, um wieder der Konvektion Rechnung zu tragen. Die sorgt für eine wesentlich schnellere Wärmeangleichung als nur aufgrund von Wärmeabstrahlung bzw. Wärmeleitung. Da wir die Konvektion nicht dynamisch nachbilden, müssen wir sie wiederum über den Wärmehaushalt einbauen.
10. Tja und ansonsten setze die Erdschwerebeschleunigung (9.81 m/s2 reicht da völlig.) , die spezifische Gaskonstante von trockener Luft 287 J/(kg K) und den Isotropenexponenten auf 7/5 (weil wir auf der Erde vorwiegend zweiatomigen Moleküle in der Luft haben). Das ist der wirklich leichte Teil.
Zubereitung:
Jetzt kommen wir zu den eigentlichen Arbeitsschritten:
Zunächst einmal müssen wir die Erdatmosphäre in handliche Stückchen unterteilen. Am besten wir beginnen mit der Höhe, das ist einfacher.
Unterteile z.B. die Erdatmosphäre in 20 vertikale Schichten von je 500 Pa-Dicke. Zur Not gehen auch 10 Schichten mit je 1000 Pascal “Dicke”, wenn der Computer nicht mehr hergibt. Für das horizontale Gitter benutze ich ein so genanntes C32-cube-sphere-grid, das mir die Erdkugel in halbwegs gleich große Teilstückchen unterteilt. Genauer gesagt besteht dieses Gitter aus sechs Kacheln mit jeweils 32 Kästchen. Davon legen wir vier Kacheln am Äquator zentriert aneinander, so dass sie den Globus entlang der Breitenkreise umspannen. Dann pappen wir noch jeweils eine Kachel auf den Nord- und eine Kachel auf den Südpol und decken damit den gesamten Globus ab. Die einzelnen Kästchen sind dabei in der Regel quadratisch – AUSSER an einigen Eckpunkten. Denn natürlich können wir eine Kugeloberfläche nicht wirklich komplett quadrieren. Aber mit so einem Gitter kommen wir schon sehr nahe dran, was die Rechnung insbesondere an den Polen erheblich erleichtert. So sieht das übrigens aus (Quelle: MITgcm Handbuch):
Wir haben jetzt also 192*20 Teilstückchen. In jedes dieser Teilstücke kommen nun die Zutaten von oben hinein.
Dann lassen wir das Ganze 200 Tage lang aufkochen (wir lösen also die Differential-Gleichungen numerisch sowohl räumlich als auch zeitlich) und lassen dann das Ganze insgesamt weitere 1000 Tage köcheln.
Serviere das Endresultat entweder frisch und heiß (also nur den Schnappschuss nach 1200 Tagen Simulation) oder als Konzentrat (also über die letzten 1000 Tage gemittelt)
Es ist angerichtet:
Ich serviere hier mal den Zustand nach 1000 Tagen frisch und dampfend also als Schnappschuss. Ich muss zugeben, ich war schockiert wie gut dieses einfache Modell bereits die grundlegende Dynamik der Erde-Troposphaere (also der unteren Erdatmosphäre) widergibt.
Als wir da hätten die grossen Zirkulationszellen der Atmosphäre:
Das kommt dem, was wir auf der Erde beobachten schon sehr nahe.
Bild: Globale Zirkulations-Zellen aus der deutschen Wikipedia (siehe Link).
Obwohl… Ok in meinem Fall sind die Polarzellen ein bisschen zu weit Richtung Äquator verrückt. Das ist aber nur in diesem einen Schnappschuss so, hab ich aber leider etwas zu spät gesehen. Ich hab noch andere Schnappschüsse gemacht, wo die Polarzellen dann wieder schön brav jenseits der 60 Grad Nord/Süd einsetzen, aber ich hab das Bild jetzt gerade rumfliegen und bin zu faul mir gerade ein Schöneres zu suchen. Ich würde gerne mal jemanden fragen, der sich damit auskennt, ob die Polarzellen wirklich so weit südlich kommen können, oder ob mein Modell da einfach zwischendurch ein bisschen zu dynamisch in den polaren Kreisen ist.
Ich krieg natürlich auch die zugehörigen Windsysteme wie den Passatwind (die Farben stellen die Temperatur in Kelvin dar)
Und natürlich den Jet-Stream. Ihr müsst das Bild unten anklicken, um es in groß anzuschauen. Die weißen Pfeile sind der Wind und die Farben sind wieder die Temperatur in Kelvin. Wir befinden uns hier in einer “Höhe” von 500 mbar. Und ja das herum mäandrierende gehört so (Stichwort baroklinische Instabilität) und beobachten wir auch in der freien Natur (siehe das Video darunter, da nicht von mir ist). Also ich find’s ‘tres chic’
So und damit beende ich für heute Ludmila’s Kochstudio. Natürlich gibt es dazu noch viel mehr zu sagen, so denn ich denn dazu komme Aber als kurze Einführung reicht’s erstmal und für mich zur Verfestigung meines Verständnisses. Ach und ja, ich bin natürlich, wenn es um die Dynamik geht, blutige Anfängerin. Ich würde mich daher über ein gepflegtes Brainstorming mit erfahrenen Dynamikerinnen freuen (Dynamiker tun’s natürlich auch zur Not :-P). Korrekturen und konstruktive Anmerkungen sind natürlich auch gerne gesehen. Muss nicht im Blog sein. Ich wäre auch bereit in einem Seminar zu erklären, wozu ich das Ganze hier eigentlich brauche
Nebenbemerkung:
Ganz klar, ich hab massiv verkürzt und vereinfacht. Und zum Kochgeschirr, also Gitter und Integration der Navier-Stokes-Gleichungen könnte frau wirklich ganze Bücher schreiben bzw. sind geschrieben worden, aber es ging mir im Moment eher um die Zutaten. Aber hey, die weiterführende Literatur ist nur einen Klick weit entfernt.
—————————
(1)
Held, Isaac M. (1994-10) A Proposal for the Intercomparison of the Dynamical Cores of Atmospheric General Circulation Models. Bulletin of the American Meteorological Society, 75(10), 1825-1830. DOI: 10.1175/1520-0477(1994)075
]]>Und mit Golf ;-):
Um den Sinn der Staubwisch-Aktion zu verstehen, ist es wichtig zu wissen, dass Mondstaub um einiges fieser ist als Erdstaub. Im Gegensatz zu Erdstaub besteht er ausschließlich aus feingemahlenem Gestein, entstanden nach Jahrmilliarden von Meteoriteneinschlägen. Er ist daher recht hart, staubtrocken, von pudriger Konsistenz und durch den Sonnenwind aufgeladen, so dass er leicht an allen möglichen Oberflächen haften bleibt. Zudem ist der Mond teilweise richtig dick von diesem Zeugs bedeckt. Nur ein Beispiel: Die Apollo-14 Astronauten hätten auf ihrem Außeneinsatz eigentlich auch zum Rand des Cone Kraters gehen und dort Proben nehmen sollen. Aber auf dem Weg dorthin sind sie mit ihrem Handkarren (MET) derart in Staub versunken, dass sie langsamer voran kamen als gedacht. Außerdem war die Orientierung in dem Gelände sehr schwierig. Die Astronauten haben sich in Folge dessen ein bisschen verirrt. Letztendlich entschieden sie sich nach einiger Zeit, obwohl sie den Rand des Kraters immer noch nicht eindeutig identifizieren konnten, an Ort und Stelle Proben zu nehmen und umzukehren (Das Ganze lässt sich hier wunderbar nachvollziehen):
Mitchell – “Right now, as I listen to this, I feel an enormous sense of frustration, just like I did then. It was terribly, terribly frustrating; coming up over that ridge that we were going up, and thinking, finally, that was it; and it wasn’t – suddenly recognizing that, really, you just don’t know where the hell you are. You know you’re close. You can’t be very far away. You know you got to quit and go back. It was probably one of the most frustrating periods I’ve ever experienced.
Tatsächlich ist auf den Bildern des Mondorbiters LROC zu sehen, dass Mitchell und Shepard wirklich sehr nah rangekommen sind. Zumindest etwas Auswurfmaterial des Kraters sollten sie also erwischt haben. (Wenn Ihr das Bild unten ein klein wenig vergrößert, sollte die Spur der Astronauten zu erkennen sein. Ich persönlich finde das schon extrem beeindruckend)
Bild: NASA, LROC, GSFC/Arizona State University. ( 19. August 2009)
Das Thermal Degradation Sample (TDS)-Experiment im Apollo Lunar Surface Experiments Package(1) war nun für die Untersuchung von Mondstaub auf verschiedenen Oberflächen ausgelegt. Dieses bestand aus zwei Rahmen mit insgesamt 12 Plättchen aus Materialien wie z.B. Quartz, verschiedene weiße Lacke, hitzebeständige Polymerbeschichtungen…Das sind alles Materialien, die bei einer Weltraummission im Außeneinsatz sein können und naturgemäß große Temperaturschwankungen aushalten müssen (2). Allan Shepard bedeckte beide Rahmen mit Mondstaub und entfernte diesen wieder, indem er die Rahmen schüttelte und sie anschließend mit einem kleinen Pinsel bearbeitete. Währenddessen dokumentierte er sein Vorgehen mit Fotos und gab seine Beobachtungen per Funk an die Erde weiter. Anschließend sollten die Rahmen wieder zur Erde zurückgebracht und im Labor das Absorptions- und Emissions-Verhalten der 12 Materialien unter Sonneneinstrahlung untersucht werden; also, es sollte überprüft werden, wieviel Licht die Plättchen schlucken bzw. abstrahlen, nachdem sie dem Mondstaub ausgesetzt waren.
Wie gesagt, sie sollten im Labor untersucht werden… Was aber offenbar nie geschehen ist. Noch nicht mal der Verbleib der Rahmen lässt sich nach über 40 Jahren rekonstruieren. Im NASA Johnson Space Center und im Smithsonian Institute sind sie jedenfalls nicht. Und James Gaier vom Glenn Research Center der NASA hat sich wirklich alle Mühe gegeben, möglichst viele Informationen zu diesem Experiment zusammenzutragen.
Es ist witzigerweise noch nicht mal gesichert, wer sich das TDS-Experiment eigentlich ausgedacht hat (3). Offenbar fühlte sich keiner dafür verantwortlich, was vermutlich auch erklärt, warum es verschwunden ist. Das Phänomen kennt jeder, der in einer größeren Behörde bzw. Firma arbeitet. Irgendjemand soll sich eben darum kümmern. Ist, klar…Und hinterher will es niemand gewesen sein, wenn’s weg ist.
Die meisten Menschen würden jetzt sagen: Damit ist das Experiment verschollen und damit gescheitert. Nicht so, James Gaier. Er dachte sich anscheinend: “Ok, es sind Fotos vorhanden und außerdem gibt es Labormessungen von Materialien, die zumindest halbwegs vergleichbar sind mit Mondstaub. Da müsste sich doch was machen lassen…” Und genau das hat er dann auch getan und seine Ergebnisse im Icarus im Oktober diesen Jahres beschrieben.
Bild (NASA, Apollo 14): AS14-77-10364A Sample 1-6:
1 S-13G (weiße Farbe)
2 Z-93 (ZnO/Kalium-Silikat, weiße Farbe)
3 Goddard MS-74 (weiße Farbe)
4 Ag-FEP (Silber/schwarze Co-Polymer Beschichtung der Firma Inconel (siehe Link) , FEP Seite ist oben.)
5 Ag-Quartz (Silber/Quartz oben)
6 Dow Corning 92-007 (TiO2/Silikon weiße Farbe)
Bild (NASA, Apollo 14): AS14-77-10365
7 Cat-a-lac White (TiO2/Epoxidharz)
8 3 M white velvet (400 series TiO2/Polyester-
9 Dacron (Kunstfaser) auf Al-PET-Folie-Laminat. Dacron ist eigentlich ein Markenname, findet wohl auch als Segeltuch Verwendung.
10 Oxidisiertes SiO–Al-Kapton (Kapton ist eine Polymid-Beschichtung ) mit SiO-Seite oben
11 Aluminium–Kapton mit Kapton-Seite oben
12 Anodized 6061 Al MIL-A-8625, type II, class I (Wenn ich das richtig verstanden habe, dann ist das eine Aluminium-Oxid-Beschichtung auf Aluminium)
Das Bild oben zeigt das Experiment nachdem der Staub abgeschüttelt und abgebürstet wurde. Material 4, das Co-Polymer, und 11, ebenfalls eine Polymerbeschichtung, zeigen nach dem Abbürsten Kratzspuren, während die anderen Oberflächen anscheinend nicht zerkratzt wurden. Ansonsten scheint Shepard relativ erfolgreich ohne große Mühe den Staub von den Rahmen entfernt zu haben. Das ist schon an sich sehr seltsam, denn es widerspricht den Erfahrungen, den andere Missionen auf dem Mond gemacht haben.Allen Shepard selbst sagte beim Technical Crew Debriefing. “ I was surprised that there was little adherence of the surface dust. I expected a little bit more. It didn’t adhere very much’’ Auch er war also überrascht über die geringe Haftfähigkeit. Dafür war aber eine Klümpchenbildung zu beobachten, die Staubkörnchen hafteten also aneinander. Der Staub scheint also schon statisch aufgeladen gewesen zu sein.War also irgendetwas mit den Rahmen?
Laut James Gaier spricht einiges dafür, dass die Rahmen kontaminiert waren. Anscheinend schützte eine hauchdünne Schicht Erdstaub vor dem Haften mit Mondstaub. Im Labor zeigt sich bei Messungen mit synthetischem Vulkanglas-Staub, dass dieser simulierte Mondstaub erst dann so richtig haftet, wenn das Material vorher von jeglichen organischen Rückständen (von der Erde eingeschleppt) befreit wurde. Dafür reicht es, wenn die Oberfläche dem Sonnenwind ausgesetzt wird, der dann lose winzige Teilchen von der Oberfläche ‘herausschießt’. Nach Stunden oder gar Tagen auf dem Mond sollte jede Oberfläche ‘sauber’ sein. Oder von der schützenden Schicht befreit sein – je nach Sichtweise.
Das TDS war aber kaum eine Minute dem Sonnenwind ausgesetzt, bevor Staub drauf geschaufelt wurde. Außerdem fand das Experiment in den “Ausdünstungen” des Astronauten statt. Damit ist gemeint, dass im Vakuum der Raumanzug des Astronauten – also das Material und vor allem die Kunststoffe – “ausgasten”. Diese Ausdünstungen konnten während der Apollo-12-Mission nachgewiesen werden. Das Cold Cathode Gage (CCG)-Experiment, das Mond-Gase messen sollte, litt jedes Mal darunter wenn ein Astronaut in einem Umkreis von ein paar Metern vorbei ging. Es saturierte, weil es so empfindlich war, dass es gar nicht mehr messen konnte, wieviel die Astronauten abgaben.
So weit, so gut. Aber eigentlich ging es doch darum, herauszufinden wie sich die Materialien unter Sonneneinstrahlung verhalten, wenn sie Mondstaub ausgesetzt waren. Um das zu untersuchen, hat James Gaier mangels der Original-Rahmen Experimente mit Oberflächen aus demselben Material wie Sample 2 und Sample 4 gemacht. Dabei kam – wenig überraschend – heraus, dass es nicht ganz so gut ist, wenn da Staub drauf kommt. Als Staub verwendete er eine spezielle Rezeptur der NASA, die den Eigenschaften und der Zusammensetzung von echtem Mondstaub recht nahe kommen sollte (Das Rezept für JSC-1AF gibt’s hier)(4)
Er stellte fest, dass selbst eine extrem dünne (ein Monolayer reicht völlig), kaum sichtbare Staubschicht die Fähigkeit der Materialien, Licht zu absorbieren, um den Faktor 3 erhöht. Und damit erhitzt sich das Material auch stärker unter Sonneneinstrahlung als ohne Staubschicht.
(Vorsichtiges) Fazit des TDS-Experimentes: Direkt von der Erde eingeschlepptes Material lässt Mondstaub nicht so leicht haften und kann recht einfach mit etwas Schütteln und einer Bürste entfernt werden. Aufgrund der Härte des Staubes ist auf Polymer-Beschichtungen allerdings mit Kratzern zu rechnen. Nach Stunden und Tagen sollte der Sonnenwind die schützende Erdkontamination weggetragen haben. Bereits eine dünne Mondstaub-Schicht reicht aus, um Oberflächen stärker als erwartet unter Sonneneinstrahlung zu erwärmen.
James Gaier hat also das Beste aus einer eigentlich unmöglichen Situation gemacht. Dennoch ist das Ergebnis ziemlich unbefriedigend. Aus dem Icarus-Text spricht stellenweise jedenfalls ganz schön viel Frust heraus, wenn sich Gaier z.B. darüber “beschwert”, dass nicht dokumentiert ist, wieviele Bürstenstriche Shepard gemacht hat, oder ob er beim Schütteln die Rahmen geneigt hat.
James Gaier empfiehlt daher, das Experiment zu wiederholen. Aber diesmal bitte ohne Menschen. Ein Roboter kann das Experiment wesentlich kontrollierter ausführen und ohne dabei die Platten “einzusauen”
———————————–
(1) sozusagen ein Experimentier-Kasten zur Untersuchung der Mondoberfläche
(2) Auf Twitter habe ich mit meinen Followern diskutiert, wie mensch hier am besten den doch recht weit gefächerten Begriff ‘thermal coating’ übersetzen sollte. Das war meine beste Lösung.
(3) Als Principle Investigator ist “unbekannt” aufgeführt.
(4) Veröffentlicht in
doi: 10.2514/1.41785
———————————-
Gaier, J. (2012). Interpretation of the Apollo 14 Thermal Degradation Sample experiment Icarus, 221 (1), 167-173 DOI: 10.1016/j.icarus.2012.07.002
]]>Wobei dieser ‘ruhige’ Sonnenwind immer noch mit 470 000 km/h unterwegs ist, um das mal in eine Einheit umzurechnen, die mensch sich eher vorstellen kann.
Und auch, wenn der Sonnenwind am Terminationschock erfolgreich vom interstellaren Medium abgebremst wurde, so ist die Dichte des interstellaren Mediums noch nicht hoch genug, um den Sonnenwind komplett aufzuhalten. Dieser bewegt sich immer noch stetig von der Sonne weg und bildet die Heliosheath.
Aber jetzt, ziemlich genau 35 Jahre (1) nach dem Start, sollte Voyager-1 in Bereiche vordringen, die nie ein Mensch zuvor gesehen hat und in denen der noch stärker verdünnte Sonnenwind dem interstellaren Medium nicht mehr viel entgegenzusetzen hat. Da sich unser Sonnensystem samt Sonnenwind- und Magnetfeldblase relativ zu diesem Medium wie ein Schiff durch’s Wasser bewegt, müsste Voyager-1 jetzt langsam ‘sehen’, dass der Sonnenwind nicht mehr stumpf nach außen strömt, sondern ”seitlich” abgelenkt wird – wie Wasser in einer Bugstoßwelle vor einem Schiff.
Bild: NASA,JPL
Aber genau diese Bugstosswelle ist ausgeblieben, wie Robert Decker und seine Kollegen am 6. September in der Nature (2) berichteten. Und es ist nicht so, als ob sie nicht danach gesucht hätten. Sie haben die Raumsonde zwischen März 2011 und Januar 2012 ein paar Mal gedreht, damit das Low-Energy Charged Particle Instrument (LECP), die Ablenkung des Sonnenwindes auch räumlich auflösen kann. Das Ergebnis: Nix ist mit Ablenkung. Keine Bugstoßwelle. Kein weiterer Schock. Nix. Und seit die Sonnenaktivität auf dem aufsteigendem Ast ist, kann ein Schwächeln des Sonnenwindes auch nicht mehr als Ausrede herhalten. Anscheinend ist die Anströmgeschwindigkeit des interstellaren Mediums gar nicht hoch genug, um ne Bugstoßwelle zu erzeugen. Das Sonnensystem ‘gleitet’ demnach eher durch das Weltall, als dass es ‘pflügt’.
Aber es gibt sie, diese Bugstoßwellen; um andere Sterne haben wir sie z.B. schon gesehen:
Jetzt stellt sich natürlich die Frage, was ist bei uns anders? Ich bin mal gespannt, was die Modellierer dazu sagen werden. Aber die werden erst mal einige Zeit mit Rechnen verbringen
—————————-
(1) Eine meiner Quellen – ich weiß leider nicht mehr welche – hat mir mal erzählt, dass die Voyager-Sonden gar nicht so lange hätten halten sollen. Angeblich haben sich aber die Ingenieure in zivilem Ungehorsam geübt und die Sonden auf große Langlebigkeit hin konstruiert. Ich weiß allerdings nicht, ob das stimmt und ich hab inzwischen auch den Kontakt zu den möglichen Quellen verloren, so dass ich das leider schlecht nachprüfen kann.
(2) No meridional plasma flow in the heliosheath transition region
Robert B. Decker1, Stamatios M. Krimigis1,2, Edmond C. Roelof1 & Matthew E. Hill1
Nature, 2012,
Hier geht es zur vollen Pressemitteilung des DLR für all diejenigen, die keine Ahnung haben, was die Sonde Dawn macht (Asteroiden besuchen: bei Vesta war sie und nun geht’s zu Ceres) und dass, das DLR die Kamera beigesteuert hat.
Am Südpol von Vesta gibt es einen Krater mit über 500 km Durchmesser in dessen Mitte ein 22 km hoher Berg aufragt. Der Berg ist damit mehr als zwei mal so hoch wie der Mount Everest. Allerdings bin ich etwas überrascht von der Aussage, dass sie ‘solche Ausmaße bisher auf keinen planetaren Körper gesehen haben’.
Gestatten, Olympus Mons auf dem Mars:
Der Vulkan ist 26.4 km hoch mit einem Durchmesser von fast 600 km.
Aber vielleicht ist auch gemeint, dass ein Einschlagkrater mit einem so riesigem Zentralberg in unserem Sonnensystem seinesgleichen sucht.
Ich finde solche Zentralberge absolut faszinierend, weil ihre Entstehung der ‘normalen’ menschlichen Erwartung widerspricht: Wenn ein großes Fels auf den Boden einschlägt, erwarten wir gemeinhin ein großes Loch im Boden. Das ist auch das, was bis zu einer gewissen Kratergröße beobachtet wird. Ab einer kritischen Kratergröße also ab einer gewissen Einschlagsenergie – abhängig von der Eigengravitation des Himmelkörpers und der Bodenbeschaffenheit am Einschlagsort – passiert etwas sehr Seltsames. Der Boden in und um den Krater zeigt Eigenschaften einer zähen Flüssigkeit.
Auf dem folgenden Bild ist sehr gut zu erkennen, wie sich um den Krater Rhea Siliva auf Vesta richtige Schock-Wellen gebildet haben, die anschließend im Gestein ‘fest gefroren’ sind.
Auch der Fels im Krater selbst verhält sich seltsam beim und kurz nach dem Einschlag (zumindest soweit ich das auf Konferenzen und beim Lesen vereinzelter Publikationen mitbekommen habe) er verformt sich elastisch und schnellt kurze Zeit nach dem Einschlag ‘elastisch’ zurück (elastic rebound). Den Einschlagskörper selbst zerreißt und ‘verdampft’ es förmlich bei dem Einschlag.
Dieser Prozess kann zumindest teilweise die Entstehung des Zentralberges erklären.
Ich hab auch eine Simulation
und Laborexperimente zu dem Thema gefunden:
Es scheint aber – wie immer – nicht ganz so ‘einfach’ zu sein. Ich hab zumindest einige Publikationen gefunden, die anführen, dass ‘elastic rebound’ alleine nicht die Höhe von Zentralbergen bzw. anderen noch komplexeren Strukturen bei noch größeren Kratern erklären kann. In einer Publikation von Melosh und Ivanov aus dem Jahr 1999 erklären die Autoren, dass es nach dem Einschlag – wenn der Krater sich abkühlt – erst richtig losgeht. Ein Teil des frischen Einschlagkraters stürzt insbesondere an den Hängen in sich zusammen und Material in der Mitte beginnt sich allmählich aufzuwölben, um dem Ungleichgewicht zu begegnen, den der Einschlag im lokalen Gravitationsfeld erzeugt hat.
Um das zu verstehen, ist es hilfreich sich vor Augen zu führen, dass i.A. die Oberfläche eines planetaren Körpers sich in einem Kräftegleichgewicht befindet. Auf einen beliebigen Stein auf der Oberfläche wirkt zum einen die Massenanziehung des planetaren Körpers, die durch die Kräfte, die das Gestein in sich zusammenhalten, wieder ausgeglichen werden muss; Wenn es diese Bindungen im Gestein nicht gäbe, würde der Stein sonst einfach ins Zentrum des planetaren Körpers stürzen. Wenn aber das ganze Gestein auf einen Schlag zusammengedrückt wird, dann ist das gesamte Material auf einmal unter der imaginären Fläche, auf der alle Kräfte – vor dem Einschlag – im Gleichgewicht waren (die Äquipotentialfläche).
Nach dem Einschlag ‘versucht’ das Gestein daher wieder zurück zu ‘fließen’. Da aber das Gestein nach der Abkühlung nicht mehr so fließfähig ist, kommt es nicht zu einem gleichmäßigen Wiederauffüllen des Kraters sondern eben zu diesem Wechselspiel aus In-Sich-Zusammenstürzen am Rand und der Aufwölbung in der Mitte, was dann insgesamt den Zentralberg und andere Strukturen bei noch größeren Kratern zur Folge hat.
Beide Effekte – das elastische Zurückschnellen wie die anschließende Umformung – wird bei der Kraterbildung sicherlich eine Rolle spielen. Ich persönlich finde es allerdings erstaunlich, dass diese anschließende Umformung viel mehr zum Zentralberg beitragen soll als das elastische Zurückschnellen beim Einschlag. Allerdings bin ich nicht wirklich ein Experte auf diesem Gebiet und wir sprechen hier auch von Geschehnissen, die sich – zum Glück – unserer Vorstellung und Erfahrung entziehen. Ich kann also nicht wirklich kompetent sagen, welcher Effekt hier die Oberhand hat oder ob sich beides ausgleicht oder ob gar noch weitere Effekte hier eine Rolle spielen.
Ich bin also gerade angenehm verwirrt und warte mal ab, ob mir in Zukunft was zu dem Thema unterkommt und schließe mit meinem Lieblingskrater plus Zentralberg ab: dem Todestern Krater Herschel auf dem Saturnmond Mimas
Bild: NASA/JPL/Space Science Institute.
Wieviele Trucks bräuchte es denn wirklich um eine Milliarde vollzukriegen?
Um eine Milliarde zu bezahlen, bräuchte es 20 Milliarden 5-Cent-Münzen. Eine amerikanische 5-Cent-Münze wiegt witzigerweise exakt 5 Gramm. Die Trucks müssten also ein Gesamtgewicht von 100 Millionen Kilogramm oder 100 000 Tonnen tragen. Nehmen wir grob an, dass wirklich schwere LKWs eingesetzt wurden und nehmen wir weiterhin großzügigerweise an, dass jeder Truck 40 Tonnen Last transportieren kann, dann bräuchte es mind. 2500 schwere LKws um diese schiere Masse an Kleingeld durch die Gegend zu kutschieren.
Die Geschichte mit den 30 LKWs ist also nicht mal annähernd plausibel, was aber nicht so schnell auffällt, weil wir Menschen uns so riesige Dimensionen wie Milliarden schlicht nicht vorstellen können.
Spinnen wir das Ganze doch mal weiter. Nehmen wir mal an, dass so ein schwerer LKW grob etwa 18m lang lang sein kann, dann wäre der gesamte Zug mindestens 45 km lang und das auch ‘nur’ wenn mensch die LKWs ohne Platz dazwischen hintereinander reiht. Das wäre der weltgrößte Konvoi und würde sicherlich die Mutter aller Verkehrsstaus auslösen.
Es handelt sich hier natürlich um eine grobe Abschätzung, aber um eine die mit den richtigen Größenordnungen hantiert. Das ist absolut ausreichend, um sich eine ungefähre Vorstellung zu machen, die um Größenordnungen zutreffender ist als das reine Bauchgefühl.
Wie gesagt: Selbst wenn Samsung wollte, es wäre einfach extrem aufwendig diesen Stunt durchzuziehen.
]]>Bei mir war der Verlauf dann doch etwas anders. In der Notaufnahme haben sie mich z.B. schon gar nicht mehr gefragt, ob ich Schmerzen hätte, weil ich denen in der Wartezeit bereits 3 Nierenschalen vollgekotzt hatte. Es ist einfach unmöglich bei einer ausgewachsenen Kolik würdevoll zu leiden.
Außerdem Druckpunkt? Was für ein Druckpunkt? Meine Schmerzen waren zwar heftig, aber diffus im gesamten Bauchraum verteilt. Zwei Ärzte haben mittels Ultraschall alles mögliche abgesucht: Niere, Pankreas, Gallenblase. Erst als der eine Arzt den Ultraschallkopf tief in meinem rechten Unterbauch vergrub, meinte ich: ‘Och ja, das könnte man – wenn man denn wollte – als leicht druckempfindlich bezeichnen.’
Die Ausmessung des Wurmfortsatzes und der Ausschluss anderer Ursachen ergab dann schließlich den Befund: Appendizitis. Ich gelangte zunächst in den Genuss von drei Infusionsbeuteln mit Schmerzmitteln, zu dem mich hinterher die gesamte Notaufnahme beglückwünschte, und anschließend musste der Wurmfortsatz dran glauben.
Dank minimal-invasiver endoskopischer Operationstechnik stand ich dann auch 12 Stunden nach der OP auf der Straße. Für die endgültige Heilung sind aber doch drei ganze Wochen veranschlagt, denn so ganz ohne ist selbst ein so vergleichsweise kleiner Eingriff am Bauch nicht.
Na ja, so lerne ich immerhin direkt die wichtigsten Unterschiede zwischen deutschem und belgischen System kennen.
1. Nimm immer Bargeld zu einem belgischen Arzt mit. Der normale Arztbesuch muss sofort bezahlt werden. Eine normale Konsultation kostet etwa 20-25 Euro und die meisten Ärzte haben keinen EC-Karten-Leser. Im Krankenhaus kommt die Rechnung hinterher zu Dir nach Hause.
2. Belgische Ärzte haben in der Regel keine Arzthelfer, sondern machen alles alleine: Termineinteilung, Abrechnung, Telefondienst und Konsultation; manchmal auch alles gleichzeitig. Daher empfiehlt es sich auch bei einem Notfall vorher in der Praxis anzurufen.
3. Zumindest im flämischen Teil Belgiens können wirklich alle passabel Englisch.
4. Leg Dir ne Mappe für Quittungen und Rechnungen zu! Selbst der Betreiber des Krankenwagens schickt Dir ne Rechnung nach Hause, die Du zunächst bezahlen musst. Du musst dann das Geld hinterher bei der Krankenkasse und/oder bei der Zusatzversicherung für den Krankenhausaufenthalt (Wichtig! Sollte mensch unbedingt abschließen.) wieder einfordern. Viele Belgier sammeln die Quittungen und reichen sie dann gesammelt ein oder zweimal im Jahr ein. Die Quittungen sind bis zu zwei Jahre gültig.
5. Selbst wenn Du noch nichts von der belgischen Krankenkasse/Versicherung hast: Keine Panik! Meine Unterlagen von der Krankenkasse waren praktischerweise auch erst einen Tag nach meiner OP im Briefkasten. Ich konnte denen in der Notaufnahme auch nur den Namen meiner Krankenkasse nennen und sonst nichts. Ich hab dann einfach nach meiner Entlassung im Krankenhaus angerufen und der Rechnungsstelle die Daten durchgegeben. War alles kein Problem.
Und ja, abgesehen davon, dass mein Bauchnabel ab und an noch zwickt, geht’s mir eigentlich ganz passabel.
]]>Ich trete demnächst eine Post-Doc-Stelle in Leuven an und da ist noch einiges zu machen. Zimmer suchen z.B.
Den Exoplaneten werde ich die Treue halten, nur der Fokus wird sich was verschieben: Von der Detektion weg, hin zur Charakterisierung und Modellierung von Atmosphären extrasolarer Planeten.
Na, da bin ich mal gespannt…
]]>Hier in Köln, zumindest bei den Geophysikern, bastelt die Arbeitsgruppe unter Einsatz all ihres bastel-technischen Könnens und der Heißklebe-Pistole einen aufwendigen Doktorhut. Was habe ich nicht alles für schöne Hüte gesehen und selber Hand angelegt: Ein Hut mit einer bunten 3D-Landschaftskarte aus Pappmache, ein Hut mit einem Staubteufel aus Watte und Sand inklusive nachgestellter Marsoberfläche, ein Hut mit dem Marsmond-Phobos als Bommel (der war kompliziert und knifflig) und jetzt hab ich meinen eigenen.
Sehet und staunet:
Natürlich ist auf meinem Hut CoRoT drauf. Alle Achtung an die Kollegen, das Papp-Modell ist echt frickelig und die haben’s für den Hut nochmal verkleinert. CoRoT blickt auf einen Exoplanet ganz nah an einem Stern, um einen Transit zu beobachten. Desweiteren hätten wir da eine Mars Express-Archiving-CD und ja, das unter dem Hut ist ein Radhelm. Über den Rest schweige ich mich mal aus
Ach ja und links daneben seht Ihr noch ein ganz besonderes Geschenk: Der Mars als Magnet-Schwebe-Planet und das da oben ist Mars Express. “Von Nerds für einen Nerd”, wie es bei der Übergabe hieß
Ja, genau deswegen machen wir unseren Doktor. Wegen der Geschenke ;-P
]]>‘Ach ja, dann machst Du es eben in Deiner Freizeit’.
Äh ja, in welcher Freizeit? Zunächst einmal hatte ich in den letzten Jahren auch nicht sooo viel Freizeit. Ich hab diverse Urlaube, Wochenenden und Nächte durchgearbeitet. Und ich kann die Abende gar nicht zählen, an denen ich meine Arbeit auf dem Schoß vor dem Fernseher hatte, um Lichtkurven auszusortieren. Außerdem habe ich mir meine Freizeit mit diversen Projekten vollgehauen (u.a. Bloggen ;-)).
Vor einem Jahr dann – kurz vor meinem 35. Geburtstag – habe ich dann entschieden, einen radikalen Schnitt im Leben zu machen und mich voll auf meine Doktorarbeit zu konzentrieren. Wobei ich das Glück hatte, dass mich mein Institut in dieser Zeit voll unterstützt hat. Außerdem ist in das Projekt CoRoT ein wenig Ruhe eingekehrt. Es war schlicht die richtige Zeit alles abzugeben und mich auf mein eigenes Projekt zu konzentrieren.
So und demnächst – am 22.5.2012 – werde ich meine Disputation zum Thema ‘Tidal Interactions of short-period extrasolar transit planets with their host stars: constraining the eluisve steller tidal dissipation factor’ halten und werde dann (wahrscheinlich) endlich mal meinen Doktortitel in den Händen halten.
Puh, das war dann doch deutlich schwerer als ich gedacht habe, vor allem weil ich einen gewissen Eigenanspruch hatte, und es ‘ordentlich’ machen wollte. Ich wollte einfach für mich selber das Gefühl haben, das Thema in der notwendigen Tiefe begriffen zu haben. Dafür brauchte ich Zeit und Ruhe. Und die ist mir dann auch zum Glück zugestanden worden.
So… Ich beginne das Bloggen damit, dass ich frage:
Wer hat auch sehr lange für seine Doktorarbeit gebraucht? Warum? Bereut Ihr die Dauer der Promotion? Und wie ging es anschließend weiter?
]]>Ist ja auch gemein. Da reißen sich tausende Astronomen seit den 20er Jahren des vergangenen Jahrhunderts den Hintern auf, um die Grenzen des beobachtbaren Universums auszuloten und dann wird diese ganze Arbeit, das Testen und Gegentesten einfach zu einer “Schätzung” reduziert. Noch dazu von einer, von der angeblich niemand sagen kann, dass sie wahr(TM) ist.
Florian hat hier z.B. über zwei Facetten der Geschichte geschrieben: Die Rotverschiebung des Lichtes ferner Sterne und die Messung der Entfernung von Supernovae eines bestimmten Typs, die so wohldefiniert explodieren, dass mit ihnen astronomische Entfernungen bestimmt werden können. Beides verrät uns unabhängig voneinander, dass das Universum sich ausdehnt und wie stark es sich ausdehnt und wie groß es ist. Drüben bei den amerikanischen Scienceblogs gibt es einen ganzen Blog, der sich immer wieder mal mit dem Thema beschäftigt: Starts with a Bang. (Nomen est omen)
Katie Melua jedenfalls erwies sich als lernfähig.
“We are 13.7 billion light-years from the edge of the observable universe, That’s a good estimate with well-defined error bars, And with the available information, I predict that I will always be with you”
Wie cool ist das denn bitte? Und warum sollte so ein Song kein Hit werden? Alanis Morisette hat es auch hingekriegt, Hits mit einer recht hohen Wortdichte pro Songzeile zu produzieren. Und da war die Informationsdichte nicht mal halb so hoch wie hier
Via Life’s a Biotech
]]>Tja leider ist es so, dass es für wissenschaftliche Arbeiten keine Erfolgsgarantie gibt. Es kann passieren, dass sich ne Idee erst einmal gut anhört und dann nach einem Jahr oder mehr herausstellt, dass es aus irgendeinem Grund dann doch nicht geht.
Was dann?
Auch nicht-wissenschaftliche Gründe können zur Verzögerung oder gar Abbruch der Doktorarbeit führen. Hier mal eine kleine Auflistung von Horrorstories, die so irgendjemand erlebt hat:
1) Die Arbeitsgruppe löst sich aus irgendeinem Grund während der Doktorarbeit auf. Z.B. weil der Chef an ne andere Universität oder gar ins Ausland geht. Oder ein ehemaliger Mitarbeiter von seiner neuen Firma aus alles abwirbt, was nicht bei drei auf den Bäumen ist. Natürlich nicht den oder die arme(n) Doktorand(in), der/die gerade erst dabei ist sich in’s Thema einzulesen.
2) Das zentrale Arbeitsgerät im Rahmen der Doktorarbeit geht kaputt. Und zwar so kaputt, dass nur ein bestimmtes maßgeschneidertes Teil Abhilfe schaffen kann. Dummerweise ist die einzige Firma, die so etwas herstellen kann, schon vor Jahren Pleite gegangen. Und die Werkstatt kann das Teil auch nicht reparieren. Und auch sonst niemand auf der Welt. Jedenfalls nicht für das Geld, das vorhanden ist.
3) Der/die Doktorandin möchte auf den Daten einer Raumsonde promovieren. Er/sie hat sich ein Jahr eingelesen und erste Tests und Kalibrierungen am Boden durchgeführt. Tja und dann stürzt die Sonde kurz nach dem Start ab. (So ging z.B. Cryosat-I nach dem Start 2005 im Nordpolarmeer unter.) Jedes Mal, wenn irgendwo ein Forschungssatellit abstürzt, weinen ein paar Doktoranden und Doktorandinnen in mehr oder weniger stiller Verzweiflung vor sich hin.
Bild (NASA/Kepler Mission/Dana Berry): Kepler-10b künstlerische Darstellung.
Virtuelle und etwas spekulative Tour über den Lava-Planeten:
Dann vergleiche ich mal mit CoRoT-7b. Dieser Planet ist etwa 6 Erdmassen schwer, 1.7 mal so groß wie die Erde und etwa 1.2 mal so dicht. Er umkreist seinen sonnenähnlichen Stern alle 0.84 Tage.
Bild (ESO/L. Calcada) : CoRoT-7b künstlerische Darstellung.
Hmm…Zwei Weltraum-Missionen, die zwei unterschiedliche Regionen des Himmels und auch von unterschiedlichen Beobachtungsstandorten untersuchen, und die ersten Fels-Planeten, welche die finden, umkreisen den Stern alle 21 Stunden? Das ist schon ein bisschen seltsam. Ein Auswahl-Effekt rein aufgrund der begrenzten Beobachtungsmöglichkeiten kann es nicht sein. Es macht bei der Qualität und der Länge der Kepler- und auch der CoRoT-Datensätze rein von der Detektion her keinen allzu großen Unterschied ob ein erdgroßer Planet nun alle 0.84 oder 1 oder 1.5 Tage oder gar alle 0.6 Tage um seinen Stern kreist. Die Detektions-Wahrscheinlichkeit nimmt zwar mit größerer Orbit-Periode ab, aber nicht besonders stark.(2) Für CoRoT könnte mensch noch argumentieren, dass der Satellit Planeten mit einer Orbitperiode von genau einem Tag etwas schlechter finden kann, weil das Teleskop um die Erde kreist. Bei aller Abschirmung sehen wir immer noch Streulicht von der Erde, das natürlich mit der Erdrotation korreliert ist. Kepler allerdings operiert genau deswegen eben nicht in einem Erdorbit, sondern in einem so genannten “Earth-trailing” orbit um die Sonne. Ich übersetze das mal als “der Erde hinterher-hink Umlaufbahn”.
Beide Planeten scheinen außerdem eine ähnliche Zusammensetzung zu haben. Sie sind beide etwas dichter als die Erde (Erde: 5.5 g/cm^3, CoRoT-7b: 7.2 g/cm^3, Kepler: 8.8 g/cm^3), was allerdings zu erwarten ist. Auch in unserem Sonnensystem werden die felsigen Planeten mit zunehmender Größe dichter. Mit Ausnahme unseres Merkurs:
Bild (NASA/JPL/DLR/RPIF): Zusammensetzung der Planeten unseres Sonnensystems. Merkur sticht aufgrund seines vergleichsweise großen Eisenkerns heraus.
Wissenschaftlerinnen zerbrechen sich bis heute den Kopf, warum Merkur so anormal dicht ist. Ich warte ja gespannt darauf, wenn wir anfangen mit unseren Beobachtungsmethoden Exoplaneten von der Größe des Merkur zu finden. Ob sich dann ein Trend ergibt zu größeren Dichten? Oder wird Merkur auch im Vergleich zu anderen Exoplaneten die große Ausnahme bleiben? Was dann für ein seltenes katastrophales Ereignis in der Vergangenheit sprechen würde z.B. eine Kollision mit einem Planetoiden in der Frühzeit des Sonnensystems? Das ist ja das schöne an vergleichender Planetologie. Durch Gemeinsamkeiten und Unterschiede findet mensch mehr über die einzelnen Planeten heraus.
Aber das ist noch vergleichsweise ferne Zukunftsmusik. Ich möchte daher eine etwas naheliegender Zukunftsmusik anstimmen: Ich erlaube es mir darüber zu spekulieren, ob CoRoT-7b und Kepler-10b die Spitze des Eisberges einer neuen Klasse sind, die wir gerade erst beginnen zu entdecken.
Wie heißt es so schön? Eine Schwalbe macht noch keinen Frühling. Und einmal ist keinmal. Allerdings haben wir jetzt schon zwei Schwalben und ich wage die Vorhersage, dass Kepler und CoRoT noch so ein paar Viecher finden werden.
Damit könnte auch die Kontroverse um die Planetenwaage HARPS und die Masse von CoRoT-7b beendet werden.
Ich berichtete im 3. Teil des Super-Erden-Dramas davon, dass es da ein Team gibt, welches sich die systematischen Effekte der Waage angesehen hat und etwas beunruhigt ist, ob die bei so kleinen Massen immer zuverlässig ist. Vor allem wenn der Zentralstern des Planetensystems so rumzappelt, wie es CoRoT-7 tut. Tja, so ist das mit jungen Sternen. Ausgelassen und übermütig. Dann wäre CoRoT-7b viel leichter und eventuell noch nicht mal felsig sondern eher gasförmig. Da hatten es die Kepler-Leute mit ihrem ruhigen gesetzterem Stern wesentlich einfacher.
Wenn wir herausfinden sollten, dass er da ne ganze Reihe von felsigen Exoplaneten mit extrem kurzen Umlaufperioden um andere Sterne gibt und wir dagegen keine Mini-Neptune finden, dann können wir trotz aller Schwierigkeiten unsere Massenbestimmung doch nicht so weit daneben gelegen haben und CoRoT-7b ist wirklich, wirklich ein Felsplanet. Um noch mal ein bisschen mehr Kontext in diese Kontroverse zu geben, so schlimm, wie es vielleicht von außen aussieht, ist dieser Streit gar nicht. Ich hab inzwischen von den Autorinnen des fraglichen Papers erfahren, dass sie nicht ganz so glücklich sind, wenn andere Wissenschaftlerinnen ihre Dichten als Grundlage für Planetenmodelle nehmen oder damit sogar die Existenz von CoRoT-7b anzweifeln. Es ging ihnen nämlich vor allem darum aufzuzeigen, dass mensch an der Grenze der Messmöglichkeiten sehr, sehr vorsichtig sein muss. Es ging ihnen nicht darum einen Konkurrenz-Wert für die Masse herauszugeben, weswegen genau dieser Wert auch nicht im Abstract drinsteht.
Dass es dann von amerikanischer Seite wohl zwischenzeitlich so rüberkam, als ob CoRoT-7b Existenz ganz zweifelhaft wäre, ist dann etwas unglücklich gelaufen. Dazu kam, dass einige Journalistinnen die Geschichte anscheinend nicht richtig einordnen konnten: Hier ein krasses Beispiel ausgerechnet von Science Now, in dem noch dazu ein richtig dicker Fehler drinsteht, der bis heute nicht korrigiert ist. Der hat aus 8.8 g/cm^3 einfach mal die 8.8fache Erddichte gemacht, was etwa 0.3mal der Dichte im Kern der Sonne entspricht. Der Planet stünde dann kurz vor der Kernschmelze, wenn der Wert denn wahr wäre, was er aber ganz sicherlich nicht ist. Oder der Herr hat angenommen, dass die Erde nur aus Wasser besteht, keine Ahnung.
Die meisten Fach-Journalistinnen haben die Meldung aber richtig eingeordnet. Da gab es letztes Jahr wesentlich schlimmere Fehlleistungen der NASA. Ich erinnere da an einen Planeten, der von dem Erst-Autoren schon fast als zukünftiges Urlaubsziel angepriesen wurde und bei dem es jetzt ziemlich fraglich ist, ob der überhaupt existiert. Es ist ein schwieriges Geschäft, diese Planetendetektion, so schwierig, dass der eine oder andere Fehlalarm zu erwarten ist.
Ich persönlich freue mich übrigens tierisch über Kepler-10b. Nicht nur, weil das ne schöne wissenschaftliche Entdeckung ist, die unser Weltbild erweitert und weil ich doch etwas beruhigter wegen der Masse von CoRoT-7b schlafen kann. Auch weil ich es dem Kepler-Team gönnen nach all den Problemen mit der Finanzierung und der Verschiebung des Projektes und der Kritik, weil sie es gewagt haben einen Teil der Daten zurückzubehalten, bis die bestätigenden Bodenbeobachtungen abgeschlossen waren. Was auch nur deswegen nötig wurde, weil das Projekt eben ständig verschoben wurde. Von der Erde aus können die eben nur im Winter/Herbst auf ihre Kandidaten schauen.
Daher ist das genau der richtige Anlass für mich zu feiern und damit passend zum Freitag ein Musikvideo einzustellen, dass nicht nur mein Bedürfnis nach Feiern befriedigt, sondern auch nach Wissenschaftlichkeit und Nerdigkeit. So:
——–
(1) Eigentlich wollte ich was anderes besprechen, aber was soll ich bei so ner Vorlage machen? Zu gut, um sie nicht einzuschieben.
(2) Genauer gesagt nimmt sie mit der Wurzel der Periode ab. Wichtig ist zudem wie tief das Signal ist und wie lange der Transit andauert und wieviele Datenpunkte pro Transit genommen werden. (Siehe u.a. : Pont et al. 2006, The effect of red noise on planetary transit detection)
…ist der nächste eher *ähm* biologisch motiviert
So und mit diesem kleinen heiteren Einstieg mach ich den Laden hier langsam wieder auf und wünsche allen Lesern ein frohes neues Jahr.
P.S.: Die Dinger sind inzwischen geschmolzen.
]]>The Daily Show With Jon Stewart | Mon – Thurs 11p / 10c | |||
Missile: Impossible | ||||
|
Hehe, Jon Stewart hat es schon schön auseinander genommen, aber lasst mich mal das Ganze wissenschaftlich unterfüttern.
So sieht ein echter Raketenstart aus. Beachtet vor allem die Geschwindigkeits- und Höhenangaben und wann ein Kondensstreifen zu sehen ist und wann nicht.
30 Sekunden nach dem Start hat die Rakete eine Geschwindigkeit von 500 Meilen/Stunde oder 800 km/h.
Nach 55 Sekunden eine Geschwindigkeit von 900 Meilen/Stunde oder 1440 km/h.
Nach 1:30 eine Geschwindigkeit von 2000 Meilen/Stunde oder 3200 km/h.
Einer der Gründe, warum Raketen als Waffe so gefürchtet sind, ist, dass sie so verdammt schnell sind. Wenn die Viecher wirklich so leicht nachzuverfolgen wären, dass da ein Helikopter-Pilot mit seiner Kamera 10 Minuten gemütlich nachhalten kann…Was würde denn bitte einen Kampfpiloten davon abhalten, das Ding abzuschießen? Schon die relativ einfache V2-Rakete erreichte Spitzengeschwindigkeiten von 5500 km/h, eine mittlere Geschwindigkeit von 3600 km/h und brauchte lediglich 5 Minuten um ein Ziel in 300 km Entfernung zu erreichen. Wenn die Phantasie-Rakete senkrecht nach oben zischen würde, wie es in den Fernsehbildern aussah, wäre das Ding nach wenigen Minuten so weit oben in der Atmosphäre, dass sich gar kein Kondensstreifen mehr bilden könnte.
Das sieht mensch auch im zweiten Video beim echten Raketenstart. Spätestens ab Minute 3:54 ist kein Kondensstreifen mehr zu sehen. Weil die Rakete sich in einer Höhe von 34 Meilen bzw. 55 km befindet. Da ist es paradoxerweise schon wieder zu warm, als dass sich die Eiskristalle bilden könnten, welche die Bildung von Kondensstreifen erst ermöglichen. Die entstehen nämlich bei einer Temperatur von unter – 40 Grad Celsius. Die richtigen Bedingungen für einen Kondensstreifen treten daher nur in einem relativ dünnen Bereich der Atmosphäre zwischen 10 und 30 km Höhe auf (1). Darunter und darüber ist die Luft zu warm – und ab einer gewissen Höhe auch einfach viel zu dünn.
Bild (Scott A. Mandia): Vertikales Temperatur-Profil der Erdatmosphäre mit der deutlich sichtbaren Temperatur-Inversion. D.h. ab 20 km Höhe wird’s schon wieder wärmer. Ist schon verrückt, diese seltsame Natur
Das fragliche Objekt aus dem ersten Video kann sich demnach in den 10 Minuten höchstens in einer Flughöhe zwischen 10 und 30 km bewegt haben. Was schon an sich eine sehr seltsame Höhe für Raketen wäre. Die V2 flog auf 80 km Höhe. Andere ballistische Raketen fliegen noch weitaus höher. Desweiteren…hätte es sich bei dem Objekt wirklich um eine Rakete gehandelt und wenn ich deren Geschwindigkeit relativ langsam mit 3600 km/h annehme, hätte diese angeblich “Rakete” schon annähernd horizontal fliegen müssen und wäre daher mindestens 600 km weit geflogen.
600 km Radius um San Francisco. Das ist schon ne ganz schöne Strecke. Ein bisschen fehlt zwar noch für *fucking Hawaii* – wie es Jon Stewart so schön ausdrückte – aber ich hab ja auch eine relativ langsame Geschwindigkeit genommen.
Je mehr ich darüber nachdenke, desto bekloppter wird die Geschichte. Was soll das denn für ein super-geheimes Raketenexperiment sein, das sich über mehrere hundert Kilometer mit einem weithin sichtbaren Kondensstreifen verrät? Vor allem wenn das Ding lediglich ein bisschen höher fliegen müsste, um es für den unbedarften Beobachter unsichtbar zu machen.
Wenn ich dagegen ein Flugzeug mit ner ganz normalen Flughöhe von 11 km annehme, das von einem Beobachter aus gesehen jenseits des Horizonts aufstieg (und der Augenzeuge, der das Ganze auslöste, bestätigt auch, dass das Objekt jenseits des Horizontes startete und mensch sieht auch anhand der Beleuchtung des Kondensstreifen das typische rötliche Schimmern der tiefliegenden Sonne, während es am Standort der Kamera sehr hell war) und wenn ich dabei ne halbwegs normale Geschwindigkeit für ein Flugzeug von 900 km/h ansetze, was 4mal so langsam ist wie die hier als pi-mai-Daumen-Abschätzung verwendete V2-Rakete, dann siehst das Ganze schon wesentlich plausibler aus.
Ein ungünstiger Blickwinkeln + fehlendes Hinterfragen + keine Ahnung, aber freies Assozieren = Rakete, Meteorit, UFO was-auch-immer-einem-einfällt
Dann haben die Heinis, welche aufgrund ihrer unbedarften Rumraterei Panik verbreitet haben, die unglaubliche Chuzpe zu behaupten, dass es die Schuld der Expertinnen und Behörden sei, weil die denen nicht subito presto sagen konnten, was es wirklich ist.
So einen Scheiß find ich persönlich inzwischen extrem gefährlich. Es wird ja ständig diese Kluft zwischen Wissenschaftlerinnen und normalen Menschen beklagt und immer so getan, dass sich die Wissenschaftlerinnen halt mehr anstrengen müssten. Aber mal ehrlich.Bei so einem Mist wie dieser falschen Raketen-Geschichte können wir uns anstrengen soviel wir wollen, wir haben von vornherein verloren.
Schweinegrippe, angebliche Schwarze Löcher am CERN, die böse Gentechnik, die bösen forschenden Pharmazeuten und Mediziner, die angeblich vertuschte Wahrheit über “Handystrahlen”…irgendwo wird immer gerade irgendein Mist ausgeworfen, auf den dann eine Expertin aber subito presto die perfekte Erwiderung zur Hand haben muss, während die gerade noch damit beschäftigt ist, sich zu wundern, wie mensch auf so etwas nur kommen kann und wo sie da überhaupt ansetzen soll. Und selbst wenn sie die perfekte Erwiderung hat, dann wird einfach von der Gegenseite so lange mit Dreck geworfen, dass in der Öffentlichkeit der Eindruck entsteht, dass da ja “irgendwas dran sein muss”.
“Die Wahrheit liegt irgendwo dazwischen”, wie ich diesen Spruch inzwischen hasse; diese Bankrott-Erklärung postmoderner Pseudo-Intellektuellen, die entweder zu dumm oder zu faul sind, sich wirklich zu informieren. Und sorry, jeder, der diesen Glückskeks-Spruch aus dem Handbuch “Argumentieren für Dummies” bringt, hat sich als ernstzunehmender Gesprächspartner zumindest in meinen Augen selbst disqualifiziert. So als ob die objektive Realität auf magische Weise näher in Richtung absoluten Blödsinns rückt, nur weil die Vertreter dieser Seite laut genug schreien. Im Grunde genommen steckt hinter solch einem Weltbild die vorsintflutliche Idee, dass jeder Mensch einen direkten Draht zu der “absoluten Wahrheit (TM)” hat, die aus dem Nichts in seinem Gehirn auftaucht und sich gar nicht erst mit kritischen Überlegungen abzugeben braucht. Ist ja auch langweilig, anstrengend und kostet Zeit.
Nun kann aber kein Mensch wirklich alles wissen. Dafür leistet sich unsere Gesellschaft aber Expertinnen, die den ganzen Tag nichts anderes tun, als sich Gedanken über Dinge zu machen, für welche die meisten Leute entweder keine Zeit oder nicht die Begabung haben. Schön, dann sollte mensch diese aber auch anhören. Nicht unkritisch alles schlucken, nein, darum geht es nicht. Es geht um das schlichte Zuhören, was die einem zu sagen haben und die Argumente und Konsequenzen zu prüfen. Mehr verlange ich gar nicht.
Wozu soll sich bitte unsereins vor die Kamera stellen? Um als Sündenbock für alles und jeden herzuhalten? Um als Lügnerin bezichtigt zu werden, bevor wir überhaupt die Chance haben, den Mund aufzumachen? Damit unsere Worte hinterher auf’s Übelste entstellt werden, damit sie in die schön vorgefasste Geschichte passen, welche die Journalistin im Kopf hat? (Letzteres hab ich schon selbst erlebt.)
Das Problem, welche die Rakete-Episode hier verdeutlicht, ist kein reines Medienproblem. Die Medien bringen im Grunde auch nur das, was die Leute erwarten. Es geht inzwischen viel tiefer und begegnet mir inzwischen ständig im Gespräch mit “normalen” Leuten: Dieser Hang zur Verschwörung und die Phantasie unhinterfragt gleichberechtigt neben echtes hart erarbeitetes Wissen zu setzen, alle Expertinnen zu Idiotinnen zu erklären und sich dabei noch ganz toll vorzukommen. Ich hab es mal die “arrogante Ignoranz” genannt. Ich finde, der Ausdruck trifft immer noch.
Ich hab auch keine Ahnung, was mensch dagegen tun kann. Außer vielleicht, wie es Jon Stewart getan hat, sich ausgiebig drüber lustig zu machen.
—————————–
(1)
Ich hab jetzt mal von Florian drüben das Bild geklaut, um das zu verdeutlichen:
[Source: Telescopes for Beginners for OurAmazingPlanet.com]