Elliptische Riesengalaxie ESO 325-G004 im Zentrum des 450 Millionen Lichtjahren entfernten Galaxienhaufens Abell S0740. Die Galaxie hat ca. 100 Milliarden Sonnenmassen. Bild: Hubblesite.org, NASA, ESA, and The Hubble Heritage Team (STScI/AURA); Acknowledgment: J. Blakeslee (Washington State University), STScI-Standardlizenz.

Im (vorläufig) letzten Teil der Urknall-Serie stelle ich noch ein paar geometrische Tests vor, die bereits in den 1930ern vorgeschlagen wurden, um die Expansion des Universums nachzuweisen. Die mehr oder weniger erfolgreich waren. Edwin Hubble war am Ende von der Expansion des Universums selbst nicht überzeugt, weil diese Tests zu seinen Lebzeiten keinen eindeutigen Beleg für die Expansion lieferten. Aber das ist schon ein paar Tage her.

 

Das Universum als Lupe

Nach der Urknalltheorie begann das Universum klein und dicht und expandierte. Nicht etwa entfernten sich die Galaxien vermöge einer Bewegung durch den Raum voneinander, sondern der Raum selbst soll sich aufgebläht haben. Der große Unterschied liegt darin, wie sich Licht im Raum während der Expansion ausbreitet. Zum einen werden Lichtwellen oder der Abstand zweier Lichtpulse gedehnt, und zwar um den Faktor z+1, wenn z die Rotverschiebung ist1, und um diesen Faktor wuchs nicht nur die Wellenlänge des Lichts, sondern auch der Raum selbst seit der Zeit, aus der das Licht eines Objekts mit Rotverschiebung z stammt. Bei Rotverschiebung z=1 sehen wir bereits Licht, das 7,8 Milliarden Jahre zu uns unterwegs war – wir sehen die Galaxie in entsprechend zurückliegender Zeit.

Zum anderen werden aber auch die Sehwinkel, unter denen wir Objekte bei hoher Rotverschiebung sehen, vergrößert. Normalerweise erscheinen Objekte bekanntlich mit zunehmender Entfernung immer kleiner, man spricht von einem kleineren Sehwinkel, den wir hier mit θ (klein Theta) abkürzen wollen. Den wahren oder absoluten Durchmesser D erhalten wir, wenn wir tan θ mit der Entfernung r multiplizieren: D = tan θ · r. Für kleine θ gilt annähernd tan θ ≈ θ im Bogenmaß: D ≈ θ · r. In einem expandierenden Kosmos stimmt das so nicht mehr: zunehmend ferne Objekte scheinen erst absolut und schließlich auch im Sehwinkel zu wachsen.

Nimmt man beispielsweise den Durchmesser einer Galaxie bei z=1, dann war das Universum damals nur halb so groß wie heute. Zur Zeit der Lichtaussendung war die Galaxie in Eigendistanz (also der hypothetischen instantanen Entfernung, die ein Maßband messen würde) etwa 5,5 Milliarden Lichtjahre entfernt2. Wir sehen die Galaxie heute unter dem Sehwinkel θ, unter dem sie damals ihr Licht in unsere Richtung entsandte, und sie erscheint damit so groß wie aus 5,5 Milliarden Lichtjahren betrachtet. Setzen wir die heutige Entfernung an, dann erscheint die Galaxie also absolut gemessen doppelt so groß zu sein. Eine gleich große Galaxie, deren Licht uns von hinreichend weiter her erreicht, etwa mit z=3, erscheint so gar im Sehwinkel größer, denn sie war zur Zeit der Lichtaussendung nur 5,3 Milliarden Lichtjahre entfernt und damit näher als die Galaxie bei z=1. Ab etwa z=1,7…2 (je nachdem, welchen Wert von H0 und welche Dichten man für Dunkle Energie und Materie ansetzt) erscheinen fernere Objekte unter größerem Sehwinkel als nähere gleich große. Die Entfernung, in der uns das Objekt aufgrund seines Sehwinkels erscheint, nennt sich übrigens Winkeldurchmesserentfernung.

Objekte, die wir in der Frühzeit des Universums sehen, erscheinen perspektivisch vergrößert, weil sie uns früher näher waren und ihr Sehwinkel einem kleineren Durchmesser entsprach als heute. Bild: Autor, Pixabay (gemeinfreie Cliparts).

Man hat versucht, diesen Lupen-Effekt durch Beobachtungen von Galaxien und Galaxienhaufen nachzuweisen. Das Problem ist allerdings, dass diese Objekte sich mit der Zeit stark verändert haben – sie sind keine Standardlineale. Galaxien waren früher beispielsweise kleiner und heller: die Sterne standen enger beisammen und die Sternentstehungsrate war höher. Daher ließ sich kein schlüssiges Ergebnis ableiten, ob die beobachteten Objekte nun vergrößert erschienen oder nicht. Das Standardlineal schlechthin ist die kosmische Hintergrundstrahlung mit ihren Baryonischen Akustischen Oszillationen, deren heutige Strukturen sich um den entsprechenden Faktor z+1≈1080 vergrößert in der Verteilung der Galaxien wiederfinden. Die absolute Größe der ursprünglichen Oszillationen kann man aus der Theorie des Plasmas errechnen. Überzeugender wäre es, wenn man eine unabhängige Bestätigung an anderen Objekten hätte, die rein empirisch ermittelt ist, also auf der Basis von Messungen.

Das scheint nun kürzlich gelungen zu sein [1]: Fulvio Melia von der Universität Arizona hat ältere radioastronomische VLBI-Aufnahmen von Quasaren und anderen aktiven Galaxienkernen (AGN – active galactic nucleus) bei 2,29 GHz (13 cm Wellenlänge) nach solchen ausgesiebt, die eine mittlere Radio-Leuchtkraft haben. VLBI steht für Very Long Baseline Interferometry, also Interferometrie mit sehr langer Basislinie. Mit “Interferometrie” ist gemeint, dass mehrere Radioteleskope zusammengeschaltet wurden und die Winkelauflösung damit der eines Radioteleskops mit dem Durchmesser der Basislinie entspricht, und mit “sehr lange Basislinie” meint man Abstände über den gesamten Erdglobus. Damit erreicht man im GHz-Bereich Winkelauflösungen von Millibogensekunden, 100-mal besser als etwa das Hubble-Weltraumteleskop im sichtbaren Licht.

Für Objekte mittlerer Helligkeit ist die Größe der AGNs nach Erkenntnis früherer Arbeiten so gut wie konstant, sie bilden ein Standardlineal. Melia wählte 140 solche Objekte aus und trug ihre Größe über der Rotverschiebung auf, zusammen mit der Kurve für den erwarteten Zusammenhang zwischen beobachteter Größe und Rotverschiebung für ein flaches ΛCDM-Universum mit einer Materiedichte ΩM von 0,24±0,1, dem Wert, den das Weltraumteleskop PLANCK aus der Hintergrundstrahlung ermittelt hat:

Durchmesser aktiver Galaxienkerne für verschiedene Rotverschiebungen nach Melia 2018 [1]. Es wurden 140 ausgewählte aktive Galaxienkerne in Gruppen von 7 zusammengefasst und ihr mittlerer Durchmesser in Millibogensekunden (milli arc seconds, mas) über der Rotverschiebung aufgetragen. Die durchgezogene Linie entspricht eine Materiedichte ΩM im Universum von 0,24 (und damit einer Dichte der Dunklen Materie ΩΛvon 0,76). Von z=0,4 bis etwa 1,7 fällt die Kurve und steigt von dort wieder leicht an – ab hier erscheinen fernere AGN-Kerne zunehmend unter größerem Sehwinkel. Bild: Melia, [1], arXiv, gemeinfrei.

Wie man sieht stützen die Messungen die theoretische Vorhersage (durchgezogene Linie), die mit der Rotverschiebung erst fällt (AGN-Kerne erscheinen mit wachsender Entfernung kleiner) und ab etwa z=1,7 wieder anzusteigen beginnt (AGN-Kerne erscheinen mit wachsender Entfernung größer). Der Effekt ist allerdings subtil. Den Durchmesser eines aktiven Galaxienkerns mit besser als einer Millibogensekunde Auflösung zu messen ist kein Pappenstiel. Aber alleine die Tatsache, dass die Folge der Messpunkte sich bis zur Waagerechten abflacht und nicht stetig fällt beweist, dass es einen “Lupeneffekt” durch die Expansion des Universums gibt. Zukünftige Messungen bei Millimeterwellenlängen, wie sie z.B. beim Event Horizon Telescope verwendet wurden, werden Auflösungen von 15 Mikrobogensekunden ermöglichen – damit sollte sich eine sehr robuste Kurve ergeben.

 

Galaxien-Volkszählung

Eine andere Möglichkeit sind Galaxienzählungen in einem festen Volumen (Quellenzählungen, Source Counts). Wenn die lineare Größe mit Rotverschiebung z um den Faktor z+1 vergrößert erscheint, so erscheint ein Volumen um (z+1)³ vergrößert und man sollte bei z in einem bestimmten Volumen nach heutigem Maßstab weniger Objekte finden als heute. Das Problem ist hier: früher waren die Galaxien sowohl im Licht als auch in der Radiostrahlung heller, man sieht also potenziell mehr Objekte, was die Messung verfälscht.

R. H. Sanders vom Kapteyn Institut für Astronomie in Groningen, Niederlande, hat das Problem 2004 folgendermaßen gelöst [2]: zuerst hat er Objekte in den Hubble Deep Fields (HDFs) Nord und Süd sowie solche auf Aufnahmen irdischer Teleskope pro Raumwinkel gezählt und über ihrer scheinbaren (=beobachteten) Helligkeit aufgetragen (folgendes Bild, oben links). Die fetten Kreise sind die HDF-Galaxien, die kleine Kreuze solche aus terrestrischen Beobachtungen. Die durchgezogenen Linien entsprechen der Erwartung für verschiedene Anteile dunkler Energie ΩΛ bei flacher Geometrie (die Differenz zu 1 wäre dann der Anteil ΩM der Materie an der Dichte). ΩΛ=0,75 ist natürlich der Wert, der den Messungen aus der Hintergrundstrahlung entspricht. Berücksichtigt bei diesen Kurven ist, wie die Helligkeit der Galaxien sich mit der Entfernung im expandierenden Weltall verändert (dazu gleich mehr), während keine Galaxienentwicklung angenommen wurde. Wie man sieht, entspricht die Messkurve nicht einmal einen Universum, das gar keine Masse enthält (ΩΛ=1,0). Werden die Galaxien gemäß ihrer Rotverschiebung (aus der Farbe geschätzt) sortiert und ihre Anzahl (hier nur Galaxien zwischen 23m und 26m Größenklassen im Infraroten) über der Rotverschiebung aufgetragen, ergibt sich das Bild unten links – dargestellt ist der Anteil der Galaxien von allen, die man bis zur Rotverschiebung z sieht (man sieht alle, also Anteil 1 oder 100%, bis z=4 und weniger für kleinere z). Die Galaxienzählung passt auch hier überhaupt nicht zu den Vorhersagen – die gezählte Kurve liegt zu weit rechts, man sieht einen zu großen Anteil der Galaxien bei hoher Rotverschiebung, weil die Galaxien früher heller waren.

Obere Reihe: Galaxienzählung in den Hubble-Deep-Fields (schwarze Kreise) und irdischen Aufnahmen (Kreuze) nach scheinbaren Infrarot-Helligkeiten. Die Einheit auf der y-Achse ist die Zehnerpotenz der Anzahl von Galaxien pro Raumwinkel und Größenklasse. Links ohne Entwicklung der Galaxienhelligkeit, rechts mit einer einfachen Anpassung an die Beobachtungsdaten (siehe Artikeltext). Untere Reihe: kumulative Häufigkeiten der Galaxien zwischen 23m und 26m einmal ohne Galaxienentwicklung (links) und einmal mit der Anpassung aus dem Bild darüber (rechts). Bild: R.H. Sanders, [2], arXiv, gemeinfrei.

Daraufhin hat der Autor nun die Entwicklung der Helligkeit über eine einfache Formel berücksichtigt, die die Helligkeit mit dem Quadrat der Lichtlaufzeit anwachsen lässt und ansonsten nur einen konstanten Faktor zum Anpassen der Kurve an die Beobachtungen enthält. Es ergibt sich das Bild oben rechts, das so angepasst wurde, dass es mit den drei theoretischen Kurven bestmöglich übereinstimmt. Für die Galaxienstatistik über z (unten rechts), die nun entsprechend angepasste theoretische Kurven enthält, passt die beobachtete Zählung jetzt ganz hervorragend zu einem Universum mit ΩΛ=0,75 – eine quantitative Bestätigung des Anteils an Dunkler Energie!

 

Der Tolman-Test oder warum Details Komplikationen zeugen

Die letzte hier behandelte Methode betrachtet die Flächenhelligkeit von Galaxien. Die Flächenhelligkeit einer Galaxie (oder irgendeines Objekts mit spezifischer Helligkeit pro Fläche, z.B. eines Gegenstandes auf der Erde im Sonnenlicht) sollte nicht von der Entfernung zum Beobachter abhängen: ein Objekt wird zwar mit dem Quadrat der Entfernung dunkler, weil sein Licht dann eine Kugel mit quadratisch größerer Oberfläche ausleuchten muss. Sein Raumwinkel (scheinbare Fläche) nimmt aber auch mit dem Quadrat der Entfernung ab, d.h. dividiert man die empfangene Lichtleistung durch die Größe des Raumwinkels, so erhält man einen konstanten Wert, die Flächenhelligkeit. Dieser vielleicht etwas kompliziert klingende Sachverhalt besagt nichts anderes, als dass die Oberfläche eines Dings im Sonnenlicht nicht dunkler erscheint, wenn es weiter weg ist – es wird um das gleiche Maß dunkler, wie es kleiner erscheint. Ein gleich großer Winkelausschnitt erscheint immer gleich hell. Der Mond erscheint am Himmel genau so hell, als wenn man drauf stünde und nur einen Ausschnitt betrachtete, welcher der Größe des Mondscheibchens von der Erde aus gesehen entspricht.

Im expandierenden Universum stimmt das so nicht mehr. Die Raumexpansion wirkt sich in dreifacher Hinsicht auf die Flächenhelligkeit aus:

  • Die Rotverschiebung verringert die Lichtleistung der einzelnen Photonen um den Faktor 1/(z+1)
  • Die Zeitdilatation verringert die Zahl der beim Beobachter eintreffenden Photonen um den Faktor 1/(z+1)
  • Die eben beschriebene Vergrößerung des Sehwinkels vergrößert die Fläche auf das (z+1)²-fache, d.h. die Ausstrahlung pro Fläche verringert sich auf das 1/(z+1)²-fache

Insgesamt sollte die Flächenhelligkeit also um den Faktor 1/(1+z)4 abnehmen, während hypothetische Effekte wie “müdes Licht”, die nur auf die Rotverschiebung wirken, nur eine Änderung mit 1/(1+z) bewirken würden. Dieser Effekt wurde in den 1930ern vom amerikanischen Physiker Richard C. Tolman als Test zur Unterscheidung vorgeschlagen, ob das Universum insgesamt expandiert oder sich lediglich die Galaxien von uns fortbewegen, und ist heute als Tolman-Flächenhelligkeits-Test bekannt. Die Idee ist, die Oberflächenhelligkeiten von Galaxien bei verschiedenen Rotverschiebungen zu messen und nachzuschauen, wie sich die Helligkeit mit der Rotverschiebung verändert.

An diesem simpel klingenden Test haben sich Generationen von Astronomen die Zähne ausgebissen. Hubble selbst mochte am Ende nicht mehr an die Expansion des Raumes glauben, weil ihm der Test nicht gelungen war, was allerdings neben den damals beschränkten Messmitteln auch an einer Reihe von Fehlannahmen lag, z.B. der zeitlichen Konstanz des Hubble-Parameters. Allen Sandage hatte 1974 darum geworben, ein Weltraumteleskop zu bauen (was in Form des Hubble-Teleskops dann umgesetzt wurde), und er versprach, damit den Tolman-Test erfolgreich zu absolvieren. Er versuchte es kurz nach dem Start des HST 1990 und 1991, sowie erneut in einer 4-teiligen Reihe von Arbeiten 2001. 2010 fügte er diesen noch ein 5. überarbeitetes Papier hinzu [3], das er mit einer angeblich alten Chinesischen Weisheit einleitet: Details zeugen Komplikationen.

Die Arbeit führt eine neue Analyse der Flächenhelligkeiten elliptischer Riesengalaxien in drei Galaxienhaufen bei  verschiedenen Rotverschiebungen durch (z=0,76, z=0,90 und z=0,92). An dieser Stelle ist kein Platz, die 11-stufige, komplexe Vorgehensweise zu erläutern und die Arbeit enthält leider auch keine leicht nachvollziehbare Ergebnisgrafik, daher nur das Ergebnis in Zahlen: statt mit 1/(1+z)4 nahmen die Helligkeiten der betrachteten Galaxien mit 1/(1+z)2,80±0,25 im roten Licht und mit 1/(1+z)3,48±0,14 im Infraroten ab. Als Begründung für die Differenz zum Exponenten 4 nennt er die Helligkeitsentwicklung der Galaxien und schließt zufrieden mit q.e.d (quod erat demonstrandum – was zu beweisen war).

Ganz anders sieht das allerdings Eric Lerner [4], einer der letzten Mohikaner, der das Steady-State-Universum verteidigt. Er führte noch 2014 Messungen durch und behauptet, ohne irgendwelche entwicklungsbedingten Korrekturen der Helligkeit für Galaxien bei z=0,03 und z=5 (fünf!) auf 1/(1+z) zu kommen, das er mit “alterndem Licht” erklärt. Wir hatten in den vergangenen Artikeln schon gesehen, dass “müdes Licht” weder die Hintergrundstrahlung noch die Zeitdilatation von Supernovae und Gammastrahlenschauern erklären kann. Nach der Urknalltheorie ist bei z=5 das Weltall gerade mal eine gute Milliarde Jahre alt gewesen und die Sternentstehung war gerade massiv im Gange, so dass die Flächenhelligkeiten da natürlich erwartungsgemäß viel höher sein müssen als heute. Lerner schließt damit, dass sein Modell eines statischen Universums die Messungen genau so gut erklärt wie das ΛCDM-Modell des expandierenden Universums (welches das aber auch tut!). Deswegen sei seine Arbeit allein noch kein Beleg, dass ΛCDM falsch liege, aber man solle sei Alternative weiter verfolgen. Das Problem ist nur, dass sie andere Effekte, die das ΛCDM-Modell zwanglos erklärt (Teile 1-6 dieser Serie), überhaupt nicht erklären kann. Brian Koberlein hat dies in einer Bewertung der Arbeit [5] ausführlich behandelt und kommt zu einem vernichtenden Urteil. Und deswegen hat die Fachwelt Lerners Arbeit auch nicht weiter beachtet. Der Drops ist gelutscht.

 

Case Closed.

Damit möchte ich die Urknall-Serie zunächst beenden (ein Übersicht mit Links folgt noch). Es gibt durchaus noch weitere Belege, z.B. wird aktuell die Reionisation des Wasserstoffs untersucht, die mit der ersten Sternentstehung einher ging und deren Zeitrahmen anhand von Beobachtungen der 21-cm-Wasserstofffrequenz gerade ermittelt wird. Florian schrieb darüber vor ca. einem Jahr. Der ultimative Beleg für die Urknalltheorie sind jedoch die Messungen der Rotverschiebungen für Typ-Ia-Supernovae und Quasare, die ich schon in anderen Artikeln behandelt hatte. Beizeiten füge ich der Serie vielleicht noch den einen oder anderen Artikel hinzu. Aber das bisher Vorgetragene sollte eigentlich genug Argumente dafür geliefert haben, warum der Urknall nicht nur eine nette Nachmittagsidee von ein paar Kosmologen ist, sondern empirisch felsenfest untermauert ist und daher auch robust gegen einzelne Widersprüche ist. Es reicht nicht, dem Tausendfüßer ein Bein zu stellen, der fällt deswegen nicht um!

Eine Übersicht und Zusammenfassung aller Artikel dieser Reihe gibt es hier.

 

Referenzen

[1] Fulvio Melia, “Model Selection based on the Angular-Diameter Distance to the Compact Structure in Radio Quasars“,  EPL (Europhysics Letters), Volume 123, Number 3, 3. September 2018; arXiv:1808.01846.

[2] R.H. Sanders, “Observational Cosmology”, Part I: The Early Universe According to General Relativity: How Far We Can GoarXiv:astro-ph/0402065.

[3] Allen Sandage, “The Tolman Surface Brightness Test for the Reality of the Expansion. V. Provenance of the Test and a New Representation of the Data for Three Remote HST Galaxy Clusters“, The Astronomical Journal, 14. Januar 2010; arXiv:0905.3199.

[4] Eric J. Lerner, Renato Falomo, Riccardo Scarpa, “UV Surface brightness of galaxies from the local Universe to z∼5“, International Journal of Modern Physics, D23 (2014) no. 6, 1450058; arXiv:1405.0275.

[5] Brian Koberlein, “Selection Bias in Cosmology“, 24. Mai 2014.


1 Die unhandliche “+1” hat man sich durch die Definition der Rotverschiebung eingehandelt: sie ist definiert als z=Δλ/λ wenn λ die Wellenlänge ist und Δλ die Differenz zwischen der unverschobenen und der verschobenen Wellenlänge λ’-λ. Wenn z=(λ’-λ)/λ, dann ist zλ=λ’-λ und zλ+λ=(z+1)λ=λ’. Dann ist also λ’ z+1-mal die ursprüngliche Wellenlänge λ.
2 Gerechnet mit Ned Wright’s Cosmology Calculator für H0=69,6 km s-1 Mpc-1, ΩM=0,286, z=1, flache Geometrie (ΩΛ=1-ΩM)

Kommentare (21)

  1. #1 tomW
    25. März 2019

    Vielen Dank für diese unglaubliche Fleißarbeit!
    Ich finde es großartig, dass Du hier Dein eigenes Blog errichtet hast. Warst Du schon vorher als versierter, geduldiger und immer höflicher Kommentator bekannt, so hast Du jetzt die perfekte Art der Wissenskommunikation entwickelt. Auch wenn ich bei weitem nicht alles verstanden habe, so bleibt mir immer noch die Möglichkeit, bei Diskussion über dieses Thema, diese Artikel zu verlinken.

    Bitte mehr davon!

  2. #2 Alderamin
    25. März 2019

    @tomW

    Danke! Wenn Du Fragen hast, frag’ ruhig.

    @alle

    Erstaunlich wenig Kommentare zu den letzten beiden Artikeln – alles klar oder alles zu kompliziert?

  3. #3 UMa
    25. März 2019

    @Alderamin: Zu wenig Zeit. Vor zwei Wochen wollte ich noch was längeres zu Hubble lokal und Planck schreiben, sowie zum ersten(?) Urknall-Artikel. Wird wohl noch kommen, aber dauert noch.

  4. #4 Alderamin
    25. März 2019

    @UMa

    Da gab’s letztens wieder eine Veröffentlichung zu einer neuen Kalibrierung der Cepheiden, die das Problem weiter vergrößert hat.

  5. #5 UMa
    25. März 2019

    Nur kurz:
    Das wird schwierig. Wenn man nur Bestimmungen zwischen z=0,01 und z=2 nimmt (keine lokalen Daten kein CMB, kein BOSS z=2,3-2,4, also alles was Probleme mach weglässt) komme ich auf H0=69,265+-1,39 km/s/Mpc für das beste flache LCDM.

    Ich denke Wrights Default-Werte sind immer noch die besten.

    H0 größer 72 wird schwierig, da H(z)/(1+z) im Minimum kleiner als 60 ist. Das geht selbst mit hohem Lambda nicht mehr gut. Dann bleibt selbst ohne Planck nur w kleiner -1, um diese lokale Beschleunigung zu erreichen.
    Oder die lokalen H0 Messungen sind systematisch zu hoch.

    Die BOSS z=2,3-2,4 Daten wollen Omega_M kleiner 0,25, was auch schwierig wird.

  6. #6 Schlappohr
    25. März 2019

    Erstaunlich wenig Kommentare zu den letzten beiden Artikeln – alles klar oder alles zu kompliziert?

    Gelesen und keine Fragen gehabt 🙂
    Aber jetzt:

    Die Rotverschiebung verringert die Lichtleistung der einzelnen Photonen um den Faktor 1/(z+1)

    Mir ist klar, dass die Energie mit der Frequenz zusammenhängt, die bei der Rotverschiebung geringer wird. Aber was passiert mit der Energiedifferenz (hinsichtlich Erhaltungssatz)?

    Ich habe in dieser Artikelserie mehr gelernt als aus den Büchern, die ich zum Thema gelesen habe. Ganz ausgezeichnet.Schade, dass die Serie schon vorbei ist.

  7. #7 Alderamin
    25. März 2019

    @Schlappohr

    Aber was passiert mit der Energiedifferenz (hinsichtlich Erhaltungssatz)?

    Die geht verloren. Oder verschwindet als potenzielle Energie im zusätzlichen Abstand, den die Expansion schafft. Je nachdem, wen man fragt.

    Generell gilt der Energieerhaltungssatz in expandierenden Raumzeiten [Edit Alderamin:]NICHT[/Edit].

    https://www.preposterousuniverse.com/blog/2010/02/22/energy-is-not-conserved/

    https://de.m.wikipedia.org/wiki/Rotverschiebung#Rotverschiebung,_Blauverschiebung_und_Energieerhaltung

    Ich habe in dieser Artikelserie mehr gelernt als aus den Büchern, die ich zum Thema gelesen habe. Ganz ausgezeichnet.Schade, dass die Serie schon vorbei ist.

    Danke!

    Ich merke aber auch schon nachlassendes Interesse bei der Leserschaft, daher mal wieder andere Themen. Wie gesagt kann ich ja später noch einmal darauf zurückkommen (die halbe Mobilfunkserie ist auch noch offen, und jetzt dreht sich gerade alles um 5G…)

  8. #8 schlappohr
    26. März 2019

    Generell gilt der Energieerhaltungssatz in expandierenden Raumzeiten.

    Du meinst, er gilt dort _nicht_, nehme ich an? Aus Wikipedia:

    Das aus der Thermodynamik bekannte Prinzip der Energieerhaltung gilt nur für zeitlich unveränderliche abgeschlossene Systeme

    Ich merke aber auch schon nachlassendes Interesse bei der Leserschaft

    Du solltest das Interesse nicht nur an der Anzahl der Kommentare bewerten. Ich lese z.B. hier auf SB viele Artikel, ohne zu kommentieren (z.B. bei Mathlog, der allgemein immer sehr wenige Kommentare bekommt). Ich meine, je spezieller ein Thema ist und je mehr es vertieft wird, desto weniger Leser kennen sich genügend damit aus, um sinnvolle Kommentare abgeben zu können (persönlich halte ich mich da auch lieber an Dieter Nuhr 🙂

  9. #9 Alderamin
    26. März 2019

    @schlappohr

    Du meinst, er gilt dort _nicht_, nehme ich an?

    Natürlich (hab’s korrigiert)

    Du solltest das Interesse nicht nur an der Anzahl der Kommentare bewerten.

    Das tue ich nicht. Wir haben hier bei WordPress Statistiken, die die Zugriffe zählen. Die ersten beiden Artikel der Reihe wurden demnach mehr als fünfmal so oft gelesen wie dieser hier (wobei Teil 5 zum Alter der Sterne wieder so oft gelesen wurde wie die ersten beiden).

    Beim Mobilfunk war es so weit runtergegangen, dass es keinen Spaß mehr machte, so viele Stunden Arbeit da reinzustecken.

    Irgendwann ist ein Thema einfach durch.

  10. #10 Spritkopf
    26. März 2019

    @Alderamin

    Ich merke aber auch schon nachlassendes Interesse bei der Leserschaft, daher mal wieder andere Themen.

    Ich habe alle Teile gelesen und diesen letzten Teil mit dem Lupeneffekt noch nicht ganz verstanden. Jedoch bin ich zur Zeit über die Woche so stark beruflich eingebunden, dass ich noch nicht dazu gekommen bin, so gründlich genug darüber nachzudenken, dass es sich entweder klärt oder ich sinnvolle Fragen dazu formulieren könnte. Hat also bei mir nichts mit Interesse bzw. Desinteresse zu tun.

  11. #11 HerrPesVonDerLippe
    26. März 2019

    @Alderamin

    Aufgrund deiner merkbaren Frustration hinsichtlich der geringeren Klickzahlen und Kommentaraktivität zu deiner Urknall-Reihe möchte ich dir gerne mein Feedback (aus der passiven Leserschaft) dazu geben.

    Diese Artikelserie ist mit Abstand das Beste, was ich bisher auf SB gelesen habe. Allerdings ist für mich als Laien das Niveau so ansprechend, dass ich die Artikel nicht beiläufig lesen kann. Ich muss mir tatsächlich Zeit nehmen und sehr konzentriert lesen – und mach das gerne.
    Ich will die Texte nicht einfach überfliegen. Einerseits weil ich dann kaum etwas davon verstehe, andererseits will ich den Aufwand den du betreibst auch würdigen. Daher bin ich mit der Urknall-Serie noch nicht durch, hänge noch bei Nummer drei. Vermutlich geht es anderen ähnlich, daher die geringeren Klickzahlen.

    Bitte lass dich nicht frustrieren und blogge auf deinem unerreichten Niveau weiter (zu welchem Thema auch immer).

  12. #12 Alderamin
    26. März 2019

    @HerrPesVonDerLippe

    Danke ! 🙂

    Vielleicht ist es also der Backlog. Ich werd’s ja dann sehen. 😉

  13. #13 Zhar
    29. März 2019

    Also irgendwie will das ganze nicht so recht bei mir ankommen..
    Licht von Galaxie A geht auf die Reise bei einer Entfernung von 2, die gleichgroße Galaxie B ist uns näher mit 1, zur besseren Veranschaulichung auf gleicher Sichtlinie. Wenn das Licht von A bei B vorbeifliegt haben sich dank Expansion die Abstände soweit verändert, dass B mittlerweile sich bei 2,5 befindet. Das schon weit gereiste Licht von A geht mit “frischem” Licht von B gemeinsam auf den weiteren Weg zu uns. Wenn jetzt das Licht von A mit dem Licht von B bei uns eintrifft sehen wir das tiefrote Licht von A mit einer scheinbaren Entfernung von 2 und das leichtrote Licht von B mit scheinbaren Entfernung von 2,5. Die tiefrote A wirkt damit größer als die leichtrote B. Soweit richtig? aber das klappt doch nur, wenn A sich überlichtschnell von uns entfernt, oder? Weil sonst könnte das Licht von A nicht mit dem Licht von B hinter der Entfernung von 2 treffen, was aber doch bedeutet, dass das kombinierte Licht beider Galaxien ebenfalls zurückfallen müsste und uns nie erreicht? Zumindest bei linearer Expansion. Wo hab ich da den Denkfehler?

  14. #14 Alderamin
    30. März 2019

    @Zhar

    Sorry für die späte Antwort, hatte viel Arbeit gestern und die Antwort ist nicht ganz einfach.

    Licht von Galaxie A geht auf die Reise bei einer Entfernung von 2, die gleichgroße Galaxie B ist uns näher mit 1, zur besseren Veranschaulichung auf gleicher Sichtlinie. Wenn das Licht von A bei B vorbeifliegt haben sich dank Expansion die Abstände soweit verändert, dass B mittlerweile sich bei 2,5 befindet. Das schon weit gereiste Licht von A geht mit “frischem” Licht von B gemeinsam auf den weiteren Weg zu uns. Wenn jetzt das Licht von A mit dem Licht von B bei uns eintrifft sehen wir das tiefrote Licht von A mit einer scheinbaren Entfernung von 2 und das leichtrote Licht von B mit scheinbaren Entfernung von 2,5. Die tiefrote A wirkt damit größer als die leichtrote B. Soweit richtig?

    So ähnlich, z ist bezogen auf unsere Sicht heute und entspricht einer bestimmten Lichtlaufzeit und Entfernung.

    Nehmen wir mal A in z=3 und B in z=1. Der Cosmology Calculator spuckt dann (für die voreingestellten Werte von H0 ΩΛ (hier: Omegavac) und ΩM folgende Werte aus:

    A, z=3:

    Das Licht von A ging also vor 11,549 Milliarden Jahren auf die Reise (light travel time). Heute ist die Galaxie 21,139 Milliardn LJ (Gly) entfernt (comoving radial distance). Damals war das Weltall nur 1/(z+1) = 1/4 mal so groß wie heute, d.h. damals war A 21,139/4 = 5,2846 Gly entfernt – das steht auch da als angular light distance. DA.

    Da H0 heute 69,6 km s-1 Mpc-1 ist, entfernt sich A heute mit 21,139 Gly * H0 = 6481,1 Mpc * 69,6 km s-1 Mpc-1 = 451084,56 km/s von uns, das ist mehr als c. Ich habe mal gemäß der Formel für H²(z) hier ausgerechnet, wie schnell sich die Galaxie von uns entfernte, als das Licht auf den Weg ging, und kam auf 491798,4 km/s. H(3) war nämlich 303,52 km/s/Mpc. Sollte man auf den ersten Blick meinen, das Licht käme nie hier an. Stimmt aber nicht.

    B, z=1:

    Die Galaxie B ist nach obigem heute 10,928 Gly entfernt. Ihr Licht machte sich vor 7,817 Milliarden Jahren auf den Weg zu uns. Bei z=1 war sie nur halb so weit weg, 5,4641 Gly. Heute entfernt sie sich von uns mit 233201,8 km/s, zur Zeit von z=1 mit 202026 km/s (gemäß H(1) mit der Wikipedia-Formel).

    Interessant ist jetzt, wie schnell war B in Bezug zu A bei z=3? Bei z=3 war B nur 1/4 so weit von uns entfernt wie heute, also 10,928 Gly/4 = 2,732 Gly. A war, wie gesagt, 5,2846 Gly entfernt. Zwischen A und B lagen also 5,2846-2,732 Gly = 2,553 Gly = 783 Mpc. Multipliziert man 783 Mpc mit dem Hubble-Parameter H(3)=303,52 km/s/Mpc, dann entfernte sich A von B mit 237659 km/s und damit unterlichtschnell. Das Licht von A hat B dann zur Zeit von z=1 (also vor 7,817 Milliarden Jahren) erreicht.

    Das Licht von beiden hat dann in den letzten 7,817 Milliarden Jahren die in dieser Zeit von 5,4641 auf 10,928 Gly angewachsene Restrecke zurückgelegt. B hat sich zuerst mit 202026 km/s von uns entfernt und heute mit 233202 km/s, war also nie überlichtschnell.

    Dein Denkfehler ist (und darauf falle ich auch immer wieder rein), dass uns Licht nicht erreichen kann, weil sich die Quelle mit mehr als Lichtgeschwindigkeit entfernt. Das stimmt aber nicht, weil der Hubble-Parameter H(t) fällt. Wenn alle Galaxien ihre aktuellen Geschwindigkeiten einfach beibehielten, dann wären sie im doppelten Weltalter doppelt so weit entfernt. Damit wäre H(2 Weltalter) nur noch halb so groß, denn eine Galaxie, die heute 1/2 Mpc entfernt wäre und damit mit der Hälfte der H0-Geschwindigkeit bei 1 Mpc (rund 35 km/s), wäre bis dahin 1 Mpc entfernt und immer noch mit der gleichen Geschwindigkeit unterwegs.

    Licht, das eine Galaxie in unsere Richtung verlässt, die sich mit weniger als ungefähr doppelter Lichtgeschwindigkeit entfernt, dringt deshalb in Gegenden vor, wo H(t) kleiner ist als zur Zeit der Aussendung. Es muss nur lange genug warten, bis H(t)*Restentfernung < c wird, dann macht es Strecke gut und kommt irgendwann an. Ich glaube, dazu muss ich wohl auch mal einen Artikel schreiben. Martin hat aber schon einen geschrieben und Florian, meine ich, auch, den ich aber gerade nicht finde.

  15. #15 Alderamin
    30. März 2019

    @Zhar

    Habe heute Nachmittag beim Spaziergang nochmal drüber nachgedacht – man kann es auch ohne viel Rechnerei erklären.

    Nehmen wir mal an, die Expansionsgeschwindigkeit werde weder durch die Massenanziehung gebremst, noch durch die Dunkle Energie beschleunigt. Dann bleiben die Geschwindigkeiten der Galaxien einfach konstant (H(t) fällt trotzdem aus dem oben beschriebenen Grund). Angenommen, Galaxie A entfernt sich mit 1,5c von uns und sendet bei z=3 Licht aus. Kann uns das Licht erreichen?

    Ja, es kann. Zu Beginn weicht die Galaxie mit 1,5c vor uns zurück und ihr Licht mit 0,5c – es entfernt sich, statt näher zu kommen. Aber das Licht entfernt sich mit c von der Galaxie A, und der Raum zwischen A und dem Licht wächst. Das Licht bewegt sich immer mit c relativ zu den unterwegs passierten Galaxien, die sich mit weniger als 1,5c entfernen, weil sie uns näher als die Galaxie A sind. Irgendwann kommt es auch bei Deiner Galaxie B vorbei.

    Das Licht von A profitiert davon, dass es von der Raumexpansion mitgenommen wird. Aus der Sicht von A wird der Lichtstrahl immer schneller, je weiter er von A entfernt ist, denn zu der Geschwindigkeit c addiert sich die Expansionsgeschwindigkeit des Raums. Wenn das Licht schließlich die Milchstraße erreicht, dann nähert es sich der Milchstraße mit c, die selbst aus Sicht von A mit 1,5 c unterwegs ist (genau so schnell, wie A sich aus Sicht der Milchtstraße entfernt). Damit bewegt es sich aus Sicht von A mit 2,5c auf die Milchstraße zu. Und deswegen holt es die Milchstraße ein.

    In einem Universum ohne Dunkle Energie überwindet das Licht irgendwann jede Entfernung und H(t) fällt gegen 0. In einem Universum mit Dunkler Energie ist das nicht so. H(t) konvergiert gegen einen Wert > 0 und die Galaxien werden immer schneller, statt sich mit konstanter Geschwindigkeit voneinander zu entfernen. In so einem Universum gibt es einen Horizont, jenseits dessen uns Licht nicht mehr erreichen wird, egal wie lange wir warten.

    Dies auszuführen ist auf jeden Fall einen Artikel wert, den ich ehrlich gesagt schon vor Jahren mal als Idee für den Blogschreibwettbewerb im Kopf hatte. Der kommt demnächst. Aber als nächstes kommt ein anderes Thema, das schon 4 Wochen in der Schublade liegt.

  16. #16 Zhar
    31. März 2019

    @Alderamin
    Zu aller erst einmal eine Klarrstellung
    “Sorry für die späte Antwort, hatte viel Arbeit gestern und die Antwort ist nicht ganz einfach.”
    Ich sehe mich hier nun wirklich nicht in einer Position wo ich etwas einfordern könnte oder gar wollte, also keine Entschuldigung nötig, ich bin dankbar für jedes Geschenk eines Artikels und einer Antwort, reinster Luxus hier.
    und Danke auch für die Mühe und Arbeit der zwei Kommentare, die ich leider noch nicht in Ruhe durchdenken konnte, muss an der Zeitumstellung liegen, als wäre das Wochenende nicht schon kurz genug 😉 wird aber ganz sicher nachgeholt, danke nochmals.

  17. #17 Captain E.
    1. April 2019

    Licht, das quasi-überlichtschnell ist, weil es durch den expandierenden Raum mitgezogen wird? In welch absurdem Universum wir doch leben!

  18. #18 Alderamin
    1. April 2019

    @Captain E.

    Eigentlich ist das “Mitgezogenwerden” nur ein scheinbarer Effekt – was wirklich passiert, ist dass der Raum zwischen dem Beobachter und dem ausgesendeten Licht wächst; umso schneller, je weiter das Licht schon weg ist. Der Beobachter sieht sich dann in Ruhe, die ferne Galaxie sieht er wegen der Expansion weglaufen und das Licht sieht er (theoretisch) mit zunehmendem Boost weglaufen. Dabei ist das Licht immer gleich schnell, die ferne Galaxie in Ruhe und nur der Raum streckt sich zwischen den dreien.

    Da kann man schon einen Knoten im Kopf bekommen. Wird garantiert ein Artikel, bald!

  19. #19 Karl Mistelberger
    mistelberger.net
    1. April 2019

    > Da kann man schon einen Knoten im Kopf bekommen. Wird garantiert ein Artikel, bald!

    Kommt da jetzt: Big Bang Cosmology V 3.0?

    http://sten.astronomycafe.net/our-unstable-universe/

  20. #20 Captain E.
    1. April 2019

    @Alderamin:

    Auch als scheinbarer Effekt bleibt das alles hochgradig absurd. Da könnte man frommen Menschen entgegen rufen: “Dieses Universum lässt einen geradezu hoffen, dass es keinen Gott gibt. Denn welcher Gott konstruiert etwas dermaßen absurdes? Wer will mit so einem überhaupt leben müssen?”

  21. #21 Alderamin
    1. April 2019

    @Karl Mistelberger

    Bei mir kommt erst mal nur 1.0. Wobei die derzeitige Diskussion gemäß der Systematik in dem von Dir verlinkten Artikel schon auf 4.0 zugeht (variable Dunkle Energie aka Quintessenz).