Schnitt durch die SDSS-Galaxiendurchmusterung. Der Schallhorizont (s.u.) aus den Baryonischen Akustischen Oszillationen ist als blauer Kreis um zwei Orte gelegt - die Galaxien häufen sich entlang dieses Horizonts. Bild: M. Blanton and SDSS, gemeinfrei. Kreise vom Autor eingezeichnet.

Nein, diesmal geht es nicht um das gleichnamige Teleskop, sondern die Hubble-Konstante. Die Kosmologie hat seit ein paar Jahren ein Problem. Sie bekommt die Expansionsraten des Universums aus Nah- und Fernmessungen nicht unter einen Hut. Gibt es dafür vielleicht eine simple Erklärung?

 

Die zeitlich variable Konstante

Bekanntlich expandiert das Universum mit einer bestimmten Rate, der Hubble-Konstanten1, oft abgekürzt als H0. In astronomischen Standardeinheiten gibt sie an, um wieviele Kilometer eine Referenzstrecke von 1 Mpc (Megaparsec = 3,26 Millionen Lichtjahre, ungefähr 1,3-mal die Strecke zur Andromedagalaxie) derzeit pro Sekunde anwächst (Kilometer pro Sekunde und Megaparsec oder kurz km s-1 Mpc-1). Dieser Wert ist extrem wichtig für das Verständnis der Urknall-Kosmologie, aus ihm folgt zum Beispiel das Weltalter und die Entfernung von Galaxien in Abhängigkeit von der Rotverschiebung ihres Lichts.

Seit der Entdeckung der kosmischen Expansion durch Edwin Hubble und Georges Lemaître versucht man, den Wert von H0 zu bestimmen. Die Standardmethode beruht darauf, gleichzeitig die Entfernung eines kosmologischen Objekts und seine Rotverschiebung zu messen, d.h. die scheinbare Geschwindigkeit, mit der es sich von uns aufgrund der kosmologischen Expansion zu entfernen scheint – tatsächlich ruht das Objekt lokal an seinem Ort wie auch die Milchstraße das tut (bis auf Bewegungen im Gravitationsfeld der umgebenden Galaxien). Tatsächlich wächst die Strecke zwischen dem Objekt und der Milchstraße durch die Raumexpansion stetig, und um den gleichen Faktor wächst auch die Wellenlänge des Lichts, das über diese Strecke bis zu uns gelaufen ist, und das sieht dann genau so aus, als ob die Galaxie sich von uns entfernte und die Rotverschiebung ein Dopplereffekt wäre. Ist sie aber nicht.

 

Im Schein der Standardkerzen

Die Rotverschiebung ist leicht anhand der beobachteten Wellenlängen der Wasserstoff-Spektrallinien im Vergleich zu deren Laborwerten zu messen. Für die Entfernungsmessung benutzt man “Standardkerzen”, das sind Sterne bekannter Leuchtkraft: Cepheiden in benachbarten Galaxien bis ca. 1 Mpc und Supernovae vom Typ Ia bis zur Rotverschiebung z von 1,3 (entsprechend einer Lichtlaufzeitentfernung von ungefähr 8,5 Milliarden Jahren und einer mitbewegten Entfernung von 12,5 Milliarden Lichtjahren). Unter Berücksichtigung der Expansionsgeschichte des Universums, die vom Anteil der Dunklen Energie und der Dichte der Materie (dunkle und baryonische) bestimmt wird und die aus der Allgemeinen Relativitätstheorie abgeleitet werden kann (Friedmann-Gleichung), kann man trotz der sich über die lange Lichtlaufzeit ändernden Hubble-Expansion den Wert des heutigen H0 errechnen. Es ergibt sich ein in immer engere Fehlerintervalle eingeschnürter Wert von mittlerweile (Hubble-Weltraumteleskop und Gaia DR2, April 2018) 73,52±1,62 km s-1 Mpc-1.

Verschiedene Messungen der Hubble-Konstanten über die Jahre. In jüngerer Zeit ergeben sich zwei Werte mit engen Fehlerbalken, die nicht vereinbar sind. Bild: Kintpuash, Wikimedia Commons, gemeinfrei.

 

Die ultimative Heldin der niedrigsten Frequenzen

Der Wert von H0 lässt sich aber auch völlig anders bestimmen: aus der kosmischen Hintergrundstrahlung. Diese Hintergrundstrahlung zeigt uns den Feuerballs des heißen Wasserstoff-Helium-Plasmas, das nach dem Urknall den Raum erfüllte und durch die Expansion des Universums immer weiter verdünnt wurde und dadurch abkühlte. In einem Plasma sind die Teilchen so heiß und kollidieren deswegen so heftig miteinander, dass die Atome Elektronen verlieren, die sich frei bewegen können und jedes vorbeikommende Photon absorbieren oder streuen. Deswegen sind Plasmen undurchsichtig. Wer eines sehen will, braucht sich nur die Sonnenoberfläche (Photosphäre) anzuschauen: Ein Wasserstoff-Helium-Plasma bei 5800 K. Wenn ein Plasma abkühlt, können die Atome die Elektronen wieder einfangen (Rekombination) und dann können sie nur noch mit Licht bestimmter Frequenzen interagieren – so entstehen dann Absorptionslinien, z.B. in den kühleren Schichten der oberen Sonnenatmosphäre, der Chromosphäre, die ansonsten transparent ist.

Durch die Expansion kühlte das Plasma des Urknalls nach rund 380.000 Jahren2 unter 3000K ab, dass es transparent wurde, und von da an konnte Licht sich geradlinig ausbreiten, so dass es uns heute noch erreicht. Wir sehen in der Hintergrundstrahlung also den Rand des Feuerballs. Allerdings um den Faktor 1100 rotverschoben bis in den Radiowellenbereich. Ihre heutige Temperatur beträgt demgemäß nur noch 3000K/1100 = 2,73K.

Das Gas war damals noch dicht genug, Druckwellen (mit anderem Wort: Schall) zu transportieren. Wenn nun irgendwo die Materiedichte etwas höher als anderswo war, zog die Schwerkraft umgebende Materie (baryonische und dunkle) dorthin und sorgte für eine Kompression und damit Aufheizung des baryonischen Gases, was wiederum den Strahlungsdruck dort erhöhte, der das Gas wieder auseinander trieb. Auf diese Weise kam es zu Schwingungen im Plasma, den sogenannten Akustischen Baryonischen Oszillationen (BAOs), die sich als Dichteschwankungen mit 60% der Lichtgeschwindigkeit ausbreiteten. Die sich ausbreitende Strahlung zog wegen ihrer Kopplung an die baryonischen Materie das Plasma so lange teilweise mit sich mit, bis es transparent wurde, und ließ es dann verdichtet und aufgeheizt in kugelförmigen Schalen um die ursprünglichen Quellen zurück. Man kann ausrechnen, dass der Radius dieser Schalen in der Hintergrundstrahlung etwa 220.000 Lichtjahren entsprechen muss (dem sogenannten Schallhorizont oder Sound Horizon in der Hintergrundstrahlung).

Winkel-Leistungsspektrum der kosmischen Hintergrundstrahlung. Das Diagramm gibt an, in welchen Winkelabständen (obere x-Achse) Temperaturmaxima in der Hintergrundstrahlung auftreten. Die Spitze (first peak) zeigt an, wie weit Baryonische Akustische Oszillationen sich in der Hintergrundstrahlung ausbreiten konnten. Die weiteren Spitzen sind Schwingungen höherer Ordnung, die ebenfalls auftreten. Bild: Silvestri & Trodden, “Approaches to Understanding Cosmic Acceleration”, arXiv, gemeinfrei.

Damit hat man hat ein Standardlineal, eine Strecke bekannter Größe in der Hintergrundstrahlung. Der europäische Satellit PLANCK hat von 2009 bis 2013 den kosmischen Mikrowellenhintergrund mit großer Auflösung vermessen. Aus dem maximalen Winkeldurchmesser der Strukturen in der kosmischen Hintergrundstrahlung (etwa 1°), den man durch eine Fourieranalyse der räumlichen Temperaturverteilung in der Hintergrundstrahlung ermitteln kann (Leistungsspektrum der Hintergrundstrahlung, siehe Bild oben), folgt dann auch ein Wert für H0: 67,66±0,42 km s-1 Mpc-1.

 

Bleibenden Eindruck hinterlassen

Eine dritte Methode liefert das Muster, das die BAOs in der großräumigen Struktur des Universums hinterlassen haben. Aus dem Muster von zentral verdichteter Dunkler Materie und schalenförmig verdichteter baryonischer Materie entstanden Galaxien, die es heute noch erkennen lassen. Bis zum heutigen Tag sind die Schalen durch die kosmische Expansion auf ca. 150 Mpc Durchmesser angewachsen. Mit der Galaxiendurchmusterung des Sloane Digital Sky Survey (SDSS), der für ca. 1,5 Millionen Galaxien Ort und Entfernung und damit deren räumliche Anordnung bestimmte, ließ sich auch im heutigen Universum mit statistischen Methoden der Schallhorizont identifizieren (Artikelbild). Das zugehörige Projekt nannte sich BOSS (Baryonic Oscillation Spectroscopic Survey). Aus ihm ergab sich ein Wert von H0: 67,6±0,7 km s-1 Mpc-1.

Diese Ergebnisse passen im Rahmen der Fehlerbalken beim besten Willen nicht zusammen. Die Abweichung, im Mittelwert von 5,8 km s-1 Mpc-1, beträgt statistisch betrachtet 3,4σ – eine nur 0,03-prozentige Wahrscheinlichkeit, dass diese Abweichung zufällig ist. Anfangs (2013) schob man das Ergebnis aus der Hintergrundstrahlung von PLANCK noch auf irgendeinen systematischen Fehler, weil man den Messungen der Standardkerzen mehr traute, aber durch die BOSS-Messungen 2016 wurde das Ergebnis weiter gestützt. Nun ist man auf der Suche nach Auswegen aus dem Dilemma.

 

Leben in der großen Leere

2013 schlossen Ryan Keenan, Amy Barger und Lennox Cowie aus den Galaxienzahlen im lokalen Universum [1], dass die Milchstraße, die Lokale Gruppe und sogar ein großer Teil des Laniakea-Superhaufens sich innerhalb eines Voids, also eines der Leerräume, den die BAOs hinterlassen haben, befinden soll, genannt Large Local Void (LLV), oder manchmal nach den Anfangsbuchstaben der Autorennamen KBC-Void. Voids sind nicht wirklich leer, in ihnen ist die Galaxiendichte jedoch nur 10%-20% so hoch wie in den sie begrenzenden Filamenten. Der LLV soll 1,5 Milliarden Lichtjahre durchmessen (bis zu einer Rotverschiebung von z=0,07), deutlich mehr als die üblichen Voids, die durch den Schallhorizont von 450 Millionen Lichtjahren Durchmesser begrenzt sind. Und die mittlere Dichte der leuchtenden Materie soll nur um 30% geringer sein als jenseits des mutmaßlichen Voids, der damit streng genommen nur eine unterdichte Region wäre.

Der Effekt wäre dann folgender: Die kosmische Expansion unterliegt der wechselseitigen Anziehung der Materie einerseits, die einen bremsenden Effekt hat, und der Dunklen Energie andererseits, die die Expansion beschleunigt. Ist nun im Void die Materiedichte um 30% kleiner, dann bremst die Materiedichte die Expansion innerhalb des LLV weniger ab als außerhalb und die Hubble-Konstante wäre ein wenig größer. Im folgenden Bild haben Hoscheit und Barger 2018 [2] den Effekt durchgerechnet:

Abweichung der Hubble-Konstanten innerhalb (links) und außerhalb (rechts) des mutmaßlichen Large Local Voids, der bei einer Rotverschiebung (entsprechend der Entfernung) von z=0,07 enden soll. Die y-Achse zeigt die Abweichung vom außerhalb des LLV geltenden Werts für H0 in km s-1 Mpc-1 an. Die durchgezogenen schwarzen Linien entsprechen den mittleren Werten einer von den Autoren zitierten Messung von Supernovae aus einer anderen Arbeit, mit 68% (1σ) Fehlerbereichen in gelb. Die orangefarbene Linie entspricht der von den Autoren vorgeschlagenen um 30% verringerten Materiedichte innerhalb des LLV. Damit kann eine Vergrößerung der Hubble-Konstanten innerhalb des LLV von rund 2 km s-1 Mpc-1 erklärt werden – aber nicht die gesamte Diskrepanz zu den Werten aus der Hintergrundstrahlung von ca. 5,8 km s-1 Mpc-1. Bild: [2], arXiv, gemeinfrei.

Wie man dem Bildtext entnimmt, können die Autoren mit der Annahme einer geringeren Dichte rund 2 der 5,8 km s-1 Mpc-1 Unterschied der H0-Messungen erklären und damit die Abweichung von 3,4σ (0,03% Zufallswahrscheinlichkeit) auf 2,75σ (0,3%) senken. Die Idee ist qualitativ gut, aber quantitativ scheint sie mir nicht gänzlich überzeugend zu sein.

 

Quasare und Sirenen

Spannend wäre zu wissen, was die Rotverschiebung zwischen der kosmischen Hintergrundstrahlung bei z≈1100 und den fernsten Supernova-Messungen bei z=1,3 angestellt hat. Zwei Ansätze werden derzeit verfolgt, um genau dies herauszufinden. Der erste Ansatz stützt sich auf mit Gravitationswellendetektoren (LIGO und VIRGO) beobachteten Gravitationswellen von verschmelzenden Schwarzen Löchern. Aus der Beobachtung der Umlauffrequenz bei der Annäherung der Schwarzen Löcher lässt sich deren Masse bestimmen, aus der die intrinsische oder “wahre Gravitationswellenleuchtkraft” folgt, also wieviel Leistung in Form von Gravitationswellen abgestrahlt wird. Aus der auf der Erde beobachteten Amplitude der Welle folgt wiederum ihre “scheinbare Helligkeit”, wie man sie analog von Sternhelligkeiten kennt. Daraus lässt sich die Entfernung berechnen. Man hat auch schon einen Namen für diese Methode geprägt: Standardsirenen.

Leider ist die Methode noch ziemlich ungenau. Bis jetzt gibt es nur zwei gelungene Messungen, eine vom 16. Oktober 2017 von der berühmten Neutronensternverschmelzung GW170817 mit H0= 70,0 +12/-8 km s-1 Mpc-1 für eine sehr nahe Galaxie (ca. 41 Mpc) und eine vom 6. Januar 2019 mit 75,2 +39,5/-32,4 km s-1 Mpc-1 für ein Ereignis in einer Entfernung von 540 Mpc (1,8 Milliarden Lichtjahre). Ja, ca. ±35, das ist nicht gerade genau. LIGO wurde gerade wieder aufgerüstet und soll Anfang dieses Jahres mit der dritten Messkampagne loslegen, während in Indien ein vierter empfindlicher Detektor im Bau ist. Mit mehr Geräten und wesentlich mehr beobachteten Verschmelzungen wird die Genauigkeit und die Reichweite der Messungen zunehmen. Wenn man ein paar hundert gemessen hat, werden die Ergebnisse statistisch signifikant werden und die Fehlerbalken klein genug sein, um gute Werte abzulesen.

Der zweite Ansatz beruht auf Quasaren als Standardkerzen. Quasare sind die Kerne junger, aktiver Galaxien in der Frühphase des Universums. In ihnen verschlingt ein supermassereiches Schwarzes Loch so viel Materie, dass die Akkretionsscheibe um das Schwarze Loch die Galaxie vollkommen überstrahlt, so dass sie selbst neben dem grell leuchtenden Monstrum in ihrem Inneren gar nicht mehr zu sehen ist. Daher auch der Name Quasar, abgeleitet von quasistellar (also punktförmig, wie ein Stern, im Gegensatz zu flächigen, nebelartigen Galaxien) und Radioquelle (Quasare wurden zuerst mit Radioteleskopen entdeckt; am Ort der Quelle fand sich dann nur ein “Stern”). 2015 haben die Italiener Guido Risaliti und Elisabeta Russo eine Beziehung zwischen der UV- und Röntgenleuchtkraft der Quasare entdeckt: wenn ein Quasar heller leuchtet, dann steigt die UV-Leuchtkraft schneller an, als die Röntgenleuchtkraft. Mit zunehmender Entfernung ändert sich das Verhältnis der beiden aber nicht, beide sinken mit zunehmender Entfernung um den gleichen Faktor. Also kann man aus den beobachteten UV- und Röntgen-Helligkeiten der Quasare auf ihre Leuchtkraft und somit ihre Entfernung schließen. Ebendies taten die zuvor genannten Autoren in einer brandneuen Arbeit vom 28. Januar 2019 für nicht weniger als 1600 Quasare zwischen z>0,04 und z<5,1 [3]. Mit folgendem Ergebnis:

Entfernungsmessungen über der Rotverschiebung. Die y-Achse gibt den Entfernungsmodul an, d.h. die Differenz aus absoluter und scheinbarer Helligkeit in Größenklassen, entsprechend der Leuchtkraftentfernung (unter diesem Link findet sich ein ähnliches Bild). Die x-Achse oben gibt die Rotverschiebung als Entfernungsmaß, die Achse unten das zugehörige Weltalter an (die Lichtlaufzeit ergibt sich also aus 13,5 Milliarden Jahren minus dem Wert auf der x-Achse in Milliarden Jahren). Die gelben Punkte sind die gemessenen 1600 Quasare. Die roten Punkte sind für gleiche Rotverschiebung gemittelte Quasarwerte mit Fehlerbalken. Türkisfarbene Punkte sind frühere Supernovamessungen bis z=1,3. Blaue Sterne sind neue Quasar-Messungen des Röntgensatelliten XMM-Newton. Die violett gestrichelte Linie gibt das aus den Supernova-Werten für ein Universum mit konstanter Dunkler Energie extrapolierte ΛCDM-Modell an. Die schwarze Kurve gibt eine bessere Näherung der Daten an – mit variabler Dunkler Energie. Bild: Courtesy of Elisabeta Lusso & Guido Risaliti (2019), ESA, ESA Standardlizenz.

Die gelben Quasarmessungen streuen gewaltig, aber mittelt man sie für gleiche Rotverschiebungen, dann erhält man die roten Kreise mit den kleinen Fehlerbalken. Die Messungen für kleine z geben genau den Verlauf der Kurve wieder, der auch aus den Supernovamessungen (türkisfarben) folgt. Extrapoliert man aus diesem Teil des Graphen bis z=1,3 den weiteren Verlauf gemäß dem Standard-Kosmologiemodell ΛCDM mit zeitlicher konstanter Dunkler Energie Λ (und kalter Dunkler Materie, Cold Dark Matter, CDM), dann ergäbe sich der violett gestrichelte Verlauf. Besser zu den Daten passt aber eine andere Kurve, bei der die Dunkle Energie sich zeitlich geändert haben muss. Damit würde  sich natürlich dann auch erklären, warum die Hubble-Konstante sich geändert zu haben scheint, denn die schwarze Kurve zeigt eine geringere Dunkle Energie im frühen Universum an.

Dummerweise wissen wir noch nicht, was die Dunkle Energie eigentlich ist – bisher glaubte man zumindest zu wissen, dass sie eine intrinsische Eigenschaft des Vakuums ist, die räumlich und zeitlich unverändert bleibt. Warum sich diese Eigenschaft dann auch noch mit der Zeit ändern sollte, ist vollkommen rätselhaft. Würde aber erklären, warum PLANCK und BOSS auf einen anderen Wert der Hubble-Konstante kommen als Supernova-Messungen im lokalen Universum, ganz ohne Void. Durch genau solche Beobachtungen kam die Physik bislang immer wieder voran. Der Ball geht nun an die Theoretiker.

 

Referenzen und weiterführende Quellen

[1] R. C. Keenan, A. J. Barger, L. L.Cowie, “Evidence for a ~300 Mpc Scale Under-density in the Local Galaxy Distribution“, The Astrophysics Journal Vol. 775, Nr. 1, 5. September 2013 arXiv:1304.2884.

[2] Benjamin L. Hoscheit, Amy J. Barger, “The KBC Void: Consistency with Supernovae Type Ia and the Kinematic SZ Effect in a ΛLTB Model“, The Astrophysics Journal Vol. 854, Nr. 1, S. 46, 9. Februar 2018; arXiv:1801.01890.

[3] Guido Risaliti & Elisabeta Russo, “Cosmological constraints from the Hubble diagram of quasars at high redshifts“, Nature Astronomy, 28.01.2019; arXiv:1811.02590.

[4] en.wikipedia.org, Hubble’s Law (mit Messungen).

[5] Elizabeth Howell, “We Live in a Cosmic Void, Another Study Confirms“, Space.com, 14. Juni 2017.

[6] Monica Young, “Does the Milky Way Live in a Void?“, Sky & Telescope, 21. Juni 2017.

[7] Jim Daley, “The Universe’s Fate Rests on the Hubble Constant—Which Has So Far Eluded Astronomers“, Scientific American, 30. Januar 2019.

[8] Markus Bauer, “Active Galaxies Point to News Physics of Cosmic Expansion“, ESA Space Science, 28. Januar 2019.

[9] Wayne Hu, “Ringing in the New Cosmology – Intermediate Guide to the Acoustic Peaks and Polarization“, Chicago, 2001.

1 Die Expansionsrate ist zeitlich variabel, man spricht vom Hubble-Parameter H(t) zum Weltalter t, aber räumlich konstant: das ganze Universum expandiert zu einem gegebenen Alter überall mit der gleichen Rate. Der heutige Wert des Hubble-Parameters ist die Hubble-Konstante H0.

2 Der Wert berechnet sich aus dem Alter des Universums und der Rotverschiebung von ca. 1089, die wiederum aus dem Vergleich der heutigen Temperatur der Hintergrundstrahlung von 2,73 K und der zur Transparenz des Plasmas nötigen Temperatur von höchstens 3000 K folgt. Mit der Friedmann-Gleichung kommt man auf ein Weltalter von 380.000 Jahren für diese Rotverschiebung.

Kommentare (68)

  1. #1 Alderamin
    3. Februar 2019

    Das war jetzt übrigens Artikel Nr. 100 in diesem Blog.

    Ich bitte die lange Pause zum letzten Artikel zu entschuldigen, hatte viel zu tun. Ab jetzt wieder mehr Zeit zum Schreiben.

  2. #2 bote19
    3. Februar 2019

    In den meisten Fällen ist es ein fehlender Parameter, der die Differenz zwischen dem gemessenen Ergebnis und dem errechneten Ergebnis verursacht.
    Eine Plattitüde, ich weiß, aber noch besser, als ein ganzes Konzept infrage zustellen.

  3. #3 Karl-Heinz
    3. Februar 2019

    Eine Sirene ist in der griechischen Mythologie ein weibliches Fabelwesen (Mischwesen aus ursprünglich Frau und Vogel, später auch Frau und Fisch), das durch seinen betörenden Gesang die vorbeifahrenden Schiffer anlockt, um sie zu töten.

    Ich liebe die Standardsirenen (neue Art von Standardkerze), denn sie chirpen so schön. 😉

  4. #4 Karl-Heinz
    3. Februar 2019

    @bote19

    Ich verstehe. Systematische Messabweichung durch eine verborgene Variable. 😉

  5. #5 spacefan
    3. Februar 2019

    Man sollte sich wohl unsere 4 dimensionale Wahrnehmung der Raumzeit von außen betrachten. Der Urknall erfolgte aus einer inversen Raumzeitkrümmung in vermutlich übergeordneten Dimensionen. Unsere Zeit begann und verging dort wegen dieser Krümmung extrem langsam. Daraus die Entwicklung unseres Universums am besten mit einer sich immer schneller aufblähenden und damit entspannenden Seifenblase vergleichen, die allerdings eine gewisse, regional sehr unterschiedliche Dicke hat, die allgemein immer dünner wird. Die Oberfläche samt Dicke ist unsere Raumzeit. Wo innen nichts mehr ist, da ist die Vergangenheit. Wo sich Ruhemasse anreichert, ist die dadurch dickere Oberfläche holprig, wird aber ebenfalls dünner, was Nachbarn mit an- und reinzieht. In den Krümmungsbereichen verläuft die Zeit je nach Holprigkeit unterschiedlich, relativ zueinander langsamer als in einheitlich flachen Bereichen. Dunkle Materie ist Vormaterie mit Ruhemasse, die nicht zu Teilchen aggregieren kann und massiv zur Filamentbildung von Materieanreicherungen beiträgt. Wo wenig Materie bzw. Masse vorliegt, entkrümmt sich die dort dünnere Seifenblasenoberfläche umso schneller, was sie eben holprig macht. Ihre Gesamtoberfläche wird immer größer, immer schneller immmer flacher, womit die Zeit allgemein immer schneller verläuft. Nichts zwingt sie zur Krümmung. Alles will ihre Entkrümmung, die nur durch die Materieanreicherungen galaktischer Filamente etwas behindert wird. Gleichzeitigkeit ist relativ. Die Oberfläche immer schneller immer größer und sie zunehmend flacher machende Entkrümmung nennen wir dunkle Energie. Das ist die Wirkung der aus dem Urknall resultierenden Krümmungsenergie. Damit kann es darauf hinauslaufen: bei immer schneller verlaufender Zeit entkrümmt sich letztlich alles bis hin zu den letzten schwarzen Löchern. Man könnte es letztlich als Zerplatzen der Raumzeitblase auffassen, deren Fetzen sich auflösen. Was da dann war, dürfte wieder in übergeordneten Dimensionen neu angeordnet werden. Einfacher lässt es sich vermutlich nicht erklären, wobei alles zu unseren Erkenntnissen passt. Damit ist auch klar, es kann unendlich viele Universen mit jeweils eigener Zeit geben, die sogar interagieren könnten. Die jeweilige Raumzeit ist völlig lokal.

  6. #6 Karl-Heinz
    3. Februar 2019

    @spacefan

    Interessant, was sich manche da so ausdenken, würde Commander Spock sagen. 😉

  7. #7 Mars
    3. Februar 2019

    @Alderamin

    ich weiß nicht ob ich dir, oder besser uns Lesern gratulieren darf, jemanden zu finden, der sich als Kommentator zu einem so faszinierenden Blogger hier entwickelt hat.
    Ich muss zugeben, die Ausführungen deiner Beiträge erreichen oftmals meinen Wissenshorizont, spornen mich aber genau deshalb auch immer wieder an, noch ein wenig weiter zu schauen oder das eine oder andere nachzulesen.
    Das Ausarbeiten der Themen in seiner Tiefe zusammen mit einer wohlgefeilten und doch verständlichen Sprache … kommt bei mir einfach super an.

    Natürlich gratulier ich dir zum 100. Beitrag, und freue mich, irgendwann den 200. oder 300. zu lesen.

    ich bin gerne weiter dabei.
    Mars

  8. #8 MartinB
    3. Februar 2019

    Toll, aber das hier ist meiner Ansicht nach falsch herum:
    “Die Abweichung, im Mittelwert von 5,8 km s-1 Mpc-1, beträgt statistisch betrachtet 3,4 σ – eine nur 0,03-prozentige Wahrscheinlichkeit, dass diese Abweichung zufällig ist.”
    Die Wahrscheinlichkeit, dass man zufällig eine Abweichung von 3,4 sigma beobachtet, wenn keine weiteren Effekte vorliegen, ist 0,03%. Das bedeutet aber nicht die Umkehrung, dass eine Abweichung von 3,4 sigma zu 99,97% auf einen anderen Effekt zurückzuführen ist. Das kann man schlicht nicht wissen.

  9. #9 MartinB
    3. Februar 2019

    @Mars
    Gratulieren musst du natürlich *mir* – ich habe so lange genervt, bis Alderamin sich entschlossen hatte, dass Bloggen weniger anstrengend ist als mein Gequengel. (Ja, genau so war es – alles andere sind fake news…)

  10. #10 rolak
    3. Februar 2019

    Uih^^, so schnell kann das gehn… Glückwunsch zur Dreistelligkeit und die Daumen sind gedrückt für die nächste Größenordnung ;•)

  11. #11 Alderamin
    3. Februar 2019

    @Mars & rolak

    🙂

    @MartinB

    Kommt doch darauf an, wie herum die Aussage betrachtet wird. Die W’keit, dass beide Werte zufällige Abweichungen vom selben Wert sind, ist klein. Mit großer W’keit sind es zwei verschiedene Werte.

  12. #12 MartinB
    3. Februar 2019

    @Alderamin
    Zu sagen, dass die Wahrscheinlichkeit, dass das zufällig passiert, 0,03% ist, ist zwar richtig, aber die suggerierte Umkehrschluss (mit 99,97% Wahrscheinlichkeit ist es ein echter Effekt) gilt eben nicht. Aber du hast recht – das, was da steht, ist für sich genommen nicht falsch.

  13. #13 Karl-Heinz
    3. Februar 2019

    @MartinB

    Hat das etwas mit der bedingten Wahrscheinlichkeit zu tun?
    Beispiel: Labortest stellt zu 97% Wahrscheinlichkeit aus der Gruppe der kranken Patienten die richtige Diagnose. 1 % aller Leute leiden an der Krankheit. Wie groß ist jetzt die Wahrscheinlichkeit, dass der Test jetzt das richtige Ergebnis voraussagt?

    Wenn man aber nicht weiß, wie viele an der Krankheit leiden, dann kann man meiner Meinung gar keine Wahrscheinlichkeit bezüglich des Tests angeben.

  14. #14 MartinB
    3. Februar 2019

    @Karl-Heinz
    Genau darauf wollte ich hinaus. Ich illustriere das immer gern so: Nehmen wir an, ich hätte ein Diagnoseverfahren, dass die marsianische Grippe zu 99,99% korrekt diagnostiziert. Wenn ich jetzt bei dir die Krankheit diagnostiziere, wissen wir trotzdem, beide, dass die Diagnose falsch ist, weil es die Krankheit ja gar nicht gibt…..

  15. #15 Karl-Heinz
    3. Februar 2019

    @MartinB

    Ja, dann ist der Titel „Hubble in Trouble“ ein bisschen irreführend, wenn es um die Hubble-Konstante geht. Der Artikel ist aber voll toll.
    Danke für den Hinweis. 😉

  16. #16 Bbr
    3. Februar 2019

    Moment, es gibt doch nur 2 Möglichkeit: Entweder das Ergebnis ist Zufall, oder es ist ein physikalischer Effekt. Also liegt tatsächlich die Wahrscheinlichkeit von 99,97 % vor, dass es ein physikalischer Effekt ist. Aber es ist eben nicht zwangsläufig der Effekt, nach dem man sucht. Es kann auch was anderes sein, woran man nicht gedacht hat.

    Oder sehe ich da was falsch?

  17. #17 Wizzy
    3. Februar 2019

    @Bbr
    Ich sehe das so wie Du Bbr (mal schauen ob meine Ansicht Martins Antwort überlebt 😉 mit dem Unterschied dass der Effekt auch nicht-physikalisch sein kann, z.B. ein technischer oder Auswertungs-Fehler.

  18. #18 Alderamin
    3. Februar 2019

    @Bbr

    So sehe ich das auch. Entweder sind das Streuungen desselben Werts – dann liegen sie aber so weit auseinander, dass das nur selten vorkommen dürfte, die W’keit p ist klein. Oder eben nicht, das ist dann 1-p, groß. Mit was soll die Aussage bedingt sein?

  19. #19 Karl-Heinz
    3. Februar 2019

    @Wizzy und Bbr

    Stellt euch zwei Personen Alice und Bob vor, die gegeneinander beim Laufwettbewerb antreten. Im Schnitt läuft Alice um 0,01 Sekunden schneller als Alice. Ich bin mir sicher, dass die Mathematiker dann wie aus der Pistole sagen, Alice ist mit einer Wahrscheinlichkeit von ??? besser als Bob. Ich hake natürlich sofort nach und komme drauf, dass man zwei unterschiedliche nicht geeichte Messsystem verwendet hat. Ich sage dann. Ja, bei den beiden Messungen hat es mit einer bestimmten Wahrscheinlichkeit bei der Messung eine Differenz im Mittelwert gegeben, die nicht zufällig ist. Da ich nicht weiß, ob nicht doch ein Gangunterschied (systematischer Fehler) bei den beiden Messsystemen (Uhren) vorliegt, kann ich keine Aussage machen,wer nun besser war.

    @Alderamin
    Habe ich da irgendeinen Gedankenfehler?

  20. #20 Krypto
    3. Februar 2019

    Gratulation auch von mir, Alderamin!
    Im Prinzip liegen mit einer Wahrscheinlichkeit von 99,97% entweder ein oder mehrere unerkannte Fehler im Mess- bzw. Analysesystem vor, oder unbekannte Physik.

  21. #21 Krypto
    4. Februar 2019

    test, sorry, Kommentare gehen nicht durch

  22. #22 Alderamin
    4. Februar 2019

    @Karl-Heinz

    Ja, systematische Fehler streuen natürlich nicht zufällig. Aber bei diesen Sigma-Angaben nimmt man ja immer an, dass die Streuung der Messwerte zufällig sei. Und normalverteilt. Wie die Verteilung wirklich ist, weiß man ohne zigfache Wiederholung nicht, und systematische Fehler kann man nur durch fortwährende Checks identifizieren – bei PLANCK dachte man zuerst ja auch an einen systematischen Fehler, denn WMAP lag mit seiner Messung näher am Wert der Supernovae, der damals auch weiter streute (siehe 2. Bild oben).

    Wenn nun aber BOSS dasselbe Ergebnis ausspuckt, dann ist es schon recht unwahrscheinlich, dass ein systematischer Fehler vorliegt, denn die Messmethode könnte unterschiedlicher nicht sein. Dann deutet das eher auf einen tatsächlichen Effekt hin, der aber nicht durch eine Streuung zufälliger Messwerte erklärt werden kann, denn dafür liegen die beiden Werte zu weit auseinander. Die Wahrscheinlichkeit, dass die Abweichung ein zufälliger Messfehler ist, ist (unter angenommener Normalverteilung) 0,03%, das ist nicht Null und wäre bei den Teilchenphysikern noch keine Entdeckung, aber in der Astronomie ist das eine große Signifikanz, wo man normalerweise froh ist, wenn man die richtige Größenordung einer Größe bestimmt hat. Das kann man nicht einfach ignorieren. Letztlich geht es genau darum, der Zahlenwert, ob 0,03% oder 0,06% oder 0,3%, spielt letztlich keine Rolle, er ist jedenfalls sehr klein.

    Es gab übrigens noch ein weiteres Paper, das ich wegen der Länge des Textes nicht mehr behandelt habe, da haben ein paar Astronomen das Pferd anders herum aufgezäumt und die Supernovae einfach an den BOSS-Daten kalibriert, statt an den Cepheiden, und dann passte alles prima bei 66,6 km s-1 Mpc-1. Allerdings wäre dann die ganze Theorie und Kalibrierung der Cepheiden für die Katze. Aber vielleicht ist sie das ja sogar. Das wäre dann auch eine mögliche Erklärung.

  23. #23 Alderamin
    4. Februar 2019

    @Krypto

    Dauert wohl nur etwas länger, oder vermisst Du außer #20 noch was anderes? Im Spam oder Trash war nix.

  24. #24 tomtoo
    4. Februar 2019

    Ja, Chef?
    Also Chef zu 99,7% sind wir uns sicher das irgent etwas nicht stimmt.
    Ja, Chef?
    Nö, Chef was nicht stimmt wissen wir auch nicht.
    Ja, Chef?
    Kündigung??? Aber Chef zu 0,3 Prozent könnte ja auch alles stimmen?

    Nur Spass ; )

  25. #25 Karl-Heinz
    4. Februar 2019

    @Alderamin

    Schön langsam verstehe ich worauf du hinaus willst. Diskrepanzen zwischen den lokalen und den auf der Hintergrundstrahlung basierenden Messungen (also sehr weit entfernt) der Hubble-Konstante H0.
    Ich antworte jetzt mit tomtoo’s Worten: Jawohl Chef, da könnte was dran sein. 😉

  26. #26 Karl-Heinz
    4. Februar 2019

    @Alderamin

    Die Baryonische akustische Oszillation sind also Dichtewellen, die sich im frühen Universum gebildet haben. Das z (Redshift)ist hier nicht sehr groß (SDSS-Galaxiendurchmusterung) aber die aufgeprägten Informationen stammen aus der fast gleichen Zeit wie die Hintergrundstrahlung. Sehe ich das so richtig?

  27. #27 Alderamin
    4. Februar 2019

    @Karl-Heinz

    Im Prinzip genau so richtig, aber die eigentlichen BAOs waren die Dichtewellen im Plasma der Hintergrundstrahlung bei hohem z – bei kleinem z findet man heute nur noch ihr Muster in der Galaxienverteilung wieder (Filamente und Voids).

  28. #28 Karl-Heinz
    4. Februar 2019

    @Alderamin

    Danke

  29. #29 Herr Senf
    4. Februar 2019

    Jetzt versuchen sie es mit gekünstelter Intelligenz https://arxiv.org/abs/1902.00027

    Towards Machine-assisted Meta-Studies: The Hubble Constant

    “From the analysis of our results we find that reporting measurements with uncertainties and the correct units is critical information to identify novel measurements in free text. Our results correctly highlight the current tension for measurements of the Hubble constant and recover the 3.5σ discrepancy — demonstrating that the tool presented in this paper is useful for meta-studies of astrophysical measurements from a large number of publications, and showing the potential to generalise this technique to other areas.”

  30. #30 MartinB
    4. Februar 2019

    @Alle
    Um das mit der Wahrscheinlichkeit nochmal deutlich zu machen:
    Ich würfle mit 4 Würfeln. Die Wahrscheinlichkeit, dass ich beim ersten Wurf 4 Sechsen bekomme, ist 0,077%. Heißt das, dass für den Fall von 4 Sechsen beim ersten Wurf zu 99,923% ein unbekanntes Physik-Phänomen verantwortlich ist?
    Wie ist es, wenn ich mit einem Würfel ne 6 würfle? habe ich dann mit 83%-iger Wahrscheinlichkeit einen unbekannten Einfluss? Offensichtlich nicht, oder?

    Ist hier das gleiche: Die sigma-Abweichung p sagt mir, wie wahrscheinlich es ist, dass ich das Ergebnis per Zufall erhalte. Sie sagt mir aber nicht, dass 1-p die Wahrscheinlichkeit ist, dass das Ergebnis durch einen unbekannten Effekt zu Stande kommt. Das kann man schlicht nicht wissen – ne Stichprobenlänge von 1 ist dazu zu wenig.

    Natürlich ist so ein großer sigma-Wert sehr suggestiv, aber ne Garantie ist er nicht, dass da wirklich ein Effekt vorliegt.

  31. #31 Karl-Heinz
    4. Februar 2019

    @MartinB

    Ich seh’s im Moment so. Ich würde erwarten, dass das H0 sowohl im Nahbereich und Fernbereich gleich groß sind.
    Sind sie aber nicht. Der Mittelwert ist, wenn ich es richtig verstanden habe im Nahbereich um 5,8 km s-1 Mpc-1 größer als im Fernbereich. Die statistische Schwankung um den Mittelwert vom Nahbereich und Fernbereich ist nicht so groß. Daher kann ich die beiden Mittelwerte getrennt wahrnehmen. Einen systematischen Fehler kann man aber natürlich nie ausschließen. Im Fernbereich liefern zwei unterschiedliche Messverfahren ungefähr den gleichen Mittelwert (Planck 2015, SDSS Boss und Plank 2018).

  32. #32 Alderamin
    4. Februar 2019

    @MartinB

    Die Wahrscheinlichkeit, dass ich beim ersten Wurf 4 Sechsen bekomme, ist 0,077%. Heißt das, dass für den Fall von 4 Sechsen beim ersten Wurf zu 99,923% ein unbekanntes Physik-Phänomen verantwortlich ist?

    Du hast absolut recht.

    Korrekt gesagt wäre es so:

    Die Nullhypothese H0 (hier ist H0 mal nicht die Hubble-Konstante!) ist, dass die Abweichungen statistischer Zufall sind. Mit einem Signifikanzniveau von 0,03% ist die Nullhypothese zu verwerfen, also zu 99,97% falsch.

    Der Einwurf mit den bedingten Wahrscheinlichkeiten ist aber richtig, die Wahrscheinlichkeit ist p(A|H0)=0,03%, wir suchen aber nicht p(¬A|H0), was 1-p(A|H0) wäre (99,97%), sondern p(A|¬H0), was irgendwas ist. So verstehe ich es dann als halber Mathematiker auch. Vielleicht hilft der Satz von Bayes weiter, aber ich glaube nicht. Muss ich nochmal drüber nachdenken.

    Ich versuche auch gar nicht erst, dies dem Leser zu erklären.

  33. #33 Alderamin
    4. Februar 2019

    @Herr Senf

    Da könnten sie auch das Publikum fragen. Oder den Telefon-Joker… 🙂

  34. #34 spacefan
    4. Februar 2019

    Die zappelige kosmologische ‘Konstante’ sehe ich so: in Leerräumen dehnt sich das Universum schneller aus, was Anreicherungen galaktischer Cluster und dunkler Materie in Filamenten bewirkt und bewirken. Je weniger die Raumzeit gekrümmt ist, desto schneller verläuft dort die Zeit. Dort gibts mit den heutigen Methoden kaum was zu messen. Wir benötigen eine Vorstellung von der Außenarchitektur unseres Universums. Alles bewegt sich zunehmend unterschiedlich schnell in alle Richtungen voneinander weg, weil sich die Raumzeitblase vergrößert. Ihr Ende dürfte berechenbar werden. Die zunehmende Expansion erscheint uns nur homogen, weil sich die Filamente ähnlich sind, womit sich die RZ-Blase auch durch deren Anordnungen stabilisiert. Wäre besimmt lustige Mathe, Folgen und Reihen dazu mit Formeln auf den Punkt zu bringen, was ich in anderen Zusammenhängen vor längerem schon mal lustig erfunden habe, um besser programmieren zu können. Erkennt oder erfindet man Strukturen, kann man sie verformeln – egal ob sie stimmen oder nicht. KI könnte da so einiges bewirken, positiv wie negativ.

  35. #35 δx/δy
    4. Februar 2019

    @ Karl-Heinz #19

    Stellt euch zwei Personen Alice und Bob vor, die gegeneinander beim Laufwettbewerb antreten. Im Schnitt läuft Alice um 0,01 Sekunden schneller als Alice.

    Alice und Bob sind die, die ihre Schlüssel tauschen. Die, die du meinst, heißen Hase und Igel.
    Zu 0,01 Sekunden passt besser das Wort früher, zu schneller eher Meter pro Sekunde.

  36. #36 MartinB
    4. Februar 2019

    @Alderamin
    Ja, in Formeln wird’s manchmal tatsächlich einfacher.

  37. #37 Karl-Heinz
    4. Februar 2019

    @δx/δy

    Warum sollen sich Alice und Bob mal nicht sportlich betätigen?

  38. #38 Bbr
    4. Februar 2019

    @MartinB, #30.

    Das Würfelbeispiel führt gleich auf die nächste Falle mit Wahrscheinlichkeiten. Die a priorimist die Wahrscheinlichkeit, dass es da überhaupt einen physikalischen Effekt gibt, natürlich praktisch 0. Dazu hat Randall Munroe mal einem Comic gezeichnet.

    https://xkcd.com/1132/

    Aldemarin hat dazu ja in #32 schon was geschrieben.

    Hätte ich jetzt aber schon vorher einen begründeten Verdacht, dass die Würfel gezinkt sind, und werfe dann tatsächlich gleich beim ersten Wurf 4 Sechsen, dann sieht die Sache schon anders aus.

  39. #39 tomtoo
    4. Februar 2019

    @K-H
    “..sportlich betätigen..“
    Nö, das ist nix. Die zappeln ja beim Start schon rum. Und dann das genaue Messen?Ausserdem nimmt Alice gerne Bobs Hürde und umgekehrt oder auch nicht.
    Lass die mal besser aus dem Sport raus.
    ; )

  40. #40 UMa
    5. Februar 2019

    @Alderamin:
    Vielleicht sind einfach nur die Fehler unterschätzt und es gibt gar keine signifikanten Abweichungen.
    Schau Dir mal die Zusammenstellungen der Bestimmungen der Hubble-Konstanten und ihrer Fehler des leider viel zu früh verstorbenen J. Huchra an.
    https://www.cfa.harvard.edu/~dfabricant/huchra/hubble/
    https://www.cfa.harvard.edu/~dfabricant/huchra/hubble.plot.dat
    Es dürfte leicht sein, sehr große Abweichungen, bei scheinbar kleinem Fehler zu finden. Warum sollte das heute anders sein?

  41. #41 Alderamin
    5. Februar 2019

    @UMa

    Das ist aber eine ziemlich alte Seite. Wenn man oben im 2. Bild für 2008 nachschaut, da waren die Fehlerbalken auch noch recht breit. Jetzt mit Gaia und HST sowie PLANCK sind die Intervalle viel kleiner. Warum sollten die nicht korrekt sein?

    Nur die jüngste Messung von GW170817 ist naturgemäß ziemlich ungenau, dafür aber komplett unabhängig von den anderen Methoden.

  42. #42 UMa
    5. Februar 2019

    @Alderamin:
    Die Seite ist von John Huchra erstellt worden.
    Das letzte Update ist vom 7. Oktober 2010, John Huchra verstarb am 8. Oktober 2010. Unter diesem Gesichtspunkt ist die Seite ziemlich aktuell und nicht alt.
    Es gibt natürlich auch breite Fehlerbalken. Aber schau Dir nicht die Bilder sondern die Liste im 2. Link an.
    Die Fehler sind oft unterschätzt worden, besonders wenn sie formal klein waren.
    Z.B. diese Diskrepanz, wie viele Sigma sind das?

    Ho errors Date Type Source (Date = preprint or pub or appearance at conference)

    50 +2 -2 1996.00 AS Tammann, G. \& Sandage, A. 1996in IAU Symp 168, {\it Examining the Black Body and Diffuse Background Raduation}, M. Kafatos, ed. (Dordrecht: Kluwer)
    84 +4 -4 1996.143 PK Ford, H. \etal 1996, ApJ 458, 455

  43. #43 stone1
    5. Februar 2019

    Artikel Nr. 100

    Gratulation, lese fleißig mit und verbleibe in freudiger Erwartung der nächsten, na sagen wir erstmal 400. ; )
    Besonders spannend fand ich die Artikel zur dunklen Materie und (bzw. vs.) MOND. Danke für viel informativen Lesestoff und weiter so!

  44. #44 Frank Wappler
    6. Februar 2019

    δx/δy schrieb (#35, 4. Februar 2019):
    > @ Karl-Heinz #19
    > »Stellt euch zwei Personen Alice und Bob vor, die gegeneinander beim Laufwettbewerb antreten. Im Schnitt läuft Alice um 0,01 Sekunden schneller als [Bob]. «

    > Die, die du meinst, heißen Hase und Igel.

    Die Namen der beiden Igel, an die wir sicherlich denken, werden oft als “A” und “B” abgekürzt.
    Dem Hasen wird gelegentlich ein Name verpasst, der mit H abgekürzt werden kann; vgl. https://scienceblogs.de/alpha-cephei/2018/07/10/das-zwillingsparadoxon-minkowski-frei-teil-1/#comment-1890 .

    > Zu 0,01 Sekunden passt besser das Wort früher

    Zu einer bestimmten Dauer, die (um 0,01 Sekunden) geringer bzw. kleiner ist, als eine andere bestimmte Dauer, passt meines Erachtens noch besser das Wort “kürzer”.

    > zu schneller eher Meter pro Sekunde.

    Oder noch unabhängiger von irgendwelchen Einheiten: “Differenz zweier bestimmter Geschwindigkeiten”.

  45. #45 δx/δy
    6. Februar 2019

    #44
    Ohne LaTeX ?
    ……………….

  46. #46 Frank Wappler
    7. Februar 2019

    δx/δy schrieb:
    > #44 Ohne LaTeX ?

    Wohl kaum.
    (Aber, nachlässiger Weise meinerseits, keine “scare quotes” um des Hasen “H“.)

  47. #47 anders
    7. Februar 2019

    Dank für diesen hundersten Beitrag, der gewohnt gut geschrieben ist. Tatsächlich darf ich sagen dass deine Verständlichkeit und Aufbereitung gewonnen hat ohne an Tiefe zu verlieren. (nicht dass ich diese immer oder überwiegend ausloten könnte …)

    Zum Thema selbst kann ich nur am Rande beitragen durch meine Beobachtung, dass viele Parameter (wie die Hubble-Konstante) mit denen man derzeit rechnet und die Basis für Interpretationen/ Hypothesen/ Theorien sind, derzeit offenbar noch nicht sicher genug bestimmt sind.

    Die Validierung dieser Daten scheint mir das Wichtigste in den nächsten Jahren zu sein … ohne einigermassen zuverlässige Daten und deren Interpretation tut sich die Wissenschaft halt schwer.

  48. #48 Karl-Heinz
    10. Februar 2019

    Ich hoffe, dass dieser Artikel zum Thema passt.

    Quasare sprechen für neue extreme Dunkle Energie

  49. #49 Alderamin
    10. Februar 2019

    @Karl-Heinz

    Das ist ja genau die Arbeit, um die es im letzten Abschnitt (“Quasare und Sirenen”) geht (Referenz [3]).

  50. #50 UMa
    10. Februar 2019

    @Alderamin: Die letzten Ergebnisse für Planck finden sich hier (hattest Du noch nicht verlinkt):
    https://arxiv.org/abs/1807.06209
    Interessant ist Fig.16 mit, im Prinzip, H(z).

  51. #51 Niels
    11. Februar 2019

    @UMa
    Ist allerdings H(z) in mitbewegter Entfernung. Deswegen ist die y-Achsenbeschriftung H(z)/(1+z).

    Diagramme, die den Verlauf von Parametern in Abhängigkeit von der Rotverschiebung z darstellen, helfen mir persönlich für die Vorstellung leider überhaupt nicht weiter.
    Da muss ich mir z immer in etwas Geeignetes umrechnen, etwa ins Universumsalter.
    Wenn die Verläufe in Abhängigkeit von z dann auch noch in mitbewegter Entfernung dargestellt werden, bin ich völlig raus.

  52. #52 Karl-Heinz
    15. Februar 2019
  53. #53 UMa
    16. Februar 2019

    @Niels:
    z hat als Koordinate natürlich den Vorteil direkt gemessen zu werden und damit Modellunabhängig zu sein.

    Rechnest Du z in die vergangene Zeit bzw. das Alter des Universums um, hängt die Abszisse plötzlich vom verwendeten Modell, also der Funktion H(z) ab. Das ist irgendwie unschön.

  54. #54 UMa
    9. März 2019

    @Alderamin:
    Hier sind noch Ergebnisse mit SN Ia durch BAO kalibriert.
    H0=67,77+-1,3 km/s/Mpc
    https://arxiv.org/abs/1811.02376
    Vielleicht liegt es ja doch an der Cepheiden Kalibrierung, das sonst SN Ia höhere Werte liefern?!

    Gibt es eigentlich Hinweise darauf, ob die lokale Expansion anisotrop ist? Durch die Bewegung von Materie aus Voids mit niedriger Dichte zu Orten mit hoher Dichte, könnte man da nicht lokal in Filamenten eine anisotrope Expansion messen?

  55. #55 UMa
    10. März 2019

    Nachtrag: Im Paper oben haben sie auch q0 zu -0.37 gemessen und zitieren (mit Vorzeichenfehler) https://arxiv.org/abs/0910.2193
    q0 zu -0.34 mit aber noch relativ großen Fehlern. Trotzdem sind diese Werte kleiner als der theoretische Wert des flachen LambdaCDM Modells von q0 = -0.55. für \Omega_M=0.3.
    Gibt es noch andere, modellunabhängige Messungen von q0? Wenn H0 tatsächlich größer als 70km/s/Mpc ist müsste beim flachen LambdaCDM Modell \Omega_M kleiner als 0.3 und q0 kleiner als -0.55 sein.
    Der kleine Wert für q0 wäre dagegen inkompatibel mit dem flachen LambdaCDM Modell für \Omega_M kleiner als 0.4.
    Könnte sich hier für den Parameter q0 eine ähnliche Abweichung wie für H0 anbahnen?

  56. #56 Alderamin
    10. März 2019

    @UMa

    Die Arbeit in #54 hatte ich auch gefunden. Es ist ja klar, dass ein niedriges H0 herauskommt, wenn man die Supernovae an den BAO kalibriert. Es gibt allerdings m.E.n. keinen Grund, das zu tun – es gibt keine genaueren Messungen der Entfernung als Parallaxen, und mit Hipparcos und Gaia hat man die Cepheiden sehr gut kalibriert.

    Was die Anisotropie betrifft, weiß ich nur von der Idee mit dem lokalen Void, siehe oben “Leben in der großen Leere”, die aber nur einen Teil der Diskrepanz lösen kann. So tief stecke ich in dem Thema aber auch nicht drin. Deswegen kann ich Dir auch nichts zu den anderen Fragen sagen.

  57. #57 noonscoomo
    Berlin
    8. Mai 2019

    Wenn ich das richtig verstehe, ist eine aktuelle Idee, wie sich die Diskrepanz der Messungen der Hubble-“Konstante” erklären lässt, dass im frühen Universum die Materie dichter beieinander war und daher die Gravitation die Ausdehnung bremste. Da fällt mir ein, dass sich gravitativ aneinander gekoppelte Objekte trotz Ausdehnung des Raumes nicht voneinander entfernen. Und das führt mich zu der Frage, ob es denn nicht irgendwann mal im frühen Universum einen Moment gegeben hat an dem alle Materie des heute beobachtbaren Universums gravitativ gekoppelt war und wie es dann überhaupt auseinander driften konnte.

  58. #58 Alderamin
    8. Mai 2019

    @noonscoomo

    Wenn ich das richtig verstehe, ist eine aktuelle Idee, wie sich die Diskrepanz der Messungen der Hubble-“Konstante” erklären lässt, dass im frühen Universum die Materie dichter beieinander war und daher die Gravitation die Ausdehnung bremste.

    Denke ich nicht, denn alles, was Materie, Dunkle Materie und Dunkle Energie leisten können, steckt schon im ΛCDM-Modell mit drin. Da müssen scho Kräfte am Werk sein, die wir noch nicht kennen, bzw. unser Modell der Dunklen Energie nicht vollständig sein. Oder irgendwer misst Mist (wobei für beide Zahlen verschiedene Leuten jeweils den selben Mist messen, teils mit unabhängigen Methoden).

    Und das führt mich zu der Frage, ob es denn nicht irgendwann mal im frühen Universum einen Moment gegeben hat an dem alle Materie des heute beobachtbaren Universums gravitativ gekoppelt war und wie es dann überhaupt auseinander driften konnte.

    Nein, weil früher der Hubble-Parameter viel größer war, war auch mehr Schwerkraft nötig, um die Materie zusammen zu halten. So wie es aussieht war die Dichte des Universums jederzeit genau die kritische Dichte, und nur bei mehr als der kritischen Dichte hätte es eine Kontraktion des Universums geben können.

    Natürlich war die Masse nicht vollkommen homogen verteilt, deswegen haben wir ja heute Galaxienhaufen, Galaxien und Sterne. Da ist die Materie durch ihren Zusammenhalt kollabiert. Aber eben nicht großräumig.

  59. #59 UMa
    24. Mai 2019

    @Alderamin:
    Ich habe versucht, zu den SN Ia Helligkeiten, lokalen H0 Bestimmungen H(z) bis zu z=2.36, Omega_M usw., den besten Wert für H0 für ein LCDM-Modell zu finden.

    Ich bin auf H0 = 68.92+-0.34 km/s/Mpc gekommen.

    Das reduzierte chi² ist kleiner 1 und von allen Werte bis auf einen haben eine Abweichung von weniger als 2 sigma.

    Für Planck2018 mit BAO H0=67.66+-0.42 km/s/Mpc gäbe es eine 3 sigma Abweichung, aber ich habe Planck2018 mit BAO und DES H0=68.18+-0.39 km/s/Mpc verwendet, den bisher genausten Wert von Planck zusammen mit anderen Messungen, nur 1.9 sigma weg.

    Die einzige Messung (von 96), obwohl im Fit berücksichtigt, der mehr als 2 sigma abweicht ist der lokale H0=74.03+-1.42 km/s/Mpc. Eine 3.6 sigma Abweichung.

    Vielleicht weicht die lokale Expansion doch von der globalen ab?
    Bei mehr Zeit später mehr.

  60. #60 UMa
    12. Juli 2019

    @Alderamin:
    H0LiCOW ergibt auch eine hohe Hubble-Konstante, und das bei erheblich höherem z als SH0ES. Was meines Wissens neu ist, bisher schienen alle Messungen in größerer Distanz als z=0.2 eher Planck zu bestätigen, während die lokalen Messungen auf eine lokale Beschleunigung q0 = -1 statt -0.55 (Planck) hindeuteten.
    Nun ist der H0LiCOW Wert gestiegen auf:
    H0=73.3 -1.8+1.7 km/s/Mpc (für LCDM)
    https://arxiv.org/abs/1907.04869

    Mein bester Fit liegt nun bei H0 = 69.22 km/s/Mpc (Fehler noch nicht bestimmt) und chi² ist nicht mehr kleiner als 1.

  61. #61 UMa
    16. Juli 2019

    @Alderamin:
    Neue lokale Bestimmung der Hubble-Konstante mittels SNIa. Diesmal nicht mit Cepheiden sondern mit TRGB kalibriert.
    H0 = 69.8 +/- 0.8 (stat) +/- 1.7 (sys) km/sec/Mpc
    https://arxiv.org/abs/1907.05922

  62. #62 UMa
    16. August 2019

    @Alderamin:
    Eine verbesserte Entfernungsbestimmung von NGC 4258. Lokaler Wert von H0 sinkt leicht von 74 auf 73.5 km/s/Mpc.
    https://arxiv.org/abs/1908.05625

    Wenn die Cepheiden in der Milchstraße einen systematischen Fehler haben (Extinktion, …?), wäre NGC 4258 als Cepheiden Kalibrierung besser, da man dann nur die Cepheiden in verschiedenen anderen Galaxien vergleicht. Dann wäre der lokale H0 nur noch bei 72 km/s/Mpc.

  63. #63 Alderamin
    16. August 2019

    @UMa

    Danke. Ist dann aber immer noch weit von den 68 km/s/Mpc weg, die PLANCK geliefert hat.

  64. #64 UMa
    16. August 2019

    @Alderamin:
    Mein bester Wert ist nun H0=69.35+-0.32 km/s/Mpc für ein flaches LCDM-Modell. Sowohl der Planck Wert als auch der lokale sind knapp 3 sigma entfernt. Das ergibt ein Alter von 13.73 Gyr.

  65. #65 UMa
    11. Oktober 2019

    @Alderamin:
    Neue Kalibrierung des Leavitt Gesetzes mittels Gaia DR2. Wenn die Berechnung stimmen, haben die bisherigen Kalibrierungen mittels HST/FGS ein Offset von +0.2mas. Das würde den Cepheiden-Wert von H0 von 74 auf 69 km/s/Mpc verschieben.

    https://arxiv.org/abs/1910.04694

  66. #66 Alderamin
    11. Oktober 2019

    @UMa

    Dann hätte sich das Problem oben erledigt… schaue ich mir mal an, ist vielleicht einen Artikel wert.

  67. #67 UMa
    18. November 2019

    @Alderamin: Wenn das hier stimmt, gibt es beim lokalen Hubble-Gesetz noch weit größere systematische Fehler.
    https://arxiv.org/abs/1911.06456

  68. #68 UMa
    30. Dezember 2021

    @Alderamin:
    Es gibt ein neues Preprint des SH0ES Teams. Der Fehler wurde nochmal reduziert. Die Abweichung ist geblieben.
    https://arxiv.org/abs/2112.04510
    Was noch merkwürdiger ist, ist die geringe Beschleunigung q0. Die meisten Ansätze die lokalen und kosmologischen Messungen übereinzubringen laufen auf eine hohe Beschleunigung der Expansion hinaus.
    Auch in anderen Papern der letzten Zeit habe ich eher hohe Materiedichten von OmegaM größer 0.3 gesehen.
    Sehr seltsam. Hohe lokale Hubble-Konstante und geringe Beschleunigung passt weder zu Hintergrundstrahlung noch zu BAO.