Simulation des Photonenrings von M87*. Bild: The Event Horizon Collaboration, [2], CC BY 3.0.

Hier war es ein paar Tage ziemlich ruhig, dafür kommt heute etwas mehr Text. In der Zwischenzeit hatte ich bereits einen Artikel für Heise-Online geschrieben, der sich mit den am 10. April veröffentlichten Bildern von M87*, dem supermassereichen Schwarzen Loch in der elliptischen Riesengalaxie Messier 87, beschäftigt, den ich hier mal als Basis voraussetzen möchte. Aufgrund des Zeitdrucks konnte ich die 6 Veröffentlichungen, die erst am Stichtag für die Einreichung des Heise-Artikels erschienen, nur ganz kurz einsehen und habe mich im Wesentlichen auf die Aussagen beschränkt, die während der Pressekonferenz gemacht wurden. Nun hatte ich mehr Zeit, in die Papers reinzuschauen und möchte hier ein wenig darauf eingehen, was wir über das Schwarze Loch in M87 gelernt haben.

 

Was zeigt das Bild?

Ursprünglich geisterte die Meldung durch die Presse, man wolle den Ereignishorizont oder dessen “Schatten” auf dem Bild ablichten. Tatsächlich ist das nicht möglich, denn erstens ist das Schwarze Loch nun einmal schwarz, da ist nichts zu sehen am Ereignishorizont, und zum Zweiten schattet es auch nicht einfach wie ein solider Gegenstand die dahinter liegende Akkretionsscheibe ab. Das Licht wird vielmehr in der Umgebung des Schwarzen Lochs stark abgelenkt (starke Gravitationslinsenwirkung). Bei einem Schwarzschild-Loch (nicht-rotierendes Schwarzes Loch) kann Licht, das sich dem Schwarzen Loch näher als dem “Capture-Radius”R_c=\sqrt{27}\cdot r_g nähert (wobei r_g=GM/c^2 der sogenannte Gravitationsradius ist, das ist genau der halbe Schwarzschildradius; diese Größe wird in den Papers öfter als der Schwarzschildradius selbst verwendet), nicht mehr entkommen und muss nach ein paar Orbits hinter dem Ereignishorizont verschwinden. R_c ist also ca. 5-mal so groß wie r_g oder 2,5-mal so groß wie der Schwarzschildradius. Licht, das nahe außerhalb R_c streift, kreist um das Schwarze Loch und entkommt irgendwann. Für rotierende Kerr-Löcher ist der Capture-Radius abhängig vom Winkel, unter dem man auf die Achse des Schwarzen Lochs schaut, aber die Abweichung bleibt mit < ca. 4% kaum sichtbar.

Die deutlich hellste Lichtquelle in der Umgebung von M87* ist natürlich die innere Akkretionsscheibe, aber das Licht könnte auch aus dem Jet stammen. Bei dem “Licht” handelt es sich tatsächlich um Synchrotron-Strahlung von Elektronen, die in der Scheibe oder im Jet mit Geschwindigkeiten in der Größenordnung der Lichtgeschwindigkeit kreisen, während die Kernteilchen sich viel langsamer bewegen. Kreisende Elektronen strahlen ihre Energie ab, denn sie werden fortwährend beschleunigt. Der Effekt ist von Teilchenbeschleunigerringen (Synchrotronen) bekannt, und daher hat er seinen Namen. Je nach Modell überwiegt mal die Strahlung der Akkretionsscheibe, mal die des Jets. Das resultierende Bild ist am Ende im Rahmen der Messgenauigkeit das gleiche, daher können die Autoren nicht unterscheiden, woher genau das Licht stammt. Möglicherweise von beiden Quellen.

Von der Ferne betrachtet bildet die Strahlung einen hellen Ring mit dem Radius R_c um das Schwarze Loch, den Photonenring. Genau diesen zeigt das Bild. Um den Ring herum wäre eigentlich ein stark gelinstes Abbild der Akkretionsscheibe zu erwarten, das jedoch nicht erkennbar ist. Das kann an seiner geringen Helligkeit oder daran liegen, wie das Bild erzeugt wurde (siehe unten, “Wie entstand das Bild?”).

 

Links das am 6. April 2017 aufgenommene Bild von M87*, und in der Mitte eine Simulation, die bei entsprechender Weichzeichnung (rechts) ein vergleichbares Bild ergibt. So ungefähr wie im mittleren Bild muss man sich den tatsächlichen Anblick des Photonenrings vorstellen. Bild: The Event Horizon Collaboration, [2], CC BY 3.0.

Das Bild ist auf der Südseite deutlich heller, und dies ist darauf zurückzuführen, dass die Lichtquelle rotiert. Der Doppler-Effekt sorgt dafür, dass die Intensität des Rings auf derjenigen Seite, die sich auf den Beobachter zu bewegt, nicht nur blauverschoben wird, sondern auch heller erscheint (sogenanntes Doppler-Beaming), weil die Lichtwellen dichter aufeinander folgen und somit auch mehr Leistung übertragen wird. Die Blauverschiebung ist im Bild nicht dargestellt, die Messung erfolgte ja ohnehin nur bei einer bestimmten Frequenz, aber die Aufhellung ist zu sehen. Wäre das Bild schärfer, dann sähe man den Photonenring so wie im Bild oben, Mitte. Im Text der Arbeit wird der Anblick “Crescent”, also “Sichel” genannt.

Die Sichel kann auf die Rotation der Akkretionsscheibe zurückgehen oder auf die Rotation des Schwarzen Lochs. Wie bereits im Halo-Drive-Artikel angesprochen sorgt die vom rotierenden Schwarzen Loch mitgezogene Raumzeit dafür, dass im Drehsinn des Schwarzen Lochs umlaufendes Licht eine Impulserhöhung erfährt.

Wie sich verschiedene Drehsinne von Schwarzem Loch und Akkretionsscheibe gemäß Simulationen auf das Bild auswirken würden, sieht man in der folgenden Abbildung:

Das Bild zeigt, wie sich unterschiedliche Drehsinne von Schwarzem Loch (schwarze Pfeile) und Akkretionsscheibe (blaue Pfeile, accretion flow) gemäß Simulationen auf das aufgenommene Bild auswirken. Ist die Inklination i der Akkretionsscheibe > 90°, dann zeigt der Nordpol ihrer Drehachse nach links, vom Beobachter weg, ist sie < 90°, dann zeigt er in unsere Richtung (i ist der Winkel zwischen unserer Sichtlinie und der Drehachse, dargestellt durch den hellblauen Pfeil; hier abgebildet sind die Fälle i=180° [obere Zeile] und i=0° [untere Zeile]). a* gibt den Drehsinn des Schwarzen Lochs relativ zur Akkretionsscheibe an: a* >0 bedeutet, das Schwarze Loch dreht sich prograd zur Scheibe, also in der gleichen Richtung. a* <0 bedeutet, es dreht sich retrograd. Der Effekt der Rotation des Schwarzen Lochs dominiert eindeutig den der Akkretionsscheibe. Wir wissen daher, dass das Schwarze Loch von uns aus gesehen im Uhrzeigersinn am Himmel rotiert (linke Spalte). Bild: The Event Horizon Collaboration, [2], CC BY 3.0.

Erwartungsgemäß bestimmt der Drehsinn der mitgezogenen Raumzeit, welche Seite des Photonenrings hell erscheint. Die Simulation belegt, dass man hier tatsächlich nicht die Akkretionsscheibe selbst sieht, denn ansonsten käme es darauf an, welche Seite der Scheibe sich auf den Beobachter zu dreht – diese wäre dann die hellere. Damit ist M87* sicher ein Kerr-Black-Hole.

Die Aufhellung befindet sich in 90° Abstand im Positionswinkel (Winkel projiziert auf die Himmelskugel) zur Richtung des Jets. Daraus kann man schließen, dass der Jet parallel zur Drehachse des Schwarzen Lochs ausgestoßen wird. Und da der Jet von der Akkretionsscheibe erzeugt und in Achesenrichtung ausgestoßen wird, ist deren Achse also mit der Drehachse des Schwarzen Lochs parallel – oder antiparallel.

 

Flackert M87*?

Die folgenden Bilder von M87* wurden an verschiedenen Tagen aufgenommen:

Bilder von M87* von verschiedenen Tagen. Der weiße Kreis gibt das Auflösungsvermögen von 20 µas an. Der helle Teil des Rings sieht nicht auf allen Bildern identisch aus. Ein Hinweis auf eine Dynamik in der Akkretionsscheibe? Bild: The Event Horizon Collaboration, [1], CC BY 3.0.

Man könnte daraus schließen, dass die Lichtquelle (die, wie gesagt, im Jet oder der Akkretionsscheibe liegen kann) sich dynamisch verändert, z.B. könnte ein Hotspot in der Akkretionsscheibe kreisen. In einem Tweet vom 17. April betont Heino Falcke jedoch, dass diese Unterschiede auch von einer unterschiedlichen Kalibrierung der Daten hervorgerufen worden sein könnten. Bei der Kalibrierung wird versucht, z.B. atmosphärische Störungen oder die verschiedene Position der Teleskope in der Tiefe relativ zur Querschnittsebene des ankommenden Lichtbündels herauszurechnen. Es ist also nicht klar, ob das Schwarze Loch wirklich eine Dynamik zeigt. Allerdings misslangen Auswertungen der Aufnahmen unseres Schwarzen Lochs in der Milchstraße, Sagittarius A*, genau aus diesem Grund, weil die Dynamik sich innerhalb von Minuten abspielte, zu kurz für die lange “Belichtungszeit”. M87* zeigt eine Dynamik, wenn überhaupt, nur über Zeiträume von Tagen.

 

Welche Größen kann man aus dem Bild lesen?

Der Photonenring durchmisst 42±3 µas (Mikrobogensekunden, also Millionstel des 3600ten Teil eines Winkelgrads). Das EHT-Kollaborationsteam folgert aus dem Bild einen Gravitationsradius-Winkel (Gravitationsradius dividiert durch die Entfernung auf den Sehwinkel umgerechnet) von θg=3,8±0,4 µas, so dass der Ring 11±0,5 Gravitationsradien durchmisst (d.h. sein Radius beträgt 2,75±0,125 Schwarzschildradien). Mit der Entfernung von 54,8±2,6 Millionen Lichtjahren schließen sie auf eine Masse von 6,5±0,7 Milliarden Sonnenmassen [1], geringfügig mehr als frühere Schätzungen aufgrund der Bewegung der Sterne um das Zentrum von M87, die auf 6,2+1,1/-0,6 Milliarden Sonnenmassen geschlossen hatten, aber deutlich mehr, als andere Schätzungen auf Basis der Bewegung von Gas im Zentrum der Galaxie, die nur 3,5+0,9/-0,3 Milliarden Sonnenmassen ergeben hatten.  Die Scheibe ist leicht abgeflacht mit einem Verhältnis der größten zur kleinsten Achse von weniger als 4:3.

Umgerechnet auf die Entfernung bedeutet dies einen Ringdurchmesser von rund 700 AE (700-mal die Entfernung Erde Sonne). Der Gravitationsradius beträgt 65 AE. Mindestens diesen Radius hat der Ereignishorizont, wenn M87* maximal schnell rotiert. Die genaue Rotationsrate wird in den Arbeiten nicht angegeben, nur dass sie “relativistisch” sei, also mit einem großen Bruchteil der Lichtgeschwindigkeit erfolge.

 

Ein Hauch von Schwarzem Loch

Interessant ist sich klar zu machen, wie  dünn die Materie innerhalb des Gravitationsradius verteilt wäre, würde sie ihn ganz ausfüllen, anstatt, wie die Allgemeine Relativitätstheorie vorhersagt, in einer unendlich dichten Singularität zusammengequetscht zu sein.  6,5 Milliarden Sonnenmassen sind viel, eine Sonnenmasse hat ca. 2·1030 kg, das Schwarze Loch mithin 1,3·1040 kg. Aber 65 AE als Kugel sind auch sehr viel Raum, nämlich 3,9·1039 m³. Macht dann eine Dichte von 3,3 kg/m³. Irdische Luft hat bei Normaldruck eine Dichte von 1,2 kg/m³ und bei 2,75 bar wären es 3,3 kg/m³. So gesehen  ist das Schwarze Loch im Mittel nicht viel dichter als die Luft in einem Autoreifen. Für ein Schwarzschild-Loch kämen übrigens sogar nur 0,4 kg/m³ heraus, 1/3 der Dichte von Luft.

 

Was treibt den Jet an?

Aus der Form des Jets, der zum Schwarzen Loch hin parabolförmig zusammenläuft, und aus der Leuchtkraft des Jets von 1042 erg/s (das sind 260 Millionen Sonnenleuchtkräfte!) schließen die Autoren in [2], dass der Jet durch den Blandford–Znajek-Prozess angetrieben wird. Dabei wird durch die Rotation des Plasmas in der Ergosphäre des Schwarzen Lochs ein ringförmiges (toroidales) Magnetfeld erzeugt, das in der Mitte parallel zur Rotationsachse des Schwarzen Lochs ausgerichtet ist. Photonen, die in der Photonensphäre kreisen, können heftig kollidieren und dabei Elektron-Positron-Paar erzeugen. Eines der Teilchen wird dann durch das Magnetfeld in den Jet katapultiert, in dem es sich den Magnetfeldlinien entlang nach außen schraubt und Drehimpuls mitnimmt, das andere mit umgekehrter Ladung in Gegenrichtung ins Schwarze Loch. Da das entkommene Teilchen Energie und Impuls gewonnen hat, muss das eingefangene dem Schwarzen Loch Energie und Impuls entziehen. So wird dem Schwarzen Loch Rotationsenergie entzogen, die den Jet antreibt. (So ungefähr habe ich die Erklärung auf Wikipedia verstanden; klingt ein wenig wie bei der Hawking-Strahlung, aber der Blandford-Znajek-Prozess ist ungleich ergiebiger, das Magnetfeld trennt die Ladungen effektiver als der Zufall bei Hawking).

 

Wie entstand das Bild?

Das Bild entsteht nicht einfach wie bei einem Foto dadurch, dass Licht unzweideutig auf bestimmte Pixel fällt. Was da eigentlich gemessen wird, sind Interferenzen von Wellen – deswegen heißt es Very Long Baseline Interferometry. Interferometrie kennt man vielleicht noch aus dem Physikunterricht vom Doppelspaltversuch: schickt man das Licht eines Lasers durch den Doppelspalt, dann bilden sich auf einer Projektionsfläche dahinter Streifen aus. Das Licht kommt von derselben Quelle, die ebene Wellen aussendet, und diese werden am Doppelspalt in zwei Lichtquellen aufgespalten, die absolut im Gleichtakt schwingen (sie sind kohärent). Die Wellen überlagern sich auf der Projektionsfläche an manchen Stellen konstruktiv und bilden helle Streifen, dazwischen destruktiv, das gibt dunkle Streifen. Ersetzt man die Spalte durch Löcher, dann entstehen Punkte statt Streifen, das Prinzip bleibt aber gleich.

Doppelspaltversuch. Ebene Lichtwellen, die von links auf den Doppelspalt treffen, werden zu kohärenten Lichtquellen, die im Gleichtakt kreisförmige Wellen aussenden. Diese überlagern sich auf einem dahinter liegenden Projektionsschirm zu einem Streifenmuster, denn an jedem Ort auf dem Schirm ist der Abstand zu beiden Spalten und damit der Gangunterschied der Wellen fest. Wo der Gangunterschied ganze Vielfache der Wellenlänge beträgt, fallen Wellenberge stets zusammen, Wellentäler ebenso, und ihre Intensitäten addieren sich. Wo der Gangunterschied um eine halbe Wellenlänge verschoben ist, fallen Wellenberge auf Wellentäler und löschen sich stets aus. Dort bleibt es dunkel. Bild: Wikimedia Commons, Ebohr1.svg: en: User: Lacatosias, User: Stannered, CC BY-SA 3.0.

Das Muster verschwindet allerdings, wenn die beiden Spalte von verschiedenen Lichtquellen beleuchtet werden, etwa zwei verschiedenen Lasern, denn die schwingen nicht im Gleichtakt, sie sind nicht kohärent. Oder wenn die Lichtwellen von einer ausgedehnten Lichtquelle stammen, wo sie von verschiedenen Orten der Lichtquelle mit unterschiedlichen Phasen und Frequenzen erzeugt werden. Wenn der Physiklehrer früher (z.B. als ich zur Schule ging) keinen Laser hatte, hat er mit einem Spalt vor der Lichtquelle und ein paar Linsen dafür gesorgt, dass das Licht wieder von einer schmalen Lichtquelle ausging; dort vermischten sich alle Wellen von der Lichtquelle zu einem neuen Summensignal, das in beiden Spalten der Doppelspaltblende wieder im Gleichtakt schwingt.

Sehr kleine, nicht aufgelöste Punktlichtquellen (z.B. Sterne) wirken wie Laserlicht oder Licht von einem Spalt und verursachen ein Interferenzmuster, wenn man es durch zwei Optiken auffängt und überlagert. Ist die Quelle jedoch groß genug, um aufgelöst zu werden, dann hat man kein kohärentes Licht mehr, wie bei einer ausgedehnten Lichtquelle, und das Muster verschwindet. So können mit optischer Interferometrie Sterndurchmesser gemessen werden: man fährt zwei bewegliche Teleskope, die den Stern anpeilen und deren Licht des Sterns an einem Ort überlagert wird, gerade so weit auseinander, bis das Interferenzmuster verschwindet. Aus dem Abstand der Teleskope und der Wellenlänge folgt die Auflösung und damit der Winkeldurchmesser des Sterns. Man muss dafür nicht einmal ein Bild des Sterns aufnehmen!

Die Radioteleskope arbeiten bei VLBI ähnlich. Die Projektionsfläche wird gewissermaßen in der Verarbeitung durch den Computer hergestellt. Nur kann man bei VLBI die Radioteleskope nicht durch die Gegend schieben, um die Auflösung zu messen. Stattdessen nutzt man die Vielzahl von Basislinien, um gewissermaßen das Beugungsbild der Quelle abzutasten. Das folgende Bild zeigt eine Darstellung aller Basislinien des EHT. Je zwei Teleskope bilden eine Basislinie, die eine Länge und eine Richtung hat. Die Längen und Richtungen sind hier als Vielfache der Wellenlänge (Milliarden Wellenlängen, Gλ; 1 Gλ entsprechen 1300 km Länge der Basislinie) dargestellt, wobei v die Nord-Süd-Richtung und u die Ost-West-Richtung abbildet:

Bild der Basislinien des EHT und ihrer Abdeckung von M87*. Jede bunte Kurve zeigt die Länge einer Basislinie zwischen zwei Radioteleskopen an. Die u- und v-Achsen sind nichts anderes als die Richtungspfeile der Basislinien in Nord-Süd- (v) bzw. Ost-West-Richtung (u) projiziert auf eine gedachte Ebene senkrecht zur Sichtlinie zu M87. 1 Gλ entspricht 1300 km Entfernung der Radioteleskope. Die Paare ALMA und APEX bzw. JCMT und SMA befinden sich jeweils am gleichen Ort, daher befinden sie sich in der Bildmitte. Da sich die Erde während der Beobachtung dreht, ändert sich auch der auf die Ebene projiziert Abstand, und bei zur Blickrichtung gekippter Erdachse ergibt sich auch eine Variation in der Senkrechten, daher die “Würmchen” anstelle von einzelnen Punkten. Je weiter der Abstand der Teleskope, desto höher das Auflösungsvermögen. Die gestrichelten Kreise geben die Radien für 25 und 50 µas Auflösung an. Bild: The Event Horizon Collaboration, [1], CC BY 3.0.

Die Teleskope ALMA und APEX sind nur wenige Kilometer voneinander entfernt in Chile, JCMT und SMA sind beide auf Hawaii, daher liegen sie mit Basislängen nahe 0 in der Mitte. Da sich die Erde während der Beobachtung drehte, ändert sich die Basislänge aus Sicht von M87, wie die Schattenlänge eines Bleistifts, den man im Sonnenlicht um die Querachse dreht. Und da die Erdachse gegen die Sichtlinie verkippt ist, ändert sich auch die Orientierung der Basislinien, so dass die abgebildeten Würmchen entstehen.

Und nun hat man für jeder Basislinie die Intensität der Überlagerung des Signals, das von beiden Teleskopen an den Enden der Basislinie aufgenommen wurde, bestimmt, wobei der Tiefenversatz der Teleskope sowie Störungen durch die Atmosphäre herausgerechnet wurden – man denke sich die Teleskope somit alle in einer Ebene. Die Helligkeit ist am höchsten bei Gangunterschieden von einer Wellenlänge (Wellenberge und -täler fallen immer zusammen und addieren sich) und am niedrigsten bei einem Unterschied von einer halben Wellenlänge (Täler fallen immer auf Berge und löschen sich aus). Bei anderen Gangunterschieden ergeben sich Zwischenwerte – das ergibt das Interferenzmuster. Jeder Punkt im obigen Bild hat einen bestimmten Gangunterschied in u- und v-Richtung mit einer vom Beugungsbild abhängigen Helligkeit und jedes “Würmchen” tastet die Helligkeiten entlang seiner Ausdehnung ab. Plottet man die Helligkeiten in einem Diagramm über den Betrag der Länge der Basislinie, so erhält man dieses Bild:

Amplitude der Überlagerung der Signale für verschiedene Basislängen; die kleinen Rauten entsprechen Basislängen in Nord-Süd- (rot) bzw. Ost-West-Richtung (blau). Die blau gestrichelte Linie zeigt das erwartete Beugungsbild einer Scheibe, die grüne Fläche das Bild einer Sichel, Schwarz gepunktet die Gauß-Verteilung einer Punktquelle. Die Sichel ist verbreitert, weil sie in Nord-Süd-Richtung einen anderen Querschnitt als in Ost-West-Richtung hat, was man auch an der Verteilung der blauen und roten Messpunkte nachvollziehen kann. Bild: The Event Horizon Collaboration, [3], CC BY 3.0.

Man vergleiche das Bild mit dem folgenden:

Das Beugungsbild (Intensität über Radius) einer punktförmigen Quelle betrachtet durch eine kreisförmige Öffnung  wird durch eine sogenannte Besselfunktion erster Gattung und erster Ordnung wiedergegeben, wie oben zu sehen. Sie gibt die Helligkeitsverteilung über den radialen Abstand vom Zentrum des Bildes an und beschreibt somit die Beugungsringe der Punktquelle. Bild: Wikimedia Commons, gemeinfrei.

Das ist das Beugungsbild (oder Interferenzbild), das man erhält, wenn man eine punktförmige Quelle (z.B. einen Stern) durch eine kreisförmige Öffnung (z.B. ein Teleskop) betrachtet und stark vergrößert (Besselfunktion erster Gattung und erster Ordnung). Man sieht einen Querschnitt durch die Beugungsringe. Umgekehrt verursacht eine kreisförmige Lichtquelle ein ähnliches Muster, wenn man es mit verschiedenen Basislängen abtastet. Im vorletzten Bild ist das erwartete Beugungsbild einer Vollscheibe gestrichelt überlagert, das einer Sichel in grünere Färbung. Durch mathematische Transformationen kann man aus dem Bild der Quelle auf das Beugungsbild schließen – und umgekehrt aus dem Beugungsbild auf das Bild der Quelle. Und so wurde das Bild von M87* aus dem Intensitätsbild der Basislängen errechnet! Die verschiedenen Orientierungen der Basislinien erlauben eine flächige Abbildung des Ringes in zwei Koordinaten.

In Bonn und Haystack wurden die Signale zweier verschiedener 2-GHz-Bänder um die beobachtete Frequenz von 230 GHz herum analysiert. 4 Teams arbeiteten parallel und unabhängig voneinander mit verschiedenen Software-Paketen an den Bildern, um jegliche Voreingenommenheit zu minimieren, und alle präsentierten am Ende sehr ähnliche Ergebnisse. Es wurden zehntausende von möglichen Parameterkombinationen simuliert und die aus ihnen folgenden Beugungsbilder den Messdaten angepasst.

Es sollte damit klar sein, dass es sich hier nicht um ein “Foto” handelt, sondern um eine komplexe Rekonstruktion der Lichtquelle.

 

Ist dies zweifelsfrei das Bild eines Schwarzen Lochs?

Das Bild ist im Einklang mit demjenigen, das man für ein rotierendes Schwarzes Loch von 6,5 Milliarden Sonnenmassen erwarten würde, dessen Photonenring man abgebildet hat. Der sich zum Zentrum hin stark verengende Jet und die mit dem Blandford-Znajek-Prozess kompatible hohe Leuchtkraft des Jets deuten jedenfalls auf die Existenz eines Ereignishorizonts als Quelle des Jets hin.

Ausschließen kann man das Bild eines Einsteinrings einer hellen Stelle des dahinter liegenden Jets, denn dazu hätte die Ausrichtung über mehrere Tage sehr exakt beibehalten werden müssen. Es gibt eine Reihe von exotischen Alternativen zu Schwarzen Löchern wie Bosonensterne, Wurmlöcher und nackte Singularitäten, die durch die Beobachtungen ebenfalls ausgeschlossen werden können. Nackte Singularitäten (solche, die nicht von einem Ereignishorizont umschlossen sind; theoretisch denkbar, wenn sich die Ringsingularität schneller drehen würde, als die als maximal betrachtete Rate von a=1) würden bei gleicher Masse einen kleineren Schatten verursachen. Gleiches gilt für Wurmlöcher. Hypothetische Bosonensterne bestehen aus einem Gas von massebehafteten Teilchen mit ganzzahligem Spin, die sich untereinander abstoßen; das Axion wäre ein Kandidat und wird auch als solcher für die Dunkle Materie gehandelt. Man denke sich einen hinreichend dichten Haufen aus Dunkler Materie, der keine feste Oberfläche hat, sondern sich nach außen verdünnt. Auch diese könnten einen Photonenring haben, aber keinen Ereignishorizont. Solche hätten aber, laut [1], statt Akkretionsscheiben einen Akkretionstorus ohne Jet.

Noch nicht ausgeschlossen werden kann hingegen ein Gravastern, eine Alternative zu Schwarzen Löchern, die davon ausgeht, dass das Vakuum sich bei Verdichtung der Materie so verändert, dass das Objekt nicht bis unter den Ereignishorizont schrumpft und somit kein Schwarzes Loch wird. Um einen Gravastern von einem Schwarzen Loch zu unterscheiden, müsste man nach Infrarot- und UV-Strahlung einer leuchtenden Stern-Photosphäre oder Unterschieden in der Flussdynamik der Akkretionsscheibe suchen. Licht einer Photosphäre hat man mit konventionellen Teleskopen bisher nicht gefunden.  Über die Flussdynamik in der Akkretionsscheibe könnte die noch nicht erfolgte Auswertung der Polarisationsdaten des EHT mehr Aufschluss geben, denn die Polarisierung der Strahlung erlaubt vielleicht Rückschlüsse auf die Magnetfelder in der Akkretionsscheibe.

 

Referenzen

[1] The Event Horizon Telescope Collaboration, “First M87 Event Horizon Telescope Results. I.The Shadow of the Supermassive Black Hole“, The Astrophysical Journal Letters, Volume 875, Number 1, 10. April 2019, CC BY 3.0.

[2] The Event Horizon Telescope Collaboration, “First M87 Event Horizon Telescope Results. V. Physical Origin of the Asymmetric Ring“, The Astrophysical Journal Letters, Volume 875, Number 1, 10. April 2019, CC BY 3.0.

[3] The Event Horizon Telescope Collaboration, “First M87 Event Horizon Telescope Results. VI. The Shadow and Mass of the Central Black Hole“, The Astrophysical Journal Letters, Volume 875, Number 1, 10. April 2019, CC BY 3.0.

Kommentare (108)

  1. #1 MartinB
    18. April 2019

    Kannst du dem paper entnehmen, unter welchem Winkel wir auf das SL schauen bzw. wie genau der Jet orientiert ist. Ich habe es so verstanden, dass der Jet im 17° gegen unsere Sichtlinie verkippt ist und noch west-Bordwest zeigt, unter einem Winkel von 18° (also im Bild leicht nach rechts oben), aber ich bin nicht sicher, ob ich das richtig verstehe.

  2. #2 Spritkopf
    18. April 2019

    Daraus kann man schließen, dass der Jet parallel zur Drehachse des Schwarzen Lochs ausgestoßen wird. Und da der Jet von der Akkretionsscheibe erzeugt wird, ist diese also mit der Drehachse des Schwarzen Lochs parallel – oder antiparallel.

    Müsste dann die Drehachse des Schwarzen Lochs nicht senkrecht auf der Akkretionsscheibe stehen? Soweit ich das gelernt habe (und soweit es auch bei Wiki steht), fließt der Jet senkrecht von der Akkretionsscheibe ab. Wenn er gleichzeitig parallel zur Drehachse ausgestoßen wird, kann diese nicht parallel zur Akkretionsscheibe stehen.

  3. #3 Alderamin
    18. April 2019

    @MartinB

    Genau an die 17° kann ich mich auch erinnern (hätte eigentlich mit hinein gehört, habe ein wenig die Übersicht verloren…). Aber die Richtung des Jets müsste eigentlich eher Südwest sein, die Achse des Schwarzen Lochs geht nach Nordost. Am Himmel ist Osten auf 9 Uhr.

  4. #4 Alderamin
    18. April 2019

    @Spritkopf

    Müsste dann die Drehachse des Schwarzen Lochs nicht senkrecht auf der Akkretionsscheibe stehen?

    Tut sie ja. Parallel oder antiparallel zur Achse des Schwarzen Lochs.

    Soweit ich das gelernt habe (und soweit es auch bei Wiki steht), fließt der Jet senkrecht von der Akkretionsscheibe ab. Wenn er gleichzeitig parallel zur Drehachse ausgestoßen wird, kann diese nicht parallel zur Akkretionsscheibe stehen.

    Verstehe den Einwand nicht. Der Jet fließt entlang der Drehachse der Scheibe ab, die senkrecht zur Scheibenebene steht. Und parallel/antiparallel zur Achse des Schwarzen Lochs.

    Die Aufhellung hat 90° Positionswinkeldifferenz zur Drehachse des Schwarzen Lochs, liegt also seitlich in der Ebene der Scheibe. Da, wo der Äquator des Schwarzen Lochs sich auf uns zu dreht.

  5. #5 Till
    18. April 2019

    @Alderamin – erst einmal vielen Dank für diese tollen Artikel (den hier und den auf Heise.de)! Und Glückwunsch zu der Autorschaft auf Heise.de.

    Eine Sache hat mich Gewundert: Bei der Diskussion der verschiedenen Bilder schreibst Du:

    Erwartungsgemäß bestimmt der Drehsinn der mitgezogenen Raumzeit, welche Seite des Photonenrings hell erscheint. Die Simulation belegt, dass man hier tatsächlich nicht die Akkretionsscheibe selbst sieht, denn ansonsten käme es darauf an, welche Seite der Scheibe sich auf den Beobachter zu dreht – diese wäre dann die hellere. Damit ist M87* sicher ein Kerr-Black-Hole.

    Wenn ich das richtig verstanden habe, sind die Simulationen auf denen das betreffende Bild diskutiert wird ja unter der Annahme (evtl. basierend auf anderen Messungen?) entstanden, dass es sich um ein Kerr-Black-Hole handelt. Prinzipiell wäre es doch sicherlich auch möglich allein aufgrund der Rotation der Akkretionsscheibe ein ähnliches Bild zu erhalten, sofern das schwarze Loch gar nicht rotiert!?! Wenn die Rotation als Annahme in die Simulationen eingeflossen ist, dann können die Ergebnisse eine Rotation aber weder bestätigen noch widerlegen da es sich sonst um einen Zirkelschluss handelte.

  6. #6 Alderamin
    18. April 2019

    @Till

    Wenn ich das richtig verstanden habe, sind die Simulationen auf denen das betreffende Bild diskutiert wird ja unter der Annahme (evtl. basierend auf anderen Messungen?) entstanden, dass es sich um ein Kerr-Black-Hole handelt.

    Kann man so direkt nicht sagen. Die Simulation mit einem einseitig aufgehellten Ring passte am besten zum Beugungsbild, so muss man das sagen. Natürlich hat man auch andere Fälle mit weniger Rotation simuliert. Man kann also sagen, das Beugungsbild zeigt einen Ring mit einseitiger Aufhellung.

    Der Ring wiederum ist genau dann einseitig aufgehellt, wenn das Schwarze Loch rotiert. Nicht, wenn nur die Scheibe rotiert. Die Rotation des Schwarzen Lochs dominiert das Bild. Daher: Kerr-Black-Hole.

  7. #7 Till
    18. April 2019

    @Alderamin

    Der Ring wiederum ist genau dann einseitig aufgehellt, wenn das Schwarze Loch rotiert. Nicht, wenn nur die Scheibe rotiert.

    Ich glaube ich stehe immer noch auf dem Schlauch. Weiter oben im Text heißt es:

    Der Doppler-Effekt sorgt dafür, dass die Intensität des Rings auf derjenigen Seite, die sich auf den Beobachter zu bewegt, nicht nur blauverschoben wird, sondern auch heller erscheint

    Das gilt — soweit ich es verstehe — auch für eine rotierende Akkretionsscheibe.

    Ist es dann so, dass eine rotierende Akkretionsscheibe alleine die Stärke des Helligkeitsunterschiedes an verschiedenen Stellen der Sichel nicht erklären kann?

  8. #8 Alderamin
    18. April 2019

    @Till

    Schau doch mal in dem 3. Bild von oben mit den Drehachsen. Es ist ziemlich egal, in welche Richtung die Akkretionsscheibe sich dreht, das macht keinen Unterschied, es kommt nur auf die Drehrichtung des Schwarzen Lochs an.

    Ich habe hier jetzt keine Darstellung für den Fall, dass das Schwarze Loch still steht und die Scheibe rotiert. Wenn aber die retrograde Rotation der Scheibe gar keinen Einfluss auf das Bild hat, dann wird bei einem Schwarzschild-Loch keine starke einseitige Aufhellung durch die Scheibe zu erwarten sein.

    Man muss sich klar machen, dass das Licht Orbits um das Schwarze Loch zieht und auch vom Jet stammen kann. Man sieht die Scheibe mit ziemlicher Sicherheit nicht an der Stelle hell, wo sie tatsächlich am hellsten ist. Sie erscheint, wenn überhaupt, extrem verzerrt und verschmiert.

  9. #9 Spritkopf
    18. April 2019

    @Alderamin

    Verstehe den Einwand nicht. Der Jet fließt entlang der Drehachse der Scheibe ab, die senkrecht zur Scheibenebene steht. Und parallel/antiparallel zur Achse des Schwarzen Lochs.

    Weil du schriebst: “Und da der Jet von der Akkretionsscheibe erzeugt wird, ist diese also mit der Drehachse des Schwarzen Lochs parallel – oder antiparallel.”

    Aber es ist nicht die Akkretionsscheibe (ihre Ebene), die parallel zur Drehachse des Schwarzen Loches steht, sondern ihre Drehachse. Schreibst du ja auch so in deiner Antwort.

    Oder mache ich jetzt einen Gedankenfehler?

  10. #10 Till
    18. April 2019

    @Alderamin

    Ich habe hier jetzt keine Darstellung für den Fall, dass das Schwarze Loch still steht und die Scheibe rotiert. Wenn aber die retrograde Rotation der Scheibe gar keinen Einfluss auf das Bild hat, dann wird bei einem Schwarzschild-Loch keine starke einseitige Aufhellung durch die Scheibe zu erwarten sein.

    Das ist schade – genau so ein Bild würde mich auf jeden Fall überzeugen ;-).

    Ich verstehe schon, dass der Effekt der Rotation des schwarzen Loches auf die Intensitätsverteilung überwiegt. Ich bin mir aber eben nicht so sicher wie Du, dass ein Bild einer rotierenden Akkretionsscheibe bei stillstehendem schwarzem Loch so komplett anders aussehen würde. Du darfst nicht vergessen, dass die Farbwerte/Helligkeit des Bildes ja zwischen Maximal- und Minimalhelligkeit skaliert wurden. das bedeutet, selbst wenn die relativen Intensitätsunterschiede kleiner wären, sähe das Bild bei der richtigen Helligkeitsskalierung unter Umständen gleich aus. (das Problem haben meine Studenten bei der Auswertung von Mikroskopiedaten oft). Ausserdem ist ja auch der Beitrag des Jets nicht ganz klar.

    Insofern überzeugt mich die Abbildung alleine noch nicht ganz. Davon abgesehen zweifle ich selbstverständlich nich an der Tatsache dass das schwarze Loch rotiert. Dafür gibt es sicherlich auch andere Belege — bisher rotieren ja alle schwarzen Löcher und auch sonst alle Himmelskörper bei denen man das nachmessen konnte. Es geht mir nur darum, dass die gezeigten Daten alleine aus meiner Sicht noch nicht eindeutig sind.

  11. #11 Alderamin
    18. April 2019

    @Spritkopf

    Aber es ist nicht die Akkretionsscheibe (ihre Ebene), die parallel zur Drehachse des Schwarzen Loches steht, sondern ihre Drehachse. Schreibst du ja auch so in deiner Antwort.

    Ja, die Drehachse ist gemeint.

    Weil du schriebst: “Und da der Jet von der Akkretionsscheibe erzeugt wird, ist diese also mit der Drehachse des Schwarzen Lochs parallel – oder antiparallel.”

    Ist missverständlich formuliert, werde ich ändern.

  12. #12 Alderamin
    18. April 2019

    @Till

    Das ist schade – genau so ein Bild würde mich auf jeden Fall überzeugen ;-).

    Ref. [2] Figure 2. Von links nach rechts die Rotation des Schwarzen Lochs von ~ maximal retrograd bis ~ maximal prograd, in der Mitte Schwarzschild. Von oben nach unten abnehmende Scheibentemperatur. Zu vergleichen wäre evtl. Mitte ganz oben mit rechter Spalte. Die Aufhellung ist rechts stärker ausgepägt, schmäler und an anderer Stelle (6 Uhr statt 4 Uhr im Schwarzschild-Bild).

  13. #13 Till
    18. April 2019

    @Alderamin Ref. [2] Figure 2. . Super, danke!

  14. #14 Alderamin
    18. April 2019

    @Spritkopf

    Hab’ die Stelle geändert und noch ein paar Klarstellungen beim Jet und bei der Besselfunktion eingefügt. War schon früh letzte Nacht, als ich den Text korrekturgelesen hatte…

  15. #15 MartinB
    18. April 2019

    @Alderamin
    Irgendwo (ich glaube in paper 5) steht was von West-Northwest für den Jet, aber dann habe ich es wohl zhumindest primzipiell richtig verstanden.
    Ich find es immer noch erstaunlich, dass es ein entsprechendes Bild “So gucken wir auf das SL, hier wäre die Akkretionsscheibe, hier ist der Photonradius” nirgends gibt.

  16. #16 Spritkopf
    18. April 2019

    @Alderamin

    Danke. War eigentlich auch nur eine missverständliche Kleinigkeit in einem gewohnt lehrreichen Artikel. In die EHT-Veröffentlichungen hatte ich mich auch schon vergraben (und bin auch noch nicht ganz durch), aber nach deinem Artikel wird mir vieles klarer.

    @MartinB

    Ich find es immer noch erstaunlich, dass es ein entsprechendes Bild “So gucken wir auf das SL, hier wäre die Akkretionsscheibe, hier ist der Photonradius” nirgends gibt.

    Ich weiß, du magst sonst keine Videos, aber dieses hier leistet genau das.

  17. #17 MartinB
    18. April 2019

    @Spritkopf
    Wirklich? Das habe ich (nicht vollständig) angeguckt, aber es wurde doch vor dem Photo gedreht? Da wird doch nicht ein Modell des SL unter dem richtigen Winkel vor’s Foto gehalten, sondern nur erklärt, wie das Bild unter unterschiedlichen Winkeln aussieht?
    Oder hab ich das übersehen?

  18. #18 Spritkopf
    18. April 2019

    @MartinB

    sondern nur erklärt, wie das Bild unter unterschiedlichen Winkeln aussieht

    Ähm, ja, das ist richtig. Ich dachte, du meintest ein Bild davon, wie das SL prinzipiell aussehen würde. Das Bild der EHT-Kollaboration konnte er ja nicht verwursten, weil das (wie du schon schriebst) erst Tage später veröffentlicht wurde.

  19. #19 MartinB
    18. April 2019

    ALso, ich habe gerade nochmal gegcukt, im paper steht
    The approaching side of the large-scale jet in M87 is oriented west–northwest (position angle $\mathrm{PA}\approx 288^\circ ;$ in Paper VI this is called ${\mathrm{PA}}_{\mathrm{FJ}}$), or to the right and slightly up in the image.
    Was mich etwas verwirrt. Wenn es West-Nordwest ist, dann wäre doch (mit Norden “oben” und im Uhrzeigersinn geguckt) der Jet nach links oben?

  20. #20 Alderamin
    18. April 2019

    @MartinB

    Genau. Position angle 288° ist etwa auf 2 Uhr.

    Da die Galaxie immer anders herum abgebildet ist, ging ich davon aus, dass der Jet auf 4 Uhr (also PA rund 240°) zeigt, aber die Orientierung von Himmelsobjekten auf Fotos ist ja oft nicht eingenordet (oder -gesüdet; Süden wird gerne nach oben genommen, weil wir Nordhalbkugel-Chauvinisten sind und das astronomische Teleskop das Bild auf den Kopf stellt).

  21. #21 MartinB
    18. April 2019

    Aber wieso ist dann zwei Uhr West-Nordwest? Oder ist das eben weil Süden oben ist?
    Dann find ich Astronomen ab jetzt doof…

  22. #22 MartinB
    18. April 2019

    Sehe ich es dann aber richtig, dass es so etwa wie in diesem Bild ist
    https://pbs.twimg.com/media/D35CjpuWkAEjB2y.png
    (im letzten Teilbild ist der horizontale strich falsch, man müsste um die vertikale Achse drehen…)

    Und dann dreht sich das SL von uns aus gesehen im Uhrzeigersinn und deshalb ist der untere Bereich auf uns zu und heller? Passt das?

  23. #23 Alderamin
    18. April 2019

    @MartinB

    Aber wieso ist dann zwei Uhr West-Nordwest?

    Weil Norden oben und Westen rechts ist. Das ist halt so, wenn man eine Kugel von innen betrachtet: wenn Du nach Süden schaust, geht die Sonne links auf und rechts unter, also ist links Osten und rechts Westen.

    Auf einer Landkarte guckst Du von außen auf die Erde, das ist Osten rechts und Westen links.

  24. #24 Alderamin
    18. April 2019

    @MartinB

    Sehe ich es dann aber richtig, dass es so etwa wie in diesem Bild ist
    https://pbs.twimg.com/media/D35CjpuWkAEjB2y.png

    Ja, müsste passen.

    Und dann dreht sich das SL von uns aus gesehen im Uhrzeigersinn und deshalb ist der untere Bereich auf uns zu und heller? Passt das?

    Genau, wobei in einem der Paper steht, dass die helle Stelle 90° vom Positionswinkel des Jets entfernt ist, das wäre dann bei ca. 5 Uhr. Macht Sinn, dass es da am hellsten ist, weil da die Komponente der Drehung in unsere Richtung am größten ist (ist aber nicht der Torus, sondern das Schwarze Loch selbst).

  25. #25 MartinB
    18. April 2019

    @Alderamin
    “Weil Norden oben und Westen rechts ist”
    Oh, Mann, ihr Astro-Typen habt schon seltsame Konventionen 😉

    Aber wenn das Bild, das ich gezeichnet habe, halbwegs passt, dann Frage ich mich, warum zum Geier so ein Bild nicht in jedem Artikel neben das Foto gezeichnet wird, um die Sache klar zu machen. Stattdessen wird immer erzählt, dass es ja kompliziert ist mit dem Licht und der Beugung und allem Möglichen… Ich kann doch nicht der einzige sein, den das interessiert!???

  26. #26 rolak
    18. April 2019

    ab jetzt doof

    :mrgreen: moin Bernd!

  27. #27 bote19
    18. April 2019

    Alderamin,
    dein Beitrag ist superspannend und mit etwas Optikwissen auch gut zu verstehen.
    Leider hat man auf der Mittelstufe, also der Realschule , bei uns die Optik aus dem Lehrplan gestrichen.

    MartinB
    du bist nicht der Einzige. Lichtbeugung am Schwarzen Loch , dafür hatte ich bis jetzt keine Zeit. Babysitten.

  28. #28 Herr Senf
    18. April 2019

    Habt ihr heute schon bei arxiv vorbeigeschaut https://arxiv.org/abs/1904.07923
    Measurement of the spin of the M87 black hole from its observed twisted light
    DeepL übersetzt:
    “Hier berichten wir über den Nachweis der GR-induzierten Wirbelbildung im Radio, das vom Einsteinring emittiert wird, der den Schatten der rotierenden ∼6.5×10^9 Sonnenmasse BH im Kern der M87-Galaxie umgibt, wie vom Event Horizon Telescope (EHT) beobachtet. Die M87-Spiralspektren wurden in EHT-Intensitätsprofildaten mit Hilfe einer Wellenfront-rekonstruktion identifiziert, die die Wiederherstellung der Phasenfront ermöglicht. Sie zeigen, dass sich die M87 BH im Uhrzeigersinn dreht, mit Neigung i=17° und Rotations-parameter a=0,9±0,1, was einer Rotationsenergie von etwa 10^64 erg entspricht.”

  29. #29 bote19
    19. April 2019

    Unsere Sonne hat eine Rotationsenergie von 10 hoch 35 Joule. M 87 hat 10 hoch 57 Joule. Das ist 10 hoch 22 mal mehr.
    Verneigt euch ihr Sterblichen vor M 87 !
    Heute ist Karfreitag, da soll uns die Größe und das Elend des Menschengeschlechtes in Erinnerung gerufen werden.

  30. #30 rolak
    19. April 2019

    M87 BH

    weia, erst schwarzes Loch und jetzt auch noch BH; ist da irgendein priming aktiv?

    da soll uns

    Nu, das Elend des Menschengeschlechtes verstehen manche sich kommentieren Wähnende hier trefflich in Erinnerung zu rufen, ganz diesseitig erfahrbar.

  31. #31 Spritkopf
    19. April 2019

    Heute ist Karfreitag

    Wieso habe ich ausgerechnet jetzt Lust auf gegrillte Hähnchenschenkel?

  32. #32 bote19
    19. April 2019

    Hühnchen von Kentucky Fried Chicken ist ein No go am Karfreitag. Grashüpferschenkel seien dir gegönnt, wenn du dich schon als triebhaft outest.

  33. #33 Alderamin
    19. April 2019

    @bote19, Spritkopf

    Ähem, das droht lang und off-topic zu werden…

  34. #34 Spritkopf
    19. April 2019

    @Alderamin

    Ähem, das droht lang und off-topic zu werden…

    Meinerseits nicht.

  35. #35 lomb
    19. April 2019

    Vielen Dank für den spannenden Artikel mit den vielen zusätzlichen “verständlich as possible” verpackten Informationen.

  36. #36 Herman
    Bern
    20. April 2019

    Toller Artikel! Bisher der ausführlichste, den ich abseits der Publikationen gesehen habe! 🙂

    Nur 1 Punkt: “Photonen, die in der Photonensphäre kreisen, können heftig kollidieren und dabei Elektron-Positron-Paar erzeugen.”

    Photonen können nicht miteinander kollidieren, als neutrale und masslose Teilchen ist ihre gemeinsame Kopplungskonstante 0. e+e- Paare entstehen spontan, in erster Ordnung spaltet sich das Photon in ein reales e+ und ein virtuelles e-, welches dann mit einem weiteren Teilchen (wg. der Impulserhaltung) ein virtuelles Photon austauscht. Dabei entsteht dann ein reales e-.

    Soweit zumindest das Feynman Diagramm erster Ordnung gemäss QED.

    Aber vielleicht gibt es ja noch weitere Prozesse, die man als Photonen-Kollision interpretieren könnte?

  37. #37 Alderamin
    20. April 2019

    @Herman

    Danke. In der Wikipedia steht:

    Durch die Vergrößerung der Feldstärke kann in einer Kaskade aus einfallenden Gammaphotonen mit Photonen, die im Photonenorbit gefangen sind, ein leptonisches Paarplasma aus Elektronen und Positronen, die sogenannte Penrose-Paarbildung, erzeugt werden

    Ich hatte das so verstanden, dass Gammaphotonen mt solchen im Photonenorbit kollidieren und e+e- Paare erzeugen. Quasi die Umkehrung der Paarvernichtung.

  38. #38 yukterez.net
    Wien
    20. April 2019

    Bei “so dass der Ring 11±0,5 Gravitationsradien durchmisst (d.h. sein Radius beträgt 2,75±1,25 Schwarzschildradien)” hat sich ein Kommafehler eingeschlichen denn denn 0.5/11=0.125/2.75 und nicht 1.25/2.75

  39. #39 Alderamin
    20. April 2019

    @yukterez.net

    Danke, wird korrigiert!

  40. #40 Torq
    21. April 2019

    @Alderamin

    Da du deinen (wirklich grandiosen) Artikel auf heise.de erwähnt hast: Auf golem.de ist ebenfalls ein Artikel erschienen.

    „Kein Foto von einem schwarzen Loch“ von Frank Wunderlich-Pfeiffer

    https://www.golem.de/news/wissenschaft-kein-foto-von-einem-schwarzen-loch-1904-140774.html

    Der Name des Autors sagt zumindest mir nichts… Sein Fazit:

    „Trotz aller Bemühungen bleibt es dabei: Das Bild des schwarzen Lochs ist nur eine von vielen möglichen Interpretationen der Daten und kein genaues Abbild.“

    Ok, dass wir nicht von einem genauen Abbild sprechen können, ist sowieso klar. Aber ist es wirklich so schlecht, wie die reißerische Überschrift andeutet? Ich kann das nicht einschätzen…

    Auch interessant ein Zitat des Autors aus der Diskussion: „Die Fouriertransformation eines Punktes im Phasenraum mag das ganze Bild mit Pixeln füllen, aber diese Pixel sagen sehr wenig über das reale Bild aus. Ja, er bildet jeden Punkt im Realraum ab, aber nicht mit den realen Werten. Es ist keine echte Rekonstruktion eines Bildes. […]
    Es ist eben nicht so, dass hier Teile des Phasenraums fehlen, sondern dass nur kleine Teile des Phasenraums überhaupt gemessen werden konnten. Und das ist auch das, was die Forscher ganz klar im Paper sagen.“

    Was meinst du denn dazu?

  41. #41 Torq
    21. April 2019

    @Alderamin

    Ich bin jetzt mal davon ausgegangen, dass der Satz (das Fazit) kurz genug zum Zitieren ist und Aussagen aus dem Kommentarbereich generell zitiert werden dürfen. Ich hoffe, das ist so korrekt… 🙁

    Falls nicht, bitte löschen, *schäm*

  42. #42 Till
    21. April 2019

    @Torq das was Herr Wunderlich Pfeiffer schreibt gilt grundsätzlich für jedes Bild. Eine Linse macht nichts anderes als die Fourier-Transformation des Bildes und die zweite Linse macht die Fourier-Transformation zurück zu einem verkleinerten/vergrößerten Bild. dabei kann immer prinzipiell nur ein Teil des Phasen Raumes erfasst werden. Die Kritik zeigt also nur dass der Autor keine Ahnung hat. Die Schwierigkeit für das Event Horizon telescope ist eher die algorithmische Interferenz im Computer bei der die phasenkohärenz rechnerisch rekonstruiert werden musste. Das wird aber alles in dem Publikationen auch genau diskutiert und besprochen. Bas Bild ist die wahrscheinlichste Rekonstruktion der Abbildung aus den Daten.

  43. #43 Torq
    21. April 2019

    @Till

    Vielen Dank für deine schnelle Antwort! Das war auch einer der ersten Kommentare zum Artikel. Im Rahmen der Diskussion kam es dann zu der o.g. Aussage – knapp gesagt: Wenn es keine (oder zumindest zu wenige) Daten gibt, sondern nur Bruchstücke der Fouriertransformation, dann könne man auch kein wahrscheinliches Bild rekonstruieren…

    Angeblich wurde das Bild auch deshalb ausgewählt, weil die Forscher ein SL erwartet haben (also gefittet). Es habe auch verschiedene andere Interpretationen gegeben, die sogar besser zu den Daten gepasst hätten.

    Ich würde jetzt nicht sagen, dass es verwerflich ist, neben den Beobachtungen weitere bekannte Daten (aus anderen Beobachtungen) zu berücksichtigen. Und ich mache mir die Sicht des Autors auch nicht zu eigen, das hätten Alderamin, Florian oder einer der anderen Experten hier sicher schon geschrieben.

    Aber evtl. hätte ich es nicht mal registriert… Und eine fundierte Widerlegung der Behauptungen (wenn auch nur für mich) war mir halt ebenfalls nicht möglich…

    @Alderamin

    Golem.de schreibt übrigens explizit: „Es steht jedem frei, aus unseren Artikeln zu zitieren.“

    (Das Leistungsschutzrecht, das in D ja schon seit 2013 gilt, verunsichert mich halt trotzdem immer wieder. Weshalb ich normalerweise nie direkt zitiere. War halt spät…)

  44. #44 HF(de)
    21. April 2019

    Unbekannt ist Wunderlich-Pfeiffer hier auf scienceblogs nicht, der schreibt (schrieb) eigentlich recht fundiert: http://scienceblogs.de/wasgeht/

  45. #45 Till
    21. April 2019

    @Torq:

    Wenn es keine (oder zumindest zu wenige) Daten gibt, sondern nur Bruchstücke der Fouriertransformation, dann könne man auch kein wahrscheinliches Bild rekonstruieren…

    Das ist viel zu stark vereinfacht. Ich versuche mal das etwas zu erklären: man kann aus einer Fourier Transformation (ich kürze das jetzt mal als FT ab) immer ein Bild rekonstruieren je mehr Informationen man von der FT hat, desto mehr Information kann man rekonstruieren.

    Wenn man z.B. nur den zentrale Punkt der FT kennt, dann bekommt man eine einfarbige Fläche, die keine Details enthält und so hell ist wie die durchschnittliche Helligkeit des abzubildenden Objektes. Je mehr aus dem Aussenbereich der FT man kennt, desto mehr details kann man rekonstruieren.

    Da eine FT aber unendlich groß ist, kann man in der Praxis immer nur einen Teil der Information rekonstruieren. Ein Bild hat folglich immer Fehler. Das ist auch der Grund, warum bei Teleskopen/Mikroskopen/Kameras die Auflösung limitiert ist: Die Informationen über die Details liegen in der FT aussen. D.h. je größer die Fläche der FT desto besser die Auflösung. In der Praxis wird die Größe der FT durch die Größe des Objektivs/Spiegels limitiert. Beim EHT wurde im Rechner nun ein Teil einer riesigen FT rekonstruiert, die insgesamt so groß wie die Erde ist.

    Das Bild oben mit den vielen bunten Würmchen zeigt, wieviel von der FT durch die Teleskope abgedeckt wurde. Natürlich hat die Abdeckung in diesem Fall (große) Löcher, aber trotzdem kann man aus dieser unvollständigen FT ein Bild rekonstruieren. Dieses Bild wird aber wegen der unvollständigen FT nicht exakt sein. Zum Beispiel wird die maximale Auflösung nur durch die Basislinien JCMT-PV und PV-SMA in Ost-West Richtung erreicht während die Auflösung in Nord-Süd Richtung geringer ist. All dieser Effekte sind sich die Wissenschaftler aber bewusst und haben sie berücksichtigt. Deshalb zeigen sie auch nur einen verschwommenen Ring und keine detaillierte Akkretionsscheibe.

    Ich bin mir aber sicher, dass wir uns darauf verlassen können, dass die Rekonstruktion nach bestem Wissen und Gewissen passiert ist und das (nach aktuellem Wissensstand) wahrscheinlichste Bild darstellt.

    Es habe auch verschiedene andere Interpretationen gegeben, die sogar besser zu den Daten gepasst hätten.

    Das ist ohne klare Belege nichts weiter als eine Unterstellung. Und wenn derjenige gute Belege für seine Aussage hätte, würde er ein Science Paper schreiben und keine Kommentare bei Golem. Alderamin hat ja die Abbildung gezeigt, wo die verschiedenen Fits verglichen werden und sowohl eine nicht aufgelöste Punktquelle (Gaussian) als auch eine Scheibe passen deutlich schlechter zu den Daten als eine Sichel.

  46. #46 Karl Mistelberger
    21. April 2019

    > #43 Torq, 21. April 2019
    > Angeblich wurde das Bild auch deshalb ausgewählt, weil die Forscher ein SL erwartet haben (also gefittet). Es habe auch verschiedene andere Interpretationen gegeben, die sogar besser zu den Daten gepasst hätten.

    Irgendjemand hat das Thema aufgegriffen. Jetzt arbeiten sich viele daran ab. Das eigentliche Problem liegt aber woanders:

    Ziemlich sicher entsteht auf der Netzhaut ein auf dem Kopf stehendes und seitenverkehrtes Bild. Was danach passiert liegt völlig im Dunkeln.

  47. #47 Alderamin
    21. April 2019

    @Torq

    Ich habe mir Franks Text (den ich schon kannte) noch einmal in Ruhe durchgelesen und kann daran nichts falsches finden, aber auch nichts, was dem widerspricht, was ich hier geschrieben habe. Ja, man hat nicht das vollständige Beugungsbild, sondern nur Ausschnitte davon (siehe Grafiken oben). Ja, die Rücktransformation des Bildes ist nicht eineindeutig. Ja, man hat gewisse plausible Annahmen in die Erzeugung des Bildes gesteckt. Und vier Teams kamen trotzdem unabhängig voneinander auf das gleiche Ergebnis.

    Und das ist eben eine einseitig aufgehellte Sichel, die die grüne Fläche im vorletzten Bild approximiert (wobei die roten Punkte die Sichel anscheinend längs durch die Aufhellung durchschneiden und die blauen Punkte quer dazu). Die Sichel dürfte das einfachste Muster gewesen sein, das mit dem Beugungsbild kompatibel war.

    Ganz ähnlich sieht es aus, wenn Sterndurchmesser mit der oben beschriebenen Methode gemessen werden. Man misst den Abstand der Teleskope, wenn das Interferenzmuster verschwindet, daraus folgt der Durchmesser des Sterns. Misst man den Durchmesser entlang mehrerer Basislinien, kann man vielleicht eine Abplattung feststellen. Man nimmt dann an, der Stern sein ein Ellipsoid, weil das logisch ist. Es könnte aber auch ein Vieleck sein (Stoppschild oder so). Macht physikalisch keinen Sinn, wäre aber mit den Messdaten ggf. verträglich. Trotzdem kein Grund, an der ellipsoiden Form des Sterns zu zweifeln.

    Physikalisch Sinn machen würde bei M87* eine Scheibe (wenn’s ein Gravastern wäre), ein nicht aufgelöster Punkt (wenn’s kleiner als die Auflösung und ohne Ereignishorizont wäre) oder ein mehr oder weniger abgeflachter Ring (Photonenring, Akkretionsscheibe), ggf. mit einem Strich durch die Mitte (wie das Schwarze Loch bei Interstellar, die Scheibe vor dem Schwarzen Loch). Ein Ring mit 4:3-Verhältnis, der auf einer Seite aufgehellt ist, passte am besten. Der Strich ist bei dem Betrachtungswinkel fast entlang der Achse nicht zu erwarten, ich denke, man hätte ihn im Beugungsbild erkennen können, wenn er vorhanden und hell genug wäre. Insofern denke ich, dass das Bild eine zuverlässige Rekonstruktion der realen Situation ist.

    Ein Foto ist es nicht. Aber genau das steht ja auch bei mir im letzten Satz des Abschnitts “Wie entstand das Bild?” Da gehe ich mit Franks Artikel-Titel doch ganz konform.

  48. #48 Torq
    22. April 2019

    @Alderamin

    Vielen Dank für deine sehr ausführliche Antwort!

    Unsicher war ich mir vor allem bzgl. der Grenzen des eingesetzten Verfahrens (FT/Interferometrie). Du hast das Verfahren natürlich beschrieben. Aber eher wie es grundsätzlich funktioniert und konkret angewandt wurde, weniger im Sinne einer kritischen Auseinandersetzung. Hier hat Till mir auf die Sprünge geholfen, vielen Dank noch mal.

    Was ich von dem Artikel schon zuvor verstanden hatte, ist im engeren Sinne sicher nicht falsch. Er fühlt sich aber trotzdem sehr einseitig an, d.h. der Autor beschreibt vor allem die Unzulänglichkeiten des Verfahrens. Wer sich nicht mit dem Thema beschäftigt hat, wird m.E. mit unnötigen Zweifeln an der gesamten Methode und damit dem beeindruckenden Ergebnis zurückgelassen. Ein guter populärwissenschaftlicher Artikel sollte genau das nicht bewirken.

    Dass es kein Foto im engeren Sinne ist, das ist sowieso klar. Hier wurde ja kein optisches Verfahren angewandt. Dass es auch im erweiterten Sinn kein Foto (genaues Abbild) ist, hast du wohl mit den Anführungszeichen ausdrücken wollen. (Wobei, was ist schon „genau“? Ist der Maßstab hierfür unsere optische Wahrnehmung? Dann können wir sehr lange auf ein gutes Ergebnis warten…)

    Es fängt schon mit der Überschrift des Artikels an, die ist m.E. einfach unsinnig. Entweder, man interpretiert sie im Wortsinn, dann handelt es sich um eine Banalität. Oder man interpretiert „Foto“ eher als Bild – dann ist sie im besten Fall ungenau formuliert, aus meiner Sicht aber eher reißerisch.

    Und so geht es doch weiter (meine individuelle Einschätzung, wie die Formulierungen wirken):

    Die Fouriertransformation einfach nur „erraten“? Sicher nicht, hier war mehr als die reine Vorstellungskraft der Beteiligten am Werke.

    Es existieren falsche Bilder, die besser zu den vorliegenden Daten passen als das „echte Bild“? Dann kann die Methode ja nichts taugen… (Und warum ist das Bild jetzt eigentlich echt? Kann ein echtes Bild gleichzeitig ein ungenaues Abbild sein?!)

    „Allerdings“ haben die Teams ihr Vorwissen genutzt. Klingt fast abschätzig.

    Der Jet findet sich auf dem Bild nicht wieder? Unabhängig davon, dass das so nicht zwingend korrekt ist – was kann so ein Bild dann überhaupt wert sein?

    „Trotz aller Bemühungen bleibt es dabei“ – es ist schon klar, was „hat sich bemüht“ in einem Arbeitszeugnis bedeutet?

    Ich finde das zum Schreien. Von daher hat sich mir die Frage gestellt, wie andere Form und Inhalt (vor allem der sich mir nicht direkt erschließenden Teile) bewerten.

  49. #49 Till
    22. April 2019

    @Torq ich habe mir jetzt auch mal in Ruhe den Artikel bei Golem durchgelesen. Ich finde er erklärt die Methodik eigentlich ganz gut. Vor allem zeigt er gut einige Grenzen des Verfahrens auf — was ja immer wichtig ist, um die Ergebnisse korrekt einordnen zu können.

    Die aus meiner Sicht wichtigste Limitierung des Verfahrens fehlt allerdings: Die Genauigkeit der GPS Lokalisation der Teleskope reichte nicht aus, um direkt Interferenzmuster (= eine Fourier Transformation) zu erzeugen, aus den Daten musste erst mathematisch das wahrscheinlichste Interferenzmuster errechnet (=gefittet) werden.

    Insgesamt stimme ich Deiner Beurteilung des Artikels vollkommen zu: vor allem die Überschrift und der Teaser (die Unterüberschrift) finde ich ziemlich reißerisch und absichtlich abwertend formuliert. Auch die Formulierungen im weiteren Artikel die Du herausgepickt hast finde ich absichtlich abwertend.

    Mein Fazit: Der Artikel bei Golem wertet die herausragende Leistung des EHT-Teams absichtlich ab — vermutlich um Klicks zu generieren.

  50. #50 Till
    22. April 2019

    P.S. Der Titel des Golem Artikels ist übrigens definitiv falsch: Was das EHT Team erzeugt hat ist ein Foto. In einer Kamera oder auch in jedem anderen Teleskop passiert in der Optik genau das, was das EHT Team im Rechner gemacht hat!

  51. #51 Torq
    22. April 2019

    @Till

    Ich dachte, ein Foto im engeren Sinne basiert immer auf einem optischen Verfahren? Aber klar, wenn ich die vom EHT erfassten Radiowellen bzw. den relevanten Teil das elm. Spektrums dazu nehme, dann ist es ein Foto…

  52. #52 Till
    22. April 2019

    @Torq

    Ich dachte, ein Foto im engeren Sinne basiert immer auf einem optischen Verfahren?

    Wenn Du ein Objekt in den Fokuspunkt einer Linse hältst, dann bekommst Du auf der anderen Seite der Linse einen Ausschnitt der Fourier Transformation der Linse als paralleles Licht. Wenn Du jetzt dieses Licht mit einer zweiten Linse einfängst, dann bekommst Du ein Bild das auf genau dieser Fourier Transformation beruht. Das Bild ist immer weniger gut aufgelöst als das Objekt, da die Linsen ja nur einen Teil der Fourier Transformation erzeugen/einfangen. Das bedeutet, dass jedes optische Verfahren am Ende auf Fourier Transformationen basiert.

  53. #53 Dr. Wolfgang Engelhardt
    München
    23. April 2019

    @Alderamin
    „Es sollte damit klar sein, dass es sich hier nicht um ein “Foto” handelt, sondern um eine komplexe Rekonstruktion der Lichtquelle.“

    Vielen Dank für diesen informierten Beitrag, der sich wohltuend von der marktschreierischen Pressekonferenz abhebt, wo man sich nicht entblödete, eine Zeitrechnung zu propagieren „vor“ und „nach“ diesem „Foto“.

    Es ist klar, dass mit 6.5 Milliarden Sonnen der EH eine Ausdehnung von 20 Milliarden km hat, so dass er uns bei 55 Millionen Lichtjahren Entfernung unter einem Winkel von 7.5 μas erscheint. Damit liegt er deutlich unter der Auflösung des „ virtuellen“ Teleskops, dessen Auflösung mit 25 μas angegeben wird. Sie ergibt sich aus einer Wellenlänge von 1.3 mm und einer Basislänge von 10700 km.

    Nun soll es jedoch eine Linsenwirkung geben, welche die Leuchterscheinung am EH auf 42 μas vergrößert, was allerdings noch immer nicht groß gegen 25 μas ist, so dass das Bild aus nicht mehr als vielleicht 4 Pixel bestehen kann, die unmöglich das Detail-reiche „Foto“ darstellen können.

    Sie beschreiben sehr schön die Wirkungsweise des Michelsonschen Sterninterferometers, mit dem man die Durchmesser von Sternen bestimmen kann, die im Teleskop nur als Beugungs-begrenzte Lichtflecken erscheinen. Dazu bildet man die räumlich kohärente Strahlung eines Sterns mit zwei Teleskopen ab, die in einem bestimmten Abstand aufgestellt werden, und bringt die Bilder mit Hilfe von Spiegeln zur Interferenz. Nun vergrößert man den Abstand d zwischen den Teleskopen bis das Interferenzbild verschwindet. Aus der einfachen Beziehung w x d = λ erhält man den Winkel w, bei dem die räumliche Kohärenz aufhört, unter dem uns also das ausgedehnte Objekt erscheint. Die VLBI-Methode arbeitet offenbar nach diesem Prinzip.

    Freilich hat man dann außer der räumlichen Ausdehnung noch nichts über detaillierte
    Strukturen des Objekts erfahren. Gewiss könnte man nicht einen schwarzen Fleck im Inneren des Objekts erkennen, der nicht größer als das Auflösungsvermögen ist.
    Außerdem schattet das vermutete Schwarze Loch nicht einfach wie ein solider Gegenstand die dahinter liegende Akkretionsscheibe ab, wie Sie schreiben. Leider
    kommt in der Veröffentlichung nicht nur im Titel, sondern auch im Text das Wort „shadow“ nicht weniger als 25 mal vor, wodurch das zahlende Laienpublikum arg in die Irre geführt
    wird.

    Es ist also so, wie Sie schreiben: Man hat kein Foto in Fehlfarben vor sich, sondern eine aufwändige Bildkonstruktion, in die man seine Vorstellungen über ein Schwarzes Loch und dessen Einfluss auf seine Umgebung bereits hineingesteckt hat. Man muss sich nicht wundern, wenn diese wieder herauskommen. Manche Leute verstecken sich an Ostern ihre Ostereier selbst und freuen sich diebisch, wenn sie die Eier am bekannten Ort wieder finden… Mit seriöser Wissenschaft hat es gewiss nichts zu tun, wenn man auf die Erfolge des Fotoshops sogar eine neue Zeitrechnung gründen möchte.

  54. #54 Alderamin
    23. April 2019

    @Dr. Wolfgang Engelhardt

    so dass das Bild aus nicht mehr als vielleicht 4 Pixel bestehen kann

    Das Bild wurde nicht pixelweise abgetastet, wie man im vorletzten Bild oben sieht. Das Shannon-Limit ist daher so nicht anwendbar.

    Die VLBI-Methode arbeitet offenbar nach diesem Prinzip.

    Das war eine relativ stark vereinfachende Darstellung. Frank Wunderlich-Pfeiffer hat es im oben zitierten Golem-Artikel detaillierter erklärt, man ermittelt die Fouriertransformierte der räumlichen Wellenfunktion (Beugungsbild) und schließt daraus zurück auf das Originalbild. Man braucht möglichst viele verschiedene Frequenzen (Basislängen), um die komplette Funktion abzudecken. In den Bildern oben sieht man die Abdeckung der Frequenzen, die zwar Lücken hat, aber den größten Teil der Kurve gut gestreut abdeckt. Für niedrige Frequenzen hätte man sich noch ein paar Basislinien gewünscht.

    Leider
    kommt in der Veröffentlichung nicht nur im Titel, sondern auch im Text das Wort „shadow“ nicht weniger als 25 mal vor, wodurch das zahlende Laienpublikum arg in die Irre geführt
    wird.

    Der durchaus sehr Fachkundige Markus Pössel hat neulich in einer kleinen Diskussion mit mir den Standpunkt vertreten, dass der Begriff “Schatten” durchaus angewendet werden kann, denn der direkte Blick auf dahinter Liegendes werde versperrt. Mir gefiel der Begriff “Silhouette” besser.

    Man hat kein Foto in Fehlfarben vor sich, sondern eine aufwändige Bildkonstruktion, in die man seine Vorstellungen über ein Schwarzes Loch und dessen Einfluss auf seine Umgebung bereits hineingesteckt hat. Man muss sich nicht wundern, wenn diese wieder herauskommen.

    Dem möchte ich allerdings entschieden widersprechen. Wie oben im vorletzten Bild zu sehen, unterscheidet sich die Messung deutlich von etwa dem Bild einer leuchtenden Scheibe oder Punktquelle. Auch Sterne haben, wenn sie nicht aufgelöst sind, im Teleskop ein anderes Beugungsbild als aufgelöste Ringe. Die oben dargestellten Messpunkte passen nicht zum Beugungsbild einer Punktquelle. Man hat ganz eindeutig einen Ring nachgewiesen und damit die starke Gravitationslinsenwirkung in der Nähe des Schwarzen Lochs.

    Mit seriöser Wissenschaft hat es gewiss nichts zu tun

    Wenn es irgendeinen fachlichen Zweifel an der hinreichend dokumentierten Methodik oder den daraus gezogenen Schlussolgerungen gegeben hätte, dann hätte die Fachwelt die Papers mit Genuss in der Luft zerfetzt. Das ist aber nicht passiert, weil es selbstverständlich seriöse Wissenschaft ist.

    Astronomie arbeitet fast immer an der Grenze des Möglichen und mit indirekten Methoden. Neulich hat man zwei Sterndurchmesser gemessen, indem man die atmosphärische Tschernekov-Strahlung von Gammaquanten aufgezeichnet hat, die vom Stern ausgesendet wurden, während dieser von einem Asteroiden bedeckt wurde, und hat so ein kurzwelliges Beugungsbild rekonstruiert, aus dem der Durchmesser auf hundertstel Sonnendurchmesser gefolgert werden konnte. Auch das ist seriöse Wissenschaft und noch indirekter als VlBI (die schon seit vielen Jahrzehnten bei etwas längeren Wellenlängen eingesetzt wird).

  55. #55 Till
    23. April 2019

    @Dr. Wolfgang Engelhardt

    Es ist klar, dass mit 6.5 Milliarden Sonnen der EH eine Ausdehnung von 20 Milliarden km hat, so dass er uns bei 55 Millionen Lichtjahren Entfernung unter einem Winkel von 7.5 μas erscheint.

    In Kürze: Sie haben sich zwar den Schwarzschild Radius mit 20 Milliarden Kilometern (7.5 µas) richtig berechnet. Die für das Bild relevante Größe ist aber in etwa um den Faktor 5 größer: was man Auflösen will ist nicht der Schwarzschild Radius sondern der Durchmesser. Daher kommt schon einmal ein Faktor 2. Zusätzlich erhält man mindestens einen Faktor 2.5 durch die Raumkrümmung und kommt so auf ca 40 µas. Der Gravitationslinseneffekt ist unabhängig von schwarzen Löchern eindeutig belegt und somit keine unzulässige Annahme.

    Ich empfehle dieses Video von Veritasium, dort wird sehr schön erklärt, wie die Größe des “Schattens” des schwarzen Loches zustande kommt.:

    https://youtu.be/zUyH3XhpLTo

  56. #56 Dr. Wolfgang Engelhardt
    München
    23. April 2019

    @Till
    Der “Gravitationsradius” der Sonne r_G=G M/c^2 beträgt 1.5 km, der Durchmesser also 3 km. Für 6.5×10^9 Sonnen ergibt das einen Durchmesser von 20×10^9 km für M87. Bei einer Entfernung von 5.5×10^20 km erhält man einen Winkel von 3.6×10^-11 rad oder 7.5 μas. Mit “Raumkrümmung” noch ein Faktor 2.5 ergibt erst 19 μas, was noch immer deutlich unter dem Auflösungsvermögen von 25 μas liegt. Räumliche Strukturen sind damit nicht erkennbar, sie werden eben nicht “aufgelöst”. Das ganze “Bild” reduziert sich so zu sagen auf einen einzigen Beugungsfleck oder ein einziges Pixel.

    Sind 42 μas das Ergebnis von Simulationen oder von Messungen?

  57. #57 Fry
    23. April 2019

    Frage: wieso Synchrotonstrahlung, wieso werden da Elektronen beschleunigt? Die Umlaufbahn um das Schwarze Loch ist doch gerade KEINE beschleunigte Bahn, sondern eine kräftefreie? (Geodäte). Oder was verstehe ich hier falsch?

  58. #58 Herr Senf
    23. April 2019

    @Dr. Engelhardt: 42 μas ist das Ergebnis von Messungen (kein Osterei).
    Die Fourierauflösung der radiointerferometrischen Methode war 5 μas.
    Simuliert wurden Kerr-Modelle, zum “Image” passende Parameter auszurechen.

  59. #59 Herr Senf
    23. April 2019

    @Fry: der freie Fall ins SL ist kräftefrei, Umlaufbahn nicht – Zentripetalbeschleunigung.

  60. #60 Alderamin
    23. April 2019

    @Fry

    Jede Abweichung von einer geraden Bahn mit konstanter Geschwindigkeit ist eine Beschleunigung. Auch eine Kreisbewegung.

  61. #61 Fry
    23. April 2019

    Hm. Ein Testobjekt auf einer Umlaufbahn bewegt sich auf einer unbeschleunigten Geodaete durch die Raumzeit, genau wie im freien Fall. Es wirken keinerlei Kraefte auf ein solches Testobjekt. Sind wir soweit einig?
    Warum entsteht dann Synchrotronstrahlung? Meine Vermutung: weil die gar nicht von einer Beschleunigung abhaengt, sondern nur von der Richtungsaenderung. Ist halt etwas unuebersichtlich, Einstein und Maxwell zusammen…

  62. #62 Fry
    23. April 2019

    @Alderamin: Testobjekte auf einer Umlaufbahn befinden sich doch auf einer “geraden” Bahn, naemlich einer Geodaete durch die Raumzeit. “Gerader” geht’s eigentlich nicht. Oder? Wieso entsteht dabei Strahlung?
    @Senf: freier Fall und Umlaufbahn sind von der Gravitationsseite aequivalent, naemlich unbeschleunigte Trajektorien.
    Ich verstehe das Zusammenspiel von Maxwells Gleichungen in der Schwarzschild-Raumzeit nicht. Kann man sich das irgendwie veranschaulichen?

  63. #63 Herr Senf
    23. April 2019

    @Fry “Es wirken keinerlei Kraefte auf ein solches Testobjekt.”
    Doch, gleich zwei, die heben sich nur auf, aber die zentripetale zwingt rum.
    “Testobjekte auf einer Umlaufbahn befinden sich doch auf … einer Geodaete … ”
    Sie befinden sich auf einer Keplerbahn, weicht von Licht auf einer Geodäten ab.

  64. #64 Alderamin
    24. April 2019

    Genau, man kann das Ganze ja auch klassisch-newtonsch betrachten.

    Außerdem schrauben sich die Elektronen auf engen Bahnen um die Magnetfeldlinien.

  65. #65 Dr. Wolfgang Engelhardt
    München
    24. April 2019

    @Alderamin
    Haben Sie selbst Zweifel bekommen, weil Sie meinen Satz nicht vollständig zitieren? Ich hatte mit Blick auf die „neue Zeitrechnung“ geschrieben: „Mit seriöser Wissenschaft hat es gewiss nichts zu tun, wenn man auf die Erfolge des Fotoshops sogar eine neue Zeitrechnung gründen möchte.“ Ich kann mir nicht vorstellen, dass Sie diese maßlose Übertreibung in der Pressekonferenz-Show gutheißen, die leider mit Duldung oder gar Billigung der Wissenschaftler stattgefunden hat. Das zahlende Publikum hat eine derartige Irreführung nicht verdient.

    Bezüglich des Beugungsbildes in einem Teleskop scheint ein Missverständnis vorzuliegen. Eine unendlich ferne Lichtquelle liefert eine exakt ebene Wellenfront, die in der Fokalebene auf einen „Punkt“ abgebildet wird. Dieser enthält keinerlei Information über die räumliche Struktur der Quelle. Nur Spektrum und Helligkeit kann man messen, d.h. alle Fixsterne sehen unabhängig von ihrer Größe gleich aus. Die Größe des Beugungsbildes hängt nicht von der Sterngröße, sondern von der Öffnung des Teleskops und der optischen Qualität des Spiegels oder der Linse ab. Könnte man durch Abtasten des Beugungsbildes den Sterndurchmesser ermitteln, so bräuchte man kein Sterninterferometer, das Sie zutreffend beschrieben haben.

    Nun haben aber Sterne eine endliche Größe und sind nicht unendlich weit entfernt. Während ihr Licht für ein einzelnes Teleskop räumlich kohärent und damit interferenzfähig ist, gilt dies nicht mehr im Vergleich zu einem weit entfernten zweiten Teleskop im Abstand d, weil dort die Wellenfronten um einen sehr kleinen Winkel gekippt erscheinen. Bringt man die Beugungsbilder beider Teleskope mit Spiegeln zur Deckung, so sind sie wegen fehlender räumlicher Kohärenz nicht mehr interferenzfähig gemäß der Beziehung w d = λ. Kennt man die Entfernung zum Stern, so kann man aus dem kleinen Kippwinkel w seinen Durchmesser berechnen.

    Mit einem Einzelteleskop lässt sich der Kippwinkel nicht bestimmen, wenn er kleiner als das Auflösungsvermögen a ist. Dieses wird durch das Verhältnis von Wellenlänge zur Apertur A definiert: a = λ/A. Für das kleinste angegebene Auflösungsvermögen von a=25 μas findet man nur eine baseline. Für die anderen baseline Paare liegt die Auflösung eher bei a=40 μas. Damit ist es aber nicht möglich, eine Struktur von w=20 μas aufzulösen. Das „Ring-Bild“ muss also einer Simulation entstammen. Es ist merkwürdig, dass es zufällig einen Durchmesser hat, welcher der mittleren Auflösung von 40 μas entspricht.

    Diesen Satz kann ich nicht nachvollziehen: „Man hat ganz eindeutig einen Ring nachgewiesen“. Solange der Winkel w, unter dem das Objekt erscheint, kleiner oder gleich ist dem durch das Instrument bestimmten Auflösungswinkel a, können feinere Strukturen als a eben nicht aufgelöst werden.

  66. #66 Fry
    24. April 2019

    Danke fuer eure Antworten!

    @Senf: nicht nur Licht bewegt sich auf Geodaeten in der Raumzeit, auch massive Teilchen tun das. Halt auf anderen Geodaeten, die nicht lichtartig sondern langsamer sind. Nicht vergessen, wir reden hier nicht von der Metrik des Raumes, sondern der RaumZEIT. Der Unterschied ist subtil aber wesentlich.

    @Alderamin: hat denn ein (angenommen in Summe elektrisch neutrales) Schwarzes Loch ein Magnetfeld? Ich denke nein, denn nach dem No-Hair-Theorem wird es _komplett_ beschrieben durch Masse und Drehimpuls, praktisch wie ein riesiges Elementarteilchen. Das starke Magnetfeld bspw. eines Neutronensterns wird dessen Kollaps in ein Schwarzes Loch vollstaendig abgestrahlt. So zumindest mein Verstaendnis.

    Ich glaube ja, dass Synchrotronstrahlung entsteht. Weil ich es auch mehrfach gelesen habe, und in der Newtonschen Sichtweise ist das klar. Aber in der (korrekten) Einsteinschen halt nicht, denn wo ist die Beschleunigung auf einer unbeschleunigten Geodaete?

  67. #67 Alderamin
    24. April 2019

    @Fry

    Wie oben imText zu lesen ist, hat nicht das Schwarze Loch, sondern die Akkretionsscheibe ein starkes Magnetfeld, das maßgeblich an der Entstehung des Jets beteiligt ist.

  68. #68 Fry
    24. April 2019

    @Alderamin: danke fuer die Antwort. Damit ist es fuer mich klar: die Synchrotonstrahlung entsteht durch das Magnetfeld der Akkretionsscheibe, NICHT durch die Umlaufbahn infolge der Gravitation.

    @Wolfgang Engelhardt: bei mir sind auch alle roten Lampen aufgegangen. Machine Learning mit eintrainierten Bildern (-> decoder-encoder-Prinzip) zur Auswertung eines verrauschten Bildes fuehrt NATUERLICH zu einem schoenen, klaren Bild. Und haette man Katzen eintrainiert, dann wuerde auch das Ergebnis eine Katze zeigen. Mir erscheint das stark nach Overhypen eines eigentlich unschluessigen Messergebnisses. In jedem Falle: hier wurde kein “Foto” eines Schwarzen Lochs gemacht, sondern es gibt Modellrechnungen, die den Messergebnissen nicht widersprechen.

  69. #69 Till
    24. April 2019

    @Dr. Wolfgang Engelhardt

    Der “Gravitationsradius” der Sonne r_G=G M/c^2 beträgt 1.5 km, der Durchmesser also 3 km. Für 6.5×10^9 Sonnen ergibt das einen Durchmesser von 20×10^9 km für M87.

    Haben Sie sich das Video angeschaut? Dort wird detailliert auf genau Ihre Einwände eingegangen.

    Der Gravitationsradius ist eine rein Mathematische Eigenschaft des schwarzen Loches und hat mit der zu beobachtenden Ausdehnung nur bedingt etwas zu tun.

  70. #70 Alderamin
    24. April 2019

    @Dr. Wolfgang Engelhardt

    Haben Sie selbst Zweifel bekommen, weil Sie meinen Satz nicht vollständig zitieren? Ich hatte mit Blick auf die „neue Zeitrechnung“ geschrieben: „Mit seriöser Wissenschaft hat es gewiss nichts zu tun, wenn man auf die Erfolge des Fotoshops sogar eine neue Zeitrechnung gründen möchte.“

    Habe ich nicht, nur ist “Fotoshop” (vermutlich “photoshopped”) kein ungemein sachliches Argument, auf das es sich einzugehen lohnte, sondern reine Polemik.

    Ich kann mir nicht vorstellen, dass Sie diese maßlose Übertreibung in der Pressekonferenz-Show gutheißen, die leider mit Duldung oder gar Billigung der Wissenschaftler stattgefunden hat.

    Ich habe das im Heise-Artikel sogar zitiert. Für den Radioastronomen ist die erste Abbildung eines Schwarzen Lochs eine Zäsur, für die Autoindustrie das selbstfahrende Auto, für den Bäcker die Erfindung der Hefe. Jeder hat seine Prioritäten.

    Bezüglich des Beugungsbildes in einem Teleskop scheint ein Missverständnis vorzuliegen. Eine unendlich ferne Lichtquelle liefert eine exakt ebene Wellenfront, die in der Fokalebene auf einen „Punkt“ abgebildet wird. Dieser enthält keinerlei Information über die räumliche Struktur der Quelle.

    Doppelsterne haben ein anderes Beugungsbild als Einzelsterne, sobald sie aufgelöst sind. Ein Ring hat ein anderes, als ein Lichtpunkt oder eine Scheibe. Wie oben in der Grafik zu sehen.

    Für das kleinste angegebene Auflösungsvermögen von a=25 μas findet man nur eine baseline. Für die anderen baseline Paare liegt die Auflösung eher bei a=40 μas. Damit ist es aber nicht möglich, eine Struktur von w=20 μas aufzulösen.

    Na, die 40 sind ziemlich pessimistisch (3. Bild von oben). Wenn die Auflösung x Bogensekunden ist, kann man damit auch Doppelsterne im Abstand von x Bogensekunden als aufgelöst erkennen. Demnächst wird man auf 350 GHz gehen und ein Teleskop in Grönland einschließen, dann wird die Nord-Süd-Auflösung angeglichen und die Auflösung generell verbessert. Es werden weitere Bilder mit besserer Auflösung folgen.

    Das „Ring-Bild“ muss also einer Simulation entstammen.

    Natürlich, das Bild entstammt derjenigen plausiblen Simulation, die die Daten am besten wieder gibt. Es ist zwar nicht auszuschließen, dass man in Wahrheit das Auge Saurons abgebildet hat, allerdings ist die Wahrscheinlichkeit dafür doch ziemlich klein.

    Ich möchte an dieser Stelle darauf hinweisen, dass ich mich bemühe, die komplexen Zusammenhänge allgemeinverständlich aufzubereiten, so gut ich sie als interessierter Laie nachvollziehen kann. Ich habe dabei großes Vertrauen in die wissenschaftliche Methode und die wechselseitige Korrektur durch die Fachwelt. Wenn Sie sich dem Thema professionell gewachsen fühlen, dann lesen Sie die Originalarbeiten (am besten Paper III) und reichen Sie eine Gegenanalyse bei Nature (oder wenigstens arXiv) ein. Wenn die das Peer-Review passiert, dann schreibe ich gerne darüber. Habe ich bei Oliver Müllers Arbeiten zur modifizierten Newtonschen Dynamik auch getan. Aber verlangen Sie nicht von mir, dass ich von der Fachwelt akzeptierten wissenschaftlichen Veröffentlichungen auf der Basis eines Blogkommentars widerspreche.

    Und damit habe ich genug zu dem Thema gesagt.

  71. #71 Fry
    24. April 2019

    @Alderamin: ich stimme mit deinem Ansatz überein, über Forschung zu berichten und nicht zu versuchen, die Forscher “rechts zu überholen”. Lasst uns also einfach mal abwarten, ob die Fachwelt die Methodik, Modellbilder per KI zu erzeugen, letztendlich gutheißen wird.

    Ich bin da jedenfalls skeptisch. Vielleicht verstehe ich aber auch zu wenig von der tatsächlichen Methodik. Mein Eindruck ist, man gaukelt der Öffentlichkeit einen Kenntnisstand vor, den man gar nicht hat. Das wäre dann unseriös. (Wobei die genauen Formulierungen in den Originalveröffentlichungen sicher viiiel vorsichtiger sind als das, was die Weltpresse daraus macht).

    Früher war das so: man hatte Messergebnisse und Modellrechnungen, und hat geschaut, ob die einander widersprechen. Hier macht man das (nach meinem Eindruck) so: man trainiert einen Decoder-Encoder darauf, aus verrauschten Messergebnissen ein _mögliches_ Bild zu rekonstruieren. Damit bleibt das Bild aber immer noch ein Erklärungsmodell und kein Foto. Und genau diesen letzten Teil unterschlägt die Weltpresse weit überwiegend. Vielleicht nicht die Fachpresse.

    Mit der gleichen Art von KI könnten wir jedenfalls auch “Fotos” von Atomkernen machen… (da gibt es auch Interferometrie!)

  72. #72 Alderamin
    24. April 2019

    @Fry

    Mein Eindruck ist, man gaukelt der Öffentlichkeit einen Kenntnisstand vor, den man gar nicht hat.

    Wer genau ist “man”?

    Und genau diesen letzten Teil unterschlägt die Weltpresse weit überwiegend.

    Die Presse gibt es so wieder, wie sie es verstanden hat. Die wenigsten Journalisten haben Physik studiert und verstehen die Zusammenhänge nicht im Einzelnen. Ich selbst bin auch kein Physiker, aber näher am Thema, als viele Journalisten. Wenn die Presse etwas falsch wiedergibt, kann man das den Forschern nicht ankreiden.

    Auf der anderen Seite sind die gezwungen, sich so zu äußern, dass sie verstanden werden. In den für jeden öffentlich zugänglichen Originalarbeiten stehen alle Details drin. Ich weiß jetzt nicht mehr genau, was Heino Falcke auf der PK wortwörtlich gesagt hat, ob er es “das erste Bild” eines Schwarzen Lochs nannte oder wie er es formulierte; “Foto” hat er es aber sicher nicht genannt. Wenn er angefangen hätte, von Rekonstruktionen und Fouriertransformationen zu reden, hätte ihn niemand verstanden. Zumindest hat er gesagt, dass der Photonenring abgebildet werde und nicht der Ereignishorizont. Selbst wenn die Abbildung nur rekonstruiert ist, ist sie ein “Bild”. Auch die Graphen oben sind “Bilder”. Und das Bild ist gut genug, daran Messungen vorzunehmen, wie oben in meinem Artikel zitiert.

  73. #73 Till
    24. April 2019

    @Alderamin

    Es ist zwar nicht auszuschließen, dass man in Wahrheit das Auge Saurons abgebildet hat

    Coole Vorstellung ;-). Vielleicht lag Sauron gerade auf der Seite und die schlitzförmige Pupille wurde in Nord-Süd Richtung nicht aufgelöst?

  74. #74 Fry
    24. April 2019

    @Alderamin: “man” sind schon auch die Forscher, die zulassen und womoeglich billigen, dass die Oeffentlichkeit sie missversteht. (viele werden nicht einmal begreifen, dass das “Bild” gar nicht die sichtbaren Lichtwellenlaengen zeigt. Auch der Begriff Synchrotronstrahlung wird ja meist mit anderen Wellenlaengen, naemlich Roentgen, in Verbindung gebracht).

    Die Veroeffentlichung mit Vorankuendigung war reisserisch genug, um die Forscher dafuer auch mitverantwortlich zu machen.

    Einen “Zwang” zum Verfaelschen oder Uebertreiben gibt es auch nicht.

    Ich bin uebrigens promovierter theor. Physiker, und das auch mit Begeisterung, habe aber sicher von Astronomie weniger Ahnung als du. Kenne den Wissenschaftsbetrieb mit seinen “Zwaengen” aber von innen. Und ich halte es fuer eine grundsaetzliche Krise der (Grundlagen-)Physik, dass heute Theoretiker mehr oder minder dominieren, was experimentell gemessen, akzeptiert und als Sensation gefeiert wird.

    Ich gehe jede Wette ein, dass das konkrete Bild/Foto/whatever nochmal stark relativiert werden muss. Immerhin fehlt ja auch der Jet. Und dann wird man zurueckrudern und das heutige Bild stark korrigieren muessen. Nicht nur “scharfstellen”.

  75. #75 Dr. Wolfgang Engelhardt
    München
    24. April 2019

    @Alderamin
    Danke für Ihre ausführliche Antwort! Sie schreiben völlig richtig: „Doppelsterne haben ein anderes Beugungsbild als Einzelsterne, sobald sie AUFGELÖST sind.“ Wenn sie aber wegen zu großer Entfernung nicht aufgelöst werden können, wie bei spektroskopischen Doppelsternen der Fall, so erzeugen sie den gleichen Beugungsfleck in der Brennebene wie Einzelsterne. Die Information über die räumliche Struktur des Objekts liegt allein in der Winkelgröße w, die groß gegen die Auflösung a sein muss, damit ein Bild entstehen kann. Bei Saturn ist das z.B. in einem guten Teleskop der Fall. Man kann deutlich den Ring sehen, was mit einem kleinen Feldstecher wegen schlechter Auflösung nicht möglich ist.

    Solange die Signale von weit entfernten Radioantennen interferenzfähig sind, ist der Winkel w unter dem die Quelle erscheint an beiden Orten gleich groß, denn die Signale sind räumlich kohärent. Erst wenn das Interferenzmuster verschwindet, hat man unterschiedliche Winkel, die größer als das Auflösungsvermögen a sind, so dass man gemäß der Beziehung w=λ/d eine Information über die Größe des Objekts erhält. Für die Erkennung feinerer Strukturen muss a klein gegen w sein, wie es bei Planetenbildern der Fall ist, aber niemals bei Fixsternen einschließlich spektroskopischer Doppelsterne, die alle unter dem Beugungs-bestimmten Winkel a erscheinen. Michelson hat sich diese Überlegungen zunutze gemacht und folgerichtig sein Stern-Interferometer vorgeschlagen.

    Nachdem nun alle realisierten Basislängen im Bereich von 25-50 μas liegen, wie Figura zeigt, muss man annehmen, dass ein Objekt von 40 μas gerade noch zu interferenzfähigen Signalen Anlass gibt, dass man aber außer der Größe w~a nichts über die räumliche Struktur erfährt. Diese ergibt sich erst aus der Simulation, in die man die Erwartung einer Ringstruktur hineinsteckt. Das Veritasium Video macht diese Erwartungen anschaulich. Es wurde VOR dem 10. April produziert!

    Nun zu Ihren allgemeinen Ausführungen zur Kritikfähigkeit der Wissenschaftler. Vor einigen Jahren (2010) wurde vom LIGO-Team, welches ca. 1000 Wissenschaftler umfasst, eine Gravitationswelle entdeckt, die sechs Monate lang gründlich analysiert wurde. Man kam zu der einhelligen Ansicht, dass man tatsächlich die erste Gravitationswelle gemessen hatte. Sie erhielt den Namen GW100916 (https://www.ligo.org/scientists/GW100916/index.php). Tatsächlich handelte es sich aber um eine „fake“ Welle, die das Management in die Daten eingespielt hatte. Bis heute ist nicht klar, ob LIGO wirklich eine Spiegelauslenkung von der Breite eines Haares mit einem Zollstock von vier Lichtjahren Länge (Attometer bei 4 km Armlänge des Interferometers) messen kann, zumal die versprochene Eichkurve nach Mitteilung von Prof. Danzmann fehlt. Näheres zu dieser Geschichte finden Sie hier: https://www.change.org/p/prof-karsten-danzmann-beantworten-sie-bitte-3-fragen-%C3%BCber-das-ligo-experiment/u/23649808

    Das EHT Team umfasst ca. 250(?) Wissenschaftler, von denen man nicht mehr Kritikfähigkeit als vom LIGO Team erwarten kann. Die Presse ist auf die Pressemitteilungen angewiesen und neigt natürlich dazu, „Sensationen“, die ihr als solche durch die Öffentlichkeitsarbeiter der Wissenschaftler mitgeteilt werden, auch als Sensationen zu berichten. Die Fachwelt schreitet dagegen nicht ein, weil Klappern zum Handwerk gehört. Und dann gibt es noch die berühmten Krähen, die sich gegenseitig nicht die Augen aushacken. Man muss sich schon seines eigenen Verstandes bedienen, wenn man sich im Zeitalter der hoffähigen fake-news noch einen klaren Kopf bewahren möchte.

  76. #76 Herr Senf
    24. April 2019

    Hallo Dr. Engelhardt,
    beglücken Sie doch mit Ihren Verschwörungstheorien den Anhang der Sekretärin.
    Hat Prof. Zensus schon geantwortet? Ist der Brief ans Nobel-Komm schon in der Tüte?

  77. #77 UMa
    24. April 2019

    @Dr. Wolfgang Engelhardt

    Es ist also so, wie Sie schreiben: Man hat kein Foto in Fehlfarben vor sich, sondern eine aufwändige Bildkonstruktion, in die man seine Vorstellungen über ein Schwarzes Loch und dessen Einfluss auf seine Umgebung bereits hineingesteckt hat. Man muss sich nicht wundern, wenn diese wieder herauskommen. Manche Leute verstecken sich an Ostern ihre Ostereier selbst und freuen sich diebisch, wenn sie die Eier am bekannten Ort wieder finden… Mit seriöser Wissenschaft hat es gewiss nichts zu tun, wenn man auf die Erfolge des Fotoshops sogar eine neue Zeitrechnung gründen möchte.

    Das man plausible Modellannahmen in die Rekonstruktion mit einbezieht, ist nicht unseriös sondern völlig üblich. Mit Fotoshop hat das nichts zu tun.

    Z.B. werden bei der Suche nach Exoplaneten Keplerbahnen angenommen, und nicht beliebige Bewegungen, was die möglichen Resultate zugunsten physikalisch plausibler einschränkt. Dadurch kommt man mit einem um Größenordnungen geringeren Messaufwand aus.
    Wenn man an der Grenze der Messbarkeit arbeitet, kommt man ohne dies nicht weiter.

    Nicht nur in der Wissenschaft wird so gearbeitet. Auch die Rekonstruktion der Wahrnehmung des menschlichen Auges im Gehirn kommt ohne Zusatzannahmen nicht aus. Wie man erkennt, wenn die Annahmen einmal nicht zutreffen.
    https://de.wikipedia.org/wiki/Hollow-Face-Illusion
    https://en.wikipedia.org/wiki/Ponzo_illusion
    https://de.wikipedia.org/wiki/Ames-Raum
    Arbeitet das menschliche Gehirn auch unseriös?

  78. #78 UMa
    24. April 2019

    @Dr. Wolfgang Engelhardt:
    Die von Ihnen verlinkte Darstellung über LIGO ist extrem unseriös und Ruf schädigend für die beteiligten Wissenschaftler.

    Die Einspielung von Testsignalen ohne Wissen der analysierenden Wissenschaftler ist ein Teil der Qualitätskontrolle, die sicherstellen soll, dass Fehler erkannt und reale Signale von Rauschen unterschieden werden können.

    Daraus zu behaupten, dass 1000 Wissenschaftler sich hätten hinters Licht führen lassen, ist ungeheuerlich. Ob da Absicht dahinter steckt?

    Fake-News, über die Sie so besorgt sind, gibt es tatsächlich. Sie haben in Ihrem letzten Link in #75 gerade solche verlinkt.

    Wer sich einen klaren Kopf bewahrt und sich seines eigenen Verstandes bedient hat, hat das allerdings schon vor der Verlinkung bemerkt.

  79. #79 UMa
    24. April 2019

    @Fry: Ich denke auch, dass die Veröffentlichung zu reißerisch war. So mit der Zeit davor und danach.

    Da war die Entdeckung der ersten Gravitationswellen in einer anderen Größenordnung. Insbesondere jene von Neutronensternkollisionen, die eine Überprüfung mit optischen Mitteln erlauben, und darüber hinaus erlauben direkt Theorien zu überprüfen.

    Das Bild ist in der tat sehr unscharf. Um einen Jet zu sehen, könnte es sein, dass der Kontrast nicht ausreicht?!

    Vielleicht weiß Alderamin da mehr: Wie hoch ist der maximal mögliche Kontrast bzw. um wie viel dunkler ist der Jet zu erwarten? Ich vermute, dass er sehr viel dunkler ist, so dass er nicht zu sehen sein kann.

  80. #80 Alderamin
    24. April 2019

    @UMa

    Wie hoch ist der maximal mögliche Kontrast bzw. um wie viel dunkler ist der Jet zu erwarten? Ich vermute, dass er sehr viel dunkler ist, so dass er nicht zu sehen sein kann.

    Keine Ahnung, aber die Autoren schrieben doch, dass das Licht des Photonenrings unter Umständen vom Jet stammen könnte.

    Frank Wunderlich-Pfeiffer begründet die Nicht-Sichtbarkeit des Jets in seinem Golem-Artikel damit, das zu wenige kurze Basislinien mit geringer Auflösung vorhanden waren; die tiefen Frequenzen fehlen im Bild bzw. sind unterrepräsentiert. Der Jet ist ja insgesamt ziemlich breit.

  81. #81 UMa
    24. April 2019

    @Alderamin: Ich habe bisher aus Zeitgründen nur die Abstrakte gelesen. Du meinst, dass das Licht nicht von der Akkretionsscheibe sondern vom Jet, verstärkt durch Beaming, stammen könnte? Hm.
    Und wie hoch ist der maximale Kontrast? 1:2 oder eher 1:10?

  82. #82 Alderamin
    24. April 2019

    @UMa

    Du meinst, dass das Licht nicht von der Akkretionsscheibe sondern vom Jet, verstärkt durch Beaming, stammen könnte?

    Könnte. Oder von der Akkretionsscheibe. Oder von beidem. Steht oben im Artikel und auch in meinem Heise-Artikel (Link oben). So steht es in den Originalartikeln, so wurde es auf der PK verkündet.

    Das Beaming macht aber nur die helle Stelle aus, der Photonenring leuchtet aufgrund von starker Gravitationslinsenwirkung, die die Lichtwege umbiegt und u.U. sogar orbiten lässt.

    Und wie hoch ist der maximale Kontrast? 1:2 oder eher 1:10?

    Ich weiß nicht, ob es der maximal mögliche Kontrast ist, aber der Kontrast zwischen dunkler Fläche im Ring und der hellsten Stelle im Ring ist 1:10, wenn ich das richtig verstanden habe.

  83. #83 UMa
    24. April 2019

    @Alderamin: Nachtrag, habe es nochmal nachgelesen: Der Kontrast zwischen Innen und Ring ist 1:10. Das wird wohl das Maximum sein, was erkennbar sein könnte, bei ungünstiger Lage von Jet und Ring eben auch weniger.

  84. #84 Dr. Wolfgang Engelhardt
    München
    24. April 2019

    @UMa
    „Das man plausible Modellannahmen in die Rekonstruktion mit einbezieht, ist nicht unseriös“
    Habe ich auch nicht behauptet. Ich habe mich auf die „neue Zeitrechnung vor und nach diesem Foto“ bezogen, das noch nicht einmal ein Foto ist, weil man kein Bild von einem Objekt erzeugen kann, das kleiner oder gleich dem Auflösungsvermögen des verwendeten (virtuellen) Teleskops ist.

    „Die von Ihnen verlinkte Darstellung über LIGO ist extrem unseriös und Ruf schädigend für die beteiligten Wissenschaftler.“
    Da stimme ich Ihnen völlig zu. Jene Wissenschaftler haben sich nicht gerade mit Ruhm bekleckert, als sie nach sechsmonatiger intensiver Analyse „unanimously“ zu dem Schluss kamen, dass sie es mit einer echten GW zu tun haben. Ihr Ruf wurde dadurch nachhaltig beschädigt, so dass man bis heute nicht wissen kann, ob LIGO echte Messungen oder fakes veröffentlicht, die Hacker offenbar einspielen können, ohne entlarvt zu werden.

    Man hätte wenigstens einmal, wie versprochen, eine simulierte GW im Attometer-Bereich vorführen können, aber nach Danzmann ist das gar nicht möglich und man fragt sich, wieso man dann eine echte GW messen kann, wenn es mit einer kontrollierten, per Strahlungsdruck erzeugten, nicht geht.

  85. #85 Till
    24. April 2019

    @Dr. Wolfgang Engelhardt

    dass man bis heute nicht wissen kann, ob LIGO echte Messungen oder fakes veröffentlicht, die Hacker offenbar einspielen können, ohne entlarvt zu werden.

    Wenn Ihr Doktortitel echt ist, sollten Sie eigentlich wissen, wie Blindstudien funktionieren und dass das nichts mit Hackern zu tun hat sondern im Gegenteil zu jeder wirklich seriösen wissenschaftlichen Arbeit dazu gehört.

  86. #86 Dr. Wolfgang Engelhardt
    München
    24. April 2019

    @Till
    Wenn die beteiligten Forscher kein Kriterium an der Hand haben zu erkennen, was echt und was fake ist, wie sollen dann Außenstehende beurteilen können, was dieses Team – sicherlich ohne schlechte Absicht – der Öffentlichkeit vorsetzt. Dabei müsste es doch ganz leicht sein, das zu tun, was man versprochen hat:
    “… the detector response to gravitational waves is tested by injecting simulated waveforms with the calibration laser.”
    Auch nach drei Jahren wurden Ergebnisse solcher Eichmessungen im Attometer-Bereich nicht veröffentlicht, aus denen sich eine Eichkurve – Detektor response vs Spiegelauslenkung – ergeben hätte. Damit hätte man Glaubwürdigkeit zurückgewonnen, allerdings sagt Danzmann, eine solche Eichkurve existiert nicht.
    Solange man eine simulierte GW nicht messen kann, muss man Zweifel an angeblich echten Messungen haben.

  87. #87 Till
    24. April 2019

    @Dr. Wolfgang Engelhardt
    Ich gehe davon aus, dass wir gerade Zeuge eines psychologischen Experimentes zu Internettrollen geworden sind.

    Ich weigere mich zu glauben, dass Sie allen Ernstes grundlegende Prinzipien der wissenschaftlichen Arbeit wie Verblindung und Positivkontrollen nicht verstanden haben.

    Ich hoffe, Sie haben Ihr Forschungsziel erreicht. Mir ist jedenfalls meine Zeit für eine weitere Diskussion zu schade.

  88. #88 Alderamin
    24. April 2019

    @Till

    Diese Diskussion wurde schon anderswo geführt. Das war noch bevor man mit GW170817 auch das elektromagnetische Gegenstück am Himmel fand. Und mittlerweile VIRGO ebenfalls an den Messungen beteiligt ist. Seine Meinung geändert dürfte er deswegen kaum haben.

    Gravitationswellen? Kann man nicht nachweisen. Schwarze Löcher? Gibt’s nicht. Periheldrehung des Merkurs? Braucht keine Relativitätstheorie. Allgemeine Relativitätstheorie? Alles Unsinnn.

    Keine Evidenz wird Menschen wie Dr. Engelhardt jemals überzeugen können, egal wie scharf die Abbildung des Schwarzen Lochs sein wird, gleichgültig, in wievielen Übertragungsmedien die Quelle der Gravitationswellen zu beobachten ist.

    Ich habe mich entschlossen, darauf keine Lebenszeit zu verschwenden. Ich muss hier keine wissenschaftlichen Arbeiten verteidigen, ich bin nur der Überbringer der Botschaft.

  89. #89 Till
    25. April 2019

    @Alderamin danke für die Einordnung. Ich war das erste Mal mit Herrn Dr. Engelhard in Berührung gekommen. Dann werde ich jetzt auch keine Zeit und keinen Platz in der Kommentarspalte mehr auf den vergeblichen Versuch verwenden eine bereits gefestigte Meinung aufzuklären. Für manche Menschen ist ihr eigenes Weltbild einfach zu wichtig um neue Informationen zuzulassen. ” Ignorance is bliss”

  90. #90 Spritkopf
    25. April 2019

    Noch vielsagender ist ja dieser Austausch. Engelhardt jault bei Markus Pössel auf dem Blog, dass bei GW150914 die Frequenzverläufe der Detektoren in Hanford und Livingstone nicht zueinander passen würden und es überhaupt keine Eichkurve bei LIGO gäbe. Markus Pössel weist ihm nach, dass er einen simplen Vorzeichenfehler begangen hat und bietet ihm an, die Systematik hinter den Kalibrationskurven von LIGO Schritt für Schritt durchzugehen.

    Die Reaktion von Engelhardt? Schlagartig ist bei ihm jedes Interesse an einer Klärung erloschen, er weist jeden der vielen Versuche von Markus Pössel zurück, schrittweise die LIGO-Kalibration zu erarbeiten und er versteigt sich schließlich zu der Aussage, Pössel habe “gar nicht das Mandat”, ihm, Engelhardt, irgendetwas zu LIGO zu erläutern. Fragt sich dann nur, warum er überhaupt die Diskussion auf Markus Pössels Blog begonnen hat.

    @Engelhardt
    Wer erst Krokodilstränen über seine achso “geliebte Wissenschaft” vergießt wie in Ihrer Petition bei change.org und sich dann dermaßen zum Kasper macht, weil er ganz offenkundig nicht wissen will, der hat doch keinerlei Selbstachtung mehr. Dem ist die wissenschaftliche Methode so fern wie sonstwas. Dem geht es nur noch darum, seine Behauptungen durchzudrücken, koste es wissenschaftliche Reputation, was es wolle.

  91. #91 Alderamin
    25. April 2019

    Wo wir gerade darüber sprachen:

    Heute gab es übrigens wieder einen Gammaburst zusammen mit einem Gravitationswellenevent. Leider nur ein LIGO und VIRGO aktiv, Position ziemlich unsicher. Man sucht jetzt nach der Kilononova. Könnte sogar eine Verschmelzung von Neutronenstern mit Schwarzem Loch sein.

    https://twitter.com/ucsctransients/status/1121344464847548421

  92. #92 Spritkopf
    25. April 2019

    Und gleich der nächste Kandidat für eine Verschmelzung eines binären Neutronensternsystems.

  93. #93 Spritkopf
    25. April 2019

    @Myself

    Und gleich der nächste Kandidat für eine Verschmelzung eines binären Neutronensternsystems.

    Ähm, doch nicht. War nur ein Retweet von LIGO über das von Alderamin verlinkte Event.

  94. #94 Alderamin
    25. April 2019

    @Spritkopf

    Ist derselbe wie bei mir, S190425z.

  95. #95 Herr Senf
    25. April 2019

    @Jungs, guckt doch hier nach https://gracedb.ligo.org/latest/
    da sind sie alle schön aufgereiht und können angeklickt werden.
    zu Beifang Info “No EM observation entries so far.”

  96. #96 Alderamin
    25. April 2019

    @Herr Senf

    Danke. Trotzdem hat INTEGRAL binnen 6 Sekunden einen Gammaburst detektiert. Das ist schon ein bisschen zu nahe dran, um purer Zufall zu sein. Der Burst entsteht ja wohl durch den Jet der einfallenden Restmaterie des (oder der) Neutronensterns(sterne). Also mit kurzer Zeitverzögerung.

  97. #97 UMa
    25. April 2019

    @Alderamin: Intgral update:
    https://gcn.gsfc.nasa.gov/gcn3/24178.gcn3
    Fermi hat wohl nichts, es könnte aber die Erde dazwischen gewesen sein.
    https://gcn.gsfc.nasa.gov/gcn3/24185.gcn3
    https://heasarc.gsfc.nasa.gov/db-perl/W3Browse/w3hdprods.pl

  98. #98 Dr. Wolfgang Engelhardt
    München
    25. April 2019

    @Fry
    Je länger ich mir die Sache überlege, umso mehr komme ich zu der Überzeugung, dass das EHT Team das Beugungsbild seines virtuellen Teleskops ausgemessen hat, wie es von einer unendlich fernen Punktquelle erzeugt wird. Dafür spricht zunächst einmal die Tatsache, dass der Durchmesser des Objekts mit 42 μas angegeben wird, so dass gemäß der Beziehung, die für das Sterninterferometer gilt: w d = λ bei Antennenabständen d>6000 km die Interferenz der Signale verschwinden müsste. Davon wird aber nichts berichtet, vielmehr scheinen die Signale noch bei der längsten base-line von 10 000 km interferenzfähig gewesen zu sein. Somit haben alle Antennen räumlich kohärentes Licht von derselben Quelle empfangen, was bedeutet, dass keinerlei Aussagen über die räumliche Ausdehnung der Quelle möglich sind. Kein „Abtasten“, keine Fourier-Transformation kann aus dem Apparate-bedingten Beugungsbild eine Information herausholen, die nicht drin ist.

    Es fällt natürlich auf, dass die angegebene Größe des Objekts von 42 μas in etwa mit dem Auflösungsvermögen des virtuellen Teleskops übereinstimmt, das je nach base-line irgendwo zwischen 25 und 50 μas liegt, siehe: The Astrophysical Journal Letters, 875:L1 (17pp), 2019 April 10, Fig.2 top. Es wäre natürlich ein Riesenzufall, wenn beide Größen, die überhaupt nichts miteinander zu tun haben, praktisch ungefähr gleich groß wären.

    Man muss also davon ausgehen, dass Fig.2, bottom, das Helligkeitsprofil eines Beugungsbildes zeigt wie man es von der Optik her kennt, s. z.B. Pohl, Optik und Atomphysik, S. 84, Abb. 197. Von dem „schwarzen Loch“ in der Mitte des Bildes können Sie sich selbst überzeugen, wenn Sie mit einer Nadel ein Loch von ca. 0.3 mm Durchmesser in ein Stück Karton piksen und gegen eine helle Fläche durch das Loch schauen. In der Mitte des hellen Bildes sehen Sie einen schwarzen Punkt. Wenn Ihnen das nicht gleich gelingt, können sie mit einer Schieblehre (notfalls sogar mit zwei Fingern!) einen Spalt von etwa .3 mm Durchmesser einstellen und wiederum gegen eine helle Fläche durch den Spalt schauen. Sie werden in der Mitte einen schwarzen Streifen sehen, der bei einer Rundblende zum „scharzen Loch“ gerät. Es handelt sich um das Pendent zum bekannteren Arago- oder Poisson-Fleck.

    Es wäre gut, wenn sich das EHT-Team etwas mehr mit Experimentalphysik als nur mit Theorie und Computerei befasste. Interferenz hat nämlich viele faszinierende Facetten, die z.B. bei Pohl eindrucksvoll beschrieben werden. Ich bezweifle allerdings, dass es heute noch Experimentalphysik-Vorlesungen gibt, die es mit Pohls Meisterschaft aufnehmen könnten. Die heutige Generation ist daher nicht zu tadeln, wenn sie noch nie etwas von Michelsons Stern-Interferometer und dessen Anwendung gehört hat.

  99. #99 Dr. Wolfgang Engelhardt
    München
    26. April 2019

    Endlich habe ich den Grund gefunden, warum das “Loch” unter einem Winkel von 42 μas gemessen wird. Mein Sohn hat mir auf die Sprünge geholfen, denn Douglas Adams hat es vorausgeahnt: https://en.m.wikipedia.org/wiki/Phrases_from_The_Hitchhiker's_Guide_to_the_Galaxy
    Da hätte man gleich draufkommen können!

  100. #100 Herr Senf
    26. April 2019

    “Der Apfel fällt nicht weit vom Stamm” (frei nach Nefton) – ich lieb die 27.
    Anstelle Spiegelei hatte ich heute auch ein schwarzes Loch in der Pfanne.

  101. #101 Herr Senf
    26. April 2019

    geht ja wie’s Brezelbacken S20190426c

  102. #102 Spritkopf
    26. April 2019

    geht ja wie’s Brezelbacken S20190426c

    Mit allerdings recht hoher False Alarm Rate. Immerhin 14% Wahrscheinlichkeit, dass es sich um ein terrestrisches Signal gehandelt haben könnte.

  103. #103 Alderamin
    27. April 2019

    @Spritkopf, Herr Senf

    Vermutlich eine Verschmelzung von einem Schwarzen Loch und einem Neutronenstern.

    Die geringe Wahrscheinlichkeit in der Tabelle hat nicht viel zu bedeuten, sagt ein Experte.

  104. #104 Alderamin
    27. April 2019

    @myself #91

    Könnte sogar eine Verschmelzung von Neutronenstern mit Schwarzem Loch sein.

    Das Event vom Tag zuvor (S190425z) wird mittlerweise als ziemlich sichere Verschmelzung zweier Neutronensterne geführt. Steht auch im Nature-Artikel, den ich in #103 verlinkt habe.

  105. #105 Spritkopf
    27. April 2019

    @Alderamin

    Ich hatte mich ja gefragt, wofür der MassGap-Eintrag in der Tabelle steht. Anscheinend für eine Gesamtmasse der beteiligten Körper von, sagen wir, 1,5 bis 5 Sonnenmassen, bei der man sich noch nicht sicher ist, ob der sich aus der Verschmelzung ergebende Körper noch ein Neutronenstern oder schon ein Schwarzes Loch ist. Oder irgendetwas Unbekanntes dazwischen, z. B. ein Quarkstern.

    Wäre das nicht etwas, worüber du mal was schreiben könntest?

  106. #106 Alderamin
    27. April 2019

    @Spritkopf

    Ist noch sehr frisch und es gibt kein Paper dazu.

    Zur Mass Gap habe ich gefunden: “Probability that the source has at least one object between 3 and 5 solar masses”. Normalerweise sollte ein Objekt über 3 Sonnenmassen ziemlich sicher ein Schwarzes Loch sein (die Tolman-Oppenheimer-Volkoff-Grenze ist nicht genau bekannt, nach der Theorie irgendwo zwischen 1,5 und 3 Sonnenmassen; der schwerste gefundene Neutronenstern hat aber schon 2,27 Sonnenmassen).

    Anscheinend hat man aber noch kein Schwarzes Loch mit weniger als 5 Sonnenmassen gefunden. Daher die Lücke. War mir gar nicht bewusst.

  107. #107 Dr. Wolfgang Engelhardt
    München
    24. Mai 2019

    “Was zeigt das Bild?”
    Hier eine plausible Alternative: https://www.researchgate.net/publication/333340299_Contemplation_on_a_Black_Spot

  108. #108 Herr Senf
    1. Juni 2019

    Es gibt eine korrekte Antwort vom 26.05.auf Dr. Engelhardts “Linsenphänomen”
    https://arxiv.org/abs/1905.10717 mit schönen “Bildern” zum spinabhängigen Photonenring
    “Black Hole Spin Signature in the Black Hole Shadow of M87 in the Flaring State”