Im April wird ein neues Teleskop das erste Bild eines schwarzen Lochs machen! Diese Nachricht macht gerade die Runde – und obwohl sie nicht falsch ist, kann sie leicht missverstanden werden. Und damit am Ende niemand enttäuscht ist, wenn die Ergebnisse veröffentlicht werden lohnt es sich, ein wenig genauer nachzusehen, um was es dabei geht.

Das Teleskop, mit dem die Aufnahmen gemacht werden sollen ist das “Event Horizon Telescope (EHT)”. Dabei handelt es sich aber nicht um ein konkretes Gerät sondern eher um ein Projekt. Das EHT ist ein weltweiter Zusammenschluss von Radioteleskopen (aus Deutschland ist beispielsweise das Max-Planck-Institut für Radioastronomie mit dabei, aber auch die Goethe-Universität Frankfurt am Main).

Bis jetzt gibt es nur künstlerische Darstellungen von supermassereichen schwarzen Löchern (Bild: ESO/M. Kornmesser)

Bis jetzt gibt es nur künstlerische Darstellungen von supermassereichen schwarzen Löchern (Bild: ESO/M. Kornmesser)

Radioteleskope werden deswegen verwendet, weil sie eine der wenigen Instrumente sind, mit denen man schwarze Löcher tatsächlich sehen kann. Beziehungsweise “sehen” kann. Denn im eigentlichen Sinn sehen wir natürlich nichts und das aus gleich zwei Gründen. Zum einen, weil man ein schwarzes Loch per Definition nicht sehen kann. Sonst wäre es ja kein schwarzes Loch: Aus der unmittelbaren Umgebung dieser Himmelskörper kann kein Licht entkommen und deswegen gibt es da auch nichts das man sehen kann. Zum anderen aber auch, weil das was wir sehen können (dazu gleich mehr) kein sichtbares Licht ist sondern Radiostrahlung.

Schwarze Löcher sind tatsächlich schwarz; sie geben keine Strahlung ab. Für ihre Umgebung gilt das aber nicht! Wenn sich in der Nähe des schwarzen Lochs Material – Gas und Staub – befindet, dann kann dieses Material in das schwarze Loch fallen. Schwarze Löcher sind zwar entgegen weit verbreiteter Vorstellungen keine Staubsauger die irgendwas “ansaugen”, aber es sind Himmelskörper die wie alle anderen Himmelskörper auch mit ihrer Gravitationskraft die Umgebung beeinflussen. In den Zentren von Galaxien, wo sich besonders massereiche schwarze Löcher befinden, geht es immer ein wenig gedrängter zu als in den Außenbereichen wo sich unsere Sonne befindet. Dort findet sich immer Material, das ins schwarze Loch fallen kann. Das tut es aber nicht auf direktem Weg sondern aus Gründen der Drehimpulserhaltung auf spiralförmigen Bahnen. Oder anders gesagt: So ein schwarzes Loch ist von einer Scheibe aus Gas und Staub umgeben, in der sich das Material mit hohen Geschwindigkeiten um das Loch bewegt. Durch diese Bewegung wird das Material aufgeheizt und gibt Strahlung ab; hauptsächlich Radio- und Röntgenstrahlung. Schwarze Löcher kann man nicht sehen – aber dafür leuchtet ihre Umgebung im Radiolicht um so heller. Wenn man etwas sehen will, sind Radioteleskope eine gute Wahl.

Das Zentrum unserer Milchstraße sieht im Radiolicht zum Beispiel so aus:

Man sieht hier jede Menge Quellen von Radiostrahlung (auch andere Objekte wie Sterne oder große Gaswolken leuchten im Radiolicht). In der Mitte findet man Sgr A (für “Sagittarius A”, benannt nach dem Sternbild Schütze) und irgendwo dort drin ist Sagittarius A*: Das supermassereiche schwarze Loch im Zentrum der Milchstraße.

Genauere Bilder zu machen ist schwer. Das Zentrum ist 26.000 Lichtjahre entfernt, das schwarze Loch selbst aber “nur” 44 Millionen Kilometer im Durchmesser (also etwas weniger als der Abstand zwischen Sonne und Merkur). Um dort tatsächlich Details zu erkennen, braucht man eine entsprechend gute Auflösung. Die ist mit den normalen Teleskopen nicht zu machen. Es geht aber mit einer Technik die man “Interferometrie” nennt.

Ein Lichtstrahl der durch die Öffnung eines Teleskops fällt wird immer ein wenig gebeugt. Wenn das Licht von einer Punktquelle kommt dann sorgt diese Beugung zwangsläufig dafür, dass man im Teleskop keinen Punkt sieht, sondern einen – mehr oder weniger großen – kreisförmigen Fleck. Das lässt sich nicht ändern, man kann das Problem aber umgehen. Man kann zum Beispiel zwei Teleskope benutzen, die beide das Objekt beobachten. Dann bringt man ihr Licht zur Interferenz. Die Lichtwellen werden sich an bestimmten Stellen verstärken, an anderen auslöschen: Man erhält ein typisches Interferenzmuster, ein Muster, dass man zum Beispiel auch sieht, wenn man zwei Steine ins Wasser wirft und die entstehenden Wellen betrachtet. Im Fall der beiden Teleskope würde man nun kein Beugungsscheibchen mehr sehen, sondern ein Interferenzmuster aus hellen und dunklen Linien. Ändert man den Abstand zwischen den beiden Teleskopen erhält man verschiedene Muster und diese kann man dann wieder zum ursprünglichen Bild kombinieren. Das gute daran ist: Die Auflösung wird nun nicht mehr durch den Durchmesser des Beugungsscheibchen bestimmt, sondern von der Breite der Interferenzstreifen. Die ist viel geringer und man kann viel kleinere Strukturen auflösen.

Das physikalische Prinzip der Interferometrie ist klar; die technische Umsetzung schwieriger. Bei optischen Teleskopen die im sichtbaren Licht beobachten ist diese Art der Beobachtung enorm kompliziert. Die Wellenlänge des Lichts ist hier sehr kurz und muss längere Zeit beobachten um genug Daten zu sammeln die interferieren können. Die Lichtwellenlängen lassen sich hier aber nicht “speichern”, man muss die Lichtstrahlen der Teleskope optisch zusammenführen und das geht nur, wenn die beiden Teleskope nicht allzu weit voneinander entfernt sind. Damit nimmt man sich aber einen großen Vorteil der Interferometrie: Denn der Abstand zwischen den Teleskopen entspricht gewissermaßen dem Durchmesser eines “virtuellen Teleskops”. Stehen die beiden Teleskope 100 Meter auseinander, dann kann man mit der Interferometrie ein 100 Meter großes Teleskop simulieren. Beträgt der Abstand 1000 Kilometer wird das virtuelle Teleskop entsprechend größer. Und so weiter.

Das Atacama Large Millimeter/submillimeter Array (ALMA); eines der vielen Teleskope die am EHT beteiligt sind (Bild: ESO/B. Tafreshi (twanight.org))

Das Atacama Large Millimeter/submillimeter Array (ALMA); eines der vielen Teleskope die am EHT beteiligt sind (Bild: ESO/B. Tafreshi (twanight.org))

Bei Radiostrahlung sieht es anders aus. Hier kann man die Daten sehr gut aufzeichnen und abspeichern. Die gespeicherten Daten können dann später im Computer interferiert werden und deswegen macht es auch nichts, wenn die verwendeten Teleskope sehr weit entfernt voneinander sind. Oder eben, wie beim EHT, auf der ganzen Welt verteilt. Dieses virtuelle Teleskop von der Größe des ganzen Planeten sollte ein ausreichend gutes Auflösungsvermögen bieten, um das schwarze Loch im Zentrum der Milchstraße tatsächlich zu sehen. Oder eben zu “sehen”: Wenn alles klappt, dann sollte auf dem endgültigen Bild ein heller Ring (das strahlende Material aus der Umgebung) um einen dunklen Kreis (das schwarze Loch) abgebildet sein.

Bis das klappt ist aber noch ein wenig Arbeit nötig. Zwischen 5. und 14. April werden die Teleskope des EHT Daten sammeln. Die werden dann an das Haystack Observatory in Massachusetts in den USA transportiert (übrigens nicht übers Internet; dafür sind die Datenmengen zu groß – die Daten werden per Flugzeug auf Festplatten verschickt) wo ein Supercomputer darauf wartet, alles zu kombinieren und zu verarbeiten. Es wird Monate dauern, bis das Bild fertig ist. Aber dann werden wir tatsächlich das Zentrum unserer Milchstraße so genau sehen können wie nie zuvor. Und ein schwarzes Loch so gut sehen können, wie man es eben sehen kann. Oder “sehen”.

Kommentare (38)

  1. #1 Eisentor
    22. März 2017

    Das verlinkte Bild vom Zentrum der Milchstraße ist ja cool.

  2. #2 Frantischek
    22. März 2017

    Wenn alles klappt, dann sollte auf dem endgültigen Bild ein heller Ring (das strahlende Material aus der Umgebung) um einen dunklen Kreis (das schwarze Loch) abgebildet sein.

    Aber nur wenn man das Glück hat im richtigen Winkel draufzuschauen, oder?
    Wenn das SL falsch ausgerichtet ist kann man doch nur die Akkretionsscheibe von der Seite, und evtl. Jets beobachten.

    Oder versteh ich das was falsch?

    Und was ist eigentlich aus dem russischen Weltraumradioteleskop geworden? Wollten die nicht auch Interferometrie, mit einer Baseline von ein paar hundert tausend Kilometern, machen?

  3. #3 Captain E.
    22. März 2017

    Die Jets? Von der Seite? Geht das nicht höchstens über Reflexionen an Gaswolken?

  4. #4 Frantischek
    22. März 2017

    Das würde ich nicht vermuten.

    Die Jets bestehen ja selbst aus Gas. Und sollten doch auch zu einem gewissen Teil mit sich selbst kollidieren und sich dadurch erhitzen. Wobei das Gas ja auch schon bevor es in den Jet gelangt sehr heiß ist und strahlt…

    Andererseits, auch wenn: Bei Sgt A* sollte genug Gas in der Umgebung vorhanden sein.

  5. #5 Lercherl
    22. März 2017

    Durch diese Bewegung wird das Material aufgeheizt und gibt Strahlung ab; hauptsächlich Radio- und Röntgenstrahlung.

    Also sehr langwellige und sehr kurzwellige Strahlung, und dazwischen nichts oder wenig? Gibt es zwei verschiedene Mechanismen der Entstehung?

  6. #6 Spunk321
    22. März 2017

    und dann gibt es noch die Vorhersage der Hawking-Strahlung bei Schwarzen Löchern – ich glaube, die hat man aber noch nicht nachgewiesen, es ist nur eine plausible Vorhersage…

    Viele Grüße
    spunk321

  7. #7 H. L.
    22. März 2017

    Super, die Aktion. Aber noch Monate warten? Ich denke, lieber Florian, du wirst uns dann beizeiten dieses Foto präsentieren.
    Und ich kann in der Zwischenzeit den Frühling und den Sommer genießen, ohne ständig Ausschau nach schwarzen Löchern halten zu müssen.
    An dieser Stelle schon mal herzlichen Dank für deine Info.

  8. #8 pane
    22. März 2017

    könnte man nicht auch ein inaktives stellares schwarzes Loch direkt beobachten, gerade weil es keine Strahlung hindurch lässt? Also auch keine Hintergrundstrahlung? Oder aber wird das alles durch den Gravitationslinseneffekt zunichte gemacht, und die Hintergrundstrahlung sieht mit schwarzes Loch genau so aus wie ohne?

  9. #9 SonnenKlar
    22. März 2017

    Ich finde Du kannst solche Sachen wirklich gut erklären. Und jetzt kann ich’s kaum erwarten, das fertige Bild zu sehen!

  10. #10 Till
    22. März 2017

    die Daten werden per Flugzeug auf Festplatten verschickt

    Das ist köstlich 😉 So erreichen sie vermutlich eine Bandbreite von vielen Gigabyte pro Sekunde, haben aber eine Latenz von ca einem Tag.

  11. #11 Aginor
    22. März 2017

    Danke für den Artikel!

    Eine Frage habe ich aber:
    Du schreibst “…von der Größe des ganzen Planeten…”
    Ist nicht die Apertur des virtuellen Teleskops sogar eine gute Ecke größer als die Erde?

    So wie ich das verstehe hätte man bei Beobachtung durch Teleskope auf der ganzen Erde doch mit einem noch breiteren Bereich zu tun. Immerhin bewegt sich die Erde IIRC in dieser Zeit (9 Tage) über 23 Millionen Kilometer weit um die Sonne und das Sonnensystem wiederum wandert auch Millionen Kilometer weiter um das Milchstraßenzentrum herum. Klar nicht ganz parallel zueinander und so, aber das ist ja trotzdem ein Stück.

    Wäre es vor diesem Hintergrund nicht sogar noch besser, mehrere Bilder über ein Jahr hinweg zu machen (und dazu bräuchte man sogar weniger Teleskope, denn jedes Teleskop kann ja irgendwann an einem Tag mal in diese Richtung blicken oder)?

    Praktisch so wie bei Bildern die ein Synthetic Aperture Radar erzeugt.

    Oder wo liegt da mein Denkfehler?

    Gruß
    Aginor

  12. #12 Christian der 1.
    22. März 2017

    @frantischek
    Was man da zu “sehen” bekommt wird wirklich sehr interessant. Habe da mal teilweise einen Talk dazu gesehen, natürlich hab ich keinen Link mehr dazu 😉 war mir ehrlich gesagt auch ein bissal zu kompliziert, es wurde aber erwähnt, dass das “Aussehen” zB auch davon abhängt ob das SL rotiert oder nicht.

    Vielleicht kennst ja den Film Interstellar da gabs ja auch Darstellungen von einem SL ( https://goo.gl/images/eQYQ56 )
    und genau diese Struktur hat ein Forscher schon in den 70ern ausgerechnet.

  13. #13 Anselm
    22. März 2017

    @Aginor,
    so funktioniert Interferenz nicht (hie und da mal ein “Bild” machen und irgendwie “überlagern”). Man muss dann schon das gleiche Signal (Amplitude und Phase) an allem Empfängern messen, sonst kann man da garnix interferieren lassen (auf jeden Fall nicht so, dass man ein Bild daraus synthetisieren kann).

  14. #14 HoH
    22. März 2017

    @#8 pane,
    man sollte sich die “Hintergrund”-strahlung nicht als eine Kinoleinwand vorstellen, vor der etwas vorher ziehen kann. Besser ist die Vorstellung, dass es etwas ist, was uns vollständig umgibt. (In der wir schwimmen)

  15. #15 PDP10
    22. März 2017

    @HoH:

    Das ist zwar richtig, was du schreibst (wobei ich mir nicht sicher bin, ob @pane mit “Hintergrundstrahlung” das gleich meint, wie du …).

    Der Punkt ist aber ein anderer:
    Stellare schwarze Löcher sind – im wahrsten Sinne des Wortes – so klein, dass es extrem unwahrscheinlich ist, dass man zufällig eins sieht, nur weil es zB vor einem Stern oder so vorbei “fliegt”.

    @pane:

    Guck mal hier:

    https://de.wikipedia.org/wiki/Schwarzes_Loch

    Insbesondere die Tabelle mit den Größen verschiedener Klassen schwarzer Löcher.

    Ein stellares schwarzes Loch hat demnach einen Ereignishorizont von gerade mal 30 km Durchmesser.
    Wenn das nicht gerade monströse Mengen von Gas oder sonstwas um sich rum hat, ist das viel zu klein als das man es als “Schatten” sehen könnte.

  16. #16 Mirko
    23. März 2017

    Hallo Florian,

    Vielen Dank, aber wie üblich Nachfragen: Wenn es um das SL im Zentrum der Milchstraße geht, dann erwartet Ihr doch, es von der Seite zu sehen? Oder kann es sein, dass die Achse der Ak’scheibe (sorry, würde es eh falsch schreiben) ggü der Milchstraße stark geneigt ist?

  17. #17 Alderamin
    23. März 2017

    @Frantischek #2, &Mirko

    Man kann die Akkretionsscheibe eines Schwarzen Lochs nicht ausschließlich von der Kante sehen, weil das Schwarze Loch das Licht ablenkt. Man kann den Teil der Akkretionsscheibe, der in Kantenstellung eigentlich vom Schwarzen Loch verdeckt sein müsste, als Ring um den Ereignishorizont herum sehen, weil das Licht von hinten in einem Bogen um den Ereignishorizont herum läuft.

    Das sollte ungefähr so wie im Film Interstellar aussehen:

    https://www.wired.com/wp-content/uploads/2014/10/ut_interstellarOpener_f.png

  18. #18 Frantischek
    23. März 2017

    Und so sieht es aus jeder Richtung aus?

  19. #19 Alderamin
    23. März 2017

    @Frantischek

    Genau so nur von der Kante. Wenn man sich nach oben bewegt, dann verschwindet der Ring unten (wird aber ohnehin von der Scheibe vorne verdeckt) und der Ring oben wird heller und weiter, weil weniger abgelenktes Licht, das in mehr Entfernung zum Ereignishorizont läuft, zum Beobachter abgelenkt wird. Direkt von oben sollte ein symmetrischer Ring zu sehen sein, denke ich. Die Akkretionsscheibe von oben. Ich nehme an, der innere Teil verschwindet oder wird nach außen verzerrt, weil das Licht von dort nicht geradlinig zum Beobachter gelangen kann.

    Aber man wird aus jeder Richtung eine Art Ring sehen. Eine unsichtbare Kantenstellung wie bei den Saturnringen sollte es nicht geben können. Auch schon, weil die Akkretionsscheibe sehr hell leuchtet.

  20. #20 Frantischek
    23. März 2017

    Ok. Aber das relativ kleine Loch wird nie komplett von der viel breiteren? Akkretionsscheibe verdeckt.

    War mir nicht bewusst. Was für ein Glück für uns… 😀

  21. #21 Alderamin
    23. März 2017

    @Frantischek

    Weiter entfernt kreisendes Material kann ein Supermassives Schwarzes Loch schon verdecken; das ist der Grund, warum man früher zwischen mehreren Typen aktiver Galaxien unterschieden hat: Seyfert Typ I (man sieht die Akkretionsscheibe), Typ II (man sieht sie nicht, verdeckt durch Staubtorus), Blazar (man guckt von oben in den flackernden Jet). Die Unterscheidung erfolgte natürlich deswegen, weil man unterschiedliche Beobachtungen machte (Emissionslinien, keine Linien, schnelle Fluktuationen und scheinbar superluminare Bewegung); dass das gleiche Phänomen, nämlich ein akkretierendes Schwarzes Loch dahinter steckte, lernte man erst später.

    Radiowellen durchdringen Staub jedoch, deswegen würde so ein umgebender Torus die Beobachtung nicht behindern (die Akkretionsscheibe ist hingegen ionisiert, da geht Strahlung per se erst mal nicht durch, aber sie leuchtet im eigenen Licht). Das Verdecken betrifft eher sichtbares Licht und nahes Infrarot.

    Sagittarius A* ist eh hinter dem Staub der Milchstraßenebene verborgen. Nur im Radiobereich und Infrarot können wir dort hinein “sehen”.

  22. #22 Alderamin
    23. März 2017

    @Frantischek

    Noch ein Text zur Dicke der Akkretionsscheibe:

    https://www.quora.com/Do-all-black-holes-have-planar-accretion-disks-If-so-why

    Ja, die Akkretionsscheibe ist immer sehr platt, weil sie sich so schnell dreht (wohl auch, weil sie kompakt ist: Materie kollidiert, daher die Ionisation; in einer Scheibe sind die Kollisionen minimiert, diese Konfiguration wird sich alo als stabilste einstelle). Bei AGN (Active Galaxy Nulcei, also aktiven Galaxienkernen) gibt’s außen rum noch den Torus aus Staub.

  23. #23 Steffmann
    23. März 2017

    Letztlich ist es egal, wie gut man auflöst. Das Resultat wird immer dasselbe sein. Man sieht in Bezug auf das eigentliche Objekt der Begierde….einfach nichts. Das liegt in der Natur der Sache ;-). Aber wirklich erstaunlich, dass wir innerhalb ein paar Jahrzehnten von “gibt es oder nicht” zu wir “beobachten” gekommen sind.

  24. #24 Mirko
    er
    23. März 2017

    @Alderamin: Danke für die Erklärung! Das wird ja dieses Jahr noch spannender als Ligo.
    Wer weiß, ob nicht noch etwas ganz anderes entdeckt wird…wie beim Michelson-Morley-Experiment, bzw. danach.

  25. #25 Folke Kelm
    24. März 2017

    #23 Steffmann,

    “wirklich erstaunlich, dass wir innerhalb ein paar Jahrzehnten von “gibt es oder nicht” zu wir “beobachten” gekommen sind.”

    Ich stimme Dir hier absolut zu. Wer in den letzten 30 Jahren die Entwicklung der Wissenschaft verfolgt hat, weiss, dass es hier eine richtige Revolution gegeben hat, nicht im Sinne von einer bahnbrechenden Entdeckung wie zum Beispiel der Relativitätstheorie, sondern von einer Unzahl kleiner Schritte, die uns in der Summe aber weiter gebracht haben als wir uns das in den 80ern und 90ern vorstellen konnten.
    Die Nebenwirkung allerdings ist eine deutlich gesteigerte Komplexität und viele Leute sind einfach nicht mehr in der Lage der Entwcklung zu folgen. Ich frage mich gerade, ob die immer lauter werdende Wissenschaftsfeindlichkeit nicht ein Ausdruck dieser gesteigerten Komplexität ist, im Sinne von einem Bedürfnis nach einfachen Zusammenhängen.

    Sorry..off topic…

  26. #26 Frantischek
    24. März 2017

    Von mir auch ein Danke an den alten Amin 😀 , für die guten Erklärungen!

  27. #27 Krypto
    24. März 2017

    @Aiginor:
    Man könnte schon mehrere “Bildserien” machen.
    Aber daraus ein “Bild” zu erstellen wäre sinnfrei, da wir es hier mit einem sehr dynamischen Objekt zu tun haben.
    Du bekämst Bewegungsunschärfen.

    Wichtig sind auch die extrem genauen Zeitstempel der Aufnahmen über synchronisiserte Präzisionsuhren. Selbst der Höhenunterschied teilnehmender Teleskope und die Erdrotation müssen rechnerisch berücksichtigt werden.

  28. #28 Shoogar
    26. März 2017

    @Folke Kelm
    “nicht im Sinne von einer bahnbrechenden Entdeckung wie zum Beispiel der Relativitätstheorie”

    Oh,
    als naturwissenschaftlich interessierter Laie halte ich Hubbles Entdeckung der Expansion des Weltalls durchaus auch für “bahnbrechend”, ne, eigentlich schon sein Beitrag zur Klärung der Shapley-Curtis-Debatte.
    Und ich möchte genauso eine Lanze für Zwicky und V. Rubin (dunkle Materie) brechen.
    Die Beschreibung und Entdeckung von Neutronensternen (Oppenheimer, Volkoff, J. Bell) darf in meinen Augen genauso als “bahnbrechend” angesehen werden wie die Entdeckung schwarzer Löcher, der dunklen Energie und dem Nachweis von Gravitationswellen.

    Tatsächlich ist es atemberaubend (ich habe noch 40 Jahre alte populärwissenschaftliche Bücher), mit welcher Geschwindigkeit sich nicht nur die Erkenntnisse in der Physik erweitert haben, sondern auch wie schnell sich dieses in der Gesellschaft verbreitet hat.
    (Auch dank Blogs wie diesem hier).
    Und auch ich freue mich schon ganz gespannt auf das, was wir von SgrA “sehen” werden.

  29. #29 Alderamin
    26. März 2017

    @Krypto

    Du bekämst Bewegungsunschärfen.

    Die bekommst Du sowieso… bei einer Akkretionsscheibe, die mit knapp Lichtgeschwindigkeit um das Schwarze Loch rast.

    Wesentlich bei der Interferometrie ist der Phasenbezug der empfangenen Wellen (daher die genauen Zeitstempel), und den hat man nur, wenn man überall gleichzeitig misst. Man kann zwar durch zeitverschobene Messungen die empfangene Strahlungsmenge erhöhen, aber nicht die Auflösung.

  30. #30 Alderamin
    4. April 2017

    Toller Artikel bei Nature über die Beobachtungen, die heute beginnen und bis zum 14. April andauern sollen. Neben Sag A* und dem Kern von M87 sollen noch 4 weitere Ziele (Centaurus A, die elliptische Galaxie NGC1052 und zwei Quasare, aus anderer Quelle) anvisiert werden. Jede Nacht werden mit 2 Petabytes ungefähr so viel Daten generiert, wie vom LHC in einem ganzen Jahr!

    Was man dann wohlmöglich abzubilden vermag, wird in diesem Paper analysiert (Bilder am Ende des Artikels).

  31. #31 Alderamin
    5. April 2017
  32. […] will an dieser Stelle gar nicht wiederholen, was z.B. bei Spektrum online, bei Florian Freistetter und bei Science schon sehr schön über die Hintergründe dieser Forschungen berichtet wurde, […]

  33. #33 mess
    loch
    15. April 2017

    Und nächste Woche gibt es schon den Bastelbausatz in den Geschäften:

    Ein Schwarzes Loch zum Ausschneiden.

  34. #34 Alderamin
    20. April 2017

    Dass die Daten auf Festplatten gespeichert werden und dass es einige Petabytes an Daten sind, war klar – aber nicht, wie das dann praktisch aussieht:

    https://twitter.com/CJRClarkEsquire/status/855050207498731521/photo/1

    Krass!

  35. #35 Markus
    12. März 2018

    @#11: Aginor

    Um bei Florians Bildnis von Interferenz mit “Stein in den See werfen” zu bleiben: Was du beschreibst, wäre als wenn du an einem Tag einen Stein ins Wasser wirfst und am nächsten Tag einen zweiten Stein knapp neben den Ersten. Und dann schaust du wie die Wellen die die beiden Steine machen sich gegenseitig beeinflussen.

    Kann irgendwie nicht funktionieren. Merkste selber. Du musst schon beide Steine gleichzeitig werfen.

    @Florian:
    Wieso funktioniert Interferometrie nicht mit optischen Teleskopen? Ist einfach die Datenmenge noch zu groß? Kann man die nicht komprimieren?

  36. #36 Florian Freistetter
    12. März 2018

    @Markus: “Kann man die nicht komprimieren?”

    Bei Radiowellen kann man die Daten speichern und nachträglich am Computer interferieren. Bei optischen Daten sind das zu viele; das geht nicht. Da muss man “live” interferieren; die Daten also per Glasfaserkabel zusammenführen und das kann man halt nur lokal machen – man kriegt mit den optischen Teleskopen also keine so großen Interferometer zusammen. (im kleinen Maßstab macht man es aber natürlich schon)

  37. #37 Joe
    14. März 2018

    Falls es interessiert: Ich habe einen der “Erfinder” des EHT, Heino Falcke, neulich für ein kleines Interview getroffen https://www.youtube.com/watch?v=NWsY_g6f0U4

  38. […] mehr als einem Jahr habe ich hier im Blog über das Event Horizon Telescope (EHT) und “das erste Bild eines schwarzen Lochs” geschrieben. Ich habe erklärt, worum es sich bei diesem Teleskop handelt und warum es streng […]