Letzte Woche hat das Event Horizon Telescope (EHT) das erste Bild eines schwarzen Lochs veröffentlicht. Das war eine großartige wissenschaftliche Leistung, aber auch eine gewaltige technische Aufgabe. Ein so weit entferntes Objekt zu sehen ist nicht einfach. Dazu braucht es ein großes Teleskop. Größer als alles, was wir vernünftigerweise bauen können. Dass es trotzdem geklappt hat, liegt an einer sehr ausgeklügelten Technik. Sie nennt sich Apertursynthese beziehungsweise Very Long Baseline Interferometry (VLBI) (Das ist nicht exakt das selbe, was aber jetzt für den Zweck dieses Artikels nicht so wichtig ist).

Will man so etwas sehen, braucht man ein Teleskop mit Löchern!
Bild: Event Horizon Telescope

In den Himmel schauen kann man immer. Was man dabei alles sehen kann, hängt allerdings vom Auflösungsvermögen des dabei verwendeten optischen Instruments ab. Mit unseren Augen können wir zum Beispiel auf dem Mond nichts sehen, was kleiner als 130 Kilometer ist. Wollen wir mehr sehen, brauchen wir ein größeres Instrument. Jetzt stellen wir uns vor, wir wollen eine Orange sehen, die dort auf dem Mond herum liegt (nur theoretisch, dort liegen in Wahrheit natürlich keine Orangen herum). Also ein Objekt mit etwa 7 Zentimeter Durchmesser in einer Entfernung von knapp 400.000 Kilometer. Das ist wirklich schwer zu sehen. Die Orange hat eine Größe von 36 Mikro-Bogensekunden. Das bedeutet: Teilen wir den kompletten Himmel in 360 Grad, dann hat ein Grad 60 Bogenminuten und eine Bogenminute 60 Bogensekunden. 36 Millionstel einer Bogensekunde wären dann der Winkel, den die Mondorange am Himmel einnimmt. Zum Vergleich: Der Mond selbst ist 30 Bogenminuten groß!

Jetzt will man aber nicht unbedingt fiktive Orangen am Mond beobachten. Aber ungefähr genau so groß erscheint das schwarze Loch im Zentrum der Galaxie M87. Es (bzw. sein Ereignishorizont) ist zwar deutlich größer als eine Orange. Aber dafür auch 54 Millionen Lichtjahre weit weg. Am Ende kommt man auch hier auf ungefähr 40 Mikro-Bogensekunden und will man es sehen, braucht man ein Teleskop, dessen Auflösung gut genug ist. Ein Teleskop mit einem Durchmesser von mehr als 10.000 Kilometer! So etwas zu bauen ist quasi unmöglich und wenn wir es doch schaffen würden, wäre es vermutlich schwer irgendwo auf der Erde den nötigen Platz zu finden, um es aufzustellen. Aber wir müssen gar nicht das Teleskop bauen. Es reicht auch eines, das ein paar Löcher hat. Und diese Löcher können durchaus sehr groß sein.

Ein Teleskop mit einem Loch klingt nach einer schlechten Idee. Ist aber nicht so schlimm, wie man es sich vorstellt. Die Aufgabe eines Teleskops ist es ja, Licht zu sammeln. Wenn es ein Loch hat, sammelt es nur ein bisschen weniger Licht – aber ist immer noch in der Lage, aus diesem Licht ein Bild zu machen. Das hat zum Beispiel das 2,7-Meter-Teleskop am McDonald-Observatorium in Texas gezeigt, auf das ein Mitarbeiter 1970 aus ungeklärten Gründen mit einer Pistole geschossen hat. Die Löcher sind heute noch im Spiegel; das Teleskop funktioniert aber weiterhin. Das Auflösungsvermögen des Teleskops wird durch die Ausmaße seines Rands definiert, wie viel lichtreflektierende Fläche dazwischen ist, ist nicht ganz so wichtig (was natürlich auch nicht stimmt – je mehr desto besser – aber für den Zweck dieses Artikels ignorieren wir das mal).

Man kann sich jetzt überlegen, ein WIRKLICH großes Loch absichtlich zu produzieren. Zum Beispiel in dem ich zwei kleine Teleskope nebeneinander stelle. Dann befindet sich zwischen ihnen ein “Loch” – aber wenn man es richtig anstellt, kann man daraus immer noch ein virtuelles Teleskop basteln, dessen Größe dem Abstand zwischen den einzelnen Teleskopen entspricht. Dazu reicht es aber nicht, einfach nur mit jedem der Instrumente ein Bild aufzunehmen. Dann hat man zwar zwei Bilder, aber deren Auflösung entspricht dem Auflösungsvermögen der Einzelteleskope.

Viele einzelnen Teleskope. Oder ein großes Teleskop mit vielen Löchern… (Bild: ESO/C.Malin)

Was man braucht, nennt sich “Interferometrie”! Man muss Licht (und wenn ich “Licht” schreibe, meine ich immer elektromagnetische Strahlung allgemein, also zum Beispiel auch Radiowellen) der beiden Teleskope sammeln und kombinieren. Vereinfacht gesagt schickt man das Licht beider Teleskope in ein Gerät – ein Interferometer – wo es überlagert wird. Dann kriegt man ein Interferenzmuster, also eine Abfolge von hellen und dunklen Bereichen. Hell ist es dort, wo die Lichtwellen der beiden Teleskope sich verstärken; dunkel dort wo sie sich gegenseitig auslöschen. Was macht man jetzt mit so einem Muster, wo man doch ein Bild haben will?

Da kommt jetzt ein kompliziertes, aber sehr wichtiges Stück Mathematik ins Spiel: Die Fourier-Transformation. Darüber habe ich schon ein wenig geschrieben. Simpel gesagt geht es dabei um die Tatsache, dass man jedes Signal (also zum Beispiel eine Lichtwelle) auch als Überlagerung von simplen Sinus-Schwingungen darstellen kann. Je komplexer das Signal ist, desto mehr unterschiedliche Schwingungen braucht man. Die Fourier-Transformation ist nun genau die mathematische Technik mit der man ein Signal in die Überlagerung von Schwingungen umrechnen kann bzw. aus einer Überlagerung von Schwingungen wieder ein Signal rekonstruiert. Das geht auch zweidimensional: Ein Teleskop misst ja die Intensität von Licht am zweidimensionalen Himmel. Diese Helligkeitsverteilung kann man in ein entsprechendes Fourier-Muster aus Schwingungen umrechnen.

Nichts anderes macht – wieder vereinfacht gesagt – das Interferometer. Und aus dem Muster kann man die ursprüngliche Intensitätsverteilung wieder rekonstruieren. Also das Bild des Himmels, das man eigentlich sehen will. Warum aber der ganze Aufwand mit der Interferometrie, wenn man mit einem normalen Teleskop das Bild auch direkt beobachten kann? Da sind wir jetzt bei den “Very Long Baselines” aus der “Very Long Baseline Interferometrie”. Wie genau das Interferenzmuster aussieht, hängt vom Abstand der beiden Teleskope ab und von ihrer Ausrichtung in Bezug auf die Lichtquelle.

Interferenzmuster (Bild: Membeth, gemeinfrei)

Man kann sich das vielleicht so vorstellen: Denkt euch eine Schablone mit hellen und dunklen Streifen, die ihr über den Himmel legt. Durch die hellen Streifen kann man gut schauen, durch die dunklen weniger gut. Je nachdem wo und wie die Streifen die Lichtquelle bedecken, kriegt ihr mehr oder weniger Licht zu sehen. Vielleicht liegt die Quelle komplett in einem hellen Streifen; vielleicht liegt aber auch nur zur Hälfte darin. Und die Lichtquelle ist ja vermutlich auch nicht nur ein einzelner Punkt sondern hat eine Struktur. Dort gibt es helle und dunkle Bereiche und wenn durch die hellen und dunklen Streifen leuchten, kriegt ihr ein ganz bestimmtes Muster. Wenn man nun die Anordnung der Teleskope verändert, kriegt man eine neue Schablone, in der die Streifen dicker oder dünner sind oder anders orientiert sind – und damit ein anderes Muster der Lichtquelle. Je mehr unterschiedliche Anordnungen von Teleskopen man verwendet, desto mehr unterschiedliche Muster kriegt man und desto mehr Informationen über die Struktur der Lichtquelle kann man sammeln. Diese Informationen schmeißt man wieder in die Maschine der Fourier-Transformation und rekonstruiert damit das ursprüngliche Bild der Quelle.

Je weiter die Teleskope auseinander stehen, je länger als die Basislinie ist, desto feiner wird das Streifenmuster der Schablone und desto besser kann man die Quelle auflösen. Um ein virtuelles Riesen-Teleskop zu konstruieren, verteilt man also jede Menge Teleskope über die Welt und schaltet sie in allen möglichen Kombinationen zusammen. Jede Kombination aus zwei Teleskopen liefert eine neue Basislinie, eine neue Schablone und damit ein neues Muster. Die Größe des virtuellen Teleskops und damit sein maximales Auflösungsvermögen entspricht dabei dem größten Abstand zwischen zwei der Einzelgeräte.

Teleskope des EHT (Bild: EHT)

Genau das hat das Event Horizon Telescope getan. Acht Radioteleskope auf der ganzen Welt wurden eingesetzt um am Ende das Bild des schwarzen Lochs zu erhalten. Das Radiolicht wurde dabei aber natürlich nicht real durch die Gegend zu einem Interferometer geschickt. Das wäre nicht möglich gewesen; immerhin stand eines der Teleskope in Grönland, ein anderes in der Antarktis, ein paar auf Hawaii, und so weiter. Man hat jeweils zur gleichen Zeit die gleiche Region am Himmel beobachtet, alle Daten aufgezeichnet und mit extrem genauen Zeitstempeln versehen (das ging nur durch den Einsatz von Atomuhren). Die ganzen Daten (ein paar Petabyte) wurden auf Festplatten zu einem zentralen Ort geschickt, in einen Supercomputer geladen und dort quasi noch mal als “Playback” abgespielt und dann virtuell überlagert und analysiert. Die eigentlichen Beobachtungen fanden während nur vier Tagen statt, die Auswertung der Daten hat sehr, sehr viel länger gedauert…

Das Event Horizon Telescope hat diese Technik allerdings nicht erfunden. VLBI gibt es schon länger und kommt an vielen verschiedenen Orten zum Einsatz. Man kann die Apertursynthese (also das Simulieren großer Teleskope aus kleinen) im Prinzip auch bei anderen Bereichen der elektromagnetischen Strahlung anwenden. Da ist es aber nicht mehr ganz so einfach wie im Radiobereich. Will man etwa ganz normales Licht auf diese Weise interferieren, kann man das nur direkt tun. Man kann die Informationen in diesem Fall einfach nicht exakt genug aufzeichnen (die Wellenlänge von normalen Licht ist auch viel kürzer als die von Radiowellen) um sie als “Playback” abzuspielen. Man muss die Teleskope hier tatsächlich direkt verbinden, zum Beispiel durch Glasfaserkabel, und das Licht physisch zu einem zentralen Ort schicken wo es zur Interferenz gebracht werden kann. Das klappt nur auf kurze Distanzen, wird aber trotzdem in einigen Großsternwarten gemacht.

Das Event Horizon Telescope hat seine Aufgabe mehr als nur zufriedenstellen gelöst. Aber es wird natürlich nicht aufhören! Auch andere schwarze Löcher wollen beobachtet werden. Und neben den ursprünglichen acht Teleskopen haben sich mittlerweile auch einige andere Sternwarten der Organisation angeschlossen. Es wird also bei zukünftigen Beobachtungen noch mehr Basislinien geben, noch mehr Informationen und damit noch bessere Bilder. Prinzipiell spricht auch nichts dagegen, die Löcher noch ein wenig größer zu machen: Man könnte ein Radioteleskop auch irgendwo im All platzieren und mit den Teleskopen auf der Erde kombinieren. Und wer weiß, was wir dann damit alles sehen können…

Kommentare (93)

  1. #1 haariger Troll
    16. April 2019

    Könnte man nicht “einfach” Bilder im Frühjahr und im Herbst machen, und hätte dann sogar ein virtuelles Teleskop mit 2AU Durchmesser?

  2. #2 Karl-Heinz
    16. April 2019

    Man könnte ein Radioteleskop auch irgendwo im All platzieren und mit den Teleskopen auf der Erde kombinieren. Und wer weiß, was wir dann damit alles sehen können…

    Ich denke da an eine Teleskopstation auf der der Erde abgewandten Seite des Mondes.

  3. #3 Rolf Hausberg
    Dortmund
    16. April 2019

    Das Bild von Event Horizon Telescope wirkt wie ein Blick von oben auf die Akkretionsscheibe. Kann es auch Ansichten aus anderen Blickrichtungen geben, z.B. auf die Seite, vgl. mit den Ansichten auf die Saturnringe?

  4. #4 Alderamin
    16. April 2019

    @haariger Troll

    Könnte man nicht “einfach” Bilder im Frühjahr und im Herbst machen, und hätte dann sogar ein virtuelles Teleskop mit 2AU Durchmesser?

    Nein, man muss gleichzeitig dieselben Radiowellen beobachten und deren Laufzeitunterschied an jedem Teleskop messen, um den Einfallswinkel zu bestimmen.

  5. #5 Alderamin
    16. April 2019

    @Rolf Hausberg

    Das Bild von Event Horizon Telescope wirkt wie ein Blick von oben auf die Akkretionsscheibe. Kann es auch Ansichten aus anderen Blickrichtungen geben, z.B. auf die Seite, vgl. mit den Ansichten auf die Saturnringe?

    Was man sieht, ist nicht die Akkretionsscheibe, sondern ein Ring aus Licht um die Photonensphäre herum (Photonenring). Die Radiostrahlung stammt möglicherweise von der Akkretionsscheibe (oder auch vom Jet), es ist aber nicht die Akkretionsscheibe selbst. Es at möglicherweise ein paar Orbits hinter sich und von der ursrpünglichen Struktur, der es entstammt, ist nichts mehr sichtbar.

    Aus anderen Blickwinkeln ändert sich nur die Aufhellung (die anzeigt, wie sich das Schwarze Loch dreht), es bleibt immer ein Ring. Ich schreibe gerade einen Artikel dazu, kommt morgen oder übermorgen auf meinem Blog.

  6. #6 bote19
    16. April 2019

    Sehr guter Beitrag zum Verständnis. Jetzt wird auch klar, warum wir zwei Augen haben. Es ist nicht nur , weil wir damit räumlich sehen können, sondern weil die Basislinie größer wird.

  7. #7 Marinolt
    Paderborn
    16. April 2019

    nicht nur, wie Karl-Heinz schreibt, auf der Rückseite des Mondes, sondern genauso auf der Vorderseite, denn je mehr Beobachtungspunkte, desto schärfer das Bild.
    Zwei weitere Positionen sind denkbar und sinnvoll, sobald die Technik für das Seil für den Weltraumaufzug (space lift) soweit ist: An den Schwebepunkten L1 und L2, aber nicht in den Punkten, sondern jeweils weiter vom Mond entfernt, aufgehängt am Mond mit so einem Seil, dann wird das Objekt im einen Fall von der Erdanziehungskraft zur Erde hin und im anderen Fall von der Fliehkraft vom Mond weg gezogen und, vom Seil gehalten, in stabiler Position festgehalten sein, ohne Korrekturen machen zu müssen. Zukunftsmusik, aber …

  8. #8 Christian Berger
    16. April 2019

    Wenn man sich mal den Stand der optischen Nachrichtentechnik anschaut, könnte es durchaus sein, dass wir in den nächsten Jahrzehnten das auch mit optischen Teleskopen machen.

    Bei Glasfasern gibt es schon die ersten Systeme die Phasenlage und Intensität auswerten können:
    https://literature.cdn.keysight.com/litweb/pdf/5992-2888EN.pdf

  9. #9 Bullet
    16. April 2019

    @bote19:

    Es ist nicht nur , weil wir damit räumlich sehen können, sondern weil die Basislinie größer wird.

    Es wäre mir neu, daß unser Gehirn Interferometrie betreibt. Das kannst du auch anders überprüfen: siehst du mit beiden Augen schärfer als mit deinem besseren Auge?
    Halt ick für’n Jerücht.

  10. #10 capt vimes
    16. April 2019

    man kann auch 2 teleskope in den L1 und L2 punkten der erde positionieren – Plank befindet sich übrigens schon im L2 und das James Webb wird folgen.
    die daten werden zur erde gefunkt und hier zusammengerechnet – voila!
    man könnte auch die L4 und L5 punkte nehmen, dann hat man eine richtig grosse baseline!
    😉

  11. #11 Alderamin
    16. April 2019

    @Christian Berger

    Wenn man sich mal den Stand der optischen Nachrichtentechnik anschaut, könnte es durchaus sein, dass wir in den nächsten Jahrzehnten das auch mit optischen Teleskopen machen.

    Bei Glasfasern gibt es schon die ersten Systeme die Phasenlage und Intensität auswerten können:

    Es ist aber ganz was anderes, ob man die Phase zur Informationsübetragung moduliert und beim Empfang aus dem Phasenvergleich auf die Bitinformation schließt – oder ob man das Licht verschiedener Teleskope phasentreu mit Zeitstempeln aufzeichnet und rechnerisch überlagert.

    Eine analoge Überlagerung wird in optischen Interferometern z.B. am VLT jetzt bereits gemacht, dazu werden die Strahlengänge mit Spiegeln auf Wellenlängenbruchteile genau angeglichen und das Licht dann analog zur Interferenz gebracht. Damit erreicht das VLT die Auflösung eines 130m-Teleskops. Aber VLBI mit sehr großen Abständen geht so nicht. Keine Chance, Licht mit der notwendigen Geschwindigkeit aufzuzeichnen oder anderweitig über große Strecken zur wellenlängengenauen Interferenz zu bringen. Zwischen 1,3 mm und 800 nm Wellenlänge ist liegt halt ungefähr ein Faktor 1000.

  12. #12 Christian Berger
    16. April 2019

    @Alderamin: Naja, was in LWL mit Licht gemacht wird ist ziemlich genau das was die Radioteleskope hier machen. Es ist ja nicht so als ob die Radioteleskope das Eingangssignal direkt abtasten. Die nehmen sich stattdessen einen (relativ zur Frequenz) schmalbandigen Bereich heraus, und mischen den in ein komplexes Signal um 0Hz herunter und tasten dieses Signal dann ab. Das ist etwas, was in Zukunft auch mit Licht gehen wird, bzw schon heute in LWL mit sehr kleiner Bandbreite gemacht wird.

  13. #13 Alderamin
    16. April 2019

    @Christian Berger

    Die nehmen sich stattdessen einen (relativ zur Frequenz) schmalbandigen Bereich heraus, und mischen den in ein komplexes Signal um 0Hz herunter und tasten dieses Signal dann ab.

    Sicher? Bei einem modulierten Trägersignal für Kommunikationszwecke macht man das natürlich so, aber beim Signal von M87* gibt es keine Modulation und für die Interferenz braucht man m.E. die Originalwelle. Ich ging davon aus, dass lediglich das gewünschte Band bei 1,3 mm herausgefiltert und im Original abgetastet wird.

  14. #14 trunk
    16. April 2019

    Die erdabgewandte Seite des Mondes hat den Vorteil, dass man auch auf Frequenzen beobachten kann, die von der Erde abgestrahlt werden (UKW, MW, LW bspw.). Aber das mit “per Funk die Aufzeichnungen übertragen” wird unmöglich. Auch da müsste man die Festplatten physisch wieder zur Erde bringen. Ein Satellit, der – meinetwegen bei 1,3mm (was wohl gut durch kosmischen Staub dringt) – beobachtet und wieder zurück zur Erde “fallen gelassen wird”, kommt mir vorerst machbarer vor als eine am VLBI teilnehmende Mondstation. Aber darüber wollen sich ja die EHT-Macher demnächst Gedanken machen, wie man das EHT am besten/günstigsten auf den Weltraum ausdehnen kann.

  15. #15 Elektroniker
    16. April 2019

    @Christian Berger

    Es gibt keine Wandler, die direkt 3THz (3000 GHz) abtasten können um rund 300 GHz (1mm Wellenlänge) noch vernünftig darstellen zu können. Man überlege auch, welche Datenmenge dabei anfallen würde : bei einer 8-Bit Darstellung 3 Terabyte / Sekunde. Ich kenne auch keine 3 Terabyte-Festplatte, die man in einer Sekunde vollschreiben kann. Man wird wohl runtermischen müssen. Aber nicht auf 0Hz, denn damit wird das Signal mehrdeutig. Das Direktmischer-Prinzip kann nicht zwischen dem Signal unterhalb des Mischerträgers und oberhalb des Mischerträgers unterscheiden. Die Frequenz, auf die runtergemischt wird, sollte mindestens doppelt so groß, wie die Bandbreite sein.

  16. #16 Christian Berger
    16. April 2019

    @Alderamin: Absolut sicher bin ich mir natürlich nicht, aber 1,3mm, das wären so grob 230 Gigahertz. Mir sind keine AD-Wandler bekannt, welche auch nur in die Nähe dieser Abtastraten kämen.

    Leider habe ich keine genauen Pläne von den verwendeten Teleskopen, aber wenn Du mal in einer Suchmaschine nach “Radio Telescope block diagram” suchst, wirst Du meistens mindestens eine Stufe sehen die die Signale heruntermischt.

    Ob Du jetzt einen kleinen Frequenzbereich herausfilterst und direkt abtastest, oder den zuerst heruntermischst. Die Information ist im Prinzip identisch.

    Es gibt übrigens noch einen ganz praktischen Grund die Signale so schnell wie möglich runter zu mischen. Verstärker haben neben dem “forwärts”-Weg vom Ein- zum Ausgang immer auch einen “rückwärts”-Weg vom Ausgang zum Eingang. Das führt dazu, dass wenn Dein Verstärker eine zu hohe Verstärkung hat, der automatisch zu Schwingen beginnt. Das ist auch der Grund warum Radios welche Signale heruntermischen (Superhet-Empfänger) sich durchgesetzt haben.

    Ach ja und natürlich gibt es ja auch Radioastronomie in niedrigen Frequenzbereichen. Da kann man sich das Heruntermischen sicherlich sparen.

  17. #17 Christian Berger
    16. April 2019

    Ich bitte um Entschuldigung für die vielen Beiträge.
    @Alderamin: Ich hab was gefunden:
    https://www3.mpifr-bonn.mpg.de/div/electronic/content/receivers/3mm.html
    Das ist die Doku zum 3mm Empfänger in Effelsberg. Im Blockdiagramm unten sieht man wie das im Detail aufgebaut ist.

  18. #18 Christian Berger
    16. April 2019

    @Elektriker: “Aber nicht auf 0Hz, denn damit wird das Signal mehrdeutig.”
    Jain, was man da macht ist im Prinzip eine QAM-Demodulation. Sprich das funktioniert so wie beim Farbfernsehen. Du betrachtest Dein Signal als 2 Amplitudenmodulationen mit einem um 90° phasenversetzten Träger. Im Prinzip wie beim Farbfernsehen. Was Du dabei bekommst ist ein komplexes Signal welches nicht nur einen reellen Momentanwert hat, sondern einen komplexen Momentanwert. Wenn ich zum Beispiel einen Sinus bei 1,1kHz so um 1 kHz heruntermische bekomme ich ein Signal welches im reellen und im imaginären Teil einen Sinus von 100 Hz hat. Beide sind aber um 90° verschoben. Bei einem Eingangssignal von 0,9kHz bekommst Du das auch, aber die Komponenten sind genau anders herum verschoben. Dadurch kann man beides perfekt voneinander trennen.

  19. #19 Elektroniker
    16. April 2019

    @ Christian Berger

    Ja natürlich ! Du schiebst Oszillatorsignal und Nutzsignal um exakt 90 Grad, schickst es dann in zwei Mischer und überlagerst dann das Ergebnis dieser beiden Mischer ! Das funktioniert noch nicht einmal im Kurzwellenbereich (unter 30 MHz) richtig vernünftig und auch nicht Großsignal-fest. Das funktioniert nur, wenn die Signale digital vorliegen und die Signalverarbeitung (Phasenschieber, Mischung, Addition) auch digital erfolgt. Also beim Generieren von modulierten Signalen.

    Hast du das schon mal gemacht ? Ich schon.

    Aber mich würde brennend interessieren, wie man mit derartig heruntergemischten konvertierten Signalen noch interferometrisch arbeiten kann. Es kann ja auch nur ein kleiner Bestandteil des ursprünglichen Signals gespeichert werden.

  20. #20 bote19
    16. April 2019

    bullet,
    für deine Meinung spricht, dass wir tatsächlich ein Auge beim Sehen bevorzugen, sonst würde das Bild ja ständig vor unseren Augen hin- und hertanzen.
    Wenn man beim Schießen mit Kimme und Korn das Ziel nicht gut anvisieren kann, dann schaut man mit beiden Augen, weil man auf diese Weise einmal die linke Seite besser sieht, dann mal die rechte. Wir machen wahrscheinlich nicht ständig Interferometrie, aber wenn wir es genau sehen wollen, machen wir es bewusst. Zyklopen konnten das nicht, deswegen sind sie auch ausgestorben.

  21. #21 PDP10
    16. April 2019

    @bote19:

    Nein, wir machen mit unseren Augen keine Interferometrie. Bitte schlag den Begriff nach und wenn du schon dabei bist, informiere dich bitte, wie das menschliche Auge funktioniert.

  22. #22 Karl-Heinz
    16. April 2019

    @bote19

    PDP10 hat absolut recht. Wenn das Licht auf die beiden Sehnerven trifft, nimmt unser Hirn anschließend keine Interferometrie mehr vor.

  23. #23 Christian Berger
    16. April 2019

    @Elektroniker: Also die Ergebnisse der Mischer werden nicht überlagert. Wenn Du Dir übrigens mal einen modernen Empfänger anschaust, zum Beispiel einen billigen DVB-S Tuner, so siehst Du da, dass die das genau so machen. Du hast das Frontend in das die “Hochfrequenz” rein geht, und aus dem Chip kommen 2 Paare an Leiterbahnen. Das ist das I und Q Signal. Funktioniert wunderbar.

    “Aber mich würde brennend interessieren, wie man mit derartig heruntergemischten konvertierten Signalen noch interferometrisch arbeiten kann. Es kann ja auch nur ein kleiner Bestandteil des ursprünglichen Signals gespeichert werden.”

    Nein, da kommt das komplette Band raus, sprich wenn Du zum Beispiel bei 4,43 MHz ein Signal komplex heruntermischst, dass IQ-Signal mit 1 MHz tiefpassfilterst, dann hast Du da die ganze Information drin, die auch in Deinem Originalsignal zwischen 3,43 und 5,43 MHz drin hattest. Wenn Du dass dann nochmal hochmischst hast Du das Signal (abgesehen von der Bandpassfilterung) nicht verändert.

  24. #24 PDP10
    16. April 2019

    @Karl-Heinz:

    Genau genommen sind es die Sehzellen, die die optische Information “aufnehmen”.

    Die besteht aber nur aus Frequenz – d.h. Energie des Photons das jeweils detektiert wird – und der Intensität = Anzahl der Photonen.

    Für Interferometrie müsste aber der zeitliche Verlauf der Lichtwellen aufgelöst werden. Das können die Sehzellen in unserem Auge aber gar nicht. Dafür sind die Dinger schlicht nicht gebaut. Ganz zu schweigen vom Sehnerv. Alles viel zu langsam.

  25. #25 Alderamin
    16. April 2019

    @Christian Berger

    @Alderamin: Ich hab was gefunden:
    https://www3.mpifr-bonn.mpg.de/div/electronic/content/receivers/3mm.html
    Das ist die Doku zum 3mm Empfänger in Effelsberg. Im Blockdiagramm unten sieht man wie das im Detail aufgebaut ist.

    Ok, überzeugt. Rechts steht was von “VLBA-IF”, also wird für Very Long Baseline Arrays auf Zwischenfrequenz runtermoduliert.

  26. #26 Karl-Heinz
    17. April 2019

    Hmmm …
    Das mit dem Runtermischen (Downconversion) scheint zu stimmen.
    Ich vermute, dass anschließend eine Abtastrate (Sampling) von 2Gbps kein Problem darstellt.

  27. #27 Karl-Heinz
    17. April 2019
  28. #28 Uwe1164
    Krefeld
    17. April 2019

    Ist das mit der “Fourier-Transformation” nicht komplett falsch? Die wird zwar tatsächlich gebraucht, um das Frequenzband zu bregrenzen, aber um die Richtung aufzulösen ist die doch nicht notwendig. Dazu braucht es nur die Laufzeitunterschiede (Die sich durch die relative Bewegung der Teleskope aufgrund der Erddrehung kompliziert ändert). Ich vermute, man hat dazu eine punktförmige Strahlungsquelle in der Nähe, durchaus in einer anderen Frequenz, genommen und dann die Uhren kontinuierlich damit kalibriert (Es ändern sich ja zum Beispiel auch die Frequenzen durch die Relativbewegung dauernd). Die richtig verzögerten Messwerte werden dann einfach addiert. (Pro Punkt im Bild immer andere relative Verzögerungen). Und das Rohbild ist fertig.

  29. #29 Florian Freistetter
    17. April 2019

    @Uwe1164: Hier gibts eine Vorlesung in der die Technik gut erklärt wird. Ist leider etwas länger: https://youtu.be/0TwnZhiEc3A

  30. #30 Uwe1164
    Krefeld
    17. April 2019

    Nagut, aber ich habe noch immer Probleme damit, dass sich die Antennen aufrgrund der Erdrotation BEWEGEN.
    Die ist ja nicht unerheblich. Sowohl ändert sich der Abstand zueinander sekündlich, als auch der Abstand zum Beobachtungsobjekt.
    Und nicht nur das: Die relativ-BEWEGUNG zum Beobachtungsobjekt ändert sich auch dauernd (je nach Antenne anders), was zu Doppler-effekten führt — aber die eben nur in Beobachtungsrichtung, während die Querrichtung zu relativistischen Zeitdilatationen führt.
    Es sollte also nicht nur eine Synchonisation durch lokale Atomuhren stattfinden, sondern entweder eine genaue Berechnung des Weges der Antennen in der Raumzeit. (Auf wenige zehntel Millimeter genau? GEHT das auf Erdabstand?) ODER durch eine Synchronisation mit dem Beoachtungsobjekt, etwa durch Messung einer punktförmigen Standardkerze in etwa der Gegend des Schwarzen Loches. Ich vermute letzteres wurde gemacht.

  31. #31 bote19
    17. April 2019

    Karl-Heinz
    Eins ist mal klar, ein Einäugiger sieht nicht so gut wie ein Zweiäugiger. Ob das Gehirn interferieren kann, wie willst du das beweisen, wenn man noch nicht einmal weiß, wie die Informationen des Sehnervs im Gehirn verarbeitet, geschweige denn gespeichert werden.

  32. #32 Uwe1164
    Krefeld
    17. April 2019

    Die Zweiäugigkeit des Menschen funktioniert anders als das EHT. Das Parallaxen-Verfahren wird aber in der Astronomie tatsächlich eingesetzt: Ein nahes Objekt wird gegenüber einem “unendlich” fernen Stern angepeilt. Sechs Monate später wird das noch mal gemacht. Hüpft das nahe Objekt dabei um zwei zehntel Grad relativ zum Stern, hat man diese Entfernung als “ein Parsec” definiert. Es hat durchaus viele Jahrzehnte gedauert, diese Strecke absolut zu bestimmen (Siehe “Die Vermessung der Welt”). Aber das funktioniert nur innerhalb weniger Lichtjahre, und dient nur zur Abstandsbestimmung. Mit optischer Interferenz hat das nichts zu tun.

  33. #33 PDP10
    17. April 2019

    @bote19:

    wenn man noch nicht einmal weiß, wie die Informationen des Sehnervs im Gehirn verarbeitet, geschweige denn gespeichert werden.

    Weil schon die Sehzellen die Phaseninformation nicht aufnehmen können.

    Ich sags nochmal: Mach dich bitte schlau, wie das menschliche Auge funktioniert. Das ist nämlich sehr gut verstanden.

  34. #34 bote19
    17. April 2019

    Uwe 1164
    Schallwellen interferieren miteinander. Jetzt müsste man von einem Hörakustiker erfahren können, wie unser Gehirn die Schalleindrücke vom linken und vom rechten Ohr verarbeitet.
    Was die Interferenz des Lichtes betrifft, das sind ja elektromagnetische Wellen und die interferieren schon bevor sie unser Auge erreichen. Man kann behaupten , jeder Punkt des Raumes enthält alle Informationen des Gesamtbildes, so wie bei einem Hologramm. Und da unser Auge auch aus Millionen Sensoren besteht, ist unser Gehirn gut trainiert aus diesen Millionen Bildpunkten ein bild zusammenzusetzen. Und warum sollte es nicht noch zusatzlich aus den Millionen Bildpunkten des linken Auges die Millionen bildpunkte des rechten Auges miteinander verknüpfen zu können. Ich rede hier bewusst nicht von einer optischen Verknüpfung.

  35. #35 PDP10
    17. April 2019

    @bote19:

    Bitte hör auf, hier fortgesetzt solchen Unsinn rein zu schreiben … es ist nicht zum Aushalten!

    Wieviele Leute haben dich jetzt schon darauf hingewiesen, dass es angebracht wäre, dir ein bisschen Grundlagenwissen über Physik drauf zu schaffen bevor du dich weiter damit blamierst hier Sachen im Tonfall des Auskenners rein zu schreiben? Der du ganz offensichtlich nicht bist …

  36. #36 Captain E.
    18. April 2019

    @capt vimes:

    man kann auch 2 teleskope in den L1 und L2 punkten der erde positionieren – Plank befindet sich übrigens schon im L2 und das James Webb wird folgen.
    die daten werden zur erde gefunkt und hier zusammengerechnet – voila!
    man könnte auch die L4 und L5 punkte nehmen, dann hat man eine richtig grosse baseline!

    Ich nehme an, du meinst das Raumteleskop Planck, aber da muss ich dich enttäuschen. Als das Helium alle war, wurde Planck abgeschaltet und hat den Lagrangepunkt verlassen.

  37. #37 bote19
    18. April 2019

    PDP10
    wäre es nicht beweiskräftiger, meinen Standpunkt zu wiederlegen ?
    Nach meiner Meinung denkst du bei der Interferenz des Lichtes an den Doppelspaltversuch von Young. Da sind die Spalte sehr eng beieinander. Erklären lässt sich das Ergebnis der Interferenz nur mathematisch.
    Ich rede nicht von einer optischen Interferenz, sondern von einer elektromagnetischen Interferenz die sich auch im Gehirn abspielen kann.
    Denk doch einfach mal an zwei Radiosender, die senden elektromagnetische Wellen ab, genau wie das Licht, nur viel langwelliger. Und diese unterschiedlichen Wellenlängen interferieren miteinander, was man als Schwebungen sogar hörbar machen kann.
    Was jetzt die Fotorezeptoren der Netzhaut betrifft, die treffen eine Vorauswahl , das ist richtiig, und so wird erklärt, die Ganglienzellen leiten das “gesehene “als Nervenimpuls an das Gehirn weiter. Genaueres wissen wir nicht, denn sonst könnte man ja den Sehnerv an einen computer anschließen der die Lichtreize simuliert. Jetzt meine Frage, hat man den Nervenimpuls der Ganglienzellen schon so weit analysiert, dass man jede Interferenz zwischen dem linken auge und dem rechten auge ausschließen kann ? (Keine optische Interferenz, sondern eine Interferenz der Nervenimpulse)

  38. #38 Alderamin
    18. April 2019

    @bote19

    Das Auge kann keine Phasendifferenzn messen, die Ohren schon. Das liegt unter anderem daran, dass die Schallgeschwindigkeit bedeutend kleiner als die Lichtgeschwindigkeit ist, deshalb können die Ohren Laufzeitunterschiede registrieren und daraus die Richtung bestimmen.

    Die beiden Augen liefern schon durch die Linsenabbildung Richtungsinformation. Sie haben außerdem verschiedene Perspektiven und errechnen aus dem perspektivischen Versatz (Parallaxe) die Entfernung eines Objekts.

    Da interferiert nichts. Das von den Augen empfangene Licht ist ja nicht einmal kohärent. Und zum Stereosehen reichen zwei Fotos aus verschiedenen Blickwinkeln, die man übereinanderschielt oder per Brille jedem Auge einzeln präsentiert (früher gab’s mal den coolen Viewmaster dafür).

  39. #39 bote19
    18. April 2019

    Alderamin,
    die Sehzäpfchen in der Netzhaut kann man vergleichen mit optoelektronischen Bauteilen. Wenn die von einem Photon getroffen werden liefern sie eine elektrische Spannung. Wenn wir jetzt davon ausgehen, dass von 100 Millionen bildpunkte der Sehzäpfchen 10 Millionen weitergeleitet werden müssen, damit wir ein einigermaßen getreues Abbild unserer Umgebung bekommen, dann braucht das Zeit. Ich rechne jetzt mal mit einer Abklingzeit der Sehzäpfchen von 3 – 4 Millisekunden und einer Millisekunde Laufzeit bis ins Gehirn, dann muss unser Sehnerv die 10 Millionen bits in 4 Millisekunden über den Sehnerv übertragen.
    Werden jetzt diese Impulse parallel übertragen oder in Reihe. Wenn sie parallel übertragen werden , kommt es zu Interferenzen, werden sie in Reihe übertragen, hast du Recht. Wir müssen also wissen, mit welcher Frequenz sendet unsere Retina die Bildpunkte an das Gehirn und in welcher Form, parallel oder in Reihe.

  40. #40 bote19
    18. April 2019

    Nachtrag Alderamin,
    eine Größenabschätzung der zu übertragenden” bits ” ergab bei meiner Rechnung, dass der Sehnerv mindestens aus 1 Million Nervenbahnen bestehen muss.
    Bei Wikipedia nachgeschaut, stimmt das genau mit dem dortigen Ergebnis überein.
    Damit ist das Thema für mich erledigt, für Interferenzen ist unser Gehirn einfach zu klein.
    Danke für deine ausführlichen Erklärungen.

  41. #41 PDP10
    18. April 2019

    @bote19:

    Ich rede nicht von einer optischen Interferenz, sondern von einer elektromagnetischen Interferenz die sich auch im Gehirn abspielen kann.

    Sowas kann es nicht geben. Siehe unten.

    Wenn die von einem Photon getroffen werden liefern sie eine elektrische Spannung.

    Exakt. Deswegen kann es keine Interferenz geben, bzw. unsere Augen können keine Interferometrie machen. Das liegt nicht an der Zeitverzögerung oder an was auch immer, sondern daran, dass unsere Sehzellen im Auge nur Frequenz (i.e. die Energie der Photonen) und Intensität (i.e. Anzahl der Photonen) messen.

    Die Phaseninformation fehlt ganz und komplett, die für Interferometrie notwendig wäre.

    Das wurde dir aber schon weiter oben in aller Ausführlichkeit erklärt.

  42. #42 bote19
    19. April 2019

    PDP10
    neben der Phasenmodulation gibt es auch noch eine Frequenzmodulation, analog zur Nachrichtenübermittlung bei MW, die phasenmoduliert ist und UKW, das frequenzmoduliert ist. Die Informationen stecken in der Modulation. Wenn sich jetzt zwei Lichtstraheln überlagern, dann ergibt das eine Verschiebung im Frequenzspektrum, also in der Farbe.
    Und für verschiedene Farben sind verschiedene Sehstäbchen zuständig. Und ich könnte mir vorstellen, dass das Auge registriert, ob plötzlich ein anderes Sehstäbchen aktiviert wird.
    In der Astronomie gibt es so etwas Ähnliches beim Blinkkomparator. Der zeigt nur an, welcher Stern sich gerade bewegt hat.
    Mir geht es hier nicht um Rechthaben oder nicht, ich fand es nur gut, dass man sich grundsätzlich Gedanken darüber macht, was wir sehen, wie wir sehen und ob es Wege gibt, Blinden durch künstliche Augen zu helfen. So weit ich weiß gibt es schon Versuche dazu.

  43. #43 rolak
    19. April 2019

    MW, die phasenmoduliert ist

    Hereby I declare a Poe! (auch deswegen)

  44. #44 bote19
    19. April 2019

    rolak
    zu Dietmar Steinhaus fällt mir nichts ein.,
    zu der Modulation schon. Ich habe vor langer Zeit selbst Sender konstruiert und gebaut, darunter einen UKW-Sender , der auf 100 MHz gut funktionierte. Ist eigentlich nicht erlaubt, mir ging es nur um die technische Seite. Wenn du deinen Schülern erklären willst , wie “Rundfunk” funktioniert, musst du schon was bieten. Sonst bleibt es nur Theorie.
    TIPP: Zur Demodulation eines amplitudenmodulierten Senders brauchst du nur zwei Teile. Eine Diode und einen hochohmigen Ohrhörer. Wenn du die verbindest kannst du in den Abenstunden Mittelwellensender hören.

  45. #45 Karl-Heinz
    19. April 2019

    @bote19

    wenn du deinen Schülern erklären willst , wie “Rundfunk” funktioniert, musst du schon was bieten. Sonst bleibt es nur Theorie.

    Bist du Lehrer?

    @tomtoo
    Manche Antworten werden einfach verschluckt. Ich glaube schon fast, dass die Matrix gegen mich was hat. 😉

  46. #46 Karl-Heinz
    19. April 2019

    @bote19

    Wenn du deinen Schülern erklären willst , wie “Rundfunk” funktioniert, musst du schon was bieten.

    Hi bote19
    Bist du Lehrer?

  47. #47 Alderamin
    19. April 2019

    @bote19

    analog zur Nachrichtenübermittlung bei MW, die phasenmoduliert ist

    Weswegen im angelsächsischen Sprachraum “AM” zu Mittelwellenradio gesagt wird?

    Wenn du deinen Schülern erklären willst , wie “Rundfunk” funktioniert, musst du schon was bieten.

    Ah, ja.

  48. #48 bote19
    19. April 2019

    Karl-Heinz
    I was a teacher, bin schon über 70.

    Alderamin
    überhaupt ist Englisch zur Erklärung von physikalischen Zusammenhängen besser geeignet als Deutsch.
    Wenn ich in England oder Irland war, habe ich mir dort die Schulbücher gekauft. Dann versteht man erst die Zusammenhänge.

  49. #49 Karl-Heinz
    Graz
    19. April 2019

    @bote19

    Und ich dachte 19 Jahre oder 2019 -1919 =100 Jahre. 😉
    Welche Gegenstände hast du unterrichtet?

  50. #50 Spritkopf
    19. April 2019

    Welche Gegenstände hast du unterrichtet?

    Er hat mal irgendwann geschrieben, dass er – wait for it! – Physik unterrichtet hat. *gacker*

  51. #51 Alderamin
    19. April 2019

    @bote19

    überhaupt ist Englisch zur Erklärung von physikalischen Zusammenhängen besser geeignet als Deutsch.
    Wenn ich in England oder Irland war, habe ich mir dort die Schulbücher gekauft.

    Auch in englischen Schulbüchern steht drin, dass AM nicht Phasenmodulation ist.

  52. #52 Elektroniker
    19. April 2019

    @ Christian Berger #23

    Ein wenig mehr Sachkenntnis hätte ich aber schon erwartet !

    “aus dem Chip kommen 2 Paare an Leiterbahnen. Das ist das I und Q Signal. Funktioniert wunderbar”

    Das I und das Q Signal kommt aus jeweils einem Mischer (also insgesamt 2 Mischer) mit üblicherweise nachgeschaltetem Tiefpass / Filter. Wenn die Mischer absolut identisch funktionieren, und auch Eingangs- und Oszillatorsignal bis auf die Phasendrehung identisch an den beiden Mischern anliegen, kommt ein Mischprodukt bei I und Q heraus, bei dem die Phasenlage der Seitenbänder um 180 Grad gedreht ist. Durch Addition von I und Q erhält man das eine Seitenband, durch Subtraktion von I und Q das andere Seitenband. Wenn man I und Q selbst digitatlisiert, kann man einen Teil der Filterung und die Addition/Subtraktion natürlich digital durchführen. Das ist genauer, setzt aber schon wieder voraus, daß an I und Q identisch wirkende A/D-Wandler angeschlossen sind. Zur Modulation funktioniert das sehr gut. Es gibt Chips, die können voll digital SSB-Signal oder FBAS-Signal mit einer sehr guten Qualität erzeugen. Sony hat solche Chips für FBAS-Signale in seine Spielekonsolen eingebaut, aber nie auf dem freien Markt verkauft.

    Auch wenn das Verfahren der Direktmischung heute bei einigen Empfängern eingesetzt wird (USB-Chip-Empfänger), funtioniert das nicht besonders gut. Und schon gar nicht großsignalfest. Einige der vielen Wenn und Abers habe ich oben aufgeführt. Es gibt Leute, die setzen sowas sogar auf Kurzwelle ein. Die freuen sich über die vielen Signale, die sie empfangen, und die in kommerziellen Geräten nicht hörbar sind (Fremdsignale, die auf Grund von Mehrdeutigkeiten und fehlender Selektion mit hereingemischt wurden). Besonders gerne wird dieses Verfahren bei digitalen Übertragungen eingesetzt, da man aus den I und Q Signalen im Amplituden-Phasenraum direkt auf die übertragenen Bits schließen kann. Und weil man das Signal sehr gut rekonstruieren kann, denn es ist ja digital und kann nur bestimmte Werte annehmen.

  53. #53 Elektroniker
    19. April 2019

    @ Christian Berger #23

    Und nun zur Bandbreite. Ich habe nicht verstanden, was du da sagen woltest, es klingt schon in deiner Formulierung widersprüchlich.

    Wenn man ein 230 GHz (1,3 mm Wellenlänge) Signal auf 500 MHz (60 cm Wellenlänge, 5 Gigasamples Abtastung notwendig) konvertiert, gehen selbstverständlich viele Eigenschaften des urprünglichen 230 GHz Signals verloren. Es können nur Eigenschaften erfaßt werden, die auf rund 500 aufeinanderfolgenden Wellen des ursprünlichen 230 GHz Signals auftreten. Kurzfristigere Signalveränderungen können nicht erfaßt werden, sie gehen verloren. Es können also nur Eigenschaften erfaßt werden, die auf mindestens 60 cm Länge des 230 GHz – Wellenzuges konstant sind. Der ursprüngliche 230 GHz – Wellenzug läßt sich damit nicht rekonstruieren.

    Und wenn man jetzt auch noch bedenkt, daß sich die einzelnen Empfänger im Bereich einige 100m/s zu einander (Erddrehung) und im Bereich einige 100km/s relativ zu M87 oder Sgr A* bewegen, wird klar, wie schwierig die Interferometrie dabei wird. Die Signale von M87 oder Sgr A* sind ja nicht monochromatisch sondern thermisches Rauschen.

    Und deshalb auch die nicht beantwortete Frage von mir im Beitrag #19, wie man mit derartig heruntergemischten konvertierten Signalen noch interferometrisch arbeiten kann

  54. #54 Elektroniker
    19. April 2019

    @ bote19 #23

    “überhaupt ist Englisch zur Erklärung von physikalischen Zusammenhängen besser geeignet als Deutsch.”

    Nur wenn man die deuschen Begriffe nicht mehr kennt !! Ich erlebe es immer wieder, daß Leute die englischen Fachbegriffe verwenden, und die deutschen Fachbegriffe gar nicht mehr kennen. Und eine ganz besondere Sorte verwechselt dann die englischen Fachbegriffe untereinander. Z.B. multiplier – multiplexer habe ich schon erlebt. Es gibt auch Leute, die erklären dann umständlich den englischen Fachbegriff. Und Leute, wißt ihr was Energieerhaltung oder Ernergieerhaltungssatz auf englisch heißt ? Das klingt für deutsche Ohren doch sehr verwirrend. Oder nach “false friend”.

  55. #55 Karl-Heinz
    19. April 2019

    @Elektroniker

    Ich glaub, dass der untenstehende Artikel mehr nach deinen Geschmack ist. Ich hatte leider noch keine Zeit den ganzen Artikel zu lesen.

    https://www.golem.de/news/wissenschaft-kein-foto-von-einem-schwarzen-loch-1904-140774.html

  56. #56 Dietmar Steinhaus
    19. April 2019

    zu Dietmar Steinhaus fällt mir nichts ein

    Jaja, ich sag´ nur: “Schatzinsel”.

    Übrigens war Goethe kein Boxer, obwohl er “Faust” geschrieben hat.

  57. #57 Dietmar Steinhaus
    19. April 2019

    So wie es auf dem Bildschirm zu sehen ist, so kannst du es mit deinen Augen nicht sehen.

    @bote19 ist ehemaliger Physiklehrer. Aber sicher doch…

  58. #58 bote19
    19. April 2019

    Karl-Heinz
    Bote 19 heißt Bote 2019.
    studiert habe ich Sport und Chemie. Aber wie es so ist, habe ich meistens Physik gegeben und auch Religion.

    Spritkopf
    gacker war treffend. Dein Herz für Hühner hast du ja schon bewiesen.
    Alderamin
    AM bedeutet Amplitudenmodulation. Alles andere ist ein Schreibfehler.

    Dietmar Steinhaus
    wusstest du dass die besten Mathematiker in den USA als Komiker oder Entertainer arbeiten. Die Fernsehserie “The Simsons” stammt von berühmten Mathematikern und ist voll von philosophischen und mathematischen Anspielungen und Rätseln.

    Elektroniker
    das mit der Sprache kann kompliziert werden. Nachdem unser Sohn in London im Krankenhaus lag, konnte ich alles nur noch in Englisch beschreiben.

  59. #59 bote19
    19. April 2019

    Nachtrag Elektroniker,
    da du gerade unkonventionelle Empfangsmethoden ansprichst. Ich habe eine unkonventionelle Sendemethode gefunden. Ein 7413 schwingt mitgekoppelt bei 100 MHz.
    Alles andere lasse ich mal weg. Da brauchst du weder Quartz noch Spule.

  60. #60 PDP10
    19. April 2019

    @bote19:

    Wenn sich jetzt zwei Lichtstraheln überlagern, dann ergibt das eine Verschiebung im Frequenzspektrum, also in der Farbe.

    Nein. Ergibt es nicht. Nochmal: Bitte schlag den Begriff Interferenz nach.

  61. #61 PDP10
    19. April 2019

    @bote19:

    überhaupt ist Englisch zur Erklärung von physikalischen Zusammenhängen besser geeignet als Deutsch.

    Wenn man den Inhalt nicht versteht ist die Sprache egal …

  62. #62 Dietmar Steinhaus
    19. April 2019

    wusstest du dass die besten Mathematiker in den USA…

    Was genau gar nichts damit zu tun hat, dass Du die Namensverwechslung des Physikers Stephen Hawking mit der fiktiven Figur Jim Hawking zu rechtfertigen versuchst.

    Als angeblicher Physiker.

    Das ist so, als würde ich als Musiker Gustav Mahler mit dem Koch Nelson Müller verwechseln und rechtfertigen, dass beide Nachnahmen den selben Beruf beschreiben.

    Das ist schlicht lächerlich!

    Die “Logik” Deiner jetzigen Verteidigung zeigt erneut, dass Du mit tatsächlicher Logik nichts am Hut hast.

    Und es zeigt, dass Du weniger Physiker bist, als ich Musiker. Was ich übrigens tatsächlich war.

    Und jetzt habe ich genug Seniorenbespaßung und Trollunterhaltung betrieben.

  63. #63 Dietmar Steinhaus
    19. April 2019

    Aber wie es so ist, habe ich meistens Physik gegeben und auch Religion

    Unglaubhaft: Um Religion zu unterrichten, braucht man eine entsprechende Lehrbefähigung, die man sich im Studium erwirbt. Da sind die Kirchen sehr empfindlich!

  64. #64 PDP10
    20. April 2019

    @bote19:

    wusstest du dass die besten Mathematiker in den USA als Komiker oder Entertainer arbeiten.

    Es sind nicht “die besten” Mathematiker und sie arbeiten nicht als “Komiker” oder “Entertainer”. Einige der Autoren der “Simpsons” waren in einem früheren Leben mal Mathematiker oder haben das zumindest studiert. Deshalb ist die Serie voll von Anspielungen auf Mathematik, wie man zB. hier nachlesen kann.

    Sag mal … wieso verdrehst du eigentlich immer Fakten? Kannst du dir das nicht merken? Bist du zu faul? Lügst du bewusst rum?

  65. #65 Jolly
    20. April 2019

    @Dietmar

    mit der fiktiven Figur Jim Hawking

    Welche Figur heißt Jim Hawking, wen meinst Du?

  66. #66 PDP10
    20. April 2019

    @Dietmar:

    Um Religion zu unterrichten, braucht man eine entsprechende Lehrbefähigung, die man sich im Studium erwirbt. Da sind die Kirchen sehr empfindlich!

    Da bin ich mir nicht so sicher. Jedenfalls was die Verhältnisse in den 70er und 80er Jahre in NRW anging. In anderen Bundesländern mag das ähnlich gewesen sein.

    Damals gabs schonmal so einen Lehrermangel wie heute und da durften solche “Fächer” Leute unterrichten, deren einzige Qualifikation war, dass sie sich alleine die Schuhe zu binden konnten – falls bote19 einer von denen war, würde das jedenfalls so einiges erklären.

    Ich bin nichtmal sicher, ob diese Lehrer ein richtiges Lehramtsstudium absolviert haben.
    Ich hatte jedenfalls in den frühen 80ern einen Religionslehrer, der evangelischer Freikirchler war und so bigott und selbstgerecht, dass ich ihm dafür noch heute gerne eine reinhauen würde …

  67. #67 Dietmar Steinhaus
    20. April 2019

    @Jolly: bote91 hat in einem anderen Thread behauptet, er verwechsele Stephen Hawking mit Jim Hawkins aus Stevensons “Schatzinsel”. Und ich habe mich da vertippt. Schande auf mein Haupt.

    @PDP10: Soweit ich weiß, wurde immer Wert darauf gelegt, dass Religion von entsprechenden Theologen unterrichtet wurde und eben nicht von beliebigen Lehrkräften. Zumindest ist es heute in Niedersachsen (und seit mindestens 20 Jahren, als Lehramt Theologie studierte) so, dass man als “normaler” Lehrer anderer Fächer höchstens mal vertretungsweise Religion unterrichten darf.

    Aber weil ich das nicht hundertprozentig sagen kann, nehme ich das Argument mal zurück.

  68. #68 bote19
    20. April 2019

    PDP10
    da irrt der Fachmann. Der Begriff Interferenz wird auch auf Wellen unterschiedlicher Frequenz angewendet.
    Die Frequenzmodulation bei FM-Sendern beruht auf dieser Tatsache. Allerdings ist hier der Name “Modulation” gebräuchlich. Du denkst wahrscheinlich an den Interferometer, der tatsächlich die Amplituden misst. Und man kann sich darüber streiten, ob zwei Wellen verschiedener Frequenz eine neue Welle bilden, oder ob man die beiden Ursprungsfrequenzen als Überlagerung ansieht.
    https://www.physikon.de/physikon.cgi?s=http%3A//www.physikon.de/cgibin/physikon.cgi%3Fgebiet%3D1%26kapitel%3D26%26seite%3D3

  69. #69 bote19
    20. April 2019

    Dietmar Steinhaus
    Mit der Seniorenbespaßung hast du begonnen.
    Was jetzt dieTatsachen betrifft. Die Realität ist nicht so, wie sie sein sollte, sondern oft der Notwendigkeit geschuldet. Dass Lehrer eine Lehrbefugnis für Religion brauchen ist bekannt. Nur soviel: Aus der Tatsache, dass Diebstahl verboten ist, kannst du nicht schließen, dass es Diebstahl nicht gibt. Soviel zur Logik.
    Und zu deiner Beruhigung, ich bin weder selbstgerecht noch bigott ,vielleicht ein wenig naiv in Bezug auf die Lernbereitschaft einiger Mitkommentatoren.

  70. #70 Karl-Heinz
    20. April 2019

    @bote19

    Hi bote19
    Da musst du aufpassen. Interferenz ist keine Modulation. Bei der Modulation wird dem Trägersignal etwas aufgeprägt. Wenn zwei Sinusschwingungen, die sich nur ein wenig in der Frequenz unterscheiden, überlagert werden sprich interferieren, tritt Schwebung auf. Diese Schwebung darf jetzt nicht verwechselt werden mit dem Begriff Modulation.

  71. #71 Dietmar Steinhaus
    20. April 2019

    ich bin weder selbstgerecht noch bigott

    =/=

    vielleicht ein wenig naiv in Bezug auf die Lernbereitschaft einiger Mitkommentatoren.

    Trolling as art.

  72. #72 Karl-Heinz
    20. April 2019

    @bote

    Bei der Schwebung werden, im Gegensatz zu den Verfahren, wie sie bei Mischstufen Anwendung finden, keine neuen Frequenzen erzeugt, und es treten auch keine Frequenzverschiebungen auf.

    Ich hätte eine Bitte. Kannst du dir das mit Schwebung versus Modulation nochmals ansehen aber natürlich erst nach der Osterjause. Smiley

  73. #73 rolak
    20. April 2019

    Mal eine direkte Antwort Richtung Gummiwand:

    irrt (..) Interferenz wird auch auf Wellen unterschiedlicher

    Hat der Fachmann auch nie anders behauptet.

    Frequenzmodulation bei FM-Sendern beruht auf dieser Tatsache [Interferenz]

    Blödsinn.

    Interferometer, der tatsächlich die Amplituden misst

    Blödsinn, ein Belichtungsmesser kanns allerdings im Mittel.

    man kann sich darüber streiten

    Blödsinn, eine Welle würde sich ausbreiten.

    Ist schon ärgerlich, wenn man auf dem Gebiet der Physik nie über das Spielen mit Holzklötzchen hinausgekommen ist.

  74. #74 bote19
    20. April 2019

    Karl-Heinz
    Modulation ist keine Interferenz. O.K.
    Wenn man sich an die Definition von Interferenz hält ist das korrekt. Und daran will ich auch nicht rütteln.
    Die Grundlage der Interferenz ist das Wellenmodell. Auch O.K.
    Und die Schwebung ist ja ein sehr eindrucksvolles Beispiel, wie zwei Wellen miteinander interferieren.

    Ich hatte den Begriff etwas weiter gepackt, als gegenseitige Beinflussung elektromagnetischer Wellen.
    Und dazu gehört auch die Modulation. Ich hoffe damit ist das Missverständnis ausgeräumt.

    Zwei Osterhasen
    hier fällt mir wirklich nichts mehr ein. Sonst fangen die Hühner an zu weinen.

  75. #75 Karl-Heinz
    20. April 2019

    @bote19

    Für mich ist Interferenz eine Überlagerung sprich eine lineare Superposition von sinusförmigen Wellen. Wichtig ist das Verständnis, dass bei einer Interferenz keine neuen Frequenzen entstehen. Jeder dieser Wellen könnte theoretisch mit Hilfe eines Filters wieder herausgefischt werden.

  76. #76 Jolly
    20. April 2019

    @bote19

    Ich hatte den Begriff etwas weiter gepackt, als gegenseitige B[e]einflussung elektromagnetischer Wellen

    Elektromagnetische Wellen beeinflussen sich also gegenseitig. Nun gut, du bist der Lehrer. Aber nicht sehr doll, oder?

    Hast du den Begriff Beeinflussung auch etwas weiter gepackt, oder den Begriff Begriff? Im Übrigen, wenn du alle Begriffe weit packst, ist es eine Tautologie, dass Alles mit Allem zusammenhängt.

  77. #77 Alderamin
    20. April 2019

    @bote19

    Ich denke, man könnte es so ausdrücken:

    Interferenz entsteht durch Addition von Wellen der gleichen Frequenz, Modulation durch Multiplikation einer Trägerfrequenz mit einer niedrigeren.

  78. #78 Alderamin
    20. April 2019

    @Elektroniker

    Wenn man ein 230 GHz (1,3 mm Wellenlänge) Signal auf 500 MHz (60 cm Wellenlänge, 5 Gigasamples Abtastung notwendig) konvertiert, gehen selbstverständlich viele Eigenschaften des urprünglichen 230 GHz Signals verloren.

    Macht ja auch Sinn. Wenn man ein Band durch Runtermischen aus dem Träger extrahiert, dann hat man als höchste Frequenzen die Bandbreite dieses Bandes. Dann kann man nicht mit der Trägerfrequenz das Auflösungsvermögen berechnen, sondern nur mit der Bandbreite, korrekt?

    Nun steht aber in Paper III der EHT-Collaboration-Gruppe:

    The 2017 observing run recorded two 2 GHz bands, low and high, centered at sky frequencies of 227.1 and 229.1 GHz, respectively, onto Mark 6 VLBI recorders (Whitney et al. 2013) at an aggregate recording rate of 32 Gbps with 2-bit sampling. All telescopes apart from ALMA observed in circular polarization with the installation of quarter-wave plates. Single-dish sites used block downconverters to convert the intermediate frequency (IF) signal from the front-ends to a common 0–2 GHz baseband, which was digitally sampled via Reconfigurable Open Architecture Computing Hardware 2 (ROACH2) digital backends (R2DBEs; Vertatschitsch et al. 2015). The SMA observed as a phased array of six or seven antennas, for which the phased-sum signal was processed in the SMA Wideband Astronomical ROACH2 Machine (SWARM) correlator (see Primiani et al. 2016; Young et al. 2016, for more details). ALMA observed as a phased array of usually 37 dual linear polarization antennas, for which the phased-sum signal was processed in the Phasing Interface Cards installed at the ALMA baseline correlator (see Matthews et al. 2018 for more details).

    2GHz entsprechen 15 cm Wellenlänge. Das Auflösungsvermögen bei 12000 km Basislinie wäre dann 1,22 * 0,15m/12e6m = 1,5e-8 rad = 8,73e-7° = 3,146e-3″ = 3145 µas. Tatsächlich war die Auflösung 20 µas. Wo ist der Denkfehler?

  79. #79 bote19
    20. April 2019

    Alderamin,
    mit deiner Beschreibung kann ich gut leben.

    Karl- Heinz
    Mit der Fourier-Analyse im Hintekopf bleiben die einzelnen Frequenzen getrennt, und dass man sie auch wieder durch Filter trennen kann

  80. #80 Alderamin
    20. April 2019

    @Elektroniker

    Wenn man ein 230 GHz (1,3 mm Well‌enlänge) Signal auf 500 MHz (60 cm Welle‌nlänge, 5 Gig‌asamples Abt‌astung notw‌endig) konv‌ertiert, gehen selbstverständlich viele Eigens‌chaften des urprü‌nglichen 230 GHz Sign‌als verloren.

    Macht ja auch Si‌nn. Wenn man ein Band durch Runt‌ermischen aus dem Tr‌äger extrahiert, dann hat man als höchste Freq‌uenzen die Ba‌ndb‌reite dieses Ban‌des. Dann kann man nicht mit der Träg‌erfrequ‌enz das Auflö‌sungsver‌mögen berechnen, sondern nur mit der Ban‌dbreite, korrekt?

    Nun steht aber in Pa‌per III der EHT-Coll‌aboration-Grup‌pe:

    The 2017 observing run reco‌rded two 2 GHz bands, low and high, centered at sky frequencies of 227.1 and 229.1 GHz, respe‌ctively, onto Mark 6 VLBI recor‌ders (Whitney et al. 2013) at an agg‌regate rec‌ording rate of 32 Gbps with 2-bit sam‌pling. All teles‌copes apart from ALMA observed in circ‌ular polari‌zation with the instal‌lation of quarter-wave plates. Single-dish sites used block dow‌nconverters to conv‌ert the interm‌ediate frequ‌ency (IF) sig‌nal from the front-ends to a com‌mon 0–2 GHz bas‌eband, which was digi‌tally sam‌pled via Rec‌onfigurable Ope‌n Arch‌itecture Compu‌ting Har‌dware 2 (ROACH2) digi‌tal back‌ends (R2DBEs; Vertatschitsch et al. 2015). The SMA observed as a pha‌sed ar‌ray of six or seven ante‌nnas, for which the ph‌ased-sum sig‌nal was proce‌ssed in the SMA W‌ideband Astro‌nomical ROACH2 Ma‌chine (SWARM) corr‌elator (see Primiani et al. 2016; Young et al. 2016, for more details). AL‌MA obse‌rved as a phased arr‌ay of usually 37 dual linear polari‌zation ant‌ennas, for which the pha‌sed-sum sign‌al was proce‌ssed in the Ph‌asing Interf‌ace Cards installed at the ALMA bas‌eline corre‌lator (see Matthews et al. 2018 for more details).

    2GHz entsprechen 15 cm Well‌enlänge. Das Auflös‌ungsver‌mögen bei 12000 km Bas‌islinie wäre dann 1,22 * 0,15m/12e6m = 1,5e-8 rad = 8,73e-7° = 3,146e-3″ = 3145 µas. Tatsä‌chlich war die Aufl‌ösung 20 µas. Wo ist der Denkf‌ehler?

  81. #81 bote19
    20. April 2019

    Jolly,
    bei dir wird es schon grundsätzlicher, weil du ja jede “gegenseitige Einflussnahme von Licht ” ausschließt. Wenn wir jetzt zum Quantenmodell wechseln, wirst du sehen, dass diese Ansicht überholt ist.
    https://www.spiegel.de/…/photonen-erstmals-kollision-von-lichtteilchen-beobachtet-a-11…
    17.02.2017

  82. #82 bote19
    20. April 2019

    Zwei Osterhasen
    Wenn der Osterhase die Eier versteckt und die Kinder sie dann finden, dann ist Ostern.
    Kann man jetzt umgekehrt schließen,
    Wenn der Osterhase nicht die Eier versteckt und a) keine Kinder die Eier finden, dann ist nicht Ostern. Oder
    Wenn der Osterhase die Eier nicht versteckt und die b)die Kinderdie Eier nicht finden, dann ist nicht Ostern ?
    War das jetzt zu schwer für eure Intelligenz , oder habt ihr eine begründete Antwort. ?

  83. #83 RPGNo1
    20. April 2019

    @Dietmar Steinhaus, PDP10
    Mein Vater war Realschullehrer für Biologie, Werken und evangelische Religion in Niedersachsen. Letzteres Fach ist der Tatsache geschuldet, dass er 2 Semester ev. Theologie studierte, bevor er dann doch noch den Dreh bekommen hat. 🙂

    Aus diesem Grund kann ich ganz gut beurteilen, was bote19 aka Robert Nicknamewechsler hier zum Besten gibt.
    a) Robert macht einen auf Baron Münchhausen.
    b) Robert war tatsächlich Lehrer. Dann gehörte er aber zu diesem Typus, gegenüber dem sich Schüler, Eltern, Lehrkörper und Schulleitung höflich unbestimmt verhielten, sich aber hinter seinem Rücken aber nicht mehr einkriegten. Eine pädagogische Glanzleuchte war der nie und nimmer. Wahrscheinlich haben sehr sehr viele Personen im beruflichen Umkreis erleichtert reagiert, als er endlich in Pension ging.

  84. #84 Dietmar Steinhaus
    20. April 2019

    @RPGNo1: Danke! Besonders b) leuchtet ein und ich habe derzeit eine solche Kollegin.

  85. #85 Jolly
    20. April 2019

    @Alderamin

    Ich denke, man könnte es so ausdrücken:

    Interferenz entsteht durch Addition von Wellen der gleichen Frequenz, Modulation durch Multiplikation einer Trägerfrequenz mit einer niedrigeren.

    Ich denke, man sollte weder das eine noch das andere so ausdrücken.

    Interferenz entsteht durch Addition der Amplituden von Wellen gleicher, aber gerne auch unterschiedlicher Frequenz.

    Dass Modulation durch die Multiplikation einer Frequenz mit einer niedrigeren entsteht, könnte man vielleicht bei Frequenzmodulation sagen (*), aber wohl kaum bei Amplituden- und Phasenmodulation. Oder wie müsste ich das da verstehen?

    (*) Schon hier habe ich Schwierigkeiten mit der sich durch die Multiplikation ergebenden Einheit Frequenz-Quadrat.

  86. #86 bote19
    20. April 2019

    RPGNo1
    deine Analysen sind treffsicher wie immer.
    Baron von Münchhausen zähle ich zu meinen Vorbildern.
    Und an tristen Novembermorgen habe ich öfters eine Erzählstunde eingefügt, wo ich Gruselgeschichten erzählt habe, wo niemand so recht wusste, was ist wahr, was ist möglich , was ist unmöglich. Dabei lernst du kritisches analytisches Denken.
    Aber damit haben die Schüler eine gute Grundlage, wenn sie in die Kommunalpolitik wechseln oder sogar in den diplomatischen Dienst. Diese Fähigkeit haben nur die allerbesten.
    Tipp: Wenn du mal deinen Enkelkindern eine gute Lektion in Wahrheit/Nichtwahrheit geben willst , erzähle ihnen “Die Affenpfote” von Edgar Allen Poe.
    Was sich jetzt hinter meinem Rücken abgespielt hat, und noch immer abspielt, dafür bist du zuständig mit deinen Analysen.

  87. #87 Jolly
    20. April 2019

    @bote19

    weil du ja jede “gegenseitige Einflussnahme von Licht ” ausschließt

    Das tue ich nicht. Ich bin auch Spiegel-Leser.

    Das von dir in Anführungszeichen Gesetzte stammt nicht von mir und ist insbesondere mit der Klammerung durch “jede” und “ausschließt” auch eine falsche Paraphrasierung meiner Ausführungen. Ich schrieb: “nicht sehr doll”.

    Im Umkehrschluss und weil du das hier erwähnst, meinst du, dass die im Spiegel beschriebene Wechselwirkung bereits technisch genutzt wird zur Modulation elektromagnetischer Strahlung? Spielt sie für die Apertursynthese eine Rolle? Falls nein, brauchen wir uns damit ja hier nicht mehr weiter zu befassen.

    Frohe Ostern.

  88. #88 Jolly
    21. April 2019

    @bote19, Schwätzer vor dem Herrn.

    weil du ja jede “gegenseitige Einflussnahme von Licht ” ausschließt

    Das tue ich nicht. Ich schrieb: “nicht sehr doll”. (Ich werfe auch häufig einen Blick in den Spiegel.)

    Wenn wir uns darauf verständigen können, dass diese Wechselwirkung nichts mit Interferenz, Modulation und schon gar nicht mit Apertursythese zu tun hat, können wir ja jetzt Eier suchen gehen.

  89. #89 William Wymark Jacobs
    Islington
    21. April 2019

    @bote19:
    Ich Zitiere Dich: “Wenn du mal deinen Enkelkindern eine gute Lektion in Wahrheit/Nichtwahrheit geben willst , erzähle ihnen “Die Affenpfote” von Edgar Allen Poe.”

    Lügner! Die Affenpfote ist von mir! Habe ich 1902 geschrieben und veröffentlicht. Und überhaupt: Wieso “deinen Enkelkindern”? Vielleicht sollte man DIR erstmal (nach erst gefühlten 1000 Kommentaren) eine gute Lektion in Wahrheit/Nichtwahrheit geben.
    🙂
    https://de.wikipedia.org/wiki/Die_Affenpfote

  90. #90 Elektroniker
    21. April 2019

    @ Alderamin

    Ich weiß nicht, wie es funktioniert. Und deshalb hatte ich ja schon 2 mal nachgefragt, in den Beiträgen #19 und #53. Aber es muß schon so sein, daß man eine Eigenschaft des 230 GHz Signals, die auch noch im heruntergemischten Signal vorhanden ist, betrachtet. Und wenn ich dann höre, daß die mit 16 GSamples/s abgetasteten Signale nur eine Auflösung von 2 Bit haben, wird das Problem der Rekonstruktion von Eigenschaften des 230 GHz Signals noch problematischer. Ich glaube, es gibt heute A/D-Konverter, die können bei der Abtastrate 6 oder 8 Bit Auflösung. Dabei verdreifacht bzw. vervierfacht sich natürlich auch die Datenmenge. Schon mein Oszilloskop kann 2,5 GSamples/s mit 8 Bit Auflösung. Und es ist schon deutlich mehr als 15 Jahre alt.

    Wie ein 230 GHz Mischer funktioniert weiß ich auch nicht. Ich vermute mit irgendwelchen unlinearen Kristallen. Ich bin Elektroniker und kein HF-Klempner. So haben wir die Leute bezeichnet, die mit Hohleitern, wie mit Rohren gearbeitet haben, nur sehr viel exakter. Das soll nicht abfällig klingen, denn mit Hohlleitern ist das alles viel komplizierter.

    Funktionieren kann das nur mit zirkular polarisierten Wellen. Sonst müßte man für alle Radioteleskope die selbe Polarisationsrichtung einstellen. So muß man nur für alle Radioteleskope die selbe Drehrichtung benutzen. Rechtsdrehend oder linksdrehend.

    Vielleich kannst du ja mal erklären, wie man Interferometrie mit derartig heruntergemischten Signalen betreiben kann ? Vielleich hast du auch dazu passende Literaturstellen dazu ?

  91. #91 Alderamin
    21. April 2019

    @Elektroniker

    Vielleich kannst du ja mal erklären, wie man Interferometrie mit derartig heruntergemischten Signalen betreiben kann ? Vielleich hast du auch dazu passende Literaturstellen dazu ?

    Keine Ahnung, mit Interferometrie hatte ich in meinem Job eher weniger zu tun. Mal gucken, ob ich was finde, vielleicht steht in dem Paper III noch mehr drin, hab’s nicht komplett gelesen.

  92. #92 bote19
    22. April 2019

    Bill the Liar,
    Können wir uns darauf einigen, dass der Osterhase unser gemeinsamer Vorfahr ist ?

    Jolly,
    du hebst dich positiv von deinem Mitkommentatoren ab, indem du mich nur als Schwätzer betitelst und nicht als Lügner. Und die beiläufige Bemerkung “vor dem Herrn” beweist, dass du ein gutes Herz hast.
    Frohe Ostern und gute Gesundheit !

  93. […] aber die Technik der “Interferometrie”: Was das ist und wie das funktioniert, habe ich hier im Detail erklärt. Die Kurzfassung lautet: Es ist eigentlich nicht schlimm, wenn man ein kleines Loch in ein Teleskop […]