Heute vor 50 Jahren haben sich vermutlich viele Menschen Gedanken darüber gemacht, sich einen Fernsehapparat zuzulegen. Oder, falls das nicht möglich war, wo man in den nächsten Tagen irgendwo jemanden mit Fernsehapparat besuchen kann. Denn am Tag zuvor, am 16. Juli 1969 war die Rakete gestartet, die die ersten Menschen auf den Mond bringen sollte. In ein paar Tagen sollte es dann soweit sein und nicht nur würden dann das erste Mal Menschen den Mond betreten; das ganze würde sogar live im Fernsehen übertragen werden. Am Ende waren mehr als eine halbe Milliarden Menschen auf der ganzen Welt live bei dieser historischen Übertragung dabei. Aber: Wie macht man das eigentlich? Livebilder vom Mond auf die Erde schicken; im Jahr 1969… Das kann ich euch nicht erklären, aber Christian Berger kann es enorm gut und deswegen war er so nett um einen Gastbeitrag zu schreiben, den ich im Rahmen meines 50tägigen Artikel-Countdowns zum Mondlandungsjubiläum sehr gerne veröffentliche. Viel Spaß damit!
—————————————–
Fernsehtechnik auf dem Mond

von Christian Berger

Der Aspekt der Mondlandung, der wohl die meisten Leute erreicht war, war sicherlich die Fernsehübertragung. Ein großer Teil der Weltbevölkerung, immerhin geschätzte 600 Millionen Zuschauer, konnte live mit dabei sein, als Neil Armstrong den ersten Schritt auf den Mond setzte. Aber warum sahen denn die Bilder verhältnismäßig schlecht aus?

Eines vorweg, an der Entfernung liegt es nicht. Der Mond ist zwar weit weg, aber nicht unglaublich weit weg. Jede transatlantische Fernsehübertragung muss ja auch die ca 36000 km zum Satelliten und wieder zurück gehen macht 72000 km, oder ungefähr ein fünftel der Strecke zum Mond und zurück.

Um das Problem verstehen zu können, muss man zunächst verstehen, was Fernsehen eigentlich ist. Schauen wir uns dafür doch mal eine normale Fotokamera an. Dort haben wir ein mehr oder weniger kompliziertes Objektiv welches die Szenerie in ein zweidimensionales Bild auf dem Film ab. Eigentlich sogar ein dreidimensionales Bild, denn das Bild kann sich auch zeitlich ändern. Um ein Foto zu machen öffnet man das Objektiv zum Film für eine kurze Zeit. Aus dem zweidimensionalen optischen Bild macht man ein zweidimensionales chemisches Bild.

Ein Objektiv bei der Arbeit; eigenes Foto

Jetzt gibts aber mit dem gleichen Film auch Kameras die Bewegtbilder aufnehmen, wie machen die das denn? Der Trick hierbei ist es, einen langen Filmstreifen zu nehmen welcher regelmäßig belichtet und dann um ein Stück weiter zu bewegen. Natürlich hat man hierbei nur Momentaufnahmen, wenn man jedoch genügend dieser Aufnahmen hat, so kann man Bewegungen ausreichend gut darstellen. In gewisser Weise schneidet man den Bildraum zeitlich in feine Schichten und legt diese nebeneinander auf den Film. Der Projektor, der den Film wieder zurück

Film für Bewegtbilder in unterschiedlichen Breite (Bild: Jonn Leffmann, CC-BY 3.0)

Schauen wir uns jetzt mal zum Vergleich ein elektronisches Bauteil an, einen Bipolartransistor. Im Foto sieht man eine für heutige Verhältnisse eher große Ausführung, der Kopf ist ca 5 Millimeter breit. Dieses Bauteil hat 3 Drähte die herausragen. Schickt man an Anschluss B Strom durch, so lässt er an Anschluss C ungefähr 100 mal so viel Strom durch. Der Strom fließt durch Anschluss E wieder hinaus. Dadurch dass der Strom durch Anschluss C so gesteuert wird, dass dort mehr Strom fließen kann wie man in B hineinstecken musste, kann man dieses Bauteil als Verstärker verwenden. Der Transistor verstärkt somit eine physikalische Größe. Leider kann der nur eine einzige Stromstärke verstärken. Die kann sich zwar im Laufe der Zeit ändern. Das reicht für Musik und Sprache, aber wie will man damit ein sich bewegendes Bild übertragen?

Ein Transistor; eigenes Foto

Fernsehen nutzt nun den Trick den wir oben schon von Filmkameras gesehen haben, man scheidet einfach den Bildraum in Stücke und legt diese nebeneinander. Um nun von einem dreidimensionalen Bildraum in ein eindimensionales Signal zu kommen, muss man nun zwei mal schneiden. Einmal um einzelne Bilder zu bekommen und einmal um diese Bilder zu zerschneiden.

Ein einfaches Testbild mit 13 sichtbaren Zeilen

Damit das Fernsehgerät am Ende genau weiß, wo das Bild geschnitten wurde, werden noch spezielle Synchronsignale eingefügt. Meistens überträgt man diese so wie man auch ein dunkleres Schwarz als Schwarz darstellen würde. Somit wird sichergestellt, dass dieser Wert im normalen Bild nicht vorkommt.

Elektronisch wird dieses Bild nun durch eine sich zeitlich ändernde Größe dargestellt, zum Beispiel durch eine sich ändernde Spannung oder Stromstärke.

Das entsprechende Bildsignal über die Zeit aufgetragen

Das oben gezeigte Bildsignal auf einem improvisierten Monitor

Jetzt sind 13 Streifen (man nennt die auch Zeilen) viel zu wenig für ein brauchbares Bild. In realen Systemen verwendet man hunderte solcher Zeilen was allerdings dann nicht mehr ganz so anschaulich ist.

Knapp 3 Bilder eines normalen Videosignals

Detailbild einer Zeile. (technisch bedingt werden viele Zeilen übereinander gezeichnet dargestellt)

Real machte man das damit mit Bildaufnahmeröhren. Das ist jetzt nicht wirklich mein Fachgebiet, aber solche Röhren funktionieren im Prinzip so, dass das Licht zunächst in elektrische Ladungen umgewandelt wird, welche dann mit Hilfe eines Strahles aus Elektronen ausgelesen wird. In einem Studio müssen alle Kameras im gleichen Takt arbeiten, sonst springt das Bild wenn man zwischen den Kameras umschaltet.

Nun, warum sind die Bilder jetzt so schlecht? Hätte man nicht einfach ein paar hundert Zeilen mehr nehmen können? Naja das ist nicht so einfach. Es gibt ein Konzept welches sich Bandbreite nennt. Vereinfacht gesagt gibt sie an wie viele unterschiedliche Werte ein Signal pro Sekunde annehmen kann. Die benötigte Bandbreite ist proportional zu den Bildern pro Sekunde, der Anzahl der Zeilen und der Anzahl an Helligkeitswechseln pro Zeile. Ein normales Fernsehbild hat auch damals schon etwa 4-5 MHz gebraucht. Die Bandbreite bei der ersten Fernsehübertragung war 0,5 MHz, also weniger als ein Achtel der Bandbreite eines gewöhnlichen Fernsehsignals. Ist das also der Grund warum die Bilder so schlecht sind? Naja, nicht wirklich. Das Signal vom Mond hatte 320 Zeilen wovon wahrscheinlich so ungefähr 20 von Synchronsignalen belegt waren, das entspricht ungefähr dem was auch ein normales Fernsehbild hat. Um Bandbreite zu sparen hat man aber nur 10 Bilder pro Sekunde übertragen anstelle der sonst in den USA üblichen 60. Eigentlich müssten die Bilder durchaus gut gewesen sein, wenn auch ein wenig “ruckelnd”.

Warum ist denn die Bandbreite überhaupt relevant? Klar, je höher die Bandbreite ist um so teurer wird die Technik, denn jedes Bauteil ist ein wenig träge. Bei der Übertragung vom Mond gibt es jedoch ein anderes Problem. Auf dem Mond hatte man nur eine Parabolantenne mit einem Durchmesser von 66 cm bei einer Wellenlänge von ungefähr 15 cm. Damit eine Parabolantenne das Signal gut abstrahlen kann muss sie einige Wellenlängen groß sein. Beim 4-fachen Durchmesser wird das Signal nur schwach gebündelt was bedeutet, dass das Signal auf der Erde sehr schwach ist, so schwach, dass das thermische Rauschen des Weltraums relevant wird. Dieses Rauschen ist, in erster Näherung über die Frequenz konstant.

Ein Signal mit einer hohen Bandbreite

Ein Signal mit einer geringen Bandbreite

Die Leistung des Nutzsignales (grüne Fläche) ist in beiden Fällen konstant. Allerdings wird der Empfänger beim breitbandigen Signal auch mehr vom Rauschen (graue Fläche hinter grünem Dreieck) empfangen als beim schmalen Signal. Je schlechter das Verhältnis zwischen Signalleitung und Rauschleistung gibt an wie viel “Schnee” man später im Bild sieht. Aber Bildrauschen, oder “Schnee” war jetzt nicht das große Problem.

Jetzt war es nicht so, dass sich die 600 Millionen Fernsehzuschauer alle neue Fernsehapparate anschaffen mussten um die Fernsehübertragung vom Mond sehen zu können. Auch die Fernsehanstalten mussten dafür nicht neue Studiotechnik anschaffen, denn die NASA hat das Fernsehsignal vom Mond in ein Signal nach US-Amerikanischer Norm umgewandelt. Das Problem ist, dass dass man Fernsehnormen nicht so einfach ineinander umwandeln kann. Möchte man zum Beispiel von einem System mit 200 Zeilen auf ein Bild mit 400 Zeilen wandeln, muss man jede Zeile doppelt ausgeben, soll die Anzahl an Bildern pro Sekunde gleich bleiben, so müssen diese Zeilen dann doppelt so schnell wiedergegeben werden. Heute ist das relativ einfach möglich, man digitalisiert das Bildsignal und speichert die Werte digital ab. Der Speicher wird dazu in 2 Hälften geteilt welche jeweils ein Bild speichern. In die eine Hälfte wird das Bild das gerade kommt gespeichert, während aus der anderen Hälfte das schon gespeicherte Bild 6 mal ausgelesen wird. Dafür reicht auch ein Megabit an Speicher locker aus. Heute ist das ein Chip den man in Elektronikversandhäusern für 1 Euro 50 bekommt, oder 83 Cent wenn man 250 Stück davon abnimmt… Ja heute geht das, damals in den 1960gern war der billigste dafür verwendbare Speicher sogenannter Ringkernspeicher. Wenn man ein magnetisierbares Material stark magnetisiert so wird eine erneute Magnetisierung in die gleiche Richtung das Magnetfeld nicht mehr groß ändern. Erst wenn man das Material in die andere Richtung magnetisieren will gibt es eine Änderung des Magnetfeldes welche dann eine Spannung in einer Spule induziert. Somit kann man Zustände speichern und sie auch lesen, wobei die beim Lesen gelöscht werden und somit ggf neu geschrieben werden müssen. Damals hatte man das schon so weit entwickelt, dass man das alles mit wenigen Drähten pro Ringkern realisieren konnte. Für jedes Bit hat man einen Ringkern aus magnetisierbaren Material gebraucht, macht bei einem Megabit eine Million an Ringkernen die von Hand auf mehrere Drähte aufgefädelt werden mussten. Das war nicht billig.

2 Bilder digital zu speichern war somit damals nicht wirklich praktikabel. Welche anderen Optionen gab es denn damals unterschiedliche Fernsehsysteme ineinander zu wandeln? Die naheliegende Lösung ist es eine Kamera auf einen Bildschirm zu richten. Die damals üblichen Röhrenbildschirme funktionierten in dem man mit einem Strahl aus Elektronen eine Phosphorschicht zum Leuchten anregt. Je nach dem Material dieser Schicht leuchtet wie mehr oder weniger lange nach. Das kann alles von wenigen Nanosekunden bis hin zu einigen Sekunden sein. Die Normwandlung funktioniert besonders dann gut, wenn die Anzahl von Bildern pro Sekunde ähnlich groß ist. Wenn sie gleich ist, kann man beide Seiten synchron halten. So wird der Teil des Bildes welches gerade auf dem Bildschirm geschrien wird gleichzeitig von der Kamera abgetastet. Man erhält so ein stabiles und gleichmäßig helles Bild. Hat man unterschiedliche Bildwechselraten, so entsteht ein Flackern welches allerdings gut reproduzierbar ist und somit elektronisch ausgeglichen werden kann. In jeden Falle muss der Bildschirm und die Kamera genau aufeinander abgestimmt werden, so dass alle Grauschattierungen möglichst genau abgebildet werden.

Beim den Signalen vom Mond reicht das jedoch nicht mehr aus. Für jedes Bild das hereinkommt müssen 6 Bilder abgeschickt werden. Um das zu schaffen verwendete man 2 Tricks. Der erste Trick war die Verwendung von etwas länger nachleuchtenden Phosphoren. Dadurch leuchtet auch am Ende des ankommenden Bildes noch der Rest des Bildes auf. Der zweite Trick war komplizierter, man wartete bis das Bild vollständig auf dem Schirm geschrieben wurde, dann hat man ein Bild von der Fernsehkamera genommen, gespeichert und 6 mal hintereinander ausgegeben. Gespeichert hat man das damals auf einer Art Festplatte, im Prinzip eine magnetisierbare Platte die sich 60 mal pro Sekunde dreht und somit pro Umdrehung ein Bild speichern kann. Die Bilder werden auf kreisförmigen Spuren gespeichert. Typischerweise konnten solche Systeme etwa 30 Sekunden auf mehreren solcher Platten speichern. Damit konnte man bei Sportübertragungen Standbilder und Zeitlupen machen.

Und so kommen wir zu den Problemen die auftraten. Da das Fernsehsystem der Mondlandung nicht wirklich normal war, konnte man dafür nicht wirklich viel Technik kaufen. Deshalb gab es auch Geräte wie Normwandler nicht fertig und man musste improvisieren. Das bedeutete, dass man den Monitor mit einer handelsüblichen Fernsehkamera abgefilmt hat. Dabei war diese Kamera offensichtlich nicht gut eingestellt. Zusätzlich ist der Mond jetzt nicht unbedingt gut auf Fernsehübertragungen ausgelegt. Man hat nur eine Punktlichtquelle (Sonne) und der Himmel ist schwarz. Das bedeutet, dass die Kontraste sehr stark sind, viel stärker als in einem gut ausgeleuchteten Studio. Im Studio wird auch die Helligkeit zum Beispiel durch die Blende nach geregelt. Auf dem Mond muss das eine Automatik machen. Und das alles muss dann auch noch in ein kleines Gehäuse passen und muss Beschleunigungen aushalten, wie das sonst damals nur Bauern auf ihren Schleppern mussten. (siehe hier)

Wer mehr über das Kamerasystem der frühen Apollo Missionen erfahren möchte: Hier ist ein relativ informativer Werbeartikel des Herstellers darüber.

———————————
Der komplette Countdown: 50 | 49 | 48 | 47 | 46 | 45 | 44 | 43 | 42 | 41 | 40 | 39 | 38 | 37 | 36 | 35 | 34 | 33 | 32 | 31 | 30 | 29 | 28 | 27 | 26 | 25 | 24 | 23 | 22 | 21 | 20 |19 | 18 | 17 | 16 | 15 | 14 | 13 | 12 | 11 | 10 | 09 | 08 | 07 | 06 | 05 | 04 | 03 | 02 | 01 | 0

Kommentare (7)

  1. #1 Karl-Heinz
    17. Juli 2019

    @Christian Berger

    Ein sehr informativer Artikel. Mir persönlich war gar nicht bewusst, dass man für die Live-Übertragung vom Mond einen so hohen Aufwand betreiben musste. Es würde mich auch interessieren, wieso du dich so gut mit der damaligen Technik auskennst, die immer mehr in Vergessenheit gerät. 😉

  2. #2 Christian Berger
    17. Juli 2019

    @Karl-Heinz Das ist eine gute Frage, ich denke mich interessieren einfach die Ursprünge von Technologie um damit verstehen zu können warum Technik jetzt so ist wie sie ist. Grob vereinfacht kann man sagen, dass es häufiger mal “zündende Ideen” gab. Das waren meistens Ideen wie man die Komplexität eines Problemes reduziert.

    Beim Fernsehen war halt die Idee, das bewegte Bild nicht nur in einzelne Bilder zu unterteilen, sondern diese Bilder auch noch in Zeilen zu unterteilen, so dass sie nacheinander übertragen werden konnten. Vor dieser Idee hätte man vermutlich eine Leitung für jeden Bildpunkt gelegt, was irrsinniger Aufwand gewesen wäre. (hat man aber trotzdem für manche Werbeschilder betrieben)

  3. #3 Karl Mistelberger
    mistelberger.net
    17. Juli 2019

    NASA Releases Restored Apollo 11 Moonwalk Video

    Editor’s note: This feature was originally published July 16, 2009. It is republished in conjunction with the 50th anniversary of the Apollo 11 mission.

    NASA used a scan converter to optically and electronically adapt these images to a standard U.S. broadcast TV signal. The tracking stations converted the signals and transmitted them using microwave links, Intelsat communications satellites, and AT&T analog landlines to Mission Control in Houston. By the time the images appeared on international television, they were substantially degraded.

    https://www.nasa.gov/mission_pages/apollo/40th/apollo11_tapes.html

  4. #4 Christian Berger
    17. Juli 2019

    @Karl Mistelberger Ja solche Projekte um das wieder ein wenig “aufzuhübschen” gibts immer mal wieder. Es gibt auch Leute die in einem verlassenen Fastfoodrestaurant die verbleibenden Bänder auswerten. Die Aufzeichnungstechnik der Signale war im Prinzip nur eine Variante der ganz gewöhnlichen Tonbandtechnik. Ich kenne da Leute die Leute kennen die da dabei waren.

  5. #5 Karl Mistelberger
    mistelberger.net
    17. Juli 2019

    > Ja solche Projekte um das wieder ein wenig “aufzuhübschen” gibts immer mal wieder.

    Da wird nichts “aufgehübscht”. Es wird vielmehr nach den Aufzeichnungen der Bodenstationen gesucht:

    At tracking stations in Australia and the United States, engineers recorded data beamed to Earth from the lunar module onto one-inch telemetry tapes. The tapes were recorded as a backup if the live transmission failed or if the Apollo Project needed the data later. Each tape contained 14 tracks of data, including bio-medical, voice, and other information; one channel was reserved for video.

    Vor 50 Jahren war die internationale TV-Übertragung mit Qualitätsverlusten verbunden.

  6. #6 Stefan
    Augsburg
    17. Juli 2019

    Vor dem selben Problem mit der Bildfrequenz steht man ja heute noch, wenn man amerikanische Fernsehproduktionen in NTSC in PAL umwandeln will.

    Bei Kinofilmen spielt man die 24 frames/s einfach ein wenig schneller ab, das merkt kein Mensch außer denen, die ein absolutes Gehör haben und die Filmmusik kennen.

    Aber bei den ~29,97 frames/s steht man bei der Umwandlung von NTSC in PAL vor einem Problem (umgekehrt, also bei der Umwandlung von PAL nach NTSC natürlich genauso). Man muss also Bilder weglassen (bei NTSC -> PAL, umgekehrt welche hinzufügen), aber dann “ruckelt” es. Man muss also “Zwischenbilder” berechnen, die es im Original gar nicht gibt.

    Die unterschiedlichen Zeilenanzahl (480 bei NTSC, 576 bei PAL) ist da noch das geringste Problem.

    Siehe u.a. dort:

    https://de.wikipedia.org/wiki/PAL-Beschleunigung#Pull-down_für_PAL

  7. #7 Daniel Rehbein
    Dortmund
    19. Juli 2019

    Daß Bilder unterschiedliche Auflösungen haben können, ist uns ja in den Zeiten von Digitalkameras und von unterschiedlichen Videoformaten (SD, HD-ready, Full-HD, 4k) und Aufzeichnungsstandards (25i, 25p, 30i, 30p) in Fleisch und Blut übergegangen. Aber daß Bild und Ton mal nicht digital, sondern analog übertragen und gespeichert wurden, und daß man deswegen auch nicht mal eben Standbilder speichern konnte, das gerät mittlerweile in Vergessenheit.

    Ich habe noch ein paar Bildplatten (Laserdiscs) und einen dazu passendes Abspielgerät. Bildplatten sind eine Technik der 80er, dabei wird der Ton wie bei einer Audio-CD digital gespeichert, das Bild aber analog im Standard PAL oder NTSC.

    https://www.daniel-rehbein.de/laserdisc.html

    Es gab damals Laserdiscs mit zwei unterschiedlichen Abspielverfahren: Konstante Lineargeschwindigkeit (CLV) oder konstante Winkelgeschwindigkeit (CAV). Die Scheiben mit konstanter Winkelgeschwindigkeit hatten jeweils genau ein Bild pro Umdrehung. Und deshalb konnte der Laserdisc-Player bei Scheiben mit konstanter Winkelgeschwindigkeit auch ein Standbild anzeigen, bei den anderen Platten dagegen nicht.

    Die Laserdiscs mit konstanter Linargeschwindigkeit hatten dagegen eine höhere Spieldauer, denn nur im innersten Radius entsprach eine Umdrehung einem Bild, weiter außen passten mehr Bilder in eine Umdrehung. Dafür konnte der Laserdisc-Player bei Scheiben mit konstanter Linargeschwindigkeit keine Standbilder anzeigen.