Vor knapp einer Woche ist die Raumsonde Phoenix auf dem Mars gelandet. Uns schon kurz danach gab es die ersten Verschwörungstheorien. Natürlich ist die NASA wieder heftig damit beschäftigt, Bilder zu zensieren und die Öffentlichkeit zu täuschen. Das meint zumindest der amerikanische Verschwörungstheoretiker Ted Twietmeyer.


Es hat nicht lange gedauert: Schon kurz nach der Landung der Raumsonde Phoenix auf dem Mars gab es auf den einschlägigen Internetseiten die ersten Verschwörungstheorien. Ted Twietmeyer, der auf seiner Homepage Data4Science.net unter anderem über die gefälschte Mondlandung, Polverschiebungen und anderen pseudowissenschaftlichen Unsinn schreibt, ist der NASA auf die Schliche gekommen: die tollen Bilder, die Phoenix zur Erde gesandt hat werden zensiert und sind gefälscht! Nicht, weil die NASA die Landung nur vorgetäuscht hat – sondern weil sie etwas verbergen will!

Wer einen Überblick über die gängigen Verschwörungstheorien bekommen möchte, der kann sich auf der Homepage von Jeff Rense “informieren”. Von Morgellons bis hin zu den unvermeidlichen UFOs findet sich dort alles. Und dort hat auch Ted Twietmeyer, kurz nach der Landung von Phoenix auf dem Mars, seine “Theorie” veröffentlicht. Die NASA hat nämlich die Bilder vom Mars zensiert – in Wirklichkeit ist der Himmel am Mars blau, die Atmosphäre lebensfreundlich und der Mars (wenn nicht noch heute, dann zumindestens früher) belebt. Als Beweis dafür kann man sich sein Buch “What NASA isn’t telling you about Mars” kaufen. Aber das enthält auch nur die üblichen Bilder mit den üblichen Pareidolien und unlogischen und falschen Interpretationen.

Der neueste Beweis dafür, dass NASA Bilder fälscht um uns die Existenz eines bewohnbaren Mars vorzuenthalten ist der folgende: Die Bilder die Phoenix am Anfang übermittelt hat sind schwarz-weiß!

Ich hab darüber schon im Beitrag zur Titan-Verschwörungstheorie geschrieben. Das ist ein Argument, dass man recht häufig findet – und darum möchte ich doch noch etwas dazu sagen. Es basiert im Allgemeinen auf mangelnder Vorstellungskraft und mangelndem Wissen über Astronomie, Raumfahrt und Fotografie. Twietmeyer schreibt zum Beispiel:

“Here in 2008, WHY are we still seeing MONOCROME images?
This is absolutely unforgivable to still be doing this trick. The color
images from Mars are obtained from a solid state camera, very similar
to a typical camcorder or cell phone which almost everyone owns today
(but much higher resolution.) Color information is already present in
Mars images, but clearly this was deleted for reasons not explained.”

Es ist ja doch ein bisschen unverständlich: jedes popelige Handy kann heutzutage tolle (Farb)Aufnahmen machen – und eine sündteure NASA-Raumsonde soll das nicht können? Aber wie immer gibt es gute Gründe dafür – wenn man ein bisschen genauer darüber nachdenkt. Der Grund für die monchromen Bilder (die eigentlich nicht monochrom sind sonder verschiedene Grautöne zeigen) ist die große Entfernung zwischen Erde und Mars. Da dauert es schonmal einige Minuten bis die Daten übermittelt werden können. Und wenn eine Raumsonden gerade gelandet ist, dann will man schnell wissen, ob alles in Ordnung ist. Und wenn man sich nun überlegt, wie farbige Digitalbilder entstehen, ist klar, das graue Bilder schneller übermittelt werden können. Eine Digitalkamera erhält (im Gegensatz zur alten analogen Filmkamera) keine direkten Farbinformationen. Dort kommt, simpel gesagt, nur “hell” oder “dunkel” an. Macht man also eine normale Aufnahme, erhält man verschiedene Graustufen. Um farbige Bilder zu machen, werden verschiedene Filter vorgeschalten die jeweils nur Licht bestimmter Farben durchlassen und die dann zu einem einzigem Farbbild kombiniert. Bei Phoenix wird auch noch eine andere Methode verwendet: um etwaige dunkle und schlecht beleuchtete Stellen gut fotografieren zu können, wird das Motiv der Reihe nach mit verschiedenfarbigen Licht bestrahlt und aufgenommen. Diese Aufnahmen werden dann wieder kombiniert. Es dauert also länger Farbbilder zu machen und es dauert länger, diese Daten zur Erde zu senden. Daher macht man meistens erstmal ein schnelles Bild ohne Farbe um zu sehen, ob alles passt – und wenn es sich dann lohnt, dann macht man eine Farbaufnahme. Die Phoenix-Wissenschaftler haben einen engen Zeitplan und nicht die Freiheit einfach alles zu knipsen und sich dann die besten Aufnahmen rauszusuchen.

1 / 2 / Auf einer Seite lesen

Kommentare (10)

  1. #1 michael
    4. Juni 2008

    Ich könnte mir vorstellen, dass ein Grund ist warum man verschiedenfarbige Filter verwendet (anstatt wie bei normalen Digitalkameras vor jedes Pixel einen Roten, Blauen oder Grünen Filter zu setzen und diese dann auf dem CCD speziell anzuordnen), dass es überhaupt kein Problem ist einfach drei Bilder hintereinander zu machen. Man nimmt ja nichts auf was sich bewegt sondern auf dem Mars ist alles statisch (und wenn man Bewegung sehen will reichen wohl auch Graustufen). Ist das so?

    Und so ein Kamera hat dann auch die dreifache Auflösung. (Bei Digitalkameras muss man das unschön zusammenrechnen.) Außerdem dürfte man auch flexibler sein. Mit 7 (sind doch 7, oder?) Filtern für ganz verschiedene Wellenlängen dürfte man ein breiteres Spektrum abdecken (und kann im Gegensatz zur Digitalkamera mal eben wechseln) als nur mit drei Filtern.

    Ich hab zwar keine Ahnung von Sonden und deren Kameras, könnte mir das aber das als weitere gute Gründe vorstellen warum Phoenix’ Kameras nicht so wie unsere Digitalkameras funktionieren.

  2. #2 florian
    4. Juni 2008

    @michael: also von den speziellen Details der Phoenix-Kamera hab ich leider nicht so viel Ahnung. Ich werd mich aber mal informieren und dann Bescheid sagen. Aber vielleicht liest ja Ludmila hier mit und weiß Bescheid – die müsste sich da besser auskennen 😉

  3. #3 florian
    4. Juni 2008

    Ich hab grad mal nachgeschaut: die Robotic Arm Camera (RAC) wurde vom MPI für Sonnensystemforschung gebaut: “The RAC is a box-shaped imager with a double Gauss lens system, commonly found in many 35 mm cameras, and a charged-coupled device similar to those found on many consumer digital cameras. Two lighting assemblies provide illumination of the target area. The upper assembly contains 36 blue, 18 green, and 18 red lamps and the lower assembly contains 16 blue, 8 green, and 8 red lamps.” (mehr dazu hier) Zur zweiten Kamera, dem Surface Stereo Imager (SSI) wird u.a. angemerkt: “SSI has a 12-position color filter wheel ranging through optical to infrared wavelengths.” (hier).

  4. #4 L. Carone
    4. Juni 2008

    @michael: nimmt ja nichts auf was sich bewegt sondern auf dem Mars ist alles statisch

    Ganz klares Nein! Nur, weil der Mars eine tote Welt ist im Sinne von ohne sichtbares Leben, heißt das noch lange nicht, dass sich da nichts bewegt.

    Z.B. gibt es auf dem Mars hervorragende Bedingungen für Staubteufel – und wenn ich Staubteufel meine, dann spreche ich von wahren Monsterteilen an Staubhosen, die mehrere Kilometer (!) in den Marshimmel reichen und sich mit bis zu 80 km/h (?) (Muss ich nachschlagen…Wo ist denn die Doktorarbeit von der Christina…) bewegen.

    Spirit und Opportunity haben welche fotografiert und die Orbitkameras auch.

    Dann gibt es Staubstürme usw. Von wegen statisch. Ab und tut sich da schon was. Zwar nicht so oft, aber dennoch.

    Wie jetzt genau die Kamera auf Phoenix aufgebaut ist, kann ich Dir nicht sagen. Da würd ich mal auf der Missionswebseite mal nachschlagen.

  5. #5 michal
    4. Juni 2008

    Mit statisch meinte ich eher, dass es kein Problem ist drei Bilder in so vielleicht einer Sekunde zu machen, und das dann auf der Erde zu einen Farbbild zusammenzurechnen. Das muss man ja machen, wenn man Farbbilder haben will aber nur verschiedene Filter hat. Die Kamera hat anscheinend nicht 7 sondern 12 Filter (http://twitter.com/MarsPhoenix?page=2, das FAQ auf der Phoenix-Seite will grade nicht), und zusätzlich dazu sind diese Schwarz-Weißen-Fotos für die Ingenieure noch niedriger aufgelöst.

  6. #6 michael
    23. Juli 2008

    Das Phoenix-FAQ erklärt nun auch die genauen Gründe warum der SSI Filter verwendet und nicht eine „normale“ Bayer-Filtermaske wie in jeder Digitalkamera: Auflösung (drei mal höher) und weil man so nicht auf bestimmte Wellenlängen festgelegt ist und auch Bilder von Sachen machen kann, die Menschen nicht mehr sehen können.

    Nachteil ist, dass man logischerweise bewegte Objekte nur in S/W aufnehmen kann. Will man Farbbilder muss die Kamera drei Bilder mit drei verschiedenen Filtern machen (Rot, Grün, Blau), bewegt sich zwischen den Bildern etwas bekommt man einen Prisma-Effekt. Sehr schön zu erkennen ist das an den Rändern von Schatten welche sich natürlich bewegen. Da man aber mit dem SSI keine Fotos von Formel-1-Rennen machen will, kann man mit den Nachteil wohl sehr gut leben. Will man Fotos von bewegten Objekten hat man immer noch eine sehr hochauflösende S/W-Kamera an Bord.

    Irgendwo müssen also CCD-Chips ohne Bayer-Maske hergestellt werden. So einen Chip hätte sicher jeder S/W-Fotograf gerne in seiner DSLR, da diese Fotografen bisher immer 2/3 der möglichen Auflösung wegschmeißen müssen für Farbinformationen, die sie sowieso nicht brauchen. Diese Fotografen sollten mal mit den JPL reden 😉

  7. #7 michael przewrocki
    19. November 2008

    geht mal auf diese hochinteressante seite http://www.mars-news.de und schaut euch die geniale lösung der automatisch generierten farbbilder vom mars an. auf meiner seite seht ihr-leider nur sw-3dstereo-marspanoramen http://www.europanorama.ch.vu
    neuere viel bessere nur-panoramen in 3dstereo(tiefenwirkung) folgen baldmöglichst.
    es ist mir unerklärlich warum esa keine colorfarbbilder(beide teile) veröffentlicht. coloreinzelbilder(links/rechts) aus einem coloranaglyph zu generieren ist schwierig aber machbar. es gab mal eine online-konvertierung an der uni bremen-von einem berühmten professor.

    noch besser ist die sensationelle seite von jefferey williams http://www.marsunearthed.com
    leider braucht man für viele 3d-bilder eine anaglyph-brille, während auf meinen seiten die tiefenwirkung ohne hilfsmittel durch kreuzblick/schielen/cross-eye aber auch parallel sichtbar ist. bitte sendet dem betreiber von mars-news.de den link hierhin.

    danke einem stereo-applet kann man nur auf meinen seiten lange doppel-panoramen ohne hilfsmittel brille etc. betrachten. es ist die weltbeste lösung.

  8. #8 Marsianer
    12. März 2011

    Ja, der Himmel des Mars ist blau, der Sand NICHT rot und der Mars hat auch eine dichte und atembare Atmosphäre. Vom Mars kamen die Außerirdischen die uns genetisch geschaffen haben und die leben auch heute noch da. Sicherlich gab es auf dem Mars mal eine Katastrophe der ihn unbewohnbar machte und er verwüstete…oder eher versandete(?), höchstwahrscheinlich durch einen heftigen Impakt. Jedenfalls kamen die Außerirdischen dann zur Erde und wollten Gold abbauen das sie brauchten um ihre Atmosphäre zu stabilisieren aber die arbeit war ihnen zu schwer, ist ja auch kein Wunder wenn man von einem Planeten mit geringerer Schwerkraft kommt und auf einem Planeten mit schwererer Schwerkraft arbeiten will. Und so schufen sie aus dem Homo Erectus und durch zugabe ihrer Gene den Menschen damit er für sie das Gold abbauen konnte. Obs was gebracht hat und sie ihren Planeten retten konnten? Wissen wir nicht aber was wir wissen ist das es mittlerweile wieder erste Pflanzen, zumindestens am Südpol des Mars, gibt. Kann man hier auf dem ersten Foto des Links sehen:

    http://mmmgroup.altervista.org/e-trees.html

  9. #9 Florian Freistetter
    12. März 2011

    @Marsianer (aka “Helmut” aka “Top-Wissenschaftler”): Geh bitte woanders nerven. Und spam mir das Blog nicht mit Sockenpuppen voll.

  10. #10 Chris
    12. März 2011

    Hallo,
    @michael

    Irgendwo müssen also CCD-Chips ohne Bayer-Maske hergestellt werden. So einen Chip hätte sicher jeder S/W-Fotograf gerne in seiner DSLR, da diese Fotografen bisher immer 2/3 der möglichen Auflösung wegschmeißen müssen für Farbinformationen, die sie sowieso nicht brauchen. Diese Fotografen sollten mal mit den JPL reden 😉

    Sowas ist in fast jeder wissenschaftlichen SW Kamera drin. Die sind aber ziemlich teuer. Ich fürchte viel mehr, dass der Markt das für Hobbyisten einfach nicht hergibt. 😉

    Bewegungsfehler bei zeitversetzten Farbaufnahmen kann man, mit Verlust und Artefakten natürlich, korrigieren. Solang das Objekt nicht zu schnell ist, über die Wechelgeschwindigkeit von dem Revolver(?) erfährt man leider nichts und wie lange man da belichten muss weiß ich auch nicht.

    Das man die SW Bilder als Fakt für eine Verschwörung ansieht ist IMO sehr schwer zu fassen. Als ob man heute alle Bilder in Farbe machen würde…

    Farbe auf dem Bild an sich ist ja schon schwierig, das was als Licht auf der Marsoberfläche ankommt ist ja schon anders zusammengesetzt als das was durch unsere Athmosphäre kommt und zum Belichten benutzt wird.
    Ohne ordentliche Bildbearbeitung wird sowas eher ungewohnt aussehen, vor allem weil Digitalkameras unsichtbare Teile des Lichts mit erfassen, also Falschfarben produzieren.
    Diese Bearbeitung würde wahrscheinlich auch als böse Manipulation angesehen.

    Egal. Ich bin gespannt was da an Bildern kommt!