Moderne Kameras haben ja einige Millionen Bildpunkte – was in vielen Fällen gar nicht so gut ist, wie man vielleicht denkt. Klingt nach ziemlich viel – ist aber gar nichts, verglichen mit der Gigapixel-Kamera.

So sieht ein Bild aus, das mit der Gigapixel-Kamera gemacht wurde (zum Vergrößern klicken):
i-2bf0790f73c777e0f553904250a07d4c-gigapixel1-thumb-500x216-32237.jpg

(Quelle: Brady et al. s.u.)

Schon eine ziemlich beeindruckende Auflösung, oder? Normalerweise sieht man so ein unendliches Reinzoomen ja nur in schlechten Krimis, wo der Technik-Experte in der Reflektion der Hand des Schurken an der Glasscheibe des Cafe’s gegenüber die Zigarettenmarke erkennen kann.

Um so ein Bild zu machen, braucht ihr allerdings eine etwas größere Kamera. So etwa sieht sie aus:
i-b3b16ee6bcb91743fe0b6fdf03f32848-gigapixel3.jpg

(Quelle: Brady et al. s.u.)

Etwas mehr erkennt man auf dieser Prinzipskizze:
i-2619e3fed9ec397d7267730f7313aaad-gigapixel2.jpg
(Quelle: Brady et al. s.u.)

Die Kamera hat vorn eine Linse (in Blau), die das Licht bündelt, wie sich das für eine Kamera gehört. Das Licht fällt aber nicht wie bei einer normalen Kamera direkt auf einen CCD-Chip, sondern fällt auf eine Ansammlung von 226 kleineren Kameras mit jeweils 14 Megapixel.

Die gesamte Auflösung der Kamera ist allerdings nicht 14 mal 226 Megapixel. Das verhindert die Wellennatur des Lichts – bei einer gegebenen Blendenöffnung gibt es eine minimale Auflösung; Punkte, die zu dicht beieinander liegen, können nicht mehr getrennt werden. Das ist ja auch einer der Gründe (neben der Lichtstärke) warum AstronomInnen immer so riesige Teleskope bauen.

Die kleineren Kameras haben auch noch einmal eine Linse. Ähnlich wie bei einem Fernrohr erzeugt die erste Linse ein Zwischenbild, das dann von den Linsen der Kameras aufgenommen wird:

Telescope-schematic-A.svg
Von Michael Schmid – Drawing created by myself as to test the drawing program of OpenOffice.org, CC BY-SA 2.0 at, Link

Links seht ihr die erste Linse, die bei Position (5) ein Bild erzeugt, das dann von der zweiten Linse noch einmal abgebildet wird (da wo das Auge ist, müsst ihr euch die Kamera-Sensoren dazudenken). Diese Anordnung ist für die Gigapixel-Kamera deswegen notwendig, weil sonst ja Lücken im Bild entstehen würden.

Falls ihr euch jetzt so eine Kamera zulegen wollt – sie ist leider etwas unhandlich mit einer Größe von 75cm x 75cm x 50cm. Den größten Teil davon nimmt allerdings die Kühlung ein, denn die Kamera produziert satte 430 Watt. Das optische System selbst ist dagegen vergleichsweise klein, die Linsenöffnung beträgt nur 16mm, die Kugelschale oben im Bild hat einen Radius von etwa 7cm. Es ist also denkbar, dass wir eines Tages alle mit solchen Kameras herumlaufen. Im paper steht dazu der schöne Satz

Ubiquitous gigapixel cameras may transform the central challenge of photography from the question of where to point the camera to that of how to mine the data.
Allgegenwärtige Gigapixel-Kameras transformieren die größte Herausforderung des Fotografierens von der Frage, worauf man die Kamera richtet, zu der Frage, wie man die Daten prozessiert.

(Ehrlich gesagt scheint mir der Satz allerdings von wenig Ahnung von künstlerischer Fotografie zu zeugen…)

So oder so – auf jeden Fall eine coole Erfindung.


D. J. Brady, M. E. Gehm, R. A. Stack, D. L. Marks, D. S. Kittle, D. R. Golish, E. M. Vera & S. D. Feller
Multiscale gigapixel photography
Nature, vol 486 (2012) S. 386

Kommentare (14)

  1. #1 Niels
    2. August 2012

    Die Astronomen haben übrigens schon seit 2007 eine 1,4 Gigapixel-Kamera.
    https://pan-starrs.ifa.hawaii.edu/public/design-features/cameras.html

  2. #2 MartinB
    2. August 2012

    @Niels
    Stimmt, das wurde in dem paper auch erwähnt – diese ist aber vom Aufbau und handling her angeblich einfacher, wen ich das technobabble richtig gelesen habe.

  3. #3 anmasijo
    2. August 2012

    Wie hoch ist denn nun die produzierte Datenmenge eines solchen Bildes? Gibt es darüber irgendwelche Angaben?
    Mit zwei Urlaubsbildern die Platte voll?…

    Auf jeden Fall wirklich beeindruckend, wie aus dem nichts dieser Gänsezug auftaucht! Doch was verbirgt sich hinter a, c, d, e?…

  4. #4 mortimer
    2. August 2012

    Zusammen mit der Technik der Lichtfeldkameras ( https://de.wikipedia.org/wiki/Lichtfeldkamera ) wird das noch interessanter.

  5. #5 Julian
    2. August 2012

    Am besten immer als RAW-Datei abspeichern und immer SSDs benutzen. Damit schafft man dann ein halbes Foto pro Jahr.

  6. #6 MartinB
    2. August 2012

    @anmasijo
    Naja, wir haben so 1-2 Gigapixel, jedes Pixel hat (bei s/w-Aufnahme) 1 byte (bei Farbe 3 byte), also ist deine Festplatte nach dem Urlaub voll.

    @mortimer
    Das ist ja cool, hatte ich noch nie gehört.

    @Julian
    Genau, und zuhause nen Petaflop-Großrechner, sonst macht das Entwickeln der raws wenig Freude… und natürlich ein entsprechender Monitor mit Gigapixel-Auflösung.

  7. #7 schlappohr
    2. August 2012

    @Martin

    “jedes Pixel hat (bei s/w-Aufnahme) 1 byte (bei Farbe 3 byte), ”

    Die A/D-Wandler an den Sensoren liefern üblicherweise 12-14Bit pro Pixel. Wenn man hoch qualitative Bildverarbeitung machen will, muss man auch durchgängig mit dieser Datenbreite rechnen und erst am Schluss abschneiden, wobei 8Bit pro Pixel wirklich nur im Conumerbereich üblich sind. Kameras in der Medizintechnik oder im Broadcastbereich verwenden mindestens 10Bit im endgültigen Bild, in der Astronomie sind es sicher mehr, könnte ich mir denken.

    Da Du 1GPixel nicht in der Kamera selbst verarbeiten kannst, musst Du erstmal Rohdaten speichern. Das wären dann ungefähr 226*14*10⁶*12Bit =
    4.4GByte pro Bild. Das passt auf einen Memorystick. Also alles halb so wild.

    Interessant wirds erst, wenn Du mit dieser Kamera 30Bilder pro Sekunde machen willst…

  8. #8 anmasijo
    2. August 2012

    @ martinB + schlappohr:
    Vielen Dank für die Antworten. Doch wer weiß: die Datenmengen, die verarbeitet werden, sind ja irgendwie inflationär geworden – was heute eine HD-Kamera liefert, wäre noch vor wenigen Jahren undenkbar gewesen. Morgen ist’s dann halt das XXHD-Format…
    Es braucht halt nur die entsprechenden Speicherkapazitäten. War da nicht was mit Hologrammspeicher im Plexiglasblock…?
    Als ich mit computern angefangen habe, wurde das OS noch per Diskette in den Amiga geschoben……… Warum komm’ ich mir gerade so alt vor?

  9. #9 MartinB
    2. August 2012

    @schlappohr
    Stimmt, an die raw-Datengröße hatte ich nicht gedacht.

    @anmasijo
    Also *mein* erster Computer wurde damit beworben, dass er 16kB RAM hatte. Für daten gab’s ne Kassette.

  10. #10 Bullet
    2. August 2012

    Oha. TRS-80 oder VideoGenie? ^^

  11. #11 Bullet
    2. August 2012

    nein, der TRS-80 hatte ja ab Werk nur 4 kB.

  12. #12 MartinB
    2. August 2012

    @Bullet
    Nein, TI 99-4A

    Der war super, besonders das Modul, auf dem das “Extended Basic” installiert war – das konnte coole Sachen (z.B. Sprites). Hat leider irgendwann den Geist aufgegeben.

  13. #13 Frank
    7. August 2012

    Die CCD Sensoren sollten doch eher an Stelle (5) positioniert werden, und nicht anstelle des Auges welches das virtuelle Bild benötigt?

  14. #14 Angela
    Bielefeld
    17. Juli 2021

    Aber mal eine Frage: geht denn das fotografieren bei Euch nicht auch mit dem Smartphone? reicht eich das Smartphone denn aus zum fotografieren?