Das einfallende Licht besteht ja aus Photonen – jedes davon kann ein Elektron losschlagen.1 (Die Energie der Photonen ist typischerweise höher als die, die man zum Losschlagen braucht, aber ein Losschlagen von zwei Elektronen auf Mal ist sehr unwahrscheinlich.) Fällt viel Licht (also viele Photonen) auf den Halbleiter, dann werden auch viele Elektronen losgeschlagen, fällt wenig Licht drauf, dann sind es wenige Elektronen. Misst man die Zahl der Elektronen, dann weiß man also, wieviel Licht den Sensor erreicht hat.
1Die Wellenlänge der Photonen spielt hier also zunächst keine Rolle – um trotzdem Farbfotos aufnehmen zu können, verwendet man deshalb Farbfilter; wer mehr wissen will, kann oben dem Link zum Bayer-Sensor folgen.
Für jeden Bildpunkt brauchen wir ein solches Halbleiter-Bauelement. (Die aber alle zusammen auf einem einzigen Chip sitzen.) Ein Kamerachip mit etwa 6 Megapixeln hat so etwa 2000 mal 3000 Pixel. Entsprechend viele einzelne Bauelemente müssen in einem CCD-Chip zusammengefasst werden. (Das Clevere am CCD-Chip ist dabei die Art, wie die Ladung ausgelesen wird – dazu dient eine “Eimerkettenschaltung”. Aber auch die ist für uns hier nicht so wichtig…) Dank moderner Halbleiter-Technologie ist es überhaupt kein Problem, ein paar Millionen solche Bauelemente auf einem Quadratzentimeter unterzubringen.
Rauschen und anderer Ärger
Wenn wir noch mehr Pixel wollen, dann müssen wir die einzelnen Bauelemente einfach etwas kleiner machen. Je kleiner aber ein Pixel ist, desto weniger Photonen fallen auf das Bauelement, wenn wir den Auslöser drücken. Und wenn wir zwischen der dunklen Augenbraue und der hellen Haut von Mr. Lincoln einen Unterschied sehen wollen, dann müssen auf das Bauelement, das für die Abbildung der Haut zuständig ist, ein paar mehr Photonen fallen als auf das, das das Licht der Augenbraue messen soll. Wenn also zu wenig Photonen auf ein Bauelement fallen, dann ist irgendwann Schluss.
Quetscht man also mehr und mehr Megapixel auf dieselbe Sensorfläche, dann leidet die Empfindlichkeit. Wäre die Welt perfekt, dann wären wir von der kritischen Grenze, wo Augenbraue und Haut nicht mehr zu unterscheiden sind, noch weit entfernt. Aber die Welt ist nicht perfekt. Wie so oft ist es die Temperatur (und damit letztlich die Entropie), die hier viel Ärger bereitet. Falls ihr euren CCD-Chip nicht stark kühlt (solche Kameras gibt es für Spezialanwendungen – Florian sollte sich da auskennen), dann betreibt ihr euren CCD-Chip bei Raumtemperatur. Und dabei steht immer ein bisschen Energie durch thermische Schwingungen zur Verfügung, die ausreichen kann, um ebenfalls ein paar Elektronen loszuschlagen. Diese thermische Energie erzeugt also ein Signal – und weil Elektron gleich Elektron ist, kann der CCD-Chip natürlich nicht wissen, ob ein Elektron nun durch ein Photon oder durch Temperaturanregung losgeschlagen wurde.
Solange ihr bei Sonnenschein fotografiert, ist das kein Problem: Dabei kommt genügend Licht auf den Chip, so dass die paar thermisch angeregten Elektronen nicht ins Gewicht fallen. Wenn ihr aber im Dämmerlicht fotografieren wollt, fallen nur recht wenige Photonen auf den Chip. Ihr könnt natürlich die Belichtungszeit länger machen, um mehr Photonen einzusammeln, aber das Porträt im Kerzenlicht sieht bei einer Belichtungszeit im Sekundenbereich nicht mehr wirklich überzeugend aus.
Stattdessen verwendet eure Kamera einen Trick: Das Signal der Elektronen wird künstlich verstärkt. (Eure Kamera erzählt euch dann etwas von einem hohen ISO-Wert, der gibt die Empfindlichkeit an.) Dabei verstärkt sich aber auch das Rauschen, und plötzlich seht ihr seltsame Bildpunkte da, wo eigentlich keine sein sollten. Als Beispiel hier mal ein Ausschnitt aus einem Bild, das ich vor zwei Jahren in Japan gemacht habe:
Wenn ihr das Bild aus der Nähe anguckt, dann seht Ihr das hier (ich habe das Bild hochskaliert, aber ohne Interpolation):
Zum einen fällt hier das komische Raster auf – das liegt an der JPG-Kompression, die die meisten Kameras verwenden, damit die Bilddateien nicht zu riesig werden. (Bessere Kameras erlauben meist ein Speichern im RAW-Format, bei dem die Rohdaten des Chips unverarbeitet gespeichert werden – das hat allerdings den Nachteil, dass man erst nachbearbeiten muss.) Zum anderen seht ihr aber die seltsamen farbigen Flecken. Die kommen durch das Verstärken des Bildrauschens zustande. An einigen Stellen haben die roten Pixel mehr gerauscht, an anderen die blauen oder grünen, und die eigentlich graue Fläche sieht seltsam gesprenkelt aus.
Kommentare (37)