Wenn ihr euch eine Digitalkamera kauft, dann steht in allen Prospekten eine Zahl immer besonders groß: Wieviele Megapixel die Kamera hat. Heutzutage haben ja schon einfache Knipskameras 12 oder 14 Megapixel, während es vor ein paar Jahren vielleicht 5 oder 6 waren. Also sind die Kameras heute doppelt so gut, und machen doppelt so tolle Bilder, oder? Mehr Megapixel sind ja sicher besser, je mehr Megapixel, desto schönere Bilder.
Einfach gesagt: Nein. Ob mehr Megapixel besser sind, hängt davon ab, was ihr mit euren Bildern anfangen wollt, und in vielen Fällen sind mehr Megapixel eher ein Nachteil.
Was sind Megapixel?
“Mega-” ist ja die Vorsilbe für “Million” (ein Megawatt sind eine Million Watt), also ist ein Megapixel ein anderes Wort für eine Million Pixel. Das war einfach, oder?
Ach so, vielleicht sollte ich auch noch erklären, was ein Pixel ist? Vermutlich lest ihr diese Seite an eurem Computermonitor. Geht mal gaaaanz dicht an den Monitor ran – wenn ihr kurzsichtig seid, nehmt die Brille ab, dann könnt ihr auf ganz kurze Entfernungen noch scharf sehen, andernfalls nehmt vielleicht eine Lupe zur Hand. So etwa sieht das Ergebnis aus:
Von Phrood~commonswiki licensed under the Creative Commons Attribution-Share Alike 3.0 Unported license.
Wie ihr seht, besteht das Bild aus einzelnen Bildpunkten – und die heißen Pixel. Normalerweise merkt ihr davon nichts, weil die Bildpunkte ziemlich klein sind und ihr einigermaßen weit weg vom Bildschirm sitzt. Ein typischer Computer-Monitor im Breitformat hat 1920 mal 1080 solche Pixel, also etwa 2 Megapixel 1. Wenn ihr euch auf dem Bildschirm Fotos oder Videos anguckt, dann sehen die trotzdem scharf und klar aus und von den Pixel ist nicht viel zu bemerken.
1Beim Vergleich zwischen der Megapixelzahl eines Monitors und einer Digitalkamera muss man etwas aufpassen: beim Monitor besteht jeder Pixel aus drei Subpixeln für die drei Grundfarben, so dass man die Pixelzahl eigentlich mit 3 multiplizieren müsste. Bei der Kamera gibt es auch unterschiedliche Pixel für die unterschiedlichen Farben – die volle Farbinformation eines solchen Pixels wird dann aus der der benachbarten Pixel interpoliert. Normale Kameras verwenden einen Bayer-Sensor, aber auf diese Feinheiten gehe ich hier nicht ein.
Wenn ein Bild (beispielsweise auf dem Monitor) hinreichend viele Pixel hat, dann bemerkt man diese nicht mehr – es sei denn, man geht sehr nahe heran. Je mehr Pixel sich auf demselben Raum zusammenquetschen, desto dichter kann ich natürlich herangehen, bevor ich die Pixel bemerke. Einige kennen vielleicht dieses Bild:
Wenn ihr genau hinseht (oder besser: Wenn ihr ein Stück weggeht oder die Augen etwas zusammenkneift), dann könnt ihr Abraham Lincoln erkennen – aber ein so grobes Pixelraster wäre dann für einen Monitor doch etwas arg.(Künstlerisch wurde der Pixel im Pointillismus entdeckt, hübsche Beispiele auch aus neuerer Zeit gibt es hier.)
Fazit: Viele Pixel sind günstig, weil sie es erlauben, auch noch Details gut zu erkennen. Ab einer bestimmten Pixelzahl hilft eine weitere Erhöhung aber nicht mehr viel, denn sooo dicht geht man ja an ein Bild normalerweise nicht heran. Nach dieser Logik scheint es also tatsächlich so, dass mehr Pixel immer besser sind; allerdings nimmt der Vorteil weiterer Pixel irgendwann immer mehr ab.
Kamera-Pixel
Auch eine Digitalkamera hat Pixel – allerdings soll die ja Bilder aufnehmen, nicht anzeigen (außer auf dem Display zur Bildkontrolle, aber das spielt jetzt keine Rolle). Die Pixel sitzen auf einem Sensor, der das Bild, das von der Kameraoptik erzeugt wird, aufnimmt. Dieser Sensor ist eine spezielle Art von Chip, ein sogenannter CCD-Chip (CCD steht für “charged coupled device” – ladungsgekoppeltes Gerät).
Um das Problem beim Megapixel-Wahn zu verstehen, müssen wir uns ganz grob ansehen, wie so ein Chip funktioniert. (Ich bleibe hier sehr oberflächlich, denn die Problematik kann man auch ohne viel Halbleiterphysik verstehen.) Der Sensor-Chip besteht aus einem Halbleitermaterial. Fällt Licht auf ein solches Material, so kann es im Material Elektronen aus ihren Atombindungen losschlagen. Legt man an den Halbleiter eine elektrische Spannung an, so werden die Elektronen angezogen und sammeln sich an der Oberfläche des Halbleiters, da, wo der Pluspol der Spannung liegt.
Das einfallende Licht besteht ja aus Photonen – jedes davon kann ein Elektron losschlagen.1 (Die Energie der Photonen ist typischerweise höher als die, die man zum Losschlagen braucht, aber ein Losschlagen von zwei Elektronen auf Mal ist sehr unwahrscheinlich.) Fällt viel Licht (also viele Photonen) auf den Halbleiter, dann werden auch viele Elektronen losgeschlagen, fällt wenig Licht drauf, dann sind es wenige Elektronen. Misst man die Zahl der Elektronen, dann weiß man also, wieviel Licht den Sensor erreicht hat.
1Die Wellenlänge der Photonen spielt hier also zunächst keine Rolle – um trotzdem Farbfotos aufnehmen zu können, verwendet man deshalb Farbfilter; wer mehr wissen will, kann oben dem Link zum Bayer-Sensor folgen.
Für jeden Bildpunkt brauchen wir ein solches Halbleiter-Bauelement. (Die aber alle zusammen auf einem einzigen Chip sitzen.) Ein Kamerachip mit etwa 6 Megapixeln hat so etwa 2000 mal 3000 Pixel. Entsprechend viele einzelne Bauelemente müssen in einem CCD-Chip zusammengefasst werden. (Das Clevere am CCD-Chip ist dabei die Art, wie die Ladung ausgelesen wird – dazu dient eine “Eimerkettenschaltung”. Aber auch die ist für uns hier nicht so wichtig…) Dank moderner Halbleiter-Technologie ist es überhaupt kein Problem, ein paar Millionen solche Bauelemente auf einem Quadratzentimeter unterzubringen.
Rauschen und anderer Ärger
Wenn wir noch mehr Pixel wollen, dann müssen wir die einzelnen Bauelemente einfach etwas kleiner machen. Je kleiner aber ein Pixel ist, desto weniger Photonen fallen auf das Bauelement, wenn wir den Auslöser drücken. Und wenn wir zwischen der dunklen Augenbraue und der hellen Haut von Mr. Lincoln einen Unterschied sehen wollen, dann müssen auf das Bauelement, das für die Abbildung der Haut zuständig ist, ein paar mehr Photonen fallen als auf das, das das Licht der Augenbraue messen soll. Wenn also zu wenig Photonen auf ein Bauelement fallen, dann ist irgendwann Schluss.
Quetscht man also mehr und mehr Megapixel auf dieselbe Sensorfläche, dann leidet die Empfindlichkeit. Wäre die Welt perfekt, dann wären wir von der kritischen Grenze, wo Augenbraue und Haut nicht mehr zu unterscheiden sind, noch weit entfernt. Aber die Welt ist nicht perfekt. Wie so oft ist es die Temperatur (und damit letztlich die Entropie), die hier viel Ärger bereitet. Falls ihr euren CCD-Chip nicht stark kühlt (solche Kameras gibt es für Spezialanwendungen – Florian sollte sich da auskennen), dann betreibt ihr euren CCD-Chip bei Raumtemperatur. Und dabei steht immer ein bisschen Energie durch thermische Schwingungen zur Verfügung, die ausreichen kann, um ebenfalls ein paar Elektronen loszuschlagen. Diese thermische Energie erzeugt also ein Signal – und weil Elektron gleich Elektron ist, kann der CCD-Chip natürlich nicht wissen, ob ein Elektron nun durch ein Photon oder durch Temperaturanregung losgeschlagen wurde.
Solange ihr bei Sonnenschein fotografiert, ist das kein Problem: Dabei kommt genügend Licht auf den Chip, so dass die paar thermisch angeregten Elektronen nicht ins Gewicht fallen. Wenn ihr aber im Dämmerlicht fotografieren wollt, fallen nur recht wenige Photonen auf den Chip. Ihr könnt natürlich die Belichtungszeit länger machen, um mehr Photonen einzusammeln, aber das Porträt im Kerzenlicht sieht bei einer Belichtungszeit im Sekundenbereich nicht mehr wirklich überzeugend aus.
Stattdessen verwendet eure Kamera einen Trick: Das Signal der Elektronen wird künstlich verstärkt. (Eure Kamera erzählt euch dann etwas von einem hohen ISO-Wert, der gibt die Empfindlichkeit an.) Dabei verstärkt sich aber auch das Rauschen, und plötzlich seht ihr seltsame Bildpunkte da, wo eigentlich keine sein sollten. Als Beispiel hier mal ein Ausschnitt aus einem Bild, das ich vor zwei Jahren in Japan gemacht habe:
Wenn ihr das Bild aus der Nähe anguckt, dann seht Ihr das hier (ich habe das Bild hochskaliert, aber ohne Interpolation):
Zum einen fällt hier das komische Raster auf – das liegt an der JPG-Kompression, die die meisten Kameras verwenden, damit die Bilddateien nicht zu riesig werden. (Bessere Kameras erlauben meist ein Speichern im RAW-Format, bei dem die Rohdaten des Chips unverarbeitet gespeichert werden – das hat allerdings den Nachteil, dass man erst nachbearbeiten muss.) Zum anderen seht ihr aber die seltsamen farbigen Flecken. Die kommen durch das Verstärken des Bildrauschens zustande. An einigen Stellen haben die roten Pixel mehr gerauscht, an anderen die blauen oder grünen, und die eigentlich graue Fläche sieht seltsam gesprenkelt aus.
Mehr Megapixel auf derselben Fläche führen also zu mehr Bildrauschen – die Bildqualität wird nicht unbedingt besser, sondern gerade bei schlechtem Licht sogar schlechter. Die meisten Kameras haben Rauschunterdrückungsprogramme eingebaut, um das Problem abzumildern – aber da ein Programm nicht wissen kann, ob ein Farbfleck nun real ist oder durch Rauschen kommt, gehen diese Programme letztlich immer auf Kosten der Bildqualität.
Wieviel Megapixel braucht man wirklich?
Gute Frage. Für normale Fotogröße reichen 6 Megapixel allemal. Für Poster sagen viele Leute, dass man dort mehr Pixel braucht. Das hängt aber immer davon ab, was genau ihr mit dem Poster machen wollt: Wenn ihr es direkt neben euren Lieblingssessel hängt, dann werdet ihr es natürlich häufig stark aus der Nähe sehen und dann mag eine “Pixeligkeit” vielleicht unangenehm auffallen. Der Normalfall dürfte aber sein, dass man ein Bild ja eigentlich als Ganzes betrachtet – wenn das Poster größer wird, dann geht man auch weiter Weg, um es anzusehen. Entsprechend braucht man für ein großes Poster nicht unbedingt mehr Pixel.
Wer “echte” Pixeleffekte wie zum Beispiel Kanten, die wie Treppen aussehen, vermeiden will, der kann noch zu einem anderen Trick greifen: Das Bild mit einer Bildbearbeitungssoftware skalieren, so dass aus einem Pixel mehrere werden. Dabei entstehen natürlich (anders als bei irgendwelchen Krimiserien, wo man ja in der Reflektion der Flasche auf dem Tisch hinter der Scheibe des Cafes durch Reinzoomen noch die Zigarettenmarke des rauchenden Schurken auf der anderen Straßenseite erkennen kann) keine neuen Bildinformationen, aber pixelige Kanten werden durch die Programme “geglättet”. (Eventuell müsst ihr hinterher vorsichtig etwas nachschärfen.) Mit dieser einfachen Technik habe ich schon mal ein Bild mit etwa einem einzigen Megapixel (das als Hintergrund in einer Fotomontage diente) auf DIN A2 aufgeblasen – und noch niemand hat sich über die “Pixeligkeit” beschwert. (Und wenn ihr mal ganz dicht an Werbeplakate rangeht, werdet ihr auch da Pixel erkennen.)
Und auch hier gilt wieder: Was nützen euch 14 Megapixel, wenn die voller Rauschen und Farbfehler stecken? Eine gute Diskussion der Problematik findet ihr auch hier und ein paar Zahlenwerte hier.
Wenn nicht Megapixel, was dann?
Nachdem ich euch nun überzeugt habe, dass die Megapixel nicht das wichtigste an der Kamera sind – was dann?
Eins sollte sofort klar sein: 6 Megapixel sind nicht gleich 6 Megapixel. Meine gute alte Nikon verteilt ihre 6 Megapixel auf einen Sensor mit einer Fläche von etwa 370Quadratmilimeter, bei einer einfachen modernen Kompaktknipse ist die Sensorgröße vielleicht nur 20 oder 30 Quadratmillimeter. Jeder Bildpunkt hat also nur ein Zehntel der Fläche (noch weniger, wenn man mehr Megapixel draufpackt), und ist entsprechend rauschanfälliger. Was den Sensor angeht, ist also die Frage nach der Größe viel wichtiger als die nach der Megapixelzahl – leider findet man diese Angabe nicht so leicht, denn die Firmen halten ihre Sensorgrößen typischerweise konstant und machen damit deshalb nicht so viel Werbung (“Seit 10 Jahren mit Sensorgröße 35Quadratmillimeter” klingt halt nicht so toll…).
Und warum macht man die Sensoren nicht einfach größer? Der Sensor misst ja das Bild, das von der Optik (sprich: den Linsen) erzeugt wird. Macht man den Sensor größer, dann braucht man entsprechend eine größere Brennweite und damit größere Linsen. Größere Linsen wiederum haben Probleme mit Farbfehlern oder Verzerrungen – um die auszugleichen, besteht ein modernes Objektiv für eine Spiegelreflexkamera typischerweise aus einem ganzen Satz von Linsen. Und damit sind größere Linsen eben teuer – für ein anständiges Objektiv einer Spiegelreflexkamera kann man locker ein paar Hundert Euronen auf den Tisch legen, wenn man die übrig hat (falls jemand nach einem Weihnachtsgeschenk für mich sucht…). Die winzigen Glasscherben, die man vor eine Kompaktkamera (oder gar eine Handykamera) basteln muss, sind wesentlich preiswerter. (Wobei man auch mit ner Handykamera gute Fotos machen kann – solange genügend Licht da ist. Beispiele findet ihr in der unten zitierten Fotoschule.)
Das zweite, worauf es bei einer Kamera also ankommt, ist die Optik. Und da gibt es viele Dinge, die man in Betracht ziehen kann – Brennweite, Blende, Aberration, Verzeichnung, Bokeh und und und. Da das hier aber keine Kaufberatung sein soll, sondern nur ein Plädoyer gegen den Megapixelwahn, verweise ich auch dafür auf die Fachliteratur (zumal ich selbst auch nur wenig Ahnung davon habe).
Wer mehr wissen will: Die Seite 6mpixel gibt detailliert Auskunft über Rauschen, Auflösung und andere Probleme in Verbindung mit dem Megapixel-Wahn.
Und wer mehr über’s Fotografieren allgemein wissen will, dem empfehle ich unglaublich gute Ralfonso Fotoschule. Falls ihr euch im Dschungel von ISO, Blende, Tiefenschärfe und all diesem Zeug nicht zurecht findet und eure Kamera lieber immer auf Automatik stehen lasst oder falls ihr genau wissen wollt, worauf man beim Kauf einer Kamera achten sollte, könnt ihr euch dort schlaulesen.
Kommentare (37)