Wenn ihr euch eine Digitalkamera kauft, dann steht in allen Prospekten eine Zahl immer besonders groß: Wieviele Megapixel die Kamera hat. Heutzutage haben ja schon einfache Knipskameras 12 oder 14 Megapixel, während es vor ein paar Jahren vielleicht 5 oder 6 waren. Also sind die Kameras heute doppelt so gut, und machen doppelt so tolle Bilder, oder? Mehr Megapixel sind ja sicher besser, je mehr Megapixel, desto schönere Bilder.
Einfach gesagt: Nein. Ob mehr Megapixel besser sind, hängt davon ab, was ihr mit euren Bildern anfangen wollt, und in vielen Fällen sind mehr Megapixel eher ein Nachteil.

Was sind Megapixel?
“Mega-” ist ja die Vorsilbe für “Million” (ein Megawatt sind eine Million Watt), also ist ein Megapixel ein anderes Wort für eine Million Pixel. Das war einfach, oder?

Ach so, vielleicht sollte ich auch noch erklären, was ein Pixel ist? Vermutlich lest ihr diese Seite an eurem Computermonitor. Geht mal gaaaanz dicht an den Monitor ran – wenn ihr kurzsichtig seid, nehmt die Brille ab, dann könnt ihr auf ganz kurze Entfernungen noch scharf sehen, andernfalls nehmt vielleicht eine Lupe zur Hand. So etwa sieht das Ergebnis aus:

i-b8672e78e8c992750d7b800f935f82aa-TFT_Pixel.png

Von Phrood~commonswiki licensed under the Creative Commons Attribution-Share Alike 3.0 Unported license.

Wie ihr seht, besteht das Bild aus einzelnen Bildpunkten – und die heißen Pixel. Normalerweise merkt ihr davon nichts, weil die Bildpunkte ziemlich klein sind und ihr einigermaßen weit weg vom Bildschirm sitzt. Ein typischer Computer-Monitor im Breitformat hat 1920 mal 1080 solche Pixel, also etwa 2 Megapixel 1. Wenn ihr euch auf dem Bildschirm Fotos oder Videos anguckt, dann sehen die trotzdem scharf und klar aus und von den Pixel ist nicht viel zu bemerken.

1Beim Vergleich zwischen der Megapixelzahl eines Monitors und einer Digitalkamera muss man etwas aufpassen: beim Monitor besteht jeder Pixel aus drei Subpixeln für die drei Grundfarben, so dass man die Pixelzahl eigentlich mit 3 multiplizieren müsste. Bei der Kamera gibt es auch unterschiedliche Pixel für die unterschiedlichen Farben – die volle Farbinformation eines solchen Pixels wird dann aus der der benachbarten Pixel interpoliert. Normale Kameras verwenden einen Bayer-Sensor, aber auf diese Feinheiten gehe ich hier nicht ein.

Wenn ein Bild (beispielsweise auf dem Monitor) hinreichend viele Pixel hat, dann bemerkt man diese nicht mehr – es sei denn, man geht sehr nahe heran. Je mehr Pixel sich auf demselben Raum zusammenquetschen, desto dichter kann ich natürlich herangehen, bevor ich die Pixel bemerke. Einige kennen vielleicht dieses Bild:

i-6ecef13936ef78cbd011bc2b012991bc-73HarmonLincoln-s.jpg

S. Harmon, Scientific American, November 1973, “The Recognition of Faces”.

Wenn ihr genau hinseht (oder besser: Wenn ihr ein Stück weggeht oder die Augen etwas zusammenkneift), dann könnt ihr Abraham Lincoln erkennen – aber ein so grobes Pixelraster wäre dann für einen Monitor doch etwas arg.(Künstlerisch wurde der Pixel im Pointillismus entdeckt, hübsche Beispiele auch aus neuerer Zeit gibt es hier.)

Fazit: Viele Pixel sind günstig, weil sie es erlauben, auch noch Details gut zu erkennen. Ab einer bestimmten Pixelzahl hilft eine weitere Erhöhung aber nicht mehr viel, denn sooo dicht geht man ja an ein Bild normalerweise nicht heran. Nach dieser Logik scheint es also tatsächlich so, dass mehr Pixel immer besser sind; allerdings nimmt der Vorteil weiterer Pixel irgendwann immer mehr ab.

Kamera-Pixel
Auch eine Digitalkamera hat Pixel – allerdings soll die ja Bilder aufnehmen, nicht anzeigen (außer auf dem Display zur Bildkontrolle, aber das spielt jetzt keine Rolle). Die Pixel sitzen auf einem Sensor, der das Bild, das von der Kameraoptik erzeugt wird, aufnimmt. Dieser Sensor ist eine spezielle Art von Chip, ein sogenannter CCD-Chip (CCD steht für “charged coupled device” – ladungsgekoppeltes Gerät).

Um das Problem beim Megapixel-Wahn zu verstehen, müssen wir uns ganz grob ansehen, wie so ein Chip funktioniert. (Ich bleibe hier sehr oberflächlich, denn die Problematik kann man auch ohne viel Halbleiterphysik verstehen.) Der Sensor-Chip besteht aus einem Halbleitermaterial. Fällt Licht auf ein solches Material, so kann es im Material Elektronen aus ihren Atombindungen losschlagen. Legt man an den Halbleiter eine elektrische Spannung an, so werden die Elektronen angezogen und sammeln sich an der Oberfläche des Halbleiters, da, wo der Pluspol der Spannung liegt.

Das einfallende Licht besteht ja aus Photonen – jedes davon kann ein Elektron losschlagen.1 (Die Energie der Photonen ist typischerweise höher als die, die man zum Losschlagen braucht, aber ein Losschlagen von zwei Elektronen auf Mal ist sehr unwahrscheinlich.) Fällt viel Licht (also viele Photonen) auf den Halbleiter, dann werden auch viele Elektronen losgeschlagen, fällt wenig Licht drauf, dann sind es wenige Elektronen. Misst man die Zahl der Elektronen, dann weiß man also, wieviel Licht den Sensor erreicht hat.

1Die Wellenlänge der Photonen spielt hier also zunächst keine Rolle – um trotzdem Farbfotos aufnehmen zu können, verwendet man deshalb Farbfilter; wer mehr wissen will, kann oben dem Link zum Bayer-Sensor folgen.

Für jeden Bildpunkt brauchen wir ein solches Halbleiter-Bauelement. (Die aber alle zusammen auf einem einzigen Chip sitzen.) Ein Kamerachip mit etwa 6 Megapixeln hat so etwa 2000 mal 3000 Pixel. Entsprechend viele einzelne Bauelemente müssen in einem CCD-Chip zusammengefasst werden. (Das Clevere am CCD-Chip ist dabei die Art, wie die Ladung ausgelesen wird – dazu dient eine “Eimerkettenschaltung”. Aber auch die ist für uns hier nicht so wichtig…) Dank moderner Halbleiter-Technologie ist es überhaupt kein Problem, ein paar Millionen solche Bauelemente auf einem Quadratzentimeter unterzubringen.

Rauschen und anderer Ärger
Wenn wir noch mehr Pixel wollen, dann müssen wir die einzelnen Bauelemente einfach etwas kleiner machen. Je kleiner aber ein Pixel ist, desto weniger Photonen fallen auf das Bauelement, wenn wir den Auslöser drücken. Und wenn wir zwischen der dunklen Augenbraue und der hellen Haut von Mr. Lincoln einen Unterschied sehen wollen, dann müssen auf das Bauelement, das für die Abbildung der Haut zuständig ist, ein paar mehr Photonen fallen als auf das, das das Licht der Augenbraue messen soll. Wenn also zu wenig Photonen auf ein Bauelement fallen, dann ist irgendwann Schluss.

Quetscht man also mehr und mehr Megapixel auf dieselbe Sensorfläche, dann leidet die Empfindlichkeit. Wäre die Welt perfekt, dann wären wir von der kritischen Grenze, wo Augenbraue und Haut nicht mehr zu unterscheiden sind, noch weit entfernt. Aber die Welt ist nicht perfekt. Wie so oft ist es die Temperatur (und damit letztlich die Entropie), die hier viel Ärger bereitet. Falls ihr euren CCD-Chip nicht stark kühlt (solche Kameras gibt es für Spezialanwendungen – Florian sollte sich da auskennen), dann betreibt ihr euren CCD-Chip bei Raumtemperatur. Und dabei steht immer ein bisschen Energie durch thermische Schwingungen zur Verfügung, die ausreichen kann, um ebenfalls ein paar Elektronen loszuschlagen. Diese thermische Energie erzeugt also ein Signal – und weil Elektron gleich Elektron ist, kann der CCD-Chip natürlich nicht wissen, ob ein Elektron nun durch ein Photon oder durch Temperaturanregung losgeschlagen wurde.

Solange ihr bei Sonnenschein fotografiert, ist das kein Problem: Dabei kommt genügend Licht auf den Chip, so dass die paar thermisch angeregten Elektronen nicht ins Gewicht fallen. Wenn ihr aber im Dämmerlicht fotografieren wollt, fallen nur recht wenige Photonen auf den Chip. Ihr könnt natürlich die Belichtungszeit länger machen, um mehr Photonen einzusammeln, aber das Porträt im Kerzenlicht sieht bei einer Belichtungszeit im Sekundenbereich nicht mehr wirklich überzeugend aus.

Stattdessen verwendet eure Kamera einen Trick: Das Signal der Elektronen wird künstlich verstärkt. (Eure Kamera erzählt euch dann etwas von einem hohen ISO-Wert, der gibt die Empfindlichkeit an.) Dabei verstärkt sich aber auch das Rauschen, und plötzlich seht ihr seltsame Bildpunkte da, wo eigentlich keine sein sollten. Als Beispiel hier mal ein Ausschnitt aus einem Bild, das ich vor zwei Jahren in Japan gemacht habe:

i-0b22bbcb6d0365b0bd5a5bf07665e80d-100_1140Clip1-thumb-489x567.jpg

Wenn ihr das Bild aus der Nähe anguckt, dann seht Ihr das hier (ich habe das Bild hochskaliert, aber ohne Interpolation):

i-764a3dcfc1b7a7071912386f7f669a44-100_1140Clip2.jpg

Zum einen fällt hier das komische Raster auf – das liegt an der JPG-Kompression, die die meisten Kameras verwenden, damit die Bilddateien nicht zu riesig werden. (Bessere Kameras erlauben meist ein Speichern im RAW-Format, bei dem die Rohdaten des Chips unverarbeitet gespeichert werden – das hat allerdings den Nachteil, dass man erst nachbearbeiten muss.) Zum anderen seht ihr aber die seltsamen farbigen Flecken. Die kommen durch das Verstärken des Bildrauschens zustande. An einigen Stellen haben die roten Pixel mehr gerauscht, an anderen die blauen oder grünen, und die eigentlich graue Fläche sieht seltsam gesprenkelt aus.

Mehr Megapixel auf derselben Fläche führen also zu mehr Bildrauschen – die Bildqualität wird nicht unbedingt besser, sondern gerade bei schlechtem Licht sogar schlechter. Die meisten Kameras haben Rauschunterdrückungsprogramme eingebaut, um das Problem abzumildern – aber da ein Programm nicht wissen kann, ob ein Farbfleck nun real ist oder durch Rauschen kommt, gehen diese Programme letztlich immer auf Kosten der Bildqualität.

Wieviel Megapixel braucht man wirklich?
Gute Frage. Für normale Fotogröße reichen 6 Megapixel allemal. Für Poster sagen viele Leute, dass man dort mehr Pixel braucht. Das hängt aber immer davon ab, was genau ihr mit dem Poster machen wollt: Wenn ihr es direkt neben euren Lieblingssessel hängt, dann werdet ihr es natürlich häufig stark aus der Nähe sehen und dann mag eine “Pixeligkeit” vielleicht unangenehm auffallen. Der Normalfall dürfte aber sein, dass man ein Bild ja eigentlich als Ganzes betrachtet – wenn das Poster größer wird, dann geht man auch weiter Weg, um es anzusehen. Entsprechend braucht man für ein großes Poster nicht unbedingt mehr Pixel.

Wer “echte” Pixeleffekte wie zum Beispiel Kanten, die wie Treppen aussehen, vermeiden will, der kann noch zu einem anderen Trick greifen: Das Bild mit einer Bildbearbeitungssoftware skalieren, so dass aus einem Pixel mehrere werden. Dabei entstehen natürlich (anders als bei irgendwelchen Krimiserien, wo man ja in der Reflektion der Flasche auf dem Tisch hinter der Scheibe des Cafes durch Reinzoomen noch die Zigarettenmarke des rauchenden Schurken auf der anderen Straßenseite erkennen kann) keine neuen Bildinformationen, aber pixelige Kanten werden durch die Programme “geglättet”. (Eventuell müsst ihr hinterher vorsichtig etwas nachschärfen.) Mit dieser einfachen Technik habe ich schon mal ein Bild mit etwa einem einzigen Megapixel (das als Hintergrund in einer Fotomontage diente) auf DIN A2 aufgeblasen – und noch niemand hat sich über die “Pixeligkeit” beschwert. (Und wenn ihr mal ganz dicht an Werbeplakate rangeht, werdet ihr auch da Pixel erkennen.)

Und auch hier gilt wieder: Was nützen euch 14 Megapixel, wenn die voller Rauschen und Farbfehler stecken? Eine gute Diskussion der Problematik findet ihr auch hier und ein paar Zahlenwerte hier.

Wenn nicht Megapixel, was dann?
Nachdem ich euch nun überzeugt habe, dass die Megapixel nicht das wichtigste an der Kamera sind – was dann?

Eins sollte sofort klar sein: 6 Megapixel sind nicht gleich 6 Megapixel. Meine gute alte Nikon verteilt ihre 6 Megapixel auf einen Sensor mit einer Fläche von etwa 370Quadratmilimeter, bei einer einfachen modernen Kompaktknipse ist die Sensorgröße vielleicht nur 20 oder 30 Quadratmillimeter. Jeder Bildpunkt hat also nur ein Zehntel der Fläche (noch weniger, wenn man mehr Megapixel draufpackt), und ist entsprechend rauschanfälliger. Was den Sensor angeht, ist also die Frage nach der Größe viel wichtiger als die nach der Megapixelzahl – leider findet man diese Angabe nicht so leicht, denn die Firmen halten ihre Sensorgrößen typischerweise konstant und machen damit deshalb nicht so viel Werbung (“Seit 10 Jahren mit Sensorgröße 35Quadratmillimeter” klingt halt nicht so toll…).

Und warum macht man die Sensoren nicht einfach größer? Der Sensor misst ja das Bild, das von der Optik (sprich: den Linsen) erzeugt wird. Macht man den Sensor größer, dann braucht man entsprechend eine größere Brennweite und damit größere Linsen. Größere Linsen wiederum haben Probleme mit Farbfehlern oder Verzerrungen – um die auszugleichen, besteht ein modernes Objektiv für eine Spiegelreflexkamera typischerweise aus einem ganzen Satz von Linsen. Und damit sind größere Linsen eben teuer – für ein anständiges Objektiv einer Spiegelreflexkamera kann man locker ein paar Hundert Euronen auf den Tisch legen, wenn man die übrig hat (falls jemand nach einem Weihnachtsgeschenk für mich sucht…). Die winzigen Glasscherben, die man vor eine Kompaktkamera (oder gar eine Handykamera) basteln muss, sind wesentlich preiswerter. (Wobei man auch mit ner Handykamera gute Fotos machen kann – solange genügend Licht da ist. Beispiele findet ihr in der unten zitierten Fotoschule.)

Das zweite, worauf es bei einer Kamera also ankommt, ist die Optik. Und da gibt es viele Dinge, die man in Betracht ziehen kann – Brennweite, Blende, Aberration, Verzeichnung, Bokeh und und und. Da das hier aber keine Kaufberatung sein soll, sondern nur ein Plädoyer gegen den Megapixelwahn, verweise ich auch dafür auf die Fachliteratur (zumal ich selbst auch nur wenig Ahnung davon habe).


Wer mehr wissen will: Die Seite 6mpixel gibt detailliert Auskunft über Rauschen, Auflösung und andere Probleme in Verbindung mit dem Megapixel-Wahn.

Und wer mehr über’s Fotografieren allgemein wissen will, dem empfehle ich unglaublich gute Ralfonso Fotoschule. Falls ihr euch im Dschungel von ISO, Blende, Tiefenschärfe und all diesem Zeug nicht zurecht findet und eure Kamera lieber immer auf Automatik stehen lasst oder falls ihr genau wissen wollt, worauf man beim Kauf einer Kamera achten sollte, könnt ihr euch dort schlaulesen.

Kommentare (37)

  1. #1 roel
    12. Mai 2011

    @Martin B. Super Artikel! Das Problem und worauf ich bei Digital-Kameras achten muß kannte ich zwar, aber nicht so detailiert und so gut erklärt. Es macht immer wieder Spaß auf “Hier wohnen Drachen” zu lesen.

  2. #2 derari
    12. Mai 2011

    Ein weiter Punkt ist dass die von Dir angesprochen kleinen Linsen auch nur eine sehr beschränkte Auflösung haben (man misst hier glaube ich in Zeilen/mm). Ein Chip mit höherer Auflösung bringt also nichts, wenn die Linse keine bessere Qualität hat.

  3. #3 Jan von nebenan
    12. Mai 2011

    Sehr schöner & informativer Artikel! Ich verwende ja immer noch eine altertümliche Kleinbild-SLR, damit habe ich zumindest solche Probleme nicht. 😉

  4. #4 ABQ
    12. Mai 2011

    Wunderbar erklärt (hat sich aber auch ein kleiner Fehlerteufel eingeschlichten:
    “aber ein Losschlagen von zwei Elektronen auf Mal ist sehrunwahrscheinlich.”) !

    Der Megapixelwahn erinnert mich auch an den Megahertzwahn bei PC-CPUs, der mittlerweile, soweit ich das mitkriege, in einen “Megaanzahl-an-Kernen-Wahn” umgeschlagen ist.

  5. #5 ZielWasserVermeider
    12. Mai 2011

    Hmmm … dazu kommt noch das Grundrauschen der Chips.
    Selbst wenn man die Objektivkappe drauflässt und kein Photon sein Weg auf den Sensor findet, würde man im Bild noch ein Rauschen sehen.

    Und das hängt auch noch von der Temperatur ab.(Dei Chips porduzieren im Betrieb Wärme(Verlustleistung) was dazu führt, daß z.B. bei meiner Kamera die Aufnahmelänge der Videos auf 7 min am Stück begrenzt ist.)

    Soweit ich ich erinnere werden bei der Astrofotografie manchmal Chips runtergekühlt um die Empfindlichkeit und das Rauschverhalten zu verbessen. Um aus dem Bild das Grundrauschen rauszurechnen, wird ein Schwarzbild gemacht und mit den später aufgenommenen Bildern verechnet.(Ich erinnere mich dunkel in einem Artikel von FF und andern Quellen gelesen zu haben.)

    Dei Fläche eine Chips spielt natürlich in Kombination mit dem richtigen Objektiv und der Kameraelektronik ein Rolle.

    Mein Olympus E-P1 (mFT)kann mit einem angeflanschten alten lichtstarken Minoltaobjektiv(Blende 1.4-11, 50mm) noch rauscharme Bilder machen(Dämmerung/Dunkelheit) wo auch das mitgeliefete Kitobjektiv schon weniger gute Bilder macht. Und das ist immmer noch Welten Besser als die Kompaktknipsen mit ihren Minisensoren, die schon bei leichter Dämmerung oder Innenaufnahmen(ohne Blitz)die Füsse strecken.

    Gruß
    Oli

  6. #6 MartinB
    12. Mai 2011

    @derari
    Danke, das mit den Linsen wusste ich noch nicht – wieso haben denn Linsen Zeilen? Sind das Fresnel-Linsen?

    @ZWV
    Äääh, ja, das mit dem Grundrauschen habe ich doch erklärt, sogar die gekühlten Chips erwähnt… Das mit dem Schwarzbild ist glaube ich wieder ne andere Sache – da geht es um Bildfehler im Sensor; das Rauschen ist ja stochastisch, das kann man mit nem Schwarzbild ja nicht reproduzieren, oder?

    @roel, Jan, ABQ
    Danke für’s Lob.

  7. #7 ZielWasserVermeider
    12. Mai 2011

    @ MartinB

    Hab ich wohl überlesen…. muss die Müdigkeit sein 😉

    Gruß
    Oli

  8. #8 definition
    12. Mai 2011

    Ich hab mich zwei Sachen gefragt.

    Inwiefern spielt eigentlich die beugungsbedingte Auflösungsbegrenzung eine Rolle? Ich könnte es halt nur so grob abschätzen, weil ich halt die genaue Auflösung der Chips nicht kenne. Das liefert doch auch eine obere Grenze. Ich frage mich nur ob das überhaupt relevant ist, oder ob das Rauschen des Chips und andere Effekte entscheidender sind.

    Außerdem hab ich mich gefragt, ob es überhaupt Sinn macht, wenn man jetzt 4 Pixelfarben (mit zusätzlichem Gelb) verwendet, statt der üblichen 3 (rot, grün und blau). Da wir Menschen doch sowieso nur drei Farbrezeptoren haben, klingt mir das irgendwie nach zu viel Marketing Strategie. So nach dem Motto, wenn es sich nur wissenschaftlich genug anhört und sich eine Firma sagen kann, dass das ja sonst niemand macht (weils vielleicht unsinnig ist?), dann steht das Produkt wieder als etwas Besonderes da.

  9. #9 WolfgangK
    12. Mai 2011

    Nicht erwähnt wurde, dass neben Megapixel und Objektiv ein ganz wichtiger Faktor zur Güte des Fotos beiträgt, nämlich die Farbqualität des CCD-Chips. Es gibt durchaus ebensolche Unterschiede in der Farbverarbeitung, z.B. wie gut sich der Chip an Sonnen-, Tages- oder Kunstlicht anpassen lässt. So hatte eine bestimmte Marke lange Zeit den Ruf, bei Tageslicht grünstichige Bilder zu liefern. Die folgenden Neuentwicklungen waren zwar besser, erreichten die Qualität anderer CCD-Chips jedoch nie wirklich.
    Ich fotografiere deshalb immer noch auf einem inzwischen 7 Jahre alten Digitalknipser von Olympus mit ausgezeichnetem CCD-Chip, optischem 3xZoom und lediglich 3,2Mpixel, und das nur auf der zweithöchsten Auflösung HQ. Mit dieser Kamera habe ich nicht nur Poster erstellt, sondern ebenso Webseiten bestückt. Im Übrigen war der Vorgänger dieser Kamera ein Gerät gleicher Marke mit lediglich 1,3Mpixel, welche ebenso seinerzeit schon ausgezeichnete Bilder lieferte.

  10. #10 MartinB
    12. Mai 2011

    @definition
    Die Beugung begrenzt das sicher irgendwann – wenn ich 12MP auf 30mm^2 unterbringe, dann hat ein Pixel eine Kantenlänge von wenigen Mikrometern – viel kleiner wird es vermutlich nicht gehen (bin aber kein Optik-Experte, weiß nicht exakt, was die Grenze da ist.)
    Das mit den 4 Farbpixeln habe ich bisher nur für Fernseher gehört – ob’s was bringt, weiß ich nicht, es mag aber sein, dass man da den Farbbereich etwas erweitert, sie z.B. dieses Bild auf Wiki:
    https://de.wikipedia.org/w/index.php?title=Datei:CIE-Normfarbtafel.png&filetimestamp=20110411013802

  11. #11 Niels
    12. Mai 2011

    @MartinB

    Das mit dem Schwarzbild ist glaube ich wieder ne andere Sache – da geht es um Bildfehler im Sensor; das Rauschen ist ja stochastisch, das kann man mit nem Schwarzbild ja nicht reproduzieren, oder?

    Das Rauschen ist zwar stochastisch, allerdings reagiert jeder einzelne Pixel unterschiedlich stark auf Temperatureinflüsse, jeder Pixel hat also eine andere Empfindlichkeit und ein individuelles Rauschverhalten.
    Diese Empfindlichkeit kann man dann durch mehrere Dunkelbildaufnahmen recht gut bestimmen und dann für jeden Pixel individuell den Dunkelstrom abziehen.
    In der Astronomie ist das dringend nötig, da man mit sehr lichtschwachen Objekten sehr lange belichtet.
    Letztlich kann man das schon irgendwie auch Bildfehler nennen, davon spricht man aber soweit ich weiß nur, wenn dieser Effekt sehr groß ist, ein Pixel also fast völlig schwarz oder weiß bleibt.

  12. #13 nihil jie
    12. Mai 2011

    Ziemlich interessanter Artikel. Da ich nie besonders viele fotografiere, habe ich mich dementsprechend nur sehr wenig mit der Thematik beschäftigt. Nicht das ich jetzt plötzlich Lust aufs Fotografieren bekommen hätte… nein das eher nicht, aber die technische Seite finde ich schon ziemlich spannend. Im allgemeinen erschöpfen sich im Moment die Möglichkeiten der Miniaturisierung, in Bezug auf Integrierte Schaltkreise, etwas in allen Bereichen. Gerade auch wegen diverser Effekte aus der Welt des Aller-kleinsten.

  13. #14 Chris
    12. Mai 2011

    Hallo,
    schöner Artikel.
    @Auflösungsgrenze
    Auf optischer Seite hängt die unter anderem von Wellenlänge und vor allem der Aperturblende* ab. Was dann meistens auf den Durchmesser des Objektivs rausläuft.
    Grob ist das für den kleinsten auflösbaren Winkel = 1,22*lambda/Daperturblende, folgt aus dem Rayleigh-Kriterium.

    Die jpeg Kompression und Vorverarbeitung kann ich ja ehrlich gesagt gar nicht ab, verlustbehaftete Kompresison und pauschale Vorverarbeitung müssen doch heute eigentlich nicht mehr sein…

    @megapixelwahn
    Für die denen 15MPixel noch zu wenig und deren Geldsäckel dafür übervoll sind, gibts aber auch ordentliches Spielzeug:
    https://hasselblad.de/produkte/digital-rueckteile/cfv-50.aspx
    https://www.phaseone.com/de-de/Digital-Backs/IQ180/IQ180-Info.aspx

    *Die Blende im optischen System die die Größe vom Lichtbündel begrenzt, ein echtes anfassbares Bauteil.

  14. #15 Engywuck
    12. Mai 2011

    Wenn ich deine Formel mit 1,22*lambda/D nehme, kommt bei 500nm und 2,5mm Aperturblendendurchmesser (dürfte bei ner Handykamera ja in etwa hinhauen) ein Winkel von 0,000244 raus. Bei einem Abstand zum Sensor von 1cm (Handydicke) und sin alpha=tan alpha (kleiner Winkel) gibt das einen kleinsten auflösbaren Abstand auf dem Chip von 2,44 Mikrometern. Bei quadratischen Pixeln und 35mm² Sensorfläche wären das 5,88 Megapixel (ca. 167000pro Quadratmillimeter). Nett, dass das mal wieder nahe der “magischen” 6 Megapixel liegt 😀

    Größere Chips haben übrigens nicht nur fertigungstechnische Nachteile. Aufgrund der längeren Strecken sind diese meines Wissens schwerer auszulesen, so dass die “Totzeit” zwischen zwei Aufnahmen größer wird (oder gibt es inzwischen Chips, die segmentweise “durchs Substrat” ausgelesen werden?)

  15. #16 Ex-Esoteriker
    13. Mai 2011

    Hallo MartinB

    Super Artikel, da ich selber Hobbyfotograf bin, kenne ich das leidige Thema Megapixcelwahn.

    Aber was das wichtigste mit überhaupt ist: Ein großer Sensor, gute verbaute Innenlebentechnik und wenige Megapixel nutzen überhaupt nix, wenn die Linsen im Objektiv sehr schlecht sind (schlechte Auflösung, schlecht verarbeitet, zu starke chromat. Aberration usw.).

    Ach ja, wer mal lust hat, und vor allem seeehr viiiel Geld und will mal richtig gute Kameras ausprobieren könnte es mal bei dieser Firma tun: < a href="https://www.Scienceblogs.de">https://www.hasselblad.de/ oder
    < a href="https://www.Scienceblogs.de">https://www.rcp-technik.com/typo3/index.php?id=rollei-home

    Sind praktisch die “Ellitefirmen” unter den Digicams, Hasselblade hatte sogar die Kamera entwickelt, die auch für die Astronauten auf dem Mond nutzbar waren, soweit ich weiss.

  16. #17 Stephan
    13. Mai 2011

    Wieder was gelernt. Daß das Rauschen von der Wärme kommt. Gut, wenn Physiker erklären…

  17. #18 MartinB
    13. Mai 2011

    @Ex-Esoteriker
    Klar, die Optik ist wichtig – sag ich doch auch oben (siehe den Satz mit dem Weihnachtsgeschenk 😉 )

  18. #19 Chris
    13. Mai 2011

    Hallo,
    @engywuck
    Bevor man in den Bereich kommt müsste man eine Optik haben die sowas zulässt, das hab ich einfach verschwiegen. 😉
    Gerade Handykameras sind eher durch ihre Bildfehler begrenzt als durch die Beugung.

    Größere Chips haben übrigens nicht nur fertigungstechnische Nachteile. Aufgrund der längeren Strecken sind diese meines Wissens schwerer auszulesen, so dass die “Totzeit” zwischen zwei Aufnahmen größer wird (oder gibt es inzwischen Chips, die segmentweise “durchs Substrat” ausgelesen werden?)

    Bei CMOS chips kann man das. Die werden auch in Fotokameras benutzt, aber deutlich seltener. Die Möglichkeit einzelne Pixel anzusprechen wird einem da aber nicht gegeben, man will ja die Hobbynutzer nicht überfordern…

  19. #20 Ex-Esoteriker
    13. Mai 2011

    Klar, die Optik ist wichtig – sag ich doch auch oben (siehe den Satz mit dem Weihnachtsgeschenk 😉 )

    Stimmt, steht ja da, deine Weihnachtswünsche 🙂

    Ach ja, will euch mal ein schönes selbstgemachtes Foto zeigen, hoffe, es gefällt euch.

    < a href="https://www.Scienceblogs.de">https://img6.imagebanana.com/img/schtsq7o/Baumzwilinge.jpg

  20. #21 Noblinski
    13. Mai 2011

    Heute habe ich eine winzige Kamera mit 12 MPx, die mich immer wieder in der Qualität fasziniert. Früher hatte ich ein analoges Riesending, habe mir beim Fotografieren bald einen abgebrochen und war dann doch oft unzufrieden mit dem Ergebnis.

    In dem Beitrag fehlt mir ein Hinweis auf den grundsätzlichen Informationsgehalt eines Photons. Bei kleiner werdenden Sensoren nimmt doch der Ausschnitt aus der Kugelwelle ab, von dem das Pixel getroffen wird. Muß man da eine physikalische Grenze erwarten?

    Leider im Spamfilter hängengeblieben, tut mir Leid.
    Ein Photon trägt eine bestimmte Energiemenge – die Energiemenge hängt von der Wellenlänge ab. Das einzelne Photon wird immer an einem Ort lokalisiert – die Abnahme des Kugelwellenausschnitts entspricht einfach der Tatsache, dass dann weniger Photonen (weniger Energie) auf einen Sensor fallen.

  21. #22 Dr. Webbaer
    13. Mai 2011

    Mehr Pixel bedeuten immer auch ein Mehr an Daten, und somit (fast immer) ein Mehr an Information. Dass diese oft nicht benötigt wird, ist richtig, dass diese aber der Abstraktion, die der Informationsgewinnung vorausgeht, schadet, ist falsch.

    MFG
    Dr. Webbaer

  22. #23 Roger Hunziker
    13. Mai 2011

    Das Thema wollte ich auch schon lange einmal in meinem Blog bringen, jetzt seid ihr mir aber zuvorgekommen 😉 Ich ärgere mich auch schon lange über diesen Megapixelwahn- wie ihr richtig schreibt, 5-6 Megapixel sind eigentlich für (praktisch) alle Anwender völlig ausreichend! Meiner Meinung nach werden die Sensoren aber in erster Linie aus Kostengründen nicht grösser gemacht, ein grösserer Sensor würde auch den Preis ziemlich erhöhen.
    Wie wäre es mit dem Thema: “Alterung bei CCD’s” dazu gibt es im Internet eigentlich keine wirklich guten Artikel und die Hersteller wollen dieses ungeliebte Thema wohl auch lieber totschweigen! Fakt ist, ich habe hier zuhause eine Kamera die 5 Jahre alt ist, vergleiche ich Bilder aus früheren Jahren wird ein enormer Qualitätsverlust sichtbar..

  23. #24 MartinB
    13. Mai 2011

    @Roger
    Soll ich jett sagen “Sorry für den ideenklau” oder lieber “Great minds think alike” 😉
    Ja, die größeren Sensoren bedingen halt ne bessere Optik, das ist teuer.

    Über Alterung bei CCDs weiß ich nicht viel – wenn du dazu was schreibst, verlinke oder verweise ich gern hier, das ist ja auch interessant. Oder du schreibst einen Gasteintrag (oder bewirbst dich gleich bei der Redaktion als Blogger…)

  24. #25 Dr. Webbaer
    13. Mai 2011

    Die im Redaktionsbereich befindliche Anlese –

    Denn vor allem bei Digitalkameras, die – in einer Analogie zum Mooreschen Gesetz – von Generation zu Generation mehr Megapixel erfassen und speichern können, ist vermutlich längst die Grenze erreicht, ab der weitere Megapixel keinen zusätzlichen Nutzen für die Bildqualität mehr bringen, sondern im Gegenteil, eher die Qualität verschlechtern können.

    – ist irreführend.

    Die im Artikel angesprochenen Herausforderungen, Unterbelichtung (dafür hat man seit Urzeiten Hardware) und Kompression, bedingen keine generelle Abwertung neu vorhandener Technologie.

    MFG
    Dr. Webbaer

  25. #26 Synchron
    13. Mai 2011

    Warum baut man nicht in die Kamera einen weiteren minichip mit ein paar Pixeln ein, der im absoluten dunkel liegt und ausschließlich die termischen Einflüsse misst. Damit müsste man die Probleme doch reduzieren können oder?
    Im Spamfilter Hängengeblieben – leider erst heute gemerkt.
    Die Idee mit dem zweiten Chip funktioniert nicht, weil die thermischen Schwankungen ja überall auf dem Chip unterschiedlich sind. Dahinter steckt nur der Zufall, kein System.

  26. #27 Bullet
    13. Mai 2011

    @MartinB:

    Meine gute alte Nikon verteilt ihre 6 Megapixel auf einen Sensor mit einer Fläche von etwa 370Quadratmilimeter,

    D50/D70 ? *g*

    Zum Thema “Zeilen/mm”: eine Linse (=ein Objektiv) kann auch ein matschiges Bild machen – damit sinkt die Auflösung in Zeilen/mm, weil die Strahlengangsgeometrie nicht paßt. Das Objektiv ist quasi dauerhaft unscharf. Passiert leider häufiger bei der Produktion. Ich hatte mal ein 50-150mm APO mit diesem Problem. 🙁
    Deswegen sind Festbrennweitenobjektive ja so begehrt: weniger Brennweitenbereich-Fummelei macht eben exakteren Strahlengang.

    Ach so, und für Weihnachten:
    Ein Objektiv gefällig?

  27. #28 MartinB
    13. Mai 2011

    @Wb
    ?? Welche Hardware hat man denn gegen Unterbelichtung?

  28. #29 MartinB
    13. Mai 2011

    @Bullet
    Nö, ich habe ne ganz simple D40 (gerade noch gekauft, bevor es nur noch die D40-X mit 10MP gab…). Aber was soll ich denn mit sonem Objektivtrümmer – braucht man da nen Waffenschein?

  29. #30 Bullet
    13. Mai 2011

    man braucht vor allem einen Lottoschein. Aber den richtigen.

  30. #31 Bullet
    13. Mai 2011

    @WB:

    Mehr Pixel bedeuten immer auch ein Mehr an Daten, und somit (fast immer) ein Mehr an Information.

    Wunderbar. Es geht hier um Fotografie und unscharfe oder verrauschte Bilder. In diesem Falle ist also genau das Spezialgebiet angerissen, das in deinem “fast immer” nicht inkludiert ist. Denn es sollte auch dem letzten Debilen klar sein, daß ein Bild einer glattweißen Wand mit 24 MP fotografiert nicht detailreicher ist als mit 2 MP. Wenn dann auch noch Bildrauschen dazukommt, hast du selbst bei einem zwölfmal so hoch aufgelösten Bild weniger Information als in einem 2-MP-Bild ohne Rauschen. Denn wir wissen: Rauschen ist per se keine Information.

    Es hätte mich wirklich erfreut, mal was korrektes von dir zu lesen. Wieder Pech.

  31. #32 rolak
    13. Mai 2011

    Deswegen hat er ja “(fast immer)” dazugesetzt, auf daß er im Nachhinein nur die Fälle meine, in denen er Recht hat. Dies hatte mich von der Antwort abgehalten.
    Dafür könnte er mit der Hardware gegen Unterbelichtung richtig liegen: Blitz, Scheinwerfer, … 😉

  32. #33 ZielWasserVermeider
    13. Mai 2011

    @MartinB

    Es muss ja nicht gerade ein neues teures Objektiv sein.

    Ich hab an meine EP1 über einen Adapter ein Minolta Rokkor 1.4 50mm angeflanscht.
    Man kann mit dem Adapter eine Menge alte objektive an die Kamera anbringen.
    Die Brennweite wird zwar etwa verdoppelt, aber die alten Objektive sind, auch wenn man sie nur manuell bedienen kann, in ihren Abbildungsleistungen sehr gut.

    Das Objektiv hat mich gerade mal 50 Euro gekostet…. da kann ich auch bei schlechter Beleuchtung noch super Bilder schießen.

    Gruß
    Oli

  33. #34 MartinB
    13. Mai 2011

    @Oli
    Ja, sowas hab ich auch schon überlegt – so richtig der Held bin ich im manuellen Scharfstellen aber nicht…

  34. #35 s.s.t.
    15. Mai 2011

    Man findet über alle möglichen Kameras zahlreiche Testberichte. Die Kundenbewertungen bei Amazon sind z.T. sehr ausführlich und können ebenfalls hilfreich sein. Man muss halt nur ein wenig wissen, worauf es einem ankommt. Ansonsten hilft auch der Gang in ein Fachgeschäft, um die diversen Modelle praxisgerecht auszuprobieren. Dieser Besuch ergab z.B. bei mir den Kauf einer (analogen) Minolta XD7, eine erstklassige Kamera für den Amteurgebrauch.

    Seit meiner Exa 500, der DDR sei Dank, bin ich ein Spiegelreflex-Fan (der Foto-Anfang war eine Box) . Gewicht und Sperrigkeit nehme ich in Kauf. Seit gut einem Jahr habe ich auf eine Canon 7D ‘aufgerüstet’ (mit 18-135 mm). Die 18 Megapixel hatten mich fast von dem Kauf abgeschreckt, aus den angeführten Gründen; die technischen Möglichkeiten gaben den Ausschlag und ich habe die Entscheidung einige 10.000 Aufnahmen später zu keinem Augenblick bereut.

  35. #36 miesepeter3
    17. Mai 2011

    Ich werde sofort meine 120 Megapixel Waschmaschine verkaufen und mir einen
    3D Kühlschrank anschaffen.

  36. #37 Andreas P.
    18. Mai 2011

    Also 6MP halte ich auch für zu wenig, wenn man mehr macht als ab und zu mal “knipsen”, ich würde das Optimum für den Hobby-Fotografen eher so bei 10-12MP sehen, mehr schadet nicht wenn man’s bezahlen kann, natürlich passende Sensorgröße vorausgesetzt (APS-C oder Four Thirds oder gar Full).

    Warum? Ich hab zwei wesentliche Reserven um im Nachhinein was zu reparieren (neben den normalen Nachbearbeitungsmöglichkeiten): zusätzliche Bildauflösung und zusätzlichen Belichtungsspielraum (RAW Format).
    Einen wirklich optimalen Bildschnitt schaffe ich sowieso nie, da ich mir immer etwas Rand lasse (wer sich schon mal ne tolle Aufname durch einen angeschnittenen Kopf oder ähnliches versaut hat weiss wovon ich rede), aber manchmal stellt man auch bei der Nachbearbeitung fest, das es noch viel besser kommt wenn man das halbe Bild wegschneidet, und das ist bei 6MP nicht mehr vernünftig möglich. Noch schlimmer wirds, wenn man sich die Möglichkeit offenhalten will, mal ein ordentliches Fotobuch oder sonstigen (etwas größerformatigen) Print zu machen, da ist man über jedes Megapixel Reserve froh.
    Und runterrechnen kann man immer, Auflösung hochrechnen nie.

    @s.s.t
    ich hab mit ner Exa 1b angefangen 🙂