Hinweis: Dieser Artikel ist ein Beitrag zum ScienceBlogs Blog-Schreibwettbewerb 2016. Hinweise zum Ablauf des Bewerbs und wie ihr dabei Abstimmen könnt findet ihr hier.
Das sagt der Autor des Artikels, Frank H über sich:
Keine Angabe
——————————————
In der Reihe Sensorwissen möchte ich in nächster Zeit nicht nur einige Grundlagen über unseren geliebten digitalen Fotoapparat erklären, sondern zeigen, was in der Zukunft zu erwarten sein wird und was aus physikalischen Gründen auf ewig Utopie bleibt.
Intro
Bevor es mit dem ersten Thema los geht, ein paar Stichpunkte, wo die Reise mit dieser Reihe hin gehen wird:
Wie funktioniert die Lichtumwandlung? – Wo sind die physikalischen Grenzen (bzw. wie weit weg sind wir im Moment noch)
8Bit, 12Bit, 16Bit… Helligkeitsauflösung – Was ist sensorseitig machbar in Richtung HDR?
8Bit, 12Bit, 16Bit… – Die Begriffe Auflösung und Dynamikbereich erklärt.
Megapixel – Warum widersprechen sich „mehr Megapixel“ mit „weniger Glas (= weniger Gewicht)“
Noch ist das alles nicht fixiert. Vielleicht entwickelt sich die Reihe auch etwas anders.
Ich möchte dabei die Beiträge so schreiben, dass sie vor allem von Nichtfachleuten verstanden werden. Zumindest werde ich mich daran versuchen.
Sensorempfindlichkeit
Und sogleich bemühe ich mich, völlig ohne Gleichungen zu erklären, was Sensor-Empfindlichkeit inhaltlich und praktisch für uns bedeutet:
Was heißt Empfindlichkeit?
Ein digitaler Sensor, in unserem Falle also ein 2D Bildsensor, ist um so empfindlicher, je feiner aufgelöst er seine Messgröße, also die Lichtmenge, in ein Signal wandeln kann. Also, mit welcher Genauigkeit und Feinstufigkeit er die Lichtmenge auflösen kann. Genau so wird aber auch unter dem Begriff verstanden, wie weit „runter“ er seine Messgröße messen kann. Also mit wie wenig Licht er auskommt, um ein noch gut aufgelöstes Signal zu generieren, dass dann digitalisiert als Bildinformation auf der SD-Karte oder sonstwo zur Weiterverarbeitung landet. Wir haben letztlich einen gewünschten Messbereich von “absoluter Finsternis” bis irgendwas bei “Sonne im Zenit und Schnee am Boden”. Wir betrachten in diesem Artikel also zwei Eigenschaften des Sensors:
*Messbereich
*Auflösung
Im Dunkeln liegt die physikalische Grenze
Dieser Abschnitt ist der Wesentlichste überhaupt. Obwohl, oder gerade weil er schon am Anfang steht. Denn eins unserer Probleme ist, dass wir zum Fotografieren meistens zu wenig Licht haben. Entweder um die Verstärkung zur Rauschminderung zu minimieren (ISO) oder die Belichtungszeit zu verkürzen, um mehr Schärfe trotz Bewegung zu gewinnen oder die Blende zu schließen, um mehr Schärfe in der Tiefe zu gewinnen. Mit zu viel Licht werden wir immer klar kommen. Zur Not setzen wir einen Graufilter vor die Linse. Aber bei zu wenig? Hilft in Wirklichkeit nichts ausser einem besseren Sensor. Doch genau da gibt es eine Grenze, bei der die Technologie bereits nahezu angekommen ist. Diese Grenze heißt
Quanteneffizienz
Braucht man das? – Ja!
Braucht man das wissen? – Wer neugierig ist: ja! ?
Wie wir (hoffentlich) aus der Schule noch wissen, besteht Licht nicht aus einer beliebig teilbaren und damit verringerbaren „Substanz“, sondern ist bereits in kleine Stückchen aufgeteilt, die als Lichtquanten bezeichnet werden. Unser Sensorelement können also nur 1, 2 oder 3 und mehr Lichtquanten treffen und nicht 1,0 1,1 1,2…
Demzufolge lässt sich im besten Falle innerhalb eines Pixels erfassen, ob es in einer bestimmten Zeit (Verschlusszeit, Belichtungszeit) 0, 1, 2, 3 oder mehr Lichtquanten erreicht hat. Diese Schrittweite um jeweils 1 Lichtquant ist unsere physikalisch begrenzte Auflösung der Lichtmenge, die in der Belichtungszeit auf ein Pixel einwirkt. Feiner geht für dieses Pixel nicht, weil es etwas Feineres als so ein Quant gar nicht gibt. Feiner würde nur gehen, wenn wir das Pixel in der Fläche vergrößern. Denn dann würden bei einer bestimmten Lichtstärker nun mehr Quanten eingefangen.
Um diese Grenze zu erreichen, müsste nun unsere Elektronik im Sensor möglichst so gut sein, dass sie diese Quanten pro Pixel „zählen“ kann. Doch wie zählt ein Pixel die einfallenden Quanten? Das ist eigentlich recht einfach erklärt:
Je nach Chip hat ein Pixel etwa eine Oberfläche von knapp unter 1 bis 6 µm Kantenlänge (in wenigen Fällen ist das Pixel auch noch etwas größer, bei dann meist geringer Bildauflösung). Das Pixel muss nicht zwangsläufig quadratisch sein (nur die Anordnung ist eine quadratisch strukturierte Matrix), da auch noch andere Strukturen im Chip mit eingebaut werden müssen. Es ist aber meist zumindest näherungsweise quadratisch.
Stellen wir uns ein Pixel als ein kleines Gefäß vor mit einer Oberfläche von wenigen Quadratmikrometern. In dieses Gefäß werden vor der Belichtung 10.000 Wassertropfen eingefüllt. Während der Belichtung hoffen wir nun, dass jedes Lichtquant, dass das kleine Gefäß von oben erreicht, genau einen Wassertropfen aus dem Gefäß schleudert. Zum Schluß messen wir, wie viel Tropfen noch im Gefäß sind. In Wirklichkeit befinden sich um die 10.000 Elektronen in einem Substrat eines winzigen Kondensators gefangen, der gleichzeitig eine Fotodiode ist (genauer: meist um die 1000 bis 30.000, je nach Pixelgröße). Die Lichtquanten können Elektronen „durch den Kondensator schlagen“ und ihn dabei während der Belichtungszeit entladen. – Dass das sehr vereinfacht gesprochen ist, muss uns nicht weiter interessieren.
Für die aktuellsten Bildsensoren und vor allem für die Zukunft muss ich diesen soeben geschriebenen Artikel relativieren. Verschiedene Tricks der Hersteller, den Dynamikbereich eines Sensors zur erweitern haben zur Entwicklung von Verbesserungen geführt, durch die ein Pixel nicht einfach die einfallende Lichtmenge hochlinear aufzusummieren. Zum Thema Dynamikbereichserweiterung werde ich später einen eigenen Artikel schreiben, da hier vor allem noch Entwicklungsspielraum für die nächsten Jahre ist.
Unabhängig davon gibt es inzwischen in Form von speziellen industriellen Bildsensoren, die zum Beispiel für die Verkehrsüberwachung eingesetzt werden, auch andere Prinzipien, um einen teils extrem großen Dynamikbereich abzudecken. Deren Pixel arbeiten eben nicht so hochgenau linear, wie unsere aktuellen Sensorzellen. Statt dessen sind sie darauf getrimmt, die Lichtmenge schon im Pixel im logarithmischen Maßstab zu summieren. Diese Sensoren sind bis auf Ausnahmefälle für die Fotografie nicht geeignet, da sie die Graustufungen durch diesen riesigen Dynamikbereich nur sehr grob digitalisieren. Eine Aufnahme unter normalen Lichtbedingungen würde dann mit nur 4 Bit und weniger digitalisiert werden.
Doch nun zurück zum allgegenwärtigen Sensor.
Gehen wir jetzt davon aus, dass wir einen Sensor vor uns haben, der keinen Filter verwendet, um nur bestimmte Farbbereich zu erkennen, also einen Schwarz-Weiß-Sensor. Dann könnte er pro eintreffendem Lichtquant gleich welcher Farbe (Wellenlänge) und einem damit herausgeschleuderten Wassertropfen, also Elektron, jedes Lichtquant zählen, bis der kleine Wasserbehälter, also der Kondensator, leer ist.
Kann er das? Ja, fast. Das Verhältnis aus eintreffenden Lichtquanten und herausgeschleuderten Wassertropfen (Elektronen) bezeichnet man als Quanteneffizienz. Fast bedeutet bei modernen Sensoren eine Quanteneffizienz von derzeit um die 60%.
Nehmen wir mal ganz rund 50% an, bedeutet das, dass im Mittel jedes zweite Lichtquant erfasst wird und durch die nachfolgenden elektronischen Arbeitsschritte auch gezählt werden könnte.
Die physikalische Grenze wäre, jedes Quant zu registrieren. Das zu erreichen sieht nach „viel“ aus. Also von 60% auf 100% Quanteneffizienz. Aber das ist es nicht: Dieser maximale Verbesserungsfaktor von knapp 2 würde die Empfindlichkeit leider nur noch um einen einzigen Lichtwert, also eine ganze Blendenstufe oder ein ganzer Belichtungswert in Richtung kürzerer Belichtungszeit oder kleinerer Blende verbessern. Aus praktischer Erfahrung wissen wir, dass das zwar schön, aber auch keine Weltbewegung ist.
Halten wir fest: Die Verbesserung der Quanteneffizienz kann die Empfindlichkeit der aktuellen Sensoren bestenfalls noch um knapp einem Lichtwert verbessern.
Schatten vor dem Sensor
Die CMOS-Technik hatte es bisher mit sich gebracht, dass man im Schaltkreis , also dem Siliziumscheibchen, dass in unsere Kamera gebaut wird, nur in der untersten Ebene die lichtempfindliche Schicht (Sensorebene) einbringen konnte und darüber die notwendigen Bauelemente zur Steuerung und Auslesung des Pixels aufbringen musste.
Zum Verständnis muss ich hier einen kleinen Einschub machen. „Unten“ bedeutet hier noch(!) in der untersten Ebene der dünnen nutzbaren und bearbeiteten Schicht auf der Oberseite der Siliziumscheibe. Alles Silizium darunter ist hier nur mechanischer Träger. Dieser Träger ist relativ dick, damit uns der Chip bei der Herstellung und in der Kamera nicht zerbricht.
Diese Bauteile und Leitungsführungen führten zu einer Abschattung des nutzbaren Bereiches in der Sensorebene. Ein Ärgernis, aber aus physikalischen Gründen muss die sensorische Schicht so tief liegen. Man machte demzufolge die einzelnen Pixel in der Fläche etwas kleiner, baute die Bauelemente darüber in den Spalt zum nächsten Pixel und fügte oben drauf eine Linse, die möglichst alles einfallende Licht so nach unten beförderte, dass sämtliche Quanten wieder die lichtempfindliche Pixelfläche trafen. Die Vergangenheitsform ist falsch: So wird das auch heute noch häufig gemacht.
Durch die Handybranche wurde aber viel Geld frei, besonders kleine Sensoren weiterzuentwickeln. Ziel war, mehr Megapixel zu schaffen, ohne den Sensor zu vergrößern. Die Elektronik blieb, aus physikalischen Gründen, in der vorhandenen Größe oder konnte nur sehr begrenzt verkleinert werden. Damit wird also das Verhältnis aus abschattender Elektronik und Pixelgröße besonders schlecht, je kleiner man das Pixel bauen möchte. Jedoch: Möchte man die Auflösung groß machen, also viele Megapixel, muss man jedes Pixel klein machen. Beim Smartphone sollen und müssen die Sensoren klein bleiben. Wegen der ungünstigen optischen Verhältnisse (kurze Längen, kleine Linsen). Dementsprechend blieben keine Spielräume. Denn kleinere Pixel bedeutet eine schlechtere Empfindlichkeit bzw. mehr Rauschen.
Nun haben viele Millionen Menschen Geld für Smartphones ausgegeben und damit auch die Weiterentwicklung der Bildsensoren mitbezahlt. Der neueste Schrei heißt nun „Rückseitig belichteter Sensor“. Ganz so neu ist das inzwischen auch nicht mehr, aber aktuell state-of-the-art.
Rückseitig belichteter Sensor
Der Herstellungsprozess von CMOS-Schaltkreisen konnte nicht prinzipiell geändert werden. Die fotoempfindliche Schicht ist weiterhin ganz unten in den aktiven Strukturen an der Oberfläche des Chip (in diesem Stadium ist es noch ein Wafer, der mehrere noch nicht voneinander getrennte spätere Chips umfasst.)
Nur hat man sich gefragt, ob man das Licht nicht einfach von unten in den Sensor einfallen lassen kann. Nun, da wären sicher auch schon unsere Vorfahren im alten Rom drauf gekommen. Das Problem ist nämlich, dass diese Schicht dick und kaum lichtdurchlässig ist. Ein Siliziumkristall ist eben kein Glas.
Die schon genannten Chancen, am Smartphonemarkt zu verdienen, brachte den notwendigen Schub, Maschinen für einen speziellen Bearbeitungsschritt zu entwickeln: Die Wafer mit den fertigen Sensorstrukturen an der Oberfläche werden auf der Unterseite so weit abgeschliffen, dass das Licht ungehindert die lichtempfindliche Schicht von unten erreicht. Oder „hinten“, je nachdem, wie man es betrachtet. Schleift man soweit, würde sich das verbleibende Material wohl in ein gerolltes Häutchen zusammentun. Aus diesem Grund muss vorher ein neuer Träger aufgebracht werden. Jetzt auf der bisherigen Oberseite. Dieser Träger ist dann im fertigen Chip die Unterseite, mit der der Chip auf eine Unterlage aufgebracht wird, die wiederum im Kameragehäuse fixiert werden kann. (Oder bei Sony typischerweise von Piezomotoren zur aktiven Verwacklungskorrektur bewegt wird.)
Das Meisterstück glückte. Und so produziert man neue, gute Sensoren heute als sogenannte rückseitig belichtete Sensoren. Bei Sony z.B. heißt das dann Exmor R, was vor dieser „Verdrehung“ der lichtempfindlichen Seite als Exmor hergestellt wurde. Man kann natürlich auch großformatige Sensoren mit dieser technologischen Finesse herstellen. Allerdings bringt das alleine nichts, weil der Anteil an Sensorfläche zu dem, den die Bauteile und Leiterzüge belegten, schon immer relativ groß war. Jedoch hat sich hier ein Fenster geöffnet: Je Pixel kann nun, vor allem eben bei diesen großformatigen Sensoren, allerhand Zusatzelektronik integriert werden, ohne dass sich das auf die Sensorempfindlichkeit auswirkt. Da wären zum Beispiel Schaltungstricks, den Dynamikumfang zu vergrößern. Den Herstellern fällt da bestimmt einiges ein, für das es sich mal lohnt, jetzt schon die aktuelle Patentlage zu inspizieren. Ich habe das noch nicht weiter verfolgt. Nachdem wir allerdings wissen, dass die Quanteneffizienz kein wesentliches Thema zur Verbesserung mehr ist, könnte hier noch einiges an Innovation auf uns warten.
Mikrolinsen und Filter
Die oben genannten Probleme mit der seitlich über dem Pixel befindlichen Elektronik und deren Lichtabschattung hat man schon früh dadurch gelöst, dass jedes Pixel eine eigene kleine Linse bekam. Auch bei den rückseitig belichteten Sensoren hat man das beibehalten. Es ist wohl ein gut gehütetes Geheimnis der wenigen Hersteller, wie man Millionen gleichartiger Mikrolinsen mit einer Kantenlänge im einstelligen Mikrometerbereich und darunter herstellt. Sinn und Zweck ist einzig, möglichst alles Licht, was nahezu aus allen Winkeln auf die pixeläquivalente Oberfläche des Halbleiters auftrifft, auf die empfindliche Fläche abzulenken. Insbesondere für Smartpohnes ist das wichtig, weil deren Linse eine extrem kurze rückseitige Fokusweite besitzt und unmittelbar vor dem Chip angeordnet ist, um die Bauhöhe der Anordnung klein zu halten. Für viel Licht wird die Linse mit ausreichend Öffnung (Durchmesser) versehen und das Licht trifft entsprechend mit sehr flachen Winkeln auf den Chip.
Während mittels der Mikrolinsen versucht wird, alles Licht auf die empfindliche Sensorschicht eines Pixels zu bringen, wird aber noch ein Filter vor jedes Pixel gesetzt, damit nur Wellenlängen eines Farbbreiches rot, grün oder blau das Pixel erreichen. Sonst könnte man keine Farbbilder erzeugen. Der Filter liegt zwischen Mikrolinse und Chip. Bei Filmkameras gibt es noch ein anderes Prinzip: Da werden drei Sensoren eingesetzt, die jeweils über den gesamten Sensor ein Filter einer Farbe gezogen bekommen. Die davor befindlichen teildurchlässigen Spiegel verteilen das Bild hinter dem Objektiv gleichzeitig auf diese 3 Sensoren. In der Fotokameratechnik ist das unüblich. Statt dessen besitzt jedes Pixel ein eigenes Farbfilter. Das Muster, welches Pixel mit welcher Farbe gefiltert wird, muss bekannt sein. Üblich ist z.B. die Bayer-Matrix. Aus dem Datenblatt eines Sensors geht jeweils hervor, welches Pixel, welchen Filter besitzt. In der Regel gibt es 50% Pixel mit Grünfilter und je 25% für Rot und Blau, was auch schon eine Optimierung ist, trotz Filterung möglichst viel Licht-, also Helligkeitsinformationen zu bekommen.
Auch bei den rückseitig belichteten Sensoren sind natürlich diese Farbfilter notwendig, wenn wir einen Farbsensor haben wollen. Das vergrößert den Abstand von Sensoroberfläche zur lichtempfindlichen Schicht wieder, obwohl dazwischen keine elektronischen Bauteile stören. Denn die liegen ja nun dahinter. Auch müssen die Pixel, also die dotierten pn-Übergänge, einen gewissen Abstand zur Nachbarzelle einhalten, damit die Elektronen nicht seitlich abdriften. Die Herstellung der Mikrolinsen ist technologisch gelöst. Um nun wiederum die verfügbare Fläche optimal zu nutzen, werden auch bei rückseitig belichteten Sensoren diese Mikrolinsen aufgebracht. Und auch seitlich sehr flach einfallendes Licht bei Smartphones (oben schon einmal erläutert) wird damit noch eingefangen.
Nun nochmal zurück zur Quanteneffizienz:
Durch die Notwendigkeit, bei Farbsensoren die Lichtumwandlung in ein Signal mittels Filter auszuführen, um die Farbinformation zu bekommen, ist es auch nicht theoretisch möglich, die gesamte Bildinformation mit 100% Quanteneffizienz als Farbbild umzuwandeln. Bei Farbsensoren liegt sie also prinzipbedingt aktuell noch deutlich unter diesen oben schon genannten 60% Quanteneffizienz.
Lässt sich das trotzdem verbessern?
Wenn es eine Möglichkeit gäbe, die Farbinformation in einer einzigen Pixelfläche ohne Filter zu erfassen, würde sich die Quanteneffizienz um 2/3 verbessern. Allerdings ist das nur eine Milchmädchenrechnung. Allein schon deshalb, weil die 3 Grundfarben nicht existieren, sondern es sich um ein Spektrum handelt, was wir in 3 Grundfarben wandeln. Und das tun wir auch nur deshalb, weil wir in der Wiedergabe mit diesen 3 Farben unsere Sehzellen anregen, die in diesen Farben ihr Wirkungsoptimum haben. Aber, halten wir fest, eine Farberfassung ohne Filter würde tatsächlich in der Größenordnung eines halben Lichtwertes etwas Empfindlichkeit bringen. Mir ist jedoch nicht bekannt, dass es da auch nur eine Idee gäbe, wie man das physikalisch machen kann. In einem Pixel Quanten alle Wellenlängen zu erfassen ist also noch Utopie.
Unter der Annahme, dass detaillierte Bildinformation im Graubereich enthalten ist und die Farbinformation für den Menschen mit niedrigerer Auflösung erfasst werden kann (JPG nutzt das z.B. aus), lassen sich auch Sensoren vorstellen, die teilweise Pixel ohne Filter in der Matrix haben (z.B. alle grünen Filter weg lassen und aus den Werten von Rot- und Blau-Pixeln wieder auf den vermutlichen Grünanteil zurückrechnen). Aber auch damit würde man nur im unteren zweistelligen Prozentbereich etwas an Quanteneffizienz herausholen. Bruchteile eines ganzen Lichtwertes. Und das ist leider nicht sehr relevant.
Große Pixel – Große Fläche
Wie bekommt man nun mehr Lichtquanten in ein Pixel, wenn schon nahezu alles Mögliche ausgeschöpft ist, Quanten auf ihrem Weg zum Pixel nicht zu vernichten (bis halt auf die notwendigen Farbfilter)?
Die Überschrift verrät es schon: Man muss das Pixel größer machen. Im Smartphone haben die Sensoren Pixelgrößen um 1µm und darunter. Bei Fotoapparaten kann man sich schon um die 5µm erlauben. Warum?
Wir möchten später im Bild eine bestimmte Mindestauflösung der Details haben. Fürs Filmen ist UHD Standard, 4k aktuell auch bei den Konsumer-Kameras im Kommen. Und bei Fotos hätten wir doch gerne wenigstens zwischen 10 bis 40 Megapixel. Nun ist ein Mikrometer zwar winzig klein, aber 1cm Kantenlänge sind letztlich auch nur 10.000µm. Ein Sensor im Smartphone kann sich keinen Zentimeter erlauben. Bei Kameras im üblichen Kleinbildformat gewährt man der langen Seite immerhin um die 3,4…3,6cm. Erkauft sich das aber auch mit entsprechend langen optischen Wegen zum Objektiv und entsprechenden Objektivgrößen, also Platz und Gewicht.
Nehmen wir an, wir möchten einen 24 Megapixelsensor im Verhältnis 4000×6000 Pixel auf 24x36mm herstellen. 36000 Mikrometer dividiert durch 6000 ist genau 6µm. Wollen wir eine höhere optische Auflösung, muss man entweder auf Lichtquanten pro Pixel verzichten (kleineres Pixel) oder die Fläche vergrößern. Zweiteres machen digitale Mittelformatkameras. Der Preis skaliert entsprechend. Und auch die Objektive werden nicht nur teurer, sondern auch größer (deshalb teurer in der Herstellung) und vor allem schwerer.
Das Ganze ist letztlich ein Optimierungsproblem und man kommt somit auf die allbekannte Spreizung zwischen Smartphonsensor über kompakte Kameras, kleinbildäquivaltente Kameras (24x36mm) bis hin zu Kameras, die für Spezialanwendungen (die auch das notwendige Geld einbringen müssen) mit größeren Sensoren optimiert sind.
Auch wir Fotoamatuere und Profis können uns drehen und wenden: Eine Immer-dabei-Kamera, die nicht übermäßig groß und schwer sein soll, also inklusive Objektiv, muss einen Sensor noch unterhalb des Kleinbildformates haben. Auflösung hoch, Pixelgröße runter – oder umgedreht. Das ist der verbleibende Spielraum, den wir kennen. Der Profi kann hier und da auch noch mehr Gewicht und Volumen mit sich rumschleppen, wenn sich das lohnt. Er benutzt dann eine Kamera mit einem Sensor irgendwo im Mittelformat. Und genau, weil das auf der Objektivseite schwer und kostspielig ist, wird das auch zukünftig nie ein Massenmarkt. Also werden auch die Kameras mit solchen Sensoren in kleinen Stückzahlen hergestellt und nicht billiger. Aber, selbst wenn die billiger würden: Die damit notwendige optische Leistung des Objektives bestimmt den Preis und das Gewicht.
Was ich damit sagen will: Bezüglich Auflösung und nahezu alles an Empfindlichkeit (s. oben) sind wir jetzt bereits an Grenzen angekommen, die nur noch wenig an das theoretische Maximum aufschließen werden.
Und?
Wie wir sehen, ist bezüglich Empfindlichkeit bezogen auf die theoretische Zahl und Auflösung an Lichtquanten das Ende der Fahnenstange schon fast erreicht. Die Theorie gibt uns noch etwa einen und nur theoretisch rund 1,5 Lichtwerte an die obere Grenze. Sind wir mit unseren Kameras deshalb tatsächlich schon an der Grenze des Machbaren?
Ohne den Koch
Bisher haben wir die Rechnung noch ohne den Koch gemacht. Wir haben die Zutaten angesehen, aber nicht beachtet, was im Kochtopf passiert. Betrachtet haben wir nur, wie viel Licht (Quanten) wie viel Einheiten (Elektronen oder von mir aus auch Wassertropfen) pro Pixel zur Messung generieren können. Was wir nicht betrachtet haben ist die Frage: Können wir denn tatsächlich auch alle Elektronen einzeln so genau zählen, dass sich die Quanteneffizienz als Empfindlichkeits- und Auflösungsmaß eignet?
Nein. Können wir nicht. Also nicht ganz. Wir haben nämlich nicht betrachtet, wie die Zählung der nach der Belichtung im Gefäß verbleiben Wassertropfen, also Elektronen, abläuft. Und wo da noch Schwächen sind, die verbessert werden können. Auch entfernen sich Elektronen während der Belichtung aus dem Pixel, ohne je ein Lichtquant gesehen zu haben. – Diese Fragen werden wir in einem späteren Artikel nachgehen, der sich mit Dunkelstrom, Rauschen und vor allem der notwendigen Digitalisierung befasst.
So viel zum Ende dieses Artikels:
Unsere Bilder, mit ihren digitalisierten Pixel-Lichtwerten, bekommen ihre Information aus der physikalischen Umwandlung von Lichtquanten in elektrische Ladungsträger sowie in der Digitalisierung dieser Ladungsträger in einen Zahlenwert. Wir haben in diesem Artikel nur den ersten Teil betrachtet. Nachdem das Pixel Licht gesehen hat und eine Restmenge an Elektronen in diesem Pixel verblieben ist, beginnt nun noch ein längerer Prozess, bis diese Elektronenzahl in einen Zahlenwert gewandelt wurde.
Ach… Da ist doch noch etwas:
Messbereich nach oben
Bisher haben wir untersucht, was wenig Licht auf unsere Pixel für Grenzen hat. Doch was ist mit viel Licht?
Wir haben ganz oben unseren winzigen Wasserbehälter mit 10.000 Tropfen Wasser gefüllt, bevor wir die Belichtung gestartet haben. Wenn wir nun etwa jedes zweite Lichquantum einfangen und es aus unserem Behälter einen Tropfen herausspritzen läßt, dann ist der nach 20.000 Lichtquanten leer. Und wenn noch mehr Lichtquanten eintreffen, bevor der Verschluß zu macht, dann wird er auch nicht leerer. Der Fachmann sagt dazu Sättigung. Der sieht den Behälter dabei umgangssprachlich anders rum: Also als ob er zuerst leer wäre und nach 10.000 Tropfen nicht mehr hinein geht, weil er überläuft. Er also gesättigt ist mit Tropfen.
Dass wir den Behälter zuerst füllen und mit Licht entleeren ist eine technische Besonderheit, die ich schon oben erwähnte. Man könnte es auch umgedreht machen: Zuerst den Kondensator von Elektronen entleeren und dann mittels Fotodiode füllen lassen. Egal, wie man es tut, ob man nun zuerst die Elektronen hinein füllt und dann leert oder bei der Messung sie erst hinein lässt: Es gibt technische Beschränkungen, die die Zahl der Elektronen begrenzt. Je nach Pixelgröße und Herstellungsverfahren liegt aktuell der Bereich bei um die 1.000 Elektronen bis um die 30.000 Elektronen „full well“, wie der Fachmann sagt (oder das Datenblatt). Das ist also die Start-Füllmenge an Elektronen. Wir können also bestenfalls, wenn wir tatsächlich jedes verbleibende Elektron nach der Belichtung abzählen, bestenfalls 30.000 Quantifizierungen über die vorher eingefallene Lichtmenge durchführen. Dieser Wert gilt aber nur für sehr große Pixel und sehr guter Sensoren.
Kommt mehr Licht auf das Pixel kann man es nicht leerer als leer machen. Und damit haben wir in diesem Artikel nicht nur die Empfindlichkeit besprochen, sondern auch die maximale Auflösung in dem Dynamikbereich, den der Sensor messen kann. Und nun nochmal mit Zahlenwerten:
Der Messbereich liegt also bei 0 bis (Größenordnung) 30.000 Messeinheiten (Elektronen oder Wassertropfen). Also bei 0 bis (Größenordnung) um die 60.000 Lichtquanten (ohne Farbfilter vor dem Pixel bei 50% Quanteneffizienz). Diese großen Zahlen entsprechen auch großen Pixeln. Bei normal-guten Kameras dürfte der Wert aktuell bei 10.000 bis 20.000 Elektronen pro Pixel liegen. Bei Smartphones und Kompakten geht er weiter runter.
Kommentare (11)