Kaum dass ich im allerersten Blogartikel angekündigt habe, dass ich hin und wieder bemerkenswerte Themen aufgreifen werde, schmeißt mir Fortuna ein Papier vor die Füße, das genau in mein Beuteschema passt. Es geht um CCD-Technik, wie sie in großen Sternwarten und beim Hubble-Weltraumteleskop, aber auch von Amateuren eingesetzt wird. Auf Twitter kam ein Retweet im Feed von Emily Lakdawalla, dass ein Paper einen völlig neuen Fehler beschreibe, der fast alle großen Sternwarten betreffe. Das Paper liegt im Draft auf arXiv, ich habe es mir durchgelesen und finde, es passt hervorragend in meine Kategorien “bemerkenswert” und “welche Methoden & Geräte verwenden Astronomen”. Darum möchte ich es Euch hier vorstellen.
Was sind CCDs?
Seit ungefähr 30 Jahren verwenden Astronomen keine Fotoplatten mehr, sondern elektronische Sensoren, wie sie in ähnlicher Form in Digitalkameras verwendet werden. In letzteren kommen normalerweise stromsparende CMOS-Chips zum Einsatz. In den meist zur Vermeidung von Rauschen gekühlten und auf optimale Lichtausbeute getrimmten Astro-Kameras, die es auch im Kleinformat für Amateurastronomen gibt, werden normalerweise die etwas weniger sparsamen, aber lichtempfindlicheren CCD-Sensoren eingesetzt (Charged-Coupled Devices). Im Prinzip besteht ein CCD aus einer Matrix von lichtempfindlichen Zellen (Halbleiter-Fotodioden), in denen einfallende Photonen aus einer Halbleiterschicht Elektronen losschlagen, die dann in der Zelle in einem Potenzialtopf (eine Art Kondensator) gesammelt werden, bis sie am Ende der Belichtungszeit ausgelesen werden. Je mehr Elektronen und ergo elektrische Ladung der Potenzialtopf einer CCD-Zelle enthält, desto mehr Photonen hat sie aufgefangen, und so kann die ausgelesene Ladung in einen Helligkeitswert gewandelt werden. Die Helligkeitswerte aller Pixel des CCDs ergeben das Bild.
Die Pixel werden seriell ausgelesen, und zwar zeilenweise, indem die Ladungen der Zellen im Auslesetakt Pixel für Pixel in Richtung der Ausleselogik und schließlich in diese hinein verschoben werden. Man spricht auch von einer “Eimerkettenschaltung”, weil die Ladungen von Zelle zu Zelle wie Eimer Wasser in einer Menschenkette von Nachbar zu Nachbar weitergereicht werden. Die schwachen analogwertigen Ladungen müssen vor dem Auslesen zuerst von einen Verstärker hochgepegelt werden (was unvermeidliches Verstärkerrauschen hinzufügt) und werden dann in einem Analog-Digital-Konverter (ADC) in digitale Zahlenwerte gewandelt. So wird die Zeile Pixel für Pixel zusammengesetzt. Mehrere Zeilen werden der Reihe nach auf diese Weise durch die gleiche Ausleselogik geschoben.
Um das Auslesen zu beschleunigen, werden oft mindestens zwei Ausleseschaltungen parallel betrieben, die für verschiedene Zeilen (etwa nur gerade bzw. ungerade Zeilennummern) oder Segmente des CCDs zuständig sind.
Bildfehler bei CCDs
CCDs sind erheblich lichtempfindlicher als Fotoplatten (es werden “Quantenausbeuten” von bis zu 90% erreicht – also 90% aller einfallenden Photonen lösen ein Elektron aus; bei fotografischen Platten schwärzen nur 5-10% der Photonen ein Filmkorn) und auch wesentlich linearer: doppelter Lichteinfall bedeutet doppelte Ladung. Deswegen kann man mit ihnen hervorragend Messungen machen, beispielsweise der Helligkeit aufgenommenenr Sterne oder der Tiefe von Spektrallinien, die etwa die chemische Zusammensetzung oder das Vorhandensein von unsichtbaren Begleitern verraten können. Es gibt aber eine Reihe von bekannten Fehlern, die die Bildqualität beeinflussen, die man aber mit der geeigneten Aufnahmetechnik sehr gut in den Griff bekommt.
Überbelichtete Pixel quillen aus den Potenzialtöpfen heraus und laufen dann in die Nachbarpixel der gleichen Zeile über, das sogenannte Blooming, das meist beidseitige Streifen neben hellen Objekten verursacht. Dagegen helfen spezielle Chips mit Anti-Blooming-Schaltungen, die Barrieren zwischen den Pixeln aufbauen. Und natürlich sollte man sein Zielobjekt nicht überbelichten, aber manchmal ist eine viel hellere Störquelle gleich nebenan. Statt einer einzelnen, langen Aufnahme kann man aber auch zahlreiche kurze Aufnahmen machen und diese später im Rechner aufaddieren (stacken). Diese Technik wird außerdem dazu eingesetzt, das Bildrauschen zu verringern. Und wenn man von Aufnahme zu Aufnahme das Bild ein wenig gegen den Chip verschiebt, kann man die Bildschärfe über die Pixelauflösung hinaus erhöhen und Hot Pixels (s.u.) vermeiden (Dithering).
Die Optik des Teleskops leuchtet vor allem große Chips meist nicht gleichmäßig aus. Üblicherweise hat man am Bildrand weniger Licht, man spricht von Vignettierung. Staubteilchen auf dem Sensor können gleichfalls dunkle Stellen verursachen; sie befinden sich auf der äußeren Fläche des Schutzglases oder Filters dicht vor dem Sensor und werfen einen unscharfen Schatten, da nur der Sensor exakt im Fokus des Teleskops liegt. Solch unterbelichtete Stellen bekommt man leicht in den Griff, indem man sogenannte Flat Frames (oder kurz “Flats”) anfertigt, das sind Aufnahmen einer möglichst gleichmäßig hellen Fläche (etwa der Innenseite der Teleskopkuppel oder des noch aufgehellten Himmels in der Dämmerung). Flats kann man später mit Stacking-Software so mit den Rohbildern verrechnen, dass die dunkleren Bereiche auf dem Flat das Rohbild genau an den unterbelichteten Stellen aufhellen. Damit erreicht man eine gleichmäßige Belichtung über das gesamte Bild.
Durch Verunreinigungen des Halbleitermaterials bei der Fertigung oder nachträgliche Beschädigungen (z.B. Gammastrahlen) können einzelne Zellen defekt sein und Elektronen freisetzen, obwohl sie kein Licht getroffen hat, man spricht von Hot Pixels. Außerdem neigen manche Chips dazu, sich ungleichmäßig zu erwärmen, was das Grundrauschen erhöht; an solchen heißen Stellen belichtet sich der Chip durch sein Rauschen selbst. Um Hot Pixels und Bereiche mit erhöhtem Grundrauschen zu eliminieren, verwendet man Dark Frames, das sind Aufnahmen mit verdecktem Sensor in absoluter Dunkelheit, welche die gleiche Belichtungszeit wie die eigentlichen Zielaufnahmen haben müssen, so dass die Erwärmung und die Hot Pixels in gleicher Weise auftreten wie im späteren Bild, nur eben ohne Nutzsignal. Man kann sie dann später von den Rohbildern abziehen, um das Bildrauschen zu verringern. Das tun sogar viele Consumer-Digitalkameras bei langen Belichtungszeiten ganz automatisch.
Schließlich tritt beim Auslesen noch Rauschen im Verstärker und dem ADC auf. Dieses eliminiert man durch Bias-Frames, das sind Dark Frames mit der kürzestmöglichen Belichtungszeit, die dementsprechend nur Rauschen der Ausleselogik enthalten. Die Bias-Frames werden vom Rohbild, den Darks und Flats subtrahiert. All das erledigt die Stacking-Software. Damit erhält man wunderbar kalibrierte, linear skalierende Aufnahmen, mit denen man hervorragend Wissenschaft betreiben kann, z.B. im Very Large Telescope in Chile, im Keck-Observatorium auf Hawaii, oder im Hubble-Weltraumteleskop. Dachte man jedenfalls – bis vergangene Woche.
Der Binäre Offset-Effekt
Am 20. Februar reichten K. Boone (Berkeley Lab), G. Aldering (University of Berkeley), Y. Copin (Université de Lyon) und 5 weitere Forscher (darunter Saul Perlmutter, Nobelpreisträger 2011 für die (Mit-)Entdeckung der Dunklen Energie) ihre Arbeit
A BINARY OFFSET EFFECT IN CCD READOUT AND ITS IMPACT ON ASTRONOMICAL DATA
auf arXiv ein. Darin beschreiben sie einen bisher völlig unbekannten Fehler von CCDs, den sie in zahlreichen Kameras der bedeutendsten Sternwarten der Welt nachweisen konnten, und der in subtiler Weise mit Zahl der Einsen zusammenhängt, die der Helligkeitswert eines Pixels in binärer Darstellung enthält. Und das ist folglich kein Fehler, den man einfach mit einem extra Korrektur-Frame herausrechnen könnte. Aber ganz hoffnungslos ist die Lage nicht.
Der Fehler fiel zuerst bei der Kalibrierung einer SNIFS (SuperNova Integral Field Spectrograph) genannten Kamera auf. Beim Aufnehmen von Flats in der Kuppel des Teleskops war den Autoren aufgefallen, dass auf einer Hälfte des CCDs bei kurzen Belichtungszeiten ein Mangel an Signal herrschte. Bei längeren Belichtungszeiten war das nicht der Fall. Es betraf nur sehr schwache Signale knapp oberhalb der Rauschschwelle des Ausleseverstärkers (Bias-Rauschen) und nur eine Hälfte des Sensors, die von einem anderen Verstärker ausgelesen wurde als die zweite Hälfte.
Man konnte den Fehler isolieren, indem man betrachete, wie sich die Helligkeit des zweiten oder dritten in Folge ausgelesenen Pixels nach einem anfänglich betrachteten Pixel (im folgenden Driver-Pixel genannt) in Abhängigkeit von dessen Helligkeit entwickelte. In Bild 1 ist dies dargestellt: im oberen Diagramm sind auf der x-Achse mögliche Helligkeitswerte (bezeichnet als Analog Digital Units, ADU) des Driver-Pixels aufgetragen und auf der y-Achse die Differenz (ebenfalls in ADUs) zum nominellen Wert, den das zweite dem Driverpixel folgend ausgelesene Pixel eigentlich haben sollte. Die blaue Linie zeigt, wie die Helligkeitsdifferenz (kurz Offset) in Abhängigkeit vom Helligkeitswert des Driver-Pixels ausfällt. Da es sich um Flat Frames handelt, sollten alle Pixel (in Abwesenheit von o.g. Belichtungsunterschieden, was hier der Fall ist) eigentlich gleich hell sein und somit idealerweise eine horizontale Linie bei 0,0 ergeben.
Der rote Strich entspricht dem mittleren Helligkeitswert des Ausleserauschens (Bias) und der orangefarbene Bereich drumherum eine Standardabweichung für die normalverteilten Werte des Rauschens. Jeder Zahlenwert an der x-Achse wird im ADC als Binärzahl erzeugt. Senkrechte gestrichelte Linien sind dort gezogen, wo mindestens 5 Bits von 1 auf 0 wechseln. Beispielsweise wechselt gleich rechts vom orangefarbenen Bereich der Helligkeitswert 1279 ADU (binär 100 1111 1111) auf 1280 ADU (binär 101 0000 0000), hier kippen also gleich 8 Einsen auf Null um und nur eine Null auf Eins. Genau an den Stellen, wo ähnliches passiert, zeigt die blaue Linie steile Sägezahn-Flanken. In der unteren Hälfte des Bildes ist die Zahl der Einsen in der binären Zifferndarstellung der jeweiligen Zahlen auf der x-Achse dargestellt, und es zeigt sich ein dem oberen Diagramm verblüffend ähnliches Muster.Was bedeutet das nun? Wenn die Zahl der Einsen in der Zifferndarstellung des ausgelesenen Helligkeitswerts eines Pixels sich zum nächsten Pixel hin stark ändert, dann sind das übernächste oder drittnächste Folgepixel dunkler als sie es sein sollten. Und der Fehler kann beim betrachten Sensor bis zu 2,5 Helligkeitsschritte (ADUs) ausmachen. Was deutlich mehr ist, als die erwartete Toleranz des Chips, der laut Spezifikation bis auf +/- ein halbes ADU genau die empfangene Lichtmenge reproduzieren können sollte.
Das folgende Bild 2 zeigt, wie sich der Effekt auf einer Aufnahme zeigt. Hier wurde kein Stern aufgenommen, sondern die hellen Pixel überlagert, die von zufällig und unvermeidlich einschlagenden Gammastrahlenquanten auf dem Sensor verursacht werden, welche auch auf Dark Frames auftauchen (ein Grund, mehrere Dark Frames aufzunehmen und zu einem Summen-Dark zu überlagen); die Idee dürfte gewesen sein, einen möglichst dunklen Hintergrund und möglichst scharfe Lichtpunkte zu erhalten, die man in dieser Weise bei einer realen Himmelsaufnahme nicht bekommt (Beugungsbilder der Sterne, aufgehellter Himmelshintergrund). Die Aufnahmen waren eigentlich angefertigt worden, um die Effizienz der Ladungsverschiebung beim Auslesen des Chips zu messen.
Man sieht denn auch vom hellsten Pixel ausgehend eine feine Linie nach oben laufen. Dies sind die in den Pixeln beim Auslesen vorübergehend hängen gebliebenen Ladungsträger, die darüber Zeugnis ablegen, dass die Verschiebungseffizienz etwas kleiner als 100% ist. Vor allem sieht man einen dunklen Klecks ein paar Pixel rechts vom Summenbild der Gammastrahlen, der da nicht hingehört. Hier wird also der durch das Ausleserauschen verursachte Hintergrund abgedunkelt.
Kann man den Effekt erklären?
Interessanterweise betrifft der Fehler, der den SNIFS-Nutzern schon früher aufgefallen war, aber noch nie im Detail analysiert wurde, nur eine Hälfte des Chips, die über eine separate Ausleselogik verfügt. Grund dafür ist, dass bei diesem Verstärker das Grundrauschen genau an der Schwelle von 1280 ADUs liegt, so dass ein paar zusätzliche Signal-Elektronen zu einem höheren Pixelwert mit sehr viel weniger Einsen in der Binärdarstellung führen, als dem ansonsten durch das Bias-Rauschen verursachten Pixelwert von knapp unter 1280. Bei dem Verstärker, der für die andere Hälfte des Chips zuständig ist, liegt das Rauschen etwas höher bei 1285 ADUs, binär 101 0000 0101, da ändert sich die Zahl der Einsen auf den nächsten Wert 1286 = 101 0000 0110 gar nicht. Dennoch treten natürlich bei anderen Pixelwerten die gleichen Effekte auf, nur nicht so zuverlässig.
Was ist nun die Ursache des Fehlers? Die Fotodioden auf dem Sensor wissen nichts von Bits, das sind einfach analoge Ladungswerte, egal ob sie vom Rauschen oder von einer Lichtquelle herrühren. Der Fehler muss im Digitalteil des Sensors zu suchen sein. Die Autoren vermuten, dass die Crux beim Analog-Digital-Konverter liegt. Der ADC verwendet nämlich eine Referenzspannung, und die generierten Werte hängen sehr empfindlich von der Stabilität dieser Spannung ab. Wenn nun nach der Wandlung ein Wert mit zahlreichen Einsen noch im Ausgabe-Schieberegister zwischengespeichert wird, bis der Computer, der den Sensor ausliest, den Wert abholt, dann führt offenbar die dort gespeicherte Ladung zu einem Übersprechen auf die Referenzspannung, denn sie erzeugt ja ein elektrisches Feld, das umso größer ist, je mehr Einsen gespeichert werden. Damit werden unmittelbar nachfolgende A-D-Wandlungen verfälscht, was den beobachteten Offset in Abhängigkeit von der Zahl der Einsen des Driver-Pixelwerts erklärt.
Ist das schlimm?
Nun könnte man das Ganze als irgendeinen weiteren Fehler in einem Präzisionsgerät abtun, den man halt abzustellen hat. Die Autoren besorgten sich jedoch Dark- und Bias-Aufnahmen der Kameras anderer großer Sternwarten der vergangenen Jahre und Jahrzehnte – und wurden fündig. In 16(!) von 22 untersuchten Kameras wurde der Effekt nachgewiesen. Darunter große Namen wie das 8,1 m Gemini-Doppelteleskop auf Hawaii (2 von 4 Kameras betroffen, 1,4 ADU Offset), das nebenan stehende 10 m-Keck-Observatorium (alle 4 Kameras, eine davon mit bis zu 2,6 ADU Abweichung), das VLT (2 von 3 Kameras, nur 0,1 ADU Offset) und sogar das Hubble-Weltraumteleskop (alle 3 Kameras mit bis zu 4,5 ADU Offset beim STIS-Spektrographen). Bild 3 zeigt beispielhaft die Auswertungen von 4 Kameras für (offenbar) verschiedene Aufnahmen (farbige Kurven). Der Fehler dürfte aber noch sehr viel mehr Geräte betreffen, möglicherweise auch im Amateurbereich.
“Wer misst, misst Mist” sagt ein alter Ingenieurspruch – haben die großen Sternwarten in den vergangenen Jahrzehnten also nur Mist gemessen? Der Tweet, der mich auf den Artikel aufmerksam machte, bezeichnete das Papier als “spannend und beängstigend”. Bei hochpräzisen Messungen, etwa von Spektren, mit denen man Planeten entdecken oder ihre Atmosphären in der Durchsicht auf ihren Stern untersuchen möchte, kommt es auf höchstmögliche Präzision an und man erwartet natürlich bei der Fehlerrechnung die Präzision, welche vom Hersteller für die Kamera angeben ist. Auf der anderen Seite ist es ein sehr spezieller Effekt, der nur bestimmte Helligkeitswerte betrifft, insbesondere bei geringem Hintergrundrauschen in der Nähe eines großen Binärziffernsprungs und bei sehr schwachem Signal, und er betrifft Spektrographen mehr als einfach abbildende Kameras.
Deswegen sind die bisherigen Aufnahmen der genannten Teleskope natürlich nicht komplett unbrauchbar, aber es dürfte sich lohnen, die Daten in speziellen Fällen, in denen der Effekt eine Rolle spielen könnte, noch einmal zu analysieren. Das betrifft insbesondere den STIS-Spektrographen des Hubble-Weltraumteleskops. Denn der Fehler lässt sich korrigieren. Die Autoren haben den Effekt nicht nur identifiziert und modelliert, sondern auch ein Programm geschrieben, mit dem man ihn aus den Rohbildern wieder weitgehend herausrechnen kann. Das folgende Bild zeigt, wie der Offset bei SNIFS nach Anwendung des Programms auf weniger als +/-0,5 ADU im relevanten Bereich oberhalb des Ausleserauschens reduziert werden konnte, und das ist in der Größenordnung der Toleranzen des SNIFS-Sensors.
Die Autoren stellen den Lesern das Programm netterweise online zur Verfügung, so dass Forscher ihre Daten nachträglich und künftig damit korrigieren können. Die Autoren fanden, dass der Effekt pro Gerät erfreulicherweise über die Jahre unverändert blieb, was die Korrektur wesentlich vereinfacht. Man braucht ihn pro Sensor nur einmal anhand von Dark- und Bias-Frames zu messen und kann dann alle Rohbilder mit den gleichen Einstellungen der Software korrigieren.Die Konsequenz wird sein, dass zukünftig alle CCDs im professionellen Einsatz auf den binären Offset-Effekt hin untersucht werden müssen und ggf. die Rohdaten korrigiert, was glücklicherweise dank des Modells und der Software der Autoren sehr gut möglich ist. Es ist davon auszugehen, dass sich auch die Hersteller mit dem Problem beschäftigen werden müssen und künftig auf bessere Isolation der Referenzspannung ihrer ADCs zu achten haben. Es ist jedenfalls bemerkenswert und in der Tat auch ein wenig erschreckend, dass nach mehr als 30 Jahren des Einsatzes von CCDs in der Astronomie noch ein bisher vollkommen unbekannter Bildfehler mit solcher Verbreitung aufgespürt werden konnte.
Referenzen:
[1] K. Boone, G. Aldering, Y. Copin, S. Dixon, R. S. Domagalski, E. Gangler, E. Pecontal, S. Perlmutter: “A Binary Offset Effect in CCD Readout and Its Impact on Astronomical Data“, veröffentlicht auf arXiv:1802.06914 und eingereicht am 20. Februar 2018 .
Kommentare (39)