Kaum dass ich im allerersten Blogartikel angekündigt habe, dass ich hin und wieder bemerkenswerte Themen aufgreifen werde, schmeißt mir Fortuna ein Papier vor die Füße, das genau in mein Beuteschema passt. Es geht um CCD-Technik, wie sie in großen Sternwarten und beim Hubble-Weltraumteleskop, aber auch von Amateuren eingesetzt wird. Auf Twitter kam ein Retweet im Feed von Emily Lakdawalla, dass ein Paper einen völlig neuen Fehler beschreibe, der fast alle großen Sternwarten betreffe. Das Paper liegt im Draft auf arXiv, ich habe es mir durchgelesen und finde, es passt hervorragend in meine Kategorien “bemerkenswert” und “welche Methoden & Geräte verwenden Astronomen”. Darum möchte ich es Euch hier vorstellen.

 

Was sind CCDs?

Seit ungefähr 30 Jahren verwenden Astronomen keine Fotoplatten mehr, sondern elektronische Sensoren, wie sie in ähnlicher Form in Digitalkameras verwendet werden. In letzteren kommen normalerweise stromsparende CMOS-Chips zum Einsatz. In den meist zur Vermeidung von Rauschen gekühlten und auf optimale Lichtausbeute getrimmten Astro-Kameras, die es auch im Kleinformat für Amateurastronomen gibt, werden normalerweise die etwas weniger sparsamen, aber lichtempfindlicheren CCD-Sensoren eingesetzt (Charged-Coupled Devices). Im Prinzip besteht ein CCD aus einer Matrix von lichtempfindlichen Zellen (Halbleiter-Fotodioden), in denen einfallende Photonen aus einer Halbleiterschicht Elektronen losschlagen, die dann in der Zelle in einem Potenzialtopf (eine Art Kondensator) gesammelt werden, bis sie am Ende der Belichtungszeit ausgelesen werden. Je mehr Elektronen und ergo elektrische Ladung der Potenzialtopf einer CCD-Zelle enthält, desto mehr Photonen hat sie aufgefangen, und so kann die ausgelesene Ladung in einen Helligkeitswert gewandelt werden. Die Helligkeitswerte aller Pixel des CCDs ergeben das Bild.

CCD-Sensor der ACS Kamera des Hubble-Weltraumteleskops; © CC BY 4.0, NASA/ESA and the ACS Science Team

Ein Techniker zeigt den CCD-Sensor der ACS Kamera des Hubble-Weltraumteleskops;  © CC-BY-4.0, NASA/ESA and the ACS Science Team

Die Pixel werden seriell ausgelesen, und zwar zeilenweise, indem die Ladungen der Zellen im Auslesetakt Pixel für Pixel in Richtung der Ausleselogik und schließlich in diese hinein verschoben werden. Man spricht auch von einer “Eimerkettenschaltung”, weil die Ladungen von Zelle zu Zelle wie Eimer Wasser in einer Menschenkette von Nachbar zu Nachbar weitergereicht werden. Die schwachen analogwertigen Ladungen müssen vor dem Auslesen zuerst von einen Verstärker hochgepegelt werden (was unvermeidliches Verstärkerrauschen hinzufügt) und werden dann in einem Analog-Digital-Konverter (ADC) in digitale Zahlenwerte gewandelt. So wird die Zeile Pixel für Pixel zusammengesetzt. Mehrere Zeilen werden der Reihe nach auf diese Weise durch die gleiche Ausleselogik geschoben.
Um das Auslesen zu beschleunigen, werden oft mindestens zwei Ausleseschaltungen parallel betrieben, die für verschiedene Zeilen (etwa nur gerade bzw. ungerade Zeilennummern) oder Segmente des CCDs zuständig sind.

 

Bildfehler bei CCDs

CCDs sind erheblich lichtempfindlicher als Fotoplatten (es werden “Quantenausbeuten” von bis zu 90% erreicht – also 90% aller einfallenden Photonen lösen ein Elektron aus; bei fotografischen Platten schwärzen nur 5-10% der Photonen ein Filmkorn) und auch wesentlich linearer: doppelter Lichteinfall bedeutet doppelte Ladung. Deswegen kann man mit ihnen hervorragend Messungen machen, beispielsweise der Helligkeit aufgenommenenr Sterne oder der Tiefe von Spektrallinien, die etwa die chemische Zusammensetzung oder das Vorhandensein von unsichtbaren Begleitern verraten können. Es gibt aber eine Reihe von bekannten Fehlern, die die Bildqualität beeinflussen, die man aber mit der geeigneten Aufnahmetechnik sehr gut in den Griff bekommt.

Überbelichtete Pixel quillen aus den Potenzialtöpfen heraus und laufen dann in die Nachbarpixel der gleichen Zeile über, das sogenannte Blooming, das meist beidseitige Streifen neben hellen Objekten verursacht. Dagegen helfen spezielle Chips mit Anti-Blooming-Schaltungen, die Barrieren zwischen den Pixeln aufbauen. Und natürlich sollte man sein Zielobjekt nicht überbelichten, aber manchmal ist eine viel hellere Störquelle gleich nebenan. Statt einer einzelnen, langen Aufnahme kann man aber auch zahlreiche kurze Aufnahmen machen und diese später im Rechner aufaddieren (stacken). Diese Technik wird außerdem dazu eingesetzt, das Bildrauschen zu verringern. Und wenn man von Aufnahme zu Aufnahme das Bild ein wenig gegen den Chip verschiebt, kann man die Bildschärfe über die Pixelauflösung hinaus erhöhen und Hot Pixels (s.u.) vermeiden (Dithering).

Die Optik des Teleskops leuchtet vor allem große Chips meist nicht gleichmäßig aus. Üblicherweise hat man am Bildrand weniger Licht, man spricht von Vignettierung. Staubteilchen auf dem Sensor können gleichfalls dunkle Stellen verursachen; sie befinden sich auf der äußeren Fläche des Schutzglases oder Filters dicht vor dem Sensor und werfen einen unscharfen Schatten, da nur der Sensor exakt im Fokus des Teleskops liegt. Solch unterbelichtete Stellen bekommt man leicht in den Griff, indem man sogenannte Flat Frames (oder kurz “Flats”) anfertigt, das sind Aufnahmen einer möglichst gleichmäßig hellen Fläche (etwa der Innenseite der Teleskopkuppel oder des noch aufgehellten Himmels in der Dämmerung). Flats kann man später mit Stacking-Software so mit den Rohbildern verrechnen, dass die dunkleren Bereiche auf dem Flat das Rohbild genau an den unterbelichteten Stellen aufhellen. Damit erreicht man eine gleichmäßige Belichtung über das gesamte Bild.

Durch Verunreinigungen des Halbleitermaterials bei der Fertigung oder nachträgliche Beschädigungen (z.B. Gammastrahlen) können einzelne Zellen defekt sein und Elektronen freisetzen, obwohl sie kein Licht getroffen hat, man spricht von Hot Pixels. Außerdem neigen manche Chips dazu, sich ungleichmäßig zu erwärmen, was das Grundrauschen erhöht; an solchen heißen Stellen belichtet sich der Chip durch sein Rauschen selbst. Um Hot Pixels und Bereiche mit erhöhtem Grundrauschen zu eliminieren, verwendet man Dark Frames, das sind Aufnahmen mit verdecktem Sensor in absoluter Dunkelheit, welche die gleiche Belichtungszeit wie die eigentlichen Zielaufnahmen haben müssen, so dass die Erwärmung und die Hot Pixels in gleicher Weise auftreten wie im späteren Bild, nur eben ohne Nutzsignal. Man kann sie dann später von den Rohbildern abziehen, um das Bildrauschen zu verringern. Das tun sogar viele Consumer-Digitalkameras bei langen Belichtungszeiten ganz automatisch.

Schließlich tritt beim Auslesen noch Rauschen im Verstärker und dem ADC auf. Dieses eliminiert man durch Bias-Frames, das sind Dark Frames mit der kürzestmöglichen Belichtungszeit, die dementsprechend nur Rauschen der Ausleselogik enthalten. Die Bias-Frames werden vom Rohbild, den Darks und Flats subtrahiert. All das erledigt die Stacking-Software. Damit erhält man wunderbar kalibrierte, linear skalierende Aufnahmen, mit denen man hervorragend Wissenschaft betreiben kann, z.B. im Very Large Telescope in Chile, im Keck-Observatorium auf Hawaii, oder im Hubble-Weltraumteleskop. Dachte man jedenfalls – bis vergangene Woche.

 

Der Binäre Offset-Effekt

Am 20. Februar reichten K. Boone (Berkeley Lab), G. Aldering (University of Berkeley), Y. Copin (Université de Lyon) und 5 weitere Forscher (darunter Saul Perlmutter, Nobelpreisträger 2011 für die (Mit-)Entdeckung der Dunklen Energie) ihre Arbeit

A BINARY OFFSET EFFECT IN CCD READOUT AND ITS IMPACT ON ASTRONOMICAL DATA

auf arXiv ein. Darin beschreiben sie einen bisher völlig unbekannten Fehler von CCDs, den sie in zahlreichen Kameras der bedeutendsten Sternwarten der Welt nachweisen konnten, und der in subtiler Weise mit Zahl der Einsen zusammenhängt, die der Helligkeitswert eines Pixels in binärer Darstellung enthält. Und das ist folglich kein Fehler, den man einfach mit einem extra Korrektur-Frame herausrechnen könnte. Aber ganz hoffnungslos ist die Lage nicht.

Der Fehler fiel zuerst bei der Kalibrierung einer SNIFS (SuperNova Integral Field Spectrograph) genannten Kamera auf. Beim Aufnehmen von Flats in der Kuppel des Teleskops war den Autoren aufgefallen, dass auf einer Hälfte des CCDs bei kurzen Belichtungszeiten ein Mangel an Signal herrschte. Bei längeren Belichtungszeiten war das nicht der Fall. Es betraf nur sehr schwache Signale knapp oberhalb der Rauschschwelle des Ausleseverstärkers (Bias-Rauschen) und nur eine Hälfte des Sensors, die von einem anderen Verstärker ausgelesen wurde als die zweite Hälfte.

Man konnte den Fehler isolieren, indem man betrachete, wie sich die Helligkeit des zweiten oder dritten in Folge ausgelesenen Pixels nach einem anfänglich betrachteten Pixel (im folgenden Driver-Pixel genannt) in Abhängigkeit von dessen Helligkeit entwickelte. In Bild 1 ist dies dargestellt: im oberen Diagramm sind auf der x-Achse mögliche Helligkeitswerte (bezeichnet als Analog Digital Units, ADU) des Driver-Pixels aufgetragen und auf der y-Achse die Differenz (ebenfalls in ADUs) zum nominellen Wert, den das zweite dem Driverpixel folgend ausgelesene Pixel eigentlich haben sollte. Die blaue Linie zeigt, wie die Helligkeitsdifferenz (kurz Offset) in Abhängigkeit vom Helligkeitswert des Driver-Pixels ausfällt. Da es sich um Flat Frames handelt, sollten alle Pixel (in Abwesenheit von o.g. Belichtungsunterschieden, was hier der Fall ist) eigentlich gleich hell sein und somit idealerweise eine horizontale Linie bei 0,0 ergeben.

Binary Offset Effekt des rechten SNIFS-Verstärkers für den Blaukanal. Oben ist über dem Helligkeitswert in ADUs eines "Driver-Pixels" genannten Pixels die Abweichung von der erwarteten Helligkeit eines diesem folgend ausgelesenen Pixels aufgetragen. Die blaue Linie zeigt die Abweichung für das zweite dem Driver-Pixel folgende Pixel. Im unteren Teil des Bildes sieht man die Zahl der Einsen in der Binärdarstellung der Helligkeitswerte über eben diesen aufgetragen. Das Muster ist verblüffend ähnlich. Quelle: [1]

Bild 1: Binary Offset Effekt des rechten SNIFS-Verstärkers für den Blaukanal. Oben ist über dem Helligkeitswert in ADUs eines “Driver-Pixels” genannten Pixels die Abweichung von der erwarteten Helligkeit eines diesem folgend ausgelesenen Pixels aufgetragen. Die blaue Linie zeigt die Abweichung für das zweite dem Driver-Pixel folgende Pixel. Im unteren Teil des Bildes sieht man die Zahl der Einsen in der Binärdarstellung der Helligkeitswerte über eben diesen aufgetragen. Das Muster ist verblüffend ähnlich. Quelle: [1]

Der rote Strich entspricht dem mittleren Helligkeitswert des Ausleserauschens (Bias) und der orangefarbene Bereich drumherum eine Standardabweichung für die normalverteilten Werte des Rauschens. Jeder Zahlenwert an der x-Achse wird im ADC als Binärzahl erzeugt. Senkrechte gestrichelte Linien sind dort gezogen, wo mindestens 5 Bits von 1 auf 0 wechseln. Beispielsweise wechselt gleich rechts vom orangefarbenen Bereich der Helligkeitswert 1279 ADU (binär 100 1111 1111) auf 1280 ADU (binär 101 0000 0000), hier kippen also gleich 8 Einsen auf Null um und nur eine Null auf Eins. Genau an den Stellen, wo ähnliches passiert, zeigt die blaue Linie steile Sägezahn-Flanken. In der unteren Hälfte des Bildes ist die Zahl der Einsen in der binären Zifferndarstellung der jeweiligen Zahlen auf der x-Achse dargestellt, und es zeigt sich ein dem oberen Diagramm verblüffend ähnliches Muster.

Was bedeutet das nun? Wenn die Zahl der Einsen in der Zifferndarstellung des ausgelesenen Helligkeitswerts eines Pixels sich zum nächsten Pixel hin stark ändert, dann sind das übernächste oder drittnächste Folgepixel dunkler als sie es sein sollten. Und der Fehler kann beim betrachten Sensor bis zu 2,5 Helligkeitsschritte (ADUs) ausmachen. Was deutlich mehr ist, als die erwartete Toleranz des Chips, der laut Spezifikation bis auf +/- ein halbes ADU genau die empfangene Lichtmenge reproduzieren können sollte.

Das folgende Bild 2 zeigt, wie sich der Effekt auf einer Aufnahme zeigt. Hier wurde kein Stern aufgenommen, sondern die hellen Pixel überlagert, die von zufällig und unvermeidlich einschlagenden Gammastrahlenquanten auf dem Sensor verursacht werden, welche auch auf Dark Frames auftauchen (ein Grund, mehrere Dark Frames aufzunehmen und zu einem Summen-Dark zu überlagen); die Idee dürfte gewesen sein, einen möglichst dunklen Hintergrund und möglichst scharfe Lichtpunkte zu erhalten, die man in dieser Weise bei einer realen Himmelsaufnahme nicht bekommt (Beugungsbilder der Sterne, aufgehellter Himmelshintergrund). Die Aufnahmen waren eigentlich angefertigt worden, um die Effizienz der Ladungsverschiebung beim Auslesen des Chips zu messen.

Summenbild von Pixeln verursacht durch Gammastrahlen. Der verdunkelte Bereich neben dem belichteten Pixel wird vom hier beschriebenen Effekt verursacht. Die Skalierung der Helligkeit (Average flux) ist im oberen Bereich logarithmisch und im unteren linear, um die volle Dynamik des Sensors wiederzugeben. Quelle: [1]

Bild 2: Summenbild von durch Gammastrahlen belichteten Pixeln. Der verdunkelte Bereich neben dem belichteten Pixel wird vom hier beschriebenen Effekt verursacht. Die Skalierung der Helligkeit (Average flux) ist im oberen Bereich logarithmisch und im unteren linear, um die volle Dynamik des Sensors wiederzugeben. Quelle: [1]

Man sieht denn auch vom hellsten Pixel ausgehend eine feine Linie nach oben laufen. Dies sind die in den Pixeln beim Auslesen vorübergehend hängen gebliebenen Ladungsträger, die darüber Zeugnis ablegen, dass die Verschiebungseffizienz etwas kleiner als 100% ist. Vor allem sieht man einen dunklen Klecks ein paar Pixel rechts vom Summenbild der Gammastrahlen, der da nicht hingehört. Hier wird also der durch das Ausleserauschen verursachte Hintergrund abgedunkelt.

 

Kann man den Effekt erklären?

Interessanterweise betrifft der Fehler, der den SNIFS-Nutzern schon früher aufgefallen war, aber noch nie im Detail analysiert wurde, nur eine Hälfte des Chips, die über eine separate Ausleselogik verfügt. Grund dafür ist, dass bei diesem Verstärker das Grundrauschen genau an der Schwelle von 1280 ADUs liegt, so dass ein paar zusätzliche Signal-Elektronen zu einem höheren Pixelwert mit sehr viel weniger Einsen in der Binärdarstellung führen, als dem ansonsten durch das Bias-Rauschen verursachten Pixelwert von knapp unter 1280. Bei dem Verstärker, der für die andere Hälfte des Chips zuständig ist, liegt das Rauschen etwas höher bei 1285 ADUs, binär 101 0000 0101, da ändert sich die Zahl der Einsen auf den nächsten Wert 1286 = 101 0000 0110 gar nicht. Dennoch treten natürlich bei anderen Pixelwerten die gleichen Effekte auf, nur nicht so zuverlässig.

Was ist nun die Ursache des Fehlers? Die Fotodioden auf dem Sensor wissen nichts von Bits, das sind einfach analoge Ladungswerte, egal ob sie vom Rauschen oder von einer Lichtquelle herrühren. Der Fehler muss im Digitalteil des Sensors zu suchen sein. Die Autoren vermuten, dass die Crux beim Analog-Digital-Konverter liegt. Der ADC verwendet nämlich eine Referenzspannung, und die generierten Werte hängen sehr empfindlich von der Stabilität dieser Spannung ab. Wenn nun nach der Wandlung ein Wert mit zahlreichen Einsen noch im Ausgabe-Schieberegister zwischengespeichert wird, bis der Computer, der den Sensor ausliest, den Wert abholt, dann führt offenbar die dort gespeicherte Ladung zu einem Übersprechen auf die Referenzspannung, denn sie erzeugt ja ein elektrisches Feld, das umso größer ist, je mehr Einsen gespeichert werden. Damit werden unmittelbar nachfolgende A-D-Wandlungen verfälscht, was den beobachteten Offset in Abhängigkeit von der Zahl der Einsen des Driver-Pixelwerts erklärt.

 

Ist das schlimm?

Nun könnte man das Ganze als irgendeinen weiteren Fehler in einem Präzisionsgerät abtun, den man halt abzustellen hat. Die Autoren besorgten sich jedoch Dark- und Bias-Aufnahmen der Kameras anderer großer Sternwarten der vergangenen Jahre und Jahrzehnte – und wurden fündig. In 16(!) von 22 untersuchten Kameras wurde der Effekt nachgewiesen. Darunter große Namen wie das 8,1 m Gemini-Doppelteleskop auf Hawaii (2 von 4 Kameras betroffen, 1,4 ADU Offset), das nebenan stehende 10 m-Keck-Observatorium (alle 4 Kameras, eine davon mit bis zu 2,6 ADU Abweichung), das VLT (2 von 3 Kameras, nur 0,1 ADU Offset) und sogar das Hubble-Weltraumteleskop (alle 3 Kameras mit bis zu 4,5 ADU Offset beim STIS-Spektrographen). Bild 3 zeigt beispielhaft die Auswertungen von 4 Kameras für (offenbar) verschiedene Aufnahmen (farbige Kurven). Der Fehler dürfte aber noch sehr viel mehr Geräte betreffen, möglicherweise auch im Amateurbereich.

Binary Offset Effekt in den Flats verschiedener Observatorien. Besonders dramatisch fällt er beim STIS des Hubble Teleskops (d) auf, wo der Offset bis zu 4,5 Helligkeitsschritte (ADUs) beträgt.

Bild 3: Binary Offset Effekt in den Flats verschiedener Kameras und Observatorien. Besonders dramatisch fällt er beim STIS des Hubble-Weltraumteleskops (d) aus, wo der Offset bis zu 4,5 Helligkeitsschritte (ADUs) beträgt.

“Wer misst, misst Mist” sagt ein alter Ingenieurspruch – haben die großen Sternwarten in den vergangenen Jahrzehnten also nur Mist gemessen? Der Tweet, der mich auf den Artikel aufmerksam machte, bezeichnete das Papier als “spannend und beängstigend”. Bei hochpräzisen Messungen, etwa von Spektren, mit denen man Planeten entdecken oder ihre Atmosphären in der Durchsicht auf ihren Stern untersuchen möchte, kommt es auf höchstmögliche Präzision an und man erwartet natürlich bei der Fehlerrechnung die Präzision, welche vom Hersteller für die Kamera angeben ist. Auf der anderen Seite ist es ein sehr spezieller Effekt, der nur bestimmte Helligkeitswerte betrifft, insbesondere bei geringem Hintergrundrauschen in der Nähe eines großen Binärziffernsprungs und bei sehr schwachem Signal, und er betrifft Spektrographen mehr als einfach abbildende Kameras.

Deswegen sind die bisherigen Aufnahmen der genannten Teleskope natürlich nicht komplett unbrauchbar, aber es dürfte sich lohnen, die Daten in speziellen Fällen, in denen der Effekt eine Rolle spielen könnte, noch einmal zu analysieren. Das betrifft insbesondere den STIS-Spektrographen des Hubble-Weltraumteleskops. Denn der Fehler lässt sich korrigieren. Die Autoren haben den Effekt nicht nur identifiziert und modelliert, sondern auch ein Programm geschrieben, mit dem man ihn aus den Rohbildern wieder weitgehend herausrechnen kann. Das folgende Bild zeigt, wie der Offset bei SNIFS nach Anwendung des Programms auf weniger als +/-0,5 ADU im relevanten Bereich oberhalb des Ausleserauschens reduziert werden konnte, und das ist in der Größenordnung der Toleranzen des SNIFS-Sensors.

Binary Offset Effekt nach Softwarekorrektur durch das Programm der Autoren. Die Darstellung entspricht derjenigen im ersten Diagramm. Im relevanten Bereich oberhalb der orange markierten Rauschschwelle des Verstärkers bleibt der Offset mit +/-0,5 ADUs im Bereich der Spezifikation des CCD-Sensors. Quelle: [1]

Bild 4: Binary Offset Effekt nach Softwarekorrektur durch das Programm der Autoren. Die Darstellung entspricht derjenigen im ersten Diagramm. Im relevanten Bereich oberhalb der orange markierten Rauschschwelle des Verstärkers bleibt der Offset mit +/-0,5 ADUs im Bereich der Spezifikation des CCD-Sensors. Quelle: [1]

Die Autoren stellen den Lesern das Programm netterweise online zur Verfügung, so dass Forscher ihre Daten nachträglich und künftig damit korrigieren können. Die Autoren fanden, dass der Effekt pro Gerät erfreulicherweise über die Jahre unverändert blieb, was die Korrektur wesentlich vereinfacht. Man braucht ihn pro Sensor nur einmal anhand von Dark- und Bias-Frames zu messen und kann dann alle Rohbilder mit den gleichen Einstellungen der Software korrigieren.

Die Konsequenz wird sein, dass zukünftig alle CCDs im professionellen Einsatz auf den binären Offset-Effekt hin untersucht werden müssen und ggf. die Rohdaten korrigiert, was glücklicherweise dank des Modells und der Software der Autoren sehr gut möglich ist. Es ist davon auszugehen, dass sich auch die Hersteller mit dem Problem beschäftigen werden müssen und künftig auf bessere Isolation der Referenzspannung ihrer ADCs zu achten haben. Es ist jedenfalls bemerkenswert und in der Tat auch ein wenig erschreckend, dass nach mehr als 30 Jahren des Einsatzes von CCDs in der Astronomie noch ein bisher vollkommen unbekannter Bildfehler mit solcher Verbreitung aufgespürt werden konnte.

 

Referenzen:

[1] K. Boone, G. Aldering, Y. Copin, S. Dixon, R. S. Domagalski, E. Gangler, E. Pecontal, S. Perlmutter: “A Binary Offset Effect in CCD Readout and Its Impact on Astronomical Data“, veröffentlicht auf arXiv:1802.06914 und eingereicht am 20. Februar 2018 .

Kommentare (39)

  1. #1 U. Greiner
    26. Februar 2018

    Neuentwicklungen können ja einfach im Gray-Code zählen, da ändert sich bei fortlaufenden Werten immer nur ein Bit.

  2. #2 UMa
    26. Februar 2018

    Wow!

    Mit so einem systematischen Fehler hätte ich nicht gerechnet. Zum Glück lässt er sich relativ leicht korrigieren.
    Die Frage ist, in wie weit das die Endergebnisse betrifft, und welche wie stark.

    Ob sich das auch auf Spektrographen auswirkt? Z.B. auf die Radialgeschwindigkeitsmessung bei der Suche nach Exoplaneten?

    Noch besser wäre es das Paper auch unten in den Referenzen zu verlinken. Ich habe den Link aber trotzdem gefunden.

  3. #3 Christian Berger
    26. Februar 2018

    @U. Greiner Naja gezählt wird da, bei schnellen Wandlern nichts, das tut man nur bei sehr langsamen Wandlern in Multimetern. Die Wandlerkonzepte die schnell sind basieren meistens auf dem normalen binären Stellenwertsystem. (Ausnahme Flash-AD-Wandler)

    Die einfachere Lösung ist einfach, im Nachfolger des AD-Wandlerchips eine bessere Barriere zwischen Digital- und Analoglogik zu bauen, und zukünftige Chips auf dieses Problem hin zu testen.

  4. #4 Alderamin
    26. Februar 2018

    @U. Greiner

    Gray-Code wäre ein möglicher Workaround, aber erstens müssen aufeinanderfolgend ausgelesene Pixel nicht auch aufeinanderfolgende Werte haben, zweitens tritt der Offset trotzdem auf (er hängt von der Zahl der Einsen ab; auch wenn’s dann keine solchen Treppen gäbe, würden die Werte bei zahlreichen Einsen verfälscht werden, die Referenzspannung wird auch beim Gray-Code beeinflusst) und drittens sollte man das Problem an der Wurzel beseitigen, wenn man eine neue Chipgeneration baut. Vielleicht reicht es, die Leiterbahnen des Registers und der Referenzspannung mit mehr Abstand oder abschirmender Erde dazwischen zu verlegen. Die Chipdesigner (bin keiner) werden wissen, was sie zu tun haben.

  5. #5 Alderamin
    26. Februar 2018

    @UMa

    Ob sich das auch auf Spektrographen auswirkt? Z.B. auf die Radialgeschwindigkeitsmessung bei der Suche nach Exoplaneten?

    Ich kann’s nicht wirklich beurteilen, im Paper steht dazu nichts. Aber die fünffache Abweichung von der Chipspezifikation ist schon bedeutsam. Könnte mir vorstellen, dass gerade kleine Planeten im Transit damit beispielsweise ein wenig größer erscheinen, als sie es sind.

    Noch besser wäre es das Paper auch unten in den Referenzen zu verlinken. Ich habe den Link aber trotzdem gefunden.

    Ups, ja. Schon passiert.

  6. #6 schlappohr
    26. Februar 2018

    Interessante Zeiten sind das. Plötzlich werden konzeptionelle Schwächen in Prozessorarchitekturen entdeckt, die Jahrzehnte unbemerkt blieben, und jetzt das gleiche mit CCD-Sensoren.

    Ich frage mich nur eines: Wenn das Problem durch einen Spike in der ADC-Referenz nach dem Kippen vieler Bits verursacht wird, dass sollte das auch bei CMOS-Sensoren nachweisbar sein. Im Grunde funktioniert das Auslesen und die AD-Konvertierung ja auf die gleiche Weise wie beim CCD. Zudem müsste man die Schwankung auf der Referenz messen können, sofern sie außen verfügbar ist.

    Bei bestimmten Kryptochips hat man auch das Problem, dass das Umkippen von Registerinhalten eine charakteristische Signatur auf der Betriebsspannung erzeugt. Die kann man messen und – die entsprechende kriminelle Energie vorausgesetzt – daraus Rückschlüsse auf den im Chip gespeicherten Schlüssel ziehen. Es gibt Methoden, die Anzahl der gleichzeitig umkippenden Bits zu begrenzen. Ich weiß nicht genau, wie das funktioniert, aber ich glaube die Grundidee ist es, jedes kritische Register mit einem Schattenregister zu versehen, das immer das 1-Komplement speichert. Somit ist die Anzahl der Einsen im Doppelregister immer konstant.

  7. #7 Ingo
    26. Februar 2018

    Wie wird ueberhaupt die Spektralverteilung gemessen?
    Der CCD-Chip bildet letztendlich pro Einheit ein Graustufenbild ab.
    Fuer Farbfotos werden jeweils 3 Messungen mit jeweils einen Farbfilter gemacht (RGB) .
    Fuer eine Spektralanalyse reichen aber doch nicht 3 Farben alleine !
    Ich kann ja nich jeden Pixel einzeln durch ein Prisma leiten und anschliessend auf eine Zeile scheinen lassen.

  8. #8 schlappohr
    26. Februar 2018

    “Ich kann ja nich jeden Pixel einzeln durch ein Prisma leiten und anschliessend auf eine Zeile scheinen lassen.”

    Spektralmessungen werden genau so gemacht: Mit einem Prisma und einem CCD-Zeilensensor. Dabei erhält man kein Bild, sondern eben nur die Spektralverteilung des einfallenden Lichtes. Es gibt auch Sensoren mit mehr als 3 Farbfiltern (z.B. 12 oder 16), aber die werden nur in der Industrie verwendet, soweit ich weiß.

  9. #9 Alderamin
    26. Februar 2018

    @Ingo

    Das nennt sich “Integrale Feldspektroskopie”.

    Ich kann ja nich jeden Pixel einzeln durch ein Prisma leiten und anschliessend auf eine Zeile scheinen lassen.

    Doch, eine Methode (Lenslet Array) funktioniert so ähnlich. Hier ist’s erklärt (vielleicht später mal einen Artikel wert, ich vermerke es mir).

    Vor einiger Zeit habe ich auch mal einen Artikel auf skyandtelescope.com gelesen, wo von einem Chip die Rede war, der die einfallende Photonenenergie jedes Photons messe. Ich habe den Artikel leider nicht mehr gefunden und weiß nicht genau, ob das für sichtbares Licht oder etwa Röntgenstrahlung der Fall war, jedenfalls sollte das der letzte Schrei der Sensortechnologie sein. Wie die Photonenleistungen dann bis zum Auslesen gespeichert werden, weiß ich leider auch nicht mehr, aber die Pixelauflösung des Sensors war wohl nicht sehr groß.

  10. #10 hmann
    26. Februar 2018

    Das sind ja wirklich sehr diffizile Probleme.
    Mich würde interessieren wie groß der Unterschied zu Consumer Kameras ist, bezüglich der Auflösung und der Farbgenauigkeit.
    Wenn man die Aufnahmen von Hobbyfotografen sieht, wie die mit einer speziellen Aufnahmetechnik, mehrere Aufnahmen mit kurzer Belichtungszeit übereinanderzulegen, und diese Aufnahmen dann mit Aufnahmen aus Sachbüchern vergleicht, dann ist da kaum ein Unterschied zu entdecken.
    Hat da bei der Astrofotografie auch schon diese Technik Einzug gehalten?

  11. #11 Alderamin
    26. Februar 2018

    @schlappohr

    Ich frage mich nur eines: Wenn das Problem durch einen Spike in der ADC-Referenz nach dem Kippen vieler Bits verursacht wird, dass sollte das auch bei CMOS-Sensoren nachweisbar sein. Im Grunde funktioniert das Auslesen und die AD-Konvertierung ja auf die gleiche Weise wie beim CCD. Zudem müsste man die Schwankung auf der Referenz messen können, sofern sie außen verfügbar ist.

    Könnte ich mir auch vorstellen, aber da, wo die CMOS-Chips im Einsatz sind, kommt es vielleicht nicht auf diese Präzision an oder die Toleranz des Sensors ist von vergleichbarer Größenordnung, mal wild geraten. In normaler bildgebender Abbildung fällt das Problem laut Paper kaum auf.

    Es gibt Methoden, die Anzahl der gleichzeitig umkippenden Bits zu begrenzen. Ich weiß nicht genau, wie das funktioniert, aber ich glaube die Grundidee ist es, jedes kritische Register mit einem Schattenregister zu versehen, das immer das 1-Komplement speichert. Somit ist die Anzahl der Einsen im Doppelregister immer konstant.

    Klingt nach einer guten Idee, wenn’s nicht auf den letzten Cent bei den Herstellungskosten ankommt (Profi-Kameras). Bessere Isolation durch ein anderes Platinenlayout sollte aber eigentlich auch möglich und quasi kostenlos sein.

  12. #12 Ingo
    26. Februar 2018

    @Diskussion: Wie geht Spektralanalyse

    > Doch, eine Methode (Lenslet Array) funktioniert so
    > ähnlich. Hier ist’s erklärt (vielleicht später mal einen > Artikel wert, ich vermerke es mir).

    Wirklich fuer JEDEN Pixel ein eigenes Prisma JEWEILS eine eigene Zeile-CCD-Sensoren?
    Bei einem 1000×1000-Pixel-Bild waeren dass 1Mio Prismen und 1Mio CCD-Zeilen.

    Wenn das so ist, dann steigt mein Respekt vor der Technik grade um einen entsprechenden Faktor.

  13. #13 Alderamin
    26. Februar 2018

    @hmann

    Mich würde interessieren wie groß der Unterschied zu Consumer Kameras ist, bezüglich der Auflösung und der Farbgenauigkeit.

    Riesig. Der ACS-Sensor oben im Bild ist ja schon groß, aber guck’ Dir mal den von Kepler an (dem Planetensucher-Satelliten). Großteleskope haben riesige Blickfelder, also verwendet man auch riesige Sensoren mit vielen Gigapixeln.

    Was die Farben betrifft, Consumer-Kameras haben vor den Pixeln kleine Farbfilter für Rot, Grün und Blau (meist hat eine Gruppe von 4 Pixeln im Quadrat einen Rotfilter, einen Blaufilter und zwei Grünfilter, Bayer-Matrix genannt), und man muss beim Auslesen des Bildes die Pixel dem korrekten Muster auf dem Chip gemäß den entsprechenden Farben zuordnen (de-bayern).

    Damit verliert man aber an Auflösung und Lichtstärke, deshalb sind Profikameras alle schwarz-weiß (bis auf die o.g. integrale Feldspektroskopie, aber das ist wieder was anderes). Um Farbbilder zu erhalten, macht man nacheinander Aufnahmen durch verschiedene Farbfilter und weist diese dann später dem Rot-, Grün- und Blaukanal zu. Oder noch weiteren Kanälen. In den seltensten Fällen interessiert sich der Profi für die “echten” Farben. Wesentlich verbreiteter sind Schmalbandfilter, die nur eine Wellenlänge +/- 1 nm oder weniger durchlassen, um bestimmte Spektrallinien abzugreifen, oder normierte Filter für die Helligkeitsmessung bei verschiedenen Farben (U, B, V, R, I …: Ultraviolett, Blau, Visuell, Rot, verschiedene Infrarot-Filter). Aus der Helligkeitsdifferenz von B- und V-Aufnahmen kann man z.B. die Farbe und damit Spektralklasse/Temperatur eines Sterns präzise ablesen, auch ohne sich Spektrallinien anzusehen. Auch was für einen Artikel (das ist das Grundlagenzeugs, das ich am Anfang durchnehmen möchte).

    Die Aufnahmen sind also nicht mit Consumer-Aufnahmen vergleichbar, die Aussagekraft ist erheblich höher, dafür sind die Bilder manchmal etwas seltsam gefärbt.

    Wenn man die Aufnahmen von Hobbyfotografen sieht, wie die mit einer speziellen Aufnahmetechnik, mehrere Aufnahmen mit kurzer Belichtungszeit übereinanderzulegen, und diese Aufnahmen dann mit Aufnahmen aus Sachbüchern vergleicht, dann ist da kaum ein Unterschied zu entdecken.
    Hat da bei der Astrofotografie auch schon diese Technik Einzug gehalten?

    Na klar, siehe den Link unter “stacken” oben im Artikel, das macht man fast immer so. Man kann auch die schärfsten Einzelframes aus einer Videoaufnahme von einer Software raussuchen lassen und überlagern und dadurch schärfere Planetenaufnahmen erhalten, als die wabernde Atmosphäre es eigentlich zulässt (bis nahe an das Limit der Optik), das nennt sich “Lucky Imaging” und das kopieren die Profis mittlerweile von den Amateuren.

  14. #14 Alderamin
    26. Februar 2018

    @Ingo

    Wirklich fuer JEDEN Pixel ein eigenes Prisma JEWEILS eine eigene Zeile-CCD-Sensoren?
    Bei einem 1000×1000-Pixel-Bild waeren dass 1Mio Prismen und 1Mio CCD-Zeilen.

    Nein, die Methode eignet sich nur für niedrig aufgelöste Spektren. Hier finde ich z.B. die Aussage, dass ein “Spaxel” (also ein “Spektrum-Pixel”) aus 41 Sensor-Pixeln bestehe.

    Es muss auch nicht jedes Spaxel sein eigenes Prisma oder Lenslet haben, siehe den Sketch hier.

    Wie geht Spektralanalyse

    Es gibt verschiedene Arten von Spektroskopen. Beim Echelle-Spektroskop wird ein einzelnes Spektrum zeilenweise über den ganzen Chip verteilt, das ergibt eine ganz andere Auflösung. Nur mit denen findet man Planeten durch die Frequenzshift-Methode.

    IFS taugt dagegen eher zur Messung der Rotverschiebung von fernen Galaxien (deswegen ist wohl Perlmutter auf der Autorenliste, der Name SNIFS sagt ja schon, dass man damit nach Supernovae sucht; man misst die Entfernungen zahlreicher Galaxien anhand von Supernovae, um die Rotverschiebung zu kalibrieren).

  15. #15 Karl Mistelberger
    26. Februar 2018

    Die Schlussfolgerung der Autoren lautet:

    The size of the binary offset effect should be measured and characterized in any new CCD readout system to determine whether or not it will impact the science results.

    Bisher wurde meist nur das Dunkelbild bestimmt: https://de.wikipedia.org/wiki/Bildsensorkalibrierung#Dunkelbild Künftig guckt man etwas genauer hin und wird in kritischen Fällen die Sensoren entsprechend selektieren.

    Bei meinen Forschungen in den Siebzigern musste ich wegen der schwachen Signale die zum Nachweis eingesetzten Photomultiplier selektieren: https://my.et-enterprises.com/pdf/9658B.pdf Nicht ein jeder 9658B lieferte auch brauchbare Ergebnisse.

    Ich kann mir nicht vorstellen, dass der Effekt eine große Rolle spielt und deswegen irgendwelche Ergebnisse revidiert werden müssten.

    Doch grundsätzlich liefern die besseren Sensoren auch die besseren Bilder und schon allein deswegen wird man den Einfluss des Effekts künftig genauer betrachten.

  16. #16 Karl-Heinz
    26. Februar 2018

    Dummytext um neue Beiträge zu aktivieren.

  17. #17 tomtoo
    26. Februar 2018

    Uhh, das ging jetzt aber an’s Eingemachte.

  18. #18 tomtoo
    26. Februar 2018

    Sry Nachtrag. Also bei mir. Sehr spannend, aber nicht einfach.

  19. #19 Alderamin
    26. Februar 2018

    @tomtoo

    Wenn man erst mal entschlüsselt hat, wie die Grafiken zu lesen sind, ist es so kompliziert gar nicht.

    Wird auch einfachere Artikel geben, keine Sorge. Das hier war kein Grundlagenartikel, der fiel mir halt so vor die Füße, da schlug der Beißreflex einfach zu. 🙂

  20. #20 tomtoo
    26. Februar 2018

    @Alderamin
    Passt schon, also der Beißreflex. Aber hey, wenn du schon technophiele an die Grenzen bringst ??? ; )

  21. #21 hmann
    27. Februar 2018

    KM,
    da Sie vom Fach sind, einige technische Fragen.
    Ein Sensor besteht ja aus z.B. 10 Millionen Halbleitern.
    Wird jeder einzelne Halbleiter (Pixel) mit einem Multiplier verstärkt?
    Wenn man jetzt diese Halbleiter extrem abkühlt, dann könnte man doch das Wärmerauschen verringern.
    Aus der Rundfunktechnik weiß ich, dass integrierte Schaltkreise schlechtere Signal -Rauschabstände liefern , als einzelne Transistoren. Wenn man jetzt etwa jede einzelne Photodiode mit nur einem Transistor verstärken würde, dann bekäme man ein rauscharmes Bild.
    Ich weiß nicht, ob man das schon so macht, denn mein Wissen stammt aus den 80-igern.

  22. #22 Alderamin
    27. Februar 2018

    Gekühlt sind Kameras schon im Amateurbereich, da kühlt man um 20°-30°C gegenüber der Umgebungstemperatur. Natürlich kühlen die Profis auch und sicher mehr. Was die Verstärkung auf dem Chip betrifft, ich hätte fast gesagt, nein, nur beim Auslesen wird verstärkt, aber Tante Google fand dann einen Hersteller, der Chips baut, die eine Hälfte des Sensors zum Belichten und eine zum Verstärken und Auslesen je Zelle verwenden. Gibt’s also und dürfte der Grund sein, warum manche CCDs 90% Quanteneffizienz erreichen. Die SNIFS-Kamera aus dem Paper wird aber nicht von dieser Art sein, da stand was von zwei Verstärkern vor den A/D-Wandlern.

  23. #23 Karl Mistelberger
    27. Februar 2018

    > #22 Alderamin, 27. Februar 2018
    > Gekühlt sind Kameras schon im Amateurbereich, da kühlt man um 20°-30°C gegenüber der Umgebungstemperatur. Natürlich kühlen die Profis auch und sicher mehr.

    Sicher:

    A 100 mK dilution cooler developed by France’s Aerospatiale

    As with most fundamental physics experiments, the data to be taken by Planck are more sensitive to the specifics of the experimental apparatus and its immediate environment than to the science of interest. Uncertainties or oscillations in pointing, supply voltages, thermal fluctuations, and stray light (much of this is thermal emission from different surfaces) all impact the data collected by the instrument. As an example, the spacecraft emits nearly 2,000 W, yet the HFI is sensitive to energy levels on the order of 10^-18 W: a ratio of 10^21 to 1!! As a consequence, even extraordinarily minute spacecraft thermal emission fluctuations that reach the HFI detector could be confused with sky emission.

  24. #24 Alderamin
    27. Februar 2018

    @Karl Mistelberger

    Planck hat ja nach der 3K-Hintergrundstrahlung im Mikrowellenbereich geschaut, da muss der Sensor natürlich entsprechend kalt sein. 100mK ist schon heftig. Verdunstung von Helium, nehme ich an.

    Es ging Robert aber wohl eher um optische Sensoren, denke ich.

  25. #25 Karl Mistelberger
    28. Februar 2018

    Das Helium streikt bei tiefen Temperaturen und mag partout nicht mehr verdampfen. Darum wird wie in der Überschrift angedeutet Mischungskühlung ausgenutzt:
    https://en.wikipedia.org/wiki/Dilution_refrigerator

    Ein schönes Video:
    https://www.youtube.com/watch?v=QAtdVeBR378

    In der Praxis ist alles noch ein bisschen trickreicher: Hitchhiker’s Guide to the Dilution Refrigerator
    http://www.roma1.infn.it/exp/cuore/pdfnew/Fridge.pdf

    Nach der Lektüre war mir klar, dass sich seit den Siebzigern nicht viel geändert hat. Oxford Instruments ist heute wie damals “very british”. 😉

    Zurück zum Thema. Das elektromagnetische Spektrum ist lang. Seine Unterteilung erfolgt aus praktischen Gründen: http://www.unihedron.com/projects/spectrum/index.php

    Hier geht es um Detektoren für sichtbares Licht: ESA’S ‘BILLION PIXEL’ CAMERA
    http://www.esa.int/esapub/bulletin/bulletin137/bul137g_sarri.pdf
    Die CCDs arbeiteten bei -110 Grad.

  26. #26 Captain E.
    28. Februar 2018

    @Alderamin:

    Planck hat ja nach der 3K-Hintergrundstrahlung im Mikrowellenbereich geschaut, da muss der Sensor natürlich entsprechend kalt sein. 100mK ist schon heftig. Verdunstung von Helium, nehme ich an.

    Es ging Robert aber wohl eher um optische Sensoren, denke ich.

    Das ist richtig, und zwar mit einer Mischung aus Helium-4 und Helium-3. Auch Herschel hat mit Helium-4 und vor allem die Sensoren mit Helium-3 gekühlt, aber “nur” auf 0,3 K. Das Missionsende beider Teleskope war dann durch den Heliumverbrauch festgelegt.

  27. #27 stone1
    1. März 2018

    @Alderamin

    Nachdem ich beim Erscheinen des Artikels diesen erst mal nur überflogen hatte (weil wie von Dir nicht anders gewöhnt sehr ausführlich und auch ein sehr spezielles Thema) hab ich jetzt die Zeit gefunden, ihn aufmerksam durchzulesen und was soll ich dazu sagen?
    Mach weiter so! Gut geschrieben wie man es von deinen Kommentaren kennt und ein Thema, von dem man sonst wahrscheinlich nie etwas lesen würde, wenn man nicht gerade (Amateur)astronom ist oder aus sonstigen Gründen explizit danach sucht.

    Ich meine bei den Kommentaren zum Blogstart-Artikel gelesen zu haben, dass Du nichts gegen Korrekturvorschläge einzuwenden hast, und eine Kleinigkeit ist mir aufgefallen:

    Um Hot Pixels und Bereiche mit erhöhtem Grundrauschen zu eliminieren, verwendet man Dark Frames auf, das sind Aufnahmen mit verdecktem Sensor in absoluter Dunkelheit, …

    Das “auf” kann wohl weg, aber ein einziger Fehler bei einem so langen Beitrag ist vernachlässigbar, noch dazu wo dieser Satz recht lang ist. Ich neige selber auch zu längeren Satzkonstruktionen, versuche mir das aber abzugewöhnen, da diese sehr fehleranfällig sind – vor allem wenn man sie dann nochmal überarbeitet.

  28. #28 PDP10
    1. März 2018

    So, jetzt habe ich endlich Zeit gehabt, den Artikel mal in Ruhe zu Ende zu lesen …

    Super!

    Bitte weiter so mit dem ganzen “Technik Kram”!

    Das ergänzt sich hervorragend mit den Anderen Astronomie-lastigen Blogs. Besonders wenn es so gut lesbar und verständlich erklärt wird.

    Bitte ruhig auch mehr “Technik Krams” aus “dem Leben des Amateur Astronomen”!

  29. #29 Alderamin
    2. März 2018

    Danke!

    @stone1: noch ein Danke, ist korrigiert.

    @alle: es gibt seit gerade eben einen neuen Artikel.

  30. #30 Luke
    2. März 2018

    Sehr interessant =D

    Auf so einen Fehler muss man erstmal kommen.

  31. […] aus ihnen lernen, auch wenn es wie jetzt geschehen 30 Jahre dauert, bis man feststellt, dass es bei einigen CCD-Teleskopen Probleme gibt. Alpha Cephi hat sehr detailliert ein Paper beschrieben, in dem die Autoren den Fehler nachweisen, […]

  32. #32 Elektroniker
    Elektronikland
    19. März 2018

    Ich habe erst heute dieses Blog entdeckt. Und ich bin etwas erstaunt. Darüber, wie verwundert man auf die Fehler von A/D-Wandlern reagiert.

    Jeder A/D-Wandler hat Fehler ! Diese möglichen Fehler stehen in der technischen Dokumentation des Wandlers. Meist allerdings anders herum – es wird die Genauigkeit des Wandlers gepriesen. Kein Hersteller stellt die Unzulänglichkeiten des Wandlers in den Vordergrund, die Hersteller betonen natürlich immer die Leistungsfähigkeit ihrer Produkte. Aber bevor man über Fehler redet, sollte man in der Dokumentation nachlesen, was der Hersteller dazu sagt. Und man sollte nicht mehr erwarten, als der Hersteller angibt !

    Die oben aufgeführten Fehler sind absolut typisch für bestimmte Arten von A/D-Wandlern. Diese Fehler sind strukturbedingt (Wandlerverfahren). Es gibt auch Umsetzungsverfahren, wo die oben aufgeführten Fehler nicht auftreten (aber durchaus andere Fehler). Der Fehler oben ist z.B. ganz typisch, wenn in Schaltelemente des Wandlers Störladungen aus dem Signalpfad eingetragen werden. So ein Wandler ist eben immer ein Kompromiß aus Schnelligkeit, Preis und Auflösung. Im Allgemeinen ist es so, daß der Wandler immer langsamer wird, je genauer er wird. Und leider auch teurer. Bei höheren Auflösungen kann es auch zu “missing Codes” an den Stellen der Sägezähne oben kommen. Bei den “missing Codes” fehlen einige Zahlenwerte. Nach 127 gibt der Wandler dann möglicherweise gleich 129 oder 130 aus, den Wert 128 gibt es dann gar nicht. Dann nützt auch ein Programm zur nachträglichen Linearitätskorrektur nichts mehr, dieser Fehler läßt sich dann nicht mehr korrigieren.

    Seriöse Hersteller (z.B. ADI, BB/TI, LT) geben die Genauigkeit des Wandlers an. Diese Genauigkeit ist eigentlich immer niedriger als die Auflösung in Bits. Deshalb gibt es eine ENOB (effective number of bits). Ein 10-Bit-Wandler kann eine ENOB von 9,5 Bits haben, ein 16-Bit-Wandler hat meist nur eine ENOB von 14,5 Bit und ein 24-Bit-Wandler hat meist nur eine ENOB von 20 Bit. Bei dem 24-Bit-Wandler muß man auch fragen : Wie genau ist eigentlich meine Referenz ? Denn für 20 Bit muß die Referenz ja schon 10^-6 genau sein ! Und das ist nicht so einfach.

    Ich halte es für sinnlos, aus einem A/D-Wandler, mehr als der Hersteller angibt, als Genauigkeit herauskitzeln zu wollen. Dann muß man nämlich auch fragen : wie stabil ist denn eigentlich mein Meßergebnis. Gilt es nur bei +15 Grad oder auch noch bei -20 Grad Umgebungstemperatur. Ist das Meßergebnis auch in einem halben Jahr noch nachvollziehbar. Ganz abgesehen davon, daß auch CCD-Zeilen temperaturabhängig sind. Wenn man mit der Genauigkeit eines A/D-Wandlers nicht zufrieden ist, sollte man einen besseren A/D-Wandler einsetzen. Die technische Entwicklung geht weiter, und ich kann mir nicht vorstellen, daß die Modernisierung dieser Art an derart teuren Großteleskopen ein finanzielles Problem ist.

    P.S. : In den Dokumentationen heißt das, was oben als ADU bezeichent ist, LSB (least significand bit) (geringwertigstes Bit).

  33. #33 Alderamin
    19. März 2018

    @Elektroniker

    Danke für den Kommentar. Dass die Wandler bzw. der Sensor im Ganzen Toleranzen hat, war den Autoren wohl bekannt, aber die gemessenen Abweichungen des Sensor-Gesamtsystems überschritten wohl die vom Hersteller spezifizierten Toleranzen um das Fünffache. Wenn’s ein Problem gewesen wäre, was allgemein bekannt ist, wäre die Veröffentlichung bestimmt nicht angenommen worden und immerhin gibt Nobelpreisträger Perlmutter seinen Namen dafür her.

    Bei der Wahl der Wandler ist man als Kunde auch durch den Sensor eingeschränkt, so viele CCD-Sensoren für den Profibereich gibt es ja nicht, und da sind die Wandler, soviel ich weiß, schon in der Ausleselogik integriert mit drauf. Nur die Sensor-Hersteller können das Design verbessern.

    Das werden sie zukünftig wohl auch tun, aber in der Astronomie ist man auch später noch auf alte Aufnahmen angewiesen und muss wissen, wie man sie auswerten muss. Es gibt ein Projekt, da werden derzeit tausende Fotoplatten digitalisiert, z.B. weil sie Asteroiden enthalten können, die zukünftig entdeckt werden und deren Bahn man mit den alten Positionen hochgenau berechnen kann. Oder (was hier besser passt) man kann langfristige Helligkeitsänderungen von Sternen nachweisen (z.B. von Tabby’s Star). Bei Helligkeitsmessungen kann der beschriebene Fehler eine Rolle spielen.

  34. #34 Elektroniker
    Elektronikland
    19. März 2018

    Auch bei integrierten A/D-Wandlern sind die Fehlergrenzen dokumentiert. Wandler, die die Spezifikationen nicht einhalten, sind Ausschuß und reklamierbar. Als ich mich mit CCD-Zeilen (7000 Pixel lang) beschäftigt habe, waren noch keine A/D-Wandler mit auf dem Chip. Noch nicht einmal vernünfige Takttreiber waren da mit auf dem Chip. Aber es war damals schon beeindruckend, fast 10 cm lange (nur gut 1 mm breite) monolithische CCD-Chips zu sehen. Und schweineteuer waren die CCD-Zeilen. Aber ich gehe davon aus, daß sich daran nichts geändert hat, weil das eben keine Massenware ist.

    Aber solche Fehler hatten die A/D-wandler schon in den 70-ger Jahren des letzten Jahrhunderts. Und daran habe ich mich erinnert. Aber ich habe festgestellt, daß man die Fehler noch viel einfacher mit der Einkopplung von Störladungen aus dem elektronischen Schalter in den Signalpfad erklären kann. Und damit kann der Fehler sogar in relativ modernen Designs auftreten.

    “Nur die Sensor-Hersteller können das Design verbessern.”
    Das ist zwar richtig, aber man muß in der umgebenden Elektronik auch dafür sorgen, daß die angebotene Genauigkeit überhaupt ausnutzbar ist. Die mir bekannten besseren A/D-Wandler benötigen z.B. alle eine externe Referenz um ihre Genauigkeit voll auszunutzen. Die interne Referenz genügt da nicht.

    Der Name ist für mich kein Maßstab. Wenn 8 Autoren als Urheber angegeben sind, hat das für mich meist ein klein wenig “Geschmäckle”. Da haben im Allgemeinen nicht alle 8 Leute dran geschrieben. Auch die Ideen stammen meist nicht von allen 8 Leuten. Perlmutter steht als letzter da und ist für mich kein Reklameschild.

    Bei der Auswertung alter Aufnahmen sollte man sich bewußt sein, daß eine photographische Schicht alles andere als linear ist, und auch Ungleichmäßigkeiten in der Fläche enthalten kann. Sogar die Belichtungszeit geht da mit ein. Die Genauigkeit des Einlesens der alten Aufnahme ist dagegen riesengroß.

  35. #35 Alderamin
    19. März 2018

    @Elektroniker

    Wenn 8 Autoren als Urheber angegeben sind, hat das für mich meist ein klein wenig “Geschmäckle”. Da haben im Allgemeinen nicht alle 8 Leute dran geschrieben. Auch die Ideen stammen meist nicht von allen 8 Leuten. Perlmutter steht als letzter da und ist für mich kein Reklameschild.

    Das dürfte ein Team von Leuten sein, die gemeinsam / arbeitsteilig Messungen machten und den Fehler zusammen aufgespürt haben. Geschrieben wird die Arbeit wohl der erste Autor haben und Perlmutter steht als Gruppencheffe hinten drauf. Perlmutter hat die beschleunigte Expansion des Universums mitentdeckt, und dazu hat er ein ähnliches Gerät wie das hier beschriebene benutzt, daher wird seine Gruppe an einem vergleichbaren Projekt oder der Fortsetzung der Messungen arbeiten. Den Effekt hat er durch präzise Arbeit gefunden.

    Bei der Auswertung alter Aufnahmen sollte man sich bewußt sein, daß eine photographische Schicht alles andere als linear ist

    Das ist klar, Schwarzschildeffekt, ich habe die Fotoplatten nur als Beispiel dafür genannt, dass man alte Bilder noch braucht. Aber eben auch CCD-Aufnahmen, die von dem beschriebenen Fehler betroffen sind, und die kann man ja nun besser und genauer auswerten, wo es die Korrektursoftware gibt. Deswegen reicht es nicht, die Kameras zu ersetzen, man muss den Algorithmus auch weiterhin auf ältere Aufnahmen anwenden. Das wollte ich damit sagen.

  36. #36 Elektroniker
    Elektronikland
    19. März 2018

    Vorsicht bei der Korrektur alter Datenbestände ! Ich habe selber Bilddaten aufgearbeitet. Und ich weiß, wie leicht man Artefakte erzeugen kann ! Nur durch scheinbar völlig harmlose Verfahren der Aufarbeitung !

  37. […] bei der Rotation der Sonde unscharfe oder lichtschwache Bilder ergeben würde. In einem CCD wird bekanntlich beim Auslesen die Ladung pixelweise aus jeder Spalte hinausgeschoben. Bei Gaia erfolgt dieses […]

  38. #38 Till
    8. Juni 2018

    Super Artikel. Das betrifft auch unsere Arbeit bei der Einzelmolekülfluoreszenzmikroskopie (tolles Bandwurmwort) Da arbeiten wir auch mit emCCD Kameras (electron multiplied CCD) das werde ich im nächsten Gruppenmeeting mal zur Sprache bringen.

  39. #39 Till
    8. Juni 2018

    sollte das auch bei CMOS-Sensoren nachweisbar sein. Im Grunde funktioniert das Auslesen und die AD-Konvertierung ja auf die gleiche Weise wie beim CCD

    Bei CMOS-Sensoren betrifft das aber nicht benachbarte Pixel, da bei einem CMOS sensor jedes Pixel seinen eigenen Verstärker/AD-Wandler hat. Bei CMOS Kameras würde ich also erwarten, dass dieser Fehler nachfolgende Aufnahmen betrifft. Bei CMOS Kameras hat man aber sowieso sehr mit unterschiedlichen Verstärker/Wandlercharakteristika der einzelnen Pixel zu kämpfen.