Ich hab hier gerade die Lichtkurve eines Sterns vorliegen, die einen Zeitraum von etwa 150 Tagen abdeckt. Diese allein ist 17 GB groß.
Es geht um das Satellitenprojekt Corot. Das Licht von 10 bis 20 000 Sternen wird aufgezeichnet und darin nach verräterischen Transitsignalen gesucht, welche die Anwesenheit eines Planeten verraten oder die eines weiteren Sterns. Welcher Fall tatsächlich vorliegt, dass lässt sich nur mit einer weiteren ergänzenden Nachweismethode klären. Das dauert allerdings, weil mit dieser komplementären Methode Stern für Stern einzeln über Stunde und Tage hinweg genau beobachtet werden muss. Da ist es sinnvoll eine gewisse Vorselektion mit einer Methode zu treffen, welche sehr viele Sterne auf einmal im Blick behalten kann. Genau das leistet Corot.
Die dabei anfallenden Datenmengen sind gewaltig.
Ich kann mich noch daran erinnern, dass ich an einem C64 Daten auf einer simplen Musikkassette speicherte. Vor gar nicht allzu langer Zeit waren Computer mit insgesamt 17 GB Datenspeicher das Nonplusultra und jetzt haben wir hier eine einzige Datei mit dieser Datenmenge.
Vielleicht bekommt Ihr jetzt eine Ahnung, wie hoch die Anforderungen an Hardware und Software sind und wieviel Arbeitsaufwand nötig ist, um 10 bis 20 000 Daten zu durchsuchen und auszuwerten. Wenn wir nicht die geballte Rechenleistung und die Datenspeicher des Rechenzentrums der Uni Köln hinter uns stehen hätten – wir würden hoffnungslos in Daten versinken. Unser Betreuer am Rechenzentrum hat Recht: Es wird viel zu wenig gewürdigt, dass man erst mal entsprechende Hardware (Server, Prozessoren, Datenspeicher von einem Terabyte und mehr) und Infrastruktur (Bandbreite für den Transfer dieser Datenpakete) braucht, um spannende Wissenschaft zu betreiben.
Kommentare (6)