Im Rheinland stehen sie noch, die Maibäume. Aber demnächst ist es wieder soweit. Die Pfingstfeuer werden entzündet werden. Beobachtet werden sie dabei von einem deutschen Kleinsatelliten.
Raumsonde: BIRD (Bispectral Infra-Red Detection)
Raumfahrtagentur: DLR
Start: 22. 10. 2001. BIRD startete als “Huckepack-Nutzlast” auf der indischen Rakete PSLV-C3 gemeinsam mit dem indischen Hauptsatelliten TES und dem ESA-Satelliten PROBA.
Orbit: Kreisförmiger Erdorbit in 572 km Höhe.
Nutzlast: 30 kg. Damit fällt BIRD in die Klasse der Kleinsatelliten.
Maße: 62 x 62 x 55 cm.
Ziel der Mission: Erdbeobachtung im Infrarot und sichtbaren Lichtspektrum, um Waldbrände und Vulkanismus zu beobachten. (Überwachungsradius: 50-100m lokal, ein paar hundert Meter global.)
Bild (DLR, künstlerische Darstellung): BIRD im Erdorbit.
Insgesamt hat der Satellit zwei Kameras an Bord.
WAOSS-B beobachtet in den Wellenlängenbereichen 600-670 nm (sichtbar) und 840-900 nm (nahes Infrarot),(1)
HSRS in 3.4 – 4.2 µm (mittleres Infrarot) und 8.5 – 9.3 µm (langwelliges Infrarot). Letztere dient der eigentlichen Feuererkennung.
Intelligentes Feueralarmsystem
Die Kombination der drei Beobachtungen soll dazu dienen, heiße Flecken zwischen 500-1000 Kelvin, der typischen Temperatur für brennende Vegetation, automatisch zu identifizieren. Die Klassifikation (Brand oder kein Brand) erfolgt dabei an Bord mit Hilfe speziell entwickelter Software auf der Basis eines neuronalen Netzwerk. Ganz grob zusammengefasst, erlaubt es ein neuronales Netzwerk der Software “zu lernen”. Sie wird mit den Merkmalen bekannter Ereignisse gefüttert und lernt dabei nach Erfolg und Misserfolg diese voneinander zu unterscheiden. (2)
Was ist eine Klassifikation?
Das lässt sich am besten anhand eines Beispiels erklären.
Wie erkenne ich einen roten Ball? Wir alle haben das im Verlauf unseres Lebens gelernt, aber könnt Ihr ad hoc sagen, woran Ihr das erkennt? Nach welchen Regeln? Und diese dann niederschreiben?
Da wäre z.B. die Farbe. Die Farbe rot deckt z.B. in etwa den Wellenlängenbereich zwischen 600 und 700 nm ab. Alles dazwischen ist rot und alles daneben eben nicht. Wobei die Grenzen hier schon wieder fließend sind.
Wie klassifiziere ich rund? Das wird dann schon etwas schwieriger. Die erste Möglichkeit wäre, Höhe und Breite des Objektes zu vermessen. Ein Ball hat in etwa die gleiche Höhe und Breite. Das trifft aber auch auf einen Würfel zu. Ok, dann vermessen wir Höhe und Breite nicht nur einmal, sondern mehrfach an verschiedenen Stellen. Die gemessene Höhe und Breite eines runden Objektes sollte bei jeder Messung gleich sein. Aber wir sind ja nicht in der reinen Mathematik, sondern in der realen Welt. Da stimmen die Werte nie ganz exakt überein und außerdem kann der Ball leicht deformiert sein und könnte trotzdem als rund durchgehen. Bis zu welcher Abweichung ist rund rund? Ganz abgesehen davon, dass wir das Objekt bislang nur in zwei Dimensionen vermessen haben. Die Tiefe haben wir noch gar nicht betrachtet. Was ist, wenn es sich bei dem vorliegenden Objekt um ein rotes Rad handelt? Etc. etc.
Typischerweise bilden Merkmale richtige Häufchen in einem so genannten Phasenraum. Der Phasenraum ist die geometrische Darstellung der Eigenschaften, die betrachtet werden. Im Falle des roten Balls also Wellenlänge des empfangenen Lichtes gegenüber Höhe und Breite des Objektes. Wenn alles gut läuft, dann bilden die Objekte, die tatsächlich einen roten Ball beschreiben, in diesem Phasenraum einen Haufen. Z.B. so:
Bild: Klassifikation eines Vokals anhand zweier Merkmale. (Phoneme Classification over the Reconstructed Phase Space using Principal Component Analysis)
Darüber kann man jetzt ein Gitter legen und innerhalb dieser Grenzen sagen: Das ist wahrscheinlich der Vokal “a” oder das ist ein roter Ball. Das ist sozusagen das Regelwerk, nachdem verschiedene Objekte unterschieden werden – nur graphisch dargestellt. So einen Phasenraum kann man für so ziemlich jedes Problem konstruieren. Allerdings kann diese Wolke, die man ja irgendwie eingrenzen will, ziemlich diffus sein. Dummerweise überlagern sich auch oft verschiedene Haufen gegenseitig. die unterschiedliche Objekte beschreiben. Es gibt dann eine diffuse Schnittmenge bzw. einen Überlapp, der es unmöglich macht, aufgrund der verwendeten Merkmale ein Objekt der einen oder anderen Klasse zuzuordnen. Manchmal muss man sich dann ein zusätzliches Merkmal überlegen und es eingeben. Manchmal stellt sich auch heraus, dass ein bestimmtes Merkmal wertlos ist und kann das rausnehmen und spart dadurch Rechenzeit. Denn auch das ist so ein Problem bei der ganzen Geschichte. Je mehr Merkmale ich dem System füttere, desto steiler geht die Rechenzeit nach oben. Bis es im Extremfall nutzlos ist.
Solche Dinge haben sich die Wissenschaftler auch bei BIRD überlegt, um eine Software zu entwickeln die automatisch mit einer hohen Zuverlässigkeit Brände erkennt. Die Klassifizierung eines Feuers geschieht über die Kombination von Messungen im TIR (langwelliges) und MIR-Kanal (kurzwelliges Infrarot) kombiniert, um daraus die Temperatur eines Feuers einzelnen Ortes zu berechnen. (Eben Bi-spektral wie das auch im Namen des Satelliten anklingt.) Die Aufnahmen der anderen Kamera dienen zur Absicherung, dass wirklich ein Feuer erkannt wurde und nicht etwa an Vegetation reflektiertes Sonnenlicht, das in der IR-Kamera ebenfalls fälschlicherweise als Feuer angezeigt werden kann.
Ein Bericht über die Effizienz der Software an Bord von BIRD im Vergleich zu anderen verwendeten Programmen lässt sich diesem Special Report entnehmen. Getestet wurde u.a. anhand von Buschfeuern in Australien im Januar 2002.(3)
Die Auflösung von BIRD ist so hoch, dass auch die traditionellen Pfingst- oder auch Osterfeuer vom Weltall aus aufgelöst werden:
Oder aber auch Bauer Kranz brennender Holzabfallstoß:
BIRD ist als Machbarkeitsstudie gedacht, um zu zeigen, dass Erdsatelliten einen wichtigen Beitrag zur Brandbekämpfung leisten können. BIRD ist bis zum heutigen Tag aktiv. (Hier gibt es die Operations Activity Files des deutschen Kontrollzentrums dazu.). Das ist nicht ganz selbstverständlich. Ich hab mal vor Jahren auf einer Tagung der Deutschen Physikalischen Gesellschaft (DPG) mit einem der Kollegen darüber gesprochen. Damals wusste er nicht, ob sie das Geld für eine weitere Förderung bewilligt bekommen würden. Offenbar war das Geld dann doch aufzutreiben. Grund genug, diesem kleinen aber feinen Satelliten mal eine Referenz zu erweisen.
Weitere Informationen: DLR-BIRD
BIRD im Einsatz: Weitere Ereignisse, die BIRD beobachtet hat.
—–
(1)WAOSS-B ist übrigens ein Recycling-Produkt. Diese Kamera wurde ursprünglich für die gescheiterte russische Mars-96-Mission entwickelt, die dummerweise kurz nach dem Start verglühte. Das war meines Wissens der letzte Versuch der Russen in der Sonnensystemforschung im größeren Umfang mitzuspielen. Bereits diese Mission konnte nach dem Zusammenbruch der UdSSR nur unter starker ESA-Beteiligung realisiert werden. Um so bitterer, dass das Projekt in Trümmern endet.
(2) Wie das jetzt genau funktioniert, mit dem selbst lernen, kann ich ehrlicherweise nicht wiedergeben. Dazu müsste ich mich viel tiefer einlesen und die Zeit habe ich nicht. Das mit der Klassifikation allerdings kenne ich durch die Arbeit einer Kollegin, die damit ihre Doktorarbeit gemacht hat. Dabei ging es um die automatische Staubteufelerkennung in Marsbildern. Zudem arbeite ich derzeit selbst auf dem Gebiet, wenn es darum geht, Planetentransits von anderen Ereignissen zu unterscheiden. Was auch nicht so einfach ist.
(3) Eins der Programme, mit denen verglichen wurde, heißt ABBA (Automated Biomass Burning Algorithm). Wie war das noch mit den Wissenschaftlern und den Akronymen?
Kommentare (1)