Kataloge sind langweilig. Wer in der Astronomie an der Erstellung von Katalogen arbeitet, hat meist kein leichtes Leben. Man verbringt Monate oder Jahre damit, seitenweise Zahlen und Daten zusammenzutragen und am Ende hat man: seitenweise Zahlen und Daten. Keine neu entdeckten Planeten. Keine spannenden Bilder von fernen Galaxien. Keine faszinierenden Erkenntnisse über schwarze Löcher. Nur viele Seiten mit vielen Zahlen drauf. Die Arbeit an Katalogen ist im Vergleich zur restlichen Astronomie nicht wirklich sexy. Aber sie ist von fundamentaler Wichtigkeit.

Früher blieb den Astronomen ja eigentlich kaum etwas anderes übrig, als Kataloge anzulegen. Man konnte die Bewegung der Planeten beobachten und interpretieren und sich philosophische Gedanken über die Beschaffenheit der Welt machen. Aber wenn es um die Sterne ging, hatte man kaum Möglichkeiten. Man könnte nur bestimmen, wo am Himmel sie sich befanden, wie hell sie waren und in welcher Farbe sie leuchteten. All das, was wir heute als moderne Astrophysik kennen, wurde eigentlich erst Ende des 19. Jahrhunderts, durch die Erfindung der Spektroskopie möglich, denn erst dann konnte man bestimmen, aus was die Sterne eigentlich bestehen.

i-e84df7f19f07a9cddff542deaccf40e6-Ursa_Major_(Bode)-thumb-500x398.jpg
Das Sternbild “Großer Bär” aus dem Sternatlas von Johann Elert Bode von 1782

Aber auch wenn die Astronomen der Vergangenheit hauptsächlich Kataloge der Sternpositionen und Sternkarten erstelltet haben, kann man die Bedeutung dieser Arbeit kaum überschätzen. Die Sternpositionen sind fundamental für jede weitere Forschung. So gut wie alles, was man über die Sterne und unser Universum herausgefunden hat, basiert auf der Kenntnis der Position der Sterne. Die zu bestimmen ist aber nicht immer einfach. Früher gab es nur das Auge mit dem man beobachten konnte, dann kamen diverse Instrumente dazu und schließlich Anfang des 17. Jahrhunderts das Teleskop. Die Bestimmung der Positionen wurde immer genauer und immer mehr Astronomen veröffentlichten Kataloge. Irgendwann aber stießen sie an eine nicht zu überwindende Grenze. Unsere Erde ist von einer Gashülle umgeben und die Luft in dieser Atmosphäre bewegt sich. Diese Luftunruhen verzerren die astronomischen Bilder; sie sind der Grund, warum die Sterne auch mit freiem Auge oft sichtbar flackern. Bei der Bestimmung ihrer Position führt dieses “Seeing” genannte Phänomen dann natürlich zu großen Ungenauigkeiten. Da nützt es auch nichts, wenn man die Teleskope größer und größer macht. Man kann dann damit mehr Licht sammeln und immer weiter entfernte Objekte sehen. Aber ihre Position wird man auch damit nicht genauer bestimmen können – die Atmosphäre ist für alle gleich. Techniken wie die adaptive Optik können ein bisschen helfen aber auch sie haben ihre Grenze und am Ende steht man immer wieder vor der gleichen unüberwindbaren Grenze. Die Position der Sterne lässt sich von der Erde aus nicht beliebig genau bestimmen.

Aber warum ist das so wichtig? Was nützt es uns, wenn wir ganz genau wissen, wo sich ein Stern befindet? Die Position eines Sterns ist der Schlüssel zu allen weiteren Informationen. An erster Stelle steht hier seine Entfernung. Die herauszufinden ist nicht leicht; ein Stern ist nur ein Lichtpunkt am Himmel und er kann genau so gut nah wie fern sein. Die Entfernung kann man dann am besten aus der Parallaxe des Sterns bestimmen. Da sich die Erde ja im Laufe eines Jahres um die Sonne bewegt, betrachten wir einen bestimmten Stern z.B. im Juli aus einer anderen Blickrichtung als im Dezember. Seine Position vor den Hintergrundsternen verschiebt sich also scheinbar ein wenig und diese Änderung nennt man Parallaxe. Seine Position ändert sich! Wenn wir den Ort eines Sternes ganz genau bestimmen und dann schauen, wie er sich im Lauf eines Jahres verändert, dann erhalten wir seine Parallaxe und die ist umso kleiner, je weiter der Stern weg ist. Die Messung der Position liefert also die Entfernung. Und kennen wir erstmal die Entfernung, dann können wir auch berechnen, wie hell der Stern tatsächlich ist, wie heiß er tatsächlich ist – und so weiter. Erst jetzt können wir wirklich Astrophysik betreiben. So lange wir keine haben, wie weit die Sterne entfernt sind, wissen wir auch nicht, wie die Milchstrasse aufgebaut ist. Sitzen wir mitten drin? Oder sind wir am Rand? Hat unsere Galaxie die Form einer Scheibe, einer Kugel oder sieht sie ganz anders aus? Erst die Bestimmung der Entfernung der Sterne liefert hier verlässliche Informationen. Wir wollen die Urknalltheorie überprüfen und herausfinden, ob in unserem Universum wirklich nichts älter ist, als die 13.7 Milliarden Jahre, die seit seiner Entstehung vergangen sind? Dann müssen wir damit anfangen, die Position der Sterne zu bestimmen. Egal welche astronomische Fragen man beantworten will: am Ende braucht man dazu so gut wie immer Informationen über die Position und die Entfernung der Sterne.

i-9ad94299f10b25a80a9bfd1bb9309bc7-fk5-thumb-500x661.gif
Ausschnitt aus dem FK5-Katalog (Fricke et al. 1988)

Ende des 20. Jahrhunderts hatte man so gut wie alles getan, was möglich war. Nach den ersten Messungen von Sternparallaxen im 19. Jahrhundert bestimmte man immer mehr Positionen genau genug um Entfernungen zu den Sternen messen zu können. Hunderte Kataloge erschienen und wurden von den Astronomen erweitert, verbessert oder zu neuen Katalogen zusammengestellt. Am Ende dieser Entwicklung steht der FK5, der fünfte Fundamentalkatalog der in jahrelanger Arbeit am Astronomischen Recheninstitut in Heidelberg kompiliert wurde. Er enthält Daten aus etwa 260 Einzelkatalogen die bis zu 100 Jahre zurück reichen. Er liefert extrem genaue Werte für die Entfernung der Sterne. Und zwar für 1535 von ihnen. Ja, Ende des 20. Jahrhunderts kannte man von noch nicht einmal 2000 Sternen wirklich gute und exakte Entfernungen. Klar,beobachtet hatte man viel mehr. Aber eben nicht immer genau genug. Nicht so genau, wie es nötig gewesen wäre um wirklich die Wissenschaft zu treiben, die die Astronomen gerne getrieben hätten. Deswegen hatten sie sich schon lange dafür eingesetzt, die Erde zu verlassen und die Beobachtung ins Weltall zu verlegen. Es musste ein Satellit her, der die Sternenpositionen aus dem All vermessen konnte, ganz ohne störende Atmosphäre.

So entstand Hipparcos (High Precision Parallax Collecting Satellite). Die ersten Ideen dazu gab es schon Anfang der 1960er; kurz nach dem mit Sputnik I überhaupt das erste Mal ein Satellit die Erde umkreiste. Aber wie das so ist mit Satelliten, dauert es lange von der ersten Idee zum tatsächlichen Raketenstart. Hipparcos hatte unter der allgemeinen Unattraktivität der Astrometrie genauso zu leiden wie die menschlichen Katalogersteller. Eine teure und komplizierte Mission ins All, nur um die Position der Sterne noch genauer zu messen? Wer braucht sowas? Glücklicherweise gab es in der europäischen Weltraumagentur genug Leute, die wussten, wie wichtig so eine Mission für die Wissenschaft wäre und sie wurde umgesetzt. Es gab zwar noch ein paar bange Momente: Hipparcos musste in der letzten Entscheidung gegen die Raumsonde Giotto antreten, die zum Kometen Halley fliegen sollte. Da sich Giotto kaum verschieben ließ – immerhin kommt der Komet nicht so oft in die Nähe der Erde – musste Hipparcos erstmal wieder warten. Aber dann schließlich konnte man ernsthaft an die Konstruktion gehen. Geplant und gebaut in den 1970er und 1980er Jahren stand Hipparcos gerade an der Schwelle vieler neuer Technologien. Als die Wissenschaftler aufgefordert wurden, Listen mit Sternen einzusenden, deren Positionen sie gerne bestimmt hätten, kamen die nicht per Email. Sondern es wurden große Pakete mit Magnetbändern oder gar noch Lochkarten. Die Kommunikation der beteiligten Wissenschaftler und Techniker erfolgte per Brief oder Telex. Der Satellit verwendete keine der heute überall gebräuchlichen CCD-Chips sondern einen speziellen Photomultiplier um digitalisierte Himmelsbilder zu erhalten.

i-a526013200d0879a76f2c56cd5740fa6-Hipparcos-testing-estec-thumb-500x590.jpg
Hipparcos wird getestet (Bild: Michael Perryman, CC-BY-SA 3.0)

Am 8. August 1989 war es dann endlich soweit. Hipparcos flog an Bord einer Ariane-4-Rakete vom Weltraumbahnhof in Kourou in Französisch-Guayana ins All. Der Start klappte wunderbar, alle waren zufrieden und begeistert. So lange, bis der sogenannte Apogäumsmotor gezündet werden sollte dessen Aufgabe es war, Hipparcos in eine geostationäre Umlaufbahn zu bringen. Der funktionierte nämlich nicht. Egal was man probierte: er sprang nicht an. Das war natürlich mehr als blöd. Anstatt in einer hohen, kreisförmigen Umlaufbahn die Erde zu umkreisen hing Hipparcos nun in einer elliptischen Bahn fest, die ihn immer wieder durch die Van-Allen-Gürtel brachte; Zonen mit erhöhter Strahlenbelastung die die sensiblen Instrumente an Bord des Satelliten schnell zerstören würden. Die Techniker der ESA packten alle Tricks aus, die sie kannte und schafften es, Hipparcos in eine etwas weniger destruktive Bahn zu bringen. Die Wissenschaftler schrieben indessen die komplette Software um und dachten sich neue Beobachtungsprogramme aus. Es wurden zusätzliche Bodenstationen eingerichtet um den Satelliten auch auf der neuen Bahn kontrollieren zu können. Am Ende hatte man dann doch noch das Unmögliche geschafft und Hipparcos konnte anfangen, den Himmel zu vermessen. Und das tat er besser, als man es zu hoffen gewagt hatte. Als 1998 der endgültige Katalog veröffentlicht wurde, enthielt er über hunderttausend Sterne deren Position 50 Mal genauer bekannt war, als es von der Erde aus möglich gewesen wäre. Und als man die Bilder auswertete, die der Satellit ständig machen musste, um seine eigene Bahn zu bestimmen, konnte man daraus sogar noch einen weiteren Katalog basteln. Dieser Tycho-Katalog enthielt über eine Million Sterne deren Positionen immer noch viel genauer waren als in den bisherigen Katalogen (beide können übrigens mittlerweile auch über das Internet abgefragt werden).

i-9c3dd0022d52c912578f8ad0af172cb6-Star_globe_views_600-thumb-500x164.jpg
Einen Hipparcos-Himmelsglobus zum Selberbasteln gibt es hier

Der Einfluss, den die Hipparcos-Mission auf die moderne Astronomie hatte kann gar nicht hoch genug eingeschätzt werden. Er hat zwar keine medientauglichen Fotos spektakulärer Himmelsobjekte geliefert sondern nur viele Seiten voller Zahlen. Aber diese Seiten voller Zahlen haben die astronomische Forschung in so gut wie jedem Bereich beeinflusst und vorwärts gebracht. Hipparcos gehört zu den ganz großen wissenschaftlichen Leistungen der Menschheit und es ist schade, dass er in den Augen der Öffentlichkeit so ein Schattendasein fristet.

Wer mehr darüber erfahren will, wer die ganze dramatische und spannende Entstehungsgeschichte von Hipparcos kennen lernen will und erfahren möchte, wie seine Daten die Forschung beeinflusst haben, der sollte unbedingt das machen, was ich getan habe, bevor ich diesen Artikel geschrieben habe und das Buch “The Making of History’s Greatest Star Map” von Michael Perryman lesen. Es ist spannend wie ein Krimi, es enthält jede Menge wunderbare Geschichten über die Astronomie und man bekommt ein Gefühl dafür, was für ein irrsinniger Aufwand es ist, eine wissenschaftlichen Satelliten zu bauen und ins All zu bringen. Perryman war von Anfang an dabei, er war der wissenschaftliche Leiter der Hipparcos-Mission und kennt wirklich jedes Detail dieser Geschichte aus persönlicher Erfahrung. Er war auch als “Project Scientist” an der Planung von “Gaia” beteiligt. Dieser Satellit der ESA soll 2013 ins All geschickt werden und als Nachfolger von Hipparcos alles in den Schatten stellen, was er bis jetzt geleistet hat. Die Position der Sterne werden noch genauer vermessen werden und diesmal wird es am Ende einen Katalog geben, der eine Milliarde Sterne beinhaltet. Als “Nebenprodukt” der Beobachtungen werden etwa eine Million neuer Kometen und Asteroiden anfallen, ein paar zehntausend extrasolare Planeten, braune Zwerge und Supernovae werden entdeckt werden und hunderttausende weiße Zwerge und aktive Galaxien. Erst kürzlich hat die ESA die größte Kamera fertiggestellt die je für einen Satelliten gebaut wurde und wenn alles klappt, wird sie an Bord von Gaia in wenigen Jahren den Himmel beobachten. Und dann die Wissenschaft vermutlich ebenso revolutionieren wie es Hipparcos getan hat.

Kommentare (13)

  1. #1 miesepeter3
    13. Juli 2011

    @Florian Freistetter

    Also manchmal hast Du es wirklich gut drauf und verstehst es, einen mitzureißen.
    Schöner Artikel.

  2. #2 Stefan
    13. Juli 2011

    Schöner Artikel, Florian. Freut mich, wieder mal so einen Rückblick zu lesen. Was aktuell los ist krieg ich zwar meistens mit, aber macht Spaß, mal was über ältere Entdeckungen zu lesen. Und Hipparcos hats verdient 😉

  3. #3 Alderamin
    13. Juli 2011

    Schön geschrieben.

    An Hipparcos hängt die gesamte moderne Entfernungsmessung der Astronomie, bis zum Rand des sichtbaren Universums. Ohne Hipparcos gäbe es keine genaue Entfernung zu den nächsten pulsierenden Delta-Cephei-Sternen. Ohne deren Entfernungskalibrierung gäbe es keine genauen Entfernungen zu den nächsten Galaxien. Ohne die Entfernungskalibrierung zu diesen Galaxien gäbe es keine genauen Entfernungen zu den nächsten Typ Ia-Supernovae. Und ohne diese keine Entfernungsmessung bis zum Rand des Universums, die zur Entdeckung der dunklen Energie geführt hat.

    1978 war (laut astronomischen Lehrbuch) die Andromeda-Galaxie noch 1,8 Millionen Lichtjahre entfernt und das Weltalter 10-20 Milliarden Jahre, genauer konnte das niemand sagen. Nach Hipparcos wissen wir, dass die Andromeda-Galaxie 2,5 Millionen Lichtjahre entfernt ist, und durch die Kalibrierung der Supernova-Ia-Helligkeiten konnte die Entwicklung des Hubble-Parameters so weit eingeschränkt werden, dass das Weltalter heute mit 13,75 +/-0,13 Milliarden Jahren auf 1% genau bekannt ist. Das alles ist Hipparcos zu verdanken.

  4. #4 Bullet
    13. Juli 2011

    Ganz zu schweigen von den vielen Sternen, die man in Celestia sehen kann und die eben nicht nur fiktive Punkte sind, sondern auf Daten von u.a. Hipparcos fußen.
    Ich warte ungeduldig darauf, daß die Gaia-Daten in Celestias Nachfolger einfließen. Bis dahin hab ich auch eine kleine Kuppel und einen Beamer, der konvex projizieren kann…

  5. #5 Grüse
    13. Juli 2011

    Noch ein spannender Artikel!

    Nur eine Kleinigkeit habe ich auszusetzen:

    … kann man die Bedeutung dieser Arbeit kaum unterschätzen.

    Was bedeutet, dass die Arbeit so unwichtig ist, dass man ihre Bedeutung kaum zu niedrig einschätzen kann? Ich glaube Du meintest “kaum überschätzen”, oder? 🙂

  6. #6 Florian Freistetter
    13. Juli 2011

    @Grüse: Ähmm… ja, du hast natürlich recht. Danke!

  7. #7 Engywuck
    13. Juli 2011

    @Bullet: also ist Hipparcos daran schuld, dass mein Rechner lahmgelegt wird, wenn ich Celestia auf einem Desktop mit 32bit Farbtiefe starte? Vielen Dank, Hipparcos…

    (Spass beiseite ja, celestia fehlt eine adaptive Detailanpassung der Startseite – 0,2fps ist doch etwas mager. Wenigstens ist es nur single-threaded, d.h. man hat ne Chance, es abzuschiessen. Auch schon was…)

  8. #8 vila
    13. Juli 2011

    unterschätzen, überschätzen
    also meiner meinung nach hast du es anfangs richtig geschrieben.
    “kaum unterschätzen”
    bedeutet doch das man etwas nicht zu niedrig einschätzen kann oder?
    ich bin verwirrt!

    und wenn ich das mal anmerken darf, die ganzen scripte auf deiner seite nerfen ganz schön 🙂

  9. #9 973
    14. Juli 2011

    Ich halte die Astrometrie für eine der wichtigsten Gebiete der Astronomie. Es ist reine Beobachtung, kaum Theorie und keine Spekulation. Ferner ist es eine unmittelbare Messung, nicht nur eine qualitative Aussage. Und, sie gibt sofort eine Aussage und damit eine Bewertung einer Vorhersage etwa aufgrund verschiedener Theorien. Faktisch ist die Astrometrie unserer nächsten Umgebung bereits ausreichend, kosmologische Aussagen so genau zu erhalten wie sonst nirgends. So kann man aufgrund der Bewegung der äußeren Planeten und Planetoiden schon alle überhaupt ernstzunehmend gewesenen alternativen Gravitationstheorien ausschließen. Die Bewegung der inneren Planeten und nicht-kommensurabler (besonders, bestimmter erdnaher) Planeten erlaubt die sekuläre Veränderung der Lichtgeschwindigkeit oder der Gravitationskonstante auf inzwischen weniger als im Bereich von Promille über das Weltalter hinweg abzuschätzen. Durch Objekte wie Ikarus oder Merkur lassen sich Quadrupolmoment der Sonne sowie die Koeffizienten der post-newton’schen Darstellung der Gravitation sehr genau berechnen (was mit der ART übereinstimmt). Ferner läßt sich eine evtl. Rotation unseres Bezugssystemes genau ausschließen bzw korrigieren.

    Wie aber der Artikel ebenfalls ganz richtig schreibt, ist dies nur durch sehr genaue Erstellung eines (zu benutzenden und dann iterativ zu verbessernden) ad-hoc Systemes möglich. Der Fortschritt dabei ist durch die Satelliten enorm gestiegen. Vor etwa 30 Jahren war die Genauigkeit im Bereich von ca. 1″ bis 0,3″ . Heutzutage ist sie vermutlich tausend mal besser. Für zahlreiche Berechnungen und Weiterverwendung früherer Beobachtungen, etwa der Berechnung der Masse von Asteroiden und/oder Parametern wie der oben genannten, werden alle alten Beobachtungen mit modernen Sternpositionen neu zu reduzieren sein, Platten oft nochmal ausgemessen falls noch vorhanden. Das ist ‘undankbare’ Arbeit, die Monate oder Jahre dauert, und entweder überhaupt nicht oder als Zahlenwust veröffentlicht wird, die aber trotzdem notwendig und die Basis für bestmögliche weitere Arbeit und Ergebnisse ist. Das ist halt nun einmal Teil der Forschung.

  10. #10 Alderamin
    14. Juli 2011

    @973

    Viel richtiges, bis auf diesen Punkt:

    Vor etwa 30 Jahren war die Genauigkeit im Bereich von ca. 1″ bis 0,3″ . Heutzutage ist sie vermutlich tausend mal besser.

    Man neigt immer dazu, die Leistungen vergangener Generationen zu unterschätzen. Ich hab’ so um 1976 angefangen, mich mit Astronomie zu beschäftigen, und da galten noch 100 Lichtjahre als per Parallaxe direkt bestimmbar (mit Teleskopen von der Erde aus). Das wären dann etwa 30 pc oder 0,03″ Messgenauigkeit. Darüber hinaus half man sich mit Sternstromparallaxen, HRDs von Sternhaufen und der Schätzung der absoluten Helligkeit über die Spektralklasse, an denen Cepheiden und Supernovae kalibriert wurden.

    Hipparcos hat 0,001″ Messgenauigkeit erreicht, also eine Verbesserung um den Faktor 30 (wären dann nach Adam Riese 3000 LJ Reichweite). Gaia soll dann 25E-6″ erreichen, nochmal einen Faktor 40 besser als Hipparcos. (Quellen: Wikipedia)

    Es ist mir allerdings ein Rästel, wie man damals bei einem Seeing von typischerweise wenig unter 1″ und ohne Interferometrie alleine auf der Basis von Fotoplatten die 0,03″ Genauigkeit erreicht hat. Die Leute damals waren GUT. Ich nehme an, man hat den Winkelabstand der exakten Mitte des Sternenbildchens unter dem Mikroskop relativ zu möglichst vielen Hintergrundsternen gemessen und am Ende alle Einzelparallaxen gemittelt.

  11. #11 973
    14. Juli 2011

    Ich habe damit die Genauigkeit gemeint, die man durchschnittlich bei Astrometrie mit den damaligen Mitteln erzielt hat. Dazu waren vorhanden der AGK3 Katalog am Nordhimmel und der SAO Katalog am Südhimmel. Es gab auch den FK4 und später auch den Perth70 Katalog, die genauer waren, jedoch waren deren Sterne seltner verteilt (zum Ausgleich von Refraktion, Verzeichnung usw braucht man in der Praxis schon etliche Sterne), meist heller und daher schlechter zu messen, usw. Letztlich hat sich auch in den mittl. Fehlern bei der Bahnbestimmung von Planetoiden oder Kometen diese durchschnittlich erzielte Genauigkeit wiedergespiegelt. Heutzutage dürfte da die Situation durch genauere Positionen von mehr Sternen ganz erheblich besser sein. Freilich gab es auch schon damals Sonderfälle, wo genauere (meist Relativ-)Positionen bestimmbar wurden, einschließlich bei der Parallaxe oder zBsp Beobachtung von Monden der Planeten. Das seeing ist bei Aufnahmen selbst unter schlechten Bedingungen und kurzer Belichtung dagegen nur ein untergeordnetes Problem; etwa bei Beobachtungen per CCD oder beim scannen und rechnerischen Bestimmen der Mitte von Sternbildern (zBsp bei ESO mit der Software midas) war sie bei Objekten etwa 10.-17. Größe idR 0,05 … 0,01″ genau oder noch besser. Bei Mikrometer-Beobachtungen (Asteroid zu Stern) konnte man manchmal noch 0,1 … 0,3 erreichen, wobei das seeing sozusagen subjektiv gemittelt wird, sodaß auch hier die größte Ungenauigkeit letztlich die Position des Sternes war. Größte Ursache für die damaligen Ungenauigkeiten war die sehr inhomogene Herkunft der Positionen vom FK4 usw. Die Messreihen (meist Meridianbeobachtungen) einzelner Beobachter hatten unvermeidbarerweiseunterschiedliche eigene ‘Systeme’ und systematische Effekte, auch subjektive zBsp helligkeitsabhängige, was sich beim Zusammenlegen nur bedingt ausgleichen ließ. Trotzdem waren diese Kataloge aber immer das bestmöglichste was unter hohem Aufwandt aus allem Beobachtungsmaterial erzielbar war. Ein großer Teil solcher Fehlerquellen fällt wohl heutzutage weg bei homogeneren Beobachtungsserien eines einzelnen Satelliten, andererseits aber besteht dann die Gefahr systematischer Fehler ‘unberücksichtigter’ Effekte (etwa fehlerhafter Modellierung von technischen Details die Einflus auf die Resultate haben), sodaß weiterhin mehrere voneinander unabhängige Projekte durchzuführen und die Ergebnisse zusammenzulegen sind.

  12. #12 Alderamin
    14. Juli 2011

    @973

    Du scheinst vom Fach zu sein. Wenn der Sternenkatalog so eine Rolle spielt, dann sollte man sich halt auf relative Messungen in Bezug auf Sterne des gleichen Katalogs beschränken. Für die Parallaxe kommt es ja auch gar nicht so sehr auf die absolute Position an, vielmehr geht es ja um die Bewegung des Sterns relativ zum Hintergrund. Da sollte es eigentlich egal sein, welche Position ein Hintergrundstern hat, so lange er halt weit weg ist und kaum eigene Parallaxe zeigt.

    Ich hab’ mal in den späten 80ern in einem Astronomiepraktikum Asteroidenpositionen gemessen. Da haben wir unter’m Mikroskop auf Fotoplatten die Abstände zu bestimmten Sternen gemessen, die wiederum aus Katalogen vorgegeben wurden. Da ist es natürlich klar, dass die absolute Position und die Herkunft des Vergleichsterns eine große Rolle für die Positionsbestimmung spielt.

  13. #13 973
    15. Juli 2011

    Genau. Wenn immer dieselben Anschlussterne benutzt werden, werden die Positionen auch ähnlicher, weil die sonstigen Fehlerquellen meist geringer sind. Auch bei Planetoiden wenn zBsp in kurzer Zeit (zBsp einer Nacht) viele Beobachtungen gemacht werden, sind deshalb die Restfehler alle sehr ähnlich; ihr Mittelwert entspricht überwiegend dem systematischen Fehler (Katalogfehler) an dem Ort, und an ihrer Streuung kann man die Größenordnung anderer Probleme (zBsp Luftunruhe, Messung der Mitte der Stern-/Planeten-Abbildung) ersehen.