In den letzten Jahren haben Astronomen viele Planeten bei anderen Sternen entdeckt und darunter auch viele sehr junge Systeme, bei denen die Himmelskörper gerade erst entstanden sind. Wir kennen außerdem viele sogenannte protoplanetare Scheiben: große Mengen an Staub und Gas die einen Stern umgeben und aus denen später einmal Planeten entstehen. Was man bis jetzt allerdings noch nicht beobachten konnte, ist das, was dazwischen passiert. Der Staub klumpt im Laufe der Zeit zu größeren Brocken zusammen, den Planetesimalen die wiederum selbst miteinander kollidieren und dabei am Ende große Planeten formen. So lautet zumindest die Theorie, denn gesehen hat diesen Vorgang bis jetzt noch niemand. Astronomen von der Universität Bristol haben nun überlegt, wie man das ändern könnte.

Es gibt mehrere Gründe, warum man den kritischen Schritt bei der Entstehung von Planeten so schwer beobachten kann. Staub zum Beispiel ist zwar klein, hat aber im Verhältnis zu seiner Masse (insgesamt) eine sehr große Oberfläche. Staub wird durch die Strahlung des Sterns aufgeheizt und gibt die Strahlung in Form von Wärme wieder ab und das lässt sich sehr gut beobachten. Planeten haben im Verhältnis zu ihrer Masse nur eine sehr kleine Oberfläche und leuchten selbst nicht; sind aber eben massereich genug um ihren Stern gravitativ zu beeinflussen was sich ebenfalls beobachten lässt. Aber die meter- bzw. kilometergroßen Felsbrocken, die Planetesimale die aus dem Staub entstanden sind und aus denen die Planeten entstehen sind weder massereich genug um irgendwelche beobachtbaren Auswirkungen beim Stern zu verursachen, noch ist ihre Oberfläche ausreichend um genug detektierbare Strahlung abzugeben. Und haben sich daher bis jetzt der Beobachtung immer erfolgreich entzogen.

Dieses Bild, das vom großen Radioteleskop ALMA aufgenommen worden ist, zeigt eine protoplanetare Scheibe um den Stern HL Tauri:

Man sieht das Leuchten des Staubs, aber auch dunkle Stellen in der Scheibe, die darauf hinweisen, dass sich hier schon größere Planeten gebildet haben. Mit ihrer Gravitationskraft räumen sie den Staub entlang ihrer Umlaufbahn aus dem Weg und bald wird sich die protoplanetare Scheibe ganz aufgelöst haben. Den Zwischenschritt der eigentlichen Planetenentstehung hat man hier schon verpasst – aber in Zukunft könnte ALMA anderswo erfolgreicher mit der Beobachtung sein.

Das ist das Resultat einer Arbeit von Zoë Leinhardt von der Universität Bristol und ihrer Kollegen (“Numerically Predicted Indirect Signatures of Terrestrial Planet Formation”). Sie haben sich überlegt, dass man zwar die Planetesimale nicht direkt beobachten kann, aber vielleicht die Auswirkungen dessen, was sie tun wenn sich Planeten bilden. Das geschieht dem aktuellen Modell der Planetenentstehung zufolge durch Kollisionen. Planetesimale stoßen zusammen und verschmelzen dabei zu immer größeren Körpern. Und wenn sie das tun, entsteht dabei neuer Staub. Staub, der sich unter Umständen beobachten lässt.

Um herauszufinden, wie sich der Staub bei der Entstehung erdähnlicher Planeten (das heißt Planeten mit ungefähr der gleichen Größe und Masse der Erde) verhält, haben Leinhardt und ihre Kollegen den ganzen Prozess am Computer simuliert. Das ist nicht ganz so einfach, wie eine reine Simulation der Bewegung von Himmelskörpern. Denn hier müssen auch die Kollisionen und ihr Ergebnis berücksichtigt werden. Je nachdem mit welcher Geschwindigkeit die Planetesimale kollidieren und welche Größe und Masse sie haben, entstehen am Ende dabei mehr oder weniger große Objekte und mehr oder weniger Staub.

Die Simulation von Leinhardt und ihren Kollegen begann mit einem Ring aus Planetesimalen der sich in einem Abstand von 0,5 bis 1,5 Astronomischen Einheiten um einen sonnenähnlichen Stern erstreckt. Eine Astronomische Einheit entspricht dem mittleren Abstand der Erde von der Sonne und der Ring aus Planetesimalen würde sich also in unser Sonnensystem versetzt in etwa zwischen den Bahnen von Venus und Mars befinden. Die Gesamtmasse aller Planetesimale im Ring beträgt 2,8 Erdmassen und ihre Größe ist entsprechend den üblichen Modellen der Planetenentstehung verteilt.

Am Computer haben Leinhardt und ihre Kollegen nun nachgesehen, was im Laufe der Zeit mit diesen Planetesimalen passiert und was aus ihnen entsteht. Das hier zum Beispiel:

Dieses Bild zeigt die am Ende der Simulation entstandenen jungen Planeten. Sie sind mit ihrem jeweiligen Abstand vom Stern aufgereiht (der auf der x-Achse in Astronomischen Einheiten angegeben ist). Die beiden Reihen entsprechen zwei leicht unterschiedlichen Computermodellen für das Verhalten der Planetesimale bei Kollisionen. Jeder Planet ist als Tortengrafik gezeichnet, in der angegeben ist, wie viel Material aus welchem Bereich des ursprünglichen Rings zu seiner Entstehung beigetragen hat, was durch die Farbe gekennzeichnet ist. Logischerweise enthalten sternnahe Planeten hauptsächlich ursprünglich sternnahes Material und sternferne Planeten sternfernes Material. Aber es kommt durchaus aus zu Mischungen, besonders im Bereich dazwischen, also der Region, in der sich um einen sonnenähnlichen Stern auch die sogenannte habitable Zone befindet (die Region, in der es nicht zu heiß und nicht zu kalt für die Entstehung von Leben ist). Wenn Material aus unterschiedlichen Regionen der Scheibe miteinander kollidiert hat das auch sehr spezielle Auswirkungen auf die Produktion von Staub. Die Geschwindigkeit der Planetesimale ändert sich, je nachdem ob sie den Stern nah oder fern umkreisen und auch ihre Menge hängt vom Abstand ab.

Welche unterschiedlichen Kollisionsarten bei der Entstehung der Planeten eine Rolle spielen, zeigt diese Grafik:

Man sieht hier auf der x-Achse die simulierte Zeit die während den Kollisionen vergangen ist (insgesamt 400.000 Jahre). Für jedes Zeitintervall gibt ein Balkendiagramm an, welche Kollisionsarten wie oft vorgekommen sind, was durch die Farben gekennzeichnet ist. Schwarze Balken bedeuten zum Beispiel eine komplette Verschmelzung der beiden kollidierenden Planetesimale. Dunkelblau sind Kollisionen, bei denen es nur zu einer teilweisen Verschmelzung kam und hellblaue Balken geben Zusammenstöße an, bei denen ein Objekt wesentlich schneller unterwegs war als das andere und bei der Kollision intakt blieb während das andere Objekt zerstört wurde. Grüne, gelbe oder rote Balken zeigen noch heftigere Kollisionen bei denen noch mehr Staub entsteht. Die weiße Linie, die sich durch das Diagramm zieht zeigt an, wie viele Kollisionen es insgesamt gab.

Man sieht recht deutlich, dass die Kollisionen im Laufe der Zeit schnell abnehmen. Aber das ist auch logisch: Je mehr Material vorhanden ist, desto mehr Kollisionen gibt es und je mehr Kollisionen es gibt, desto schneller verschwinden die Planetesimale die kollidieren können und werden zu größeren Planeten. Man sieht aber auch, dass die Zahl der perfekten Verschmelzungen im Laufe der Zeit sinkt während die stark staubproduzierenden heftigen Kollisionen gegen Ende der Simulation zunehmen.

Leinhardt und ihre Kollegen waren aber ja eigentlich nicht so sehr an den großen Endprodukten der Planetenentstehung interessiert, sondern an dem, was dabei übrig bleibt: Dem Staub. Und haben daher auch genau beobachtet, wo und wie sich die ganzen Trümmer der Kollisionen auf- und verhalten. Aus diesen Daten haben sie ein entsprechendes Modell erstellt, das zeigt wie viel Staub sich während der Entstehung der Planeten in einem bestimmten Abstand vom Stern befinden muss. Aber das ist nur der erste Schritt, denn man muss nun auch noch berechnen, auf welche Art dieser Staub Licht des Sterns absorbiert, abstrahlt oder reflektiert, denn das ist es ja, was man am Ende beobachten kann. So sehen die Resultate aus:

Die oberste Reihe des Diagramms zeigt die Dichteverteilung der Planetesimale zu verschiedenen Zeitpunkten während der simulierten Planetenentstehung. Man sieht schön, wie die Scheibe im Laufe der Zeit (also von links nach rechts) immer “klumpiger” wird, da sich aus den vielen kleinen Planetesimalen am Anfang der Simulation wenige große Planeten am Ende bilden. In der zweiten Reihe ist die Dichteverteilung des bei diesem Prozess entstehenden Staubs abgebildet. Und die dritte Reihe zeigt schließlich genau das, was ein Teleskop wie ALMA beobachten könnte, würde es auf in dieser Art verteilten Staub blicken.

Die unterste Reihe des Diagramms besteht also aus simulierten Teleskopbildern und stellt damit auch eine überprüfbare Vorhersage dar. Sie auch tatsächlich zu überprüfen wird allerdings vorerst noch schwer werden. Die abgestrahlte Energie ist zu schwach, um sie selbst mit einem großen Teleskop wie ALMA in einer vernünftigen Zeit beobachten zu können. Man bräuchte dafür absurd lange Belichtungszeiten von mehreren hundert Jahren und das ist natürlich nicht praktikabel. Aber wenn man das ganze Problem entsprechend skaliert und sich auf Sterne konzentriert, deren protoplanetare Scheiben sehr viel mehr Masse enthalten, dann könnte es gehen. Und das ist nicht unwahrscheinlich: Die Masse der Scheibe auf der die Simulationen von Leinhardts Team beruhen war vergleichsweise gering und vermutlich sogar geringer als die, aus der die Planeten unserer Sonne entstanden sind. Andere Sterne können durchaus sehr viel größere Scheiben haben. Und die könnten in den nächsten Jahren tatsächlich mit ALMA detektiert werden. Es liegt jetzt also bei den Beobachtern, die Vorhersagen ihrer Kollegen zu überprüfen…

Kommentare (54)

  1. #1 phunc
    19. Juni 2015

    Die erste Zeile der Bilderserie erinnert an einen Doughnut 😀

  2. #2 phunc
    19. Juni 2015

    Mh. Im Grunde wirklich spannend. Man kann so zumindest etwas genauer einschränken, in welchem Stadium sich grade ein System befindet, dh man könnte rein theoretisch ausrechnen, wann man von der Erde losfliegen muss, damit man dann vor Ort einen jungen Planeten vorfinden und genauer untersuchen kann.

    Das Problem ist nur, dass diese ganzen Prozesse unglaublich lang dauern. Selbst wenn wir ab heute Daten sammeln und konstant beobachten, muss dies ja für die nächsten X * Hunderttausend Jahre gewährleistet sein.

    Wieder ein Artikel der mich ein bisschen deprimiert, weil unsere Lebensspanne viel zu kurz ist um all die tollen Dinge im Universum live beobachten zu können.

    Aber vllt kann mich jmd aufmuntern, indem man näher darauf eingeht, was uns dieses Wissen in den nächsten Jahren für Erkenntnisse liefern wird? Klar, Planetenentstehung usw. aber was konkret? Könnte das irgendwelche Probleme in der Raumfahrt lösen?

  3. #3 bikerdet
    19. Juni 2015

    @ Phunc :
    Es geht wohl eher darum, festzustellen wie wahrscheinlich es ist, das Planeten enstehen, wieviele entstehen, wo sie entstehen und woraus sie wahrscheinlich bestehen.

    Ich erinnere mal an die Drake-Gleichung. Damals waren extrasolare Planeten noch Sci-Fi. Mit jeder Erkenntnis könnnen wir genauere Zahlen für die einzelnen Parameter angeben…

    Im Orionnebel entstehen z.Zt. 2000 – 3000 neue Sonnen und Hubble hat schon ein paar fotografiert bei denen sich solche Scheiben bilden. Wenn alles gut geht und das James-Webb-Teleskop das Hubble-Teleskop ablöst, können wir diese Scheiben genauer untersuchen. Und da ist eine Theorie / Simulation hilfreich, wonach man genau suchen soll.
    Mich faszieniert ja immer die Findigkeit der Menschen, aus dem bischen Licht soviele Informationen zu ziehen ..

    @ Florian :
    Die Spektroskopie soll ja verstärkt eingesetzt werden, um entstehende / vorhandene Exo-Planeten zu erkennen. Geht das in einem so frühen Stadium überhaupt, oder verfälschen die vorhandenen Gaswolken das ‘Bild’ ?

  4. #4 Florian Freistetter
    19. Juni 2015

    @bikerdet: “Die Spektroskopie soll ja verstärkt eingesetzt werden, um entstehende / vorhandene Exo-Planeten zu erkennen. “

    Hmm? Was meinst du jetzt genau? Wie genau definierst du hier “erkennen”?

  5. #5 bikerdet
    19. Juni 2015

    @ Florian :
    Ich habe ‘gehört’, das man mittels der Spektroskopie die Linien der Planeten bzw. deren Atmosphären bei fremden Sonnen erkennen könne. Dies solle intensiviert werden, da man so auch kleinere Exo-Planeten finden könne.
    Meine Frage ging in die Richtung, ob der in den Geburtswolken noch vorhandene Staub diese Suche nicht vereiteln könnte. Da ja auch alle Elemente, aus denen die Planeten gebildet wurden bzw. gerade gebildet werden, auch in den Wolken vorhanden sind.

  6. #6 Artur57
    20. Juni 2015

    “Wir kennen außerdem viele sogenannte protoplanetare Scheiben: große Mengen an Staub und Gas die einen Stern umgeben und aus denen später einmal Planeten entstehen.”

    Ja schon, aber da fangen wir ja reichlich spät mit der Beobachtung an. Nämlich erst, wenn die Kernfusion des Sterns gezündet hat und folglich die Scheibe beleuchtet ist. Können wir unbeleuchtete Scheiben eigentlich sehen? Ich glaube nicht.

    Die Zeit Null in all diesen Diagrammen ist das Zünden des Sterns. Und vorher haben sich offenbar keine größeren Einheiten zusammen getan. Warum auch? Die gravitative Anziehung ist eben sehr gering.

    Das Zünden des Sterns aber ändert die Situation dramatisch. Ab sofort existiert ein Sonnenwind, der die Gase aus dem Zentrum fortbläst, bis hinter die “Schneegrenze”, wie sie in unserem Sonnensystem heißt und zwischen Mars und Jupiter liegt. Gleichzeitig wirkt der Sonnenwind aber auch auf Staubteilchen und die größeren Brocken. Und zwar auf jedes Teichen verschieden, je nach Oberfläche und Gewicht. Jede der Keplerbahnen wird gestört und zwar alle verschieden. Dass es da zu einer Serie von Kolissionen kommt, verwundert nicht.

    Der Sonnenwind hat somit erheblichen Einfluss auf die Planetenbildung. Und auf die Tatsache, dass unser Sonnensystem weitgehend staub- und gasfrei ist. Das nämlich würde die Planeten ausbremsen.

  7. #7 Alderamin
    20. Juni 2015

    @Artur57

    Können wir unbeleuchtete Scheiben eigentlich sehen? Ich glaube nicht.

    Dann unterschätzt Du die Wissenschaftler wieder einmal. Oben im Artikel wird ALMA erwähnt, das ist ein Millimeterwellen-Radioteleskop-Array. Hier sind die Bänder von ALMA aufgezählt. Achte auf die Spalte “Temperature (K) at any RF frequency”.

    Wenn der Staub in der Scheibe diese Temperatur hat, dann ist er für ALMA selbstleuchtend sichtbar. Alleine schon durch die Kompression der Wolke und Beleuchtung durch UV-Licht naher Nachbarsterne werden die 26 K von Band 1 erreicht.

    Und vorher haben sich offenbar keine größeren Einheiten zusammen getan. Warum auch? Die gravitative Anziehung ist eben sehr gering.

    Verstehe ich nicht, die gravitative Anziehung führt doch überhaupt erst zur Bildung des Sterns und der protoplanetaren Scheibe. Wenn der Sternwind dazu kommt, wird die Schwerkraft ja auch nicht größer.

    Das Zünden des Sterns aber ändert die Situation dramatisch. Ab sofort existiert ein Sonnenwind, der die Gase aus dem Zentrum fortbläst, bis hinter die “Schneegrenze”, wie sie in unserem Sonnensystem heißt und zwischen Mars und Jupiter liegt. Gleichzeitig wirkt der Sonnenwind aber auch auf Staubteilchen und die größeren Brocken.

    Schlag’ in Wikipedia mal T-Tauri-Stern nach, das ist die Phase, wenn die Fusion einsetzt. Selbst dann fällt noch Materie auf den Stern, er hat eine Akkretionsscheibe und produziert einen Jet. Erst nach dieser Phase kann er den feinen Staub wegblasen. Das kann Millionen Jahre dauern. Genug Zeit, um Planeten zu bilden.

  8. #8 Artur57
    20. Juni 2015

    “Wenn der Staub in der Scheibe diese Temperatur hat, dann ist er für ALMA selbstleuchtend sichtbar. Alleine schon durch die Kompression der Wolke und Beleuchtung durch UV-Licht naher Nachbarsterne werden die 26 K von Band 1 erreicht.”

    Schön. Und – bilden diese dunklen Sonnensysteme schon Planeten ? Soweit ich sehe, nicht.

    Darum geht es ja: so eine protoplanetarische Scheibe findet erstmal gravitativ zusammen, in der Größenordnung wie etwa die Saturnringe, also vom Staub bis maximal Hausgröße. Da gibt es nun Kollisionen, die bewirken, dass Teile zum Zentrum hinfallen. Die Frage ist nun: ballen sich der Rest zu Planeten zusammen, oder braucht es einen äußeren Anstoß?

    Da junge Sterne fast immer nur Staubscheiben um sich haben, neige ich doch sehr zu ersterem. Auch unser HL Tauri macht da keine Ausnahme. Er ist jetzt knapp 100.000 Jahre alt und es bilden sich gerade die ersten Planeten. Das meiste ist aber noch Staub.

    Also ein Effekt, der bewirkt, dass alle Gasplaneten außen sind und die Gesteinsplaneten innen, sollte in so einem Modell schon vorkommen.

  9. #9 Florian Freistetter
    20. Juni 2015

    @Artur57: “Also ein Effekt, der bewirkt, dass alle Gasplaneten außen sind und die Gesteinsplaneten innen, sollte in so einem Modell schon vorkommen.”

    Ich fürchte, du baust hier schon wieder Privattheorien auf die gar nicht nötig wären, wenn du ausreichend über den Status Quo Bescheid wüsstest. Warum Gasplaneten außen sind, ist hinreichend geklärt. Siehe zB hier: https://scienceblogs.de/astrodicticum-simplex/2014/03/07/sternengeschichten-folge-67-hinter-der-schneelinie-teil-1-wo-die-planeten-entstehen/ und hier: https://scienceblogs.de/astrodicticum-simplex/2014/03/14/sternengeschichten-folge-68-hinter-der-schneelinie-teil-2-wenn-planeten-wandern/
    Und auch dein Bild von der Planetenentstehung ist ein wenig fehlerhaft. Der Strahlungsdruck funktioniert nicht so, wie du dir das anscheinend denkst…

  10. #10 phunc
    20. Juni 2015

    @bikerdet

    Danke für die Erläuterungen!

  11. #11 phunc
    20. Juni 2015

    Eine Beobachtungsfrage:

    Wenn wir “fertige” System betrachten, dann vermutlich meist solche, wo irgendwie Planeten an ihrer Sonne vorüberziehen. Aber diese System hätten man in ihrer protoplanetaren Phase gar nicht beobachten können?

    Im Gegensatz dazu können wir jetzt protoplanetare Scheiben sehen, aber sobald dort kein Staub mehr ist und nur noch Planeten, werden wir von diesen System kaum noch etwas sehen können, da die Planeten aus unserer Perspektive doch gar nicht mehr am Stern vorbeiziehen?

  12. #12 Krypto
    20. Juni 2015

    @phunc:
    Das kommt auf die Art der Beobachtung an.
    Man kann Planeten nicht nur dadurch entdecken, indem sie ihren Heimatstern bedecken(Transitmethode).
    Eine andere Methode besteht darin, dass man das leichte Wackeln des Sterns analysiert.

  13. #13 phunc
    20. Juni 2015

    Ok, dh Systeme mit Planeten lassen sich beobachten, unabhängig davon wie sie von uns aus gesehen orientiert sind. Aber protoplanetare Scheiben nur, wenn wir auf die Scheibe selbst blicken können? Oder gibt es auch da Möglichkeiten das anders zu betrachten?

  14. #14 Florian Freistetter
    20. Juni 2015

    @phunc: Es gibt auch andere Methoden zur Planetenentdeckung abgesehen von der Transitmethode (siehe hier: https://scienceblogs.de/astrodicticum-simplex/2013/04/07/die-wunderbare-welt-der-exoplaneten-die-komplette-serie/). Die findet man bei jeder Perspektive. Und man kann auch direkt in der Scheibe Spuren von Planeten finden. Siehe zB hier: https://scienceblogs.de/astrodicticum-simplex/2008/11/23/planet-bei-beta-pictoris-gefunden/

  15. #15 phunc
    20. Juni 2015

    @Florian

    Danke! Du hast ja tatsächlich über schon fast alles geschrieben. Wer hier spät dazu stößt, hat eine Menge Nachlesebedarf. Meine astrodicticum-simplex-Linkliste wird immer länger 😀

  16. #16 dgbrt
    20. Juni 2015

    Ich mag diese modernen Computermodelle nicht. Kann jemand die Quelle (also das Programm) nachvollziehen? Wenn nicht, dann schreibe ich eins, in z.B. Java. Die Bilder und Erklärungen dazu werden relativ ähnlich sein.

    Mal im Ernst: Früher wurde versucht die Welt mit mathematischen Formeln zu beschreiben (natürlich nur verständlich für Menschen mit Kenntnissen der höheren Mathematik) aber heute müssen wir den Bildern solcher Simulationen glauben, ohne dass wir die genauen Hintergründe der Berechnungen nachvollziehen können.

    Natürlich lässt sich ein so komplexes System nicht mit einer Formel wie E=em² beschreiben, aber Bilder, die durch eine Simulation produziert werden… Ist das wirklich noch Wissenschaft?

  17. #17 Florian Freistetter
    20. Juni 2015

    @dgbrt: ” Früher wurde versucht die Welt mit mathematischen Formeln zu beschreiben (natürlich nur verständlich für Menschen mit Kenntnissen der höheren Mathematik) aber heute müssen wir den Bildern solcher Simulationen glauben, ohne dass wir die genauen Hintergründe der Berechnungen nachvollziehen können.”

    Meinst du, da sitzt jemand mit MS Paint und malt die Bilder? Die mathematischen Formeln von denen du sprichst stecken genau in diesen Programmen. Und die Simulation zeigt dir, was mit der Welt passiert, wenn sie von diesen Gleichungen beschrieben wird. Und natürlich kann man das nachvollziehen. Die Software ist genau so referenziert und in der Literatur nachschlagbar wie jede andere Quelle auch. Mit dem gleichen Recht könntest du die Ergebnisse von Beobachtungen anzweifeln, weil du nicht selbst am Teleskop gestanden bist und nicht weißt wie die Optik funktioniert.

    Diese Simulationen SIND auch nichts anderes als Beobachtungen. Du siehst dir an, wie sich ein System verhält, das von den entsprechenden Gleichungen beschrieben wird. Und vergleichst das dann mit der Realität. Nix anderes machen alle anderen Disziplinen der Wissenschaft auch.

    Abgesehen davon KANNST du ein gravitatives System nicht analytisch auflösen. Dass das unmöglich ist hat schon Poincaré vor mehr als 100 Jahren gezeigt. Das N-Körper-Problem ist unlösbar.

  18. #18 dgbrt
    20. Juni 2015

    @Florian Freistetter
    Erst mal danke für die schnelle Antwort.
    Mir geht es aber um etwas Anderes. Wenn ein Teleskop etwas beobachtet, auch in Wellenlängen die mein Auge nicht wahrnehmen kann, dann ist das real. Und andere Wissenschaftler können das auch reproduzieren. Was ein wesentlicher Bestandteil zu allgemeinen Akzeptanz in der Wissenschaft ist (nicht nur in der Astronomie).

    Aber bei diesen Modellrechnungen ist es ähnlich wie bei den Klimamodellen, niemand kann sagen was wirklich was wirklich stimmt. UND die GRUNDLAGE dieser Rechnungen ist für niemanden nachvollziehbar.

    Das N-Körper-Problem ist natürlich nicht lösbar, da geht nur noch Statistik. Wie z.B. bei der Boltzmann-Statistik. Mir fehlen da nach wie vor substantielle mathematische Rechnungen (nur als Modell), um dann reelle Vorgänge erklären zu können.

  19. #19 Florian Freistetter
    20. Juni 2015

    @dgbrt: “UND die GRUNDLAGE dieser Rechnungen ist für niemanden nachvollziehbar.”

    Sorry, das ist Unsinn. Die Grundlage für diese Rechnung ist das seit 400 Jahren bekannte (und bestens bestätigte) Gravitationsgesetz von Newton.

    “Mir fehlen da nach wie vor substantielle mathematische Rechnungen (nur als Modell), um dann reelle Vorgänge erklären zu können.”

    Ja. Die gibt es. Nochmal: Denkst du, irgendwer malt diese Bilder einfach? Die mathematische Grundlage dieser Simulationen nennt sich “Himmelsmechanik” und ist eine Wissenschaft die seit ein paar Jahrhunderten existiert. Nur weil DU diese Grundlagen nicht kennst, folgt daraus nicht, das sie nicht existieren. Ich denke, du hast ein völlig falsches Verständnis davon, was diese Modellrechnungen eigentlich sind.

    Besorg dir dieses Programm und probiers selbst mal aus: https://scienceblogs.de/astrodicticum-simplex/2010/04/06/mercury-ein-professionelles-programm-zur-simulation-der-planetenbewegung/ Das was die Leute in dieser Arbeit getan haben ist nichts fundamental anderes als das, was du mit dem da beschriebenen Programm machen kannst.

  20. #20 phunc
    20. Juni 2015

    @dgbrt

    Florian möge mich korrigieren (oder andere), aber so wie ich das als Laie verstehe, sind die physikalischen Gesetze die Grundlage für diese Darstellungen. Mit Hilfe von Mathematik und Beobachtungen/Messwerten lässt sich zunächst das Beobachtete visualisieren. Danach ändert man die Parameter und schaut sich an wie andere Systeme aussehen würden. Man macht also schon Vorhersagen und ich vermute, dass man auch hier Fehler machen kann – allerdings eben im Rahmen der zugrundeliegenden Daten.

    Im Hintergrund wird nach wie vor gerechnet und am Ende werden unglaublich viele Werte ausgespuckt. Die Software erlaubt es nur diese Datenberge in Bilder zu “übersetzen” damit man dann, wenn man wieder in den Himmel schaut, eine Art Vorlage hat wonach man Ausschau halten sollte.

    Die Modellrechnungen mögen nicht der Realität entsprechen, aber sie sind wohl näherungsweise mit ihr vergleichbar. Und sie helfen dabei bei der riesigen Menge an Systemen jene rauszupicken die für diesen Forschungsbereich relevant sind. Dann kommen neue Daten/Erkenntnisse und die Modellrechnungen können optimiert werden usw.

    Es ist vllt eine andere Art und Weise Wissenschaft zu betreiben im Vgl zur klassischen experiment-/beobachtungsorientierten Wissenschaft, weil es erstmal theoretisch abläuft. Aber die Herangehensweise ist ebenso wissenschaftlich wie auch in anderen Disziplinen.

    Und nachvollziehen lässt sich das alles, indem man sich die Paper mal durchliest und die wiederum darin aufgeführten Quellen.

    Was man unter Umständen kritisieren könnte, wäre die Reproduzierbarkeit der Ergebnisse, weil unterschiedliche Menschen vllt bestimmte Parameter unterschiedlich gewichten würden oder sowas und dann mehr oder weniger größere Abweichungen möglich wären. Hier würde ich aber behaupten, dass diese vernachlässigbar sind in Anbetracht der derzeitigen Datenlage, einfach weil es momentan nicht genauer geht.

  21. #21 Braunschweiger
    20. Juni 2015

    @dgbrt: Deine Überlegungen beruhen auf einem völligen Missverständnis von Simulationen. Das wissenschaftlich verwertbare wesentliche Ergebnis von Simulationen sind NICHT Bilder. Grafiken können aus Zweitverwertungen und als Nebenprodukt von Ergebnissen entstehen und sind etwas fürs Auge oder fürs Volk, in allen Fällen aber für die anschauliche Erläuterung.

    Es ist sehr abstrakt, aber die wirklichen Ergebnisse von Simulationen sind Wertefolgen innerhalb von Parameterräumen. Simulationen werden selbst mit Zahlen für Parameter gefüttert, nicht mit Bildern, und die Werte ändern sich über den Zeitverlauf. Zu den Parametern kann die Geometrie eines Objektes gehören, in jedem Fall aber ein Satz benötigter physikalischer Parameter. Und genau von dieser Art sind auch die Ergebnisse.

    Das ist die erste Berechnungsebene. Dazu kommt aber, dass man nicht einfach bloß genau einmal ein Programm anwirft, und dann käme DAS Ergebnis heraus. Tatsächlich wird in einer zweiten Berechnungsebene eine große Anzahl von Ergebnissen bei Parametervariationen produziert, und diese Ergebnisse bzw. ein relevanter Teil davon wird statistisch ausgewertet. Das dient auch dazu, um die Auswirkung von Abweichungen bei nicht genauer bekannten Parametern abzuschätzen, aber auch Fehlerabweichungen in der Berechnung selbst.

    Die Wirkungsweise von Simulationen ist keineswegs unverstanden. In den meisten Fällen beruhen diese auf Differenzialgleichungen, die mathematisch sehr gut verstanden sind. Es muss auch sehr genau festgelegt (und dokumentiert) werden, was und wie ein Programm berechnet, und im wissenschaftlichen Fall wird dies auch (in eher abstrahierenden) Arbeiten veröffentlicht. Ein wesentlicher Teil bei Simulationen ist auch das Problemverständnis im Fachgebiet, so dass man weiß, was man tut und dann ein fachlich korrektes Simulationsmodell erstellt werden kann. — Mit anderen Worten: keine Zauberei.

    Letztlich muss sogar jede Simulation kalibriert werden, indem sowohl im Detail als auch im Gesamtbild bekannte Lösungen von bekannten Anfangsproblemen berechnet und überprüft werden. Zusätzlich muss müssen Modellrechnungen wie auch Rechenversuche vorhanden sein, die besagen, mit welchen Ergebnisfehlern zu rechnen ist. — Mit anderen Worten, das Umfeld von Simulationen ist reichlich komplex und es wird sehr viel für die Lösungserarbeitung getan.

  22. #22 dgbrt
    20. Juni 2015

    @Florian Freistetter
    Als Linux Experte bin ich durchaus in der Lage mir solche Programme zu installieren. Und wenn ich auf den Link klicke mache ich eine Zeitreise 20 Jahre zurück, die Seite funktioniert aber noch. (was last updated on 2 August 2001.)

    Das Ganze scheint dann ja wohl eher ein Zweikörperproblem zu sein. Ich möchte aber lieber über Statistik in einer Scheibe sprechen, die dann einmal ein Sonnensystem hervorbringt. Einfacher Newton funktioniert da nicht.

    Und Computer-Programme, die das meistern, nehme ich mit Begeisterung auf.

  23. #23 PDP10
    20. Juni 2015

    @dgbrt:

    Ich glaube, du hast da eine etwas schiefe Vorstellung wie konkrete Forschung in der Physik und angrenzenden Disziplinen funktioniert.

    Natürlich kann man auch für komplizierte Himmelsmechanische Probleme die Gleichungen genau hin schreiben (die sind dann allerdings in der Regel ziemlich länglich …).
    Das Problem ist, dass man am Ende irgendwo Zahlenwerte haben will, die man experimentell überprüfen kann. Also muss man Lösungen für die Gleichungen finden, dann Zahlen einsetzen und das ganze ausrechnen. Und da fangen dann die Probleme an.

    Mit Bleistift-und-Papier-Physik (wie das ein Prof von mir immer nannte) kommt man dabei nämlich bei sehr vielen physikalischen Problemen oft nicht sehr weit. Und zwar erstaunlich oft schon bei denkbar einfachen Problemen.

    Ein Beispiel ist das mathematische Pendel. Das denkbar einfachste Modell eines Pendels, nämlich ein Pendel in einer Ebene ohne Reibung, also mit nur einem Freiheitsgrad (dem Winkel der Auslenkung).
    Schon für dieses Problem bekommt man eine nicht-lineare Differentialgleichung. Für den Fall, dass man kleine Auslenkungen des Pendels betrachtet, kann man eine Näherungslösung benutzen, in dem man sagt, dass für kleine Winkel der sinus des Winkels ungefähr gleich dem Winkel ist (in rad). Will man aber eine allgemeine Lösungsfunktion finden, braucht man elliptische Integrale, was mathematisch ganz fiese Dinger sind.
    Die Lösung gibt man dann in der Regel als Reihenentwiklung an, was auch eine mathematisch exakte, analytische (Bleistift-und-Papier) Lösung ist.
    Will man aber konkrete Zahlenwerte ausrechnen – zB. um das Modell experimentell zu überprüfen – bricht man die Reihentwicklung natürlich nach irgendeinem Glied N ab und rechnet damit Zahlen aus.

    Man macht also eine numerische Simulation.

    Im Übrigen:

    Für viele Simulationsprogramme ist der Code öffentlich, so dass jeder nachvollziehen kann was da ab geht. Ganz besonders, wenn die Programme für ein konkretes Problem extra entwickelt werden und dann Teil einer konkreten Arbeit sind, die veröffentlicht wird. Bei sowas wird dann oft auch der Code mit veröffentlicht.
    Und selbst wenn kommerzielle Software (die dann in der Regel Closed-Source ist) benutzt wird, kann man immer noch Probleme mit bekannten Lösungen zum testen benutzen und sehen, ob da das richtige raus kommt.

  24. #24 Florian Freistetter
    20. Juni 2015

    @dgbrt: “Das Ganze scheint dann ja wohl eher ein Zweikörperproblem zu sein.”

    Nein. Ist es nicht. Denn das 2Körperproblem ist analytisch lösbar, da brauchts keine Numerik dazu. Mercury ist ein Programm zur numerischen Lösung des N-Körper-Problems.

    “Und wenn ich auf den Link klicke mache ich eine Zeitreise 20 Jahre zurück, die Seite funktioniert aber noch. (was last updated on 2 August 2001.)”

    Ja? Die Gleichungen die in diesem Program gelöst werden stammen aus dem 17. Jahrhundert. Da braucht man nicht jede Woche ein neues Update…

    ” Ich möchte aber lieber über Statistik in einer Scheibe sprechen, die dann einmal ein Sonnensystem hervorbringt. Einfacher Newton funktioniert da nicht.”

    Doch. Tuts.

    Sorry, aber wenn du dich weigerst, den Status Quo der Wissenschaft zur Kenntnis zu nehmen, dann werden wir nicht weiterkommen.

    Klick im Mercury-Artikel mal auf die 4 Links zu meiner Serie über numerische Simulation in der Himmelsmechanik. Da habe ich das ganze Prozedere etwas genauer erklärt. Wie gesagt: Du scheinst ein völlig falsches Verständnis von dem zu haben, was bei so einer Simulation passiert.

  25. #25 dgbrt
    20. Juni 2015

    @PDP10: Ich glaube, du hast da eine etwas schiefe Vorstellung wie konkrete Forschung in der Physik und angrenzenden Disziplinen funktioniert.

    Ich habe sicherlich keine “schiefen Vorstellungen”, ich kritisiere aber tatsächlich das, was heute so publizistisch heraus posaunt wird. Die überlichtschnellen Neutrinos sind da ja nur ein simples Beispiel, wie falsche Ergebnisse einen an der Nase herumführen.

    Wissenschaft geht so:
    *Jemand findet etwas neues
    *Jemand anderes bestätigt das dann
    *Wenn dann kein Anderer das Gegenteil beweisen konnte wird es akzeptiert.

    Warum reichen heute einfache Bilder aus, die ich auch selbst mit meinem Computer malen kann???

  26. #26 Florian Freistetter
    20. Juni 2015

    @dbrt: “Warum reichen heute einfache Bilder aus, die ich auch selbst mit meinem Computer malen kann???”

    Sorry, aber ich jetzt wirklich keine Lust mehr. Du kannst noch so oft behauptet, dass da irgendwer “Bilder malt”. Deswegen wird es aber nicht richtig. Bitte informiere dich darüber, wie numerische Lösungen von Differentialgleichungen funktionieren. Denn anscheinend willst du es von mir ja nicht erklärt bekommen – ansonsten würdest du nicht alles ignorieren, was ich sage.
    Ich kann dich nur ein weiteres Mal darauf hinweisen: Deine Kritik ist sinnlos, denn das, was du kritisierst, findet nirgendwo statt. Die Wissenschaftler machen heute nichts anderes als Isaac Newton, Gottfried Leibnitz, Lagrange, Poincare, Hamilton, Maxwell, Einstein und all die anderen getan haben. Sie rechnen und nutzen die Ergebnisse der Berechnungen um Phänomene zu verstehen und Vorhersagen zu machen. Sie benutzen zum Rechnen heute einfach nur eine Computer…

  27. #27 PDP10
    20. Juni 2015

    @dgbrt:

    “Warum reichen heute einfache Bilder aus, die ich auch selbst mit meinem Computer malen kann???”

    Florian hat schon versucht, dir zu erklären, dass das Unsinn ist.

    Bleiben wir aber beim Thema. Du schreibst:

    “UND die GRUNDLAGE dieser Rechnungen ist für niemanden nachvollziehbar.”

    Und ich hab dir gerade erklärt, dass auch das falsch ist.

  28. #28 Braunschweiger
    20. Juni 2015

    @phunc, @PDP10: Wow, jetzt haben wir schon drei unterschiedliche Darstellungen (meine war grad noch in der Mod), die versuchen @dgbrts etwas schiefe Sicht auf Simulationen zu korrigieren.

    @phunc: Das “Beobachtete visualisieren” würde ich ausdrücken als: mit einem Modell beobachtete Messwerte reproduzieren — wenn das nicht geht, dann stimmt das Modell nicht. Visualisierung ist für mich Grafik, die man als Simulationsergebnis eigentlich nicht braucht. Die Reproduzierbarkeit sollte übrigens nur vom Modell abhängen, nicht vom Geschmack der durchführenden Menschen. Allenfalls kann es unterschiedliche Modelle geben, die unterschiedliche Ergebnisse liefern, und eines davon erweist sich anhand der Reproduzierbarkeit bekannter Realität als das geeignetste.

    Die genutzten Modelle sollten auf jeder Fall der Realität entsprechen, bzw. was ich meine ist, man nutzt für die Modellierung der schon bekannten Welt dieselbe Mathematik wie für die Simulation. Ein Simulationsergebnis wird vielleicht nie exakt einer bestimmten gemessenen Realität entsprechen, es ist ein gewisser Fehler enthalten, der in vorher bestimmten Grenzen liegen muss. Wenn man aber sehr viele Simulationen mit leichten Parametervariationen durchführt, dann wird die Realität irgendwo “zwischen” diesen Ergebnissen liegen. Daher ist dann statistische Mittelung notwendig.

    Dieses Abgleichen mit der Realität beschreibt gleichzeitig auch einerseits die Notwendigkeit von statistischer Vorgehensweise, und andererseits die Notwendigkeit der Kalibrierung einer Simulation.

  29. #29 dgbrt
    20. Juni 2015

    @Florian Freistetter
    Lieber Florian, ich möchte dir wirklich nicht zu nahe treten. Ich möchte niemanden beleidigen.

    Aber 17. Jahrhundert ist NEWTON, und wenn im Kleinen auch richtig, widerlegt. (Einstein)

    Und ich möchte nicht über diese ganzen Formeln diskutieren, SONDERN über die fehlenden Informationen über die Grundlagen der Berechnungen. Ich sehe schicke Bilder, aber zeig mir, wie du die gemacht hast. Bei der ART und sogar den Schwarzen Löchern (die Einstein immer angezweifelt hat) kann ich das, hier nicht!!!

  30. #30 dgbrt
    20. Juni 2015

    @PDP10: Und ich hab dir gerade erklärt, dass auch das falsch ist.

    Toll, ich glaube ich gebe auf.
    Wissenschaft findet heute wohl tatsächlich in der Matrix statt. (Ist eigentlich auch schon fast zwanzig Jahre alt).

  31. #31 phunc
    20. Juni 2015

    @dgbrt

    Hast du dir überhaupt die Mühe gemacht, das dazugehörige Paper zu lesen und die darin enthaltenen Informationen und weiterführenden Quellen angeschaut? Oder ist das für dich keine Option?

  32. #32 PDP10
    20. Juni 2015

    @dgbrt:

    “Aber 17. Jahrhundert ist NEWTON, und wenn im Kleinen auch richtig, widerlegt. (Einstein)”

    Nein. Newtons Gravitationsphysik wird heute immer noch benutzt. In der Himmelsmechanik zB. Nur eleganter formuliert (Hamilton-Lagrange).

    Einstein hat Newtons Physik “nur” erweitert, so dass man auch im Fall sehr starker Gravitationskräfte richtig rechnen kann.

    “Und ich möchte nicht über diese ganzen Formeln diskutieren, SONDERN über die fehlenden Informationen über die Grundlagen der Berechnungen.”

    Und ich hab dir oben erklärt, dass es diese “fehlenden Informationen” nicht gibt.

    Beschäftige dich doch einfach mal mit dem Thema. Es gibt regalmeterweise Literatur zum Thema “numerische Simulationen”.

  33. #33 Braunschweiger
    20. Juni 2015

    @dgbrt:
    Bei deinen Anforderungen solltest du Astronomie studieren oder zumindest den Teil der Himmelsmechanik. Und Newton wird ein Teil davon sein, und es ist egal, ob seine Gesetze aus dem 17. Jhdrt. stammen, wichtig ist, ob sie angewendet werden. Und das ist so, relativistische Überlegungen sind hier in den meisten Fällen nicht notwendig. Tja, und dann am besten noch den Informatikteil des Software-Engineerings und der Simulationen dazu.

    Die Arbeit des Lernens wird dir auf keinen Fall erspart bleiben. “Die Mühen der Ebene” sind eine Aufgabe jedes wissenschaftlich Interessierten, und die Steilheit der Höhepunkts kommt erst, wenn man das Vorherige alles kann.

  34. #34 dgbrt
    20. Juni 2015

    @ALL:
    Ist schade, aber ernsthafte Diskussionen sind hier wohl auch nicht möglich.

    Wenn ich A schreibe wird dann tatsächlich hinterher ein Z ‘draus.

    “I’m surrounded by asholes ” (Wer den Film nicht kennt: SPACEBALLS).

    Und in Zukunft werde ich jede schöne Präsentation von Wissenschaftlern ohne jede Kritik akzeptieren. Ist einfach toll was die da alle machen….

  35. #35 PDP10
    20. Juni 2015

    @dgbrt:

    Ich verstehe nicht ganz, was dir jetzt über die Hutschnur geht …

    Dir wurde freundlich erklärt, wie heutzutage numerische Simulationen als Handwerkszeug in den Naturwissenschaften eingesetzt werden und dass man sehr wohl genau nachvollziehen kann was “die Grundlagen der Berechnungen” sind.

    Hast du meine #23 eigentlich gelesen? So ganz?

    Ich rede hier übrigens nicht über Sachen, die ich nur mal gelesen habe.

    Ich habe mit solchen Numerik Paketen gearbeitet, hab solche Pakete administriert und habe auch selber solche Simulationen geschrieben.

  36. #36 AmbiValent
    20. Juni 2015

    @dgbrt
    Diese Arbeit wird doch nicht nur von Laien gelesen, sondern auch von anderen Wissenschaftlern, die im selben Bereich arbeiten. Die akzeptieren das nicht so einfach, sondern würden gerne versuchen, selbst besser zu erscheinen. Wenn die also herausfinden, dass bei ihren Simulationen (mit angegebenen Parametern) etwas anderes herauskommt als behauptet, dann werden die nicht stillsitzen, sondern das veröffentlichen. Ebenso werden die Beobachter solcher entstehenden Systeme die Vorhersagen der Simulation mit ihren tatsächlichen Beobachtungen vergleichen und ebenso veröffentlichen, inwieweit die Vorhersage richtig oder falsch war.

    Die Wissenschaftler des Leinhardt-Teams wissen das natürlich und haben ihre Simulation entsprechend überprüft, damit ihr guter Ruf nicht durch solche Fehler geschädigt wird.

  37. #37 Florian Freistetter
    20. Juni 2015

    @dgbrt: “Aber 17. Jahrhundert ist NEWTON, und wenn im Kleinen auch richtig, widerlegt. (Einstein)”

    Nein. Einstein hat Newton erweitert. Newtons Gleichungen funktionieren immer noch wunderbar für so gut wie alle Anwendungen.

    “Ich sehe schicke Bilder, aber zeig mir, wie du die gemacht hast. Bei der ART und sogar den Schwarzen Löchern (die Einstein immer angezweifelt hat) kann ich das, hier nicht!!!”

    Dann informier dich halt. Du kannst dir die Gleichungen ansehen auf denen die Programme basieren; du kannst dir die Programme ansehen. Usw. Aber das willst du anscheinend nicht, sondern beharrst darauf, das es sich hier nicht um Wissenschaft handeln kann, weil du es nicht verstehst. Ich sehe daher keine Basis für eine weitere Diskussion über dieses Thema.

    “Und in Zukunft werde ich jede schöne Präsentation von Wissenschaftlern ohne jede Kritik akzeptieren.”

    Auch das hat keiner behauptet. Aber du behauptest, die Himmelsmechanik wäre Unsinn, weil du die Methoden nicht verstehst. Das ist aber dein Problem und nicht das der Himmelsmechanik. Ich verstehe zB auch die moderne Genetik nicht. Aber deswegen bin ich nicht so naiv zu denken, es wäre Unsinn…

  38. #38 Florian Freistetter
    20. Juni 2015

    Alles was man zur Methode wissen will, stünde ja auch im paper:

    “All simulations were carried out using the parallelised N-body gravity code PKDGRAV (Stadel 2001; Richardson et al. 2000; Leinhardt & Richardson 2005). PKDGRAV is a second order leap-frog integrator with a hierarchical tree to efficiently calculate gravitational interactions between large numbers of particles”

    PKDGRAV ist in der Himmelsmechanik eine Standardmethode und nicht “unverständlicher” als es zB die Optik des Hubble-Teleskops ist… Hier gibts Infos dazu: https://hpcc.astro.washington.edu/faculty/trq/brandon/pkdgrav.html
    Hier kann man das Programm runterladen: https://hpcforge.org/projects/pkdgrav2/
    Und hier ist das wissenschaftliche paper dazu: https://adsabs.harvard.edu/abs/2001PhDT……..21S

  39. #39 Braunschweiger
    20. Juni 2015

    @dgbrt: Du bist selbst schuld an der Diskussion und ihren Inhalten, wobei die Form ja wirklich noch nett und entspannt ist. Du wirfst so einige unreflektierte Satzbrocken hin, bei denen du die entsprechenden Antworten bekommst. Beispiel aus #16:

    Ich mag diese modernen Computermodelle nicht. Kann jemand die Quelle (also das Programm) nachvollziehen?

    Das Nicht-Mögen ist nicht das Problem, deine eigene Sache. Aber: Computermodelle SIND mathematische Modelle (die ernsthaften meine ich), und Florian hat schon angedeutet, dass es dir frei steht, diese auch von Hand nachzurechnen, wenn du die Zeit dazu hast. Und ja, Florian kann die bestimmt nachvollziehen, meiner einer auch und die anderen Co-Kommentatoren vermutlich auch. Kannst du die Antwort nicht akzeptieren?

    … heute müssen wir den Bildern solcher Simulationen glauben, ohne dass wir die genauen Hintergründe der Berechnungen nachvollziehen können [#16] … die GRUNDLAGE dieser Rechnungen ist für niemanden nachvollziehbar [#18]

    Eine völlig unreflektierte Aussage die nicht stimmt, und zu der an mehreren Stellen gesagt wurde, dass zumindest die befassten Wissenschaftler es nachvollziehen können. Es muss nicht “per se” verständlich sein, man darf schon gerne die Arbeit ins Verständnis stecken, die auch andere geleistet haben. Das musst du eben akzeptieren.

    Einfacher Newton funktioniert da nicht. [#22] … NEWTON, und wenn im Kleinen auch richtig, widerlegt … [#29]

    Völlig falsche Auffassung, wie schon mehrfach dargelegt. Newtons Formeln sind für die Wertebereiche der klassischen Mechanik ausreichend. Einstein hat lediglich gezeigt, dass im Bereich hoher Geschwindigkeiten nahe Lichtgeschwindigkeit, hoher Massen und Impulse eine Erweiterung notwendig ist, bei Wertebereichen, die Newton niemals überprüfen konnte. Ähnlich wird es auch im Bereich der Quantenmechanik bei ganz kleinen Massen und Abständen sein; das Phänomen “Masse” an sich wird überdacht.

    Ist schade, aber ernsthafte Diskussionen sind hier wohl auch nicht möglich. Wenn ich A schreibe wird dann tatsächlich hinterher ein Z ‘draus. “I’m surrounded by asholes [#33]”

    Doch, wir waren durchaus ernst. Man kann allerdings leicht von A nach Z kommen, weil viele Dinge nahe zusammenhängen. Vielleicht fragst du einfach mal präziser, was du eigentlich genau wolltest, statt schwerwiegende Statements abzugeben. — Mit dem letzten Satz hat einer allerdings keine Hilfe mehr verdient.

  40. #40 Hans
    20. Juni 2015

    #32 dgbrt

    @ALL:
    Ist schade, aber ernsthafte Diskussionen sind hier wohl auch nicht möglich.

    Natürlich sind die möglich. Mir stellt sich allerdings die Frage, was DU unter ernsthaft verstehst? – Ich hab nicht alles gelesen, aber nach dem zu schliessen, was ich gelesen habe, hast Du anscheinend wirklich keine Lust, Dich mit den Grundlagen der Dinge zu beschäftigen. Und dann kannst du natürlich auch nicht verstehen, wie die gezeigten Grafiken zustande kommen. Aber: wenn Du mal einen Blick in das Paper wirfst, dann steht da gleich auf der ersten Seite unter Punkt 2: NUMERICAL METHOD beschrieben, mit welchen Programmen die Autoren gearbeitet haben. Eine weitere Recherche zu PKDGRAV (“Parallel k-D Tree Gravity Code”) führt dann etwa zu dieser Seite, die einen Teil der Berechnungsmethode beschreibt. So kann man sich dann Schrittweise zu den Methoden bzw. Programmen vorarbeiten, mit denen gerechnet wurde.

  41. #41 Hans
    21. Juni 2015

    @Florian, #38:
    Der Link zum PKDGRAV-Paper bei der Havard-Uni ist unvollständig.

  42. #42 Braunschweiger
    21. Juni 2015

    Jaso, es geht um die Berechnung der Staubscheiben bzw. wie die modelliert werden.
    Der letzte Link von Florian scheint nicht ganz zu funktionieren, jedenfalls konnte ich das Paper nicht finden und habe das grundsätzliche Modell mir mal rekonstruiert. Falls es nicht für alle so ersichtlich ist…

    Man kann natürlich nicht jedes einzelne Körnchen einer Staubscheibe simulieren, man scheint sich aber einig zu sein, die Staubscheibe und deren Elemente ersatzweise wie eine newtonsche Flüssigkeit modellieren zu können, da sie sich so verhalten. Es werden Stellvertreter-Partikel für Elemente in der Scheibe erstellt, Tausende, Hunderttausende oder gar Millionen. Die geometrische Verteilung muss der Verteilung in der Staubscheibe entsprechen, die Verteilung der Massen und Größen muss der gemessenen/berechneten statistischen Verteilung entsprechend.

    Die Vorgehensweise der Simulation nennt man smoothed particle hydrodynamics, Repräsentaten-Partikel modellieren die gesamte (Quasi-)Flüssigkeit. Es ist natürlich untersucht worden, für welche Arten von Aufgabenstellungen und in welchen Wertebereichen und für welche Partikelzahlen plausible Ergebnisse geliefert werden. Die Methode mit dem k-D-Tree ist lediglich ein praktischer Algorithmus, um die n^2 Massebeziehungen zu reduzieren und die Wechelbeziehungen effizienter zu berechnen. Von einem bestimmten Partikel weiter (als ein Schwellradius) entfernte Massen werden blockweise zu einem Masseschwerpunkt und einer Gesamtmasse zusammengefasst.

  43. #43 Cakir
    21. Juni 2015

    Schöner Artikel!

    Finde es auch sehr interessant, was man derzeit so vieles über die Planetenentstehung weiß. Ein hoch auf ALMA TELESKOP 🙂 Dat ding wird sogar noch weiter aufgerüstet, und man wird in Zukunft noch vieles mehr über die Planetenentstehung herausfinden. Es bleibt spannend.

  44. #44 Krypto
    21. Juni 2015

    @dgbrt:
    Hör doch mal endlich auf, so dermaßen einen auf dicke Hose zu machen!
    Da ist die falsch wiedergegebene SRT-Formel nur die Spitze des Eisberges, “zuständig” wäre nämlich die ART.
    Faktisch reicht als Näherung Newton völlig aus.
    Florian und andere sind wahnsinnig geduldig mit Dir und wollen ernsthaft helfen, Dein Wissen und Verständnis zu erweitern.
    Was machst Du? Krittelst nur rum in Dunning-Kruger-Manier! :/

  45. #45 dgbrt
    21. Juni 2015

    @ALLE:
    Ich habe niemanden persönlich angegriffen, aber eine kontroverse Diskussion kann nur hilfreich sein. Und allen die mir hier vorwerfen, dass ich mich erst einmal schlau machen sollte kann ich nur sagen: Physik Vordiplom mit 2.0 im Jahre 1990 (vor und nach dem Deutschen WM-Titel), und danach bin ich dann Programmierer geworden.

    @Florian:
    Danke für den Link zu PKDGRAV, der Zweite ist aber tatsächlich defekt. Aber ohne nachvollziehbare Programm-Quelle, ohne standardisierte Bibliotheken, die von allen Wissenschaftlern akzeptiert werden, stelle ich das nach wie vor in Frage. Das soll keinesfalls bedeuten, dass ich die Modelle für falsch halte.

    Ich habe schon viele Programme geschrieben, aber bei all den tollen Ideen, die man als Entwickler da rein steckt, am Ende zeigt aber das Programm immer das, was der Kunde sehen möchte.

  46. #46 Florian Freistetter
    21. Juni 2015

    @dgbrt: mag sein, dass du programmieren kannst. Aber auch ein Optiker ist kein Experte für das Hubble Teleskop. Genau so wenig solltest du davon ausgehen, dass du Ahnung von numerischer Astronomie hast, nur weil du für Geld Software schreibst…

    Ich weiß, es interessiert dich nicht. Aber ich wiederhole nochmal: Das was du kritisierst, existiert nicht. Astronomen arbeiten nicht so wie du dir das denkst.

  47. #47 dgbrt
    21. Juni 2015

    @Florian: Wie Astronomen und andere Wissenschaftler arbeiten ist mir durchaus klar, in erster Linie geht es ums Publizieren. Und das meine ich nicht sarkastisch, es ist einfach notwendig, um das eigene Einkommen sicher zu stellen. Du selbst wagst dich da ja in beeindruckender Weise auf neue Medien hinaus.

    Und was die “numerische Astronomie” betrifft, wäre das nicht vielleicht mal ein Artikel wert hier, über den wir dann weiter diskutieren können? Mir fehlt da tatsächlich ein gewisses Verständnis zu den aktuellen Modellrechnungen. Und das war der einzige Punkt, weswegen ich hier meine Kritik angemerkt habe.

  48. #48 Spritkopf
    21. Juni 2015

    @dgbrt

    Mir fehlt da tatsächlich ein gewisses Verständnis zu den aktuellen Modellrechnungen. Und das war der einzige Punkt, weswegen ich hier meine Kritik angemerkt habe.

    Wenn dir das Verständnis zu den Modellrechnungen fehlt, ist das wessen (Bring-)Schuld genau? Nein, nicht die der Autoren des Papiers. Auch nicht die von Florian.

    Darüber hinaus stimmt auch nicht, was du da erzählst. Du hast nicht kritisiert, dass du die Modellrechnungen nicht verstehen würdest, sondern du hast den Autoren unterstellt, sie hätten genau die Bildchen gemalt, die sie herausbekommen wollten. Damit hast du ihnen Manipulation vorgeworfen. Und das ist nicht nur ein ziemlich gravierender Vorwurf, sondern angesichts der Tatsache, dass du weder die Software zum Laufen bekommen noch ihre Algorithmen gegen die im Papier angegebenen Formeln gegengeprüft hast, ein ziemlich unfairer dazu.

    Ich schlage daher vor, dass du dich als erstes darum kümmerst, die Software anstandslos durch den Compiler zu bekommen. Die Mailadresse der Autoren ist angegeben, du kannst dir also dort Hilfe holen. Anschließend prüfst du nach, ob das, was im Papier steht, einigermaßen zu dem passt, was die Software tut. Wenn du feststellst, dass irgendetwas krumm zu sein scheint, kannst du Kritik üben (wenngleich ich an deiner Stelle erstmal die Autoren um Klärung bitten würde – wie gesagt, ihre Mailadresse steht in der Datei AUTHORS).

    Aber bis dahin stellst du bitte dein substanzloses und auch verleumderisches Gerede ein.

  49. #49 Spritkopf
    21. Juni 2015

    @FF
    Ein Beitrag von mir scheint direkt in den Spamordner gewandert zu sein. Kannst du mal bitte nachschauen?

  50. #50 Florian Freistetter
    21. Juni 2015

    @dgbrt: 2Und was die “numerische Astronomie” betrifft, wäre das nicht vielleicht mal ein Artikel wert hier, über den wir dann weiter diskutieren können?”

    Da wurden dir schon mehrere genannt (meine Serie über Simulationen in der Himmelsmechanik). Hat aber anscheinend nicht interessiert.
    Du missverstehst das Thema komplett. Das sind keine Programme so wie du sie an deine Kunden verkaufst. Das sind Gleichungen. Wie Newtons Gravitationsgleichung oder die ART oder sonst irgendwelche Diff-Gleichungen. Und die werden numerisch gelöst. Das ist ganz einfach nur Mathematik, bei der der Computer die Rechenarbeit übernimmt. Da gibts keine “geheimen” Bibliotheken, die irgendwelche “Bilder malen” oder was auch immer du dir vorstellst. Gleichungen und Mathematik. Das gleiche, was schon Newton & Co gemacht haben. Nur schneller.

  51. #51 PDP10
    21. Juni 2015

    @dgbrt:

    “Physik Vordiplom mit 2.0 im Jahre 1990”

    Oh. Im selben Jahr wie ich 🙂

    Florian hat das ja schon angesprochen aber trotzdem noch mein Senf:

    Ich habe nach dem Studium die meiste Zeit als Freiberufler in der IT gearbeitet – die meiste Zeit davon zwar als Admin, zwischendurch aber auch als Software Entwickler.

    Die Erfahrungen mit numerischen Simulationen, die ich oben angesprochen habe, habe ich allerdings vorher noch in Academia gemacht.
    Und ich kann dir versichern, dass die Arbeit des Programmierens dort völlig anders abläuft als wenn man in der freien Wirtschaft Anwendungsprogramme für Kunden entwickelt.

    Die numerik ist in der Forschung nur Handwerkszeug.

    Wo man früher mühsam mit Rechenmaschinen oder Taschenrechnern (oder noch früher mit dem Abacus 🙂 ) mühsam riesige Werte-Tabellen von Hand ausgerechnet hat erledigt das heute eben der Computer.
    Womit man sich dann für diese numerischen Methoden eben auch ganz andere Bereiche erschliessen kann – unter anderem kann man am Ende dann aus den ermittelten Zahlenwerten eben auch hübsch bunte Bildchen machen.

    Nichts geheimnisvolles dabei. Keine Rocket-Science.

    Insbesondere werden in Veröffentlichungen im Methodenteil immer die numerischen Methoden die man verwendet hat genau beschrieben oder es wird auf die verwiesen die man benutzt hat und im Literaturteil werden dann die entsprechenden Papers zitiert in denen die genau beschrieben werden.
    So kann jeder überprüfen, ob da mumpitz getrieben wurde oder ob das Hand und Fuss hat.

  52. #52 JoselB
    22. Juni 2015

    Das schöne an Numerik ist, dass man neben den Simulationsergebnissen auch den maximalen Fehler sowie die Art dieses Fehlers berechnen kann und damit das Modell auch validieren kann. Sofern es keinen systematischen Bias gibt (z.B. weil der Fehler immer in die gleiche Richtung geht, d.h. ein Ergebnis immer zu klein/groß ist), wird selbst bei so komplexen Problemstellungen das Ergebnis statistisch korrekt sein. Zumindest sofern man seine Methoden versteht und deren Fehler kennt.

    Es gibt mit Sicherheit mehr als eine Arbeit die nicht nur behauptet, dass der Fehler durch die Approximation mit Newton zu keinen relevanten Unterschieden führt sondern dass auch mit Zahlen und (wichtiger) den passenden Formeln belegen kann. Und ohne die hier besprochene Arbeit gelesen zu haben, wette ich, dass zumindest indirekte Verweise auf entsprechende Grundlagen in der Arbeit von Leinhardt vorhanden sind.

  53. #53 Karl432
    24. Juni 2015

    Interessant an dem ALMA-Bild finde ich die Abweichungen von der Radialsymmetrie. So lange keine größeren Körper oder stabile Verdichtungen in der Scheibe sind, erwartet man ja eine (von dem radialen Helligkeitsgradienten abgesehen) den Saturnringen ähnliche Erscheinung, da die differnzielle Rotation (näherungsweise) alle Unregelmäßigkeiten in der Scheibe ausgleicht, bei denen nicht andere Prozesse (speziell Eigengravitation) solche Unregelmäßigkeiten stabilisieren.

    (Wolkige Strukturen wie in https://de.wikipedia.org/wiki/Diskussion:OTS_44 dürfren so wohl kaum möglich sein.)

    Die vom Zentum ausgehenden “Strahlenstrukturen” im Bild lassen sich wohl dadurch erklären, dass Dichteschwankungen in einem Ring mehr oder weniger Licht des Zentralsterns absorbieren und deshalb die radial weiter außen liegenden Teile unterschiedlich stark abschatten – ist diese Erklärung zutreffend?

    Auffällig erscheinen mir auch die beiden gegenüberliegenden “langen Lücken” im (von innen) ersten klar abgesetzten Ring.

  54. #54 Krypto
    4. Februar 2016

    Hier ein aktueller Befund von ALMA, Himmelsmechanik und Planetenentstehung ist ja Dein Lieblingsthema, Florian:

    https://www.pro-physik.de/details/news/8893691/Ueberraschend_kalte_Scheibe_um_jungen_Stern.html