Morgen, am 31. August 2018, geht die große Konferenz der Internationalen Astronomischen Union (IAU) in Wien zu Ende. Die etwa 3000 Astronominnen und Astronomen aus aller Welt werden wieder nach Hause fahren (bis auf die, die aus Wien kommen natürlich). Manche haben das auch schon früher getan; nicht alle sind die ganzen zwei Wochen vor Ort. Und auch ich werde den letzten Tag leider nicht mehr in Wien verbringen können. Und daher auch den letzten Vortrag der Konferenz verpassen.

Das geplante ELT im Vergleich mit dem Wiener Stephansdom (Bild: ESO)

Das geplante ELT im Vergleich mit dem Wiener Stephansdom (Bild: ESO)

Das Letzte, das es – zumindest laut offiziellen Programm – auf der Tagung zu hören gibt, ist ein Vortrag der Astronomin Ana Catarina Leite vom Instituto de Astrofísica e Ciências do Espaço aus Portugal. Zwischen 17.50 und 18.00 Uhr wird sie im Rahmen des IAU Symposium 347: Early Science with ELTs (EASE) über das Thema “Fundamental physics constraints from testing the stability of the fine-structure constant with the ELTs” sprechen. Das klingt äußerst interessant und ich hätte mir das sehr gerne angehört. Aber auch wenn ich morgen nicht mehr dabei bin, kann ich doch ein wenig darüber schreiben. Denn es gibt ja auch die Kurzzusammenfassung im Konferenzprogramm und anderswo publizierte Arbeiten zu diesem Thema.

Leite wird in ihre Vortrag über ELTs sprechen, also “Extremely Large Telescopes”. Das sind die extrem großen Teleskope der nächsten Generation. Zum Beispiel das ELT, das die Europäische Südsternwarte gerade in Chile baut und das mit einem Spiegel von 39 Metern Durchmesser nach seiner Fertigstellung das größte Teleskop der Welt sein wird. Mit diesem Teleskop wird man die Dinge machen, die man sich so vorstellt. Also Planeten, Sterne, Galaxien beobachten, und so weiter. Ana Catarina Leite spricht aber über ein Projekt, das einem angesichts eines großen Teleskops nicht sofort in den Sinn kommt.

Es geht um ein ziemlich fundamentale Frage: Sind die Naturkonstanten wirklich konstant? Gut, der Name “Konstante” deutet das ein wenig an. Aber nur weil wir glauben, das etwas konstant ist, muss es ja noch lange nicht so sein. Man kann sich durchaus Universen vorstellen, in denen fundamentale physikalische Konstanten nicht immer exakt den gleichen Wert haben (und theoretische Physiker haben sich natürlich schon jede Menge solcher Modell ausgedacht).

Nehmen wir zum Beispiel die Feinstrukturkonstante. Mit dieser Zahl beschreibt man in der Physik, wie stark die elektromagnetische Kraft ist. Oder etwas genauer: Wie stark das Teilchen, über das die elektromagnetische Kraft wirkt, also das Photon, an andere elektrisch geladene Elementarteilchen koppelt. Der Wert dieser Konstante beträgt nach aktuellen Messungen etwa 1/137. Eine ziemlich kleine Zahl – aber ziemlich groß, wenn man sie zum Beispiel mit der entsprechenden Zahl vergleicht, mit der man die Stärke der Gravitationskraft betrachtet. Die liegt bei 10-39, ist also dramatisch viel kleiner. Und tatsächlich ist die Gravitationskraft auch dramatisch viel schwächer als der Elektromagnetismus. Das erkennt man u.a. daran, das ein simpler Magnet genügt um etwas entgegen der gravitativen Anziehungkraft der gesamten Erde hochzuheben!

Arnold Sommerfeld, der die Feinstrukturkonstante eingeführt hat, weswegen sein Kopf nun auch darüber schweben darf (Bild: gemeinfrei)

Arnold Sommerfeld, der die Feinstrukturkonstante eingeführt hat, weswegen sein Kopf nun auch darüber schweben darf (Bild: gemeinfrei)

Warum die Gravitationskraft so viel schwächer ist als die elektromagnetische Kraft ist eine der großen offenen Fragen der Physik. Und erklärt, warum es sich lohnt, sich solche Konstanten genauer anzusehen. Welchen Wert sie heute hat, können wir messen. Aber nicht beliebig genau. Deswegen können wir auch nicht mit letzter Gewissheit sagen, ob die Feinstrukturkonstante wirklich immer exakt den gleichen Wert hat. Vielleicht ändert er sich minimal? Vielleicht war er in der Frühzeit des Universums anders als heute?

Fundamentale Fragen dieser Art sind wichtig, wenn wir die Entwicklung des Universums verstehen wollen bzw. die grundlegenden Gesetze finden wollen, die allen Phänomenen zugrunde liegen. Und bei der Antwort auf diese Fragen kann die Astronomie mit ihren Teleskopen helfen! Denn wir Astronomen beobachten Licht. Und Licht ist nichts anderes als eine elektromagnetische Welle. Wir beobachten insbesondere Veränderungen im Licht. Zum Beispiel die Wechselwirkung von Licht mit Materie: Wenn Licht auf die Elektronen eines Atoms trifft, wird ein Teil absorbiert, erhöht die Energie des Elektrons und später wieder abgestrahlt. Diese Interaktion zwischen Licht und Elektronen können wir als “Spektrallinien” beobachten. Der absorbierte Teil des Lichts fehlt dann gewissermaßen und wenn wir das Licht etwa eines Sterns in seine Bestandteile aufspalten, sehen wir in bestimmten Bereichen dunkle Linien.

Welcher Teil des Lichts nun genau absorbiert wird, hängt von der Konfiguration der Elektronen ab. Wir können das aber ziemlich genau ausrechnen, denn wir kennne die Gesetzmäßigkeiten, nach denen das passiert. Und natürlich spielt dabei die Feinstrukturkonstante eine wichtige Rolle – sie ist ja gerade dafür zuständig, die Wechselwirkung zwischen Licht und Elektronen zu beschreiben.

Das was Astronomen beobachten hängt also mit dem Wert der Feinstrukturkonstante zusammen. Das was Astronomen beobachten passiert aber sehr oft sehr weit in der Vergangenheit. Das Licht ferner Galaxien braucht entsprechend lange, bis es bei uns angelangt ist und ist oft Milliarden von Jahren unterwegs. Es wurde also auch vor Milliarden von Jahren abgestrahlt, als das Universum noch viel jünger war. Wir können dieses Licht also beobachten und nachschauen, ob es sich so verhält, wie das die uns bekannten Gesetze mit dem heute bekannten Wert der Feinstrukturkonstante vorhersagen. Wenn die Konstante früher einen anderen Wert gehabt hat, müsste es systematische Abweichungen von der Vorhersage geben, die unter anderem von der Distanz der beobachteten Objekte abhängt.

So weit zumindest die Theorie. Die Praxis ist ein wenig komplizierter. Mit dem was wir bisher wissen und messen können (zum Beispiel mit Atomuhren, die ja ebenfalls auf der Wechselwirkung von Licht basieren), können wir den Wert der Feinstrukturkonstante schon ziemlich genau messen. Ebenso genau müsste man auch das Licht ferner Galaxien beobachten, wenn man vernünftige Aussagen über die Eigenschaften der Feinstrukturkonstante machen will. Mit den bisherigen Instrumenten ist das in begrenzten Rahmen möglich und die Ergebnisse sagen uns, das die Konstante früher genau den gleichen Wert hatte wie heute. Aber halt nur innerhalb der bisherigen Meßgenauigkeit. Bessere Teleskope können besser messen und wie das geht und was davon zu erwarten ist, ist das Thema von Leites Vortrag.

ESPRESSO - ein wenig komplizierter als Kaffee (Bild: ESO, Universität Genf)

ESPRESSO – ein wenig komplizierter als Kaffee (Bild: ESO, Universität Genf)

Um sehen zu können, wie gut die entsprechenden Beobachtungen der kommenden Großteleskope sind, müssen wir warten, bis sie fertig sind. Das wird nicht vor dem nächsten Jahrzehnt sein. Aber schon jetzt gibt es ein Instrument, das Leite für eine Abschätzung benutzt. Es heißt ESPRESSO, was für “Echelle SPectrograph for Rocky Exoplanet- and Stable Spectroscopic Observations” steht und ist ein Gerät mit dem sich das Licht extrem genau in seine Bestandteile aufspalten lässt; mit dem man also Spektrallinien extrem genau vermessen kann. Es wird am VLT, dem “Very Large Telescope” der Europäischen Südsternwarte installiert und ist in der Lage, Licht mehrerer Einzelteleskope simultan zu verarbeiten. So kann mit den vorhandenen 8-Meter-Teleskopen ein 16-Meter-Teleskop simuliert werden (größer als alles was derzeit in Betrieb ist). ESPRESSO hat im November 2017 die erste Testphase begonnen und wird im Dezember 2018 den regulären Betrieb aufnehmen.

Ein paar erste Daten aus der Testphase gibt es aber schon und die hat Leite offensichtlich benutzt um abschätzen zu können, wie weit das kommende ELT eine mögliche Variation der Feinstrukturkonstante einschränken kann. Was die Beobachtungen dann aber tatsächlich ergeben, werden wir erst sehen, wenn sie gemacht werden. Aber es ist gut zu wissen, dass die Astronomen vorbereitet sind!

Auch wenn es vermutlich nicht so geplant war: Leites Vortrag ist ein passender Abschluss für die IAU-Konferenz. Wenn dieser letzte Vortrag morgen zu Ende ist, dann ist die Konferenz zwar ebenfalls zu Ende – die Wissenschaft aber noch lange nicht! Es gibt noch viel zu viele offene Fragen; viel zu viele Beobachtungen die gemacht werden müssen und viel zu viel, das verstanden werden will. Und jede Antwort wird zweifelsfrei wieder neue Frage liefern!

Kommentare (49)

  1. #1 knorke
    30. August 2018

    Mal rumgesponnen: Wenn diese Konstanten früher marginal anders gewesen wären, z.B. die Gravitation marginal geringer, dann hätte das doch vermutlich dramatische Auswirkungen auf die Modelle der Entstehung des Universums. Vielleicht sogar eine andere Erklärung als die bisherigen für die Entstehung? Gibts dazu Deiner Kenntnis nach mehr oder minder Ernst gemeinte Veröffentlichungen?

  2. #2 Mars
    30. August 2018

    oder noch anders
    angesichts der kurzen messzeit – gerade mal bsi 200 + jahre – von 13 Mrd entstehungszeit:
    wäre es denn überhaupt möglich, wenn sich ‘konstante werte’ im laufe der zeit / ausdehnung / galaxiebildung nur allmählich verändern
    würde diese veränderung nicht auch das licht auf seinem weg mit verändern?, so dass es auch da schon wieder eine messungenauigkeit gibt.
    bei welchen konstanten sind wir den sicher?
    c ist ja als absolut definiert, aber sind wir uns da sicher? war das immer so, rein physikalisch, oder gilt das vorallem in der berechnung, wo c ja doch recht häufig in formeln auftaucht …. siehe oben

  3. #3 tomtoo
    30. August 2018
  4. #4 Mars
    30. August 2018

    danke erst mal
    hab mal reingeschaut, aber nicht alles angeschaut.

    das thema überlichtgeschwindigkeit ist ja eher problematisch, weil es so viele verkehrte ansätze gibt
    (selbst auf Wiki ist ein artikel mit der selben fehlannahme, dass ein sich bewegender lichtstrahl beim auftreffen schneller als licht sei – das einzelne photon ist es ja dann doch nicht)

    ich dachte dabei ja nicht unbedingt an überlichtgeschwindigkleit, sondern die unterschiedlichkeit über die lange zeit des ganzen
    wenn es dann mal schneller gewesen wäre, wäre es damals ja dann die absolute geschwindigkeit gewesen. genauso, wenn es langsamer war.
    aber es würde sich vermutlich auf viele berechnungen auswirkungen.

    aber das ganze gilt natürlich als frage für viele anderen ‘konstanten’

  5. #5 tomtoo
    30. August 2018

    @Mars
    Lass dich vom Titel nicht täuschen. Es geht nur um eine denkbare nicht Konstanz von c.

  6. #6 Mars
    30. August 2018

    ja, soviel hab ich schon mitbekommen – werd es mir auch nochmal im ganzen anschauen.

    aber ich werde das video ja nicht als einziger sehen
    … und gleich eine seltsame annahme ausschliessen wollen.

  7. #7 alex
    30. August 2018

    @Mars, tomtoo:

    Bei dimensionsbehafteten Konstanten wie der Lichtgeschwindigkeit ist die Sache ein wenig komplexer. Denn jede Änderung von c könnte man ja durch eine Änderung der Längen- und Zeiteinheiten Meter und Sekunde kompensieren. (Und die aktuelle Definition des Meters macht genau das.) Man kann daher experimentell nicht unterscheiden, ob c konstant war, oder c sich geändert hat und sich gleichzeitig die Länge des Meters entsprechend geändert hat.

    Und aus genau diesem Grund sucht man üblicherweise nach Änderungen in dimensionslosen Konstanten, wie der im Artikel genannten Feinstrukturkonstante. Die hat aktuell einen Wert von etwa 1/137, und das ist unabhängig davon, welches Einheitensystem wir verwenden und wie wir die Einheiten definieren.

  8. #8 Caracalla
    30. August 2018

    “Zwischen 17.50 und 18.00 Uhr wird sie im Rahmen des…”

    Ganze 10 Minuten für das Thema? Scheint ja nicht so umfassend zu sein 😉

  9. #9 Caracalla
    30. August 2018

    Wenn sie die Konstanten denn über einen sehr langen Zeitraum leicht verändern sollten, kann man dann davon ausgehen, dass sich alle Konstanten verändern oder werden die Veränderungen eher willkührlich und ganz unterschiedlich sein?

  10. #10 alex
    30. August 2018

    @Caracalla #8:
    Hier https://iausymp347.files.wordpress.com/2018/08/programme3.pdf steht 16:50 bis 17:05 (Seite 5 ganz unten). Das 17:50 ist wohl ein Tippfehler auf der IAU-Seite. Grundsätzlich ist es nicht ungewöhnlich, dass Vorträge auf wissenschaftlichen Konferenzen so kurz sind.

  11. #11 knorke
    30. August 2018

    @8 Vorträge bei Konferenzen (jedenfalls die, die ich kenne) sind selten länger als 15-20 Minuten. Funktioniert mMn. erstaunlich gut, wenngleich die meisten Präsentatoren wohl denken werden, dass diese Zeit der Komplexität ihres Themas nicht gerecht wird.

  12. #12 Caracalla
    30. August 2018

    @alex+knorke

    Ok, hab ich nicht gewusst.

  13. #13 Florian Freistetter
    30. August 2018

    @Caracalla: “Ganze 10 Minuten für das Thema? Scheint ja nicht so umfassend zu sein “

    10 Minuten sind bei so ner Konferenz ne übliche Länge für einen Vortrag. Bei so vielen Vortragenden ist einfach nicht mehr Platz im Zeitplan.

  14. #14 Robert
    München
    30. August 2018

    Ein wirklich spannendes Thema mit dem sehr viel zusammenhängt, zB gibt auch der Oklo (sp?) Natural Reactor wichtige constraints an die zeitabhängigkeit von α. Das ust auch der Ausgangspunkt der ganzen multiverse Geschichte und eine der großen Preisfragen der String Theorie ist, warum sich die Konstanten (die hier potentiell Zeit- und ortsabhängig sind) sich so wenig ändern (“moduli stabilization “). Und dann gibt es eben dieses schon etwas ältere paper von Webb etal, dass eine signifikante relative Änderung von α auf 10^-5 Niveau in supernovas bei z etwa 5 gesehen haben will.

  15. #15 Daniel Rehbein
    Dortmund
    30. August 2018

    Diese Suche nach den Konstanten (die vielleicht gar keine Konstanten sind, sondern Variablen) zeigt vor allem eins: Wir sind noch weit davon entfernt, die Prinzipien und Zusammenhänge der Realität wirklich zu verstehen.

    Ich vergleiche es gerne mit der Mathematik: Die Mathematik ist ja komplett von Menschen erdacht, sie ist angewandte Philosophie. Der Mensch definiert abstrakte Objekte, definiert Regeln dazu und zieht daraus Schlußfolgerungen. Doch obwohl die Mathematik von uns selbst geschaffen ist, wissen wir nicht alles über sie. Aus ganz einfachen Konstrukten ergeben sich überraschend krumme Konstanzen wie etwa die Kreiszahl Pi oder die Eulersche Zahl e. Nach einige Jahrtausenden, die es die Mathematik schon gibt, stoßt der Mensch plötzlich auf die Feigenbaum-Konstante, und die volle Tragweite dieser Entdeckung ist uns Menschen vielleicht noch gar nicht bewusst. Zusätzlich gibt es noch viele andere ungelöste Fragen in der Mathematik – also ungelöste Fragen in einem Gebiet, das sich der Mensch selbst ausgedacht hat.

    Nun begegnen wir der Realität, also der Welt, die sich der Mensch nicht selbst ausgedacht hat. Und da begegnen uns irgendwelche Konstanten ohne Begründung, und wir haben keine Ahnung, wo diese Konstanten herkommen. Wie sollen wir jemals darauf kommen, wie diese Konstanten sich ergeben?

    Es ist quasi so, als hätte man dem großen Mathematiker Euklid damals die Feigenbaum-Konstante genannt (einfach nur so, also als Zahlenwert), und Euklid hätte herausfinden müssen, wo diese Zahl herkommt. Er hätte keine Chance gehabt! Nie im Leben wäre er auf die logistische Gleichung und die daraus erfolgten Berechnungen gekommen!

    Haben wir Menschen überhaupt eine Chance, jemals herauszufinden, was hinter den Naturkonstanten steckt?

    Und zu allem Unglück gibt es noch ein weiteres Problem: Alle diese Überlegungen gehen davon aus, daß es überhaupt irgendwelche Gründe oder Zusammenhänge für den Wert der Naturkonstanten gibt. Wir gehen also davon aus, daß die Mechanismen unserer Welt in irgendeiner Weise “schön” sind. Dazu hat uns Florian ja neulich auf etwas hingewiesen: Wir sollten auf Sabine Hossenfelder hören. Die Realität ist nicht dazu da, um uns zu gefallen.

    Wir sind verloren. Wir stecken in einer Welt fest, die wir nicht begreifen können.

  16. #16 Metalgeorge
    31. August 2018

    @Daniel Rehbein
    Ich finde dies ist eine sehr pessimistische Sicht auf die Erfolge von zigtausenden von Wissenschaftlern.
    Seit dem Jahr 1900 hat sich doch gewaltig viel für das Verständnis unserer Welt und des Universums getan.
    Wissenschaft und die zugehörige Theorien und Formeln dienen ja dazu, um etwas wiederholbar zu reproduzieren oder vorhersagen zu können. Und da sind wir glaube ich schon sehr gut geworden.

    Konstanten werden oft dort eingesetzt, wo beobachtete Ergebnisse an eine Theorie oder Formel angepasst werden.
    Zumeist ergeben sie sich aus einer grossen Anzahl an
    zugehörigen Experimenten oder setzen sich oft selbst wieder aus Konstanten zusammmen wie in diesem Beispiel.
    Dass sie konstant zu sein scheinen, hängt oft auch mit
    der “Auflösung” der verwendeten Instrumente zusammmen, die zur Beobachtung eingesetzt werden. (VLC, LHC, etc….)
    Dass wir in der Auflösung z.B. an die Plank Konstante sehr lange oder nie herankommen werden,
    liegt eben daran, dass sie wirklich sehr klein ist.
    Siehe auch die “kosmologische Konstante”, die ursprünglich von Einstein eingeführt wurde um ein statisches Universum zu erzeugen.

    https://de.m.wikipedia.org/wiki/Kosmologische_Konstante

    Dass diese Konstante nun doch nicht 0 ist oder sich eventuell verändert ist eben auch Gegenstand der aktuellen Forschung.
    Genauso bleiben die Untersuchungen zur Mathematik nicht stehen.

  17. #17 Christian
    31. August 2018

    [“… ist eine der ganz großen Fragen der Physik…”]

    ROFL, ROFL, ROFL

    Das ist doch mit Niveau GK 12 beantwortbar…

  18. #18 alex
    31. August 2018

    @Christian:
    Die Formulierung “ist eine der ganz großen Fragen der Physik” kommt weder im Artikel noch in den bisherigen Kommentaren vor. Es ist also nicht klar, auf was du dich eigentlich beziehst. Am ähnlichten ist folgender Satz aus Florians Artikel:

    Warum die Gravitationskraft so viel schwächer ist als die elektromagnetische Kraft ist eine der großen offenen Fragen der Physik.

    Falls du tatsächlich diesen Satz meinst, wäre ich sehr gespannt auf deine “Niveau GK 12”-Antwort.

  19. #19 PDP10
    31. August 2018

    @alex (und to whom it may concern):

    Von Christian wirst du keine Antwort bekommen. Der findet die Scienceblogs ganz generell doof und hat das auch schon bei Joseph Kuhn und Cornelius Courts nebenan kund getan. Inhaltlich zu sagen hat er so insgesamt eigentlich sonst so … nichts.

  20. #20 Metalgeorge
    31. August 2018

    @PDP10, @alex
    …wahrscheinlich so eine Art Tic.
    Tritt häufig izusammen mit Aufmerksamkeitsstörungen auf.

  21. #21 Daniel Rehbein
    Dortmund
    31. August 2018

    @Metalgeorge

    Was Du inhaltlich beschreibst, ist genau das, was ich auch meine. Du schreibst “Konstanten werden oft dort eingesetzt, wo beobachtete Ergebnisse an eine Theorie oder Formel angepasst werden. Zumeist ergeben sie sich aus einer grossen Anzahl an
    zugehörigen Experimenten”. Genau das ist das, was ich meine: Wir können Naturkonstanten zwar experimentell bestimmen, aber wir begreifen ihr Wesen nicht.

    Wenn wir die Welt verstehen wollen, dann stellen wir ja immer die Frage nach dem “Warum”. Wir wollen zum Beispiel wissen, warum die Feinstrukturkonstante den Wert 1/137 hat. Wie ergibt sich dieser Wert? Warum hat die Feinstrukturkonstante nicht irgendeinen anderen Wert?

    Deshalb mein Vergleich mit der Feigenbaum-Konstante in der Mathematik. Angenommen, Euklid hätte nicht nur theoretisch überlegt, sondern konkrete Dinge gemessen. Und dabei wäre er auf die Zahl 4,66920160910299… gestoßen. Hätte er eine Chance gehabt, darauf zu kommen, daß sich diese Zahl aus der total simplen Folge x:=r*x*(1-x) ergibt, in dem man bei der Analyse der Häufungspunkte die Abstände der Periodenverdopplung zueinander in Beziehung setzt?

    Wir Menschen beobachten die Realität und finden darin zum Beispiel die Feinstrukturkonstante mit dem Wert 1/137. Haben wir eine Chance, darauf zu kommen, woher dieser Wert von 1/137 kommt? Haben die eine Chance, das zugrundeliegende (und vielleicht total simple) Prinzip zu erkennen, aus dem sich letztlich der Wert 1/137 ableitet?

    Nun gibt es Menschen, die postulieren einen Ausweg aus diesem Dilemma: Multiversen. Sie sehen als Möglichkeit, daß es viele verschiedene Universen gibt, und daß die physikalischen Konstanten in den verschiedenen Universen unterschiedlich sind. Wir leben dann zufällig in dem Universum, in dem die Feinstrukturkonstante den Wert 1/137 hat.

    Das klingt im ersten Moment total verführerisch. Wir müssten nicht weiter nach einer Begründung für den Wert zum Beispiel der Feinstrukturkonstante suchen. Der Wert ist rein zufällig, er wurde quasi im Moment des Urknalls für unser Universum gewürfelt.

    Diese Erklärung wirft tatsächlich aber neue Fragen auf: Wenn der Wert einer Naturkonstanten quasi beliebig ist, er sich also zwischen verschiedenen Universen unterscheidet, wieso bleibt der Wert innerhalb eines Universums immer gleich? Es müsste ja dann einen Mechanismus geben, der dafür sorgt, daß der Wert nicht plötzlich umherspringt, sondern daß ausschließlich bei der Erschaffung eines ganz neuen Universums ein Wert festgelegt wird. Wie soll das funktionieren?

    Deshalb: Wir sind verloren. Wir haben keine Chance, unsere Welt zu begreifen.

  22. #22 Stephan
    1. September 2018

    @FF
    “Die etwa 3000 Astronominnen und Astronomen aus aller Welt werden wieder nach Hause fahren (bis auf die, die aus Wien kommen natürlich).”
    Ach die armen Wiener, wohin müssen die denn fahren ?
    “Das Letzte, das es – zumindest laut offiziellen Programm – auf der Tagung zu hören gibt, ist ein Vortrag der Astronomin Ana Catarina Leite”
    War der Vortrag wirklich so abartig schlecht ?

  23. #23 tomtoo
    1. September 2018

    @Daniel Rehbein
    Warum so pessimistisch? Nur weil wir evtl. vorhandene Zusammenhänge noch nicht sehen?

  24. #24 Metalgeorge
    1. September 2018

    @Daniel Rehbein

    Grundsätzlich verstehe ich deine Argumentation ja.
    Momentan werden wahrscheinlich vielen Wissenschaftlern
    ähnliche Gedanken durch den Kopf schießen, die sich mit
    der Erforschung der DM oder DE beschäftigen, wenn sich
    Vorhersagen über zu entdeckende Teilchen am LHC
    in Luft auflösen.
    Ich sehe deine Einschätzung aber als sehr pessimistisch.
    Nie?…..
    Dein Beispiel mit Euklid und der Feigenbaum-Konstante zeigt
    es doch, das Problem wurde schliesslich gelöst.
    Daher auch meine Erwähnung der begrenzten Aufĺösung
    unserer derzeitigen Messinstrumente.
    Aber sie werden immer besser!
    Vielleicht ist der LHC der falsche Weg und morgen schon hat
    jemand die zündende Idee für ein ganz neues Prinzip.
    Vìelleicht steht jetzt schon irgendwo ein neuer Einstein oder
    Plank in den Startlöchern , der uns mit seiner Phantasie
    eine komplett neue Sicht auf die Dinge beschert.

  25. #25 Jürgen A.
    Berlin
    1. September 2018

    Es gibt bei mir Dogmen in der Physik, ohne die jegliches Betreiben von Physik sinnlos wird. Dogmen dieser Art sind z.B. : das Ursache-Wirkungs-Prinzip, der Energie-Erhaltungs-Satz (mit Einbeziehung der Masse), der Impuls-Erhaltungs-Satz, der Drehimpuls-Erhaltungs-Satz . . . Wenn man diese Naturgesetze akzeptiert kann man nicht mehr beliebige Naturkonstanten zeitlich variieren, ohne gegen diese Gesetze zu verstoßen. Wenn man c zeitlich verändern würde, dann würde sich die Energie einer Masse mit der Zeit verändern. Wenn man G zeitlich verändern würde, dann würde sich das Axiom träge Masse = schwere Masse als falsch herausstellen. Da die potentielle Energie beeinflußt wäre, hätte man auch die Energieerhaltung verletzt.

    Deshalb sollte man, bevor man über die Variabilität von Naturkonstanten spekuliert, darüber nachdenken, ob das nach unserem Verständnis der Physik überhaupt möglich ist, ohne gegen grundlegende physikalische Prinzipien zu verstoßen.

  26. #26 tomtoo
    1. September 2018

    @Jürgen A.
    Erstmal bin kein Physiker.
    Aber sollte man mit solchen Dogmen nicht zumindest vorsichtig sein? Wer hätte gedacht dass da Vakuum sich ausdehnt? Könnte das eine Auswirkung auf die Vakuumpermeabilität haben und somit auch auf c? Warum sollten solche Denkansätze durch Dogmen verboten werden?

  27. #27 Jürgen A.
    Berlin
    1. September 2018

    @ tomtoo

    Aber ich !
    Die Grundprinzipien, die ich als Dogma bezeichnet habe, sind notwendig, um Physik zu betreiben.

    Falls man solche Grundvoraussetzungen nicht akzeptiert, kann man genau so gut verlangen, daß man beim Patentamt wieder Pertpetua mobilia anmelden darf. Im Internet werden ja genügend davon vorgeführt.

  28. #28 tomtoo
    1. September 2018

    @Jürgen A.
    Das verstehe ich nicht. Doofe Frage, was wäre wenn sich die Vakuumpermeabilität in 13Milliarden Jahren um 0.001% geändert hätte?

  29. #29 Karl-Heinz
    1. September 2018

    @tomtoo

    ε0 …elektrische Feldkonstante
    µ0 …magnetische Feldkonstante
    c0 …Ausbreitungsgeschwindigkeit von Licht im Vakuum

    Aus der Maxwell-Gleichungen ergibt sich folgender Zusammenhang. (Dogma_1 ;-))
    µ0 * ε0 * (c0)^2 = 1

    Der Wert und die Einheit der magnetischen Feldkonstanten (in SI-Einheiten) ergeben sich aus der Definition des Ampere als Einheit der Stromstärke. (Dogma_2 ;-))

    Nachdem 1948 erst die magnetische Feldkonstante und 1983 auch die Lichtgeschwindigkeit auf einen exakten Wert festgelegt wurden, ist auch der Wert der elektrischen Feldkonstante exakt festgelegt.
    (Dogma_3 ;-))

    Viel Spass beim Überlegen welche Auswirkung es hätte, wenn sich die Vakuumpermeabilität ändern würde. 😉

  30. #30 Daniel Rehbein
    Dortmund
    1. September 2018

    Es gibt einen Punkt in der Geschichte der wissenschaftlichen Erkenntnisse, der mich im Nachhinein besonders frustriert hat, und der mir deutlich gezeigt hat, wie wenig wir wissen: Die Begeisterung über den Nachweis des Higgs-Bosons.

    Als damals im Jahr 2012 das Higgs-Boson nachgewiesen wurde, wurde das so dargestellt, daß damit die letzte Bestätigung erbracht ist, daß der Mensch über das Wesen der Massen (und damit auch der Gravitation) Bescheid weiß. Mit dem Higgs-Boson (und dem Higgs-Feld) konnte man nun erklären, wie die Elementarteilchen zu ihrer Masse kommen. Alle waren begeistert!

    Die Erklärung bestand darin, daß man sich Teilchen im überall vorhandenen Higgs-Feld so vorstellen müsse wie Menschen, die durch einen Raum gehen. Manche Menschen sind sehr beliebt und werden deswegen von einer Menschentraube am Vorwärtskommen gehindert, andere Menschen sind weniger beliebt und kommen deshalb gut durch den Raum. Es wurde so dargestellt, als ob damit alle Erklärungen für die Massen der Teilchen gegeben wären. Ich vermisste aber eine Erklärung, warum die Teilchen unterschiedlich beliebt sind. Warum ist das Top-Quark so unglaublich beliebt, das Up-Quark dagegen um zahlreiche Zehnpotenzen unbeliebter, wenn es den Raum durchquert?

    Aufgrund der Tatsache, daß der Nachweis des Higgs-Bosons so gefeiert wurde, und daß dies stets mit der Nachricht verbunden war, daß man nun verstanden hat, wie Teilchen zu ihrer Masse kommen, bin ich davon ausgegangen, daß ich die Erklärung nur nicht richtig verstanden habe.

    Ich habe also gesucht nach einem Text, der erklärt, warum beispielsweise das Top-Quark so extrem viel mehr mit dem Higgs-Feld interagiert als das Up-Quark. Ich habe aber immer nur wieder den Vergleich mit den beliebten und unbeliebten Menschen gefunden. Es hat mich frustriert, daß ich nicht verstanden habe, wie sich damit die unterschiedlichen Massen der Teilchen ergeben.

    Seit 2012 warte ich nun also darauf, daß ich irgendwo mal auf einen Text stoße, der für mich verständlich erklärt, warum welches Teilchen welche Masse hat. Es ärgert mich, daß ich die Erklärungen nicht verstanden habe. Und es frustriert mich, daß ich keinen Text finde, der das so erklärt, daß ich es verstehe.

    Statt dessen stoße ich nun im August 2018 auf einen Text von Florian im Rahmen seiner Kolumne bei Spektrum, in der er schreibt, daß wir nicht wissen, warum welches Elementarteilchen welche Masse hat.

    https://www.spektrum.de/kolumne/herr-koides-vorhersage-fuer-das-reich-der-neutrinos/1582648

    Es ist also doch nicht so, daß ich die Erklärung für die Massen der Teilchen lediglich nicht verstanden hätte! Sondern wir wissen es tatsächlich nicht!

    Dieses ganze Gerede von “beliebt” und “unbeliebt” war also einfach nur Gelaber ohne Wert! Dieses Gelaber hat mich sechs Jahre in die Irre geführt! Der mit Begeisterung gefeierte Nachweis des Higgs-Bosons hat uns überhaupt nicht weitergebracht. Bzgl. der Massen der Elementarteilchen sind wir Menschen genauso dumm geblieben wie vorher.

    Diese Geschehnisse zeigen mir, wie wenig wir über das Wesen der Realität wissen. Wir feiern die Entdeckung eines Teilchens und behaupten, damit tolle Erkenntnisse gewonnen zu haben, und in Wahrheit formulieren wir unsere Unwissenheit damit nur in andere Worte um.

    Offenbar haben wir überhaupt keinen Ansatzpunkt, um zu irgendeiner Erklärung der Massen der Elementarteilchen zu kommen. Wir haben überhaupt keine Vorstellung, was das überhaupt ist (eine Masse), und so kommen wir auch an die inneren Zusammenhänge nicht heran. Wir können tolle Begriffe finden und Zahlen herausfinden, aber eigentlich wissen wir gar nicht, was wir da tun.

    Durch Experimente stellen wir zum Beispiel fest, daß Quarks und Gluonen in drei verschiedenen Zuständen und in dazugehörigen Anti-Zuständen vorkommen können. Und weil diese Anzahl “drei” so schön zu unserer Farbwahrnehmung passt, nennen wir diese Eigenschaft “Farbladung”. Aber wir haben keinerlei Vorstellung, was das überhaupt ist.

    Warum haben nur die Quarks und Gluonen eine Farbladung, die anderen Teilchen aber nicht? Warum hat von den Eichbosonen nur das Gluon eine Farbladung, nicht aber auch die anderen drei? Oder haben vielleicht alle Teilchen eine Farbladung, wir haben das aber bisher noch nicht bemerkt? Kann es sein, daß die unterschiedlichen Zustände der Neutrinos, die man nun gefunden hat, eine Farbladung sind?

    Zurück zur Masse: Warum hat der Flavour eines Quarks einen extremen Einfluß auf seine Masse, die Farbladung eines Quarks dagegen gar keinen Einfluß auf die Masse? Oder allgemeiner gefragt: Warum beeinflussen bestimmte Eigenschaften eines Teilchens seine Masse, bestimmte andere Eigenschaften aber nicht? Wie hängen die Eigenschaften eines Teilchens miteinander zusammen, und warum ist das so?

    Wir wissen nichts! Wir Menschen, wir stehen total dumm da. Wir können diverse Messungen anstellen, wir können mit unserer Technologie kleinste Teilchen nachweisen, aber die eigentlichen Gründe und Zusammenhänge, die die Realität in ihrem Innersten bestimmen und steuern, die bleiben uns komplett verborgen.

  31. #31 tomtoo
    2. September 2018

    @K-H
    c würde sich ändern. Und was weis ich noch alles? Aber wir reden ja über einen Zeitraum von fast 14 Milliarden Jahren. Und warum sollte sich die Natur daran halten, was wir als die bis jetzt beste Beschreibung von ihr kennen nur weil wir es so definiert haben?

  32. #32 Karl-Heinz
    2. September 2018

    @tomtoo

    Ja natürlich hast du Recht. Für den Zeitraum von fast 14 Milliarden Jahren lohnt es sich durchaus mal zu prüfen, wie konstant unsere Konstanten in unserem Modell wirklich sind. Und die Feinstrukturkonstante in einem sehr alten Sternenlicht macht das möglich.

  33. #33 Anonym_2018
    2. September 2018

    c kann sich seit 1983 nicht mehr ändern. Grund: Die Definition des Meters:

    Ein Meter ist definiert als die Länge der Strecke, die das Licht im Vakuum während der Dauer von 1/299 792 458 Sekunde zurücklegt.

    Quelle:
    https://de.wikipedia.org/wiki/Meter

  34. #34 Leser
    2. September 2018

    @ tomtoo, @ Karl-Heinz

    Glaubt an Gott ! Fragt ihn ob er gewillt ist, euch kundzutun, ob er in den letzten fast 14Milliarden Jahren, nach dem er das Universum geschaffen hat, c, G, die Feinstrukturkonstante oder sonst eine Naturkonstante verändert hat. Aber eine Auskunft werdet ihr nicht bekommen : warum er das getan hat !

  35. #35 tomtoo
    2. September 2018

    @Leser
    Ja, die Fragen an Gott. Die sind halt so eine Sache. Der hat ja so die Angewohnheit jedem eine andere Antwort zu geben.

  36. #36 gaius
    2. September 2018

    @Daniel Rehbein

    Die Naturwissenschaft beantwortet prinzipiell keine Fragen nach den letzten Gründen. Sie beantwortet immer nur die Frage nach der Verursachung, die eine Ebene tiefer liegt. Man muss also ein “physikalisches Warum” (nächster Grund) von einem “philosophischen Warum” (letzter Grund) unterscheiden.

    (Ich persönlich glaube nicht an letzte Gründe. Ich glaube nicht, dass es ein “eigentliches Wesen der Dinge” gibt. Ich denke, wir werden eine unendliche Rekursion von Verursachungen finden.)

  37. #37 Karl-Heinz
    3. September 2018

    @ tomtoo

    Die Feinstrukturkonstante α setzt sich aus e, ħ und c zusammen. Falls α sich tatsächlich in der Zeit ändert, müsste sich demnach zumindest eine dieser Größen ebenfalls ändern. Heute geht man davon aus, dass ħ und c fundamentale Größen sind, die in geeigneten Maßsystemen auch gleich eins gesetzt werden können. So würde dann eine zeitliche Änderung von α einer zeitlichen Änderung von e entsprechen.

  38. #38 Metalgeorge
    3. September 2018

    @Daniel Rehbein
    #20
    Dass das Standard Model zur Beschreibung der Elemtarteilchen nun
    schon 40 Jahre alt ist wissen wir alle. Auch dass es einige Mängel
    aufweist ist bekannt. Wie zum Beispiel die Frage nach dem “Warum”
    wie Sie es beschreiben. Auch, dass es soviele zusätzliche Teilchen
    vorhersagt, die bis heute nicht entdeckt wurden.
    Es steht aber ausser Frage, dass sich bereits jede Menge
    Wissenschaftler diesem Problem gestellt haben und nach
    Lösungen suchen.
    Einen interessanten Ansatz habe ich im Rahmen einer anderen
    Diskussion in diesem Blog gefunden.
    C.Furey hat sich genau diese Fragen gestellt und hat sich aufgemacht
    eine Lösung für dieses Problem zu finden.
    Siehe Abschnitt : “Background” auf dieser Seite.
    https://www.furey.space

  39. #39 Metalgeorge
    3. September 2018

    @myself
    ich meinte #30 nicht #20

  40. #40 rolak
    3. September 2018

    zeitliche[n] Änderung von e

    Die gibt es, Karl-Heinz, denn ohne ein Anwachsen von ‘e’ gäbe es kein großes ‘E’. :•P

  41. #41 Karl-Heinz
    3. September 2018

    @rolak

    Mein Gott, natürlich. e –> E
    Wie konnte ich das nur übersehen. 😉

  42. #42 alex
    3. September 2018

    @Metalgeorge (#38):

    Auch, dass es soviele zusätzliche Teilchen
    vorhersagt, die bis heute nicht entdeckt wurden.

    Welche Teilchen sagt das Standardmodell denn voraus, die bislang nicht entdeckt wurden? Die sechs Quarks, sechs Leptonen, drei Sorten von Eichbosonen (wobei es von denen der schwachen und starken Wechselwirkung jeweils mehrere Typen gibt), und das Higgs wurden ja alle inzwischen entdeckt.

  43. #43 Daniel Rehbein
    Dortmund
    3. September 2018

    Zu #36:

    Den letztendlichen Grund, warum überhaupt das alles hier (das Universum mit allem drin und dran) existiert, den wird es sicherlich nicht geben. Was mir fehlt, sind Gründe bzw. Erklärungen für bestimmte Phänomene und Zusammenhänge (zum Beispiel die Massen oder die Farbladungen).

    Ich sehe das so ähnlich wie bei der Relativitätstheorie: Der große Verdienst von Albert Einstein war ja erstmal nicht, daß er etwas grundsätzlich neues herausgefunden hätte. Sondern er hat für bereits bekannte Phänomene eine Erklärung gefunden. Und er hat damit zu einem besseren Verständnis (zu einem grundlegend neuen Verständnis) von Zeit und Raum beigetragen.

    Die Lorentz-Transformationen waren ja schon bekannt, man konnte sich die Formeln aber nicht erklären. Und es war bekannt, daß die Versuche, die Bewegungsrichtung des Äthers zu bestimmen, alle nicht funktionieren, man wusste aber auch nicht, warum.

    Dieses “warum”, das hat Albert Einstein geklärt. Er hat dargelegt, wie Zeit und Raum zusammen eine Einheit bilden, daß sie kein starres Gitter sind, in dem das Universum sich abspielt, vom Betrachter abhängige Größen. Die Erklärung des “warum”, das ist der große Verdienst von Albert Einstein. Es kamen dann natürlich weitere Schlußfolgerungen, insbesondere die Äquivalenz von Masse und Energie, aber zuallererst stand die Beantwortung der Frage nach dem “warum”, also das grundsätzliche Verständnis der beobachteten Realität.

    Albert Einstein hatte aber auch Dinge, auf denen er bereits aufbauen konnte: Durch die fehlgeschlagenen Versuche zum Aufspüren des Ätherwindes war schon klar, daß man unabhängig von der eigenen Bewegung stets die gleiche Lichtgeschwindigkeit messen würde. Auch die Lorentz-Transformationen führten zu einer konstanten Lichtgeschwindigkeit. Albert Einstein hatte also bereits eine grundlegende Basis, auf der seine Überlegungen fußten.

    Heute fragen wir uns nach dem “warum” in anderen Dingen, zum Beispiel nach dem Grund für den Wert der Feinstrukturkonstanten. Uns fehlt aber die grundlegende Basis, auf der Überlegungen zu dieser Frage fußen könnten. Wir haben keinerlei Vorstellung davon, was eine Masse überhaupt ist. Wir kennen die kleinsten Teilchen bloß als Rechengrößen. Wie sollen wir da weiterkommen? Wie kommen wir zu einem grundsätzlichen Verständnis der beobachteten Realität?

  44. #44 Daniel Rehbein
    Dortmund
    3. September 2018

    Zu #42:

    Bei Deiner Zählung hast Du Farbladung wieder unterschlagen. Die wird ja von den üblichen Darstellungen des Standardmodells auch immer unterschlagen. Offensichtlich unterscheiden wir zwischen Eigenschaften, die uns wichtig sind, (z.B. der Flavour eines Quarks) und Eigenschaften, die uns unwichtig sind (z.B. die Farbladung eines Quarks). Aber wenn die die Anzahl der unterschiedlichen Teilchen zählen, müssen wir natürlich alles mitzählen.

    Was auf jeden Fall im Standardmodell noch fehlt, sind die Elementarteilchen, aus denen die Dunkle Materie besteht. Vielleicht haben die auch einen Spin? Vielleicht habe die auch eine Farbladung? Auf jeden Fall muß noch irgendetwas hinzukommen, denn Dunkle Materie gibt es ja. Das Standardmodell ist also recht umfangreich.

    In den 20er-Jahren des vergangenen Jahrhunderts prägte man den Begriff “Teilchenzoo”, weil man immer neue Teilchen entdeckte. Man war unzufrieden mit der ständig wachsenden Anzahl von Elementarteilchen. as löste sich dann auf, als man herausfand, daß die kontinuierlich neu entdeckten Teilchen ihrerseits wieder zusammengesetzt waren. Die Bestandteile nannte man “Quarks”.

    Nun ist das ganze mittlerweile wieder zu einer stattlichen Anzahl von Teilchen und ihren dazugehörigen Antiteilchen herangewachsen. Jetzt haben wir also schon wieder einen “Teilchenzoo”!

    Wir hatten in den 20er-Jahren des 20. Jahrhunderts einen “Teilchenzoo”. Und jetzt, kurz vor den 20er-Jahren des 21. Jahrhunderts, haben wir wieder einen “Teilchenzoo”. Dazwischen liegen knapp 100 Jahre Wissenschaft.

    Wir drehen uns im Kreis! Es ist, also ob wir in der Wüste herumgelaufen wären, nach 100 Jahren sind wir wieder am Ausgangspunkt. Wir haben immer noch kein Wasser gefunden.

  45. #45 alex
    3. September 2018

    @Daniel Rehbein:

    Bei Deiner Zählung hast Du Farbladung wieder unterschlagen.

    Ja und? Und warum eigentlich “wieder”? Ich habe auch die Varianten von Teilchen mit unterschiedlichem Vorzeichen in der elektrischen Ladung nicht getrennt aufgeführt. Warum sollte ich das mit der Farbladung anders handhaben? (Die Varianten mit unterschiedlichem schwachen Isospin habe ich getrennt aufgeführt, weil die sich deutlicher voneinander unterscheiden.)

    Was auf jeden Fall im Standardmodell noch fehlt, sind die Elementarteilchen, aus denen die Dunkle Materie besteht. …

    Metalgeorge sprach von Teilchen, die das Standardmodell vorhersagt, die aber noch nicht entdeckt wurden. Du sprichst von Teilchen, die das Standardmodell nicht vorhersagt, die noch nicht entdeckt wurden, die aber vermutlich existieren.

    Vielleicht haben die auch einen Spin?

    Möglicherweise. Manche Teilchen die als Kandidaten für dunkle Materie vorgeschlagen wurden haben einen Spin, andere haben Spin 0.

    Vielleicht habe die auch eine Farbladung?

    Vermutlich nicht. Bzw. wenn sie Farbladung haben, dann müssen sie in der dunklen Materie im Universum in “farblosen” gebundenen Zuständen vorkommen (analog zu den Baryonen und Mesonen).

    Das Standardmodell ist also recht umfangreich.

    Aber es enthält nicht die dunkle Materie. Und es enthält auch keine Teilchen die noch nicht entdeckt wurden.

    In den 20er-Jahren des vergangenen Jahrhunderts prägte man den Begriff “Teilchenzoo”, weil man immer neue Teilchen entdeckte.

    Da hast du dich um mindestens 10 Jahre vertan. Abgesehen von Elektronen und Protonen hat man die ersten Teilchen in den 1930ern entdeckt. Und der Begriff des “Teilchenzoos” bezieht sich ja vor allem auf die vielen stark wechselwirkenden Teilchen (von denen man heute weiß, dass sie gebundene Zustände von Quarks sind). Und den Großteil davon hat man erst nach 1950 entdeckt.

    Ich bin gerade zu faul mich auf die Suche nach der ersten Verwendung des Wortes “Teilchenzoo” (oder “particle zoo”) zu machen. Aber es würde mich doch sehr wundern, wenn das in den 1920er gewesen wäre, als man genau zwei Teilchen kannte (was für ein langweiliger Zoo).

    Jetzt haben wir also schon wieder einen “Teilchenzoo”!

    “Jetzt” im Sinne von “seit den späten 1970ern”. Denn seit damals hat sich an der Anzahl der Teilchen im Standardmodell nichts geändert. (Alle vorhergesagten Teilchen im Experiment zu finden hat dann noch ein paar Jahrzehnte gedauert; aber das ist ja für die Zahl der Teilchen im Modell nicht relevant.)

  46. #46 Daniel Rehbein
    Dortmund
    3. September 2018

    Das “wieder vergessen” meine ich in dem Sinne, daß die Farbladung in den üblichen Darstellungen des Standardmodells nicht auftaucht und man sie deshalb generell schnell vergißt.

    Mir geht es generell um die Frage: Welche Erkenntnisse haben wir Menschen von der Realität? Wie entwickeln sich unsere Erkenntnisse weiter? Kommen wir beim Verständnis unserer Welt voran?

    Im Sinne dieser Fragen muß ich ja Teilchen, die erst nach auf Entdeckung warten, bereits zu der Anzahl der Teilchen, aus denen aus unsere Realität (bzw. die Realität unseres Universums) besteht, dazurechnen, auch wenn sie aktuell im Standardmodell noch nicht aufgeführt sind.

    Und da ist Tatsache, daß wir wieder von einem “Teilchenzoo” stehen, dessen Bestandteile wir uns nicht erklären können. Wir wissen nicht, warum genau diese Teilchen existieren und nicht andere Kombinationen beispielsweise von Ladung und Spin. Wir wissen nicht, wie die Umwandlung der Teilchen ineinander genau abläuft. Wir wissen nicht, warum welches Teilchen welche Masse hat.

  47. #47 alex
    4. September 2018

    @Daniel Rehbein

    Das “wieder vergessen” meine ich in dem Sinne, daß die Farbladung in den üblichen Darstellungen des Standardmodells nicht auftaucht und man sie deshalb generell schnell vergißt.

    Ja und? Die Varianten von Teilchen mit unterschiedlicher elektrischer Ladung werden üblicherweise auch nicht getrennt aufgeführt. Und der schwache Isospin wird in den üblichen Darstellungen gar nicht erst erwähnt. Dazu kommt, dass die meisten Quarks ja nicht frei vorkommen. Und in den gebundenen Zuständen haben sie keine feste Farbladung.

    Kommen wir beim Verständnis unserer Welt voran?

    Die Antwort auf diese Frage ist eindeutig “Ja!”.

    Im Sinne dieser Fragen muß ich ja Teilchen, die erst nach auf Entdeckung warten, bereits zu der Anzahl der Teilchen, aus denen aus unsere Realität (bzw. die Realität unseres Universums) besteht, dazurechnen, auch wenn sie aktuell im Standardmodell noch nicht aufgeführt sind.

    Noch einmal: In Kommentar #38 sprach Metalgeorge explizit von Teilchen, die das Standardmodell vorhersagt, die aber noch nicht entdeckt wurden. Und solche Teilchen gibt es einfach nicht. Das ist das einzige was ich mit meinem Kommentar #42 ausdrücken wollte. Ist das wirklich so schwer zu verstehen?

    Und da ist Tatsache, daß wir wieder von einem “Teilchenzoo” stehen …

    Und es ist ebenso eine Tatsache, dass das Standardmodell wesentlich übersichtlicher ist, als der Teilchenzoo der 1950er und 60er. Insbesondere, weil letzterer sich ja nur auf Hadronen bezieht; 6 Quarks statt hunderter Mesonen und Baryonen ist ein deutlicher Fortschritt.

    Aber ich muss zugeben, dass es komplizierter ist als dein eingebildeter Teilchenzoo aus den 1920ern.

    Wir wissen nicht, warum genau diese Teilchen existieren und nicht andere Kombinationen beispielsweise von Ladung und Spin.

    In dieser Allgemeinheit stimmt das nicht.

  48. #48 Robert
    München
    4. September 2018

    @Daniel Rehbein (#30)
    Ich will auch versuchen, einige Deiner Fragen zu kommentieren: Was die Analogie mit den beliebten Menschen auf der Cocktailparty visualisieren soll, ist, dass Teilchen, die erstmal keine Masse haben, eine solche durch Wechselwirkung mit einem anderen Feld bekommen koennen, Wie groß diese dann konkret ist, hängt von der Stärke dieser Wechselwirkung ab (in diesem Fall die “Yukawa-Kopplung”) und in der Tat sind diese Werte genau wie die alpha=1/137 freie Parameter im Standardmodell, die man einfach messen muss und nicht vorhersagen kann. Und in der Tat ist es eine große offene Frage, warum die ueber so viele Größenordnungen schwanken. Was aber vorhergesagt werden kann, ist dass sich aus der Masse der Quarks und Leptonen direkt die Stärke der Streuwechselwikung mit dem Higgs-Teilchen ablesen lässt. Und das hat sich auch beim LHC genau so bestätigt, nicht zuletzt im jetzt beobachten Zerfall des Higgs in ein bb-quer Paar, also das schwerste Quark, in das ein Higgs energetisch zerfallen kann.

    Welche Teilchen welche Ladung tragen wird in technischer Sprache dadurch beschrieben, in welcher “Darstellung” der Eichgruppe sie sind. Das ist eine diskrete Auswahl (wie zB Spin), kein kontinuierlicher Parameter. Dabei folgt aus der Struktur einer Eichtheorie, dass die Eichbosonen jeweils in der adjustierten Darstellung ihrer Gruppe sein müssen (was impliziert, dass W- und Z-Bosonen keine Farbladung tragen können, das war eine Deiner Fragen). Es ist eine empirische Tatsache, dass alle anderen Teilchen in “bifundamentalen” Darstellungen sind, was bedeutet, das sie jeweils unter genau zwei der drei Faktoren der SU(3) x SU(2)_L x SU(2)_R geladen sind: Dies erklärt, warum nur die rechtshändigen Teilchen SU(2)-Doublets sind und es keine linkshändigen Neutrinos gibt. Und daraus folgt auch, dass das Higgs, das links- und rechtshändige Teilchen verbindet und Ihnen so eine Masse geben kann (da es chirale Fermionen nur in masselos gibt) selber keine Farbladung tragen kann. Warum es nur diese bifundamentalen Darstellungen gibt, wird aber nicht erklärt. Allerdings wird das durch einige ueber das Standardmodell hinausgehende Konstruktionen wie GUTs oder Stringtheorie im Nachhinein erklärt. Die einzigen Bedingungen an die Auswahl der Darstellungen kommt aus der Bedingung der Anomaliefreiheit. Die schränkt die Wahlfreiheit stark ein, aber hat keinesfalls nur eine Lösung.

  49. #49 Daniel Rehbein
    Dortmund
    6. September 2018

    Danke für diese Erklärungen. Es ist also doch nicht alles so ganz beliebig, sondern es gibt ein paar Abhängigkeiten. Allerdings bleiben doch etliche unerklärliche Parameter.

    Mir wird wieder deutlich bewusst, daß es für mich ein Problem ist, wenn die Welt nicht in mathematischen Sinne “schön” ist. Ich habe die Vorstellung, daß diese ganze komplizierte Welt mit ihren zahlreichen Werten und Parametern eigentlich aus etwas total einfachem entstehen müsste, so wie die wie eine Zufallszahl aussehende Feigenbaum-Konstante (oder das total merkwürdig aussehende Feigenbaum-Diagramm) aus etwas total simplem wie der Logistischen Gleichung (in der keine einzige konkrete Zahl vorkommt) folgt.

    Wenn wir in unseres Welt Parameter haben, die wir nicht erklären können, und die vielleicht tatsächlich gar nicht erklärbar sind, dann finde ich das sehr betrüblich.