Zur Abwechslung macht gerade mal ein wissenschaftliches Thema abseits von Corona Schlagzeilen. Es geht um Teilchenphysik: Ein Experiment am amerikanischen Fermilab hat Hinweise auf “neue Physik” entdeckt. Also auf etwas, was über das bisher bekannte “Standardmodell”, mit dem wir den Aufbau und das Verhalten der Materie beschreiben, hinaus geht. Das heißt: Bisher unbekannte Teilchen; eine bisher unbekannte fundamentale Kraft; vielleicht auch beides oder etwas völlig anderes. Auf jeden Fall neu; das sollen extrem präzise Messungen des g-Faktors von Myonen zeigen. Womit sich drei Fragen stellen: 1) Was ist ein Myon? 2) Was ist ein g-Faktor? Und 3) Wieso braucht man auf einmal “neue Physik”?
Was ist ein Myon?
[Kurze Antwort: Ein Elementarteilchen]
Fangen wir mit dem einfachsten Teil an. Myonen sind Elementarteilchen. Man kann es sich wie ein Elektron vorstellen, nur mit etwas mehr Masse (rund 200 Mal so viel). Im Gegensatz zum Elektron, das wir in der Hülle von Atomen finden, spielen Myonen beim Aufbau der normalen Materie allerdings keine Rolle. Das liegt unter anderem auch daran, dass sie instabil sind; sie existieren nach ihrer Entstehung nur für Sekundenbruchteile und wandeln sich dann in andere, stabile Teilchen herum. Entdeckt hat man die Myonen 1936 in der “kosmischen Strahlung”. Also die Teilchen, die von Sternen wie der Sonne und anderen astronomischen Phänomenen im Weltall andauernd produziert werden und durch den Kosmos fliegen. Wenn die kosmische Strahlung auf die Atmosphäre der Erde trifft, dann ist das im Prinzip wie ein natürlicher Teilchenbeschleuniger: Es kommt zu Kollisionen mit den Atomen der Luft und aus der dabei frei werdenen Energie können neue, andere Teilchen entstehen. Zum Beispiel Myonen, die man aber eben genau so gut auch künstlich in irdischen Beschleunigeranlagen erzeugen kann. Was man auch macht, da sich mit ihnen sehr viele spannende Phänomene sehr gut untersuchen lassen (dazu später mehr).
Was ist der g-Faktor?
[Kurze Antwort: Eine Zahl, die das Verhalten von Elementarteilchen beschreibt, und die man einerseits sehr gut theoretisch berechnen, andererseits aber auch sehr präzise messen kann]
Hier wird es ein wenig komplizierter. “g-Faktor” steht für “gyromagnetischer Faktor” (der auch “Landé-Faktor” genannt wird). Und es geht um das “magnetische Moment” eines Teilchens. Das könnte man sehr vereinfacht als die Stärke des Magnetfelds beschreiben, das einem Teilchen zueigen ist. Für den g-Faktor brauchen wir aber auch noch den “Spin” des Teilchens. Der wird ja gerne mal als “Drehimpuls” beschrieben und man stellt sich dann das Teilchen als kleines Kügelchen vor, das um eine Drehachse rotiert. Was man durchaus tun kann, aber nur wenn es einen nicht stört, dass es falsch ist. Denn Teilchen sind keine kleinen Kugeln die sich drehen. Wir haben es mit Quantenmechanik zu tun, und da werden die Dinge leider nicht mehr sehr anschaulich. Ein Beispiel: Teilchen wie Elektronen oder Myonen haben einen Spin von 1/2. Was bedeutet, dass sie sich zweimal um ihre Achse drehen müssen, damit sie wieder den gleichen Zustand erreichen wie vor Beginn der Drehung. Das macht nicht viel Sinn – eben weil die Vorstellung von sich drehenden Kugeln nicht der Realität entspricht. Mir ist bis jetzt für den Spin noch keine bessere “Erklärung” eingefallen als: Der Spin eines Teilchens ist eine quantenmechanische Größe, für die es in der normalen Welt unseres Alltags keine Entsprechung gibt. Das ist zwar ein wenig unbefriedigend, aber wenn man nicht die ganze (und sehr komplizierte) Mathematik der Quantenmechanik auffahren will, dann muss man sich damit abfinden, dass man sich manche Dinge eben nicht gleichzeitig verständlich UND korrekt vorstellen kann.
Der g-Faktor beschreibt nun – wieder sehr vereinfacht gesagt – wie sich der Spin eines Teilchens bei Vorhandensein eines Magnetfelds verhält. Er bestimmt, wie schnell sich die Spin-Achse des Teilchens um die Magnetfeldlinien dreht. Das tun Elektronen und Myonen doppelt so schnell wie man es erwarten würde, wenn man die ganze Sache mit der Quantenmechanik sein lässt und die Teilchen mit klassischer Physik beschreibt. Weswegen der g-Faktor für diese Teilchen einen Wert von 2 hat. So zumindest lautete das Ergebnis, das man aus der berühmten Dirac-Gleichung ableiten kann, die 1928 entwickelt wurde, um die Quantenmechanik mit den Erkenntnissen von Albert Einsteins spezieller Relativitätstheorie zu kombinieren. Messungen in den 1940er Jahren haben aber immer wieder einen Wert geliefert, der ein kleines bisschen größer als 2 war (nämlich 2,00232). Das könnte man einfach ignorieren – aber die Quantenmechanik ist in der Lage, SEHR genaue Vorhersagen zu machen und man kann im Allgemeinen die Werte bei Experimenten in Teilchenbeschleunigern auch SEHR genau messen. So ein Unterschied zwischen Theorie und Experiment ist also durchaus relevant. Der amerikanische Physiker (und spätere Nobelpreisträger) Julian Schwinger fand dann auch bald heraus, wo das Problem liegt. In der Welt der Quantenmechanik ist nichts von Dauer; alles kann sich ändern. Teilchen wie Elektronen oder Myonen können zum Beispiel durch die Gegend fliegen und spontan ein Lichtteilchen, also ein Photon aussenden. Unmittelbar danach absorbieren sie das Photon wieder und tun so, als wäre nichts geschehen.
Das klingt seltsam, ist aber auch wieder der Natur der Quantenwelt zu verdanken. Ein Teilchen ist eben kein fixes “Ding”; keine Kugel, nicht einmal eine Welle (je nach dem wie wir hinschauen sehen sie für uns nur manchmal so aus wie Kügelchen oder Wellen) – sondern genaugenommen ein angeregter Zustand eines Quantenfeldes. Auch das kann man nicht wirklich gut anschaulich erklären. Vereinfacht gesagt: Je nachdem wie viel Energie in ein Quantenfeld gesteckt wird, tauchen daraus verschiedene Teilchen auf. Und weil in der Quantenmechanik nichts fix ist, ist so ein Feld beständig am fluktuieren. Es tauchen immer wieder Teilchenpaare auf und verschwinden sofort wieder. Wenn man sich ein Myon unbedingt als kleine Kugel vorstellen möchte, dann am besten als eine Kugel, die von einer sich dauernd ändernden Wolke aus anderen Teilchen umgeben ist. Denn das Beispiel mit dem Photon war nur der einfachste Fall. Auch das Lichtteilchen kann sich kurzfristig “verwandeln”; dann hätten wir ein Myon, das ein Photon aussendet, das sich in irgendein Teilchen/Antiteilchen-Paar umwandelt, das sich gegenseitig auslöscht und wieder zu einem Photon wird, das vom Myon schließlich absorbiert wird. Das ganze passiert ständig und in beliebig komplexen Erweiterungen.
Das ist verständlicherweise ziemlich verwirrend. Wichtig aber ist: Dieses ganze Teilchengewimmel um das Myon herum beeinflusst den Wert des g-Faktors. Es macht ihn ein klein wenig größer, womit ja eigentlich der Unterschied zwischen Theorie und Experiment wieder hergestellt sein sollte. Dann bräuchte man aber auch keine “neue Physik” – weswegen die Geschichte jetzt eigentlich erst so richtig anfängt.
Warum braucht man eine “neue Physik”?
[Kurze Antwort: Weil die Messungen des g-Faktors der Myonen nicht mit den theoretisch berechneten Werten übereinstimmen und niemand weiß, warum das so ist.]
Was heißt es eigentlich, wenn man von “neuer Physik” redet? Die “alte Physik” ist in diesem Fall das sogenannte “Standardmodell der Teilchenphysik”. Das ist im Wesentlichen ein Haufen sehr komplizierter mathematischen Formeln, mit denen die Eigenschaften der Elementarteilchen beschreibt und der Kräfte, die zwischen ihnen wirken. Dieses Modell ist enorm erfolgreich; die theoretischen Vorhersagen die sich daraus berechnen lassen, stimmen mit extrem hoher Genauigkeit mit den Messungen überein. Beim g-Faktor für das Elektron etwa stimmen Theorie und Experiment bis auf 0,000000000001 überein. 12 Stellen hinter dem Komma; da können andere Wissenschaften schon ein wenig neidisch werden.
Das Standardmodell funktioniert also gut. Wir wissen aber, dass es in manchen Bereichen nicht funktioniert. Es ist zum Beispiel nicht in der Lage, auch die Gravitationskraft zwischen den Teilchen zu beschreiben. Es ist nicht in der Lage, Phänomene wie die dunkle Materie zu inkludieren. Oder Neutrinos korrekt zu beschreiben. So gut das Standardmodell also auch ist; es muss noch etwas besseres geben. Genau das ist die “neue Physik”: Etwas, was das Standardmodell grundlegend verändert; eine neue Art von Teilchen, eine neuen Kraft zwischen den Teilchen, und so weiter. Wir haben jede Menge Ideen, wie so eine neue Physik aussehen könnte. Aber bis jetzt haben wir noch keine ausreichend großen Abweichungen zwischen Theorie und Experiment entdeckt, die ein konkreter Hinweis auf die neue Physik wäre.
Zurück zu den Myonen: Die hat man schon seit den 1950er Jahren benutzt, um mehr über die Welt der Teilchen zu erfahren. Elektronen sind zwar einfacher, weil sie nicht zerfallen. Aber so ein Myon hat mehr Masse, was bedeutet, dass es auch viel massereichere Teilchen in seiner “Teilchenwolke” erzeugen kann. Und genau dort könnten sich bisher unbekannte Teilchen verbergen (diejenigen mit kleiner Masse haben wir schon längst alle entdeckt). Wie untersucht man das jetzt genau? Einmal durch Experiment: In einem ringförmigen Teilchenbeschleuniger werden Myonen eingeschossen. Im Ring gibt es ein Magnetfeld und während das Myon dort seine Runden dreht, wackelt es ein wenig hin und her. Wieder einmal nur vereinfacht gesagt, natürlich. Irgendwann (nach einem Sekundebruchteil und ein paar hundert Runden im Ring), zerfällt es und zwar in dem Fall in ein Elektron und zwei Neutrinos. Die Energie des ausgesandten Elektrons kann man mit Detekoren messen und daraus lässt sich die Stärke des Wackels messen, die wiederum vom g-Faktor abhängt.
So kriegt man als den Messwert für den g-Faktor. Jetzt braucht man noch die Theorie. Dafür muss man eigentlich “nur” rechnen; einfach ist es aber trotzdem nicht. Denn es gibt sehr, sehr, sehr viele Möglichkeiten für die Arten von Teilchen, die so ein Myon spontan aussenden und wieder absorbieren kann. Manche – wie der simple Fall eines Photons – sind häufig und leicht zu berechnen. Andere sind sehr kompliziert und kommen seltener vor. Und man hat auch nicht einfach eine Liste an möglichen Prozessen, die man einfach nur der Reihe abarbeiten muss. Alles passiert gleichzeitig und immer nur mit einer gewissen Wahrscheinlichkeit. Man kann sich der Realität nur Stückweise annähern und je genauer man werden will, desto mehr muss man rechnen. Das Verfahren nennt sich Störungsrechnung: Das auftauchende und verschwindene Photon ist zum Beispiel eine große “Störung” des g-Faktors, aber leicht zu berechnen. Sollte das Photon unterwegs selbst noch einen Haufen andere Teilchen produzieren, ist die Störung geringer, aber auch viel schwerer und aufwendiger zu berechnen. Im aktuellen Fall hat man auf Seite der Theorie immer knapp 15.000 potentielle Teilchenreaktionen berücksichtigt; ein enormer Rechenaufwand, der aber auch ein sehr genaues Resultat liefert. Der g-Faktor des Myons sollte demnach 2,00233183620 betragen. Gemessen hat man am Teilchenbeschleuniger des Fermilab aber einen Wert von 2.00233184122. Eine Abweichung in der achten Stelle hinter dem Komma! Reicht das als Hinweis auf eine “neue Physik”?
Hat man wirklich eine “neue Physik” entdeckt?
[Kurze Antwort: Vielleicht. Wir müssen noch ein wenig genauer hinschauen. Vielleicht liegt die neue Physik aber auch nicht dort, wo wir glauben, das sie zu finden ist.]
Entdeckungen in der Teilchenphysik laufen ein wenig anders ab als anderswo in der Wissenschaft. Ich habe das vor 10 Jahren schon mal ausführlich angesichts der Suche nach dem Higgs-Teilchen beschrieben. Da schaltet man nicht einfach den Teilchenbeschleuniger an und wartet, bis so ein Teilchen vorbei kommt auf das man dann mit dem Finger zeigt und “Da ist es!” ruft. Die Experimente im Beschleuniger erzeugen JEDE MENGE Daten! Man kann dort zum Beispiel Teilchen kollidieren lassen. Dabei wird Energie frei und aus dieser Energie bilden sich neue Teilchen. Nicht nur die, die man gerade sucht, sondern alles, was die Gesetze der Physik zulassen. Das muss man irgendwie auseinander sortieren und kriegt es dabei leider mit Wahrscheinlichkeiten zu tun. Auch hier arbeitet man mit dem Vergleich von Theorie und Messung: Man berechnet vorher, welche Teilchen dort prinzipiell entstehen sollten und in welche anderen, stabilen Teilchen sie zerfallen. So bekommt man eine Vorhersage über die Verteilung der Energie, die diese gemessenen Teilchen haben sollten und das vergleicht man dann mit der realen Messung. Entstehen im Experiment Teilchen, mit denen man nicht gerechnet hat, also neue, noch unbekannte Teilchen, dann wird man eine Abweichung zwischen Theorie und Experiment messen. So weit, so klar. Aber weil in der Quantenmechanik eben nichts exakt sondern alles nur innerhalb gewisser Wahrscheinlichkeiten abläuft, kommt es zwangsläufig IMMER zu Abweichungen. Das ist ein wenig wie beim Würfeln: Die Theorie sagt, dass man jede Zahl zwischen 1 und 6 gleich oft und wahrscheinlich würfelt. Es kann aber trotzdem sein, dass ich per Zufall mal sechs Sechsen hintereinander würfle. Das liegt dann nicht daran, dass die Physik falsch ist. Sondern ist tatsächlich nur Zufall und wenn ich weiter würfle, werden die Resultate immer besser mit der Vorhersage übereinstimmen.
In der Teilchenphysik ist es auch so: Abweichungen zwischen Theorie und Experiment können auch einfach nur Zufall sein. Deswegen verwendet man dort den “Sigma-Wert”. Auch das habe ich in meinem alten Artikel genau erklärt; im Wesentlichen ist es aber eine Zahl die einem sagt, wie wahrscheinlich es ist, dass die Abweichung nur ein Zufall ist, der wieder verschwindet, wenn man mehr Daten sammelt. Beim aktuellen Experiment des Fermilab liegt der Wert bei 4.2 – was so viel heißt wie: Mit einer Chance von 99,997 Prozent ist die Abweichung NICHT durch Zufall entstanden. Das klingt eigentlich schon sehr gut; in der Teilchenphysik ist es aber üblich, erst bei einem Wert von 5 Sigma (99,99994% Sicherheit) von einer “Entdeckung” zu sprechen. Was natürlich immer noch eine recht willkürliche Grenze ist: Es gab jede Menge Fälle, wo Experimente einen niedrigen Sigma-Wert gezeigt haben, der später gewachsen ist und sich als Anzeichen eines realen Phänomens herausgestellt hat. Und Messungen mit Werten von mehr als 5 Sigma haben sich als zufällige Fluktuation herausgestellt. Teilchenphysik ist keine Wissenschaft für singuläre “Heureka!”-Momente. Sondern ein kontinuierlicher Prozess, bei dem das Vertrauen (oder Misstrauen) im Laufe der Zeit immer größer wird, so lange bis irgendwann alle überzeugt sind, es mit einem realen Phänomen zu tun zu haben. Denn der Zufall kann uns zwar täuschen, aber nicht beliebig lange. Ein echtes Phänomen setzt sich immer durch; die zufälligen Fluktuationen verschwinden zwangsläufig irgendwann.
Halten wir also fest: Von einer “offiziellen” Entdeckung kann man bei einem Wert von derzeit 4,2 Sigma noch nicht sprechen. Es stimmt aber optimistisch, dass das Experiment am Fermilab ja nur das letzte in einer langen Reihe war. Und dass der Sigma-Wert immer größer geworden ist, je mehr Daten man gesammelt hat. Dennoch brauchen wir NOCH mehr Daten, wenn wir es genau wissen wollen. Vor allem, weil es da noch ein anderes Problem gibt.
Ist alles doch nur ein Rechenfehler?
[Kurze Antwort: Eventuell. Aber auch das könnte ein Hinweis auf neue Physik sein]
Ich habe vorhin erwähnt, wie schwierig es ist, den g-Faktor des Myons aus der Theorie des Standardmodells zu berechnen. Das liegt vor allem an einem Phänomen, das man “hadronische Vakuum-Polarisation” nennt. Das ist genau der Fall, den ich schon ein paar Mal erwähnt habe: Ein Myon sendet ein Photon aus, das Photon verwandelt sich in ein Hadron und ein Anti-Hadron, beide vernichten sich und das entstehende Photon wird vom Myon wieder absorbiert. Und ein “Hadron” ist ein Teilchen, das aus Quarks zusammengesetzt ist. Das macht es schwierig, seine Eigenschaften genau zu berechnen, denn die Quarks werden von der “starken Kernkraft” beeinflusst, die wiederum von “Gluonen” vermittelt wird und bei diesem ganzen Prozess entstehen selbst wieder jede Menge Teilchenpaar die sofort wieder verschwinden. Man muss das alles nicht im Detail verstehen, wichtig ist nur: Der Einfluss der Hadronen auf den g-Faktor ist enorm knifflig zu berechnen. Man kann das vor allem nicht exakt tun; die entsprechenden mathematischen Formeln sind immer nur näherungsweise lösbar. Aber man will es lösen, denn der Einfluss der Hadronen ist zwar klein, aber wichtig. Je nachdem wie er ausfällt, ändert sich der g-Faktor ab der siebten Stelle hinter dem Komma – also genau da, wo es in diesem Fall interessant wird. Es gibt nun zwei Arten, das Problem anzugehen. Man kann ganz auf das Rechnen verzichten, stattdessen Daten aus anderen Experimenten nehmen und daraus den Einfluss der Hadronen ableiten. Das ist eine etablierte Methode, die schon oft und gut bestätigt worden ist und genaue Resultate liefert. Oder man kann das ganze per Computersimulation lösen. Die entsprechenden mathematischen Gleichungen sind zwar nicht exakt berechenbar, aber die Resultate lassen sich mit den entsprechenden Methoden im Prinzip beliebig genau mit einem Computer näherungsweise finden. Auch das ist nicht neu; auf diese Weise lösen wir zum Beispiel auch die Gleichungen, die die Bewegung von Himmelskörpern beschreiben und das klappt immerhin so gut, dass wir Raumsonden punktgenau zu absurd weit entfernten Planeten steuern können.
Im aktuellen Fall hat man am Fermilab den ersten Ansatz gewählt. Vor ein paar Wochen schon haben andere Forscher:innen aber ihre Resultate mit der zweiten Methode veröffentlicht. Das ganze läuft unter dem Namen “BMW-Team” und hat nichts mit dem Auto zu tun, sondern mit Budapest, Marseille und Wuppertal, wo die diversen Arbeitsgruppen ansäßig sind. Sie haben einen Supercomputer benutzt um den g-Faktor inklusive der kniffligen Hadroneinflüsse extrem genau zu berechnen. Das Ergebnis: 2,00233183908. Was innerhalb der Größenordnungen um dies hier geht, deutlich größer ist als der für das Fermilab-Experiment verwendet Theoriewert von 2,00233183620 ist. Und auch sehr viel näher am gemessenen Wert von 2.00233184122 liegt.
Nimmt man die eine Rechenmethode als Grundlage, dann findet man also keine großen Hinweise auf neue Physik. Bei der anderen dagegen schon. Das ist ein wenig unbefriedigend. Und macht noch einmal deutlich, dass wir mehr Daten brauchen. Aber selbst wenn die Abweichung im Laufe der Zeit verschwinden sollte, hat man immer noch ein Problem: Warum stimmen die beiden Rechenmethoden nicht überein? Auch dafür muss es einen Grund geben und auch der könnte darin bestehen, dass wir beim Standardmodell irgendwas grundlegendes übersehen haben. Die Hoffnung auf die Entdeckung von “neuer Physik” bleibt also bestehen!
Und was tun wir jetzt?
Wir warten ab. An den Teilchenbeschleunigern wird weiter gemessen werden. In der Theorie wird man probieren zu verstehen, wie man die Vorhersagen noch exakter berechnen kann. Irgendwann MUSS etwas passieren. Das Standardmodell kann nicht das Ende unserer Erkenntnis sein. Wenn wir der Natur lange genug mit neuen Experimenten und neuen Theorien auf die Nerven gehen, wird sie uns irgendwann verraten müssen, was da abgeht!
P.S. Wer noch mehr über das Thema lesen will, von Leuten die sich auf dem Gebiet sehr viel besser auskennen als ich, dem empfehle ich den Artikel “‘Last Hope’ Experiment Finds Evidence for Unknown Particles” von Natalie Wolchover im Quanta-Magazin und “Is the Standard Model of Physics Now Broken?” von Sabine Hossenfelder in Scientific American.
Kommentare (48)