Anfang der Neunziger Jahre gab es experimentelle Hinweise auf ein neues Teilchen, das 17-keV-Neutrino. In diesem dritten Teil der Geschichte will ich die Reaktion der theoretischen Physiker auf diese Möglichkeit beleuchten, eine Geschichte, zu der ich eine ganz persönliche Beziehung habe.

Als ich letztes Wochenende anfing, diese Geschichte zu schreiben, hatte ich die theoretischen Arbeiten nur überflogen, aber noch nicht gesichtet. Wenn ich gewusst hätte, worauf ich mich da einlasse, hätte ich diese Geschichte vielleicht besser nach Episode II beendet – meine letzte ernsthafte Beschäftigung mit theoretischer Elementarteilchenphysik ist ja schon eine Weile her, und Dinge wie Majoronen, See-saw-Mechanismen, MSW-Mechanismen, Leptoquarks, Zeldovich-Konopinski-Mahmoud-Leptonen-Ladungen brachten meinen Kopf gründlich zum Schwirren.

Aber keine Sorge – zu tief werde ich in die Details nicht einsteigen, sondern nur versuchen zu zeigen, wie die Theoretiker mit dem neuen Teilchen umgingen. Falls es Euch doch zu technisch wird, springt einfach direkt nach unten zum letzten Abschnitt, dort erzähle ich, warum mich das 17-keV-Neutrino interessiert und versuche, allgemeine Schlüsse zu ziehen, so wie schon am Ende von Episode II.

Was könnte das 17-keV-Neutrino sein?

Was es nicht sein konnte, war relativ klar: Ein vierter Neutrino-Flavor zusätzlich zu Elektron- Myon- und Tauon-Neutrino. (Ich schreibe hier manchmal Tau-Neutrino, manchmal Tauon-Neutrino. Beides ist dasselbe.) Das war durch Experimente am CERN definitiv ausgeschlossen, weil man dieses Neutrino dann beim Zerfall des Z-Bosons hätte sehen müssen. Aus dem Z-Boson-Zerfall kann man ableiten, dass es nur drei Neutrino-Flavors geben kann. (Ein vierter wäre nur denkbar, wenn das Neutrino dazu eine Masse hätte, die in derselben Größenordnung läge wie die des Z-Bosons viel schwerer wäre als das Z-Boson, aber das passte nicht zum Wert von 17 keV, denn das Z-Boson ist etwa 5Millionenmal schwerer als das.)

Konnte das 17-keV-Neutrino vielleicht einfach das Tau-Neutrino sein? Dazu müsste aus dem Elektron-Neutrino ein Tau-Neutrino werden können.

Gemischte Teilchenzustände
Das 17-keV-Neutrino (von dem ich der Einfachheit halber jetzt erstmal so tue, als würde es existieren, sonst wird der Text hier vor lauter Konjunktiven absolut unlesbar) sollte ja beim β-Zerfall entstehen. Im β-Zerfall zerfällt ein Neutron normalerweise in ein Proton, ein Elektron, und ein Elektron-Neutrino, aber in etwa 1% der Fälle (nach den Daten von 1992) sollte statt des Elektron-Neutrinos ein 17-keV-Neutrino entstehen.

Eine Möglichkeit, wie das funktionieren könnte wäre die, das zunächst ein Elektron-Neutrino entsteht, das sich dann in das 17keV-Neutrino umwandelt. Solche Teilchenumwandlungen sind in der Physik nichts Neues – in den 50ern und 60ern bereitete den Physikern das neutrale K-Meson (Kaon) Kopfzerbrechen, weil es sich anscheinend ganz spontan in sein eigenes Antiteilchen verwandeln konnte. Diese Umwandlerei ist ein quantenmechanisches Phänomen.

Im Fall des Neutrinos kann man sich das so vorstellen: das Elektron-Neutrino ist das Teilchen, das zur Aussendung eines Elektrons gehört. Da die Unterscheidung zwischen Elektron, Myon und Tauon auch als “Flavor” (“Geschmack”) bezeichnet wird, gehört das Elektron-Neutrino also zum Elektron-Flavor – Physiker sagen, es ist ein quantenmechanischer Eigenzustand zum Flavor. Wenn es sich spontan in ein anderes Neutrino (das 17-keV-Neutrino) umwandelt, dann ändert es dabei seine Eigenschaften, es ist also nicht stabil. Aus der Unschärfe-Relation kann man daraus ableiten, dass die Masse des Elektronneutrinos nicht festliegt. Die Eigenzustände zur Masse sind also nicht gleichzeitig Eigenzustände zum Flavor.

Das ist die gute alte Unschärferelation aus der Quantenmechanik in etwas anderer Form: Messe ich den “Flavor” des Neutrinos (und das tue ich indirekt beim β-Zerfall, weil ich ja das Elektron beobachte), dann liegt seine Masse nicht fest. Messe ich seine Masse (oder Energie), dann wiederum ist der Flavor nicht eindeutig festgelegt. Das Elektron-Neutrino wäre in diesem Bild also eine Mischung aus einem leichten Neutrino (das kein Flavor-Eigenzustand ist) und dem 17-keV-Neutrino. Ein frei herumschwirrendes Neutrino in einem Energie-Eigenzustand wechselt deshalb seinen Flavor.

(Diesen Mechanismus gibt es übrigens tatsächlich – wie wir heute wissen, können sich Elektron-Neutrinos in Myon- oder Tauon-Neutrinos umwandeln.)

Man konnte sich also vorstellen, dass das Elektron-Neutrino sich in 1% der Fälle noch im Detektor in ein Tau-Neutrino umwandelt. Das wäre eine einfache und elegante Lösung des Problems. Leider geht das nicht ohne weiteres. Um das zu verstehen, werfen wir einen Blick auf den damaligen Wissensstand.

Neutrino-Forschung Anfang der Neunziger
Neben dem 17-keV-Neutrino hatte die Neutrino-Forschung Anfang der Neunziger Jahre noch ein anderes offenes Problem: Messungen der Sonnenneutrinos ergaben eine viel zu geringe Anzahl von Neutrinos. Da die Detektoren auf der Erde nur Elektronen-Neutrinos messen konnten, war eine Möglichkeit, dies zu erklären, dass sich die Elektronen-Neutrinos auf dem Weg von der Sonne zu uns umwandelten, in einem Misch-Mechanismus, wie ich ihn gerade erklärt habe.

Auch ob Neutrinos eine Masse haben, wusste man noch nicht. Die beiden Probleme hängen zusammen – masselose Neutrinos können sich nicht ineinander umwandeln. Anschaulich kann man sich das so erklären: Masselose Neutrinos fliegen mit Lichtgeschwindigkeit. Nach der Relativitätstheorie vergeht für sie selbst deswegen keine Zeit während des Fluges, also können sie sich auch nicht umwandeln. (Dieses Argument ist so theoretisch natürlich nicht ganz sauber, macht aber hier nichts.)

Interessant war auch die Beobachtung der Supernova 1987A. Dabei hatte man 24 Neutrinos auf der Erde detektiert – klingt nicht viel, aber wenn man zurückrechnet, wie weit die Erde von der Supernova entfernt war und wie klein die Wahrscheinlichkeit ist, dass ein Neutrino tatsächlich im Detektor gemessen wird, dann stellt man fest, dass die Supernova tatsächlich den größten Teil ihrer Energie in Form von Neutrinos verliert.

Probleme mit dem 17-keV-Neutrino
Konnte das 17-keV-Neutrino einfach das Tau-Neutrino sein? Genauer gesagt, könnte das 17-keV-Neutrino ein Massenzustand sein, der im wesentlichen dem Tau-Flavor entspricht, mit einer kleinen Beimischung des Elektron-Flavors, weil sich Tau- und Elektron-Neutrino ja ineinander umwandeln müssen?

Aus den Daten der Supernova-Explosion konnte man ableiten, wie schnell die Supernova Energie abgestrahlt hatte. Wenn sich das Elektron-Neutrino in ein Tau-Neutrino umwandelt, und zwar mit 1% Wahrscheinlichkeit beim β-Zerfall, dann würden in der Supernova ziemlich viele Tau-Neutrinos entstehen. Ein Abgleich mit den Daten ergab, dass sich daraus eine Obergrenze für die Masse des Tau-Neutrinos ableiten ließ – sie lag bei 30keV, war mit den Daten also gerade noch verträglich.

Ein weiteres Problem ergab sich bei Überlegungen zum Urknall: Wenn dort 17-keV-Neutrinos mit großer Häufigkeit entstanden wären, dann hätte ihre Masse das Universum frühzeitig kollabieren lassen. Zusätzlich hätten sie die kosmische Hintergrundstrahlung beeinflusst – deren Spektrum müsste dann ganz anders aussehen als das gemessene. Das Problem kann nur gelöst werden, wenn das 17-keV-Neutrino selbst in andere Teilchen zerfallen kann.

Innerhalb des Standardmodells gibt es dafür zwar Möglichkeiten, aber die Lebensdauer des Tau-Neutrinos liegt im Standard-Modell um Größenordnungen über dem Alter des Universums, der Zerfall wäre also viel zu langsam, um den Kollaps des Universums gleich nach dem Urknall verhindern zu können.

Das Standardmodell muss also erweitert werden, das 17-keV-Neutrino beinhaltet auf jeden Fall neue Physik. Wenn es das Tau-Neutrino ist, dann braucht es neue Zerfallsmöglichkeiten. Wenn es nicht das Tau-Neutrino ist, was ist es dann?

Spekulationen

Foot und King bastelten ein Modell, in dem das 17-keV-Neutrino tatsächlich (im wesentlichen) das Tau-Neutrino ist. Damit es mit den Beobachtungen konsistent wurde, musste man noch ein paar weitere Teilchen einführen, die alle sehr schwer (über 200GeV) waren und deshalb experimentell nicht beobachtet wurden. Nebenbei erledigte das Modell gleich noch ein anderes Problem: Es bewies, dass die elektrische Ladung quantisiert sein musste.

Nobelpreisträger Glashow hatte ein ähnliches Modell, darin gab es sechs Neutrinozustände, die in komplizierter Weise gemischt waren. Das 17-keV-Neutrino konnte in sogenannte Majoronen zerfallen, das sind ungeladene und nahezu unbeobachtbare theoretische Teilchen. Ähnliche Modelle wurden in der Folgezeit in größerer Zahl aufgestellt, sie alle unterscheiden sich leicht darin, wie genau die unterschiedlichen Neutrino-Zustände gemischt werden.

Einige dieser Modelle erledigten das Problem der Sonnenneutrinos gleich mit – die Neutrinos wurden so gemischt, dass sie auf dem Weg von der Sonne zur Erde oszillierten und deshalb hier nicht alle gesehen werden.

Joshipura baute ein schönes Modell, in dem das 17-keV-Neutrino zwar anscheinend nicht das Problem der Sonnenneutrinos löste (leider habe ich nur Zugriff auf den Abstract, deswegen bin ich nicht ganz sicher, ob es dann nicht doch tut), aber immerhin für die berühmte dunkle Materie verantwortlich ist.

Papageorgiu und Ranfone untersuchten verschiedene Möglichkeiten. In einer davon zerfällt das 17-keV-Neutrino in ein weiteres hypothetisches Teilchen, das Axion. In einer anderen Veröffentlichung wurde geschaut, ob sich das 17-keV-Neutrino nicht in sogenannte GUT-Theorien (Grand Unified Theories) unterbringen ließ, die die elektroschwache und die starke Kraft miteinander vereinten und ohnehin dafür bekannt waren, einen Sack neuer Teilchen zu postulieren. Die Antworte lautete: Es geht, allerdings musste man schon eine Menge Zusatzannahmen einbauen, damit alles mit den Messungen konsistent war.

Eine ganz andere Idee involviert wieder andere hypothetische Teilchen, sogenannte “Leptoquarks”. Leptoquarks können Leptonen (also auch Neutrinos) in Quars umwandeln und umgekehrt. Sie tauchen in einigen GUT-Modellen auf und man kann sie anscheinend auch verwenden, um das 17-keV-Neutrino mit den Messungen unter einen Hut zu bekommen.

In mehreren Modellen ist das 17-keV-Neutrino eine Mischung aus einem Elektron-Neutrino und einem neuen Teilchen, einem “sterilen” Neutrino. Steril heißt es deshalb, weil es selbst überhaupt nicht mit Materie wechselwirkt. (Außer durch seine Masse.) Choudhury führt in einem Paper dazu ein paar neue Leptonenzustände ein, mit denen sich am Ende das 17-keV-Neutrino ergibt, das hinreichend schnell zerfällt, um Ärger mit den Experimenten zu vermeiden.

Vielelicht spielt ja auch die Allgemeine Relativitätstheorie irgendwie in das Problem hinein? Jedenfalls fand ich auch zwei Paper, in denen Planck-Effekte (also Effekte auf der Längenskala, bei denen Quanteneffekte der Gravitation wichtig werden) involviert waren. Gravitationseffekte auf der Planckskala sollten dabei für die Neutrino-Massen verantwortlich sein. Damit ergeben sich zunächst sehr kleine Neutrinomassen (deutlich kleiner als 1eV). Damit man auch noch das 17-keV-Neutrino unterbringt, muss wieder mal ein zusätzliches Teilchen eingeführt werden; das 17-keV-Neutrino ist dann ein Mischzustand aus dem Elektron-Neutrino und dem neuen Teilchen, das selbst mit Materie gar nicht wechselwirkt.

Alles in allem sieht man, dass es ziemlich viele Versuche gab, das 17-keV-Neutrino unterzubringen. Probleme wie beispielsweise der mögliche Kollaps des Universums oder die Neutrinos der Supernova wurden dadurch gelöst, dass die neue Physik, die jeweils entwickelt wurde, entsprechend angepasst wurde. Fairerweise muss man auch sagen, dass es auch negative Veröffentlichungen gab, in denen gezeigt wurde, dass bestimmte Modelle definitiv nicht funktionieren würden.

Wietfeldt und Norman kommen in ihrem Review zu folgendem Schluss.

It is a tribute to theoretical ingenuity that in spite of the severe constraints a number of viable, if somewhat contrived, models for the 17 keV neutrino were developed.
Man muss es dem theroetischen Scharfsinn anrechnen, dass trotz der schwierigen Randbedingungen eine Anzahl von brauchbaren, wenn auch etwas gekünstelten, Modelle für das 17-keV-Neutrino entwickelt wurden.

Das 17-keV-Neutrino und ich
Das 17-keV-Neutrino erlebte seine “Blütezeit” gerade als ich in Hamburg am DESY Diplom- und dann Doktorarbeit in der theoretischen Physik geschrieben habe.

Damals wurden Artikel (bevor sie in Zeitschriften veröffentlicht wurden) als sogenannte Preprints noch nicht über Server im Internet vorab an die Physikgemeinde verteilt, sondern in Papierform in der Welt herumgeschickt. Jeden Montag nach dem Mittagessen ging man in die Bibliothek und sichtete die neuen Preprints darauf, ob etwas Interessantes dabei war.

So erfuhr ich überhaupt zum ersten Mal von 17-keV-Neutrino. Nachdem ich angefangen hatte, darauf zu achten, bemerkte ich, dass es mindestens alle paar Wochen ein neues theoretisches Preprint zum 17-keV-Neutrino gab und dazu, wie es sich in die Physik einfügen ließ. Mir schien es, als könne jeder Theoretiker das neue Teilchen in seine ganz persönliche Lieblingstheorie so einbauen, dass es sich “ganz natürlich” ergibt – “natural” ist tatsächlich ein Wort, dass einem in den Theoriepapern hier öfters begegnet. Wenn ich meinen kurzen Überblick oben nochmal anschaue, dann war dieser Einduck so ganz falsch wohl nicht.

Als das Teilchen dann nicht existierte (ich weiß nicht mehr genau, wann ich das erfuhr, aber ich glaube, es war erst 1995 – experimentelle Preprints las ich nicht so häufig wie theoretische), machte mich das sehr nachdenklich. Ist es wirklich möglich, ein vollkommen beliebiges Teilchen in die Physik einzufügen, und keines der gängigen Modelle zur erweiterten Physik (GUTs, Supersymmetrien und was es da alles gibt) wird durch dieses Teilchen widerlegt? Und wenn das so ist, ist die theoretische Physik dann überhaupt noch eine echte Wissenschaft?

Diese Fragen, die heutzutage ganz ähnlich gern über die Stringtheorie gestellt werden, machten mir damals Sorgen – sind die Modelle der theoretischen Physik überhaupt falsifizierbar? Dass ich 1996 beschloss, statt theoretischer Physik lieber etwas anderes zu machen, hatte viele Gründe, aber einer davon war das 17-keV-Neutrino.

Nachdem ich in den letzten Tagen viele der damaligen Veröffentlichungen gründlicher gelesen und darüber nachgedacht habe, bin ich mir nicht sicher, ob ich damals nicht zu pessimistisch war. Wenn man ehrlich ist, steckt schon das Standardmodell voller willkürlicher Zahlen und Annahmen. (Im Verhältnis zu all dem, was es erklärt, ist es aber immer noch eine unglaublich gute Theorie). Das 17-keV-Neutrino auf die eine oder andere Weise einzubauen, fügt diesen Annahmen ein paar weitere hinzu. Insofern war meine Kritik am Standardmodell und seinen möglichen Erweiterungen vielleicht überzogen.

Schwieriger war es ja auch, das 17-keV-Neutrino so in die Theorie einzubauen, dass auch Daten der Supernova-Explosion 1987A und Modelle des Urknalls korrekt blieben. Dazu musste das 17-keV-Neutrino in seinen Eigenschaften bezüglich Lebensdauer etc. schon ziemlich stark eingeschränkt werden. Man muss den Theoretikern sicher zu Gute halten, dass sie sich aktiv bemühten, solche Einschränkungen zu finden und in ihren Modellen zu berücksichtigen. Wie es aussieht, gelang es ihnen, einige Modelle zu finden, die mit allen Beobachtungen im Einklang war. Ob alle diese Modelle tatsächlich hätten Bestand haben können, wenn man sie weiter untersucht hätte, scheint mir fraglich. Vielleicht hätte sich bei vielen von ihnen beim weiteren Erforschen gezeigt, dass sie doch ungelöste Probleme enthielten.

Letztlich ist es vermutlich ähnlich wie mit dem Fazit bei den experimentellen Arbeiten: Einzelne Theoretiker waren vielleicht zu optimistisch, was die Vereinbarkeit des neuen Teilchens mit ihrer persönlichen Lieblingstheorie anging. Ähnlich wie bei den Experimentalphysikern ist auch hier natürlich viel Ruhm zu ernten, wenn man als erster ein Teilchen in ein Modell integrieren kann. Einige der Veröffentlichungen hätten vielleicht einer zukünftigen Prüfung nicht Stand gehalten. Wäre das 17-keV-Neutrino nicht 1993 widerlegt gewesen, wären diese Veröffentlichungen weiter analysiert worden, Inkonsistenzen wären gefunden worden und letztlich hätte vielleicht nur ein Bruchteil der Modelle überlebt.

Auch hier zeigt sich wieder, dass Wissenschaft im Endeffekt nur im Wechselspiel zwischen Individuen funktioniert. Einzelne Wissenschaftler sind vielleicht über-enthusiastisch und ignorieren gelegentlich Probleme oder Inkonsistenzen – andere aber werden die Theorien prüfen, um sie zu verfeinern oder weiterzuentwickeln und dabei diese Probleme aufdecken. Bei den Experimenten zum 17-keV-Neutrino hat dieser Mechanismus, wie wir gesehen haben, sehr gut funktioniert, bei den Theorien hätte er vermutlich auch gegriffen, wenn das Teilchen überlebt hätte.


Hier ein paar der Veröffentlichungen – falls jemand die ganze Liste haben oder mit pdfs zugemüllt werden möchte, genügt eine mail…

Elena Papageorgiu and Stefano Ranfone
The mass-hierarchy puzzle and the 17 keV neutrino in the context of a Universal Seesaw Model

Elena Papageorgiu, Stefano Ranfone,
Neutrino masses in the flipped SU (5) x U (1) and the SU (4) x O (4) GUT model

Subhash Rajpoot
A Model for Simpson’s 17 keV Neutrino

R. Foot, S. F. King
Electric charge quantisation with a 17 keV neutrino,

L. Bento, J. W. F. Valle
The simplest model for the 17 keV neutrino and the MSW effect

Miriam Leurer
On the Unmixed 17 keV Neutrino

Eugeni Kh. Akhmedov, Zurab G. Berezhiani, Goran Senjanovic , Zhijian Tao
Planck Scale Effects In Neutrino Physics

Debajyoti Choudhury
Discrete Symmetry, Neutrino Magnetic Moment and the 17 keV Neutrino

Debajyoti Choudhury, Utpal Sarkar,
A new mechnism to generate a 17 keV neutrino

Sidney A. Bludman, . C. Kennedy and P. G. Langacker
Seesaw-model predictions for the τ-neutrino mass

Kommentare (37)

  1. #1 SingSing
    2. Oktober 2010

    Guter Artikel (alle drei Teile). Das ganze noch ausführlicher, mit einigen redundanten Erklärungen für Langsame wie mich, dazu noch mehr Plots und Grafiken, dann wären es schon drei Kapitel in einem noch zu schreibenden spannenden Buch.

  2. #2 kommentarabo
    2. Oktober 2010

  3. #3 MartinB
    2. Oktober 2010

    @SingSing
    Danke – besorg’ mir doch nen Verlag, dann gern 😉

    Ja, mit dem Erklärungsniveau ist es schwierig – ich hab versucht, einen Mittelweg zu finden. Aber keine Sorge, der nächste Text wird deutlich leichtere Kost…

  4. #4 Walter Orlov
    2. Oktober 2010

    Nun ja, die Kritik theoretischer Physik ist anscheinend in Mode gekommen 😉

    Ist es wirklich möglich, ein vollkommen beliebiges Teilchen in die Physik einzufügen, und keines der gängigen Modelle zur erweiterten Physik (GUTs, Supersymmetrien und was es da alles gibt) wird durch dieses Teilchen widerlegt? Und wenn das so ist, ist die theoretische Physik dann überhaupt noch eine echte Wissenschaft?

    Diese Fragen, die heutzutage ganz ähnlich gern über die Stringtheorie gestellt werden, machten mir damals Sorgen – sind die Modelle der theoretischen Physik überhaupt falsifizierbar?

  5. #5 MartinB
    3. Oktober 2010

    @WalterOrlov
    Bin dem Link gefolgt. Tut mir leid, vollkommen absurde Äußerungen wie “die Physik ist seit den 30er jahren nicht mehr vorangekommen” (Quantenelektrodynamik, QCD, Bellsche Ungleichungen um mal nur ein paar Grundlagen zu nennen…) hat mit meinen Überlegungen oder z.B. Smolins und Woits Kritik an der Stringtheorie nichts gemein.

  6. #6 Niels
    3. Oktober 2010

    Ist es wirklich möglich, ein vollkommen beliebiges Teilchen in die Physik einzufügen, und keines der gängigen Modelle zur erweiterten Physik (GUTs, Supersymmetrien und was es da alles gibt) wird durch dieses Teilchen widerlegt? Und wenn das so ist, ist die theoretische Physik dann überhaupt noch eine echte Wissenschaft?
    Da wäre ich nicht so pessimistisch. Die Theorien, mit denen man das 17-keV-Neutrino erklären wollte, sind doch zum großen Teil immer noch aktuell und waren daher keine überenthusiastischen Schnellschüsse.

    Die Theorie der Neutrino-Oszillation zum Beispiel war offenbar richtig, dass wurde mittlerweile bekanntlich durch mehrere Experimente bestätigt. In diesen Experimenten wurden unabhängig voneinander die Oszillationsparameter gemessen. Für ein 17-keV-Neutrino wären völlig andere Werte für diese Parameter nötig gewesen, das hätte das sicher zu weiteren Überprüfungen und Wiederholungen der Experimente geführt.

    Auch Majoronen sind meines Wissens noch nicht vom Tisch, sondern sie sind immer noch die einfachste Erweiterung des Standardmodells, um die Neutrinomassen zu erklären. In einem passenden Beschleuniger müsste man die Dinger auch finden können. Da würde man dann sehen, dass die Masse für die Erklärung eines 17-keV-Neutrino nicht passt bzw. ob es diese Dinger überhaupt gibt.

    Insofern halte ich die Existenz eines 17-keV-Neutrino schon für ausreichend falsifizierbar.
    Die anderen Theorien wie Leptoquarks, Axionen usw. sind doch ebenfalls noch immer brauchbare Kandidaten für eine Erweiterung des Standardmodells, durch neuere Experimente konnte man auch bestimmte Grenzwerte für die Massen bestimmen.
    Vielleicht stehen schon diese Grenzwerte zu einem 17-keV-Neutrino in Widerspruch?

    Da machen mir andere Dinge in der theoretischen Physik mehr Bauchschmerzen, zum Beispiel die zusätzlichen “aufgerollten” Raumdimensionen, deren Größen immer gerade unter die momentane experimentelle Nachweisbarkeit schrumpfen.

  7. #7 MartinB
    3. Oktober 2010

    @Niels
    “Da wäre ich nicht so pessimistisch”
    Bin ich ja auch nicht, habe ich ja im nachgang wieder relativiert.
    Damals schien es mir, dass ein 17-keV-Neutrino keins der Modelle wie GUT, Leptoquarks etc. irgendwie widerlegen könnte, das fände ich schon bedenklich. Beim gründlicheren Lesen in den letzten Tagen habe ich aber ja festgestellt (wie auch oben angeführt), dass es durchaus auch negative Resultate gab – es ging beileibe nicht alles.

    Ja, die aufgerollten Dimensionen mag ich auch nicht so besonders gern, und ich hätte schon gern eine Theorie, die die 3+1 makroskopischen Dimensionen eindeutig vorhersagt.

  8. #8 Niels
    3. Oktober 2010

    @MartinB
    Bei den Experimenten zum 17-keV-Neutrino hat dieser Mechanismus, wie wir gesehen haben, sehr gut funktioniert, bei den Theorien hätte er vermutlich auch gegriffen, wenn das Teilchen überlebt hätte.
    Ich wollte nur mal schildern, warum man es meiner Ansicht nach auf jeden Fall gemerkt hätte.
    Allerdings eben durch das Wechselspiel von Experimenten und Theorien. An das Standardmodell lässt sich theoretisch offenbar wirklich ziemlich viel konsistent dranschrauben.

  9. #9 Walter Orlov
    3. Oktober 2010

    Ich dachte eher an Alexander Unzicker. Hat er etwa eine Lavine ausgelöst? Oder anscheinend geht die String-Theorie schon vielen auf die Nerven 🙂

    Was meine Behauptung betrifft, beziehe ich mich auf die Revolution in der Physik in den 1900-1930 Jahren. Was kann damit noch verglichen werden? Außerdem lautet der Satz: “Trotz immensen Investitionen gibt es seit den 1930-er Jahren keine neuen nennenswerten Erkenntnisse mehr.” Das ist der Punkt. Die Forschung frisst immer mehr Geld, trotzdem bleib der Erfolg aus.

  10. #10 MartinB
    3. Oktober 2010

    @WalterOrlov
    Unzicker ist mir herzlich egal (zumal er letztlich auch nur ein Trittbrettfahrer auf den Kritiken von Smolin und Woit zu sein scheint), und wie oben erläutert stammt meine Kritik an der Physik aus dem Jahr 1995 – da hatte ich nur noch keinen Blog.

    Ich finde die geschichte interessante, weil sie konkret zeigt, wie Wissenschaft funktioniert und sich selbst korrigiert.

    “Was kann damit noch verglichen werden?”
    QED, QCD, Bellsche Ungleichung, immense Fortschritte der Festkörperphysik, der Kosmologie (auch in Kombination mit Teilchenphysik) um nur die ersten zu nennen, die mir ohne Nachdenken einfallen…

  11. #11 SingSing
    4. Oktober 2010

    Dr. Bäker schreibt

    Ja, die aufgerollten Dimensionen mag ich auch nicht so besonders gern, und ich hätte schon gern eine Theorie, die die 3+1 makroskopischen Dimensionen eindeutig vorhersagt

    Gerade vor ein paar Tagen erschien dieses Interview mit Shing-Tung Yau — vielleicht der bedeutendste Forscher auf dem Gebiet der “aufgerollten Dimensionen” — und siehe da, er hat durchaus Hoffnung, dass wir einmal so weit sein werden:

    There must be some more fundamental principle in order to choose the right geometry to tell what the universe is supposed to be.

    Im Gegensatz zu einem Kommentator hier im Thread bin ich — als blutiger Laie, wohlgemerkt — durchaus nicht der Meinung, dass seit den dreißiger Jahren des vergangenen Jahrhunderts nichts Bedeutendes mehr in der theoretischen Physik erforscht wurde.

    Wir erleben eine spannende Zeit, die gleichzeitig geprägt ist von dem begründeten Eindruck, dass alle fundamentalen Grundlagen unserer Lebenswelt bereits erforscht und beschrieben sind — so z.B. kürzlich Sean Carroll — und von der Erwartung, dass atemberaubende Erkenntnisse in der Kosmologie und in der Elementarteilchenphysik immer noch gewonnen werden.

    Für 99,99 % der Menschheit ist es heute nicht möglich, an diesen Fortschritten in einer Weise teilzuhaben, die über das Lesen extrem vereinfachter Darstellungen, mit hübschen Grafiken und anschaulichen Analogien, hinausgeht. Bei manchen Leuten, darunter nicht wenige Physiker, führt dieses relative Ausgeschlossensein zu Wut und Ablehnung.

    Ich sehe das anders. Vor dreihundert Jahren dachte niemand daran, einmal den Montblanc zu besteigen, vor einhundert Jahren war noch nicht einmal die genaue Höhe des Mt. Everest bekannt, geschweige denn an eine Besteigung zu denken. Heute kann jeder Gesunde mit einem guten Bergführer und der richtigen Ausrüstung auf den höchsten Berg der Alpen.

    Dr. Bäker ermöglicht es uns, die Maxwellschen Gleichungen kennenzulernen, einem Materialforscher bei der Arbeit über Schulter zu gucken, und die ganz normalen Irrwege bei der Suche nach einem hypothetischen Neutrino nachzuvollziehen.

    Seine Enkeltochter wird das interessierte Publikum in die Geheimnisse der Stringtheorie einführen.

  12. #12 Walter Orlov
    4. Oktober 2010

    Zugegeben sieht Unzicker’s Kritik nach einer Imitation aus.

    Martin Bäker: “Ich finde die geschichte interessante, weil sie konkret zeigt, wie Wissenschaft funktioniert und sich selbst korrigiert.”

    Ihre Geschichte hat mich an einen anderen Fall erinnert. Es geht um die Lichtablenkung im Schwerfeld der Sonne. Die Ergebnisse sind so undeutlich, dass sogar durch eine Gerade approximiert werden können. Sehen Sie hier
    http://ufn.ru/ufn56/ufn56_5/Russian/r565d.pdf Seiten 7 und 15. 1956 gab man das noch zu. Man setzte also die Abhängigkeit ~ 1/r extra voraus, um brauchbare Resultate für Allgemeine Relativitätstheorie zu bekommen. Die Ähnlichkeit mit ihrer Geschichte ist wohl nicht zu übersehen: Die Voraussetzungen bestimmen das Resultat.

    Ferner 1985 berechnete Schmeidler den Zusatz von 0.3″ zum relativistischen Wert 1.75″. Seine empirische Formel lautet: delta = 1.75″/r + 0.3″/r^2.
    http://adsabs.harvard.edu/full/1985AN….306…77S
    Auch wenn nach ihm ein Planetoid genannt wurde
    http://www.uni-muenchen.de/aktuelles/news/newsarchiv/2006/schmeidler.html , ignoriert man weiterhin seine Arbeit. Warum?

    Nun in erstem Teil schreiben Sie: “Vor 25 Jahren entdeckte der Physiker J.J. Simpson bei der Untersuchung von radioaktivem Tritium Hinweise auf ein vollkommen neues und in den Theorien absolut unerwartetes Elementarteilchen, das als 17-keV-Neutrino bekannt wurde.” Laut der Theorie darf es das Teilchen gar nicht geben. Und wenn es in die Theorie nicht hineinpasst, dann wird dessen Existenz eben nicht genehmigt… Vielleicht übertreibe ich mit dieser Behauptung auch, aber so sauber, wie Sie es ausreden wollen, ist die Wissenschaft auch nicht.

    Sie schreiben: “Das 17-keV-Neutrino wäre womöglich ein Schlüssel zu neuer, aufregender Physik gewesen. Wären die Physiker von Wunschdenken geprägt, so hätten sie das Teilchen einfach akzeptieren können. Stattdessen wurde Simpsons Entdeckung kritisch geprüft.” Vom LHC erhofft man auch, dass er den Schlüssel zu neuer Physik liefert. Aber das ist der Widerspruch in sich. Man will diesen Schlüssel gar nicht haben, sondern man will die Voraussagen des Standartmodells, also der bereits existierenden Theorien, bestätigen. Und mit der neuen Physik könnten die Wissenschaftler schon längst anfangen 😉

  13. #13 MartinB
    4. Oktober 2010

    @Orlov
    “Man will diesen Schlüssel gar nicht haben, sondern man will die Voraussagen des Standartmodells, also der bereits existierenden Theorien, bestätigen.”
    Das ist so schlicht und einfach Blödsinn. Nicht wenige Physiker hoffen, dass das Higgs-Teilchen nicht gefunden wird. Viele erhoffen sich Hinweise auf Supersymmetrien und andere schöne Dinge.
    Ansonsten ist das Standardmodell experimentell ziemlich gut abgesichert – es wird also in keinem Fall einfach “widerlegt” werden, sondern allenfalls als Grenzfall in eine bessere Theorie eingebettet werden, so wie immer in der Physik.

    Zur Lichtablenkung kann ich nicht viel sagen, da ich kein ART-Experte bin – aber diese Messungen sind ja dafür bekannt, extrem schwierig zu sein, Genauere Experimente, die die ART sehr gut bestätigen, gibt es ja zuhauf.

  14. #14 Alexander
    4. Oktober 2010

    Zu Unzicker: der Mann betreibt ja keine ernsthafte Kritik, kann er auch gar nicht, weil er, auch nach seinen eigenen Worten (!), die Physik gar nicht versteht. Sein Buch ist eine reine Polemik, bzw. ad-hominem geschrieben.

  15. #15 Frank Wappler
    4. Oktober 2010

    Martin Bäker schrieb:
    > Aus dem Z-Boson-Zerfall kann man ableiten, dass es nur drei Neutrino-Flavors geben kann. (Ein vierter wäre nur denkbar, wenn das Neutrino dazu viel schwerer wäre als das Z-Boson, aber das passte nicht zum Wert von 17 keV […])

    Ist es nicht eher so (?):
    Ein vierter Neutrino-Flavor wäre auch dann konsistent mit Z-Boson-Zerfall betreffenden Messwerten (intrinsische Gesamt-Breite der Z-Masse, abzüglich der Partial-Breite entsprechend anderen “sichtbaren” Zerfallsmoden), wenn dieses Neutrino halb so schwer wie das Z-Boson wäre; oder sogar (im Rahmen der Messgenauigkeiten) noch leichter.
    Ein vierter Neutrino-Flavor von 17 keV Masse würde aber sicherlich trotzdem nicht passen.

    > Wenn man ehrlich ist, steckt schon das Standardmodell voller willkürlicher Zahlen und Annahmen. (Im Verhältnis zu all dem, was es erklärt, ist es aber immer noch eine unglaublich gute Theorie).

    Das Standardmodell ist ein Modell — keine Theorie!
    Es umfasst bestimmte Werte von (ziemlich) vielen Parametern.
    Wären die Werte tatsächlich anders (gemessen), dann wäre das bekannte Standardmodell falsch (und stattdessen würde sicher das andere, den Messwerten entsprechende Modell “Standardmodell” genannt).
    Die Definitionen der betreffenden Parameter (“Massen”, “Ladungen”, “Zerfallskanäle”, …) sind und bleiben aber in jedem Fall gültige Elemente der Theorie.

  16. #16 Niels
    5. Oktober 2010

    @Walter Orlov
    Mit der Lichtablenkung durch die Sonne gibt und gab es nie Probleme.
    Die Behauptung, dass das anders wäre, ist sogar ziemlich witzig.
    Die allgemeine Relativitätstheorie konnte sich nämlich nur deshalb so schell durchsetzen und wurde dadurch berühmt, dass schon 1919 während einer Sonnenfinsternis die Lichtablenkung experimentell überprüft wurde.
    Das experimentelle Ergebnis stimmte mit dem zuvor mathematisch vorhergesagten Wert mit einem Fehler von 20 % überein. Andere Theorien, die eine Erklärung dieses Messwertes geliefert hätten, gab es nicht.
    Die allererste experimentelle Überprüfung der allgemeinen Relativitätstheorie war also genau die Lichtablenkung an der Sonne. Genau diese Geschichte stand in jeder Zeitung der ganzen Welt, z.B. in der Times vom 7 November 1919: “Revolution in Science – New Theory of the Universe – Newton’s Ideas Overthrown”.
    Dadurch wurde Einstein und die Relativitätstheorie überhaupt erst berühmt.
    Ohne diese experimentelle Bestätigung hätte es die Relativitätstheorie unglaublich viel schwerer gehabt. Vor der Sonnenfinsternis wurde die Theorie kaum beachtet, sie war zu komplex und zu ungewöhnlich, als dass sich viele Physiker damit beschäftigt hätten.

    Mittlerweile hat man über die Very Long Baseline Interferometrie den Fehler auf 0,2 % reduziert.
    Mit dem Satelliten Hipparcos hat bei 100.000 Sternen die Voraussagen der ART für die Ablenkungen auf 0,1 % genau bestätigt
    Demnächst (2012) wird der Satellit Gaia gestartet, der 1 Prozent der Sterne unserer Milchstraße erfassen wird. Dann wird die relativistische Lichtablenkung durch die Schwerkraft der Sonne mit einer relativen Genauigkeit von rund einem Millionstel gemessen werden und die Lichtablenkung durch die Schwerkraft der Planeten sogar erstmals direkt nachgewiesen werden.

    Diese Ergebnisse finde ich jetzt eigentlich nicht so furchtbar ungenau. Und wenn man etwas ignorieren wollte, wäre es ein bisschen doof, das Ganze in zwei Jahren mit unglaublicher Genauigkeit noch einmal zu genaustens zu überprüfen, oder?

    @Frank Wappler
    Ich weiß nicht genau, welchen Unterschied du zwischen physikalischem Modell und physikalischer Theorie siehst, aber das Standardmodell erfüllt alle Voraussetzung für eine physikalische Theorie.
    Man kann analog auch “Standardtheorie der Elementarteilchen und ihrer Wechselwirkungen” sagen und wird verstanden.

  17. #17 Frank Wappler
    5. Oktober 2010

    Niels schrieb (05.10.10 · 01:54 Uhr):
    > Ich weiß nicht genau, welchen Unterschied du zwischen physikalischem Modell und physikalischer Theorie siehst

    Physikalische Theorien definieren Messgrößen (und enthalten Theoreme, die Zusammenhänge zwischen den definierten Messgrößen betreffen);
    physikailsche Modelle dagegen fassen bestimmte Werte von Messgrößen zusammen (ggf. einschl. Vorhersagen betreffend Werte noch anstehender Messungen).

    Beispiel: Die Theorie der elektro-schwachen Wechselwirkung definiert einen “Mischungswinkel” (auch “Weinbergwinkel” genannt), als Messgröße.
    Das Standardmodell besagt, dass der Wert dieses Winkels (so wie er schon gemessen wurde) knapp 30° ist.

    (Sorgfalt beim Unterscheiden dieser Begriffe kann der Verständlichkeit nur dienen …)

  18. #18 MartinB
    5. Oktober 2010

    @FrankWappler
    Danke für den Hinweis.
    Ich denke (habe aber keine Rechnung, die das belegt), dass die messgenauigkeit bei der Z-Zerfallsbreite so hoch ist, dass der Zerfall in zwei Neutrinos, die etwas mehr als halb so schwer wären wie das Z, noch sichtbar sein müsste, vorausgesetzt die zerfallen so schnell, dass sie nur als virtuelle teilchen vorhanden sind. Das hängt natürlich von den genauen zerfallseigenschaften ab.
    Da ich nicht ganz sicher bin, habe ich das oben mal etwas neutraler formuliert.

  19. #19 Walter Orlov
    5. Oktober 2010

    Niels:

    Andere Theorien, die eine Erklärung dieses Messwertes geliefert hätten, gab es nicht.

    Das ist doch nicht wahr: http://de.wikipedia.org/wiki/Paul_Gerber
    “…nach Gerber ein um den Faktor 3/2 zu hoher Wert für die Ablenkung des Lichtes im Gravitationsfeld folgt.”

    Und nach Schmeidler liegt die wirkliche Lichtablenkung fast in der Mitte zwischen Einstein’s und Gerber’s Werten.

    Mit dem Satelliten Hipparcos hat bei 100.000 Sternen die Voraussagen der ART für die Ablenkungen auf 0,1 % genau bestätigt

    Dort ging es um den Blickwinkel ab 47° über der Sonne, wo in Schmeidler’s Formel 1/r^2-Term schon seine Bedeutung verliert.

  20. #20 Walter Orlov
    5. Oktober 2010

    Martin Bäcker: “Das ist so schlicht und einfach Blödsinn.”

    Diesen “Widerspruch in sich” meinte ich gerade. Von einer Seite wird behauptet, dass man für Neues offen ist, und von anderer Seite setzt man voraus, dass das Standartmodell weiterhin bestehen bleibt. Wie viele Jahrzehnte müssen noch vergehen, bis Ihr endlich bereit seid, auch es umzukrempeln?.. Übrigens enthält die Relativitätstheorie die Äthertheorie nicht als Grenzfall 🙂

  21. #21 MartinB
    5. Oktober 2010

    @WalterOrlov
    Physik funktioniert nicht so, wie Du es dir vorstellst: Alte Theorien werden nicht einfach weggeworfen, sondern durch bessere ersetzt, in denen sie als Grenzfall enthalten sind. Siehe Newtonsche Mechanik, siehe Gravitation, siehe Maxwellgleichungen usw.
    Das Standardmodell ist experimentell hervorragend bestätigt – es wird in irgendeiner Form in einer besseren Theorie enthalten sein müssen.

  22. #22 Niels
    5. Oktober 2010

    @ Walter Orlov
    Da hast du aus der Wikipedia aber sehr selektiv über Gerber zitiert. Da steht nämlich auch:

    da bereits kurz nach dem Neuabdruck von Gerbers Arbeit Gegendarstellungen erschienen, wonach trotz der richtigen Formel die Theorie Gerbers (genauso wie die vorhergehenden elektrodynamischen Entwürfe) unbrauchbar war. Zum Beispiel nach Hugo von Seeliger[A 6] und Max von Laue[A 7] sind Gerbers Ergebnisse nicht mit den Voraussetzungen seiner eigenen Theorie in Übereinstimmung zu bringen, bzw. gar nur “mathematische Fehler“. Auch Roseveare ortete inhaltliche Probleme der Theorie und weist insbesondere darauf hin, dass nach Gerber ein um den Faktor 3/2 zu hoher Wert für die Ablenkung des Lichtes im Gravitationsfeld folgt.
    Warum die falsche Vorhersage für die Lichtablenkung für dich auf ein Argument für die Qualität der Theorie ist, ist mir unklar.

    Die Diskussion, die du hier führen willst, war schon spätestens 1920 entschieden. Sogar eindeutig entschieden.
    Außerdem geht es doch nicht nur um die Lichtablenkung (obwohl Gerbers Theorie auch dadurch schon eindeutig widerlegt ist).
    Auch die anderen Vorhersagen der ART kann man mittlerweile extrem genau überprüfen.
    Z.B. http://www.scienceblogs.de/diaxs-rake/2010/10/einzelne-atome-testen-die-relativitatstheorie.php

    @Frank Wappler
    Nun ja, jedenfalls steht in der deutschen und englischen Wikipedia:
    “Das Standardmodell der Elementarteilchenphysik (SM) ist eine physikalische Theorie”
    “The Standard Model of particle physics is a theory”

    Die Leute vom CERN meinen:
    “Over time and through many experiments by many physicists, the Standard Model has become established as a well-tested physics theory.”

  23. #23 Walter Orlov
    6. Oktober 2010

    Niels:

    Da hast du aus der Wikipedia aber sehr selektiv über Gerber zitiert. Da steht nämlich auch: …

    Ich habe die Rechnung selbst überprüft und keine Fehler gefunden:

    http://home.arcor.de/walter-orlov/gerber/gerber.pdf
    Kurzform: http://home.arcor.de/walter-orlov/gerber-potential.pdf

    Sie können das gern auch machen 😉

    Laut Roseveare (“Mercury’s perihelion from Leverrier to Einstein”) hielt Oppenheim Gerber’s Rechnung für richtig. Selbst Roseveare meinte, dass Gerber’s Theorie nie offiziell widerlegt, sondern schlicht vergessen wurde. Außerdem erwähnt er die Beobachtung der Sonnenfinsternis in der UdSSR 1936. Damals errechnete man 2.74″, was fast exakt dem Gerber’s Wert entspricht. Michailov (alternative Schreibweise – Mikhailov) beschreibt in seiner Arbeit (ich habe sie bereits verlinkt: http://ufn.ru/ufn56/ufn56_5/Russian/r565d.pdf ) diese Beobachtung ausführlich. Seine Erklärung: Für das Ergebnis war die Verschiebung von drei Sterne, die zur Sonne am nächsten lagen, ausschlaggebend. Also, noch vor Schmeidler merkte Michailov, dass wirklich nah an der Sonne die Lichtablenkung deutlich größer ausfällt, als von Allgemeiner Relativitätstheorie vorausgesagt wird. Schmeidler legte die Grenze von 5 Sonnenradien fest. Unter dieser Grenze wird Allgemeine Relativitätstheorie eindeutig verletzt.

    Nun widmen wir uns wieder dem Satelliten “Hipparcos”:
    “Mit dem esa Satelliten Hipparcos wurden zwischen 1989 und 1993 die Positionen von etwa 100 000 Sternen jeweils etwa 100 Mal vermessen. Dabei variierte der Winkel zur Sonne zwischen 47° und 133°. Die gemessenen Sternenpositionen stimmen nach Berücksichtigung der Bewegung der Sonne, der Sterne, der Erde und des Satelliten mit gravitativer Lichtablenkung durch die Sonne, wie sie die Allgemeine Relativitätstheorie vorhersagt, innerhalb der Meßgenauigkeit von 0.3% überein.”
    Quelle: http://theory.gsi.de/~vanhees/faq/relativity/node74.html

    Dem Sonnenradius entspricht 16′ = 0.27°. Dem Blickwinkel von 47° entsprechen grob 47°/0.27° = 176 Sonnenradien und 176 >> 5. Welchen Sinn haben dann die Satellitenmessungen überhaupt, wenn sie das eigentliche Problem gar nicht berühren? Man schaut buchstäblich weg.

    Sogar eindeutig entschieden.

    Mit dem “Entschieden” ist es eine Plage. Jemand hat irgendwo und irgendwann irgendwas entschieden und jetzt müssen die Leute mit ihrem Verstand dafür zahlen… Aber schauen wir uns noch einmal die Abbildung auf der Seite 7 Michailov’s Arbeit an. Die Daten von der Sonnenfinsternis im Jahr 1922 können durch drei Kurven approximiert werden. Jede Kurve liefert eigenen Wert: 1.75″, 2.05″ und 2.5″. Michailov entschied sich, wie es auch üblich ist, für den mittleren Wert 2.05″. Selbst die Beobachter präsentierten doch 1.74″: http://articles.adsabs.harvard.edu/full/1923AN….218Q.255. (ganz unten)
    Nun ich denke, wenn nicht Einstein’s sondern Gerber’s Theorie zu dieser Zeit Anerkannt würde, hätte dann im Telegramm anstatt 1.74″ doch 2.51″ erschienen 😉

  24. #24 Bullet
    6. Oktober 2010

    Ach du liebes Bißchen. Möchte sich vielleicht Ireneusz Cwirko auch einmischen? Dann hätten wir ja wieder mal fast alle zusammen.

  25. #25 Walter Orlov
    6. Oktober 2010

    Ihr habt Probleme mit dem Server…

  26. #26 rolak
    6. Oktober 2010

    Primär bin ich neugierig auf weitere -äh- Enthüllungen – lobe aber auch gerne noch schnell diesen Abschluß der Trilogie (mit der ritterlichen Physik).

  27. #27 MartinB
    6. Oktober 2010

    @Walter
    Nein. Aber Text mit zuvielen links müssen erst per Hand freigeschaltet werden. Dein Kommentar war dreifach, ich habe einen davon freigeschaltet, aber manchmal muss ich auch arbeiten, deshalb geht das nicht sofort.

  28. #28 Walter Orlov
    6. Oktober 2010

    Das wusste ich nicht, deshalb versuchte mehrmals. Der Text ist aber noch doppelt geblieben. Können Sie die erste Version löschen? Ich habe versehentlich meine E-mail-Adresse hineinkopiert und jetzt fürchte mich vor jeder Menge Spams…

  29. #29 MartinB
    6. Oktober 2010

    @Walter
    kein problem, ist gelöscht

  30. #30 Frank Wappler
    6. Oktober 2010

    Niels schrieb (05.10.10 · 22:02 Uhr):

    > Nun ja, jedenfalls steht in der deutschen und englischen Wikipedia:
    “Das Standardmodell der Elementarteilchenphysik (SM) ist eine physikalische Theorie”
    “The Standard Model of particle physics is a theory”

    > Die Leute vom CERN meinen:
    “Over time and through many experiments by many physicists, the Standard Model has become established as a well-tested physics theory.”

    Stimmt leider: In den Wikis rottet (fossiliert?) eben ziemlicher Müll; insbesondere was Methodik der Wissenschaft angeht. Und dann soll’s sogar Leute geben, die dort abschreiben …

    So weit ich weiß, findet gerade ein ziemlich aufwändiger Test des Standardmodels statt:

    Das Standardmodell ist falsch, falls in den entsprechenden Experimenten am LHC (CERN) in den nächsten 10 Jahren Laufzeit, Datenaufnahme und Auswertung kein signifikanter Hinweis auf ein Higgs-Boson gefunden wird.
    (Stimmt doch, oder?)

    Wenn es denn in ca. zehn Jahren dazu käme — welche der Theoriebücher stampfen wir ein, die der erforderlichen genannten Auswertung zugrundelagen?
    Welche Messwerte, die schon bislang in Anwendung solcher Theorien ermittelt wurden, streichen wir aus der PDB-Liste??

    Nein: Theorien sind a priori auf Nachvollziehbarkeit zu untersuchen;
    und im Gegensatz dazu können Modelle, die in Anwendung von Theorien zu erstellen sind, experimentell getested werden.

  31. #31 Niels
    7. Oktober 2010

    @Walter Orlov
    Nur mal so: Wie stehst du zur speziellen Relativitätstheorie?

  32. #32 H.M.Voynich
    7. Oktober 2010

    @Frank Wappler:
    Richtig, das Standardmodell ist “falsch”, da kannste drauf wetten, aber deswegen werden ganz sicher keine Theoriebücher eingestampft.
    “Falsch” bedeutet bei einer Theorie, die jede menge Erfolge vorzuweisen hat, nämlich lediglich, daß sie als Grenzfall in einer neuen aufgeht, und wann immer die genauen Parameter nicht so ins Gewicht fallen, wird man auch weiterhin die “falsche” Theorie zum Rechnen benutzen.
    So, wie man auch heute vieles mit dem “falschen”, aber ausreichendem Newton berechnet, bevor man das mathematische Monster ART bemüht.

  33. #33 Walter Orlov
    7. Oktober 2010

    Niels:

    Nur mal so: Wie stehst du zur speziellen Relativitätstheorie?

    Spezielle Relativitätstheorie ist mathematisch korrekt. Ihr Ziel ist das Unifizieren der Gesetze der Elektrodynamik, die allerdings auch vorher ganz gut gegolten hatten 🙂 Michelson-Morley-Experiment wurde später herangezogen. Für die Beschreibung der Synchrotronstrahlung werden jedoch die Gleichungen klassischer Elektrodynamik verwendet, auch wenn es dabei um relativistische Geschwindigkeiten der Elektronen handelt… Aber wir kommen von dem Thema ab.

    Ich habe die Lichtablenkung erwähnt, weil hier, ähnlich wie bei den 17keV-Neutrinos, die Datenbearbeitung alles ausmacht. Als gute Näherung kann sogar eine Gerade dienen. Im Buch “Wahrscheinlichkeitslehre” von Hans Reichenbach:
    http://books.google.de/books?id=2rLcQiHdQlsC&printsec=frontcover&dq=wahrscheinlichkeitslehre#v=onepage&q&f=false Seiten 243-244
    präsentiert der Autor die Ergebnisse von der Sonnenfinsternis 1929 und schreibt:

    “…Da die zahl der Messungsergebnisse im allgemein zu gering ist, um die gesuchte Kurve hinreichend scharf zu definieren, nimmt man für die Ausgleichung noch Forderungen über die Kurvengestalt hinzu, die sich aus der zugehörigen physikalischen Theorie ergeben. In dem vorliegenden Falle ist entsprechend die Forderung des Hyperbelcharaktes der Ausgleichung zugrundegelegt worden. Man erhält dann immer noch eine quantitative Kontrolle der Theorie; so hat sich hier gezeigt, daß die beobachtete Ablenkung stärker ist als die theoretisch geforderte, da die theoretisch geforderte Kurve etwas tiefer liegen würde.

    Dieses Beispiel, das in der starken Streuung seiner Messungspunkte denjenigen überraschen mag, der sich die Naturgesetze als sicherste Wahrheiten vorstellt, stellt keineswegs einen Ausnahmefall vor. Vielmehr sehen andere experimentelle Entscheidungen großer Tragweite, die heute stets an den Grenzen der Beobachtungsgenauigkeit geführt werden, durchweg ähnlich aus…”

  34. #34 Niels
    7. Oktober 2010

    @Walter Orlov
    Ich habe das hier von ihnen gefunden:
    http://www.walter-orlov.wg.am/kosmologie.pdf

    Ein paar Stilblüten, beim Überfliegen gesehen:

    ✔ Als unausweichliche Folge müssten die Sterne durch die Verklumpung von Planeten und Kometen entstanden sein. Die Energie für das Leuchten lieferte dann die Kernspaltung der schweren Elemente.
    ✔ Die Spiralstrukturen sprechen für relativ kurze Dauer von etwa 200 Millionen Jahren der Existenz der Galaxien.
    ✔ Gestein und Wasser sind das eigentliche Urstoff des gesamten Weltalls.

    So sehen wir, dass auch nach Bibel Gott erst jede Menge Gestein und Wasser schuf und nur danach mit diesem Baustoff das ganze Weltall zusammensetzte. Aus der Sicht oben dargelegter Überlegungen gewinnt die Schöpfungsgeschichte wohl an die Glaubwürdigkeit, besonders, wenn man berücksichtigt, dass etwa 200 Millionen Jahre weitgehend nicht ausreichend sind, um Entstehung und Entwicklung des Lebens laut Evolutionstheorie zu unterstützen.

    Dachte ich es mir doch, sie halten natürlich doch auch die SRT für falsch.

    Um die Beschreibung zu unifizieren, führte er [Anm.: Einstein] drei Dinge ein: Prinzip der Relativität, neue Definition der Gleichzeitigkeit und Konstanz der Lichtgeschwindigkeit… Ziemlich umständlich würde ich sagen. Anstatt nur eine Asymmetrie zu haben, müssen die Physiker seitdem nun ständig mindestens drei sperrige Sachen mit sich überall schleppen, sodass eine nichtige Aufgabe mal zu einer richtigen theoretischen Herausforderung wachsen kann. Und weil es eigentlich unnatürlich ist und außerdem es in der Natur ohnehin jede Menge Asymmetrien wie zum Beispiel zwischen Materie und Antimaterie gibt, schlug diese Behandlung schließlich 1947 fehl.

    Tut mir leid, ich mache es dann wie die andere Wissenschaftler auch.

    Einsten’s Kult bringt viel Profit und für die Verluste wurde noch keiner belohnt. So viel ich weiß, scherzt man so nicht mehr und nicht umsonst.

    Ich mach lieber weiter dicken Reibach mit dieser Lüge, statt mich von Ihnen zum Licht führen zu lassen. Nichts für ungut, aber ich muss doch von irgendwas leben.
    Das klingt nämlich durchaus sinvoll:
    Schritt 1: Einstein-Kult beitreten, die Lüge verteidigen
    Schritt 2: ???
    Schritt 3: Viel Profit !!!

    An Schritt 2 muss ich aber noch arbeiten. Haben Sie Tipps?

  35. #35 SingSing
    7. Oktober 2010

    Nun, das war doch interessant, einmal die russische Variante des Kreationismus (sozusagen mit Zwiebeltürmchen) kennenzulernen.

    Dank an Niels für die Detektivarbeit 🙂

  36. #36 Walter Orlov
    7. Oktober 2010

    Ihr macht Ihre Arbeit gut. Auf ähnliche Weise wurde einst Einstein verspottet. Was daraus schließlich geworden ist, wisst Ihr ja schon :)))

  37. #37 Frank Wappler
    7. Oktober 2010

    H.M.Voynich schrieb (07.10.10 · 01:10 Uhr):

    > “Falsch” bedeutet bei einer Theorie, die jede menge Erfolge vorzuweisen hat, nämlich lediglich, daß sie als Grenzfall in einer neuen aufgeht

    Ganz recht — und genau darin unterscheidet sich eine (vorzeigbare) Theorie von einem (falsifizierbaren) Modell, dessen einzelne Aussagen bzw. Vorhersagen schlicht und unmissverständlich entweder richtig oder falsch sind.

    > das Standardmodell ist “falsch”, da kannste drauf wetten

    Heißt das, Du empfiehlst Wetten auf das Gegenteil anzunehmen?
    Oder nimmst Du solche Wetten sogar selbst an?
    Dann würde ich wetten (vorbehaltlich einer Übereinkunft über den Einsatz), dass das Standardmodell in den nächsten zehn Jahren nicht falsifiziert wird (im obigen Sinne, also falsifiziert dadurch, dass am LHC kein Higgs-Signal gefunden würde; oder — um es noch interessanter zu machen und vielleicht meine Gewinnchancen zu vermindern — falsifiziert auch dadurch, dass irgendwelche standardfremden Teilchen gefunden würden).

    > und wann immer die genauen Parameter nicht so ins Gewicht fallen, wird man auch weiterhin die “falsche” Theorie zum Rechnen benutzen.

    Um das “Gewicht” der Parametergenauigkeit zu beurteilen, benötigt man allerdings die (umfassendere) Theorie, die die fraglichen Parameter als reelle (Mess-)Größen definiert.

    > So, wie man auch heute vieles mit dem “falschen”, aber ausreichendem Newton berechnet, bevor man das mathematische Monster ART bemüht.

    Wobei “Newtonsche Rechnungen” nur insofern ausreichen mögen, als die darin auftretenden Symbole (“m”, “r”, “t”) bzw. dabei vorkommende Worte (“inertial”, “geradlinig”, usw.) durch Einsatz der ART nachvollziehbar geworden sind.