Das Material ist im Wesentlichen Mahagoni. Holz hat einen sehr kleinen Ausdehnungskoeffizienten von etwa 5 x 10-6 pro Kelvin. Damit sich ein 1,22 m bzw. 3,66 m langes Objekt aus Holz um 20 nm dehnt oder staucht, bedarf es einer Temperaturänderung von ca. 80 bzw. 28 mK (ja, Millikelvin). Waren alle Elemente unter freiem Himmel und mit allen Witterungseinflüssen über den gesamten Zeitraum so gleichmäßig temperiert? Zusammen mit den Stahlverstrebungen ergibt sich ein Verbundstoff mit allen unschönen Eigenschaften, wie unterschiedlichen Elastizitätsmodulen, Festigkeit, Ausdehnungskoeffizienten (wer schon mal mit Stahl-Email-Rohr gearbeitet hat, weiss vielleicht wovon ich spreche) und damit Spannungen/Verwindungen bei Temperaturwechseln oder der Montage/Demontage. Verhältnismäßig kleine Temperaturschwankungen bringen alles durcheinander. Um Fehler in der ursprünglichen Parallelität auszugleichen wurde jedes Element zwischen Aus- und Einbau auf den Kopf gestellt. Das scheint eine gute Idee, um Fehler bei Bau und Kalibration auszugleichen. Allerdings schützt das nicht gegen die kleinen Längenänderungen durch Temperaturschwankungen.
Das erste Element muss sehr genau auf die Bezugsebene ausgerichtet sein. Dazu wurde mit erheblichem Aufwand die exakte Höhe über dem Meer (was schon allein schwer genug ist) bestimmt und das Element dann mit einer 12 Fuß (3,66) m langen, Quecksilber gefüllten Libelle, einer Alkohol gefüllten Libelle und einem Senkblei ausgerichtet. Jedes Element war 3,66 m lang. Erinnern wir uns an die Fertigungstoleranz: 10 nm darf jedes Ende eines Elements von der idealen Senkrechten abweichen, um Morrows geforderte Genauigkeit zu erreichen. Mit optischen Messgeräten dieser Zeit kann man keine Strukturen auflösen, die kleiner als ca. 500 nm sind – selbst bei überragenden Fähigkeiten der Versuchsmannschaft wäre die korrekte Ausrichtung reines Glück gewesen.
Das und noch einiges mehr macht das Experiment gelinde gesagt unplausibel. Was können die Gründe dafür sein, dass das Ergebnis so gut gepasst hat? Immerhin hat Morrow viel Aufwand betrieben, um allem einem seriösen Anstrich zu geben: Die Messungen wurden mehrfach durchgeführt und sorgfältig dokumentiert, ein unabhängiges Komitee wachte über den Verlauf. Eine einfache Fälschung kommt also schwerlich in Betracht. Die Gründe müssen subtilerer Natur gewesen sein.
Zunächst gibt es keinen perfekten Festkörper. Alle Körper sind in gewisser Weise flexibel. Jeder Körper, der wie die Geradstreckenverleger-Elemente an zwei Festpunkten befestigt ist, wird links und rechts dieser Punkten absacken – und sei die Höhe noch so klein. Insbesondere wirkt wegen der Gravitation die Absackung immer nach unten, die “gerade” Strecke hat also immer die Tendenz, nach unten zu zeigen und damit das Innenweltbild zu stützen. Diese Effekte waren 1897 schon bekannt und hätten herausgerechnet werden können – Morrows Aufzeichnungen geben dafür keinen Anhaltspunkt. Aber allein damit ließe sich schon eine Menge erklären: Die ganze Zeit wären die Experimentatoren der Meinung, eine gerade Strecke zu verlegen, obwohl sie in Wirklichkeit leicht nach unten gebogen war. Aber auch dafür ist die prinzipielle Ungenauigkeit des Geradstreckenverlegers eigentlich zu groß. Außerdem würde damit nicht erklärt werden, warum die Ergebnisse gerade den Erwartungswert wieder spiegelten und nicht etwas gänzlich anderes. Oben habe ich geschrieben, dass Morrow erwartete, dass die Messungen mit 2 % Genauigkeit durchgeführt werden konnten. Da habe ich zu Morrows Gunsten etwas Wichtiges unterschlagen: Die 2 % beziehen sich nicht auf die Messung an sich, sondern auf die Genauigkeit, mit der aus den Daten nach Extrapolation auf den Erdradius geschlossen werden kann. Um diesen mit 2 % Fehler ermitteln zu können, muss die Einzelmessung noch viel genauer durchgeführt werden! Aber das ist gar nicht mal so sehr der Punkt: Viel wichtiger ist die Erwartung bestimmter Ergebnisse durch Morrow und sein Team.
Wenn man Experimente wie dieses durchführt, dann epfiehlt es sich, die Daten erst auszuwerten, wenn sie vollständig gesammelt sind und die Auswertung nicht demselben Team zu überlassen, das die Daten gesammelt hat. Und das Team, das die Daten sammelt sollte auf keinen Fall vorher die Erwartungswerte sehen! Damit minimiert man die Gefahr des Expectation Bias, also der (möglicherweise unbewussten) Beeinflussung der dokumentierten Ergebnisse durch die Erwartungshaltung des Experimentators. Klingt irgendwie vertraut. Hand aufs Herz: Wer hat nicht mal mit Leuten zusammengearbeitet, die bereit waren, Ergebnisse übertrieben positiv zu interpretieren, weil man ja weiss, was rauskommen muss? Warum sollten gerade Menschen mit einer besonderen Überzeugung davor gefeit sein?
Kommentare (31)