i-7bfe0e35b828a244a396b1a0bc1d5068-hiddenreality-thumb-60x88.jpg

Dieser Text ist eine Besprechung eines Kapitels aus dem Buch “The Hidden Reality: Parallel Universes and the Deep Laws of the Cosmos” von Brian Greene. Links zu den Besprechungen der anderen Kapitel finden sich hier


In den bisherigen Kapiteln hat sich Greene mit Multiversen beschäftigt auf die Wissenschaftler im Zuge ihrer Arbeit und bei der Interpretation wissenschaftlicher Theorien gestoßen sind. Jetzt schlägt Greene eine andere Richtung ein. Anstatt zu fragen ob die Naturgesetze ein Multiversum zulassen oder sogar verlangen, können wir uns ja auch überlegen, ob vielleicht wir selbst irgendwann einmal ein neues Universum erschaffen können.

Natürlich können wir das nicht. Jedenfalls nicht Heute. Aber wir können ja spekulieren, ob unsere Nachkommen vielleicht erfolgreicher sein könnten. Jetzt mal abgesehen von diesen technischen Problemen: ist es physikalisch überhaupt möglich, ein neues Universum zu erschaffen? Nun, ein Universum muss aus irgendwas bestehen. Unser Universum ist voll mit Zeug: Planeten, Sterne, Galaxien, dunkle Materie, usw. Wo nehmen wir das ganze Material für ein neues Universum her? Müssen wir wirklich Unmengen an Materie zusammen tragen, wenn wir ein neues Universum basteln wollen?

i-57c8891bd688ee4572419ace94ab496d-600px-Hubble_ultra_deep_field_high_rez_edit1-thumb-500x500.jpg
Wo kommt das ganze Zeug eigentlich her? (Hubble Ultra Deep Field, NASA/ESA)

Glücklicherweise nicht: nach dem Urknall entstand die Materie aus der Energie des Inflaton-Feldes (ich habe das hier schon mal genauer erklärt). Wir brauchen also gar nicht so viel Materie, wir brauchen nur ein Inflaton-Feld mit ausreichender Energie. Und wo nehmen wir die her? Von der Gravitation! Und wo holt die sich die Energie? Jetzt wird es ein wenig knifflig. Gravitation hat einen quasi unerschöpflichen Energievorrat zur Verfügung. Wenn ich von einem Hochhaus springe, dann falle ich immer schneller und schneller. Meine Bewegungsenergie wird immer mehr anwachsen. Und wenn mein Fall nicht irgendwann ziemlich abrupt gebremst wird, dann könnte das immer so weiter gehen. Ich kann das Gravitationskonto quasi beliebig überziehen (und nur hoffen, dass ich die Energie nicht irgendwann zurückzahlen muss um aus dem gigantischen Loch in das ich gesprungen bin wieder rauszuklettern…). Das Inflaton-Feld holt sich also seine Energie bei der Expansion direkt von der Gravitation und kann daher jede Menge Materie erzeugen. Alles was wir brauchen ist ein kleines Dingens, ungefähr 10 -26 cm groß und befüllt mit einem Inflaton-Feld dessen Energie einer Masse von 10 Gramm entspricht. Dieses Universum-Saatkorn wird sich dann wahnsinnig schnell ausdehnen, es wird ein neues Universum entstehen gefüllt mit Materie, so wie unser eigenes.

Natürlich haben wir keine Ahnung wie man so ein Saatkorn für ein Universum herstellt, aber wer weiß, vielleicht kriegen das ja die klugen Leute in der Zukunft raus. Die Frage ist nur: Was hätten wir dann von diesem neuen Universum? Wenn wir es tatsächlich herstellen können, dann könnten wir es vermutlich nie untersuchen. Denn – und das hat man jetzt schon ausgerechnet – so ein neues Universum kann sich nicht in unserem Universum ausbreiten (das liegt an den Druckverhältnissen der unterschiedlichen Räume). Das heißt, das neue Universum würde sich seinen eigenen Raum schaffen, sich quasi abkoppeln – und für uns würde das Ganze aussehen wie ein schwarzes Loch. Aber vermutlich wird es mit dem Universum aus dem Labor sowie so nichts werden, denn damit die Expansion des neuen Universums überhaupt losgeht, braucht es erst mal einen passenden Anstoß. Das muss ein enorm energiereiches Ereignis sein, eines von dem sich bisher niemand vorstellen kann wie das funktionieren soll. Vielleicht könnten magnetische Monopole als Katalysatoren wirken – aber auch deren Existenz ist bestenfalls ungewiss.

Die Erschaffung eines realen Universums scheint also eher unmöglich zu sein. Aber wie wäre es mit einem virtuellen Universum? Die Frage ist ja ein philosophischer Klassiker: Können wir sicher sein, das unsere Welt real ist und keine ausgeklügelte Simulation? Oder anders gefragt: Woher wissen wir dass wir nicht in der Matrix leben? Nun, wir wissen es nicht…

i-a6b347bc6691b5ea92de62a3d70ac2a0-669px-The.Matrix.glmatrix.2-thumb-500x447.png
Leben wir in der Matrix (Bild: Jamie Zawinski)

Wenn man über dieses Thema nachdenkt dann kommt man schnell in des Teufels Küche. Wenn alles nur eine Simulation ist, über die ich keine Kontrolle habe, dann kann ich mich auch gleich von der Logik verabschieden. So kommen wir nicht wirklich weiter, also tun wir jetzt einfach mal so, als wüssten wir, das unsere Welt real und keine Simulation ist. Und überlegen wir uns, ob wir selbst eine virtuelle Welt schaffen können. An der Computerpower wird es wohl nicht scheitern. Aktuelle Schätzungen vergleichen die Rechenleistung des menschlichen Gehirns mit der Leistung von ein paar hundert Supercomputern. Mit der Weiterentwicklung der Computer werden diese Zahlen schnell sinken und sollten wirklich einmal Quantencomputer zum Standard werden, dann läuft ein simuliertes Hirn vielleicht bald auf einem einzelnen Rechner.

Die Computer sind also nicht das Problem – eher schon die Praxis: Wie kriegt man einen virtuellen Menschen vernünftig simuliert? Auch hier gibt es jede Menge Projekte ( Projekt „Blue Brain”). Im Vergleich zum „echten”, physikalischen Universum ist die Simulation einer virtuellen Welt nicht allzu weit her geholt. Wenn das also möglich scheint, dann bleibt wieder die Frage von vorhin: wie können wir ausschließen, das wir in einer Simulation leben? (Das Thema und die entsprechende Aussagen des Philosophen Nik Bostrom waren ja schon einmal Anlaß für eine heftige Diskussion hier im Blog).

Eine Simulation läuft immer Gefahr, Rundungsfehler auf zubauen, denn eine Simulation kann die Realität immer nur mit diskreten Zeitschritten annähern. Das würde sich auch in simulierten Universen bemerkbar machen. Wenn wir seit Jahrhunderten messen, dass die Lichtgeschwindigkeit 299792,458 km/s beträgt und dann neue Messungen einen anderen Wert liefern – dann könnte das ein Hinweis auf eine Simulation sein in der Rundungsfehler überhand nehmen. Aber natürlich kann der allmächtige Programmierer auch einfach das Programm zurücksetzen und das Gedächtnis der simulierten Menschen löschen. Wir werden wohl warten müssen, bis wir tatsächlich in der Lage sind, virtuelle Universen zu schaffen, deren Bewohner dann vielleicht wieder eigene Simulationen kreieren). Denn dann stellt sich nämlich eine weitere Frage: Wie wahrscheinlich ist es, das gerade WIR die einzige reale Welt sind? Ist wirklich gerade UNSER Universum so besonders? Oder wäre es nicht logischer anzunehmen, das wir nicht besonders sind – sondern auch nur eine virtuelle Welt von vielen?

Das letzte Multiversum, das Greene vorstellt ist das, das ich am blödesten finde 😉 Es nennt sich „Ultimatives Multiversum” und geht auf philosophische Überlegungen von Robert Nozick zurück. Es lässt sich zumindest einfach erklären: Das ultimative Universum besteht aus allen Universen die man sich ausdenken kann. Ein Universum in dem die Stringtheorie korrekt ist, eines in dem sie falsch ist, ein Universum das nur aus Schmelzkäse besteht: sie alle sind Teil des ultimativen Multiversums. Es würde auch die alte Frage von Leibniz beantworten: „Warum gibt es etwas und nicht Nichts?” Nun, laut ultimativen Universum gibt es ALLES, auch ein Universum, das „Nichts” ist.

Das ist zwar spannend, wenn man darüber nachdenkt – aber auch irgendwie unbefriedigend. Warum soll das so sein? Das ultimative Multiversum – ein Gegensatz zu den anderen Multiversen die wir bisher kennen gelernt haben – erklärt nichts. Es sagt einfach nur: Im Multiversum ist alles möglich, wir brauchen daher nicht zu fragen, warum unser Universum so ist, wie es ist. Greene führt die Idee aber trotzdem weiter. Mathematik! Vielleicht ist Mathematik nicht einfach nur die Sprache, mit der sich das Universum beschreiben lässt. Vielleicht ist Mathematik die Realität. Klingt seltsam und Greene bringt ein Beispiel. Als Samuel Johnson einmal von Bischof Berkeley gefragt wurde, wie er sicher sein konnte, das er sich die Welt nicht einfach nur einbildet. Johnson trat gegen einen Stein und meinte das wäre seine Antwort. Das hätte aber genau so funktioniert, wenn Johnson und Berkeley in einer Simulation leben würden. Müssen wir die Simulation aber tatsächlich ablaufen lassen? Die Grundlage der Simulation ist Mathematik und das einzige, was beim Simulieren passiert, ist die Veränderung einiger Bits im Computer. Das braucht es aber nicht wirklich. Johnson, Berkeley und der Stein stecken direkt in der Mathematik! Die ganze Simulation ist nur das Erleben dieser Mathematik.Oder, wie Greene sagt: Realität ist, wie Mathematik sich anfühlt. Und das ultimative Universum folgt einfach direkt aus dieser Überlegung.

Naja – mich überzeugt das ultimative Multiversum nicht. Und auch die Frage nach der Matrix macht mir momentan keine großen Probleme. Auch Greene sagt zum Abschluss des Kapitels:

„Solange mir nicht der Atem wegbleibt weil ich eine Simulation mit Bewusstsein sehe, mache ich mir keine ernsthaften Gedanken, ob ich selbst eine bin.”

Kommentare (73)

  1. #1 AlterPirat
    29. Juli 2011

    “Aktuelle Schätzungen vergleichen die Rechenleistung des menschlichen Gehirns mit der Leistung von ein paar hundert Supercomputern, oder etwa 100 normalen Laptops.”
    Das kann ja nicht stimmen, jedenfalls hat mein Laptop noch nicht die Rechenstärke eines Supercomputers 😉

  2. #2 973
    29. Juli 2011

    Solchen Leuten wie dem Autor des Buches gehören alle öfftl. Gelder gestrichen und in den Hintern getreten, damit er seinen junkie-brothers auf der Straße seinen Unsinn erzählen kann.

  3. #3 Florian Freistetter
    29. Juli 2011

    @973: “Solchen Leuten wie dem Autor des Buches gehören alle öfftl. Gelder gestrichen und in den Hintern getreten, damit er seinen junkie-brothers auf der Straße seinen Unsinn erzählen kann. “

    Nur Forschung die sie verstehen oder sich selbst ausgedacht haben, ist gute Forschung, nicht wahr?

    Ansonsten dürfen sie gerne auch mal über den Unterschied zwischen wissenschaftlicher Arbeit und dem Verfassen populärwissenschaftlicher Bücher nachdenken.

  4. #4 Fermat
    29. Juli 2011

    “Eine Simulation läuft immer Gefahr, Rundungsfehler auf zubauen, denn eine Simulation kann die Realität immer nur mit diskreten Zeitschritten annähern. Das würde sich auch in simulierten Universen bemerkbar machen. ”

    Wieso ist das ein Problem? Unser Universum ist doch auch Diskret (Plank-Zeit, Plank-Länge …)

  5. #5 Florian Freistetter
    29. Juli 2011

    @Fermat: “Unser Universum ist doch auch Diskret (Plank-Zeit, Plank-Länge …) “

    Ob das Universum tatsächlich auf kleinster Ebene diskret ist oder nicht, ist noch nicht raus.

  6. #6 mr_mad_man
    29. Juli 2011

    Gravitation hat einen quasi unerschöpflichen Energievorrat zur Verfügung. Wenn ich von einem Hochhaus springe, dann falle ich immer schneller und schneller. Meine Bewegungsenergie wird immer mehr anwachsen. Und wenn mein Fall nicht irgendwann ziemlich abrupt gebremst wird, dann könnte das immer so weiter gehen. Ich kann das Gravitationskonto quasi beliebig überziehen

    Aber spätestens wenn die Fallgeschwindigkeit die Lichtgeschwindigkeit erreicht, müsste doch Schluss sein mit dem immer schneller werden. Oder nicht?
    Und noch mal andersrum gedacht. Ich bin davon ausgegangen, dass Gravitation da entsteht oder vorhanden ist (sorry, ich weiß nicht wie man das wissenschaftlich korrekt ausdrückt) wo Masse ist, Also ohne Masse keine Gravitation.

    Das Inflaton-Feld holt sich also seine Energie bei der Expansion direkt von der Gravitation und kann daher jede Menge Materie erzeugen.

    E=mc² sagt doch Energie = Masse (bzw. andersrum), also muss die Energie, aus welcher jede Menge Masse erzeugt wird, doch vorher schon da gewesen sein. Wenn diese Energie aus der Gravitation bezogen wird, müsste es doch Masse geben, die diese Gravitation erzeugt.

    Alles was wir brauchen ist ein kleines Dingens, ungefähr 10 -26 cm groß und befüllt mit einem Inflaton-Feld dessen Energie einer Masse von 10 Gramm entspricht.

    Wenn man mit der Energie aus der Masse von 10 Gramm ein ganzes Universum machen kann, mit wesentlich mehr Masse und Energie, dann hört sich das so an als wenn man aus nichts etwas erzeugen kann. Irgendwie beißt sich da doch die Katze in Schwanz.

    Meine bisherige Vorstellung war, dass die gesamte Masse und die gesamte Energie in unserem Universum an einem Punkt konzentriert war, in irgendeinem Quantenzustand vor sich hin gewabbert hat, und aus irgendeinem Grund oder auch ohne Grund irgendwann explodiert ist.

    Wahrscheinlich muss ich diese Vorstellung über den Haufen werfen und ich befürchte, dass mir ganz elementare Dinge fehlen, um das alles verstehen zu können.

  7. #7 MartinB
    29. Juli 2011

    “weil Simulation mit Bewusstsein sehe”

    Huh?

  8. #8 knorke
    29. Juli 2011

    Also bis jetzt habe ich gut mitgehalten, wenn ich auch nicht jedes Wort verstanden habe, aber die heutige Rezension is mir zu spookig.

    Florian, weisst du eigentlich, das Erich von Däniken in seinen Büchlein gern das Zitat “Der Traum der uns träumt ist noch nicht ausgeträumt” bringt? (soll wohl ein Sprichwort bei irgendwelchen Ureinwohnern sein)

  9. #9 GodsBoss
    29. Juli 2011

    Der Artikel zeigt, dass unser Universum kompatibel zu einer Schöpfungslehre ist! Allerdings:

    • Es war kein allmächtiges, allwissendes Wesen verantwortlich, sondern vielmehr (Achtung, Vorurteile voraus) ein ungepflegter, sozial wenig kompetenter Nerd in einem Labor.
    • Nach Schöpfung endet das direkte Wirken des Schöpfers. Obwohl interessant wäre, zu erfahren, was wohl mit dem Zeug passiert, dass jemand von hier hineinwirft.
    • Ein Jenseits gibt diese Theorie nicht her. Insbesondere kann der Schöpfer nicht entscheiden, was mit denen passiert, die in „seinem“ Universum sterben.
  10. #10 Florian Freistetter
    29. Juli 2011

    @MartinB: Danke!

  11. #11 AndreasM
    29. Juli 2011

    Eine Simulation hätte die Macht eines Gottes und damit Unmengen an Möglichkeiten, die Teile der Simulation daran zu hindern, die Simulation zu erkennen. Nicht nur Gedächtnis löschen, auch die direkte Manipulation der Ergebnisse, die die Rechner in der Simulation ausspucken ist möglich.

    Außerdem wissen die Bewohner nie, ob die Messungen, die abweichen, nicht einfach aufgrund eines unzureichenden Verständnisses der Physik abweichen.
    Nehmen wir ein Universum, in dem es tatsächlich so etwas wie einen Gott gibt. Also ein mächtiges Wesen, das immer wieder messbare Veränderungen in der Welt hervorruft. Wie sollte jetzt unterschieden werden, ob das eine Simulation ist oder nicht?

    Zum ultimativen Universum: Ich vermute mal, die Menge der denkbaren Universen ist kleiner als die Menge der mathematisch beschreibbaren Universen und die wiederum ist kleiner als die Menge aller Universen.

  12. #12 Florian W.
    29. Juli 2011

    @973: Dann würde er wohl zu den Kreationisten oder in das “von Dänicken”-Lager wechseln. Ich habe den Eindruck, auch für diese Zielgruppen kann man viel aus der Stringtheorie “rausholen”.

  13. #13 Bjoern
    29. Juli 2011

    @Florian W.: Also, ich sehe jetzt echt nicht, was Stringtheorie mit Kreationismus oder mit Paläo-Astronautik zu tun haben soll…

  14. #14 GodsBoss
    29. Juli 2011

    @Bjoern: Dir fehlt eben die Fähigkeit, unbegrenzt Schwurbel-Kitt zu produzieren, mit dem beliebige, auch völlig themenfremde Theorien, Hypothesen, Lehren und Wahnvorstellungen aneinandergeheftet werden können.

  15. #15 W.S.
    29. Juli 2011

    @973:

    “Solchen Leuten wie dem Autor des Buches gehören alle öfftl. Gelder gestrichen und in den Hintern getreten, damit er seinen junkie-brothers auf der Straße seinen Unsinn erzählen kann.”

    Schon erstaunlich, mit welcher Betonköpfigkeit Sie Ihre Thesen vertreten. Tröstlich stimmt mich allerdings, dass Sie das in einem Forum tun und nicht an einer Schaltstelle, wo Sie echten Schaden anrichten würden.

  16. #16 Andreas
    29. Juli 2011

    Wenn wir in einer Simulation leben, stellt sich die Frage: Was genau soll da eigentlich simuliert werden? 🙂

  17. #17 richelieu
    29. Juli 2011

    Wenn wir in einer Simulation leben, stellt sich die Frage: Was genau soll da eigentlich simuliert werden? 🙂


    Die Antwort auf 42? 😉

  18. #18 Christian Berger
    29. Juli 2011

    Zu der Idee der Simulation gibt es einen tollen Film. Er nennt sich “Welt am Draht”.

  19. #19 Nerd
    29. Juli 2011

    Das Leben gleicht einem Videospiel: Die Grafik ist bombastisch aber die Handlung ist schlecht.

  20. #20 Jürgen
    29. Juli 2011

    @Christian Berger
    Zum Film gibt es natürlich auch eine Vorlage: Simulacron-3 von Daniel F. Galouye.

  21. #21 Wurgl
    29. Juli 2011

    @Nerd:

    Ich muß dir zustimmen! Zu wenig Äktschn!
    http://www.team9000.net/attachments/reality-worstgameever-jpg.154/

  22. #22 nerd
    29. Juli 2011

    ^^ Das ist gut.

  23. #23 Christian A.
    30. Juli 2011

    “[The Army] is basically like FPS, except better graphics! But what happens if I get lag out there?” – fps_doug

  24. #24 Buchrezensionen für Alle!
    30. Juli 2011

    uufff, das wird ne Nacht 🙂 spannendes Thema, vielen dank für diese Buchrezension.
    Danke Herr Freisetter.

    Ihre Artikel mit dieser Hintergrundmusik,
    http://www.experiencetheplanets.com/

  25. #25 Redfox
    30. Juli 2011

    Stand da auch was über Konrad Zuses “Rechnener Raum”?

  26. #26 973
    30. Juli 2011

    “Ob das Universum tatsächlich auf kleinster Ebene diskret ist oder nicht, ist noch nicht raus.”

    Meine ich dasselbe. Offensichtlich sind Zeit und Raum ‘durchschnittlich’ im Abstand von Planck-Einheiten ‘besetzt’ und dadurch realisiert, und zwar als intrinsische Eigenschaft dieser Dimensionen selbst, auch wenn sie ‘sonst leer’ sind, darüber hinaus braucht man dann keine weitere Struktor (Körnigkeit, Netz, Gitter, Schaum … ) mehr

  27. #27 michael
    30. Juli 2011

    > Wenn wir in einer Simulation leben, stellt sich die Frage: Was genau soll da eigentlich simuliert werden? 🙂

    Der oder die Simulierer versuchen herauszubekommen, ob die virtuellen Bewohner in einer simulierten Welt erkennen können, dass sie ‘nur’ eine Simulation sind.

  28. #28 973
    30. Juli 2011

    @W.S. “Tröstlich stimmt mich allerdings, dass Sie das in einem Forum tun und nicht an einer Schaltstelle, wo Sie echten Schaden anrichten würden.”

    Wenn du davor Angst hast und dich betroffen fühlst, muß das ja wohl einen Grund haben.

    Nichtmalpseudowissenschaften wie auch im besprochenen Buch gehören insbesondere öfftl. Gelder gestrichen, sie aus öfftl. Forschung ferngehalten, und ggf dem Publikum auch gesagt daß das alles Unsinn ist. Fast unglaublich daß selbst in einem Forum oder blog wo verständige oder wenigstens skeptische Teilehmer zu erwarten wären, die meisten sowohl die Methodik das Absurdeste als das Normalste und solche Resultate als irgendwie für die Realität relevant anzusehen OK finden.

    Man müßte einmal erforschen, woran das liegt, daß sich die Leute gerne mit Illusionen beschäftigen. Die verkaufen sich ja offenbar auch gut. Greene benutzt vermutlich Parallelwelten, um Leuten die es dort nicht gibt durch Kauf seines Buches und Glauben an seinen Unsinn und an ihre eigene Simulation Scheingeld aus der Tasche zu ziehen.

  29. #29 Bjoern
    30. Juli 2011

    @973: Wieso masst du dir an, beurteilen zu können, was Pseudowissenschaft ist und was nicht? Bist du selbst Wissenschaftler…?

  30. #30 Florian Freistetter
    30. Juli 2011

    @973: “Greene benutzt vermutlich Parallelwelten, um Leuten die es dort nicht gibt durch Kauf seines Buches und Glauben an seinen Unsinn und an ihre eigene Simulation Scheingeld aus der Tasche zu ziehen. “

    Ganz im Gegensatz zu anderen Leuten die Bücher über Kosmologie und Wirkunsprinzipien schreiben, nicht wahr?

  31. #31 Werner
    30. Juli 2011

    Der Realitätsbezug der Mathematik ist begrenzt: seit Gödel und Russell ist klar, dass
    nur Systeme mit endlich vielen, diskreten Zuständen auf Widerspruchsfreiheit getestet werden können. Damit öffnete sich in der klassischen Analysis ein “unendlich tiefes schwarzes Loch” welches gerne verdrängt wird (durch viel formales Geschwätz wie “Axiom of Choice”). D.h. jeder Versuch dass Universum mit einem mathematischen
    Modell basierend auf reellen Zahlen zu erklären, birgt schon die Gefahr in sich, dass
    das Modell alleine für sich widersprüchlich ist und daher falsch. Rein praktisch gesehen sind überdies Computersimulationen nicht nur zeitdiskret sondern auch wertdiskret, da die Fließkommarithmetik letztendlich auch nur 32bit oder 64bit pro Wert verwendet. Es spricht also theoretisch und praktisch vieles dafür, dass Universum als endlichen Automaten (mit sehr, sehr vielen, aber NICHT unendlich
    vielen diskreten Zuständen zu betrachten). Bei dieser Diskretisierung bleiben
    die Begriffe Raum und Zeit in ihrer natürlichen kontinuierlichen Begrifflichkeit völlig auf der Strecke, auch Kausalität und freier Wille brechen formal zusammen.
    Plötzlich werden Dinge aus der tiefsten Esoterik oder die Gottes-Existenz im
    muslimischen Kontext (Lebensverläufe als unausweichliches “Schicksal”) denkbar;
    alles Dinge die man nach einem MINT-Studium angewidert von sich weist. Wenn wir alle nur Bestandteil einer großen Supersimulation sind wer hat diese Simulation eigentlich gestartet und auf welchem Supercomputer läuft dass ganze ab ?

  32. #32 Johannes
    30. Juli 2011

    Der Vergleich zwischen menschlichem Gehirn und Computer hinkt etwas, denn beide rechnen mit anderen Ansätzen.
    Der Computer verschiebt nur bits und ist daher extrem schnell in der Mathematik, was das Gehirn bekanntlich nur bedingt schnell kann, da es natürlich kein eigenes Rechensystem hat, sondern eins angelernt bekommt (so könnte man Menschen auch von Kindesalter an bspw. Rechnen im Dual oder Oktalsystem beibringen).
    Dafür ist das Gehirn sehr viel schneller im Analysieren von Räumen, Flächen, Farben, Bildern, Tönen etc. was den Computer wesentlich mehr Leistung abverlangt, da er wie gesagt, nur bits verschiebt und deswegen keine Zusammenhänge erkennen kann.
    Deswegen ist es nach wie vor schwierig Computer zu entwickeln, die bspw. bewusst und verlässlich auf Sprache reagieren.

    Das Gehirn ist zwar tatsächlich prinzipiell leistungsfähiger, aber nur aufgrund der hohen Parallelisierung der Vorgänge.

  33. #33 Wurgl
    30. Juli 2011

    @Werner:

    Ich gebe dir zwar Recht, dass eine Simulation auf einem digitalen Rechner *-diskret ist, aber die 32 bzw. 64 Bit hast du dir ausgeschwitzt, das ist reine Behauptung. Jede beliebige Anzahl noch Bits ist denkbar, sie muss nur endlich sein. So nebenbei hab ich selbst mal an einer 36-Bit Maschine gearbeitet.

    Doch neben einer Simulation auf einem digitalen Rechner ist noch eine Simulation auf einem analogen Rechner denkbar. Dessen Genauigkeit ist zwar auch begrenzt und beim momentanen Stand der Technik wohl geringer als bei digitalen Rechnern, doch wer weiß wer uns simuliert … falls überhaupt 🙂

  34. #34 volki
    30. Juli 2011

    Gödel sagt die Theorie die aus den Peano Axiomen entsteht ist nicht vollständig. Nimmt man aber das Modell der natürlichen Zahlen und beschreibt eine Theorie in der alle wahren Aussagen Axiome sind, erhält man eine vollständige und konsistente Theorie.

    http://en.wikipedia.org/wiki/G%C3%B6del%27s_incompleteness_theorems#Limitations_of_G.C3.B6del.27s_theorems

    Warum steht das nicht im Wiederspruch zu Gödel’s Unvollständigkeitssatz? Naja weil diese Sätze nur für rekursiv definierbare Theorien anwendbar sind und eine so oben beschriebene Theorie ist halt nicht rekursiv definierbar. Darum steht die Arithmetik, die Analysis usw. auf recht festen Beinen.

    Zum Auswahlaxiom. Die meisten Sätze, die für die Physik relevant sind kann man auch beweisen ohne Auswahlaxiom. Dort wo das Auswahlaxiom vorkommt, sind die Sätze so allgemein wie möglich gehalten und für reale Anwendungen kann man in den meisten Fällen auch geeignete Versionen ohne Auswahlaxiom beweisen.

  35. #35 rolak
    30. Juli 2011

    dass das Modell alleine für sich widersprüchlich ist und daher falsch

    ist falsch, Werner. ‘Nicht widerspruchsfrei’ bedeutet ausschließlich, daß innerhalb des Systems Aussagen formuliert werden können, deren Wahrheitswert nicht ermittelt werden kann – und nicht, daß das System falsch ist.

    Das von Wurgl¹ schon zu Recht angegangene Herumreiten auf der beschränkten Rechengenauigkeit ist völliger Blödsinn, wie schon das Nachdenken über folgende Fragen deutlich machen sollte:
    “Wieviel Material wird gebraucht für die exakte Simulation des Verhaltens jedwegen Materials im Universum?”
    “Welche Genauigkeit ist vonnöten, damit das Ergebnis der Simulation ausreichend aussagekräftig ist?”

    ¹ btw: 36bit – PDP oder IBM heavy metal?

  36. #36 Florian Freistetter
    30. Juli 2011

    @Werner: Gödels Satz wird im Kapitel von Greenes Buch auch nochmal extra ausführlich erwähnt; ich wollte das aber nicht mehr hier mit rein nehmen.

  37. #37 Wurgl
    30. Juli 2011

    rolak: Sperry Univac (oder Unisys … irgendwann wurden aus zwei Fimen eine). Und der Grund war ein 6-Bit Alphabet mit Großbuchstaben, Ziffern und ein paar Sonderzeichen. Dadurch konnte man 6 Zeichen in einem Maschinenwort abbilden.

    Der Rechner stand um 86/87 in der Gebietskrankenkasse Graz. Was vorher und nachher war, weiß ich nicht. Habs nur 23 Monate dort ausgehalten.

  38. #38 ZetaOri
    30. Juli 2011

    @Bjoern· 30.07.11 · 09:55 Uhr

    @973: Wieso masst du dir an, beurteilen zu können, was Pseudowissenschaft ist und was nicht? Bist du selbst Wissenschaftler…?

    Könnte man so sagen:
    http://www.relativ-kritisch.net/forum/viewtopic.php?t=1751&sid=ceabaee9e7060d166befeef0e058d076
    Daraus folgt wohl: 973 -> WernerLandgraf

    http://de.wikipedia.org/wiki/Werner_Landgraf

    Aber was heisst das schon? Das hier aus dem Wiki-Eintrag: . . .

    […]
    Kosmologische Überlegungen betreffen die logischen, geometrischen und physikalischen Konsequenzen einer sukzessiven Wirkung und Bewirkung von Ereignissen derart, dass Verschiedenes nirgends vollständig durcheinander darstellbar oder zueinander widersprüchlich wirkt, was als gerichtete Kausalität von unwiderruflichem Altem zu echt Neuem hin; linear unabhängigen Dimensionen und sie realisierende Kräfte, einschließlich ihrer endlichen Reichweite; und sonstige grundlegende abstrakte und konkrete Eigenschaften als Nachwirkung primordialer Ereignisse, bei unserer Welt ihre beobachteten solchen zuordnungsbar, und eine entsprechende Ordnung und Beziehungen der Naturkräfte zueinander, in Erscheinung tritt.
    […]

    . . . hat dann sogar in der Wiki für Irritation gesorgt:
    http://de.wikipedia.org/wiki/Diskussion:Werner_Landgraf

    Unverständlich
    Hat dieser Satz auch irgendwas relevantes zu bedeuten oder wurden hier nur viele klug klingende Wörter aneinander gereiht?

    Ja,ja:

    “Auch große Geister haben nur ihre fünf Finger breite Erfahrung, gleich daneben hört ihr Nachdenken auf: und es beginnt ihr unendlicher leerer Raum und ihre Dummheit.”
    Nietzsche; “Morgenröte” (5.Buch)

  39. #39 973
    30. Juli 2011

    “Ganz im Gegensatz zu anderen Leuten die Bücher über Kosmologie und Wirkunsprinzipien schreiben, nicht wahr?”

    Bloß mit leichten Unterschieden, so etwa, daß die meist noch in der Realität liegen; die Extrapolation über Bekanntes hinweg sehr gering und durchweg iR des Normalen ist überhaupt etwas evtl. Neues zu erwägen und abzuklären; das formale Resultat iW dasselbe ist wie die Eigenzeit als diskretisiert anzunehmen also eine Weltlinie mit diskreten Weltpunkten; sowohl einige eingegangene Überlegungen als auch direkte Konsequenzen sowieso offensichtlich sind; konkrete Vorschläge für experimentielle Verifizierung gemacht werden (etwa sich einmal mit externem und internem Informationshaushalt des einzelnen Photons zu beschäftigen, dessen Emission iS solcher Modelle eine Analogie zum Anfang einer Welt darstellt, wenn seine Fortentwicklung auch fehlschlug). Auch daß solche Resultate frei lesbar und downloadbar sind, die Möglichkeit der Leser etwas ausgedruckt und gebunden zu unter dem Fotokopierpreis bekommen zu können im Prinzip nichts schadet, der Verfasser den Verdienst auf 0 einstellt, wenngleich auch manchmal wegen den gewerblichen Zwecken des Handels zur besseren Kenntnismachung bestimmte Winkelzüge nötig sind (zBsp für ein paar Tage statt ‘Nichtvertrieb’ auch ‘Vertrieb über A’. und dessen normaler Gewinn zu entabeln, bis ein Buch auf dessen website aufgenommen ist, sobald erfolgt kann man den Preis wieder runtersetzen), usw … Wogegen man bei artigen Buchbesprechungen und positiver Bewertung selbst des grösten Schwachsinns mindestens das Buch behalten darf und weitere bekommt …

  40. #40 973
    30. Juli 2011

    Die oben zitierte Diskusion ‘hat’ nicht für Irritation in der wiki gesorgt, sondern wurde ‘koinzidenterweise’ erst gestern dort eingeführt
    [nicht signierter Beitrag von 62.93.126.50 (Diskussion) 10:05, 29. Jul 2011 (CEST))], wohl kaum bezweifelndermaßen von den junkies die hier herumflippen

  41. #41 rolak
    30. Juli 2011

    ^^erstaunlich weit verbreitet, diese Sonderformate. thx, Wurgl. Schon wegen des scheinbaren Röhrenanteils im Namen habe ich bei Univac sofort Colossus vor Augen, die Dinger waren ja auch typische Etagen-Rechner (floortop statt desktop?).

  42. #42 W.S.
    30. Juli 2011

    @973:

    Es geht Sie zwar nicht wirklich etwas an, ich sage Ihnen aber gerne, wovor ich Schiss habe: Das sind Typen, die im Besitz der allumfassenden Weisheit sind.

    Wissenschaft lebt nämlich genau davon, Fragen zu stellen, nicht davon, sie abzuwürgen. Es ist richtig und wichtig, die richtigen Fragen zu stellen (ich sage das jetzt mal in Anlehnung an Anton Zeilinger), auch das ist keine Frage. Was die richtigen Fragen sind, muss durch Beobachtung geklärt werden.

    Sie, Meister des Neunhundertdreiundsiebzigers, gleichen den Vertretern des Klerus’, die Galileo Galilei seinerzeit dazu aufforderte, durch sein Fernrohr zu schauen, weil er meinte, dass “genau so, wie sich die Monde um den Jupiter drehen” sich die Erde um die Sonne drehe. Die Herren taten kund und zu wissen, dass sie das nicht müssten, denn “wir wissen, wie es ist.”

    Ich hoffe, Sie verstehen, was ich meine, und wenn es für Sie intellektuell nicht erreichbar sein sollte, kann ich das auch nicht ändern.

    Der Weg der Wissenschaft ist voller Irrtümer und Irrwege. Aber sie müssen beschritten werden.

  43. #43 Bjoern
    30. Juli 2011

    @973:

    …wohl kaum bezweifelndermaßen von den junkies die hier herumflippen

    Ah ja? Beleg’ das doch mal… (also, von mir stammt das jedenfalls eindeutig nicht – ich wusste ja bis eben noch nicht mal, dass 973 = Werner Landgraf…)

  44. #44 973
    30. Juli 2011

    Absolut nicht. Das Problem ist aber, daß sich gegenwärtig die Physik in einer Phase befindet, wo einfach die Spekulationen überhand nehmen. Das geschieht u.a. dadurch, daß ein Ungleichgewicht besteht, ohne Evidenz und beobachtungsmäßiger Dringlichkeit, wahrlos Theorien gemacht werden was sein könnte, ferner daß die absurdesten Schlußfolgerungen die normalerweise zuerst zu verwerfen wären am meisten künstlich aufrecht erhalten und vermarktet werden. Genau dagegen wehre ich mich.

    Zur Zeit der Entstehung der QT und RT war das noch anders. Diese Theorien gingen von erheblichen Erfahrungen aus, die noch nicht durch die Physik dargestellt wurden. Damals war die Vorgehensweise noch korrekt.

  45. #45 Wurgl
    30. Juli 2011

    Jupp. Zentralrechner aka Mainframe einsam im Turnsaal 🙂

    So nebenbei rechnet die momentan (in Stückzahlen) wohl am weitesten verbreitete Rechnerarchitektur, nämlich die x86-Architektur, in Fließkomma mit 63 Bit und legt Daten extern mit 23 (float), 52 (double) oder eben 63 Bit ab. Der Rest auf 32/64 bzw. 80 Bit sind der Exponent und das Vorzeichen. Andere Rechner haben andere Formate, speziell andere Aufteilungen in Exponent und Mantisse.

    Aber egal, das ist Nebenkriegsschauplatz.

    Bei der notwendigen Rechenleistung für eine Simulation muss man jedenfalls noch berücksichtigen, dass eine entfernte Galaxis keinesfalls so hoch aufgelöst simuliert werden muss, wie eine Kollision im LHC. Und zusätzlich müsste man nur während der Beobachtung die Simulation laufen lassen bzw. je nach Beobachtungsinstrument (Auge … Fernglas … Hubble) mehr oder weniger Rechenzeit in die Simulation reinstecken. Wenn niemand hinguckt, ist keine Rechenzeit erforderlich.

    Was dann zu einigen Fragen führt: Existiert der Mond, wenn niemand hinguckt? oder: Existiere nur ich und sind alle anderen Mitmenschen auch nur Simulation?

  46. #46 rolak
    30. Juli 2011

    Jetzt mal rein formal, 973: ZetaOri hat nicht die Diskussionsseite als irritationserzeugend eingestuft, sondern das Zitat aus dem Artikel. Zusätzlich erfolgte der Diskussionsbeitrag wie von Dir gesagt gestern, wodurch von heute aus eine Vergangenheitsform wie ‘hat .. für .. gesorgt’ nicht nur angemessen, sondern grammatisch notwendig ist.

    Mit Wortzusammenstellungen wie

    wohl kaum bezweifelndermaßen von den junkies die hier herumflippen

    wirst Du übrigens aus der Irritations-Ecke eindeutig nicht herauskommen. btw: so besonders anonym ist die url gar nicht.

  47. #47 Bjoern
    30. Juli 2011

    @ZetaOri: Danke für den Hinweis. Hm, der “tolle” Absatz im Wiki-Artikel wurde von einem anonymen Autor geschrieben (nur IP-Adresse angegeben) – wer das wohl war…?

  48. #48 W.S.
    30. Juli 2011

    @973:

    Ja, flühel wal sogal die Zukunft bessel *ggg*

  49. #49 rolak
    30. Juli 2011

    Ist klar, Wurgl, alleine schon die ganzen DSPs und CPLDs mit ihren für irgendwelche Spezialaufgaben angepaßten Formatexoten… Dennoch werden üblicherweise alle zur Zahlendarstellung genutzten Bits zusammengezählt, so ändert z.B. 16bit Integer-Arithmetik nicht ihren Namen beim Übergang von unsigned nach signed.

    Zurück zur Realität: Selbstverständlich ist die eine Simulation. Vom Bewußtsein erstellt aus einerseits in rauhen Mengen anfallenden, andererseits drastisch gefilterten Daten von auf äußere Einflüsse reagierenden Nervenzellen – unter Zuhilfenahme von Defaultmappings zum Lückenfüllen. Imho die evolutionäre Leistung. Falls sich Bewußtsein langfristig durchsetzt…

  50. #50 Niels
    30. Juli 2011

    @Bjoern
    Nachdem von der selben IP eine “Stellungnahme von Werner Landgraf” kam,
    http://de.wikipedia.org/wiki/Benutzer_Diskussion:Florian_Blaschke#Stellungnahme_von_Werner_Landgraf
    ist das Raten nicht mehr ganz so schwierig.

    Ach ja, zu

    Nichtmalpseudowissenschaften wie auch im besprochenen Buch gehören insbesondere öfftl. Gelder gestrichen, sie aus öfftl. Forschung ferngehalten, und ggf dem Publikum auch gesagt daß das alles Unsinn ist.

    Seine ganz eigene Theorie fast 973 bei obiger Stellungsnahme folgendermaßen zusammen:

    Zur Klarstellung, mein Modell enthält keine Weltformel, sondern sagt im gegenteil daß es keine gibt, eben da zur Funktion der Welt gehört laufend echt Neues zu produzieren; physikalisch relevanter Inhalt des Modelles ist, das die Dimensionen der Reihe nach: Weltpunkte oder Fakten / Wirkung (diskretisiert); Zeit / Energie; 1D-Raum / Impuls; Krümmung / Masse entstanden, und Naturkräfte sowie Zustandsgleichungen zwischen ihnen (so auch die Expansion) geometrische Eigenschaften sind.

  51. #51 973
    30. Juli 2011

    Wie zu erwarten, glauben die Vorredner natürlich auch an Weltformeln, neben ihrer üblichen Selbstdisqualifizierung durch Infragestellung einfachster offensichtlicher Sachverhalte.

  52. #52 W.S.
    30. Juli 2011

    @973:

    Wie immer das auch sein mag — ich für meinen Teil halte den einfachen Sachverhalt Ihrer Überlegenheit für so offensichtlich, dass ich mich mit Ihnen nicht weiter beschäftigen mag *ggg*

  53. #53 Bjoern
    30. Juli 2011

    @973: Erstens haben die “Vorredner” auch Namen (bzw. Nicknames); es ist reichlich unhöflich, diese nicht zu verwenden, sondern ständig nur von “Vorrednern” zu reden. Zweitens sehe ich hier weit und breit niemanden, der an Weltformeln “glaubt”; es ist mir schleierhaft, wie du das aus den obigen Kommentaren heraus liest (womit wir wieder bei den Leseverständnis-Problemen wären.) Drittens behaupten eigentlich die meisten Leute mit alternativen Theorien, ihre eigenen Ideen wären offensichtlich klar, und die anderen wären einfach alle zu blöd, um sie zu kapieren… (womit wir wieder beim Dunning-Kruger-Effekt wären).

  54. #54 Florian Freistetter
    30. Juli 2011

    @973: “Wogegen man bei artigen Buchbesprechungen und positiver Bewertung selbst des grösten Schwachsinns mindestens das Buch behalten darf und weitere bekommt … “

    Das Buch das ich hier bespreche wurde gekauft und bezahlt.

    “Genau dagegen wehre ich mich. Zur Zeit der Entstehung der QT und RT war das noch anders. Diese Theorien gingen von erheblichen Erfahrungen aus, die noch nicht durch die Physik dargestellt wurden. Damals war die Vorgehensweise noch korrekt. “

    Also doch nur wieder “Früher war alles besser…”. Ich nehme an, Bücher wie von Herrn Unzicker finden sie super 😉 http://www.scienceblogs.de/astrodicticum-simplex/2010/09/durchgefallen-vom-urknall-zum-durchknall.php

  55. #55 rolak
    30. Juli 2011

    Es ändert sich in Richtung absurde Komödie, Niels, durch die eben erfolgte abstruse Unterstellung, eine Gruppe hier Kommentierender hätte die Diskussion zum ihn betreffenden wikiEintrag angezettelt. Mobbenderweise.
    Dabei fasst er den oben zitierten Satz kurz zusammen – noch unverständlicher als vorher.
    Sitzt Knapp1000 eigentlich tatsächlich in Guadeloupe?

    Da zitiere ich lieber einen aus einem höheren Orbit an ihn gerichteten Beitrag:

    …hast du dir offenbar eine private Terminologie zurecht gelegt. Wenn man nun beginnt einzelne Begriffe abzuklopfen, tönt es bedenklich hohl.

  56. #56 Bjoern
    30. Juli 2011

    @rolak:

    btw: so besonders anonym ist die url gar nicht.

    Wobei mir der Name, der dort angezeigt wird, hier auf dem Blog noch nie untergekommen ist… (könnte natürlich einer der zahlreichen Leute sein, die hier nicht mit realname kommentieren – aber von den Leuten, die hier häufig kommentieren, fällt mir spontan auch keiner ein, der aus der Gegend kommen würde)

  57. #57 Niels
    30. Juli 2011

    @rolak
    Das ist halt das Schöne, wenn man Crank ist.
    Wenn anderen Menschen die eigene Idee für Blödsinn halten, beweist das offensichtlich, dass man recht hat.
    Das zeigt nämlich nur, dass einige Menschen so viel Angst vor dieser neuen, revolutionären, welterschütternde Wahrheit haben, dass sie den Crank mit einer Mobbing-Verschwörung verfolgen.

    Ich glaube, wir haben 973 jetzt aber sowieso schon viel zu viel Aufmerksamkeit geschenkt.

  58. #58 rolak
    30. Juli 2011

    Oi, das sollte kein Versuch der Demaskierung sein, Bjoern, nur der mäßig großen Zahl klar machen, daß ein anonymes Attentat deutlich anders aussieht.

  59. #59 973
    30. Juli 2011

    6. Vorredner oben: nun, kurz vor deinem post hat jemand bemängelt, daß ich mit meinen Ansichten eine Weltformel bemängele/ablehne …

    @FF Ich stimme keiner krassen Kritik an der Physik zu wie im zweiten von dir gennantem Buch. Aber die Physik ist heute zu kopflastig in Richtung ausufernder Spekulation, und ich bin der Meinung, daß mehr von der Theorie auf Experimente verlagert (und dafür ausgegeben) werden muß. Ebenso muß man bei bestimmten Theorien, die eben nicht klappen, sich davon verabschieden statt zu flickschustern. Oder gibt es heutzutage noch Leute die Planetenbahnen durch Epizyklen berechnen ? Rein formal ginge das ja, und Rechtfertigungen ließen sich dafür immer finden (etwa daß nach der RT ein heliozentrisches System nicht mehr gegenüber einem geozentrischen bevorzugt ist).

  60. #60 Bjoern
    30. Juli 2011

    @973:

    6. Vorredner oben: nun, kurz vor deinem post hat jemand bemängelt, daß ich mit meinen Ansichten eine Weltformel bemängele/ablehne …

    *seufz* Was ist denn sooo schwierig daran, den Namen zu nennen? Ich nehme an, du meinst Niels (Kommentar um 20:01 Uhr), oder? (das ist nämlich der einzige Kommentar hier, in dem “Weltformel” vor deiner Beschwerde vorkam) Wenn du wirklich den Kommentar von Niels meinst, dann hast du aber echt Leseverständnis-Probleme – der bemängelt nirgends, dass du eine Weltformel ablehnst; er erwähnt diese Tatsache nur, mehr nicht!

    Aber die Physik ist heute zu kopflastig in Richtung ausufernder Spekulation, und ich bin der Meinung, daß mehr von der Theorie auf Experimente verlagert (und dafür ausgegeben) werden muß.

    Schlag’ doch mal ein paar konkrete Experimente vor…

    Ebenso muß man bei bestimmten Theorien, die eben nicht klappen, sich davon verabschieden statt zu flickschustern.

    Wer darf entscheiden, wann eine Theorie soweit ist, dass sie nicht mehr “klappt”? Wer darf entscheiden, ob eine Änderung an einer Theorie schlicht eine Anpassung an neue Beobachtungen ist, oder schon “flickschustern”? Anscheinend nur du…?

    Oder gibt es heutzutage noch Leute die Planetenbahnen durch Epizyklen berechnen ?

    Ist dir schon mal aufgefallen, dass (1) das Epizykel-System von Ptolemäus nie als eine wirkliche physikalische Beschreibung gedacht war, sondern als eine reine “Rettung der Phänomene”, und dass es sogar in sich widersprüchlich war, und (2) dass dieses System erst abgeschafft wurde, nachdem eine bessere Beschreibung gefunden worden war?

  61. #61 JK
    30. Juli 2011

    Zur Frage der Erkennbarkeit des Lebens in einer Simulation vielleicht von Interesse:
    http://de.wikipedia.org/wiki/Gehirn_im_Tank
    Ein altes philosophisches Thema.

    Zur Frage der Erschaffbarkeit einer simulierten Welt (mit einem Hirn im Tank?): Vielleicht sollten wir erst einmal unsere echte Welt in Ordnung bringen.

    @ Florin Freistetter: sehr anregende Rezensionsserie, danke für´s “Vorlesen”.

  62. #62 Niels
    30. Juli 2011

    @973
    Wenn das wirklich auf Niels· 30.07.11 · 20:01 Uhr bezogen war:
    In meinem Beitrag ging es nicht darum, dass du eine Weltformel ablehnst.
    Das zweite Zitat hätte genau so gut mit “eben da zur Funktion der Welt gehört” beginnen können.

    Vielmehr wollte ich mit der Gegenüberstellung deiner beiden Zitate auf die amüsante Tatsache aufmerksam machen, dass du eine Menge legitimer Forschungsarbeiten als “Nichtmalpseudowissenschaften” ablehnst.
    Gleichzeitig aber ein eigenes wirres Welterklärungsmodell vertrittst, das perfekt in die Kategorie Pseudowissenschaft passt.

  63. #63 973
    31. Juli 2011

    Vielleicht bin ich in diesem Punkt etwas zu rigoros (mit der Zeit geworden), aber das Problem ist einfach die zu wahrlose Ausuferung von Theorien die nicht auf Beobachtungen beruhen, in absehbarer Zeit auch nicht überprüfbar sind, und von der Beschäftigung mit der Theorie (nicht mit der reellen Welt) ausgingen.

    Hier wäre der falsche Platz, auf mein eigenes Modell einzugehen. Wir beobachten ja dauernd, daß es (mindestens) eine zeitliche, drei räumliche Dimensionen, Naturkräfte die jedenfalls zu erheblichem Grad eine geometrische Bedeutung und Verbindung mit den Dimensionen, Kausalität in gewissem Sinne gibt. Über dessen Herkunft und Bedeutung nachzudenken, ist daher grundsätzlich gerechtfertigt. Auch über den Urknall gibt es wenig Zweifel, aber über Einzelheiten. Ferner ist offensichtlich die Realisierung von allem nicht substanziell sondern funktionell, andererseits aber auch begrenzt (zBsp zeitlich und räumlich), etwas existiert nur wenn es was produziert, und zwar unabhängig sonstiger Umstände. Daher war es naheliegend, einmal ein diskretes Modell sukzessiver Wirkung neuer Fakten auf seine Eigenschaften, insgesamte Erscheinung und Korrespondenz zu der innerhalb ihm gültigen Logik, Geometrie, späteren Physik zu betrachten. Dazu wurde genauer gesagt angenommen und definiert die Art der Kausalität des Modelles, daß einerseits die Zukunft nicht vorherbestimmt ist, andererseits einmal entstandene Fakten nicht mehr rückwirkend gemacht werden kônnen (noch durch neue ‘bestätigt’, die dann auch nicht wirklich neu wären), oder anders gesagt daß neue Fakten immer linear unabhängig von allen bestehenden sind. Dies bedeutet, daß neue Informationen oder Gruppen von solchen, insbesondere etwa die mit gleichem Rang entstehen, eine neue Dimension darstellen. Dieses Modell wurde dann in alle Richtungen hin auf seine Einzelheiten untersucht. Demzufolge entstanden nach der als primordiale, primitive diskrete Dimension anzusehenden Wirkung oder Abfolge von Ereignissen, die Zeit, eine kinematisch definierte Raumrichtung, sowie zwei weitere durch die Krümmung definierten Raumrichtungen, wobei wir diese erste Dimension formal (und offenbar auch wesentlich) als eine diskretisierte Eigenzeit auffassen können. Die wesentlichen konkreten und abstrakten Eigenschaften lassen sich dadurch beschreiben; es hat auch sonst viele günstige Eigenschaften. Inzwischen sind solche Kausalmodelle modern geworden; als wesentlich sehe ich allerdings die Forderung bei meinem an, daß neue Fakten stets linear unabhängig von bereits vorhandenen sind (womit sich zBsp die Dimensionen selbst, statt nur weitere Punkte in schon vorhandener Dimension, erzeugen). Das Modell enthält also nur sehr wenige (und sowieso sehr plausible) Annahmen, und sagt keine Absurditäten voraus. Das nur als ganz kurze Klarstellung, weil hier der Vorredner was zu dem Modell angemerkt hat.

  64. #64 Bjoern
    31. Juli 2011

    @973:

    …aber das Problem ist einfach die zu wahrlose Ausuferung von Theorien die nicht auf Beobachtungen beruhen, in absehbarer Zeit auch nicht überprüfbar sind, und von der Beschäftigung mit der Theorie (nicht mit der reellen Welt) ausgingen.

    Erstens einmal gilt das alles auch (wie oben schon erwähnt) z. B. für Diracs Gleichung und die Vorhersage der Positronen: die beruhte eindeutig nicht auf Beobachtungen, es war damals nicht abzusehen, wie sie überprüfbar sein sollte, und sie ging eindeutig von einer Beschäftigung mit der Theorie, nicht der realen Welt, aus. Trotzdem sehe ich dich nirgends gegen Dirac wettern. Wie kommt das nur…?

    Zweitens heisst das Wort immer noch “wahllos”; das Wort “wahrlos” gibt’s nicht. Schon interessant, dass jemand, der sich anscheinend ständig bemüht, möglichst hochgestochen zu schreiben, es nicht hinbekommt, ein so einfaches Wort richtig zu schreiben – obwohl dir schon zweimal gesagt wurde, dass deine Schreibweise falsch ist!

    Auf den langen Absatz einzugehen lohnt sich wirklich nicht; nur der letzte Teil:

    …weil hier der Vorredner was zu dem Modell angemerkt hat.

    DER “VORREDNER” HAT AUCH EINEN NAMEN!!! Sag mal, bist du zu unhöflich, zu faul, oder einfach zu blöd dazu, die Namen der Leute anzugeben, auf die du dich beziehst?

  65. #65 Alderamin
    31. Juli 2011

    Ich hoffe, ich störe die laufende Diskussion nicht zu sehr, wenn ich einem eingangs geposteten Artikel antworte (bin in letzter Zeit ziemlich beschäftigt und habe daher nur noch wenig Zeit, hier mitzumachen).

    @mr_mad_man

    Aber spätestens wenn die Fallgeschwindigkeit die Lichtgeschwindigkeit erreicht, müsste doch Schluss sein mit dem immer schneller werden. Oder nicht?

    Nein, da die Masse mit der Geschwindigkeit zunimmt, kann auch bei endlicher Geschwindigkeit die Energie auf’s Unendliche zunehmen. Was soll mich z.B. daran hindern, einem Teilchen in einem Synchroton-Beschleuniger immer mehr Energie zuzufügen (außer der magnetischen Kraft, die nötig ist, es am Ausbrechen aus der Kreisbahn zu hindern)? Man könnte sagen, die Tatsache, dass ich einem Teilchen beliebig viel Energie zuführen kann, ist bei der nicht überschreitbaren Lichtgeschwindigkeit die logische Ursache für die Massenzunahme und damit E=m*c^2, weil die Energie ja irgendwo hin muss.

    E=mc² sagt doch Energie = Masse (bzw. andersrum), also muss die Energie, aus welcher jede Menge Masse erzeugt wird, doch vorher schon da gewesen sein. Wenn diese Energie aus der Gravitation bezogen wird, müsste es doch Masse geben, die diese Gravitation erzeugt.

    Die Gravitation des Urknalls hängt einerseits an der Energiedichte (mit positivem Beitrag) aber noch viel stärker am Druck, denn auch der erzeugt Gravitation, und die kann auch negativ sein, wenn der Druck es ist. Ich hab nochmal bei Alan Guth (The Inflationary Universe) nachgelesen, wie die Argumentation geht:

    – zu Anfang des Urknalls herrschte ein falsches Vakuum, d.h. ein Vakuum mit einer sehr hohen Energiedichte von 10^80 g/cm^3 (aufgrund eines darin enthaltenen Kraftfelds, des Inflaton- oder Higgs-Felds). Wenn ein solches expandiert, dann bleibt seine Energiedichte konstant (bis es auf einen Zustand niedrigerer Energie tunnelt, und dann hört die Expansion auf). Sie wird nicht davon niedriger, dass das Vakuum größer wird, weil ein Vakuum halt leer ist, bis auf das Higgs-Feld, das zum Vakuum dazugehört.
    – ein falsches Vakuum muss wegen der Konstanz seiner Energiedichte einen negativen Druck haben. Man stelle sich einen Kolben in einem Zylinder mit falschem Vakuum vor, an dem man zieht, so dass sich das Volumen des falschen Vakuums vergrößert. Dann ist nachher mehr Energie (Energiedichte*Volumen) im Zylinder als vorher. Woher kommt die Energie? Sie muss von der Hand kommen, die den Kolben herausgezogen hat, also hat die Hand Arbeit gegen einen nach innen gerichteten (negativen) Druck (=Sog) geleistet. Ein falsches Vakuum mit konstanter Energiedichte hat also einen negativen Druck. Ein negativer Druck erzeugt aber eine abstoßende Gravitation.
    – Wenn ein negativer Druck herrscht, warum zieht sich das Vakuum dann nicht in sich zusammen? Weil es keine Druckdifferenz gibt. Tief in einem See herrscht ein hoher Wasserdruck, der einen Hohlkörper eindrücken könnte. Wenn aber in dem Hohlkörper der gleiche Druck herrscht (ob in Form von Gas – untergetauchtes, umgedrehtes Glas – oder in Form von Flüssigkeit, die ihn erfüllt) dann übt der Druck keine Kraft aus. Im frühen Universum erfüllte das falsche Vakuum den ganzen Raum, also herrschte Druckausgleich. Es wirkte mithin nur die abstoßende Gravitation des negativen Drucks.
    – Die positive Energiedichte des falschen Vakuums verursacht natürlich auch eine anziehende Gravitation. Die abstoßende Kraft durch den negativen Druck überwiegt laut Guth aber die anziehende Kraft um einen Faktor 3. Deswegen expandierte das Universum sehr schnell.

    Wenn man mit der Energie aus der Masse von 10 Gramm ein ganzes Universum machen kann, mit wesentlich mehr Masse und Energie, dann hört sich das so an als wenn man aus nichts etwas erzeugen kann. Irgendwie beißt sich da doch die Katze in Schwanz.

    Das ist der Punkt, den ich auch noch nicht verstanden habe, trotz Lektüre zweier Bücher zu dem Thema (ein drittes ist noch unterwegs aus den USA). Das falsche Vakuum enthält eine Energie (Dichte*Volumen), die mit dem Volumen wächst. Wo kommt die Energie her? Eine mögliche Argumentation ist, dass das Gravitationsfeld eine negative Energie (=potenzielle Energie) repräsentiert, die die positive Energiedichte des Vakuums genau aufhebt. Das will mir nicht so ganz einleuchten, wenn Guth sagt, die abstoßende Gravitation überwiegt die anziehende um den Faktor 3: Damit würde nur ein Drittel Arbeit gegen die Anziehung der Energiedichte verrichtet und ginge ins Gravitationspotenzial, aber 2 Drittel bekäme ich geschenkt, Energie aus dem Nichts. Andererseits ist ja nichts da, was Energie aufnehmen könnte, es ist ja ein Vakuum. Die Energie kann ja nicht räumlich kollabieren, also wird in Wahrheit keine Arbeit verrichtet (im Gegensatz dazu, wenn ich eine Masse gegen ein Schwerfeld nach oben befördere). Oder so. Wie gesagt, der Punkt ist mir auch noch nicht klar und hoffe auf Buch Nr. 3 (Lawrence M. Krauss, A Universe from Nothing)

    Meine bisherige Vorstellung war, dass die gesamte Masse und die gesamte Energie in unserem Universum an einem Punkt konzentriert war, in irgendeinem Quantenzustand vor sich hin gewabbert hat, und aus irgendeinem Grund oder auch ohne Grund irgendwann explodiert ist.

    Nein, das wäre dann der Zustand nach der inflationären Phase, wenn das falsche Vakuum auf einen niedrigeren Energiezustand getunnelt ist (unter Vernachlässigung der dunklen Energie, die wieder eine Vakuumenergiedichte darstellt, nur eine sehr viel kleinere).

  66. #67 Alderamin
    31. Juli 2011

    @Bjoern

    Danke nochmal für die Links. Allerdings komme ich bei Link 1 nicht mit, dazu fehlen mir die Grundlagen. Und Link 2 sagt im wesentlichen nichts anderes als “Energie kann aus dem Nichts entstehen weil das eben so ist.” Photonen würden ihre Energie im expandierenden Universum ja auch nicht erhalten. Das ist irgendwie nicht die Erklärung, die mir einleuchten will.

    Ich könnte es nachvollziehen, wenn die Energie im Gravitationsfeld negativ wäre und genau gleich der positiven Energie, die in der Masse und Energiedichte des gesamten Raumes steckt (sagen wir, in hinreichend großen Volumina, oder asymptotisch gegen ein unendliches Volumen), aber nachdem Guth sagt, bei der Inflation überwiegt die negative Gravitation die positive der Vakuumenergiedichte (beim falschen Vakuum) um den Faktor 3, scheint das nicht aufzugehen, und wie ich oben sagte, in einem leeren Raum kann ja auch nichts kollabieren, um die gespeicherte Energie jemals freiwerden zu lassen, auch wenn die Expansion aufhörte.

    Auch das Argument, dass ein Photon bei der Expansion rotverschoben wird und somit Energie verliert, kann ich nicht ganz nachvollziehen, denn beim gewöhnlichen Dopplereffekt passiert das ja auch, der Wellenzug wird halt länger, die Energiedichte nimmt in gleichem Maße ab, aber die gesamte Energie im Wellenzug bleibt doch letztlich die gleiche.

    Dass sich das Weltall schneller als mit Lichtgeschwindigkeit ausdehnt, ohne die Konstanz der Lichtgeschwindigkeit zu verletzen, verstehe ich, weil sich der Raum dehnt und sich nichts im Raum bewegt. Was ich noch suche ist eine vergleichbare Erklärung, warum das Energieerhaltungsgesetz in so eklatanter Weise nicht erfüllt sein soll, wie die Inflation oder die dunkle Energie das verlangen. Es ist schon eine sehr große Kröte, die man schlucken soll, wenn es heißt, ein unglaublich großes Universum kann aus Nichts entstehen. Da will mein Kopf einfach nicht mit.

  67. #68 Bjoern
    31. Juli 2011

    @Alderamin:

    Das ist irgendwie nicht die Erklärung, die mir einleuchten will.

    Klar – wenn einem jahre-, wenn nicht jahrzehntelang immer wieder gesagt wird “Energie ist immer erhalten, die kann nicht einfach aus dem nichts entstehen bzw. wieder verschwinden”, dann ist’s natürlich nicht so einfach zu schlucken, dass das in der ART eben nicht mehr streng gilt…

    Ich könnte es nachvollziehen, wenn die Energie im Gravitationsfeld negativ wäre und genau gleich der positiven Energie, die in der Masse und Energiedichte des gesamten Raumes steckt (sagen wir, in hinreichend großen Volumina, oder asymptotisch gegen ein unendliches Volumen), aber nachdem Guth sagt, bei der Inflation überwiegt die negative Gravitation die positive der Vakuumenergiedichte (beim falschen Vakuum) um den Faktor 3, scheint das nicht aufzugehen, …

    Nicht nur das – diese Erklärung wäre ein, die auf der Newtonschen Gravitationstheorie beruht, in der ART funktioniert die so einfach nicht mehr. Aus dem einfachen Grund, weil es in der ART eben kein Gravitationsfeld gibt – also kann da logischerweise auch keine Energie drin stecken (egal ob positiv oder nicht). Man kann zwar versuchen, diese Energie gewissermaßen in der Raumkrümmung wieder zu finden – aber das klappt mathematisch nicht… das wird im ersten der beiden Links nähert erläutert; einfach gesagt: man kann keine mathematische Größe finden, die in allen möglichen Bezugssystemen sinnvoll diese Energiedichte beschreiben würde. (und eine der Grundvoraussetzungen der ART ist ja gerade, dass dieselbe Physik in allen Bezugssystem gelten soll!)

    Auch das Argument, dass ein Photon bei der Expansion rotverschoben wird und somit Energie verliert, kann ich nicht ganz nachvollziehen, denn beim gewöhnlichen Dopplereffekt passiert das ja auch, der Wellenzug wird halt länger, die Energiedichte nimmt in gleichem Maße ab, aber die gesamte Energie im Wellenzug bleibt doch letztlich die gleiche.

    Wäre mir neu, dass beim gewöhnlichen Dopplereffekt “die gesamte Energie im Wellenzug” gleich bleiben würde. Wo hast du das her?

    Beim gewöhnlichen Dopplereffekt handelt es sich übrigens nicht wirklich um eine Abnahme der Energie – sondern einfach darum, dass man ein und dasselbe Photon aus verschiedenen Bezugssystemen betrachtet. (ähnliches Beispiel: wenn ein Auto auf dich zu fährt, hat es für dich eine große kinetische Energie; wenn du drin sitzt, hat es in diesem Bezugssystem die kinetische Energie Null)

    Was ich noch suche ist eine vergleichbare Erklärung, warum das Energieerhaltungsgesetz in so eklatanter Weise nicht erfüllt sein soll, …

    Erstens einmal könnte man genausogut fragen: warum sollte das Energieerhaltungsgesetz denn erfüllt sein? Zweitens gibt es zwei Begründungen, warum es in der ART/Kosmologie im Allgemeinen nicht gilt – beide sind aber eher mathematisch…

    1) Dass in der klassischen Mechanik die Energieerhaltung gilt, kann man ausgehend vom Newtonschen Gesetz F = ma einfach beweisen. In der ART gilt diese Gleichung aber nicht mehr; sie wird im Prinzip ergänzt durch einen Term, die die Auswirkungen der Raumkrümmung beschreibt. Versucht man daraus wieder so eine Art Energieerhaltung zu bekommen, so stößt man auf das oben erwähnte Problem: das Ergebnis ist nicht unabhängig vom Bezugssystem und kann deshalb nicht physikalisch sinnvoll sein. (in der Newtonschen Beschreibung wäre dieses Ergebnis die potenzielle Energie im Gravitationsfeld)

    2) Die Energieerhaltung folgt (abstrakter) letztlich aus der Homogenität der Zeit (siehe Noether-Theorem), das heißt daraus, dass die Physik invariant unter der Wahl der Zeitnullpunkts ist. Offensichtlich wird diese Bedingung aber durch die Expansion des Weltalls verletzt – also gibt es auch keinerlei Grund, warum die Energie erhalten sein sollte…

  68. #69 Alderamin
    31. Juli 2011

    @Bjoern

    Danke für die Erläuterungen.

    Zum Doppler (nicht-relativistisch, nicht-kosmologisch): Betrachten wir mal einen Sender, der Radiowellen ausstrahlt. Der sende einen Wellenzug von so-und-sovielen Wellenlängen aus, was beim Empfänger einer gewissen Empfangsleistung (ExH * Empfängerfläche) * Zeit (die Zeit, in der alle Wellen einlaufen) = empfangenen Energie entspricht.

    Wenn sich der Sender nun entfernt, werden die Wellen gedehnt, da sich der Aussendeort jeder Welle kontinuierlich entfernt, aber die Amplituden bleiben gleich (quadratische Abnahme mit der Entfernung mal außen vor, wenn der Sender weit genug weg ist), d.h. die Leistung nimmt genau um den Faktor k=1+v/c (nichtrelativistisch!) ab, um den der Wellenzug länger wird. Wenn ich also mit meinem Empfänger nun entsprechend länger empfange, dann sammle ich wieder alle Wellenlängen ein und habe einen Wellenzug empfangen, der um einen Faktor 1/k weniger Leistung hatte, aber k-mal länger dauerte, also bleibt die empfangene Energie gleich.

    Oder sehe ich das falsch?

  69. #70 Bjoern
    31. Juli 2011

    @Alderamin: Hm, das Argument klingt nicht-relativistisch schon sinnvoll. Aber wie soll das bei elektromagnetischen Wellen / Photonen funktionieren? Jedes einzelne Photon hat weniger Energie, und die Anzahl der Photonen bleibt ja wohl gleich – also wird insgesamt auch weniger Energie empfangen.

  70. #71 Engywuck
    1. August 2011

    wobei jetzt nur noch die Photonen “real” existieren müssten während des Fluges. Solange keiner nachmisst ist da ja “eigentlich” nur die QM im Spiel… die abgestrahlte Energiemenge sollte zudem ja prinzipiell der empfangenen entsprechen (halbklassisch)

    Über die Nichterhaltung der Energie in der ART bzw. im expandierenden Universum muss ich allerdings auch nochmal nachdenken. Noether-Theorem kannte ich zwar, aber dass das solche Auswirkungen haben kann war mir bisher unklar. Entsteht dadurch *immer* mehr Energie durch die Expansion (auch heute noch) oder kann das auch mal (lokal?) negativ sein?

  71. #72 Eheran
    30. Mai 2012

    Ich möchte kurz etwas anmerken:
    Die viele Rechenleistung ist nicht nötig.
    Alleine die Geschwindigkeit der Simulation kann mit mehr Rechenleistung erhöht werden.
    Die Geschwindigkeit in der Simulation selbst ist nach belieben steuerbar, da nur ein Wert in der Simulation.
    Ich könnte also auch mit meinem Rechner zuhause unser ganzes Universum simulieren – nur halt unglaublich langsam.
    In der Simulation würde die Zeit trozdem völlig normal verlaufen, auch wenn real für eine Sekunde Simulation 1Mrd jahre vergehen.
    Mit genug Rechenleistung wäre also natürlich auch eine höhere Geschwindigkeit möglich.
    Sofern die Programmierung uneingeschränkt korrekt ist und auch unsere Physik uneingeschränkt korrekt und ohne Lücken wäre, könnte man so dann auch die Zukunft berechnen.

  72. #73 Richelieu
    30. Mai 2012

    @Eheran:

    …Sofern die Programmierung uneingeschränkt korrekt ist und auch unsere Physik uneingeschränkt korrekt und ohne Lücken wäre, könnte man so dann auch die Zukunft berechnen…

    Äh! Ich bin wahrhaftig kein Experte in diesem Bereich, aber damit das zutrifft müssen wir dann nicht in einem deterministischen Universum leben? Ich habe immer verstanden das eine der Konsequenzen der Heisenbergschen Unschärferelation eben ein nicht deterministisches Universum sei oder habe ich da etwas falsch verstanden?