Unsere Welt ist nicht statisch. Dinge ändern sich mit der Zeit. Das sollte natürlich auch für quantenmechanische Objekte wie die Wellenfunktion gelten, die wir uns heute angucken. Damit das nicht so trocken wird, habe ich extra für Euch ein paar exklusive Animationen vorbereitet. Viel Mathematik werde ich diesmal nicht benutzen, sondern lieber versuchen, Euch ein “Gefühl” dafür zu vermitteln, wie zeitabhängige Wellenfunktionen aussehen.


Wie schon im zweiten Teil schauen wir wieder auf das beliebte Kastenpotential – unser Elektron ist also in einen Kasten der Länge L fest eingesperrt, drinnen ist seine potentielle Energie überall gleich groß, nämlich V(x)=0.

Die Energieniveaus im Kasten und die zugehörigen Wellenfunktionen hatten wir ja schon in dieser Grafik gesehen:

i-01e94efe5cd81c69e096ab9b7f0e3426-kastenWellen.jpg

Was hier gezeichnet ist, ist der räumliche Anteil der Wellenfunktion ψ(x). Die Wellenfunktion hängt aber auch von der Zeit ab. Die zeitabhängige Wellenfunktion Ψ(x,t) ist nun eine komplexe Zahl, also eine, die einen Real- und einen Imaginärteil hat. Das ist mathematisch erstmal kein großes problem, physikalisch dagegen schon, denn es zeigt, dass man Ψ selbst niemals messen kann: Messwerte können schlecht komplexe Zahlen sein.

Bevor wir uns über die Interpretation der Wellenfunktion mehr Gedanken machen, will ich erst einmal konkret zeigen, wie zeitabhängige Wellenfunktionen aussehen. In unserem Kastenpotential ist die zeit- und ortsabhängige Wellenfunktion für eine Energie E gegeben durch die Formel
Ψ(x,t) = ψ(x) exp(-i E t / ħ)
Dabei ist ψ der räumliche Anteil, den wir ja schon kennen, und E ist die zugehörige Energie der Wellenfunktion, die wir ja im zweiten Teil berechnet haben. ψ(x) wird also mit einer e-Funktion multipliziert, die wir im letzten Teil kennengelernt haben. Das Argument der e-Funktion ist rein imaginär (hat die Form i multipliziert mit einer reellen Zahl). Auch ψ(x) ist eine reelle Zahl.

Wie wir letztes Mal gesehen haben, bedeutet das, dass der zeitunabhängige Funktionswert ψ(x) in der komplexen Ebene gedreht wird, und zwar an allen Ort x gleich. Statt das mit vielen Worten zu erklären, hier eine kleine Animation, die das anschaulich machen soll (die Bilder habe ich mit dem Programm scilab erstellt, eine Art frei verfügbare Version von Matlab, und dann mit dem guten alten gifsicle animiert)

i-19c67d5d3673a0363fb3a6b5b5b397a7-animKasten1.gif

Die schwarze Linie ist die x-Linie, auf der sich unsere Wellenfunktion befindet. Nach rechts ist der Realteil aufgetragen, nach oben der Imaginärteil. Unser Wellenberg rotiert in der komplexen Ebene, aber an allen Orten genau gleich.

Letztes Mal hatten wir ja gesehen, das man jede komplexe Zahl schreiben kann als z exp(ix). Das x-Argument der e-Funktion nennt man manchmal auch die “Phase” der Zahl. In unserer Wellenfunktion für den Kasten ist die Phase nicht ortsabhängig, sondern überall gleich.

Wir können dasselbe Spiel auch mit einer Wellenfunktion mit höherer Energie spielen, hier die Wellenfunktion zum nächsthöheren Energiezustand:

i-f253c3aeb835c5962fef12fffa833972-kasten-level2.gif

Wie man sieht, rotiert sie deutlich schneller – genau viermal so schnell, weil ja ihre Energie auch viermal so hoch ist.

Zugegebenermaßen ist diese Dreherei zwar hübsch anzuschauen, aber letztlich doch ziemlich langweilig, weil die Phase eben nicht vom Ort abhängt.

Interessanter wird es, wenn wir kompliziertere Zustände angucken. Die können wir leicht bekommen: Ist nämlich Ψ1 eine Wellenfunktion mit der Energie E1 und Ψ2 eine Wellenfunktion mit der Energie E2, dann ist auch ihre Summe eine zulässige Lösung der Schrödingergleichung. (Allerdings nicht, wie man denken könnte, mit der Energie E1+E2.)

Wir können also die Summe unserer beiden Wellenfunktionen oben bilden. Dann kommt das hier heraus:

i-3633a445cbadd27a694b1b53c4eb0077-kasten-level-1+2.gif

Schon ganz hübsch, oder? Wenn man die Animation mit den beiden oben vergleicht, dann erkennt man, wie die Überlagerung dazu führt, dass sich die Welle spiralförmig um die Achse windet.

Noch hübscher (und wirrer) wird es, wenn man die ersten vier Funktionen überlagert:

i-45590066818a32b5a260578063d28847-kasten-level-1-4.gif

(Merkt man irgendwie, dass mir das Spielen mit scilab Spaß macht?)

Hier habe ich die Blickrichtung etwas geändert und die Zeitskala ein bisschen gedehnt, sonst hätte man nichts mehr erkannt.

Aber obwohl das natürlich nette Bildchen sind, kann man sich doch fragen, was man mit ihnen anfangen kann. Und da kommen wir nicht umhin, uns mit der Interpretation der Wellenfunktion zu beschäftigen. Was ist denn nun dieses ψ?

Dass ψ selbst keine messbare Größe sein kann, weil es ja komplexe Werte annehmen kann, hatte ich oben schon erklärt. In unserem kleinen Exkurs über komplexe Zahlen hatte ich aber ja erklärt, dass man aus einer komplexen Zahl eine reelle bauen kann, wenn man sie mit ihrem komplex-konjugierten multipliziert. Zur Erinnerung: Wenn ich die Zahl z als a+ib schreibe, dann ist das komplex-konjugierte z*=a-ib, und wenn ich die beiden multipliziere, dann bekomme ich
(a+ib) (a-ib) = a2 + iab – iab + b2 = a2 + b2
Zur Veranschaulichung nochmal ein Bild von Wikipedia dazu:

Komplexe konjugation.svg
Von KmhkmhEigenes Werk, CC-BY 4.0, Link

Man nennt diese Größe auch das Betragsquadrat (Quadrat, weil man die Zahl ja mehr oder weniger mit sich selbst multipliziert, und Betrag, weil ja am Ende eine positive Zahl rauskommt.).

Wir können entsprechend aus unserer Wellenfunktion Ψ(x,t) eine reelle Zahl bekommen, wenn wir Ψ*(x,t)Ψ(x,t) berechnen. Und diese Größe, ich nenne sie mal O(x,t), hat tatsächlich eine – wenn auch schwierige – Interpretation:
O(x,t) gibt die Wahrscheinlichkeit an, das Elektron zur Zeit t am Ort x zu finden. (Mathematisch genau ist’s ne Wahrscheinlichkeitsdichte, aber das ist wieder ne Feinheit für die Theoretikerinnen.) Stellen wir uns vor, wir haben 1000 Kästen mit je einem Elektron drin, und wir versuchen, die Elektronen zu detektieren, beispielsweise mit einem Lichtstrahl, der abgelenkt werden soll. Dann werden wir nach den 1000 Experimenten eine Verteilung der Elektronen finden, die (mit den üblichen statistischen Unsicherheiten) der Funktion O(x,t) entspricht.

Diese Interpretation wirft einiges an Problemen auf, aber das vertage ich auf später. Für heute soll diese relativ simple statistische Interpretation erstmal genügen. Wenn wir also nicht die Wellenfunktion über der Zeit auftragen, sondern ihr Betragsquadrat, also die Funktion O(x,t), dann sehen wir, wie die Wahrscheinlichkeit, das Elektron irgendwo zu finden, sich mit der Zeit entwickelt.

Wie sieht denn nun die Funktion O(x,t) aus? Für die einfachsten Fälle unserer Wellenfunktionen mit konstanter Energie, die wir oben im ersten Bild hatten, ist das ziemlich simpel: Die Funktionen müssen einfach quadriert
werden:

i-d1c36fc8c89582d1ea17d30143236c8e-kastenOrbitale.jpg

Da die Zeitabhängigkeit nur ein konstantes Rotieren war, fällt sie beim Quadrieren weg. (Wer das nachrechnen will, sieht das so: Wenn Ψ(x,t)=z exp(i q) ist, dann ist Ψ*(x,t)=z exp(-iq), weil ich ja in die andere Richtung rotieren muss, wie das Bild oben zeigt. Das Produkt aus beiden ist also z2, unabhängig von der zeitabhängigen Phase.)

Die Wahrscheinlichkeiten sind also zeitlich konstant. Deshalb spricht man bei solchen Zuständen auch von stationären Zuständen – die Phase der Wellenfunktion ist nicht direkt messbar und deshalb merkt man eben nichts von der Zeitabhängigkeit.

Anders sieht das aus, wenn ich die Überlagerung von mehreren Zuständen betrachte. Die Überlagerung der ersten beiden gab ja oben eine spiralig aussehende Kurve. Deren Betragsquadrat sieht so aus:

i-52aac0db7cd1df0e798f531d0d4a9fad-kasten-level-1+2-quad.gif

Hübsch, oder? Das Elektron (bzw. seine Aufenthaltswahrscheinlichkeit) “schwappt” hier von einer Seite zur anderen. Wenn man also in unseren 1000 Kästen die Elektronen detektiert, hängt das Ergebnis davon ab, wann man das tut: Mal findet man sie bevorzugt links, mal rechts im Kasten. (Wobei man nach jeder Detektion natürlich das System irgendwie in den Ausgangszustand zurückversetzen muss.)

Die Überlagerung der Zustände 1-4 kann man auch angucken, sie ist allerdings ziemlich wirr:

i-30f3fc8716b551b043250cef2c122d06-kasten-level-1-4-quad.gif

Immerhin erkennt man, dass die Wahrscheinlichkeit manchmal links besonders hoch ist und manchmal rechts, dazwischen allerdings wuselt die Funktion ziemlich wild herum.

Reale Elektronen sitzen natürlich nicht unbedingt in Kästen – sie können ja auch frei in der Gegend herumfliegen. Auch für freie Elektronen gibt es wieder stationäre Zustände, also solche, bei denen sich die Aufenthaltswahrscheinlichkeit mit der Zeit nicht ändert. Diese Zustände sind komplexe ebene Wellen. Mathematisch haben sie die Form
exp(i (kx – E t/ħ )
wobei E=ħ2 k2 / 2m ist, mit k als der sogenannten “Wellenzahl”. So sieht eine solche ebene Welle aus:

i-7b4f7766a671a63561addce06e570f85-planewave.gif

Sie erinnert an einen sich drehenden Korkenzieher. Die Wellenzahl k hängt dabei mit der Wellenlänge zusammen, also dem Abstand zweier Windungen. Ist diese Wellenlänge λ, dann ist k=2π/λ.

Die Aufenthaltswahrscheinlichkeit ist an allen Orten gleich – unsere ebene Welle ist also gar nicht im Raum lokalisiert. (Es gibt hier eine kleine Schwierigkeit, weil man solche ebenen Wellen eigentlich so normieren müsste, dass die Gesamtwahrscheinlichkeit, das Elektron irgendwo zu finden, gleich 1 ist, aber mit geeigneten mathematischen Tricks kann man diese Probleme umgehen.)

Auch das entspricht natürlich nicht so ganz unserer Vorstellung eines durch den Raum fliegenden Elektrons. Was wäre denn, wenn ich mit einem Elektron anfange, das in einem Bereich des Raumes lokalisiert ist und von dort wegfliegt?

Um so ein Elektron zu bekommen, muss man viele ebene Wellen überlagern. Die Formel dafür ist ziemlich lang, deswegen schreibe ich sie hier nicht hin (wer will, findet sie im Morrison “Understanding Quantum Physics”). Stattdessen zeige ich lieber, wie die Wellenfunktion aussieht:

i-11be6918c88b381cb9c51d6678a1faa5-anim.gif

Anfänglich ist die Korkenzieherwindung auf einen kleinen Bereich beschränkt, aber sie breitet sich in eine Richtung aus und “zerläuft” dabei. Die Aufenthaltswahrscheinlchkeit sieht dabei so aus:

i-f54d3dcc26a793e98f3314563b0e2c5c-packetprob.gif

Das Maximum der Kurve bewegt sich dabei mit konstanter Geschwindigkeit nach rechts, gleichzeitig wird die Position des Elektrons immer unbestimmter, weil die Wellenfunktion (man spricht auch gern vom “Wellenpaket”) immer weiter zerläuft.

Nachdem wir nun gesehen haben, wie Lösungen der zeitabhängigen SGL aussehen, wird es aber doch Zeit, dass wir uns die Gleichung selbst noch einmal angucken. Das tun wir dann im nächsten Teil.


Gesamte Serie zur Schrödingergleichung:

Teil I: die Gleichung
Teil II: Warum die Energie quantisiert ist
Teil III: Jetzt wird’s komplex
Teil IV: Alles im Kasten
Teil V: Alles zu seiner Zeit
Teil VI: Alles unscharf?
Teil VII: Mit dem Kopf durch die Wand
Das Ende der Schrödingergleichung

Kommentare (21)

  1. #1 KommentarAbo
    31. Oktober 2010

  2. #2 Andreas P.
    1. November 2010

    ok ich geb’s zu, von meinen paar Semestern Mathe/Physik ist deutlich weniger hängen geblieben als gehofft, ich werd mir das ganze mindestens noch einmal durchlesen müssen. Aber was ich eigentlich sagen wollte:
    Vielen, VIELEN Dank für den betriebenen Aufwand, bitte weiterführen.

  3. #3 Sascha Vongehr
    1. November 2010

    Oh – immer sehr schoen zeitabhaengige Bilder zu sehen – Danke fuer den Aufwand.

    Kleiner Vorschlag: Und nun noch mal hohe Quantenzahlen die zeigen wie sich die Funktion so langsam aber sicher der klassischen Erwartung annaehert (tut es ja schon fast mit dem von links nach rechts schwappen, der harmonische Oscillator eignet sich da noch besser)

    Sascha von Alpha Meme

  4. #4 rolak
    1. November 2010

    Um auch mal die eher verborgenen Inhalte lobend zu erwähnen: Ich finde es höchst sinnvoll, die links zu der verwendeten software einzubinden, insbesondere dann wenn diese frei ist.

  5. #5 Bjoern
    1. November 2010

    Sehr hübsch, danke!

    Zwei Anmerkungen:

    Auch ψ(x) ist eine reelle Zahl.

    Meintest du hier nicht “komplexe Zahl”?

    und

    …denn es zeigt, dass man Ψ selbst niemals messen kann: Messwerte können schlecht komplexe Zahlen sein.

    Na ja – man könnte ja rein prinzipiell den Betrag und die Phase, was beides jeweils reelle Zahlen sind, messen, und hätte damit Psi selbst gemessen. Oder den Real- und den Imaginärteil. Beide Möglichkeiten funktionieren zwar bei Psi meines Wissens nicht – aber andere komplexe Größen in der Physik kann man durchaus auf diese Weise messen!

  6. #6 MartinB
    1. November 2010

    @Bjoern
    “Meintest du hier nicht “komplexe Zahl”? ”
    Nein – klein-ψ ist hier immer reell und wird dann mit dem Phasenfaktor exp(iEt/ℏ) multipliziert.

    “aber andere komplexe Größen in der Physik kann man durchaus auf diese Weise messen!”
    Wo gibt es denn in der Physik echt komplexe Größen? Bei Wechselströmen etc. ist das ja immer nur ein Rechentrick.

  7. #7 Bjoern
    1. November 2010

    @MartinB:

    Nein – klein-ψ ist hier immer reell und wird dann mit dem Phasenfaktor exp(iEt/ℏ) multipliziert.

    Ups, ja, hatte übersehen, dass du an der Stelle (“hier”) explizit nur von den Wellenfunktionen im Kastenpotential gesprochen hattest; ‘tschuldigung!

    Wo gibt es denn in der Physik echt komplexe Größen?

    Spontan fällt mir da die CKM-Matrix ein.

  8. #8 MartinB
    1. November 2010

    @Bjoern
    Kein Grund zur Entschuldigung.

    Hmm, die CKM-Matrix. Die gibt aber doch Umwandlungen von Quarks ineinander an. Bei Wiki lese ich da
    “Falls sich ein u-Typ-Quark von bestimmtem Flavour, ui, unter Emission eines positiv geladenen W + -Bosons in ein d-Typ-Quark umgewandelt hat, dann entspricht das Betragsquadrat des Matrixelements, | Vij | 2, der (geeignet normalisierten) Übergangswahrscheinlichkeit zu einem Quark des Flavours dj.”
    (Formatierung geht sicher kaputt.)

    Dann ist doch letztlich die CKM-Matrix auch ne Wahrscheinlichkeitsamplitude bzw. sie transformiert Wellenfunktionen. Und wegen der Unitarität sind dann doch am Ende die Koeffizienten wieder reell. Oder sitze ich da nem Denkfehler auf?

  9. #9 Bjoern
    1. November 2010

    @MartinB:

    Und wegen der Unitarität sind dann doch am Ende die Koeffizienten wieder reell. Oder sitze ich da nem Denkfehler auf?

    Les’ mal den Wiki-Artikel weiter, speziell den Abschnitt “Abzählung der freien Parameter”.

  10. #10 MartinB
    2. November 2010

    @Bjoern
    Die Parameter sind komplexe Phasen. Wenn ich mir die matrixgleichungen oben in dem Artikel anschaue, dann multipliziert man die doch an die Quarkzustände – messen tut man dann aber doch letztlich Erwartungswerte, wo die imaginären Anteile sich rausheben, oder verstehe ich da was falsch?
    Gibt es da wirklich komplexe *messgrößen*? Wie misst man die?
    Oder istd as ein Missverständnis – als ich Größen schrieb, meinte ich Messgrößen, ist das das Problem?

  11. #11 Bjoern
    2. November 2010

    @MartinB:

    …messen tut man dann aber doch letztlich Erwartungswerte, wo die imaginären Anteile sich rausheben, oder verstehe ich da was falsch?

    Die imaginäre Phase macht sich letztlich als CP-Verletzung bemerkbar, hebt sich also eben nicht einfach vollständig raus. Dein Denkfehler könnte hier liegen: es kommt eben nicht nur auf den Erwartungswert eines Quarkzustands an, sondern auf Übergangs-Matrixelemente zwischen verschiedenen Quarks; und bei denen hebt sich eine komplexe Phase eben i. A. nicht raus, weil die für verschiedene Quarks unterschiedlich sein kann.

    Gibt es da wirklich komplexe *messgrößen*? Wie misst man die?
    Oder istd as ein Missverständnis – als ich Größen schrieb, meinte ich Messgrößen, ist das das Problem?

    Ich glaube, da müsste man erst mal festlegen, was du genau mit “Messgrössen” meinst… man misst letztlich natürlich reelle Werte; aber aus diesen Messungen kann man dann Rückschlüsse auf die komplexe Phase in der CKM-Matrix ziehen (ich hab’s mal genauer gewusst, müsste ich jetzt aber erst mal nachsuchen, um das wieder zu finden…). Und genau darauf wollte ich ja ursprünglich (01.11.10, 17:49 Uhr) raus: durch Messen reeller Größen kann man letztlich auch komplexe Größen der Physik bestimmen, also “messen”.

  12. #12 MartinB
    2. November 2010

    @Bjoern
    Muss ich nochmal drüber nachdenken. Phasendifferenzen kann man natürlich messen, sieht man ja auch am Aharanov-Bohm-Effekt oder eigentlich immer, wenn man Magnetfelder ins Spiel bringt. Ob das jetzt hier was fundamental anderes ist, ist mir im Moment nicht so klar.

  13. #13 Bjoern
    2. November 2010

    @MartinB: Ich hab’ noch mal in meine alten Experimentalphysik-Vorlesungen reingeschaut. 😉 Da steht ein konkretes Beispiel drin, wo man bei der CP-Verletzung tatsächlich eine komplexe Messgröße hat: Bei Zerfällen der K0-Mesonen. Zur Erinnerung (wenn du in Elementarteilchenphysik promoviert hast, dann hast du das sicher auch schon mal gehört): Es gibt ein langlebiges und ein kurzlebiges K0-Meson, K_L und K_S. Die beiden sind jeweils CP-Eigenzustände mit CP = -1 bzw. +1. Wäre die schwache Wechselwirkung CP-erhaltend, so könnte K_L nur in drei pi-Mesonen zerfallen, K_S nur in zwei. Man hat aber beobachtet, dass K_L auch in zwei pi-Mesonen zerfallen kann. Christenson, Cronin, Fitch und Tuslay haben das 1964 erstmals vermessen; sie definierten eine Größe eta als Verhältnis der Wahrscheinlichkeitsamplituden von K_L –> 2 pi zu K_S zu 2 pi. Und dieses eta ist in der Tat komplex, und dafür wurden Betrag und Phase separat gemessen.

    Jetzt könnten wir uns natürlich noch darüber streiten, ob dieses eta eine “Messgröße” ist…

  14. #14 MartinB
    2. November 2010

    @Bjoern
    Stimmt, da war was (lange ist’s her…).
    Muss ich nochmal ein bisschen drüber grübeln – aber das K0 ist auf jeden Fall einfacher zu handeln als die volle CKM-Matrix.

  15. #15 H.M.Voynich
    4. November 2010

    Ich möchte auch einfach mal Danke sagen, ganz ohne Nörgelei. Tolle Animationen.
    Und auch die anschließenden Diskussionen möchte ich nicht missen, auch wenn ich davon nicht die Hälfte verstehe.
    Aber CP-Verletzung als “realitärer” Ausdruck einer imaginären Größe – das hat etwas … schönes.

  16. #16 MartinB
    4. November 2010

    @HM Voynich
    Danke. Ich hab den K0-Zerfall mal auf die ständig wachsende Liste möglicher Blogthemen gesetzt – wird sicher etwas dauern.

  17. #17 Bjoern
    4. November 2010

    @MartinB: Auf die Gefahr hin, zu nerven – ein Beispiel hätte ich noch. 😉 Die Phase von psi kann man zwar nicht direkt messen – aber den Gradienten der Phase. Die Wahrscheinlichkeitsstromdichte ist nämlich proportional zu diesem Gradienten – und ich würde schon sagen, dass man diese Dichte messen kann…

  18. #18 MartinB
    5. November 2010

    @Bjoern
    Hmmmm, da muss ich auch erstmal drüber nachdenken – Wahrscheinlichkeitsdichten sind ja keine direkten Messgrößen.
    Auf jeden Fall danke für die Tipps – wenn mein Nachdenken zu irgendwas sinnvollem führt, dann gibt’s bei gelegenheit einen Post zum Thema.

  19. #19 Martin
    5. November 2010

    Sehr coole Artikelreihe! Hilft mir viel die Quantenphysik-Vorlesung zu verstehen! Danke! Bau mal Flattr ein 🙂

  20. #20 Aisling Stewart
    3. April 2015

    Vielen Dank, jetzt wird alles klar!

  21. #21 B. Kropp
    Berlin
    24. September 2015

    Diskutiere gerade Quark im Kasten mit anderen!
    Wenn Kasten kein Quader sondern eine Kugel ist, hat das welche Konsequenzen? Kann man typische psi-Funktionen
    in der Kugel auch animiert darstellen?
    Confinment als unendliche Energiebariere am Kugelrand angenommen.
    Dabei ergibt sich folgende Frage: Ist die pot. Energie eines Quarks im Nukleon überall gleich? ein Zentralfeld gibt es doch sicher nicht!
    Besten Gruß
    B. Kropp