Edelgase bestehen aus Atomen, die sich normalerweise nicht chemisch binden, weil sie eine günstige Anordnung ihrer Elektronen haben (eine “volle Elektronenschale”), die chemische Bindungen energetisch wenig attraktiv machen. (Traktiert man sie mit hinreichend fiesen Reaktionspartnern, können sich aber einige Edelgase wie Xenon doch chemisch verbinden, aber das sind exotische Ausnahmen.) Edelgase haben also eigentlich keine Anziehungskräfte mit anderen Atomen und Molekülen. Trotzdem werden sie flüssig und schließlich (mit Ausnahme von Helium) fest, wenn man sie abkühlt. Auch andere chemisch gesättigte Moleküle bilden irgendwann Flüssigkeiten und Festkörper. Wieso eigentlich? Diese Anziehungskraft beruht auf rein quantenmechanischen Effekten, wird aber gern verwirrend dargestellt.

Schauen wir erst einmal auf die “handelsübliche” Erklärung dieser so genannten van-der-Waals-Kräfte, die zwar die Grundidee richtig darstellt (anders als es einst ein gewisser Chemie-Lehrer tat, der im Chemie-Leistungskurs ernsthaft behauptete, die van-der-Waals-Wechselwirkung beruhe auf Gravitation…), aber leider ein paar Grundlagen der Quantenmechanik ignoriert. Und da ich gerade merke, dass ich gleich einen Schreibkrampf bekomme, kürze ich ab sofort die Wechselwirkung mit vdW-Wewi oder vdW-Kraft ab (und bei meinem momentanen Talent für Tpipfehler werde ich das mit der Groß- und Kleinschreibung auch nicht immer korrekt machen, fürchte ich,). Anmerkung: Ich spreche hier pauschal von vdW-Kräften – man kann auch etwas genauer sein und unterschiedliche Aspekte unterscheiden, dann müsste man von der Londonschen Dispersionswechselwirkung sprechen oder von der vdW-Wewi im engeren Sinne. Details dazu erklärt euch der Quell allen Wissens.

Ein Atom besteht ja aus einem schweren geladenen Kern und einer Elektronenhülle. Im halb-klassische Bohrmodell kreisen die Elektronen wie kleine Planeten um den Atomkern, aber dieses Bild ist zwar anschaulich nett, aber letztlich falsch. Laut Quantenmechanik muss man die Elektronen über ihre Wahrscheinlichkeit beschreiben, sich an einem bestimmten Ort aufzuhalten (wenn ihr mehr über die Grundlagen der Qm lesen wollt, dann klickt rechts bei Artikelserien, da findet ihr ziemlich viel zum Thema…). Man kann sich die Elektronen also als eine Art “Wolke” vorstellen, die das Atom umgibt, so wie in diesem Bild hier (aus einem Buch, das ich sehr empfehlen kann, muhaha):

funktionswerkstoffe3-4

Da das Elektron sich irgendwo in der Wolke aufhält, kann man sich vorstellen, dass es mal am einen und mal am anderen Ort ist – die Wolke soll ja die Wahrscheinlichkeitsverteilung angeben. Und wenn das so ist, dann  kann man sich wiederum vorstellen, dass das Elektron mal auf eher der einen Seite des Kerns sitzt und mal eher auf der anderen.

Hat man jetzt zwei Atome nebeneinander, dann sind in jedem dieser beiden Atome die Elektronen in ihren Wolken verteilt. Und wenn man diese Atome jetzt aneinander annhähert, dann ist es energetisch günstig, wenn die Elektronen sich so anordnen, dass das eine Elektron zwischen den beiden Atomkernen ist, das andere aber nicht, so wie in diesem Bild hier:

vdw

(Bild von der FU Berlin, Urheberin Mirjam Brockmann, CC License 4.0, wenn ich diesen Hinweis richtig verstehe)

Hier sehen wir, wie sich das Elektron bei beiden Atomen eher etwas weiter links aufhält. Weil der Atomkern positiv geladen ist, ist bei jedem der eigentlich ja elektrisch neutralen Atome die Ladung so verschoben, dass auf der linken Seite etwas mehr negative und auf der rechten Seite etwas mehr positive Ladung zu finden ist. Jedes der Atome bildet damit einen sogenannten elektrischen Dipol. Diese beiden Dipole ziehen sich dann an (weil sich positive und negative Ladung anziehen) und sorgen so für die Kraft zwischen den Atomen.

Nur damit hier keine Missverständnisse aufkommen: Ich mache niemandem einen Vorwurf, der diese Erklärung der vdW-Wewi verwendet. Erstens enthält sie viele richtige Elemente, zweitens steht es so fast überall und drittens muss man manchmal Dinge auch vereinfachen – in dem Link der FU geht es zum Beispiel um Kunststoffe, da will man nicht erst nen Semester Quantenmechanik beibringen. Ich habe die Erklärung auch selbst (allerdings mit dem Hinweis, dass sie vereinfacht ist) verwendet. Hier geht’s nicht darum, dass ich mich über Leute aufregen will, die vereinfachte Erklärungen verwenden, weil das gerade didaktisch sinnvoll ist – aber es schadet ja nix, mal etwas genauer hinzusehen.

Soweit die übliche Erklärung. Sobald man aber etwas darüber nachdenkt und ein paar Grundlagen der Quantenmechanik (QM) berücksichtigt, lässt sie einen ratlos zurück: Die QM sagt uns, dass die Wahrscheinlichkeitsverteilung der Elektronen in einem System, das sich im energetisch günstigsten Zustand befindet, zeitlich unveränderlich ist. Das ist eine Form der berühmten Unschärfe-Relation, nach der es eine (allerdings gern missverstandene) Energie-Zeit-Unschärfe gibt. Ist die Energie genau bestimmt (und das ist sie im  Zustand minimaler Energie), dann ist die “Zeitunschärfe” unendlich, oder anders gesagt, der Zustand kann sich mit der Zeit nicht ändern. Ein System mit minimaler Energie ist also absolut stationär, da sich die Wahrscheinlichkeit, das Elektron irgendwo zu finden, zeitlich nicht ändern.

Tja, wenn das aber so ist, dann passt die anschauliche Erklärung der vdW-Wewi nicht mehr so richtig gut, oder? Auch wenn man da natürlich annimmt, dass das System im zeitlichen Mittel stabil ist, braucht man ja doch die momentane Ladungsverteilung, damit die Kraft entsteht. (Ich hoffe, hier ist niemand verwirrt, weil ich mal über Kräfte und mal über Energien rede: Wenn zwei Objekte sich mit einer Kraft anziehen, dann verringert sich ihre Energie, wenn sie sich näherkommen. Deswegen kann man über Wechselwirkungs-Energien oder über Kräfte reden, je nachdem, was gerade passt. Nachher werden wir deshalb die Energie angucken, wenn die beiden Atome, die wir binden wollen, einen bestimmten Abstand haben – wenn diese Energie kleiner wird, wenn wir den Abstand verringern, dann ist die Kraft anziehend.) Und ohne diese momentane Ladungsverteilung klappt die Erklärung mit der vdW-Kraft leider nicht. Entweder der Zustand ist stationär, dann ist aber die Ladungsverteilung symmetrisch und es gibt kein momentanes Ungleichgewicht, oder er ist eben nicht stationär – aber dann ist es kein stabiler gebundener Zustand (und das sollte er sein, wenn zwei Atome oder Moleküle aneinander gebunden sind).

Um zu sehen, was hier tatsächlich passiert, basteln wir uns ein einfaches Modell (das ich diesem Artikel entnommen habe), zunächst mal für ein einzelnes Atom. Wir nehmen an, dass das Atom ein einzelnes Elektron hat, das an den Atomkern gebunden ist und das für die vdW-Wewi verantwortlich ist. (Das Atom muss also nicht unbedingt ein Wasserstoff-Atom sein, wir betrachten der Einfachheit halber eben nur eins der Elektronen.) Um die Sache noch weiter zu vereinfachen, nehmen wir außerdem an, dass die Welt eindimensional ist, unser Elektron kann sich also irgendwo entlang einer Linie aufhalten, aber sonst nichts.

Als letztes nehmen wir noch an, dass die Wechselwirkung zwischen Elektron und Atomkern nicht die normale elektrostatische Anziehung ist, sondern dass wir sie über ein sehr einfache Kraftgesetz beschreiben können, bei dem die Kraft proportional zum Abstand des Elektrons vom Kern ist, so wie bei einer Feder. Je stärker man dehnt, desto größer die Kraft. Die Kraft ist also gleich Null, wenn sich das Elektron genau beim Kern aufhält und nimmt dann nach außen hin immer weiter zu. (Warum machen wir diese ganzen vereinfachenden Annahmen? Weil man dann die Lösung des Problems am Ende relativ leicht berechnen und auch interpretieren kann – ich führe die Rechnung hier nicht vor, weil die in dem zitierten Artikel drin ist und so etwas für Nicht-PhysikerInnen ja immer eher abschreckend wirkt. Außerdem ist die Interpretation eh interessanter als die Rechnung selbst.)

Ein solches System nennt man einen harmonischen Oszillator. Betrachtet man ihn zuerst mit den Mitteln der klassischen Physik, dann nimmt die Energie des Elektrons nimmt nach außen hin quadratisch zu, wenn man sie graphisch darstellt hat sie also die Form einer Parabel. (Dass das so sein muss, davon könnt ihr euch mit den Mitteln der Schulphysik leicht überzeugen: Arbeit ist Kraft mal weg. Wenn ich also das Elektron immer weiter entferne, lege ich zum einen einen immer größeren Weg zurück, zum anderen steigt aber auch die Kraft proportional zum Weg.) Die Energie, die das Elektron an einem bestimmten Ort nach den regeln der klassischen Physik hätte, nennen wir das Potential:

hoAtom1

Anmerkung: Es mag auf den ersten Blick verwirrend sein, dass wir die Regeln der klassischen Physik nehmen, um das Potential zu bestimmen, um dann hinterher Quantenmechanik zu betreiben – zumal in der Quantenmechanik ein Elektron, das einen ganz bestimmten Abstand zum Atomkern hat, ja gar keine eindeutige Energie besitzt. So sind aber die Spielregeln: In die Schrödingergleichung (siehe die Artikelserien) geht das Potential ein, also die Energie, die ein klassisches Elektron, das ein Punktteilchen wäre, an einem bestimmten Ort hätte. Alternativ kann man sich das vielleicht auch mit dem Pfadintegral verstehen (zu dem sage ich unten eh noch etwas): Darin betrachtet man alle denkbaren Wege, die ein Elektron als punktteilchen gehen könnte, und überlagert die dann in bestimmter Weise, um das Endergebnis auszurechnen. Also nicht verwirren lassen: Wenn ich von der Energie (oder dem Potential) an einem punkt spreche, dann ist die “klassische” Energie gemeint – ein echtes quantenmechanisches Elektron dagegen, das eine bestimmte Energie hat, sitzt nie an einem einzigen Punkt, sondern hat eine über den Raum passend verteilte Aufenthaltswahrscheinlichkeit. (Falls euch das immer noch verwirrt, dann hinterlast bitte einen Kommentar – das gilt generell für diesen Artikel, ich habe keine Ahnung, ob der für nicht Physikerinnen verständlich ist, also bitte im Zweifel unten beschweren.)

Wie der harmonische Oszillator quantenmechanisch funktioniert, habe ich neulich schon mal ausführlich erklärt, also folgt hier nur die Kurzfassung. Man kann dieses Problem relativ leicht lösen – im Zustand mit der niedrigsten Energie kommt heraus, dass das Elektron die größte Wahrscheinlichkeit dicht am Atomkern hat, aber auch in einem gewissen Abstand zum Kern gefunden werden kann. So etwa sieht die Verteilung für den Ort des Elektrons aus, wenn man sie in das Potential einzeichnet (das schematisch eingezeichnete Elektron hat dabei eigentlich keine Bedeutung mehr und soll euch nur erinnern, dass wir es mit einem Oszillator zu tun haben):

hoAtom2

Die Breite der Verteilung hängt dabei davon ab, wie stark das Elektron an das Atom gebunden ist (also davon, wie steil die Parabel für das Potential ist) – je stärker die Bindung ist, desto schmaler ist die Verteilung und desto höher ist die Energie des Elektrons. (Dass die Energie bei stärkerer Bindung höher wird, mag verwirrend erscheinen, lässt sich aber wie folgt erklären: Wir haben den Energie-Nullpunkt ungewöhnlich gewählt, normalerweise wählt man ihn so, dass die Energie des ungebundenen Elektrons verschwindet, aber das geht hier nicht, weil die Energie mit zunehmender Entfernung immer größer wird. Man kann sich dann mit Hilfe der Unschärferelation anschaulich machen, dass ein Elektron, das auf einen schmaleren Bereich begrenzt ist und dessen Ort deswegen genauer bekannt ist, eine größere Unschärfe im Impuls haben muss, so dass die Energie größer ist.)

Also: Das Elektron hat eine Aufenthaltswahrscheinlichkeit um den Atomkern herum. Diese ist zeitlich vollkommen konstant (der Zustand hat eine eindeutige Energie und ist deswegen stationär). Messen könnt ihr diese Verteilung nur statistisch, wenn ihr sehr viele solcher Atome untersucht und den Ort des Elektrons bestimmt; dann kommt am Ende eben diese Verteilung heraus. (Ja, das ist verwirrend – aber das liegt nicht an meiner Erklärung (oder jedenfalls nicht nur) sondern einfach daran, dass die QM nun mal verwirrend ist – rechts bei den Artikelserien könnt ihr Details zu diesem Problem in den verschiedenen Artikeln nachlesen.)

Als nächstes – eigentlich geht es in diesem Artikel um die vdW-Wewi, erinnert sich noch jemand? – nehmen wir noch ein zweites identisches Atom hinzu, das wir – in einigermaßen großer Entfernung – rechts vom ersten Atom platzieren, etwa so (ich vereinfache das Bild jetzt etwas…):

hoAtom3

Diese beiden Atome (eigentlich sollte ich wohl, weil das Modell so extrem vereinfacht ist, “Atome” in Anführungsstiche setzen, aber das spare ich mir aus Faulheit) – also diese beiden Atome wechselwirken jetzt miteinander. Um zu sehen, wie sie das tun, nehmen wir mal kurz an, die Elektronen wären jeweils an einem Ort lokalisiert und schauen auf verschiedene Möglichkeiten:

hoAtom4

Die vier Kürzel stehen dabei für die lage der Elektronen, rechts oder links vom jeweiligen Kern

Jedes der Atome bildet hier im Bild einen Dipol, und die Energie ist natürlich dann kleiner, wenn sich positive und negative Ladungen abwechseln als wenn in der Mitte zwei positive oder zwei negative Ladungen aufeinandertreffen. Die Anordnungen LL und RR sind also energetisch günstig, LR oder RL dagegen eher ungünstig. (Warnung: Auf den ersten Blick mag das Konstrukt hier sehr an die Beschreibung des Wasserstoff-Moleküls aus diesem Artikel erinnern, wo aber ein ganz anderes Ergebnis herauskam. Der Grund ist der, dass im Modell hier die beiden Atome so weit voneinander entfernt sind, dass wir annehmen, dass es zum einen keinen Unterschied in der Energie zwischen der Anordnung LR und der Anordnung RL gibt, und dass zum anderen die Aufenthaltswahrscheinlichkeit der Elektronen in der Mitte zwischen den Atomen verschwindend klein ist.)

Falls ihr gerade verwirrt seid, dass ich erst die Elektronen mit ihrer Aufenthaltswahrscheinlichkeit beschreibe und jetzt doch wieder klassische Bildchen male: Um die Energie eines Elektrons (mit Hilfe der Schrödinger-Gleichung) zu berechnen, braucht man ja (siehe oben) das Potential, also die Energie als Funktion des Ortes für jeden Ort, die das Elektron hätte, wenn es ein klassisches Teilchen wäre – daraus kann man dann die Aufenthaltswahrscheinlichkeit berechnen.

Wir haben jetzt ein auf den ersten Blick kniffliges Problem, weil die Energien der beiden Elektronen sich gegenseitig beeinflussen. Nach den Regeln der QM passiert jetzt etwas ziemlich kompliziertes: Es gibt nicht mehr eine Aufenthaltswahrscheinlichkeit für das eine Elektron und eine zweite für das andere Elektron, sondern die beiden Wahrscheinlichkeiten sind korreliert: Die Wahrscheinlichkeit, das linke Elektron am Ort x zu finden, hängt davon ab, wo das rechte Elektron sitzt. (Mathematisch äußert sich das so, dass wir die Funktion \psi(x_1,x_2) betrachten müssen, wobei sich die nicht einfach als Produkt zweier Funktionen \psi_1(x_1) \psi_2(x_2) schreiben lässt.)

Als nächstes überlegt man sich folgendes: Die Energie zwischen den beiden Atomen hängt ja davon ab, ob die Elektronen auf derselben Seite ihres jeweiligen Atoms sitzen oder nicht. Sitzen sie beide in der Mitte, also in der Anordnung RL (dann ist ihr Abstand besonders klein), ist das energetisch ungünstig, sitzen sie beiden an ihrem Atom “außen” (in der Anordnung LR), dann ist das energetisch auch schlecht. Aber wie bei Goldlöckchen und den drei Bären gibt es auch hier einen Abstand, der genau richtig ist – wenn nämlich die beiden Elektronen genau so weit voneinander entfernt sind wie die beiden Atomkerne, so wie bei den Bildern LL und RR. Deshalb ist es praktisch, wenn wir nicht die Orte der Elektronen selbst betrachten, sondern den Abstand zwischen ihnen nehmen, um das Problem zu beschreiben.

Es reicht aber natürlich nicht, den Abstand der beiden Elektronen zu kennen, um zu wissen, wo sie sind (ich brauche zwei Zahlen, für jedes Elektron eins). Zusätzlich können wir noch den Mittelpunkt (oder Schwerpunkt) zwischen den beiden Elektronen betrachten. Sitzt der genau in der Mitte zwischen den Atomen, dann ist die Anordnung der Elektronen spiegelsymmetrisch; ansonsten sind die Elektronen nach links oder rechts verschoben. Ich habe die Schwerpunkte mal mit einem x gekennzeichnet (es wurde zwar noch nie in der Geschichte der Archäologie ein Schatz bei einem “x” gefunden, aber gegen einen Schwerpunkt spricht hoffentlich nichts):

hoAtom5

Statt das Potential also über die beiden Orte der Elektronen zu beschreiben, beschreiben wir es über den Abstand und die Lage des Schwerpunkts. Und wenn man das tut, dann zeigt sich der Nutzen unseres extrem vereinfachten Modells mit dem simplen Federgesetz: Die vorher komplizierte Gleichung zerfällt (jedenfalls für hinreichend große Atomabstände) sauber in zwei Teile. Es gibt eine Gleichung für die Lage des Schwerpunkts, eine zweite für den Abstand. Und jede dieser Gleichungen sieht genau so aus wie die Gleichung eines harmonischen Oszillators. Damit sind dann auch die Lösungen dieselben wie für den Oszillator.

Der Schwerpunkt der beiden Elektronen ist also im Mittel so verteilt (die schwarze Kurve):

hoAtom6

Am wahrscheinlichsten ist eine Lage in der Mitte, aber auch rechts und links von der Mitte mag sich der Schwerpunkt aufhalten.

Und der Abstand der beiden Elektronen hat diese Verteilung (das ist jetzt etwas schwierig zu zeichnen – das Bild ist so gemeint, dass ich den Nullpunkt des Abstandes immer beim linken Elektron habe; dann der Abstand zwischen den beiden Elektronen am wahrscheinlichsten, der genau dem Atomabstand entspricht. Ich hoffe, man kann das irgendwie verstehen):

hoAtom7

Schaut man sich die Verteilungen genauer an, so stellt man fest, dass die Breite der Verteilung für die Schwerpunktslage etwas größer ist als die ursprüngliche Breite der Verteilung für eins der beiden Elektronen. Umgekehrt ist die Breite der Verteilung des Abstands etwas schmaler. Das ist auch plausibel, denn wir haben ja gesehen, dass es eben energetisch besonders günstig ist, wenn die beiden Elektronen den richtigen Goldlöckchen-Abstand haben. Umgekehrt ist es dann aber eben wahrscheinlicher, beide Elektronen links oder rechts von ihrem Atom zu finden, so dass die Breite der Verteilung für den Schwerpunkt größer ist.

In der Summe stellt sich heraus (weil die Breite der Verteilung ja etwas mit der Energie zu tun hat), dass man insgesamt durch die Wechselwirkung etwas Energie gewinnt – es ist energetisch günstiger, wenn die beiden Atome in dieser Weise wechselwirken, als wenn sie es nicht tun. Und je kleiner der Abstand der Atome ist, desto größer ist der Energiegewinn. Es ist also energetisch günstig, wenn sich die Atome annähern – mit anderen Worten: Sie ziehen sich an. Und das ist genau die vdW-WeWi.

Insofern klingt das wieder sehr ähnlich zu der Erklärung, die ich am Anfang vorgestellt habe. Aber tatsächlich ist der Zustand der Elektronen eben nicht einfach so, wie im Bild ganz oben dargestellt, so dass die Elektronen mal links und mal rechts vom Atomkern sind, sondern der Zustand ist eine Überlagerung aus solchen Bildern. Deshalb kann er auch vollkommen zeitunabhängig sein, und trotzdem ist die Wahrscheinlichkeit größer, beide Elektronen jeweils entweder rechts oder links von ihrem Atomkern zu finden.

Interessanterweise taucht diese Verwechslung zwischen dem “momentanen” (und letztlich falschen) Bild und dem tatsächlichen quantenmechanischen Bild sogar in dem zitierten Artikel auf. Dort steht: “there is a shift [of the energy] … since at any given instant of time there exists an instantaneous dipole moment in, say, atom #1. ” [Es gibt eine Verschiebung [der Energie] … weil es in jedem Moment ein momentanes Dipolmoment in beispielsweise Atom #1 gibt.] Was wieder einmal zeigt, dass auch PhysikerInnen sich gern mal etwas falsche Anschauungen basteln.

Man kann sich das ganze auch im Pfadintegral-Bild anschaulich machen (das ich ausführlich in diesem Artikel erklärt habe). Danach kann man das Verhalten von Elektronen dadurch beschreiben, dass man alle denkbaren Möglichkeiten für das, was die Elektronen tun können, aufschreibt und für jede dieser Möglichkeiten dann eine Zahl berechnet. Alle diese Zahlen aufaddiert erlauben es dann, die Wahrscheinlichkeit für einen bestimmten Prozess zu berechnen. (In dem verlinkten Artikel wird das genauer erklärt.)

Für die vdW-Wewi heißt das jetzt, dass wir zum Beispiel alle Möglichkeiten angucken können, wie zwei Elektronen, die am Anfang genau in der Mitte sitzen, das nach einem bestimmten Zeitraum wieder tun. (Der genaue mathematische Formalismus ist hier ziemlich fies, aber die Idee ist zum Glück einfach):

hoAtom8

Berücksichtigt man jetzt die Wechselwirkung der elektrischen Dipole in jeder dieser Situationen, dann sieht man, dass man die beiden Elektronen nicht isoliert betrachten kann, sondern dass die Pfade sich gegenseitig beeinflussen. Pfade der Elektronen wie in diesem Bild hier

hoAtom9

leisten dann wegen der Energieersparnis einen größeren Beitrag zum Endergebnis als zum Beispiel dieser:

hoAtom10

Auch in diesem Bild ist es wichtig, dass man die Pfade der Elektronen gemeinsam betrachtet: Die Wahrscheinlichkeit für die unterschiedlichen Pfade des linken und des rechten Elektrons sind gekoppelt, und genau das führt dann am Ende dazu, dass die Energie des Systems sich verringert.

In diesem Bild kann man übrigens auch berücksichtigen, dass sich die beiden Elektronen (bzw. die Dipole) über ein elektrisches Feld beeinflussen, das man sich wiederum als aus Photonen bestehend vorstellen kann. Diese komplexere Betrachtung wird in dem zitierten Paper (s.u.) auch angesprochen (tatsächlich macht sie den Großteil aus, während das, was ich hier vorgeführt habe, auf nicht mal eine Seite passt…), aber ich gebe zu, dass ich mir diesen Aspekt nicht so genau angesehen habe.

Egal welches Bild ihr betrachtet: Die vdW-Wewi beruht darauf, dass die Energie der beiden Elektronen vom relativen Ort der beiden abhängt. Diese Korrelation hat auch dann einen Einfluss, wenn man berücksichtigt, dass der gesamte quantenmechanische Zustand vollkommen zeitunabhängig ist – trotzdem können die Orte der Elektronen sich beeinflussen. Dass auch Edelgase irgendwann flüssig und fest werden, verdanken wir nur diesen Korrelationen. Wieder einmal ein schönes – wenn auch etwas kompliziertes – Beispiel für die seltsamen Verwicklungen in der Quantenwelt.

                 

Holstein, Barry R. “The van der Waals interaction.” American Journal of Physics 69.4 (2001): 441-449.

Kommentare (66)

  1. #1 Bjoern
    29. Juli 2014

    Mal wieder schön erklärt… 🙂 Verstehe ich das richtig, dass das im Prinzip derselbe Gedankengang ist, wie wenn man sich das Wasserstoff-Molekül anschaut und dort bindende und nicht-bindende Molekülorbitale als Linearkombinationen aus den Atomorbitalen bastelt?

    Und noch eine andere Frage, die im Artikel nur am Rande behandelt wird: Schauen wir uns mal ein festes Edelgas an und erhöhen die Temperatur. Die Atome schwingen dann immer schneller. Irgendwann ist die thermische Energie größer als die (vdW-)Bindungsenergie. Soweit alles klar. Was mir da aber nicht klar ist: Wieso erhält man dann erst mal eine Flüssigkeit und nicht gleich ein Gas? Wenn die Teilchen nicht mehr aneinander gebunden sind, wieso hat man dann kein Gas?

    Oder anders gefragt: Wie hat man sich eigentlich auf mikroskopischer Ebene den Unterschied zwischen einer Flüssigkeit und einem Gas vorzustellen? In meiner Festkörperphysik-Vorlesung (lang ist’s her) war da irgendwie von “langreichweitigen Korrelationen” oder so die Rede – das hilft mir zum Verständnis aber nicht weiter…

  2. #2 Thomas
    29. Juli 2014

    Ich finde es etwas merkwürdig, bei dem Satz mit dem “instantaneous dipole moment” aus dem verlinkten Artikel von einer falschen Anschauung zu sprechen. Das hat was von xkcd #895 (https://xkcd.com/895/). Jede Veranschaulichung ist streng genommen falsch (sonst wäre sie ja überflüssig, weil man genauso gut direkt mit der “Wahrheit” arbeiten könnte).
    Und wenn ich das richtig sehe, erzeugt dieses halbklassische Bild in diesem Fall kein falsches Ergebnis; die van-der-Waals-Wechselwirkung scheint (zumindest im führenden Term) kein intrinsisch quantenmechanischer Effekt zu sein. Was also spricht ernsthaft dagegen? Oder gibt es eine bessere (korrektere) Art, sich das anschaulich vorzustellen?

  3. #3 MartinB
    29. Juli 2014

    @Bjoern
    “Verstehe ich das richtig, dass das im Prinzip derselbe Gedankengang ist, wie wenn man sich das Wasserstoff-Molekül anschaut und dort bindende und nicht-bindende Molekülorbitale als Linearkombinationen aus den Atomorbitalen bastelt?”
    Nein. Beim H2-Molekül ist der Überlapp der Wellenfunktionen entscheidend, der sorgt dann für die Energiemidnerung. Deswegen kann es auch ein gebundenes H2+-Molekül geben, das nur ein Elektron hat. Die Wewi der Elektronen spielt keine Rolle, du löst einfach die 1-Teilchen SGL. Die vdW-Wewi gibt es nur wegen der Korrelation der beiden Elektronen.

    Zum Unterschied flüssig/gasförmig: In einer Flüssigkeit gibt es zu jedem Moleküle viele Bidungen an benachbarte Moleküle, diese werden nur ständig gelöst und neu geknüpft. Die Grenze zum Gas ist aber nicht scharf, deswegen gibt es ja auch den kritischen punkt.

    @Thomas
    “von einer falschen Anschauung”
    Wenn von einem “momentanen Moment” gesprochen wird, dann hat das in einem stationären Zustand nun mal keinen Sinn.

    “erzeugt dieses halbklassische Bild in diesem Fall kein falsches Ergebnis”
    In welchem Sinne? Das halbklassische Bild ist nichts, mit dem man die vdW-Wewi ausrechnen kann, was meinst du also mit “erzeugen”?

    “die van-der-Waals-Wechselwirkung scheint (zumindest im führenden Term) kein intrinsisch quantenmechanischer Effekt zu sein. ”
    Woran machst du das fest? Gibt es eine klassische Erklärung der Wewi?

  4. #4 Thomas
    29. Juli 2014

    @MartinB:
    Kleine Erbsenzählerei am Rande: Strenggenommen sind das ja keine stationären Zustände; das wären sie nur ohne die Wechselwirkung.

    Die halbklassische Herleitung kommt in dem Holstein-Artikel doch direkt nach dem “instantaneous dipole moment”. Dipolmoment am einen Atom induziert eines am anderen und deren Wechselwirkungsenergie liefert die vdW-Kraft.
    Von daher würde ich erwarten, dass es eine solche Anziehungskraft auch zwischen Objekten gibt, wo man es nicht mit einer Wahrscheinlichkeitsdichtefunktion, sondern einer klassischen Ladungsdichte zu tun hat.

  5. #5 Bjoern
    29. Juli 2014

    In einer Flüssigkeit gibt es zu jedem Moleküle viele Bidungen an benachbarte Moleküle, diese werden nur ständig gelöst und neu geknüpft.

    Wie funktioniert das, wenn die thermische Energie größer als die Bindungsenergie ist? Oder habe ich mir das so vorzustellen, dass man da ja eine statistische Verteilung hat, es also immer ein paar Moleküle gibt, deren thermische Energie gerade niedrig genug ist, dass noch eine Bindung zustande kommen kann?

    Die Grenze zum Gas ist aber nicht scharf, …

    Wenn es zum Gas (und anscheinend auch zum Festkörper) mikroskopisch gesehen keine scharfe Grenze gibt – wieso beobachtet man dann makroskopisch gesehen an beiden Übergängen einen Phasenübergang? Warum hat man beim Übergang Festkörper – Flüssigkeit – Gas zwei “Sprünge” statt einfach einen kontinuierlichen Verlauf?

  6. #6 MartinB
    30. Juli 2014

    @Thomas
    ” Strenggenommen sind das ja keine stationären Zustände”
    Warum nicht? Es gibt eine genaue Bindungsenergie, also ist der Zustand stationär. Warum sollte er das auch nicht sein – die 2-teilchen-SGL hat eine Lösung minimaler Energie. (Auch wenn man die zumindest im paper nur per Störungstheorie abschätzt.)

    @Bjoern
    “Oder habe ich mir das so vorzustellen, dass man da ja eine statistische Verteilung hat, es also immer ein paar Moleküle gibt, deren thermische Energie gerade niedrig genug ist, dass noch eine Bindung zustande kommen kann?”
    Ich würde eher andersherum sagen: Die thermische Energie ist groß genug, dass sie Bindungen mit hinreichend hoher Wahrscheinlichkeit knacken kann.
    Ich glaueb, du findest sehr schöne Animation (vielleicht auch für deine SuS geeignet) hier (habe aber gerade kein funktionierendes Java zur Hand…):
    https://mw.concord.org/modeler/

    Mit “die Grenze ist nicht scharf” meinte ich, dass es ja einen kritischen Punkt gibt und dass man sozusagen “um den Phasenübergang herumlaufen” kann:
    https://de.wikipedia.org/wiki/Kritischer_Punkt_%28Thermodynamik%29
    Bei normalen Bedingungen ist der Übergang natürlich deutlich, weil sich die Verhältnisse da drastisch ändern (wie man ja auch am Dichteunterschied flüssig-gasförmig sieht). Sorry, wenn das verwirrend war.
    Aber hmmm, vielleicht wäre es ja mal ne gute Idee, über solche sehr grundlegenden Sachen zu schreiben statt immer abgefahrenere Beispiele aus der QM…

  7. #7 Thomas
    30. Juli 2014

    @MartinB:
    Der vollständige Zweiteilchenzustand psi(x1, x2) ist natürlich stationär. Aber ich (und mein Eindruck war dass auch du) sprach von den ungestörten Zuständen der Elektronen in den einzelnen Atomen. Also im Modell aus dem Artikel die (Tensorprodukte der) Grund- und angeregten Zustände der beiden harmonischen Oszillatoren (in deinen Bildern sind ja auch immer die Gaußfunktionen um die beiden Atomkerne eingezeichnet). Und diese psi1(x1) psi2(x2) sind eben nicht stationär.

  8. #8 MartinB
    30. Juli 2014

    @Thomas
    Die beiden HO-Zustände sind der Ausgangspunkt für meine Erklärung. Nach der Variablensubstitution x1-x2 und x1+x2 bekommt man aber zwei neue entkoppelte HO-Gleichungen für Abstand und Schwerpunkt.
    Die einzelnen Atome sind dann nicht in einem stationären Zustand. Ist das der Grund, warum du meinst, dass man doch von einem momentanen Dipol bei einem der Atome sprechen darf? Dazu müsste man sozusagen psi(x1) aus dem Ergebnis extrahieren. Hmmm, vielleicht geht das sogar und dann kann man doch “momentane Dipole” sagen?
    Jemand ne Idee, wie man psi(x1) aus den Gleichungen extrahiert? (Wahrscheinlich muss man geschickt über die beiden stationären WFs integrieren?)

  9. #9 MartinB
    30. Juli 2014

    Habe gerade nochmal nachgedscht. Eigentlich sollte nach dem hohenberg kohn theorem die ladungsdichteverteilung des grundzustands auf jeden fall zeitunabhaengig sein. Wenn das so ist (ich sehe nicht, warum nicht), dann kann es auch kein mo entanes dipolmoment geben.

  10. #10 Bjoern
    30. Juli 2014

    “Bei normalen Bedingungen ist der Übergang natürlich deutlich, weil sich die Verhältnisse da drastisch ändern (wie man ja auch am Dichteunterschied flüssig-gasförmig sieht).

    Inwiefern ändern sich die Verhältnisse denn da “drastisch”? Im Festkörper hat man feste Bindungen. In der Flüssigkeit hat man Bindungen, die sich ständig lösen und neu geknüpft werden. Im Gas hat man keine Bindungen mehr.

    Das klingt für mich immer noch nach einem kontinuierlichen Übergang von Festkörper zu Gas, ich sehe immer noch nicht, warum da zwei Phasenübergänge auftreten.

    Die übliche Erklärung für die Schmelz- und die Verdampfungswärme ist ja, dass da Energie aufgebracht werden muss, um Bindungen zu lösen. Aber diese Energie wird doch ständig benötigt: Beim kompletten Übergang von Festkörper zum Gas werden doch mit zunehmender Temperatur immer mehr Bindungen gelöst – oder?!

  11. #11 Thomas
    30. Juli 2014

    @MartinB:
    Ich hab den Eindruck, dass wir massiv aneinander vorbei reden.

    Die Sache mit der Stationarität der Zustände hat nichts mit dem Punkt zu tun den ich eigentlich machen wollte (deshalb auch “Kleine Erbsenzählerei am Rande”). Mir geht es um folgendes:
    Natürlich ist das Bild vom momentanen Dipolmoment das ein gleich orientiertes Moment am anderen Atom induziert strenggenommen falsch. Aber das ist bei jedem anschaulichen Bild so (daher der Verweis auf xkcd #895). Da es zudem auf einem deutlich einfacheren Weg zu einen im wesentlichen korrekten Ausdruck für die Wechselwirkungsenergie führt, halte ich es für durchaus gerechtfertigt, mit diesem Bild zu arbeiten. Oder hast du ein korrekteres Bild das ähnlich anschaulich ist?

    Ein psi(x1) kann man aus dem Grundzustand nicht extrahieren; eine Dichtematrix rho1(x1′,x1) schon (durch Ausspuren des zweiten Elektrons). Die wird dann anzeigen, dass Elektron 1 nicht in einem reinen Zustand ist. Und vermutlich haben die Bestandteile der Mischung sogar ein Dipolmoment.

    Andere Sache: Kann es sein, dass Rechnung aus dem Artikel die Ununterscheidbarkeit der beiden Elektronen nicht (korrekt) berücksichtigt? Das Ergebnis für die Grundzustandswellenfunktion ist zwar symmetrisch unter Vertauschung x1x2 (Antisymmetrie ist also mit einer geeigneten Spinfunktion machbar), aber da die Nullpunkte von x1 und x2 nicht an der selben Stelle sind, ist das keine Vertauschung der Elektronen. Das wäre x1 x2+R, und darunter hat das Ergebnis für den Grundzustand keine definierte Symmetrie.
    Klar, das ist auch nicht zu erwarten, weil man für beide Elektronen unterschiedliche Potentiale verwendet (mit einem gemeinsamen Potential wärs nicht mehr analytisch lösbar).

  12. #12 Thomas
    30. Juli 2014

    @Bjoern:
    Nur ein kleiner Einwurf: Beim Schmelzen und Verdampfen führt man Energie zu, ohne dass sich die Temperatur erhöht. Insofern ist das schon etwas anderes als das normale Erwärmen wenn man nicht an einem Phasenübergang ist.

  13. #13 MartinB
    31. Juli 2014

    @Thomas
    “Aber das ist bei jedem anschaulichen Bild so”
    Das ist ja keine schwarz-weiß-Frage sondern eine Frage der Genauigkeit: Unterschiedliche anschauliche Bilder sind unterschiedlich gut und tragfähig.
    Was mich an der üblichen Darstellung stört ist, dass sie im klaren Widerspruch zu der bekannten Tatsache “Energieeigenzustände sind stationär” steht – solche Anschauungen finde ich immer besonders problematisch, weil man mit ihnen schlecht weiterdenken kann. Ähnliches gilt auch für andere Dinge, über die ich hier gern blogge, wie z.B. die “virtuellen Teilchen”. Und ein Ziel in meinem Blog ist es (nciht zuletzt für mich selbst) eine Brücke zu schlagen zwischen “üblichen” populärwissenschaftlichen Erklärungen und dem, was tatsächlich in den Gleichungen etc. steht.

    Danke für den tipp mit der Dichtematrix; ich habe mir heute morgen was Ähnliches überlegt. Ich sehe aber trotzdem nicht, wie da eine Zeitabhängigkeit in der Ladungsverteilung reinkommen kann.

    Ich glaube, die Ununterscheidbarkeit ist nicht direkt berücksichtigt, aber das könnte man doch über eine Slater-Determinante tun, ohne dass sich am zentralen Ergebnis etwas ändert, oder sehe ich das falsch?

    @Bjoern
    Also: festkörper hat Nah- und Fernordnung.
    Eine Flüssigkeit hat eine Nahordnung, aber keine fernordnung. Die beiden Zustände sind deswegen deutlich unterschiedlich. Die innere Energie in einer Flüssigkeit ist höher als bei einem festkörper (deswegen bleibt Wasser ja auch bei 0 Grad bis alles gefroren/geschmolezn ist – was ja auch Thomas angemerkt hat), dafür ist die Entropie in der Flüssigkeit höher. Dass es zwischen diesen beiden eine bestimmte Übergangstemperatur gibt,liegt dann daran, dass sich die beiden Kurven für die Freie Energie F=U-TS an einem Punkt schneiden, das ist genau der Punkt des Phasenübergangs.
    Zwischen Flüssigkeit und Gas gilt iweder dasselbe: Das Gas hat auch keine Nahordnung mehr, und entsprechend eine noch höhere Entropie aber auch eine höhere innere Energie.
    Ein bisschen ausführlicher ist das übrigens auch im Funktionswerkstoffe-buch erklärt…
    Ich hoffe das hilft, ansonsten nörgel nochmal und ich schreibe vielleicht bei Gelegenheit tatsächlich mal nen Artikel dazu.

  14. #14 Bjoern
    31. Juli 2014

    @Thomas: ” Beim Schmelzen und Verdampfen führt man Energie zu, ohne dass sich die Temperatur erhöht. Insofern ist das schon etwas anderes als das normale Erwärmen wenn man nicht an einem Phasenübergang ist.” Danke, das weiß ich. Meine Frage ist, wie man mikroskopisch begründen kann, _warum_ das so ist.
    (Standardbegründung ist, dass die Energie zum Aufbrechen von Bindungen benutzt wird – und warum ich mit der Erklärung Probleme habe, habe ich weiter oben ja schon erläutert)

  15. #15 Bjoern
    31. Juli 2014

    @MartinB: “Eine Flüssigkeit hat eine Nahordnung, aber keine fernordnung. Die beiden Zustände sind deswegen deutlich unterschiedlich.”

    Ja, weiß ich auch. Aber die Frage bleibt immer noch: Wie kann man das mikroskopisch, aufgrund der Kräfte zwischen den Teilchen, begründen?

    Auch das Folgende zur Entropie und inneren Energie ist die makroskopische, thermodynamische Sichtweise. Was ich suche, ist eine Begründung auf dem mikroskopischen Niveau.

    Vielleicht formuliere ich die Frage mal so: Ein Gas bei fester kann man mit einem kanonischen Ensemble beschreiben, in dem die Teilchen Freiheitsgrade der Translation, Rotation und Vibration haben. In einem Festkörper hat man nur Vibrations-Freiheitsgrade. Wie kann man denn nun eine Flüssigkeit mit einem kanonischen Ensemble beschreiben? Soweit ich sehe, gibt es dort auch Freiheitsgrade der Translation, Rotation und Vibration. Wo ist also der Unterschied zum Gas?

  16. #16 Chemiker
    31. Juli 2014

    Ein Gas bei fester kann man mit einem kanonischen Ensemble beschreiben, in dem die Teilchen Freiheits­grade der Translation, Rotation und Vibration haben. In einem Festkörper hat man nur Vibrations-Freiheitsgrade.

    Meiner Meinung nach ist diese Aussage richtig aber verwirrend. Ein H₂O-Gas hat je drei Freiheits­grade für Rotation, Trans­lation und Schwin­gung. Die drei Schwingungs­moden sind intern, sie lassen also den Schwer­punkt des Moleküls in Ruhe (und sie generieren keinen Dreh­impuls).

    In einem FK hat man genau dieselben neun Freiheits­grade, nur daß jetzt eben alles Vibrationen sind. Wenn das Molekül versucht, sich aus seiner Ruhe­lage weg­zurotie­ren oder weg­zutrans­latie­ren, dann treten rück­stellende Kräfte auf, und deshalb kann man diese Moden nun als Schwin­gungen betrachten. Die Existenz der drei internen Schwin­gungen von H₂O (zwei Streck­schwingungen und eine Biege­schwingung) bleibt davon unberührt.

    Der Phasenraum ist also derselbe, und daher sehe ich kein Problem mit den Ensembles.

    Allerdings sind wegen der periodi­schen Symmetrie alle Schwin­gungen im Kristall kollektiv und bilden so etwas wie eine Band­struktur. Aber ich gebe zu, Fest­körper sind meine Sache nicht, vielleicht liege ich in der Analyse auch irgend­wo daneben.

    Eine Ableitung des kritischen Punktes nur aus der Statistik würde mich auch interessieren. Ich habe nie ver­standen, warum es das Ding über­haupt geben muß (klar, die vdW-Gleichung sagt ihn voraus, aber die ist weit entfernt von funda­menta­len Prinzipien).

  17. […] Edelgase bestehen aus Atomen, die sich normalerweise nicht chemisch binden, weil sie eine günstige Anordnung ihrer Elektronen haben (eine “volle Elektronenschale”), die chemische Bindungen energetisch wenig attraktiv machen. Edelgase haben also eigentlich keine Anziehungskräfte mit anderen Atomen und Molekülen. zum Beitrag von Martin Bäker bei Scienceblogs.de […]

  18. #18 MartinB
    31. Juli 2014

    @Bjoern
    ich würde sagen, der Unterschied zwischen Flüssigkeit und Gas besteht darin, dass du in einer Flüssigkeit hinreichend viele Bindungen zwischen den Molekülen hast, dass du einen Weg von jedem Molekül zu jedem anderen findest – in einem Gas kann es immer noch Cluster aus gebundenen Molekülen geben, aber die sind unverbunden (wie bei einer Perkolationsschwelle).
    Ist die Temperatur hoch genug, dass die Wahrscheinlichkeit einer Verbindung benachbarter Moleküle unter einen kritischen Wert fällt, dann ist die Perkolationsschwelle unterschritten und aus der Flüssigkeit wird ein Gas.

    (Haben wir hier jetzt so ne Art Kommentarvorschau?)

  19. #19 Bjoern
    1. August 2014

    “Ist die Temperatur hoch genug, dass die Wahrscheinlichkeit einer Verbindung benachbarter Moleküle unter einen kritischen Wert fällt, dann ist die Perkolationsschwelle unterschritten und aus der Flüssigkeit wird ein Gas.”

    Klingt zwar anschaulich – aber wie erklärt man damit die Verdampfungswärme? Bzw. dass es da überhaupt einen Phasenübergang gibt und nicht einfach einen kontinuierlichen Übergang? (wie es oberhalb des kritischen Punkts ja auch ist)

  20. #20 MartinB
    1. August 2014

    @Bjoern
    Autsch, ich habe wohl irgendwie einen Phasenübergang 2. Ordnung erklärt…

    Ich sehe dein Problem, aber es fällt mir im Moment schwer, das richtig sauber zu erklären, weil ich dazu immer mit Konzepten wie Entropie denke – so ganz klar ist mir nicht, wie man das rein atomistisch beschreiben soll. Ich denke nochmal drüber nach, vielleicht fällt mir was ein…

  21. #21 MartinB
    2. August 2014

    Ich versuch’s noch mal anders – bin abe rnicht sicher, ob es genau dein problem trifft:
    Nehmen wir vereinafch an, dass es in der Gasphase keine Bindungen zwischen den Atomen gibt. Damit ein Atom (z.B.) an der Oberfläche der Flüssigkeit indie Gasphase entkommen kann, müssen sämtliche Bindungen die es mal hatte gelöst werden.
    Die Wahrscheinlichkeit dafür, dass das passiert, ist exp(-NE/kT), wenn N die Zahl der Bindungen und E die benötigte Energie ist.
    Das Atom in der Gasphase hat eine deutlich höhere Entropie, weil es viel mehr Möglichkeiten gibt, in der Gasphase herumzuschwirren als an die Flüssigkeit gebunden zu sein. Die Zahl der Möglichkeiten, in der Gasphase zu sein, ist im wesentlichen temp-unabhängig.
    Igrendwann gibt es einen Punkt, wo die Wahrscheinlichkeit, indie Gasphase zu entkommen, genau gleich der Wahrscheinlichkeit ist, in der Flüssigkeit zu bleiben. Das ist der Punkt des Phasenübergangs.
    Weil die entkommenen teilchen eine höhere Energie haben, geht jede jetzt reingesteckte Energie erst mal in die Erhöhung der Anzahl der Gas-Atome und nicht in eine Erhöhung der kinetischen Energie (ich gewinne mehr Entropie, wen ich Teilchen in die Gasphase hole als wenn ich die Teilchen in der jeweiligen Phase beschleunige – anders gesagt, so ein prozess ist wahrscheinlicher).
    Einen perfekt scharfen Übergang bekommt man allerdings natürlich nur im thermodynamischen Limit, also für ein unendlich großes System mit unendlich langsamer Temp-erhöhung etc. In einem realen System gibt es ja immer eine Überhitzung/Unterkühlung an Phasenübergängen 1. Ordnung (und ich könnte mir vorstellen, dass das genau das ist, was du dir mikroskopisch vorstellst).
    Weiß nicht, ob das hilft, sonst sag nochmal bescheid.
    (Die Rechnung mit der Wahrscheinlichkeit und der Energie steckt übrigens auch für ein anderes Beispiel in meinem Buch, falls du da keinen Zugriff hast, schick mir mal ne mail, dann schick ich dir den teil.)

  22. #22 ulfi
    3. August 2014

    Martin, hast du eventuell Ahnung hiervon?

    https://www.theverge.com/2014/8/1/5959637/nasa-cannae-drive-tests-have-promising-results (der report ist im Artikel verlinkt).

    Würde gerne mal deine Meinung dazu hören.

  23. #23 MartinB
    3. August 2014

    @ulfi
    Man soll nie “nie” sagen, aber es würde mich schon sehr überraschen, wenn da was dran wäre.
    Auf der Cannae-Seite führen die Links zur Theorie und zu den Modellen jedenfalls bei mir ins leere. Das paper (naja, eine Seite, das ist eher ein abstract) scheint ja nur die Experimente zu beschreiben, nicht die Theorie.
    Sollte man sicher weiter studieren, um zu verstehen, was da los ist, aber dass das echt die Impulserhaltung verletzt scheint mir schon sehr unwahrscheinlich.

  24. #24 rolak
    3. August 2014

    Keine Beschwerden, MartinB, immerhin werden keine YT-clips zum Beleg herangezogen. Die sind auf Vimeo…
    Es wurde auch bereits ein Patent angemeldet – mit etwas mehr Info. Und dem Charme einer Haunebu-Konstruktions-Zeichnung und einer verblüffenden Nähe zum Mach-Lorentz-Antrieb.

    Selbstverständlich kann es ziemlich vieles geben, doch um gewissen Konzepten den Hautgout zu nehmen, sind deutlich mehr deutliche Daten nötig.

  25. #25 Bjoern
    4. August 2014

    @Martin: Die Erklärung ist zwar hübsch – aber sie erklärt nicht, warum es zwischen Festkörper und Gas noch eine flüssige Phase gibt. Warum geht der Stoff beim Erhitzen nicht direkt von der festen in die gasförmige Phase über? In deiner Argumentation oben könnte man, soweit ich sehe, ohne Probleme “Flüssigkeit” überall durch “Festkörper” ersetzen.

    Nochmal anders gefragt: Warum gibt es zwischen der Phase “Atome stark an die Nachbarn gebunden” und der Phase “Atome nicht mehr an die Nachbarn gebunden” nochmal eine eigene Phase “Atome schwach an die Nachbarn gebunden”?

  26. #26 MartinB
    4. August 2014

    @Bjoern
    Die flüssige Phase heisst nicht “schwach gebunden” sondern “so gebunden, dass die Bindungen immer wieder aufbrechen” (obwohl die Bindungsenergie da natürlich insgesamt kleiner ist). In einer Flüssigkeit ist jedes Molekül im Mittel etwas weniger stark gebunden, weil sich immer einzelne Bindungen auch lösen können; die Bindungen selbst müssen aber nicht schwächer sein, soweit ich sehe.
    Und ich glaube es ist wirklich wichtig, dass man immer im Kopf hat, dass Dinge wie “Flüssigkeit” oder “Festkörper” statistische Begriffe sind, die auf atomarer Ebene nicht unbedingt einfach zu unterscheiden sind. Um es mit einer (schlechten, aber mir fällt keine bessere ein) Analogie zusagen: Ein bisschen ist es so, als würdest du fragen: “Wie kann denn bei einer Wahl die Partei X 35,8% der Stimmen bekommen, wenn doch jeder nur eine Stimme abgibt und keiner 35,8% seiner Stimme der partei geben kann.”

  27. #27 Bjoern
    6. August 2014

    Hm, selbst wenn sie auf atomarer Ebene nicht einfach zu unterscheiden sind: Letztlich beruhen die verschiedenen Phasen ja auf Wechselwirkungen zwischen den Atomen. Also sollte man die Existenz dieser Phasen doch auch auf atomistischer Ebene erklären können – oder? Bzw. eben mit einer Kombination aus atomistischen Wechselwirkungen und Statistik, da es wohl letztlich ein Vielteilchen-Effekt ist…

    Die flüssige Phase heisst nicht “schwach gebunden” sondern “so gebunden, dass die Bindungen immer wieder aufbrechen” (obwohl die Bindungsenergie da natürlich insgesamt kleiner ist).

    Und da ist dann halt die Frage: Wieso gibt es eine Schmelzwärme und (nach weiterer Erhitzung) eine Verdampfungswärme? Die Schmelzwärme sorgt dafür, dass die Teilchen nicht mehr fest gebunden sind, sondern “so gebunden, dass die Bindungen immer wieder aufbrechen”. Die Verdampfungswärme sorgt dafür, dass die Teilchen überhaupt nicht mehr aneinander gebunden sind.

    Warum geht das in zwei “Stufen”, mit nötiger Temperaturerhöhung dazwischen? Warum geht der Stoff nicht direkt von “gebunden” zu “nicht gebunden” über? Ja, ich weiß, das gibt’s auch (Sublimation) aber warum gibt es nicht _nur_ das?

  28. #28 MartinB
    6. August 2014

    @Bjoern
    “warum gibt es nicht _nur_ das?”
    Weil im flüssigen Zustand die Energie niedriger ist (es gibt noch Bindungsenergie) als im gasförmigen, die Entropie aber auch.
    Die Freie Energie ist F=U-TS
    Nimm vereinfachend an, dass U und S temp.-unabhängig sind, dass U von fest nach flüssig nach gasförmig zunimmt, S auch.
    Dann bekommst du drei Geraden, die sich jeweils an einem Punkt schneiden und das Minimum sorgt für die zwei Phasenübergänge.
    Ein bisschen habe ich das auch hier erklärt:
    https://scienceblogs.de/hier-wohnen-drachen/2010/11/28/entropie-und-phasen/
    und
    https://scienceblogs.de/hier-wohnen-drachen/2010/12/04/entropie-und-freie-energie/
    (Da gibt es sogar ein Bild von F)

  29. #29 Bjoern
    6. August 2014

    Die Erklärung setzt doch im Prinzip schon voraus, dass es drei Phasen gibt – oder wie kommt man sonst darauf, dass es im Phasendiagramm drei Geraden geben sollte?

    Wenn man schon voraussetzt, dass es drei Phasen geben muss, dann ist es ziemlich offensichtlich, dass es zwei Phasenübergänge gibt. 😉

    Aber wie begründet man erst mal, warum es überhaupt drei Phasen gibt? (vor allem, wenn man berücksichtigt, dass es oberhalb des kritischen Punkts ja eh nur noch zwei Phasen gibt…)

    Außerdem ist die Erklärung mal wieder rein makroskopisch – wie ich mir das mikroskopisch vorzustellen habe, sehe ich immer noch nicht so ganz…

  30. #30 Bjoern
    6. August 2014

    Nachdem ich nochmal drüber nachgedacht habe, liegt mein Problem wohl vor allem hier:

    Nimm vereinfachend an, dass U und S temp.-unabhängig sind, dass U von fest nach flüssig nach gasförmig zunimmt, S auch.

    Diese Annahme, dass U und S temperaturunabhängig sind, dass aber drei Phasen existieren und U und S von einer Phase zur anderen immer mehr zunimmt, sorgt dafür, dass man drei Phasen hat (und damit zwei Phasenübergänge).

    Real ist es aber natürlich so, dass weder U noch S temperaturunabhängig sind. Womit wir wieder bei meiner Frage sind: Warum gibt es trotz dieser Temperaturabhängigkeiten da drei Phasen und nicht entweder einen kontinuierlichen Übergang von Festkörper zu Gas, oder nur einen Phasenübergang direkt von Festkörper zu Gas?

  31. #31 Bjoern
    6. August 2014

    Vergiss’ meinen letzten Kommentar erst mal. 😉

    Ich habe mir das mit den drei Geraden jetzt mal skizziert – zwei mögliche Fälle (es gibt natürlich noch mehr):
    https://www.feuerbachers-matheseite.de/phasen1.jpg
    https://www.feuerbachers-matheseite.de/phasen2.jpg

    Im ersten Fall hat man tatsächlich erst mal den Übergang fest-flüssig und dann bei höherer Temperatur flüssig-gasförmig. Im zweiten dagegen hat man direkt den Übergang fest-gasförmig. Es stellt sich die naheliegende Frage: Warum hat man bei den allermeisten Stoffen bei Normalbedingungen den ersten Fall und nicht den zweiten? (der zweite Fall wäre dann wohl oberhalb des kritischen Punkts?)

    Und noch ein weiteres Problem. Man könnte doch sagen, es könnte auch vier Phasen geben: (1) fest, (2) flüssig1: ““so gebunden, dass die Bindungen immer wieder aufbrechen” , (3) flüssig2: wie flüssig1, aber die Bindungen brechen öfter auf und bilden sich neu als in flüssig1, im Schnitt sind zu jedem Zeitpunkt weniger Teilchen gebunden, und (4) gasförmig. (Das kann man natürlich beliebig ausbauen, mit fast beliebig vielen verschiedenen “flüssig”-Phasen…) Warum beobachtet man so etwas nicht?

    Oder gibt es so etwas tatsächlich? (Ich habe zwar schon von vielen Stoffen mit unterschiedlichen festen (kristallinen etc.) Phasen gehört, aber noch von keinem Stoff mit verschiedenen Flüssigkeitsphasen – o.k., bis auf Stoffe, die bei tiefen Temperaturen suprafluid werden. 😉 )

    Falls es das tatsächlich gibt: Warum gibt es das nicht häufiger, warum ist der Fall mit den drei verschiedenen Phasen der (bei Standardbedingungen) anscheinend am häufigsten vorkommende?

  32. #32 Bjoern
    6. August 2014

    Man könnte sich doch auch ohne weiteres einen Stoff vorstellen, bei dem es hunderte oder mehr “flüssig”-Phasen gibt: Eine, bei dem im Schnitt nach einer Zeitspanne t1 jeweils eine Bindung bricht und neu geknüpft wird; eine, bei der das im Schnitt nach der Zeitspanne t2 > t1 passiert; eine, bei der das im Schnitt nach der Zeitspanne t3 > t2 passiert usw. usf. Damit hätte man im Endeffekt wieder quasi einen kontinuierlichen Übergang vom Festkörper zum Gas. Warum läuft es in der Natur (meistens?) nicht so ab?

  33. #33 MartinB
    7. August 2014

    @Bjoern
    Ja, natürlich kann man sich mehr flüssige Zwischenphasen vorstellen – das ist ja genau das, was z.B. beim Flüssigkristall passiert, da kann es Übergänge fest – flüssig smektisch B – flüssig smektisch A – flüssig nematisch – flüssig ohne Ordnung – gasförmig geben.

    Der Normalfall ist das deswegen nicht, weil normalerweise die Moleküle nur eine Art von Bindung aneinander haben; bei den Flüssigkristallen ist es durch die Molekülform bedingt aber günstiger, wenn die Moleküle sich zueinander orientieren. Beim Wasser beispielsweise gibt es die H-Brücken, aber alle H-Brücken sind letztlich gleich, deswegen brechen alle auch bei gleicher Energiezufuhr auf.

    PS: Wenn U und S temp-abhängig sind, dann werden aus den Geraden Kurven, sonst ändert sich nichts. Und es kann durchaus vorkommen, dass fest-gasförmig günstiger ist als fest-flüssig, wie z.B. beim Trockeneis:
    https://de.wikipedia.org/wiki/Trockeneis

  34. #34 Bjoern
    8. August 2014

    Der Normalfall ist das deswegen nicht, weil normalerweise die Moleküle nur eine Art von Bindung aneinander haben; … Beim Wasser beispielsweise gibt es die H-Brücken, aber alle H-Brücken sind letztlich gleich, deswegen brechen alle auch bei gleicher Energiezufuhr auf.

    Ich rede ja auch nicht von unterschiedlichen Arten von Bindungen, sondern davon, dass ein und dieselben Bindungen in verschiedenen Phasen unterschiedlich lang brauchen, sich zu lösen und neu zu bilden.

    fest: Zeit (praktisch) unendlich
    flüssig: Zeit: ? (wohl einige Nanosekunden?)
    gasförmig: praktisch überhaupt keine Bindungen mehr, also quasi Zeit 0

    Warum sollte es nicht verschiedene flüssig-Phasen geben, in denen diese Zeitdauern jeweils unterschiedlich sind?

    Oder wird diese Zeitdauer durch die Bindungsenergie eindeutig festgelegt? Ich sehe spontan nicht, wie…

  35. #35 MartinB
    8. August 2014

    @Bjoern
    Wenn du eine Bindung mit Energie E hast, dann ist die Wahrscheinlichkeit dafür, diese Bindung zu knacken, proportional zu exp(-E/kT)
    Um daraus eine Zeitkonstante abzuleiten, braucht man so etwas wie eine typische Schwingfrequenz, in Festkörpern nimmt man meist etwa 1e-14s an. Damit könntest du dann sozusagen eine halbwertszeit für die Lebensdauer einer bindung festlegen. (Wobei natürlich auch berücksichtigt werden muss, dass sich eine gelöste Bindung wieder neu knüpfen kann.)

    Aber für jede einzelne Bindung ist der Übergang fest-flüssig nicht sauber zu definieren, ich glaube immer noch, dass du hier mikroskopische und statistische Anschauung irgendwie durcheinander bringst (und dass wir irgendwie ein bisschen aneinander vorbei reden).

  36. #36 Alderamin
    8. August 2014

    @Martin, Bjoern

    Ich verfolge das Gespräch mit Interesse, weil mich auch interessiert, wie genau die Phasenübergänge stattfinden.

    Es ist doch so, dass für einen bestimmten Druck die Temperatur sehr scharf bestimmt ist, bei der sich die Phase ändert. Ich kann z.B. Wasser mehr oder weniger schnell erhitzen, es wird bei Normaldruck bei 100°C kochen und kein Grad wärmer werden (Siedeverzug mal außen vor). Wenn die Teilchenenergie kontinuierlich erhöht wird, dann müssten statistisch gesehen immer mehr Teilchen sich aus dem Verbund losreissen. Das tun sie ja auch, aber schon lange, bevor das Wasser kocht. Eigentlich müsste es über 100°C doch so weiter gehen, das Wasser wird noch wärmer und bildet noch schneller Gas. Aber das passiert genau nicht.

    Es scheint doch offenbar so zu sein, dass es eine Energieschwelle bei 100°C gibt, deren Überschreiten abrupt dazu führt, dass die Brückenbindung mit fast 100% Wahrscheinlichkeit reisst. So etwas wie eine Quantenstufe der Bindungsenergie. Bleibt die mittlere Temperatur unter dieser, so entkommen nur wenige Teilchen, die aufgrund der Maxwellschen Geschwindigkeitsverteilung zufällig ein wenig heißer sind. Erreicht die mittlere Temperatur die Schwelle, so wird alles zu Gas, das an der Oberfläche den kleinsten Druck oder an der Wärmequelle die höchste Temperatur spürt (Blasenbildung beim Kochen).

    Und um doch noch auf den Siedeverzug zurück zu kommen: da ist die Temperatur hoch, aber die Brückenbindungen halten. Wie ist das zu erklären? Eine kleine Störung, und schon explodiert die Flüssigkeit (die Explosion kommt dann natürlich von der Druckentlastung, wenn die Wassergas-Blasen aufsteigen).

    Hätte nie gedacht, dass so etwas simples wie ein Topf kochendes Wasser so komplex ist.

  37. #37 Alderamin
    8. August 2014

    @myself

    Wenn die Teilchenenergie kontinuierlich erhöht wird, dann müssten statistisch gesehen immer mehr Teilchen sich aus dem Verbund losreissen. Das tun sie ja auch, aber schon lange, bevor das Wasser kocht. Eigentlich müsste es über 100°C doch so weiter gehen, das Wasser wird noch wärmer und bildet noch schneller Gas.

    Um das nochmal zu versinnbildlichen: Man stelle sich eine Maxwellsche Geschwindigkeitsverteilung vor (so was wie ein schiefe Glockenkurve). Beim Median liegt die mittlere Temperatur. Dort, wo 100°C liegen, beginnt Wasser zu kochen. Die Wahrscheinlichkeit, dass ein zufälliges Molekül sich and der Oberfläche losreisst, entspricht der Fläche unter der Verteilungskurve oberhalb 100° C.

    Nun erhitze man das Ganze, die Kurve verschiebt sich zu höheren Temperaturen. Mehr Fläche wandert über die 100°C-Grenze, die Gasbildung nimmt zu. Irgendwann liegt der Median bei 100°C: jedes zweite Molekül entweicht. Man erhitzt weiter, die Kurve wandert noch weiter nach oben, immer mehr Moleküle entweichen. Aber so entsteht nie eine Temperaturstufe, die nicht überschritten werden kann. Das Wasser müsste über 100°C werden können. Es können ja nicht alle Moleküle entkommen, nur solche an der Oberfläche und in Gasblasen. Alleine mit Statistik bekommt man nicht erklärt, warum Wasser sich nicht über 100° C erhitzen lässt, scheint mir.

  38. #38 MartinB
    9. August 2014

    @Alderamin
    Zunächst mal eine Erinnrung aus dem Chemie-Unterricht, ich glaube Klasse 11: Dort ist es uns in einemnormalen Hörsaal mit Bunsenbrenner nicht mal annähernd gelungen, den Siedepunkt zu 100°C zu bestimmen. Dazu muss man tatsächlich hinreichend langsam erhitzen, den Druck in der Gasphase konstant halten etc. – all die Phänomene, die du beschreibst, treten in der Praxis genau so auf und führen genau zum Siedeverzug.

    Ansonsten ist das Problem meiner Ansicht nach dieser Satz:
    ” dass es eine Energieschwelle bei 100°C gibt, deren Überschreiten abrupt dazu führt, dass die Brückenbindung mit fast 100% Wahrscheinlichkeit reisst.”
    So ist es nicht – aber der Einfluss der Entropie wird eben bei 100°C größer als der der Bindungsenergie. Letztlich hat man zwei e-Funktionen: die eine sorgt dafür, dass Zustände höherer Energie unwahrscheinlicher sind, die andere, dass es für die Gasphase wesentlich mehr Möglichkeiten gibt. Die beiden überlagern sich und sorgen für einen extrem scharfen peak, der den Phasenübergang bestimmt. Soeit ich mich entsinne, ist das in irgendeinem TD-Buch (entweder Reif oder Huang, mit den beiden habe ich seinerzeit für die Prüfung gelernt) ausfühlrich erklärt. Genau wie Björn betrachtest du die Sache nicht statistisch genug.
    Falls ich die Tage mal zeit habe, versuche ich mal, das noch etwas genauer aufzudröseln (auch wenn die oben angegebenen Links das eigentlich schon vom Prinzip her erklären.)

  39. #39 MartinB
    9. August 2014

    Noch ein Nachtrag: So einen Fall, wie ihr ihn euch vorstellt (wo der Übergang sozusagen ganz graduell ist) gibt es ja auch,nämlich beim Mischen von Legierungen, wie in dem oben zitierten Artikel erklärt. Da löst sich bei höherer Temp immer mehr von A in B bis die beiden vollständig löslich sind. Das ist letztlich genau so eine Situation: Mit jedem weiteren gelösten Atom gewinnt man etwas Entropie und es gibt einen sanften Übergang von unlöslich zu vollständig gelöst. Bei Flüssigkeiten und Gasen ist es aber anders (über die genaue anschauliche Begründung muss ich noch mal nachdenken, aber es liegt sicher an der gigantisch höheren Entropie im Gas.)

  40. #40 MartinB
    10. August 2014

    Sorry, manchmal ist man echt vernagelt, und das in einem text über van-der-Waals-Kräfte. Ich hättemich doch mal an mein Physikstudium erinnern sollen (o.k., das 1. semester ist schon laaaange her): Da haben wir die van-der-Waals-Gelichung gelernt, und die erklärt eigentlich sehr gut den Übergang flüssig fest für ein Material mit Bindungen zwischen den Atomen. Guckt ihr hier:
    https://de.wikipedia.org/wiki/Van-der-Waals-Gleichung#Isothermen_des_p-V-Diagramms
    Vielleicht hilft euch diese Art der Betrachtung weiter?

  41. #41 Bjoern
    10. August 2014

    @Martin: Die vdW-Gleichung kenne ich recht gut (habe ich sogar schon als Beispiel im Mathe-Unterricht herangezogen, beim Thema “gebrochenrationale Funktionen” 😉 ), hilft mir für meine Frage aber leider nicht weiter…

    Außerdem beschreibt die den Übergang flüssig-gasförmig, nicht fest-flüssig, oder? Oder kann man sie für beide Übergänge benutzen? Zumindest das wäre mir neu…

  42. #42 MartinB
    10. August 2014

    @Bjoern
    Nein, sie beschreibt flüssig-gasförmig, aber da dein Problem ja die Unterscheidung zwischen genaud iesen beiden phasen zu sein scheint, solte es trotzdem helfen. Und die Logik dürfte bei dem anderen Phasenübergang nicht anders sein.

    So ganz genau weiß ich inzwischen aber nicht mehr, wo eigentlich dein Problem steckt, kannst du das nochmal irgendwie in Worte fassen?

  43. #43 Chemiker
    10. August 2014

    Ich finde, daß die vdW-Gleichung eine schlechte Erklärung ist. Denn da sieht man mit viel gutem Willen einen Ast für den über­sättigten Dampf und einen für die über­hitzte Flüssig­keit. Den Phasen­übergang kriegt man ja erst dann, wenn man mit Gewalt den oszillierenden und damit un­physikali­schen Teil einebnet.

    Besser ist es, wenn man statistisch argu­mentiert. Also im Phasen­raum (nicht Phasen­diagramm) operiert und sich das verfügbare Volumen ansieht.

    Der Phasenraum ist riesig groß. Die energetisch vernünftigen Phasenraum­punkte (=Mikro­zustände) kann man der festen, flüssigen oder gas­förmigen Phase zuordnen. Natür­lich gibt es auch Punkte, die sich nicht zuordnen lassen (z.B. Tropfen im Gas), aber die sind eine ver­schwin­dende Minderheit und fallen bei der Zählung raus.

    Jetzt denken wir kanonisch und legen eine Temperatur fest und gewichten die Phasenraum­punkte per Boltzmann­faktor nach ihrer Erreichbarkeit. Bei jeder Temperatur haben wir eine Anzahl Phasenraum­punkte für flüssig und eine andere Anzahl für gasförmig. Die Anzahl der Punkte quanti­fiziert man als Phasen­raum­volumen, das kriegt man einfach durch Integration und Normierung mit ℏ.

    Die „gasförmigen“ Punkte haben tendenziell eine höhere Energie als die „flüssigen“. Aber weil es viel mehr sind, dominieren sie die Summe bei höheren Temperaturen, wenn der Boltzmann­faktor auch hochenergetische Punkte zuläßt.

    Folglich gibt es eine Temperatur, bei der das System kippt: Darunter gibt es mehr flüssige Mikro­zustände, darüber mehr gas­förmige. Wenn die Zahl der gas­förmigen Mikro­zustände hin­reichend rasch anwachsen, muß das zu einem scharfen Phasen­übergang führen.

    Leider habe ich diese Rechnung nie vorexerziert gesehen und weiß daher nicht, was sie im Detail ergibt. Und wie sich der Unterschied zwischen unter­kritischen und über­kritischen Temperaturen genau manifestiert. Genau am kritischen Punkt kommt es ja zu Dichte­oszilla­tionen, und das müßte man mit so einer Rechnung auch raus­kriegen können, nur weiß ich nicht wie.

    Das Phasenraumvolumen hägngt ja eng mit der Entropie bzw. der Freien Energie zusammen. Daher ist das von mir skizzierte Argument die mikroskopische Version von dem üblichen Argument mit den „schneidenden Linien“.

  44. #44 MartinB
    11. August 2014

    @Chemiker
    Das ist aber ja genau das, was ich oben (und in dem verlinkten Artikel über Phasenübergänge) erklärt habe, in dem Artikel wird sogar für einen simplen Fall die Übergangstemperatur berechnet (und im Folgeartikel das gleiche mnakroskopisch mit der Freien Energie). Aber anscheinend ist das nicht Björns Problem.

  45. #45 Alderamin
    11. August 2014

    @MartinB

    Die Frage ist, woher die Wassermoleküle “wissen”, dass sie bei 100° C nur noch Gas zu bilden haben. Beim Übergang fest-flüssig kommen ja Freiheitsgrade für die Moleküle hinzu, die können zusätzliche Energie aufnehmen, da ist es leicht ersichtlich, warum zusätzlich zugeführte Energie nicht einfach die Temperatur erhöht (es wird ja auch nichts unterhalb von 0°C schon mal ein wenig flüssig, es gibt kein Pendant zur Verdunstung, die lange vor dem Kochen beginnt). Aber beim Übergang flüssig-gasförmig kommen doch eigentlich keine Freiheitsgrade hinzu, dabei ist die spezifische Verdampfungswärme viel höher als die spezifische Schmelzwärme. Welcher Mechanismus stoppt den Temperaturanstieg?

    Aus dem Wiki-Artikel über die Van-der-Vaals-Gleichung erschließt sich mir nicht, wo die ganze Energie hinzugehen hat (natürlich letztlich in der Überwindung der Bindungskraft) bzw. warum die Übergangstemperatur ziemlich scharf bestimmt ist (für einen bestimmten Druck), wo die Verdunstung doch schon bei viel geringeren Temperaturen beginnt.

  46. #46 MartinB
    11. August 2014

    @Alderamin
    “Aber beim Übergang flüssig-gasförmig kommen doch eigentlich keine Freiheitsgrade hinzu”
    Was meinst du genau mit “Freiheitsgrad”? Denn wie Chemiker schon sagte, ist der Phasenraum für die Gasphase natürlich gigantisch viel größer. Und es müssen beim Übergang Bindungen gebrochen werden, deswegen die Verdampfungswärme (die bei Wasser besodners hoch ist, weil die H-Brücken so stark sind).
    Es gibt einfach temp.-abhängig einen Punkt, bei denen ein Aufenthalt im gas-bereich des Phasenraums wahrscheinlicher wird als in der flüssigen Phase.
    Und natürlich “verdunstet” auch ein festkörper – der Dampfdruck ist nur so klein, dass wir das praktisch nciht merken, weil es unglaublich lange dauert (das Ablösen eines Atoms ist extrem unwahrscheinlich). Aber wenn du unendlich lange wartest und dein festkörper im vakuum ist, dann ist er irgendwann weg…

  47. #47 Alderamin
    11. August 2014

    @MartinB

    Was meinst du genau mit “Freiheitsgrad”?

    Die Möglichkeiten eines Moleküls, sich zu bewegen (schwingen, rotieren), wie man das bei der Gasgleichung verwendet (n/2 kT etc.; die Vorlesung ist schon lange her).

    Und natürlich “verdunstet” auch ein festkörper

    Klar, Sublimation; aber er fängt nicht unterhalb der Schmelztemperatur an, sich partiell zu verflüssigen, oder?

    Es gibt einfach temp.-abhängig einen Punkt, bei denen ein Aufenthalt im gas-bereich des Phasenraums wahrscheinlicher wird als in der flüssigen Phase.

    Schon klar, nur, warum steigt die Temperatur nicht über just diesen Punkt? Die Wahrscheinlichkeit müsste doch kontinuierlich steigen. Wo ist die Mauer, gegen die man da rennt? Die zusätzlichen Freiheitsgrade beim Schmelzen (Rotation) könnten so eine Mauer bilden, weil das Molekül dann mehr Energie aufnehmen kann und so anscheinend alles “aufsaugt”, was es unterbringen kann. Das ist, was ich nicht verstehe.

  48. #48 MartinB
    11. August 2014

    @Alderamin
    “Die Möglichkeiten eines Moleküls, sich zu bewege”
    Das ist aber nicht präzise genug, fürchte ich: Betrachte ein elementares Material: Auch im FK hat jedes Atom 6 (bzw. 3, je nachdem, wie man die Rotationen wertet) Freiheitsgrade; die rückstellende Kraft ist nur so groß, dass der zugängliche Bereich im Phasenraum sehr klein ist.

    ” aber er fängt nicht unterhalb der Schmelztemperatur an, sich partiell zu verflüssigen, oder?”
    Auch dafür gibt es nach exp(-E/kT) eine endliche (aber sehr kleine) Wahrscheinlichkeit.

    “Schon klar, nur, warum steigt die Temperatur nicht über just diesen Punkt”
    Tut sie doch, deswegen hast du den exakten Phasenübergang nur in einem unendlich großen unendlich langsam aufgeheizten System genau and er “richtigen” Temperatur, in der Praxis kommst du dem nur nahe – aber wegen der großen Avogadro-Konstante schon ziemlich nahe.

  49. #49 app-stein
    11. August 2014

    #42
    So ganz genau weiß ich inzwischen aber nicht mehr, wo eigentlich dein Problem steckt, kannst du das nochmal irgendwie in Worte fassen?

    #43
    Den Phasen­übergang kriegt man ja erst dann, wenn man mit Gewalt den oszillierenden und damit un­physikali­schen Teil einebnet

    #45
    Die Frage ist, woher die Wassermoleküle “wissen”, dass sie bei 100° C nur noch Gas zu bilden haben.
    . . .
    Aus dem Wiki-Artikel über die Van-der-Vaals-Gleichung erschließt sich mir nicht, wo die ganze Energie hinzugehen hat (natürlich letztlich in der Überwindung der Bindungskraft) bzw. warum die Übergangstemperatur ziemlich scharf bestimmt ist (für einen bestimmten Druck), wo die Verdunstung doch schon bei viel geringeren Temperaturen beginnt.

    #46
    Es gibt einfach temp.-abhängig einen Punkt, bei denen ein Aufenthalt im gas-bereich des Phasenraums wahrscheinlicher wird als in der flüssigen Phase.
    Und natürlich “verdunstet” auch ein festkörper – der Dampfdruck ist nur so klein, dass wir das praktisch nciht merken, weil es unglaublich lange dauert (das Ablösen eines Atoms ist extrem unwahrscheinlich). Aber wenn du unendlich lange wartest und dein festkörper im vakuum ist, dann ist er irgendwann weg…

    #47
    Schon klar, nur, warum steigt die Temperatur nicht über just diesen Punkt? Die Wahrscheinlichkeit müsste doch kontinuierlich steigen. Wo ist die Mauer, gegen die man da rennt? Die zusätzlichen Freiheitsgrade beim Schmelzen (Rotation) könnten so eine Mauer bilden, weil das Molekül dann mehr Energie aufnehmen kann und so anscheinend alles “aufsaugt”, was es unterbringen kann. Das ist, was ich nicht verstehe.

    #48
    ” aber er fängt nicht unterhalb der Schmelztemperatur an, sich partiell zu verflüssigen, oder?”
    Auch dafür gibt es nach exp(-E/kT) eine endliche (aber sehr kleine) Wahrscheinlichkeit.
    . . .
    “Schon klar, nur, warum steigt die Temperatur nicht über just diesen Punkt”
    Tut sie doch, deswegen hast du den exakten Phasenübergang nur in einem unendlich großen unendlich langsam aufgeheizten System genau and er “richtigen” Temperatur, in der Praxis kommst du dem nur nahe – aber wegen der großen Avogadro-Konstante schon ziemlich nahe.
    ____________
    => App-stein: Die Frage war: Warum wird eine Flüssigphase benötigt, wenn ein Molekül von der Festphase in die Gasphase und umgekehrt gelangen möchte?
    Ich habe einige Gedanken aus #42-#48 herausgenommen, die eine Antwort auf die Fragestellung beinhalten.
    “unphysikalisch” deute ich als unbeschriebenes Wissensfeld, in dem physikalische (kosmische Konstanten) mit mathematischen Konstanten nicht eindeutig in Einklang gebracht werden können.
    Zwischen den Phasen “Fest” und “Gas” kann keine Grenze 0 (Differenz = 0) gezogen werden. Mathematisch nähere ich mich der 0 in unendlich kleinen Schritten, erreiche “niemals” eine Differenz = 0 ! Physikalisch und kosmologisch erreiche ich ebenso keinen Zustand einer Differenz = 0, aber stattdessen einen Bewegungsraum, der es ermöglicht die Barriere Grenze 0 zu überwinden (Flüssig).

    – Ein ähnliches Problem liegt in der Deutung einer Singularität und der physikalischen Beschreibung eines Schwarzen Loches.
    – Die Kosmologie beschreibt die Physik von Konstanten. Einerseits stellt eine Konstanz eine “Differenz = 0” dar, kann in einem Bewegungsraum (Differenz ungleich 0) aber nur durch eine Information aller Raumpunkte (Gleichzeitigkeit) erreicht werden. Die Konstanz wird erreicht durch eine dynamische und statische Einheit von Energie und Information.
    (. . . .. ich hoffe meine Gedanken einiger massen verständlich formuliert zu haben, war mein erster Versuch . . . ..)

  50. #50 Alderamin
    11. August 2014

    @MartinB

    Ich hab’ ein bisschen gesucht und ein PDF gefunden (außerdem ein Video), in welchen erklärt wird, dass der Siedepunkt genau der ist, an dem der Partialdruck des Dampfs (nach Clausius-Clapeyron) den Atmosphärendruck übersteigt.

    Wenn ich’s richtig verstanden habe, stellt sich für jeden geringeren Druck an der Wasseroberfläche ein Gleichgewicht ein, bei dem so viele Moleküle verdunsten, wie wieder in die flüssige Phase zurückkehren; es verdunstet so viel, bis der Partialdruck des Wassergases den Gleichgewichtsdruck erreicht.

    Dieser kann aber nicht höher werden, als der Atmosphärendruck (wenn kein Deckel das Wassergefäß verschließt, aka Schnellkochtopf), und so kann sich kein Gleichgewicht mehr einstellen. Und das erklärt dann auch, warum der Siedepunkt vom Umgebungsdruck abhängt.

  51. #51 Zhar The Mad
    11. August 2014

    @Alderamin

    ah! ich verfolge dieses hier schon eine weile, aber das puzzelteil lässt das bild doch klarer werden! das PDF führt irgendwie ins leere..

    @MartinB
    ein eigener artikel mit allen aufgedröselten anschauungen phasenraum, vdW-p-V Diagramm etc mit entsprechenden gleichungen und bebilderung wäre wirklich toll ^^
    😉

  52. #52 Alderamin
    12. August 2014

    @Zhar The Mad

    Oh ja, da habe ich Mist in den Link kopiert. Das war das Dokument:

    https://geosci.uchicago.edu/~moyer/GEOS24705/Notes/SteamNotes.pdf

    Ich bin mir noch nicht hundert Prozent darüber im Klaren, warum sich bei weniger als Atmosphärendruck immer ein Gleichgewicht einstellen sollte – in ganz trockener Luft mit ein bisschen Zug sollten die Wassermoleküle ja auch nicht in der Lage sein, einen Gleichgewichtszustand herzustellen, und trotzdem kocht das Wasser deswegen in der Wüste nicht früher – aber das ist jedenfalls die Erklärung, die man überall findet.

  53. #53 MartinB
    12. August 2014

    @Alderamnin #50
    Sorry, ich dachte, die Abhängigkeit vom Umgebungsdruck wäre klar, deswegen bin ich darauf nie eingegangen. (Wichtig ist, dass der Partialdruck entscheidend ist, nicht so sehr der Gesamtdruck des gases)

    Die #52 habe ich nicht ganz verstanden – am Atmosphärendruck ist ja nix besonderes. Oben hatte ich ja auch den Wiki-Artikel zum kritischen Punkt in CO2 verlinkt, wenn du da aufs Phasendiagramm schaust und das noch mal mit der diskutierten Logik zusammenbringst, dann sollte die Sache eigentlich klarer werden, denke ich.

    Vielleicht versuche ich wirklich irgendwann, meine Anschauung noch mal ausführlich in Artikel zu gießen (ich sehe eine neue Artikelserie am Horizont…) aber im Moment ist Sommer, draußen meist schönes Wetter und demnächst auch Urlaub; das wird also vermutlich etwas auf sich warten lassen…

  54. #54 Alderamin
    12. August 2014

    @MartinB

    Sorry, ich dachte, die Abhängigkeit vom Umgebungsdruck wäre klar,

    Dass Wasser bei verschiedenem Druck unterschiedliche Siedetemperaturen hat, wusste ich natürlich, aber das habe ich halt so als Tatsache gelernt, ohne näher darüber nachgedacht zu haben, warum das eigentlich so ist.

    Die #52 habe ich nicht ganz verstanden – am Atmosphärendruck ist ja nix besonderes.

    Ich denke schon, man kann ja keinen Partialdruck haben, der den Außendruck signifikant übersteigt. Wenn sich lokal über dem Wasser der Druck erhöht und kein geschlossenes Gefäß vorliegt, breitet sich das Wassergas ja einfach in alle Richtungen aus und der Druck fällt. So erklärt’s der Professor im oben (#50) verlinkten Video.

    Vielleicht kommt es insbesondere auf den Druck unmittelbar unter der Wasseroberfläche an, der ist ja mindestens so hoch wie der Atmosphärendruck. Wenn der Partialdruck des verdunstenden Wassers diesen übersteigt, geht das Sieden los, ansonsten kann sich ein Gleichgewichtsdruck einstellen. Das würde dann auch in trockener Zugluft gelten.

    @Bjoern

    Ist das jetzt nicht auch die Antwort auf die Frage, warum es überhaupt eine flüssige Phase gibt? Weil sich aufgrund des Umgebungsdrucks an der Flüssigkeitsoberfläche ein Gleichgewicht zwischen aufbrechenden und sich wieder vereinigenden Van-der-Waals-Bindungen einstellt (und unter der Oberfläche ist der Umgebungsdruck natürlich stets noch größer, da überwiegt die Rekombinationsrate umso mehr). Was beim Sieden dann nicht mehr gelingt. Und wenn Blasen am Boden eines Kessels auftreten, ist der Partialdruck des Wassergases dort so hoch, dass selbst der Druck der Wassersäule nicht mehr ausreicht, diesen zu übertreffen.

  55. #55 Bjoern
    17. August 2014

    Sorry, hatte die ganze Woche keine Zeit, hier zu kommentieren…

    Ein wenig erhellend war die Diskussion diese Woche schon, aber so ganz steige ich immer noch nicht durch…

    Noch mal für Martin: Die Frage ist im Wesentlichen: Warum gibt es zwischen der festen Phase (Moleküle fest gebunden) und der gasförmigen Phase (Moleküle frei beweglich) noch mal eine eigene flüssige Phase (in der ständig Bindungen aufbrechen und sich neu bilden); warum geht der Stoff nicht direkt vom festen in der gasförmigen Zustand über?

    Und die Antwort “weil die flüssige Phase bei bestimmten Temperaturen eine niedrigere freie Energie hat als die beiden anderen Phasen” ist nicht so recht befriedigend, weil das eine eher thermodynamische Erklärung ist; ich bin eher an einer Erklärung über die statistische Physik interessiert. Unter anderem wäre noch zu klären, was denn nun eigentlich dazu führt, dass man oberhalb des kritischen Punkts keinen Phasenübergang mehr hat.

    @Alderamin: Nach deiner letzten Erklärung wäre also die Umgebung nötig, um zu erklären, warum es eine flüssige Phase gibt?!

  56. #56 MartinB
    17. August 2014

    @Bjoern
    Dass es zwischen “kristalline Anordnung” und “keine Bindung” noch ein Zwischending geben kann, ist aber doch eigentlich mikroskopisch klar, oder nicht? Zwischenzeitig war die Frage doch auch eher, warum der Übergang zwischen den einzelnen Phasen scharf ist und nicht weich.

    “warum geht der Stoff nicht direkt vom festen in der gasförmigen Zustand über?”
    Weil die thermische Energie zwar ausreicht, um einzelne Bindungen mit gewisser Wahrscheinlichkeit aufzubrechen, es aber immer noch wahrscheinlicher ist, die Moleküle untereinander gebunden zu haben als dass sie vollkommen frei sind.

    Villeicht hilft es dir, ein mikrokanonisches Ensemble (feste Energie) zu betrachten: Es gibt einen Energiebereich, in dem die Energie hoch genug ist, dass nicht mehr alle Moleküle perfekt im Kristall gebunden sind, bei dem sie aber nicht so groß ist, dass die Moleküle schon vollkommen frei sein könnten.

    Man könnte natürlich auch bei dieser Energie einen teil als festkörper und einen Teil als Gas vorliegen haben – und das ist ja auch abhängig z.B. vom Druck durchaus möglich. Je nach Bedingungen stellt sich dann eben die Frage, welche Phase oder Phasenkombination den größten Phasenraumanteil hat.

    “Nach deiner letzten Erklärung wäre also die Umgebung nötig, um zu erklären, warum es eine flüssige Phase gibt?!”
    Natürlich – im Vakuum ist jede Flüssigkeit nur metastabil (jeder festkörperauch), aber die Wahrscheinlichkeit, ein Molekül aus dem Verbund loszureißen, kann natürlich so klein sein, dass “metastabil” immer noch für alle praktischen Zwecke ewig ist.

  57. #57 Bjoern
    20. August 2014

    Dass es zwischen “kristalline Anordnung” und “keine Bindung” noch ein Zwischending geben kann, ist aber doch eigentlich mikroskopisch klar, oder nicht?

    Nachdem du erklärt hattest, wie ich mir da die Bindungen da vorzustellen habe, eigentlich ja.

    Zwischenzeitig war die Frage doch auch eher, warum der Übergang zwischen den einzelnen Phasen scharf ist und nicht weich.

    Ja. Bzw. warum es nur eine “flüssige” Phase gibt und nicht mehrere bis zu unendlich viele – was ja letztlich wieder ein weicher Übergang wäre.

    Es gibt einen Energiebereich, in dem die Energie hoch genug ist, dass nicht mehr alle Moleküle perfekt im Kristall gebunden sind, bei dem sie aber nicht so groß ist, dass die Moleküle schon vollkommen frei sein könnten.

    Das erklärt wiederum nicht, warum es vor und nach diesem Energiebereich jeweils einen Phasenübergang ist, der Übergang also nicht “weich” ist…

  58. #58 MartinB
    21. August 2014

    @Bjoern
    Ja, aber den “harten” Übergang kannst du eben nicht verstehen, wenn du dir mikroskopisch ein oder einige Moleküle anguckst, dass ist eben der statistische Effekt der vielen Moleküle.

  59. #59 Alderamin
    21. August 2014

    @Martin, Bjoern

    Wie gesagt, ich erkläre mir den harten Übergang von flüssig zu gasförmig mit dem Übersteigen des Umgebungsdrucks durch den Partialdruck. Und den zwischen fest und flüssig mit der charakteristischen Energie zum Aufbrechen der Brückenbindungen.

    Wasser ist da wegen der Brückenbindungen ziemlich speziell. Wenn man etwa Glas oder Metall schmilzt, dann wird dieses mit zunehmender Temperatur immer viskoser. Liegt vermutlich daran, dass bei diesen Stoffen mangels polarer Moleküle eben keine Brückenbindungen ausgebildet werden, korrekt?

  60. #60 MartinB
    21. August 2014

    @Alderamin
    Nein, Glas ist amorph, nicht kristallin, deswegen gibt es keinen eindeutigen Schmelzpunkt – unterschiedlich stark gebundene Bereiche schmelzen unterschiedlich leicht auf.
    Kristalline Materialien (vorausgesetzt sie sind elementar, bei Legierungen ist es anders) haben einen eindeutigen Schmelzpunkt.

  61. #61 Alderamin
    21. August 2014

    @MartinB

    Bzgl. Glas einverstanden (wird ja manchmal auch als eine unterkühlte Flüssigkeit bezeichnet), aber Eisen (Roheisen) wird doch auch zuerst weich und formbar (“schmiede das Eisen, solange es heiß ist”), lange bevor man es gießen kann. Zinn scheint mir beim Löten hingegen ziemlich schnell sehr viskos zu werden. Bilden alle Metalle nicht generell eine Gitterstruktur aus?

  62. #62 Alderamin
    21. August 2014

    @myself

    Eisen (Roheisen) wird doch auch zuerst weich und formbar […], lange bevor man es gießen kann.

    Ich sehe schon, liegt wohl an der Allotropie des Eisens.

  63. #63 MartinB
    21. August 2014

    @Alderamin
    Nein, die Allotropie ist da sekundär.
    Eisen (wie alle Metalle) wird bei hoher Temperatur verformbar, weil bei dann plastische Verformung durch Versetzungsbewegung erleichtert stattfindet (unteranderem, weil die thermische Aktivierung von Versetzungen das Überwinden von Hindernissen erleichtert.) Trotzdem haben Metalle bis zum Schmelzen eine ganz normale kristallstruktur (abgesehen von metallischen Gläsern).
    Die Viskosität im flüssigen Zustand ist dann wieder was anderes.
    Lötzinn ist typischerweise eine Legierung mit einem eutektischen Punkt, die deswegen niedrig schmilzt.

  64. #64 Alderamin
    21. August 2014

    @MartinB

    Alles klar, danke. Vielleicht sollte ich mir mal Dein Buch über Materialwissenschaft kaufen, das Thema ist nicht unspannend.

  65. #65 MartinB
    21. August 2014

    Kann ich empfehlen 😉

  66. #66 MartinB
    21. August 2014

    @Bjoern
    Noch eine andere (thermodynamische) Überlegung: Der Übergang ist ja nur “hart” in dem Sinne, dass sich die Temperatur nicht ändert – am Anfang eines Schmelzprozesses hast du nur Kristall, am Ende nur Flüssigkeit, dazwischen hast du Bereiche aus beiden Phasen, der Übergang ist ja nicht instantan.

    Und ich denke, dass sich die Temp. nicht ändert kann man dadurch verstehen, dass ja die hinzugefügte Energie dazu dient, die kristallbindungen aufzubrechen. Für jede Energiemenge, die du hinzufügst, wandelst du dieselbe Menge kristall in Flüssigkeit um. Deswegen ist die Änderung der Entropie mit der Energie konstant, und die Temperatur ist ja nichts anderes als das:
    https://scienceblogs.de/hier-wohnen-drachen/2013/04/04/temperatur1/