Ja, ich geb’s zu: der letzte Text über negative Temperaturen war ein bisschen theoretisch – insbesondere, weil ich kein Wort darüber gesagt habe, was die Entropie eigentlich ist. Ich wollte mal spaßeshalber versuchen zu denken wie ein echter theoretischer Thermodynamiker, also ohne jede Anschauung auf der mikroskopischen Ebene. Für ein richtiges Verständnis hilft das natürlich nur wenig, und das wurde ja auch in den Kommentaren deutlich. Heute gucken wir uns das ganze deshalb an einem Beispiel an.
Beim letzten Mal hatte ich ja erklärt, dass die Temperatur etwas mit der Änderung der Entropie zu tun hat, wenn man einem System Energie zuführt. Die Formel für die Temperatur war
Um diese Definition anschaulich zu verstehen und zu sehen, was es mit der Entropie auf sich hat, brauchen wir ein Beispielsystem. (In der Physik nennt man so etwa Spielzeugmodell oder Englisch “toy model” – dies ist ein dezenter Hinweis an den Reviewer meines letzten Papers, der das Wort “toy model” aus der Arbeit gestrichen haben wollte, weil es angeblich nicht wissenschaftlich sei (ja, manchmal springt man als Wissenschaftler durch seltsam hochgehaltene Reifen…)) Mein Lieblingsspielzeug in Sachen Thermodynamik ist das Isingmodell – das hat den Vorteil, schön einfach zu sein. (Ihr könnt das sogar online ausprobieren und damit herumspielen – das Applet hat Knöpfe zum Aufheizen und Abkühlen und viele andere schicke Möglichkeiten.)
Das Ising-Modell wurde als Modell für einen Ferromagneten erfunden. In der Schule habt ihr mal gelernt, dass magnetisierbare Materialien wie Eisen kleine Elementarmagnete enthalten, die alle einen winzigen magnetischen Nord- oder Südpol haben und sich bevorzugt parallel zu einander ausrichten. Wir machen uns das Leben hier einfach und gucken uns das Modell in zwei Dimensionen an. Wir haben also ein Gitter von Elementarmagneten, die alle hübsch aufgereiht nebeneinander sitzen. Außerdem erlauben wir denen auch keine beliebige Orientierung, sondern lassen sie entweder nach oben oder nach unten zeigen; was anderes geht nicht. So etwa sieht das dann aus:
Die Energie zweier benachbarter Magneten setzen wir zu -1, wenn sie in dieselbe Richtung zeigen, und zu +1, wenn sie in entgegengesetzte Richtung zeigen (in irgendwelchen vollkommen willkürlichen Einheiten, denn hier geht es nur ums Prinzip). Übernächste Nachbarn beeinflussen sich nicht, wir müssen für die Berechnung der Energie also immer nur nächste Nachbarn angucken.
Energetisch besonders günstig ist natürlich der Zustand, wo alle Elementarmagneten in dieselbe Richtung zeigen, beispielsweise alle nach oben. Alle nach unten ist genau so gut, aber es macht die Abzählerei, die gleich kommt, etwas schwieriger (im vornehmen Physik-Sprech sagt man “der Grundzustand ist entartet” (nein, das hat nichts mit irgendwelchen Nazi-Ideen von entarteter Kunst zu tun)), deswegen betrachte ich hier nur den Fall, wo alles nach oben zeigt. (Man könnte dazu einen Elementarmagneten festhalten und in die Richtung oben zwingen, dann ist dies eindeutig der günstigste Zustand.)
Um jetzt etwas mit unserer Formel oben anfangen zu können, müssen wir die Entropie und die Energie unseres Ising-Modells kennen.
Nehmen wir an, wir haben 100 Elementarmagneten (man sagt auch gern einfach und kurz “Spins” dazu) in unserem Gitter, hübsch angeordnet auf einem Feld mit 10×10 Plätzen., die alle in dieselbe Richtung zeigen. Dann hat jeder Spin mit seinem Nachbarn eine Energie von -1, insgesamt ergibt sich -200 (wobei ich mir jetzt keine Gedanken mache, was mit den Spins am Rand passiert, Randeffekte lasse ich außen vor), denn jeder Spin hat vier Nachbarn, jede Bindung zählt mit -1, aber ich darf natürlich die Bindung zwischen zwei Nachbarn nur jeweils einmal zählen, nicht zweimal (man kann auch einfach das Gitter abklappern und von jedem Spin aus nur den Nachbarn nach rechts und nach oben angucken).
Wenn ich einen Spin umklappe, dann steigt die Energie von -200 auf -192, denn die Energie mit seinem vier Nachbarn ändert sich jeweils von -1 auf +1. Klappe ich dann noch einen zweiten Spin um, dann steigt die Energie auf -184 (es sei denn, der sitzt direkt neben dem ersten, dann ist die Energie -188, wenn ich mich nicht verzählt habe). Je mehr Spins man umklappt, um so höher wird die Energie. Dabei ist es (wie wir ja eben schon gesehen haben) etwas günstiger, wenn man viele benachbarte Spins umklappt und so “Inseln” erzeugt, weil dann im Innern der “Insel” alle Spins wieder glücklich sind, weil sie in dieselbe Richtung zeigen, und nur am Rand der Insel Energiekosten entstehen. Das führt dann zu einem ziemlich komplizierten Verhalten des Systems, bei denen man auch Inseln innerhalb von Inseln haben kann (also beispielsweise Bereiche mit Spins nach oben, in denen Bereiche mit Spin nach unten liegen, in denen Bereiche mit Spin nach oben liegen usw.). Daraus ergibt sich eine faszinierende Thermodynamik mit Phasenübergängen, kritischen Punkten und allem, was die Thermodramatiker so lieben. Hier mal ein paar Bilder des Systems bei verschiedenen Temperaturen, mit dem oben verlinkten Applet gemacht und direkt aus meinem Vorlesungsskript geklaut – die Farben symbolisieren die unterschiedlichen Spins:
Bei niedriger Temperatur – einzelne Inseln einer Orientierung in einem Meer der anderen.
Etwas höhere Temperatur – die Ränder der Inseln werden rauer und im Innern der Inseln und des Meeres drehen sich einzelne Spins auch um.
Genau am sogenannten kritischen Punkt: Es gibt Inseln aller Größenordnungen.
Bei sehr hoher Temperatur – die Spins sind im wesentlichen zufällig verteilt.
Ihr seht schon, da passiert ziemlich viel in diesem System, und darüber könnte ich sicher eine meiner gefürchteten Endlos-Serien schreiben.
Wir gucken aber nur auf Energie und Entropie; die Energie haben wir abgehakt, jetzt kommt die Entropie. Wir brauchen sie als Funktion der Energie, und das ist (wenn man nicht zu genau hinschaut) einigermaßen einfach: Die Entropie ist bestimmt durch die Zahl der Möglichkeiten, einen Zustand mit einer bestimmten Energie zu erreichen. Bei unserem Mini-Modell mit 100 Spins gibt es nur einen Zustand mit Energie -200, nämlich den, wo alle nach oben zeigen (alle nach unten ginge auch, aber das habe ich ja oben verboten!). Zur Energie -192 gibt es schon 100 Möglichkeiten, denn jeder der Spins kann derjenige sein, der umklappt. Bei Energie -184 sind zwei Spins umgeklappt, dafür gibt es 100 ⋅ 99/2 Möglichkeiten, denn ich habe erst 100 Möglichkeiten für den ersten Spin, dann 99 für den zweiten, aber es ist egal ob ich erst Spin 12 und dann Spin 76 ausgewählt habe oder umgekehrt, deshalb teile ich nochmal durch zwei (wobei ich die Tatsache außer acht lasse, dass ein Zustand mit zwei benachbarten umgeklappten Spins eine etwas niedrigere Energie hat, so genau müssen wir nicht hingucken). Ist Ω(E) die Zahl der Möglichkeiten zur Energie E, dann ist die Entropie definiert als
S= k ln Ω
Dabei ist k die berühmte Boltzmann-Konstante (eine Naturkonstante) und ln ist der (natürliche) Logarithmus. Die Formel ist die berühmte Boltzmansche Definition der Entropie, die auch auf seinem Grabstein steht (und über die ihr mehr erfahrt, wenn ihr rechts bei Artikelserien klickt und die Entropie-Serie lest).
Den Logarithmus nimmt man deswegen ,weil man möchte, dass die Entropie die folgende Eigenschaft hat: Habe ich zwei Systeme, dann soll die Entropie beider Systeme zusammen gleich der Summe der Einzelentropien sein. Nehmen wir an, das erste System hat 100 Möglichkeiten, das zweite auch. Betrachte ich beide zusammen, sind das dann 10000 Möglichkeiten (100 mal 100), also das Produkt der beiden Zahlen. Der Logarithmus hat aber nun gerade die Eigenschaft, dass er aus einem Produkt eine Summe macht, oder in Formeln ausgedrückt:
Das erklärt also, warum man den Logarithmus braucht; der zusätzliche Vorfaktor “Boltzmann-Konstante” hat mehr oder weniger historische Gründe, man hätte die Entropie auch ohne ihn definieren können. Man kann also sagen: die Entropie ist der Logarithmus der Zahl der Möglichkeiten für einen bestimmten Zustand bzw., in unserem Fall hier, für eine bestimmte Energie.
Und jetzt können wir uns die Funktion ΔS/ΔE angucken. Ist das System im Zustand niedrigster Energie, so gibt es nur eine Möglichkeit, die Entropie ist also ln(1)=0. Erhöhen wir die Energie um 8 Einheiten (auf -192), dann gibt es 100 Möglichkeiten, die Entropie ist jetzt also k ln(100). Für eine Energieänderung δE von 8 ergibt sich also eine Entropieänderung von ΔS von k ln(100). Den Faktor k lasse ich im Folgenden der Einfachheit halber weg – die Entropie ist dann also ln(100).
Erhöhen wir die Energie noch einmal um 8 Einheiten, dann haben wir jetzt (näherungsweise, siehe oben) 100 ⋅ 99/2 Möglichkeiten, die Entropie ist jetzt also
ln(100) + ln(99) – ln(2). (Der Logarithmus eines Quotienten ist die Differenz der Logarithmen.) Die Entropieänderung von Energie -192 auf -184 ist jetzt
ln(100)+ln(99) – ln(2) – ln(100) = ln(99) -ln(2), sie ist also kleiner geworden. Nach unserer Anfangsformel heißt das, dass die Temperatur unseres Systems jetzt höher geworden ist, denn die ist ja der Kehrwert der Entropieänderung.
Nebenbemerkung für ganz Genaue: Die Funktion verläuft hier etwas sprunghaft, weil ich nur 100 Spins habe. Hätte man unendlich viele, so könnte man die Energie pro Volumen um beliebig kleine Werte ändern und alles wäre etwas glatter.
So geht es weiter. Wenn wir drei Spins umklappen, dann haben wir 100 ⋅ 99 ⋅ 98/(2⋅3) Möglichkeiten, die Entropieänderung von 2 auf drei umgeklappte Spins ist dann also ln(98)-ln(3), sie ist also wieder kleiner geworden und entsprechend ist die Temperatur noch höher.
So geht es also immer weiter, die Entropie unseres Systems steigt (wenn auch mit jedem ΔE immer weniger). Irgendwann erreichen wir den Zustand maximaler Entropie. Das ist der, der die größte Anzahl an Möglichkeiten hat. Hier gibt es im statistischen Mittel genauso viele Spins nach oben wie nach unten und auch benachbarte Spins sind nicht mehr miteinander korreliert, sondern ziemlich beliebig ausgerichtet.
Noch eine Nebenbemerkung für ganz ganz Genaue: Ich habe extra “ziemlich beliebig” und nicht “völlig beliebig” geschrieben, denn ich betrachte hier ja das Modell immer bei einer ganz festen Energie. Würde ich die Temperatur festhalten, dann wären kleine Schwankungen der Energie erlaubt; in dem Fall könnte man dann einfach sagen, dass man für jeden Spin eine Münze wirft, Kopf heißt oben, Zahl heißt unten. Durch thermische Schwankungen kann sich dann die Energie auch mal ein bisschen vergrößern oder verkleinern. Hält man die Energie genau fest, dann geht das aber natürlich nicht ganz so einfach. Für sehr große Systeme geht der Unterschied zwischen festgehaltener Energie und festgehaltener Temperatur aber gegen Null. (In der statistischen Physik spricht man vom “mikrokanonischen Ensemble”, wenn die Energie festgehalten ist, und vom “kanonischen Ensemble”, wenn die Temperatur festliegt. (Es gibt auch noch das großkanonische Ensemble, da darf sich die Teilchenzahl ändern, aber dafür liegt das chemische Potential fest, aber das führt nun wirklich total vom Thema ab (ich schreibe das eh nur, falls jemand sich irgendwo schlau lesen will, dann habt ihr wenigstens passende Stichworte (und ich klammere schon wieder so viel, deswegen mache ich jetzt alle Klammern auf einmal zu, nämlich mit einer eckigen Klammer (so macht man das in LISP (was eine Abkürzung für “long and incredibly slow programs” ist] Ende der Nebenbemerkung.
Beim Zustand mit höchstmöglicher Entropie hat diese also ein Maximum. Ich kann aber immer noch weiter Energie ins System stecken. Bei niedriger Temperatur war es ja so, dass die Entropie klein war, weil sich benachbarte Spins gern parallel ausrichten wollten. Wenn ich in mein System bei höchstmöglicher Entropie weiter Energie ins System reinstecke, dann fangen benachbarte Spins an, sich entgegengesetzt auszurichten. Damit kann ich die Energie weiter steigern, wobei die Entropie aber wieder abnimmt. Und schließlich erreiche ich einen Zustand, wo die Spins wie die Felder eines Schachbretts angeordnet sind: Jeder Spin oben ist von vier Spins unten umgeben. Das ist der Zustand mit der höchsten Energie – seine Entropie ist aber verschwindend (wenn ich wie am Anfang einen Spin festhalte, dann ist sie gleich Null, weil es nur eine Möglichkeit gibt – ansonsten gibt es zwei, weil ich einen beliebigen Spin ja entweder nach oben oder unten zeigen lassen kann).
Die Entropie unseres Systems läuft also genau so, wie wir es letztes Mal aufgezeichnet haben (Wobei die Kurve am Anfang und am Ende genau senkrecht verlaufen müsste):
Noch einmal kurz zusammengefasst: Vom energetisch günstigsten Zustand aus stecken wir immer mehr Energie ins System. Dabei nimmt die Entropie immer weiter zu, aber mit jedem Energiebetrag ein bisschen weniger, so dass die Temperatur ebenfalls zunimmt. Irgendwann erreichen wir den Zustand maximaler Entropie, bei dem die Spins alle ungeordnet sind und sich nicht umeinander kümmern. Hier hat das System die Temperatur unendlich, denn am Maximum ist ΔS/ΔE ja gleich Null. Danach nimmt die Entropie wieder ab, die Temperatur springt also von plus unendlich auf minus unendlich (die Steigung ist ja sehr flach) und wird dann betragsmäßig immer kleiner, läuft also von minus unendlich gegen “minus Null”. Im Zustand maximaler Energie erreichen wir dann den absoluten Nullpunkt, aber von der negativen Seite aus.
Ihr seht, dass das ganze etwas verwirrend ist. Das liegt aber nur an der blöden Definition der Temperatur. Hätte man den Kehrwert verwendet, dann wäre die Sache ganz einfach. Wir definieren hier mal die “neue Temperatur” N als 1/T. Dann sind sehr kalte Systeme bei N gleich unendlich. Mache ich Systeme immer heißer, dann nimmt N immer weiter ab und erreicht schließlich den Wert Null. Danach wird N dann negativ und erreicht schließlich den Wert minus unendlich.Noch besser wäre es, wenn ich die “neue Temperatur” als -1/T definieren würde: Die wäre bei einem extrem kalten System bei minus unendlich und würde dann immer weiter ansteigen (wobei normale Systeme allerdings nie positive Werte erreichen würden).
Hätte man also bei der Definition der Temperatur mehr von Thermodynamik verstanden, dann hätte man mit einer geschickteren Definition die Sache wesentlich einfacher verständlich machen können. Thermodynamikerinnen arbeiten übrigens gern mit der inversen Temperatur und nennen sie β. Dieses Bild (entnommen von der Seite der LMU München, wo die Experimente gemacht wurden) hier veranschaulicht das nochmal:
Man kann sich das mit einem anderen Beispiel noch mal veranschaulichen: Euer Geldbesitz kann eine beliebige positive oder negative (hoffentlich nicht) Zahl sein. Wenn ihr immer mehr Geld ausgebt, dann geht euer Besitz gegen null und wird dann negativ. Daran ist nichts besonderes (auch wenn’s unangenehm ist), oder? Jetzt stellt euch vor, im Zuge der ganzen Bankenkrisen usw. will man dafür sorgen, dass der Geldtransfer nicht mehr so leicht zu verstehen ist, und gibt deswegen den inversen Geldbesitz an. Wenn ihr also 1000 Euro habt, dann ist euer Geldbesitz 1/1000Euro. Gebt ihr 999 Euro aus, steigt euer inverser Besitz auf 1/1Euro. Dann gebt ihr noch 99 cent aus und habt jetzt einen inversen Besitz von 100/Euro (also 100 inverse Euro). Jetzt gebt ihr noch 0.9 cent aus und habt 1000/Euro (real besitzt ihr noch 0.001 Euro). Und dann gebt ihr nochmal 0.002 Euro (hab jetzt also 0.001 Euro Schulden oder -0.001Euro) aus und jetzt macht euer inverser Geldbesitz einen Sprung von 1000/Euro nach -1000/Euro. Auch hier steckt dazwischen ein Sprung von einer positiven großen Zahl zu einer negativen Zahl mit großem Betrag – sieht verwirrend aus, liegt aber nur an der abstrusen Definition des inversen Geldbesitzes. Genau so ist es mit der Temperatur, auch die ist einfach nur abstrus definiert.
Und warum sind negative Temperaturen nun etwas besonderes und wir beobachten sie normalerweise nicht? Das liegt daran, dass bei den meisten thermodynamischen Systemen die Entropiekurve kein Maximum hat und entsprechend auch nie abfällt. Nehmt als Beispiel ein Gas. Bei niedriger Temperatur sammeln sich die Gasatome alle am Boden ihres Behälters (wegen der Schwerkraft), die Entropie ist klein und es gibt wenige Möglichkeiten dafür. Erhöhe ich die Temperatur, verteilen sich die Moleküle auch immer weiter oben in meinem Behälter, zusätzlich werden sie auch immer schneller. Wenn ich ihnen mehr Energie zuführe, dann können sie sich immer schneller bewegen, es gibt also immer mehr Möglichkeiten, die Energie auf alle Atome zu verteilen. Und so kann die Entropie kein Maximum bekommen und es gibt auch keine negativen Temperaturen.
Negative Temperaturen kann es nur dann geben, wenn die Energie eines Systems einen Maximalwert erreichen kann (so wie beim Schachbrettmuster im Ising-Modell). Bei dieser Zustand ist die Zahl der Möglichkeiten dann wieder klein, und irgendwo zwischen diesem und dem Zustand mit niedrigster Energie hat die Entropie dann ihr Maximum.
Auch das kann man sich noch einmal an dem Gas im Behälter veranschaulichen. Wenn wir die Geschwindigkeit der Gasatome ignorieren könnten (was real so natürlich nicht zulässig ist) und uns nur auf die Höhe der Gasatome konzentrieren, dann haben sie einen Zustand maximaler Energie, wenn sie alle ganz oben im Behälter sind. Dieses schöne Bild veranschaulicht das:
Bei niedriger Energie sind alle Atome unten, weil das energetisch günstig ist. Stecke ich mehr Energie rein, erhöhe ich die Temperatur und die Atome verteilen sich immer weiter im Behälter. Sind sie ganz gleichmäßig verteilt (so dass für jedes Atom jeder Ort gleichwahrscheinlich ist), dann habe ich Temperatur unendlich; stecke ich noch mehr Energie rein, dann bleibt den Atomen nichts übrig, als sich oben im Behälter anzusammeln, wo ihre Energie besonders hoch ist.
Also: bei negativer Temperatur ist die Energie eines Systems besonders hoch – es ist also nicht wirklich “kälter” als 0Kelvin. Dass negative Temperaturen uns so seltsam vorkommen, liegt letztlich nur an der ungeschickten Definition.
Wenn ihr mehr wissen wollt, empfehle ich nochmal die Seite der LMU München, die das alles auch sehr schön ausführlich erklärt. (Dort könnt ihr auch nachlesen, warum die häufig gehörte Aussage, dass ein Laser negative Temperatur hat, nicht stimmt – ein Laser ist nicht im thermischen Gleichgewicht und hat gar keine wohldefinierte Temperatur.) Und Details zum Experiment könnt ihr dort auch nachlesen, darüber schreibe ich heute nicht mehr (vielleicht ein andermal, aber eigentlich ist die Seite dort ziemlich ausführlich und gut; oben findet ihr auch eine Pressemitteilung in Deutsch, falls ihr das Englisch nicht mögt.)
Kommentare (29)