Ja, ich geb’s zu: der letzte Text über negative Temperaturen war ein bisschen theoretisch – insbesondere, weil ich kein Wort darüber gesagt habe, was die Entropie eigentlich ist. Ich wollte mal spaßeshalber versuchen zu denken wie ein echter theoretischer Thermodynamiker, also ohne jede Anschauung auf der mikroskopischen Ebene. Für ein richtiges Verständnis hilft das natürlich nur wenig, und das wurde ja auch in den Kommentaren deutlich. Heute gucken wir uns das ganze deshalb an einem Beispiel an.

Beim letzten Mal hatte ich ja erklärt, dass die Temperatur etwas mit der Änderung der Entropie zu tun hat, wenn man einem System Energie zuführt. Die Formel für die Temperatur war

Um diese Definition anschaulich zu verstehen und zu sehen, was es mit der Entropie auf sich hat, brauchen wir ein Beispielsystem. (In der Physik nennt man so etwa Spielzeugmodell oder Englisch “toy model” – dies ist ein dezenter Hinweis an den Reviewer meines letzten Papers, der das Wort “toy model” aus der Arbeit gestrichen haben wollte, weil es angeblich nicht wissenschaftlich sei (ja, manchmal springt man als Wissenschaftler durch seltsam hochgehaltene Reifen…)) Mein Lieblingsspielzeug in Sachen Thermodynamik ist das Isingmodell – das hat den Vorteil, schön einfach zu sein. (Ihr könnt das sogar online ausprobieren und damit herumspielen – das Applet hat Knöpfe zum Aufheizen und Abkühlen und viele andere schicke Möglichkeiten.)

Das Ising-Modell wurde als Modell für einen Ferromagneten erfunden. In der Schule habt ihr mal gelernt, dass magnetisierbare Materialien wie Eisen kleine Elementarmagnete enthalten, die alle einen winzigen magnetischen Nord- oder Südpol haben und sich bevorzugt parallel zu einander ausrichten. Wir machen uns das Leben hier einfach und gucken uns das Modell in zwei Dimensionen an. Wir haben also ein Gitter von Elementarmagneten, die alle hübsch aufgereiht nebeneinander sitzen. Außerdem erlauben wir denen auch keine beliebige Orientierung, sondern lassen sie entweder nach oben oder nach unten zeigen; was anderes geht nicht. So etwa sieht das dann aus:

ising_tinfty

Die Energie zweier benachbarter Magneten setzen wir zu -1, wenn sie in dieselbe Richtung zeigen, und zu +1, wenn sie in entgegengesetzte Richtung zeigen (in irgendwelchen vollkommen willkürlichen Einheiten, denn hier geht es nur ums Prinzip). Übernächste Nachbarn beeinflussen sich nicht, wir müssen für die Berechnung der Energie also immer nur nächste Nachbarn angucken.

Energetisch besonders günstig ist natürlich der Zustand, wo alle Elementarmagneten in dieselbe Richtung zeigen, beispielsweise alle nach oben. Alle nach unten ist genau so gut, aber es macht die Abzählerei, die gleich kommt, etwas schwieriger (im vornehmen Physik-Sprech sagt man “der Grundzustand ist entartet” (nein, das hat nichts mit irgendwelchen Nazi-Ideen von entarteter Kunst zu tun)), deswegen betrachte ich hier nur den Fall, wo alles nach oben zeigt. (Man könnte dazu einen Elementarmagneten festhalten und in die Richtung oben zwingen, dann ist dies eindeutig der günstigste Zustand.)

Um jetzt etwas mit unserer Formel oben anfangen zu können, müssen wir die Entropie und die Energie unseres Ising-Modells kennen.

Nehmen wir an, wir haben 100 Elementarmagneten (man sagt auch gern einfach und kurz “Spins” dazu) in unserem Gitter, hübsch angeordnet auf einem Feld mit 10×10 Plätzen., die alle in dieselbe Richtung zeigen. Dann hat jeder Spin mit seinem Nachbarn eine Energie von -1, insgesamt ergibt sich -200 (wobei ich mir jetzt keine Gedanken mache, was mit den Spins am Rand passiert, Randeffekte lasse ich außen vor), denn jeder Spin hat vier Nachbarn, jede Bindung zählt mit -1, aber ich darf natürlich die Bindung zwischen zwei Nachbarn nur jeweils einmal zählen, nicht zweimal (man kann auch einfach das Gitter abklappern und von jedem Spin aus nur den Nachbarn nach rechts und nach oben angucken).

Wenn ich einen Spin umklappe, dann steigt die Energie von -200 auf -192, denn die Energie mit seinem vier Nachbarn ändert sich jeweils von -1 auf +1. Klappe ich dann noch einen zweiten Spin um, dann steigt die Energie auf -184 (es sei denn, der sitzt direkt neben dem ersten, dann ist die Energie -188, wenn ich mich nicht verzählt habe). Je mehr Spins man umklappt, um so höher wird die Energie. Dabei ist es (wie wir ja eben schon gesehen haben) etwas günstiger, wenn man viele benachbarte Spins umklappt und so “Inseln” erzeugt, weil dann im Innern der “Insel” alle Spins wieder glücklich sind, weil sie in dieselbe Richtung zeigen, und nur am Rand der Insel Energiekosten entstehen. Das führt dann zu einem ziemlich komplizierten Verhalten des Systems, bei denen man auch Inseln innerhalb von Inseln haben kann (also beispielsweise Bereiche mit Spins nach oben, in denen Bereiche mit Spin nach unten liegen, in denen Bereiche mit Spin nach oben liegen usw.). Daraus ergibt sich eine faszinierende Thermodynamik mit Phasenübergängen, kritischen Punkten und allem, was die Thermodramatiker so lieben. Hier mal ein paar Bilder des Systems bei verschiedenen Temperaturen, mit dem oben verlinkten Applet gemacht und direkt aus meinem Vorlesungsskript geklaut – die Farben symbolisieren die unterschiedlichen Spins:

ising1

Bei niedriger Temperatur – einzelne Inseln einer Orientierung in einem Meer der anderen.

ising2

Etwas höhere Temperatur – die Ränder der Inseln werden rauer und im Innern der Inseln und des Meeres drehen sich einzelne Spins auch um.

ising3

Genau am sogenannten kritischen Punkt: Es gibt Inseln aller Größenordnungen.

ising5

Bei sehr hoher Temperatur – die Spins sind im wesentlichen zufällig verteilt.

Ihr seht schon, da passiert ziemlich viel in diesem System, und darüber könnte ich sicher eine meiner gefürchteten Endlos-Serien schreiben.

Wir gucken aber nur auf Energie und Entropie; die Energie haben wir abgehakt, jetzt kommt die Entropie. Wir brauchen sie als Funktion der Energie, und das ist (wenn man nicht zu genau hinschaut) einigermaßen einfach: Die Entropie ist bestimmt durch die Zahl der Möglichkeiten, einen Zustand mit einer bestimmten Energie zu erreichen. Bei unserem Mini-Modell mit 100 Spins gibt es nur einen Zustand mit Energie -200, nämlich den, wo alle nach oben zeigen (alle nach unten ginge auch, aber das habe ich ja oben verboten!). Zur Energie -192 gibt es schon 100 Möglichkeiten, denn jeder der Spins kann derjenige sein, der umklappt. Bei Energie -184 sind zwei Spins umgeklappt, dafür gibt es 100 ⋅ 99/2 Möglichkeiten, denn ich habe erst 100 Möglichkeiten für den ersten Spin, dann 99 für den zweiten, aber es ist egal ob ich erst Spin 12 und dann Spin 76 ausgewählt habe oder umgekehrt, deshalb teile ich nochmal durch zwei (wobei ich die Tatsache außer acht lasse, dass ein Zustand mit zwei benachbarten umgeklappten Spins eine etwas niedrigere Energie hat, so genau müssen wir nicht hingucken). Ist Ω(E) die Zahl der Möglichkeiten zur Energie E, dann ist die Entropie definiert als
S= k ln Ω
Dabei ist k die berühmte Boltzmann-Konstante (eine Naturkonstante) und ln ist der (natürliche) Logarithmus. Die Formel ist die berühmte Boltzmansche Definition der Entropie, die auch auf seinem Grabstein steht (und über die ihr mehr erfahrt, wenn ihr rechts bei Artikelserien klickt und die Entropie-Serie lest).
Den Logarithmus nimmt man deswegen ,weil man möchte, dass die Entropie die folgende Eigenschaft hat: Habe ich zwei Systeme, dann soll die Entropie beider Systeme zusammen gleich der Summe der Einzelentropien sein. Nehmen wir an, das erste System hat 100 Möglichkeiten, das zweite auch. Betrachte ich beide zusammen, sind das dann 10000 Möglichkeiten (100 mal 100), also das Produkt der beiden Zahlen. Der Logarithmus hat aber nun gerade die Eigenschaft, dass er aus einem Produkt eine Summe macht, oder in Formeln ausgedrückt:

Das erklärt also, warum man den Logarithmus braucht; der zusätzliche Vorfaktor “Boltzmann-Konstante” hat mehr oder weniger historische Gründe, man hätte die Entropie auch ohne ihn definieren können. Man kann also sagen: die Entropie ist der Logarithmus der Zahl der Möglichkeiten für einen bestimmten Zustand bzw., in unserem Fall hier, für eine bestimmte Energie.

Und jetzt können wir uns die Funktion ΔS/ΔE angucken. Ist das System im Zustand niedrigster Energie, so gibt es nur eine Möglichkeit, die Entropie ist also ln(1)=0. Erhöhen wir die Energie um 8 Einheiten (auf -192), dann gibt es 100 Möglichkeiten, die Entropie ist jetzt also k ln(100). Für eine Energieänderung δE von 8 ergibt sich also eine Entropieänderung von ΔS von k ln(100). Den Faktor k lasse ich im Folgenden der Einfachheit halber weg – die Entropie ist dann also ln(100).

Erhöhen wir die Energie noch einmal um 8 Einheiten, dann haben wir jetzt (näherungsweise, siehe oben) 100 ⋅ 99/2 Möglichkeiten, die Entropie ist jetzt also
ln(100) + ln(99) – ln(2). (Der Logarithmus eines Quotienten ist die Differenz der Logarithmen.) Die Entropieänderung von Energie -192 auf -184 ist jetzt
ln(100)+ln(99) – ln(2) – ln(100) = ln(99) -ln(2), sie ist also kleiner geworden. Nach unserer Anfangsformel heißt das, dass die Temperatur unseres Systems jetzt höher geworden ist, denn die ist ja der Kehrwert der Entropieänderung.

Nebenbemerkung für ganz Genaue: Die Funktion verläuft hier etwas sprunghaft, weil ich nur 100 Spins habe. Hätte man unendlich viele, so könnte man die Energie pro Volumen um beliebig kleine Werte ändern und alles wäre etwas glatter.

So geht es weiter. Wenn wir drei Spins umklappen, dann haben wir 100 ⋅ 99 ⋅ 98/(2⋅3) Möglichkeiten, die Entropieänderung von 2 auf drei umgeklappte Spins ist dann also ln(98)-ln(3), sie ist also wieder kleiner geworden und entsprechend ist die Temperatur noch höher.

So geht es also immer weiter, die Entropie unseres Systems steigt (wenn auch mit jedem ΔE immer weniger). Irgendwann erreichen wir den Zustand maximaler Entropie. Das ist der, der die größte Anzahl an Möglichkeiten hat. Hier gibt es im statistischen Mittel genauso viele Spins nach oben wie nach unten und auch benachbarte Spins sind nicht mehr miteinander korreliert, sondern ziemlich beliebig ausgerichtet.

Noch eine Nebenbemerkung für ganz ganz Genaue: Ich habe extra “ziemlich beliebig” und nicht “völlig beliebig” geschrieben, denn ich betrachte hier ja das Modell immer bei einer ganz festen Energie. Würde ich die Temperatur festhalten, dann wären kleine Schwankungen der Energie erlaubt; in dem Fall könnte man dann einfach sagen, dass man für jeden Spin eine Münze wirft, Kopf heißt oben, Zahl heißt unten. Durch thermische Schwankungen kann sich dann die Energie auch mal ein bisschen vergrößern oder verkleinern. Hält man die Energie genau fest, dann geht das aber natürlich nicht ganz so einfach. Für sehr große Systeme geht der Unterschied zwischen festgehaltener Energie und festgehaltener Temperatur aber gegen Null. (In der statistischen Physik spricht man vom “mikrokanonischen Ensemble”, wenn die Energie festgehalten ist, und vom “kanonischen Ensemble”, wenn die Temperatur festliegt. (Es gibt auch noch das großkanonische Ensemble, da darf sich die Teilchenzahl ändern, aber dafür liegt das chemische Potential fest, aber das führt nun wirklich total vom Thema ab (ich schreibe das eh nur, falls jemand sich irgendwo schlau lesen will, dann habt ihr wenigstens passende Stichworte (und ich klammere schon wieder so viel, deswegen mache ich jetzt alle Klammern auf einmal zu, nämlich mit einer eckigen Klammer (so macht man das in LISP (was eine Abkürzung für “long and incredibly slow programs” ist] Ende der Nebenbemerkung.

Beim Zustand mit höchstmöglicher Entropie hat diese also ein Maximum. Ich kann aber immer noch weiter Energie ins System stecken. Bei niedriger Temperatur war es ja so, dass die Entropie klein war, weil sich benachbarte Spins gern parallel ausrichten wollten. Wenn ich in mein System bei höchstmöglicher Entropie weiter Energie ins System reinstecke, dann fangen benachbarte Spins an, sich entgegengesetzt auszurichten. Damit kann ich die Energie weiter steigern, wobei die Entropie aber wieder abnimmt. Und schließlich erreiche ich einen Zustand, wo die Spins wie die Felder eines Schachbretts angeordnet sind: Jeder Spin oben ist von vier Spins unten umgeben. Das ist der Zustand mit der höchsten Energie – seine Entropie ist aber verschwindend (wenn ich wie am Anfang einen Spin festhalte, dann ist sie gleich Null, weil es nur eine Möglichkeit gibt – ansonsten gibt es zwei, weil ich einen beliebigen Spin ja entweder nach oben oder unten zeigen lassen kann).

Die Entropie unseres Systems läuft also genau so, wie wir es letztes Mal aufgezeichnet haben (Wobei die Kurve am Anfang und am Ende genau senkrecht verlaufen müsste):

entropieNegativeTemperatur1

Noch einmal kurz zusammengefasst: Vom energetisch günstigsten Zustand aus stecken wir immer mehr Energie ins System. Dabei nimmt die Entropie immer weiter zu, aber mit jedem Energiebetrag ein bisschen weniger, so dass die Temperatur ebenfalls zunimmt. Irgendwann erreichen wir den Zustand maximaler Entropie, bei dem die Spins alle ungeordnet sind und sich nicht umeinander kümmern. Hier hat das System die Temperatur unendlich, denn am Maximum ist ΔS/ΔE ja gleich Null. Danach nimmt die Entropie wieder ab, die Temperatur springt also von plus unendlich auf minus unendlich (die Steigung ist ja sehr flach) und wird dann betragsmäßig immer kleiner, läuft also von minus unendlich gegen “minus Null”. Im Zustand maximaler Energie erreichen wir dann den absoluten Nullpunkt, aber von der negativen Seite aus.

Ihr seht, dass das ganze etwas verwirrend ist. Das liegt aber nur an der blöden Definition der Temperatur. Hätte man den Kehrwert verwendet, dann wäre die Sache ganz einfach. Wir definieren hier mal die “neue Temperatur” N als 1/T. Dann sind sehr kalte Systeme bei N gleich unendlich. Mache ich Systeme immer heißer, dann nimmt N immer weiter ab und erreicht schließlich den Wert Null. Danach wird N dann negativ und erreicht schließlich den Wert minus unendlich.Noch besser wäre es, wenn ich die “neue Temperatur” als -1/T definieren würde: Die wäre bei einem extrem kalten System bei minus unendlich und würde dann immer weiter ansteigen (wobei normale Systeme allerdings nie positive Werte erreichen würden).

Hätte man also bei der Definition der Temperatur mehr von Thermodynamik verstanden, dann hätte man mit einer geschickteren Definition die Sache wesentlich einfacher verständlich machen können. Thermodynamikerinnen arbeiten übrigens gern mit der inversen Temperatur und nennen sie β. Dieses Bild (entnommen von der Seite der LMU München, wo die Experimente gemacht wurden) hier veranschaulicht das nochmal:

Man kann sich das mit einem anderen Beispiel noch mal veranschaulichen: Euer Geldbesitz kann eine beliebige positive oder negative (hoffentlich nicht) Zahl sein. Wenn ihr immer mehr Geld ausgebt, dann geht euer Besitz gegen null und wird dann negativ. Daran ist nichts besonderes (auch wenn’s unangenehm ist), oder? Jetzt stellt euch vor, im Zuge der ganzen Bankenkrisen usw. will man dafür sorgen, dass der Geldtransfer nicht mehr so leicht zu verstehen ist, und gibt deswegen den inversen Geldbesitz an. Wenn ihr also 1000 Euro habt, dann ist euer Geldbesitz 1/1000Euro. Gebt ihr 999 Euro aus, steigt euer inverser Besitz auf 1/1Euro. Dann gebt ihr noch 99 cent aus und habt jetzt einen inversen Besitz von 100/Euro (also 100 inverse Euro). Jetzt gebt ihr noch 0.9 cent aus und habt 1000/Euro (real besitzt ihr noch 0.001 Euro). Und dann gebt ihr nochmal 0.002 Euro (hab jetzt also 0.001 Euro Schulden oder -0.001Euro) aus und jetzt macht euer inverser Geldbesitz einen Sprung von 1000/Euro nach -1000/Euro. Auch hier steckt dazwischen ein Sprung von einer positiven großen Zahl zu einer negativen Zahl mit großem Betrag – sieht verwirrend aus, liegt aber nur an der abstrusen Definition des inversen Geldbesitzes. Genau so ist es mit der Temperatur, auch die ist einfach nur abstrus definiert.

Und warum sind negative Temperaturen nun etwas besonderes und wir beobachten sie normalerweise nicht? Das liegt daran, dass bei den meisten thermodynamischen Systemen die Entropiekurve kein Maximum hat und entsprechend auch nie abfällt. Nehmt als Beispiel ein Gas. Bei niedriger Temperatur sammeln sich die Gasatome alle am Boden ihres Behälters (wegen der Schwerkraft), die Entropie ist klein und es gibt wenige Möglichkeiten dafür. Erhöhe ich die Temperatur, verteilen sich die Moleküle auch immer weiter oben in meinem Behälter, zusätzlich werden sie auch immer schneller. Wenn ich ihnen mehr Energie zuführe, dann können sie sich immer schneller bewegen, es gibt also immer mehr Möglichkeiten, die Energie auf alle Atome zu verteilen. Und so kann die Entropie kein Maximum bekommen und es gibt auch keine negativen Temperaturen.

Negative Temperaturen kann es nur dann geben, wenn die Energie eines Systems einen Maximalwert erreichen kann (so wie beim Schachbrettmuster im Ising-Modell). Bei dieser Zustand ist die Zahl der Möglichkeiten dann wieder klein, und irgendwo zwischen diesem und dem Zustand mit niedrigster Energie hat die Entropie dann ihr Maximum.

Auch das kann man sich noch einmal an dem Gas im Behälter veranschaulichen. Wenn wir die Geschwindigkeit der Gasatome ignorieren könnten (was real so natürlich nicht zulässig ist) und uns nur auf die Höhe der Gasatome konzentrieren, dann haben sie einen Zustand maximaler Energie, wenn sie alle ganz oben im Behälter sind. Dieses schöne Bild veranschaulicht das:

Bei niedriger Energie sind alle Atome unten, weil das energetisch günstig ist. Stecke ich mehr Energie rein, erhöhe ich die Temperatur und die Atome verteilen sich immer weiter im Behälter. Sind sie ganz gleichmäßig verteilt (so dass für jedes Atom jeder Ort gleichwahrscheinlich ist), dann habe ich Temperatur unendlich; stecke ich noch mehr Energie rein, dann bleibt den Atomen nichts übrig, als sich oben im Behälter anzusammeln, wo ihre Energie besonders hoch ist.

Also: bei negativer Temperatur ist die Energie eines Systems besonders hoch – es ist also nicht wirklich “kälter” als 0Kelvin. Dass negative Temperaturen uns so seltsam vorkommen, liegt letztlich nur an der ungeschickten Definition.

                                                      

Wenn ihr mehr wissen wollt, empfehle ich nochmal die Seite der LMU München, die das alles auch sehr schön ausführlich erklärt. (Dort könnt ihr auch nachlesen, warum die häufig gehörte Aussage, dass ein Laser negative Temperatur hat, nicht stimmt – ein Laser ist nicht im thermischen Gleichgewicht und hat gar keine wohldefinierte Temperatur.) Und Details zum Experiment könnt ihr dort auch nachlesen, darüber schreibe ich heute nicht mehr (vielleicht ein andermal, aber eigentlich ist die Seite dort ziemlich ausführlich und gut; oben findet ihr auch eine Pressemitteilung in Deutsch, falls ihr das Englisch nicht mögt.)

Kommentare (29)

  1. #1 Fliegenschubser
    12. April 2013

    Ein sehr interessanter und verständlich geschriebener Artikel. Ich glaube, ich hab das mit den negativen Kelvins (Kelvinen? Kelvae?) jetzt einigermaßen verstanden. Danke dafür. Übrigens scheint das Ersetzen von “dynamischen Physikern” durch “dramatische Physiker” kein Einzelfall zu sein, wird doch das MPI für Dynamik und Selbstorganisation in Göttingen auch gerne als “MPI für Dramatik und Selbstzerstörung” bezeichnet. Seltener allerdings von Mitarbeitern des Instituts 😉

  2. #2 rolak
    12. April 2013

    Kelvinen? Kelvae?

    Kalvarien selbstverständlich, Fliegenschubser, schon wegen der Bergform des Diagrammes.

    Schöner Text, allerdings bisher nur überflogen und an die ToReadThoroughlyList angehängt.

  3. #3 MartinB
    12. April 2013

    Ist der Plural von Kelvin nicht “Hobbes”? 😉

  4. #4 rolak
    12. April 2013

    Das merk ich mir, thx!

  5. #5 roel
    *****
    12. April 2013

    ABO

  6. #6 wrdlbrmpft
    13. April 2013

    Vielen Dank für den anschaulich erklärten Artikel.

    Eine Frage an die Fachleute: Wenn ich meinen Schülern in Jahrgang 7 oder 8 beibringe, dass 0 K der absolute Nullpunkt ist und es keine tieferen Temperaturen gibt, weil die Teilchen sich ja nicht weniger als überhaupt nicht bewegen können – ist das eine unverzeihliche Ungenauigkeit oder eine erlaubte didaktische Reduzierung?

    Zusatzinformationen: Die Schüler tun sich in dem Alter (ca. 12 Jahre) oft noch schwer, überhaupt das Teilchenmodell zu verstehen, denn das Abstraktionsvermögen ist häufig noch nicht so weit ausgebildet. Die Entropieformel zur Definition von T wird überhaupt nicht eingeführt. Es geht auf diesem Niveau nur um die Einführung der Celsiusskala, ein qualitatives Verständnis für Temperatur als Maß für die Teilchenbewegung und die Kelvinskala als Beispiel für eine andere Temperaturskala (und natürlich zum Rechnen mit z.B. den Gasgesetzen).

    Ich bin für jede Meinung dankbar.

    Viele Grüße,
    wrdlbrmpft

  7. #7 MartinB
    13. April 2013

    @wrdlbrmpft (oder so…?)
    Nein, das ist ja auch korrekt – die negativen temperaturen sind ja in Wahrheit heißer als unendich und nur ein Artefakt der Definition, und es gibt sie auch nur in Spezialfällen. Würde ich nicht anders machen, es geht ja erst mal um das physikalische Grundverständnis.

  8. #8 wrdlbrmpft
    13. April 2013

    Lieber Martin,
    vielen Dank für die schnelle Antwort. Ich bin froh, dass ich weiterhin genauso vorgehen kann, denn einen Hinweis auf negative Temperaturen der Kelvin-Skala würde ich in dieser Klassenstufe wohl kaum hinbekommen, ohne die Schüler vollends zu verwirren. Aber etwas fachlich Falsches zu erzählen würde mir auch widerstreben. Insofern bin ich froh, dass meine Vorgehensweise auch weiterhin sinnvoll ist. 🙂

    Übrigens bin ich schon länger ein stiller Stammleser deines Blogs. Ich finde deine Texte toll!

  9. #9 MartinB
    13. April 2013

    Ich denke, selbst die meisten Physik-Studis haben von absoluten negativen temperaturen noch nie was gehört, da müssen das Schüler (neudeutsch heißt das ja SuS, wie ich gerade gelernt habe…) sicher nicht wissen. Du musst natürlich damit rechnen, dass irgendjemand das aus den medien gehört hat und dann nachfragt…

    Ansonsten schön, wenn’s hier gefällt.

  10. #10 MartinB
    13. April 2013

    @wrdlbrmpft
    Noch ein Nachtrag: Letztlich machst du das doch immer so im Physikunterricht – du erklärst den Kindern ja auch geometrische Optik oder Wellenoptik und fängst nicht gleich in Klasse 5 mit Quantenfeldtheorie an. Die Aussage “Licht breitet sich immer geradlinig aus” ist ja nur näherungsweise gültig.
    Daran ist aber nichts schlimmes, finde ich – das ist die Kunst des Denkens in Modellen:
    https://scienceblogs.de/hier-wohnen-drachen/2011/01/05/denken-in-modellen/

  11. #11 heraklit
    Enschede
    13. April 2013

    Hat die spezifische Wärmekapazität nicht als Einheit J/(K*kg)?
    Das kann dann doch auch nicht ganz richtig sein, sonst könnte man hübsche Perpetua mobila bauen.

  12. #12 MartinB
    13. April 2013

    @Heraklit
    Die Einheit stimmt, soweit ich sehe. Ich sehe aber das Problem nicht. Wenn ich Energie reinstecke, dann steigt der Wert der Temperatur ja an, denn sie springt ja von minus unendlich nach plus unendlich.

  13. #13 heraklit
    13. April 2013

    Ach richtig. Die Energie ist die Größe die man beeinflussen kann, nicht direkt die Temperatur. OK.

  14. #14 volker
    Waakirchen
    14. April 2013

    Sehe ich das richtig so?:
    Wenn ich in ein abgeschlossenes thermodynamisches System immer mehr Energie “hineinpumpe”, dann sind alle Teilchen, vermutlich dann Quanten, sehr nahe an der Lichtgeschwindigkeit. Gibt es Teilcheneigenschaften, die dann noch mehr Energie aufnehmen? Kann es also in einem “realen System” zu negativen Temperaturen kommen?

  15. #15 MartinB
    14. April 2013

    @volker
    Gute Idee, klappt aber nicht:
    Beim beschleunigen steigt ja die kinetische Energie immer weiter – die Teilchen bekommen ja den berühmten relativistischen Massezuwachs. Insofern keine Chance.

  16. #16 wrdlbrmpft
    14. April 2013

    Lieber Martin, zu deinem Nachtrag: damit hast du natürlich Recht. Im Grunde hat sich die Physik ja auch in weiten Teilen historisch so entwickelt: Modelle werden entworfen und sind gültig, bis ihre Grenzen erkannt werden. Dann werden sie entweder weiterentwickelt oder verworfen. Oder es werden neue Modelle entwickelt, die dann daneben existieren und unter bestimmten Randbedingungen gelten.

    Trotzdem finde ich es manchmal schwierig, die Balance zu finden zwischen “erlaubter Vereinfachung, die später revidiert oder weiterentwickelt wird” und “fachlich falschem Unsinn”. Ich versuche oft, den Klassen zu erklären, wie das Denken in Modellen und der naturwissenschaftliche Erkenntnisprozess funktioniert und hoffe, dadurch die manchmal notwendigen Inkonsistenzen verständlich zu machen.

  17. #17 MartinB
    14. April 2013

    Ja, das mit der Balance verstehe ich, das geht mir auch immer so.
    In meinen Vorlesungsskripten habe ich mir den Trick vom TeX-Book abgeschaut: da gibt es dann Abschnitte hinter Warnschildern, wenn im Text etwas steht, das ein bisschen arg vereinfacht ist, dann gibt es ein Warnschild, hinter dem das dazu gesagt wird. Im Schulunterricht ist es sicher schwieriger.

  18. #18 volker
    14. April 2013

    @martin
    Ok, touché, danke

  19. […] Zahl der Zustände (mehr darüber erfahrt ihr, wenn ihr rechts bei Artikelserien klickt, oder auch in diesem Text und seinem ersten teil hier). Frustrierte Systeme sind also solche, die die gewöhnlichen Regeln der […]

  20. […] Physik ist ja voller abgefahrener und faszinierender Phänomene – Vakuumfluktuationen, negative Temperaturen, Quantenverschränkungen und und und. Aber heute schauen wir uns mal etwas ganz simples und […]

  21. #21 Aveneer
    17. September 2017

    Hallo Martin,
    Ich weiß gar nicht wie ich anfangen soll…
    Schönen Urlaub gehabt?
    O.K – Ich werfe mal meine Gedanken dazu in den Ring.
    In der “QM” gibt es ja Maximalwerte Planck-Masse, Planck-Temperatur,…
    Jetzt habe ich die Temp. eines Planck_SL über die Planckmasse berechnet (Hawking)*. Nun setzte ich die Temperatur auf 1 Entropie 1. Wenn ich hinter den Schwarzschildradius schaue, könnte die Entropie wieder abfallen. Also der Wert wechselt von +Max zu -Max. Auf beiden Seiten der „SL-Oberfläche“ kann die Entropie (~1/r) abfallen. Nur Links vom SL neg. Temp – rechts pos. Temp. Beide erreichen irgendwann 0K. Im inneren des Planck-SL im Mittelpunkt – außen gegen unendlich.
    Jetzt wird der Kehrwert der Temperatur auch als imaginäre Zeit angesehen (Wick Rotation).
    Damit würde die Zeit im SL rückwärtslaufen (Temperatur negativ). Die Gravitationswirkung würde sich umdrehen (Würde wie die DE wirken). Das bedeutet, dass die Singularität nicht entsteht, da im inneren die Gravitationskraft nach außen wirkt. Alles was in das SL fällt wird „instantan“ gegen die Oberfläche gedrückt (wie das Gas in deinem Bild)
    Stichwort wäre “Entropische Gravitation” wie auf Wiki beschrieben. Nur mit Vorzeichenwechsel hinter dem Ereignishorizont.

    *liegt bei ~10^32 K (~Urknalltemperatur)

  22. #22 MartinB
    17. September 2017

    @Aveneer
    Wie so oft verstehe ich nicht, was du zu sagen versuchst.
    Was heißt du setzt die Temp und die Entropie auf 1. Warum kann die Entropie “abfallen” (was genau soll das bedeuten, da das innere des Sl verborgen ist, könnenw ir von außen nur die Entropie als Ganzes bsinvoll betrachten).
    Warum sollte man den Kehrwert von T als imaginäre Zeit sehen können – nur weil es eine formale Ähnlichkeit zwischen QM in imaginärer Zeit und Thermodynamik gibt? Und warum läuft die Zeit rückwärts, wen sie doch gerade imaginär geworden ist.
    In welchen Koordinaten sind wir überhaupt? Schwarzschild? Dann ist im SL sowieso Raum und Zeit koordinatentechnisch gewissermaßen vertauscht.
    Und das sind nur die ersten Dinge, die mir einfallen…

    Ich habe im Moment auch nicht die Zeit, mich da auf lange Diskussionen einzulassen, sorry.

  23. #23 Aveneer
    17. September 2017

    Es folgen (fast nur) „Quellenangaben“. Ich werde nur kurz auf deine Aussagen eingehen.
    Zitat: „Warum sollte man den Kehrwert von T als imaginäre Zeit sehen können – nur weil es eine formale Ähnlichkeit zwischen QM in imaginärer Zeit und Thermodynamik gibt?“
    Es gibt andere die das sagen.
    carlo rovelli –(Theoretische Physik an der Universität Marseille)
    Er schreibt*,
    1: dass die Zeit Folge der Thermodynamik ist – Sie folgt aus ihr nicht umgekehrt…
    2: Zukunft und Vergangenheit –sind wie „Oben und Unten“. Das für ein Beobachter z.B auf der Erde Sinnvoll erscheint, aber nicht bezogen auf das Universum.
    Erik Verlindes*:
    3:„die Temperatur T eine Beschleunigung a verursacht, und nicht wie oft verstanden die Temperatur durch die Beschleunigung verursacht sei“
    Kurzer Test: Setzte G in die Unruh-Gleichung ein. Verwende das T im Term für die Hawking-Strahlung und rechne die Masse aus. Ich erhalte die Masse von unserem Universum – auf die Hochstelle genau. Zufall? Mag sein***
    Zitat: Die Wick-Rotation verbindet Quantenmechanik und Statistische Mechanik in überraschender Weise dadurch, dass sie die inverse Temperatur 1 durch die imaginäre Zeit i t / ℏ ersetzt.
    Wenn es Formal (mathematisch) identisch ist, warum nicht? Kann die Zeit im Minkowski-Raum nicht Formal als imaginäre Zeit geschrieben werden? Lasse es halt mal gedanklich zu.
    Oder ist die „imaginäre Zeit“ in der SRT auch nur formal ähnlich zu deiner Uhrzeit?
    Zitat: „Dann ist im SL sowieso Raum und Zeit koordinatentechnisch gewissermaßen vertauscht.“
    Steht somit nicht im Widerspruch? Oder wie ist das Argument gemeint?
    Was heißt du setzt die Temp und die Entropie auf 1.
    Die Oberflächentemperatur eines SL ist nach Hawking mit der Entropie verbunden und dort Maximal.
    Die Oberfläche eines Planck_SL ist zwar Maximal (unter allen denkbaren SLs )– aber geringer als die Maximale Planck-Temperatur. Somit könnte die Entropie steigen bis zum Schwarzschildradius und danach fallen. (Nur erscheint der Zustand bei 0K im SL sehr instabil zu sein)
    Schöne Zeit – auch wenn du keine hast.
    Aveneer

    * ISBN-10: 3498058061
    **
    https://de.wikipedia.org/wiki/Entropische_Gravitation
    ***
    Schöner wäre es über die Masse auf G zu kommen – ich weiß. Aber die Masse ist unsicher. Aber setzt du 4,5*10^53 Kg für das Universum (WIKI: ~10^53) in Hawking ein und setzt die Temperatur in die Unruhe-Formel ein, dann bekommst du G.

    PS: Deine Gravitationsbeschreibung mit der Temperatur. Der Kehrwert deiner Darstellung (Kehrwert deiner “Zeit”) ist hier die Temperatur. Damit kannst du vielleicht irgenwann wenn du viel Zeit hast, die “Entropische Gravitation” von Erik Verlindes Theorie erklären. (für mich fehlt nur ein kleiner blauer Punkt in der Mitte). Das Thema an sich – könnte dir zumindest gefallen. Weiß nicht wie vertraut du damit bist.

  24. #24 MartinB
    18. September 2017

    @Aveneer
    Zeit ist eine Folge aus Thermodynamik über den 2. hauptsatz. Das hat nichts mit rigendner Wick-Rotation zu tun.
    Und ja, ich weiß, dass Temperatur und Entropie verbunden sind, aber ich weiß nicht, was es heißen soll, die “auf 1” zu setzen (in welchen Einheiten? Planck?) und warum du das tun darfst (und ist das dann für ale SL derselbe Wert?).

    Ich stelle diese Fragen hier auch nicht, damit du sie beantwortest, sondern damit du siehst, dass deine Ideen zwar irgendwie physikalische Assoziationen sind, aber auch nicht mehr, sorry.

  25. #25 Stephan
    Berlin
    7. April 2021

    Hallo,
    der Beitragist schon etwas älter, aber ich hoffe, ich bekomme ein wenig Klarheit.
    Also ich habe Physik studiert und im Laufe meines Studiums bin ich über die negative Temperatur gestolpert.
    Das hört sich ja alles recht plausibel an und kann man mit einen Zwei Niveaus System gut anschaulisch erklären.
    Liegt hier aber nicht ein Problem der Boltzmann-Entropie vor. Soweit ich mich an Thermodynamik erinnere, tritt eine negative Temperatur mit der Gibbs Entropie nicht auf.
    Im Kontext von Besetzungsinversion macht es vielleicht Sinn als Maß der Inversion eine negative Temperatur anzugeben, jedoch im Sinne einer Temperatur, finde ich dies verwirrend, irreführend. Auf der anderen Seite fand ich Thermodynamik nervig und habe eventuell nur die Hälfte mitgekriegt.

  26. #26 MartinB
    8. April 2021

    @Stephan
    Ich muss zugeben, dass mir der Begriff Gibbs-Entropie fremd ist, meinst du die Gibbs-Energie G=U+pV-TS?

    Ich finde das Ganze auch nicht besonders verwirrend; letztlich liegt es ja wirklich nur daran, dass wir so doof sind, mit T statt mit (1/T) als Variable zu arbeiten.

  27. #27 Karl-Heinz
    Graz
    8. April 2021

    @MartinB

    Ich muss zugeben, dass mir der Begriff Gibbs-Entropie fremd ist

    Zumindest geben tut es den Begriff Gibbs-Entropie 😉

    Das Shannon-Theorem spezifiziert den Informationsgehalt einer Wahrscheinlich-
    keitsverteilung. Aus dem Shannon-Theorem leitet sich die Informationsentropie nach Shannon ab. In der statistischen Mechanik entspricht die Gibbs-Entropie der Shannon-Entropie fur die Wahrscheinlichkeitsverteilung im Phasenraum.

    Wir zeigen, dass die Gibbs-Entropie im Gleichgewicht mit der Boltzmann-
    Entropie übereinstimmt und die Gleichgewichtsverteilung im Phasenraum die
    Gibbs-Entropie maximiert.

  28. #28 MartinB
    9. April 2021

    @Karl-Heinz
    Danke, wieder was gelernt…

  29. […] Bereits dieses System ist ziemlich kompliziert – wenn man annimmt, dass nur direkt benachbarte Spins miteinander wechselwirken, hat man das sogenannte Ising-Modell, mit dem man viele Phänomene der Thermodynamik erklären kann, beispielsweise Phasenübergänge (in dem Artikel nehme ich das Ising-Modell, um Legierungen zu beschreiben, ist aber mathematisch dasselbe Modell) oder auch negative Temperaturen. […]