Schwarze Löcher haben eine Menge mit der Entropie des Universums zu tun. Bild: Wikimedia Commons, gemeinfrei.

Die Zeit vergeht, weil die Entropie zunimmt. Aber kann die Entropie ewig unbegrenzt zunehmen, oder ist sie beschränkt? Welche Rolle spielen dabei Schwarze Löcher? Und was bedeutet dies für das Ende des Universums? Im heutigen Artikel möchte ich die Natur der Entropie etwas vertiefen und abklopfen, wohin uns die Entropie führt, wenn wir ihr mit dem Zeitpfeil folgen.

 

Hohe Entropie, eine heiße Sache

Wir haben im letzten Teil der Reihe Entropie als Maß für die Unordnung kennengelernt und dies am Beispiel eines Gases, das in einem größeren Volumen mehr Möglichkeiten zur Anordnung hat, nachgewiesen. Aber die Ausbreitung eines Gases ist nur ein spezieller Fall – Entropiezunahme steckt in zahlreichen anderen makroskopischen physikalischen Prozessen, die deshalb mit dem statistischen Argument aus dem letzten Artikel zeitlich nicht umkehrbar sind.

Der Begriff der Entropie kommt ursprünglich aus der Wärmelehre und Wärme spielt für die Entropie eine große Rolle. Wenn ein Gegenstand, eine Flüssigkeit oder ein Gas erwärmt werden, dann bewegen sich die Teilchen in diesem Stoff zunehmend schneller. In Feststoffen beginnen sie zu zittern, bis die Gitterstruktur ihrer Anordnung sich auflöst und der Feststoff zu einer Flüssigkeit wird. Dabei zerbrechen Brücken, die zwischen den Molekülen des Stoffs gebildet werden. Ganz offenbar nimmt hier die Unordnung zu, es gibt weitaus mehr Möglichkeiten, Moleküle in einer Flüssigkeit anzuordnen, als in einem Gitter, wo nur ganz bestimmte Orientierungen zwischen den Molekülen möglich sind. Wassermoleküle sind beispielsweise polar – das Sauerstoffatom zieht die mit den beiden V-förmig an ihm haftenden Wasserstoffatomen geteilten Elektronen mehr zu sich herüber, so dass sein Ende etwas stärker negativ geladen ist als die beiden Wasserstoff-Enden. Die positiven Wasserstoffenden werden dann wiederum von den negativen Sauerstoffenden anderer Moleküle angezogen und ordnen sich auf diese Weise zu sechseckigen Gitterstrukturen an.

In flüssigem Wasser gibt es diese Struktur nicht mehr, die Moleküle ziehen sich zwar insgesamt noch gegenseitig an und sind recht dicht gepackt, aber nur noch bei flüchtigen Begegnungen ohne feste Orientierung. Wenn Wasser zu kochen beginnt, werden die Moleküle so schnell, dass auch diese Anziehung überwunden wird und die Moleküle der Flüssigkeit entkommen und ein Gas bilden, das einen Druck nach außen erzeugt – sie stoßen mit der Wucht ihrer Impulse und frei von Rückhaltekräften gegen die Außenwand des Behälters, der sie einschließt, man kann damit etwa den Kolben einer Dampfmaschine antreiben. Als Dampf mit viel mehr Abstand untereinander sind die Moleküle noch freier in ihrer Anordnung, die Entropie ist höher als in der Flüssigkeit.

Kristallstruktur von Eis. In weiß die Wasserstoffatome, in blau die Sauerstoffatome, die sich durch die Polarität der Wassermoleküle Brücken bildend in einem Gitter mit sechseckiger Grundstruktur anordnen. In flüssigem Wasser bricht die Struktur auseinander und die Moleküle sind freier in der Zahl ihrer Anordnungen – die Entropie nimmt zu. Bild: Wikimedia Commons, Solid State, CC BY-SA 3.0.

Aber nicht nur die Übergänge von Eis zu Flüssigkeit zu Gas bedeuten eine Entropieerhöhung. Genauso wie sich ein Gas in einem leeren Raum verteilt, so verteilt sich auch Wärme in einem Stoff. Steckt man etwa einen Teelöffel in eine Tasse heißen Kaffee, dann wird der Griff bald sehr heiß werden, weil die Wärme sich in den ganzen Löffel ausbreitet. Die schnellen Wassermoleküle im Kaffee stoßen die Teilchen Löffels an und bringen sie in heftigere Zitterbewegungen. Die äußeren Teilchen im Löffel geben die Stöße an ihre weiter innen liegenden Nachbarn weiter und so breitet sich die Wärme im Metall aus. Metalle bestehen nicht aus Molekülen (fest aneinander gebundenen Atomen, die sich gemeinsame Elektronen teilen), sondern aus einzelnen zu Gitterstrukturen angeordneten Atomen, zwischen denen sich Elektronen relativ frei wie ein Gas bewegen können. Die leichten, beweglichen Elektronen übertragen die Stoßenergie besonders gut durch das Material, deswegen sind Metalle gute Wärmeleiter.

Wärme fließt immer von der Wärmequelle weg. Auch hier haben wir es mit einem statistischen Prozess zu tun, der sich in der Praxis nicht umkehren lässt. Die Entropie eines erwärmten Gegenstands ist höher, als die eines kalten. Wenn ein Schmied heftig mit einem Hammer auf ein Stück Metall auf einem Amboß schlägt, dann bremst die Verformung des Metalls den Schwung des Hammers und nimmt Energie des Schlages auf, die die Atome im Metall zum Schwingen bringt. So kann er das Metall bis zum Glühen bringen. Aus der gerichteten Energie des Schlages wird ungerichtete Schwingung der Teilchen im Metall mit entsprechend höherer Entropie.

Wärmepumpen und Entropie – stellen wir uns mal janz dumm

Nun kann ein Eisschrank bekanntlich Wasser einfrieren, also seine Entropie senken – verletzt dies nicht den zweiten Hauptsatz der Thermodynamik, der besagt, dass die Entropie nicht abnehmen kann? Nein, denn dazu braucht man eine Wärmepumpe.

Bei einer Wärmepumpe macht man sich zu Nutze, dass ein Gas abkühlt, wenn man ihm mehr Raum gewährt, z.B. in einem Kolben – die in einem gewissen Volumen enthaltene Teilchenenergie nimmt ab, nicht weil die Teilchen langsamer werden, sondern weil weniger Teilchen im Volumen enthalten sind und sie den Kolben anschieben und Arbeit verrichten. Der Prozess ist umkehrbar – wenn man das Gas und Arbeitsaufwand wieder komprimiert, wird es wieder wärmer. Jeder, der schon einmal einen Fahrradreifen aufgepumpt hat, weiß, dass die Pumpe sich dabei erwärmt. Solange keine Wärme nach außen verloren geht (Fachwort: adiabatisch, aus dem Griechischen etwa “nicht hindurchgehen”), kann man Kompression und Expansion beliebig wiederholen (adiabatische Kompression/Expansion). Übrigens ist adiabatische Expansion auch der Grund, warum die Luft in der Troposphäre mit der Höhe kühler wird: der Luftdruck nimmt nach oben ab, die Luft füllt mehr Volumen und die Temperatur sinkt (darüber folgt die Stratosphäre, wo Ozon sich im UV-Licht erwärmt und die Temperatur mit der Höhe wieder ansteigt).

Funktionsweise eines Kühlschranks mit Kompressions-Wärmepumpe. Im Kompressor wird das Kühlmittel unter Druck gesetzt, was sie aufheizt und verflüssigt (Kondensation). Die Wärme wird durch Kühlschlangen auf der Rückseite des Kühlschranks an die Umgebung abgegeben. Hinter einer Verengung (Drossel) nimmt der Druck ab und das Kühlmittel verdampft in den Kühlschlangen im Inneren des Kühlschranks, wobei es abkühlt. Die Luft im Kühlschrank gibt ihre Wärme über die Kühlschlange an das Gas ab, das wieder zum Kompressor fließt. So wird die Wärme aus dem Innenraum nach außen gepumpt. Die Entropie wird dadurch nicht verletzt, der Kompressor verbraucht nämlich Energie. Bild: Wikimedia Commons, Jahobr, gemeinfrei.

Bei einem Eis- oder Kühlschrank lässt man ein Kühlmittel in einem Kreislauf zwischen dem Innenraum und der Umgebung eines gut isolierten Behälters zirkulieren. Zum besseren Wärmeaustausch lässt man es innen und außen durch wärmeleitende Kühlschlangen aus Metall mit möglichst viel Oberfläche fließen. In dem nach außen gerichteten Kühler komprimiert man das Kühlmittel, so dass es wärmer als die Umgebung wird,  und Wärme an die Umgebung abgeben kann. Im Kühler im Innenraum lässt man es wieder expandieren, dann nimmt es mehr Volumen als draußen ein und wird also kühler als der Innenraum sein, so dass es sich an der Innenluft erwärmen kann. Wieder nach außen gepumpt und verdichtet wird es wieder wärmer als die Umgebung und gibt Wärme an diese ab etc. Besonders effizient funktioniert das mit einem Kühlmittel, das bei der Kompression flüssig wird, denn beim Kondensieren wird besonders viel gespeicherte Wärme frei; im Innenraum und bei geringerem Druck verdampft das Kühlmittel wieder und nimmt dabei besonders viel Wärme auf, denn zur Überwindung der Rückhaltekräfte innerhalb der Flüssigkeit muss ein Molekül besonders viel Energie aufnehmen. So kann man Wärme aus dem Innenraum nach außen pumpen.

Zur Verdichtung des Gases braucht es allerdings einen Kompressor, das Gas widersteht dem Druck beim Verdichten. Der Strom für den Kompressor kommt meistens aus einem Kraftwerk, in dem durch Verbrennung von Kohle oder Gas Strom und jede Menge Entropie in Form von Abwärme erzeugt wird. Wenn es hingegen Ökostrom ist, dann war die Wärme der Sonne im Spiel, die entweder Strahlung für die Solarzellen erzeugt, Luftzirkulation für die Windkrafträder, oder den Wasserkreislauf von Verdunstung, Niederschlag und fließenden Gewässern antreibt. In jedem Fall nimmt die Entropie insgesamt zu: der zweite Hauptsatz gilt nur für geschlossene Systeme, in die keine Wärme hinein oder heraus kann. Bei fossilen Brennstoffen umfasst das geschlossene System mindestens das Kraftwerk mit seinem Brennstoffvorrat, bei regenerativen Energien sogar die ganze Sonne.

Auf die gleiche Weise erklärt sich, warum so etwas komplexes wie Leben entstehen konnte. Es entstand nicht durch völlig zufällige Anordnung von Molekülen, sondern weil die Sonne (und vielleicht auch der Vulkanismus) als Energiequelle zur Verfügung stand und unter Energiezufuhr chemische Reaktionen ermöglichte, die sich schließlich selbst im Gange hielten, und die zu lokaler Entropieabnahme in der Lage waren, ähnlich wie bei einer Wärmekraftmaschine. Man kann Leben als einen natürllichen Prozess definieren, der unter Energieaufnahme seine Entropie senkt, oder anders gesagt, der Umgebung negative Entropie (Negentropie) entzieht.

Und wenn ein Stoff sich abkühlt? Wenn er Wärme an die Umgebungsluft verliert, dann erwärmt sich diese und die Wärme breitet sich aus, wie beim obigen Löffelbeispiel. Die Entropie des abgekühlten Stoffes sinkt, aber die der Umgebung steigt umso mehr, denn die weiter verteilte Wärmemenge hat eine größere Entropie als die zu Beginn im Stoff verdichtete Wärme. Bei Abkühlung durch Wärmestrahlung wird die Wärme in Form von Photonen abgegeben und verteilt sich umso weiter (diese können die Umgebung erwärmen, oder breiten sich einfach in die Unendlichkeit aus). Auch dies erhöht insgesamt die Entropie.

 

Gravitation ist andersrum

Entropie scheint also damit zusammen zu hängen, dass sich ein Stoff oder Wärme möglichst weit verteilt. Nun begann unser Universum als sehr gleichmäßig verteiltes Gas – da fragt man sich, wie es sich dann zu Galaxien mit Sternen und Planeten verdichten konnte, ohne den zweiten Hauptsatz zu verletzen.

Die Antwort ist die Gravitation. Während ein Gas durch die Bewegung seiner Teilchen natürlicherweise danach strebt, Raum zu gewinnen, den es danach nur unter Widerstand wieder hergeben mag, wirkt die Massenanziehung genau umgekehrt: sie ist bestrebt, Materie zu verdichten. Genauso wie man aus dem Bestreben eines Gases nach Expansion Energie gewinnen kann (Dampfmaschine, Verbrennungsmotor), kann man die Gravitation Arbeit verrichten lassen, etwa in einem Wasserkraftwerk, bei dem die Schwerkraft für den Wasserdruck sorgt, der eine Turbine antreiben kann, die sich im Ablaufrohr in den Abfluss unterhalb der Staumauer befindet, wo der Druck sehr viel kleiner ist.

Das Universum begann zwar als heißes Gas, aber das Gas kühlte mit der Expansion des Universums ab und sein Druck verringerte sich. Die Entropie des frühen Universums lag in der Größenordnung der Zahl seiner Teilchen, rund 1088 im beobachtbaren Teil des Universums. Das Gas war jedoch nicht perfekt gleichverteilt, sondern hatte örtlich kleine Dichteunterschiede, die wir als Struktur in der kosmischen Hintergrundstrahlung beobachten können.

Der kosmische Mikrowellen-Hintergrund projiziert auf eine Kugel. Die verschiedenen Farben zeigen winzige zufällige Temperaturunterschiede im beim Urknall entstandenen Gas in der Größenordnung von Hunderttausendstel Kelvin, die kleinen Dichteunterschieden entsprechen. Diese führten zur Kontraktion des Gases in Richtung der Orte höherer Dichte. Bild: Max Tegmark, gemeinfrei.

Dorthin, wo die Dichte etwas höher war, floss das Gas und verdichtete sich. Im sich verdichtenden Gas kollidierten die Teilchen, was die gerichtete Fließbewegung in ungerichtete Wärmebewegung umwandelte – die Entropie nahm zu. Durch Abstrahlung von Wärmestrahlung konnte das Gas abkühlen und seinen Druck verringern – auch hierbei nahm die Entropie durch die Abstrahlung zu. Schließlich kollabierten die Gaswolken an den dichtesten Stellen zu Sternen und Planeten, wobei wiederum durch die Verdichtung sehr viel Wärme entstand, die in den Sternen die Kernfusion zündete und bei den Planeten für ein aufgeheiztes Inneres sorgte. Die Strahlung geben sie bis heute (z.B. Vulkanismus der Erde, Wärmestrahlung des Jupiter) als Wärme an die Umgebung ab, unter weiterer Zunahme der Entropie. Die Kernfusion in den Sternen führt zum Aufbau stabilerer Kerne mit geringerer Energie (bis hinauf zum Eisen), die als Überschusswärme abgestrahlt wird. Wenn genug Energie vorhanden ist, wie z.B. bei einer Supernova-Explosion, können auch Atomkerne bis hinauf zum Uran und Plutonium entstehen, die nicht im niedrigsten Energiezustand sind. Das bisschen Entropieabnahme kompensiert die Supernova aber dicke.

 

Schwarze Löcher – die ultimativen Entropieriesen

Kann die Entropie noch weiter steigen? Ja, kann sie. Je dichter gepackt die Materie ist, desto höher ist die Entropie. Der zweite Hauptsatz der Thermodynamik verlangt, dass sogar Schwarze Löcher (letzlich nichts als Gravitationsfelder) eine Entropie haben müssen, denn wirft man ein Objekt mit Entropie in ein Schwarzes Loch, dann verschwindet es aus dem beobachtbaren Universum, aber seine Entropie muss mindestens erhalten bleiben.

Jacob Bekenstein entdeckte 1973, dass die Physik Schwarzer Löcher Parallelen zur Thermodynamik aufweist und es Varianten der thermodynamischen Hauptsätze für Schwarze Löcher gibt:

Hauptsatz Thermodynamik Schwarze Löcher
Nullter Im thermodynamischen Gleichgewicht ist die Temperatur überall gleich. Am Ereignishorizont ist die Schwerkraft überall gleich.
Erster Die Energie eines abgeschlossenen Systems ist konstant. Die Masse eines isolierten Schwarzen Lochs ist konstant.
Zweiter Die Entropie eines abgeschlossenen Systems kann nicht abnehmen. Die Oberfläche des Ereignishorizonts eines Schwarzen Lochs kann nicht abnehmen.
Dritter Der absolute Nullpunkt der Temperatur ist unerreichbar. Die Schwerkraft eines beliebig kleinen Schwarzen Lochs kann nicht Null werden.

Damals war die Hawking-Strahlung noch nicht bekannt, darauf komme ich gleich zurück. Bekenstein erkannte, dass die Oberfläche des Ereignishorizonts eines Schwarzen Lochs eine Entropie hat und Hawking, Bekenstein und andere konnten zeigen, dass diese gleich einem Viertel der Oberfläche entspricht, und zwar gemessen in Einheiten der Planck-Fläche. Die Planck-Länge beträgt 1,6·10-35m, die Planck-Fläche entsprechend 2.6·10-70m², somit hat ein Schwarzes Loch von einer Sonnenmasse (Schwarzschild-Radius 3km, Oberfläche ca. 100 km² = 3,9·1077 Planck-Flächen) eine Entropie von ca. 1077.

Ein supermassereiches Schwarzes Loch mit mehreren Millionen Sonnenmassen hat eine Entropie in der Größenordnung von 1090. Das ist ungefähr 100 Mal die nicht durch Gravitation verursachte Entropie sämtlicher Teilchen im beobachtbaren Universum (siehe oben, 1088). In einem einzigen supermassereichen Schwarzen Loch wie dem im Zentrum der Milchstraße!

Die Schwarzen Löcher dominieren die Entropie des Universums vollkommen. Davon gibt es größenordnungsmäßig 100 Milliarden (1011) im beobachtbaren Universum, somit liegt die Entropie aller supermassereichen Schwarzen Löcher und damit in guter Näherung die heutige Entropie des beobachtbaren Universums insgesamt in der Gegend von 10101. Durch die Gravitation und die von ihr verursachte Verdichtung der Materie hat die Entropie des Universums seit seiner Entstehung um den Faktor 1013 (zehn Billionen) zugenommen.

Interessant ist übrigens, dass die Entropie eines Schwarzen Lochs die maximal mögliche ist, die sich in ein gewisses Volumen (das Volumen des Ereignishorizonts) hinein packen lässt – aber sie nimmt mit der Oberfläche des Ereignishorizonts zu, nicht mit seinem Volumen. Darauf baut die Hypothese des Holografischen Prinzips von Gerard’t Hooft, Leonad Susskind und Raphael Bousso auf, gemäß welcher die vierdimensionale Raumzeit nur eine Projektion einer ihr zugrunde liegenden dreidimensionalen Realität sein soll – ähnlich wie ein scheinbar dreidimensionales Hologramm in Wahrheit nur in der zweidimensionalen Oberfläche einer Folie eingraviert ist.

 

Grenzenlose Entropie?

Eines Tages werden alle Sterne kalt und erloschen sein und in noch viel fernerer Zukunft durch Abstrahlung von Gravitationswellen in die supermassereichen Schwarzen Löcher ihrer ehemaligen Galaxien gestürzt sein, die dann massiv gewachsen sein werden (Sagittarius A*, das supermassereiche Schwarze Loch der Milchstraße hat nur ca. 0,001% der Masse der Milchstraße). Damit werden die Oberflächen ihrer Ereignishorizonte maximal werden, größenordnungsmäßig 1011 Sonnenmassen (Oberfläche: 1022 Mal diejenige eines Schwarzen Lochs von einer Sonnenmasse mit Entropie 1077) mal 1011 Galaxien = 1022+77+11 = 10110 – eine Milliarde mal mehr Entropie als heute. Mehr Entropie geht nicht?

Mehr Entropie geht doch: Weil Schwarze Löcher Hawkingstrahlung aussenden und dabei schrumpfen. Da die Entropie nicht fallen kann, jedoch ein schrumpfendes Schwarzes Loch an Entropie verliert (bis zu seiner vollkommenen Auflösung ohne Rest) muss die Entropie auf die ausgesendete Strahlung übergehen und mithin hat diese mindestens die gleiche Entropie, die zuvor in den Schwarzen Löchern steckte! Kluge Köpfe haben errechnet, dass die Hawking-Strahlung tatsächlich 33% mehr Entropie fortträgt als das zugehörige Schwarze Loch vorher gebunden hatte.

Aber damit nicht genug: das Universum dehnt sich aus, die Strahlung verteilt sich auf immer mehr Raum, ultimativ verbleibt nur ein durch die Dunkle Energie – wahrscheinlich eine Form der Vakuumenergie – angetrieben beschleunigt expandierender leerer Raum, in dem man mit immer kleinerer Wahrscheinlichkeit noch auf verwaiste aus der Hawking-Strahlung hervor gegangene Teilchen trifft. Dass das Vakuum, leerer Raum, überhaupt eine Entropie haben soll, scheint absurd, aber das Vakuum ist ja nicht wirklich nichts, sondern von Feldern erfüllt, die zahlreiche Zustände annehmen können. Es gibt plausible Schätzungen auf der Basis des holografischen Prinzips, die besagen, dass ein Volumen der Größe unseres beobachtbaren Universums, das nur von Dunkler Energie erfüllt ist, eine Entropie von etwa 10120 haben sollte. Aber da unser beobachtbares Universum wächst und mit ihm die Vakuumenergie, nimmt die Entropie weiterhin beständig zu.

Das Vakuum mit der Dunklen Energie könnte schließlich auf ein noch niedrigeres Energieniveau fallen (die Masse des Higgs-Teilchens spricht dafür), so wie es nach der mutmaßlichen kosmologischen Inflation auf das heutige Niveau gefallen ist, und je niedriger die Vakuumenergie, desto höher ist die Entropie. Das Ende der Fahnenstange wäre dann ein Vakuum ohne die Beschleunigung der Dunklen Energie, ein mit konstanter Rate expandierender leerer Raum, in dem die Entropie gegen unendlich strebt.

Die Entropie muss also nach oben keinen Deckel haben. Das gilt allerdings nur, wenn die Vakuumenergie niemals negativ und damit anziehend wird. Wir wissen bisher ihre Ursache nicht und daher auch nicht mit Bestimmtheit, ob sie sich nicht auch dahin entwickeln könnte, dass das Universum am Ende wieder kollabiert. Würde ein zyklisches Universum bei rückläufiger Zeit wieder zu niedriger Entropie zurückkehren? Würden die Bewohner davon etwas mitbekommen? Könnte man durch ein periodisch wachsendes und schrumpfendes Universum erklären, warum die Entropie zu Beginn so niedrig war? Oder gibt es noch einen anderen Ansatz?

Dazu mehr im nächsten und letzten Teil der Serie über die Zeit.

 

Referenzen

  • Sean Carroll, “From Eternity to Here / The Quest for the Ultimate Theory of Time”, Dutton / Penguin Group USA Inc., Januar 2010.

 

Links zu den anderen 5 Teilen:

Kommentare (20)

  1. #1 Volker Birk
    https://blog.fdik.org
    4. Mai 2020

    «Aber kann die Entropie ewig zunehmen, oder ist sie beschränkt?»

    -1/x nimmt ewig zu, aber es ist immer beschränkt.

  2. #2 Alderamin
    4. Mai 2020

    @Volker Birk

    Ja, das war ein bisschen unpräzise formuliert, danke.

  3. #3 Karl-Heinz
    4. Mai 2020

    @Alderamin

    Wenn man dem heute sichtbaren Universum eine Entropie zuordnet und nach einer Milliarde Jahre nach seiner Entropie fragt. Bezieht man sich dann auf das ganze heutige sichtbare Universum oder nur auf das sichtbare Universum in einer Milliarde Jahren?

  4. #4 Alderamin
    4. Mai 2020

    @Karl-Heinz

    Heute schon ist das “sichtbare Universum” nicht mehr komplett zu überblicken, weil ferne Galaxien, deren uraltes Licht aus der Frühzeit des Universums uns gerade erreicht, hinter den kosmologischen Horizont gerutscht sind und ihr aktuelles Licht uns nie mehr erreichen wird (wegen der beschleunigten Expansion, ich schrieb darüber schon einmal etwas).

    Insofern meint “das heute beobachtbare Universum” immer den Teil, der uns wenigstens in seiner Frühzeit zugänglich ist (mitbewegte Entfernung von ca. 42 Milliarden Lichtjahren). Das gilt dann auch für die Entropiebetrachtung.

  5. #5 Karl-Heinz
    4. Mai 2020

    @Alderamin zu #4

    Danke verstehe.

  6. #6 Kinseher Richard
    4. Mai 2020

    zu ´Der absolute Nullpunkt der Temperatur ist unerreichbar´:

    Wenn das Universum immer weiter abkühlt – dann gibt es irgendwann einfach keine Temperatur mehr.
    (Mangels der Möglichkeit irgendeiner Wechselwirkung)

  7. #7 Karl-Heinz
    4. Mai 2020

    @Kinseher Richard

    Sag jetzt nicht, du kennst den 3. Hauptsatz der Thermodynamik nicht.

  8. #8 Alderamin
    4. Mai 2020

    @Kinseher Richard

    Nach dem Gibbons-Hakwing-Effekt hat ein de-Sitter-Universum (eines ohne Materie aber mit dunkler Energie; der Grenzfall unseres Universums in ferner Zukunft) einen Ereignishorizont, der Hawking-Strahlung erzeugt. Strahlung ist hinreichend für eine Temperatur. Solange man Strahlung hat, ist die Temperatur des Universums > 0K.

    Ergo: der dritte Hauptsatz gilt (0K sind nicht erreichbar), so lange es eine Vakuumenergie gibt.

  9. #9 Ingo
    4. Mai 2020

    Ich habe nach wie vor Schwierigkeiten damit zu verstehen wie man Entropie misst.
    Eine Aussage wie “Das System XY hat eine Entropie von 42” heisst, dass es irgendeine Maseinheit gibt, und irgendwie ein Verfahren wie ich die “42” bestimme.

    Anders gefragt: Wenn ich einen 10cm*10cm*10cm grossen Kasten habe,- und dort in einer 1cm*1cm*1cm grossen Ecke 420.000 Gasatome versammelt habe -> Wie bestimme ich hier jetzt den Wert der Entropie?

    Irgendwie muss da ja auch noch die Temeratur des Gases einfliessen,- das zur verfuegung stehene Volumen,- das Volujmen den das Gas einnimmt und und und.

  10. #10 Alderamin
    4. Mai 2020

    @Ingo

    Es gibt Formeln für die Entropie eines Gases (oder Feststoffes, Flüssigkeit) an sich und für die Entropiezunahme bei Volumenänderung eines Gases.

    Schau z.B. mal hier unter “2.4 Thermodynamische Größen -> Entropieänderung” und “4.2.1 Entropie”, da findest Du entsprechende Formeln für ein ideales Gas. Temperatur, Volumen und Teilchenzahl gehen da mit ein.

    Allgemeiner mit Beispielen hier.

    Karl-Heinz rechnet vielleicht mal was vor. 😉

  11. #11 Volker
    4. Mai 2020

    Ist der zweite Hauptsatz der Thermodynamik eigentlich ein Axiom oder kann man den irgendwie “beweisen”?
    Anders gefragt: ist ein Perpetuum Mobile nicht möglich, weil es den zweiten Hauptsatz gibt, oder ist die Tatsache, dass es keine Perpetui Mobile (hoffentlich ist das der richtige Plural 😉 gibt, ein Beleg für den zweiten Hauptsatz der Thermodynamik?

    Und wenn es ein Axiom ist, wieso ist man sich so sicher, dass er unbedingt auch innerhalb des Ereignishorizontes eines Schwarzen Lochs gelten muss?
    Wenn es in dem Schwarzen Loch ein Perpetuum Mobile gäbe, würde man das “von draußen” ja gar nicht bemerken, oder? Jedenfalls käme keine Energie heraus, weil die Strahlung ja innen gefangen wäre.
    Man könnte argumentieren, dass wegen E = m*c² Masse entstünde, wenn Energie entsteht, aber c in einem Schwarzen Loch ist ja vielleicht auch nicht so richtig zu gebrauchen?

    Und dann könnte die Entropie in schwarzen Löchern vielleicht ja auch sinken – vielleicht ganz langsam – und wenn die dann am Schluss auch vielleicht alle wieder verschmolzen sind, macht es ja vielleicht wieder Peng.

    Vielleicht, vielleicht, vielleicht. Das ist nur so dahergedacht. Aber wenn die Newtonschen Axiome nicht immer gelten, warum sollen dann die Hauptsätze der Thermodynamik keine Ausnahmen haben?

  12. #12 Alderamin
    4. Mai 2020

    @Volker

    Ist der zweite Hauptsatz der Thermodynamik eigentlich ein Axiom oder kann man den irgendwie “beweisen”?

    Man kann beweisen, dass er statistischer Natur ist. Darum ging es im wesentlichen in Teil 4. Ein Sinken der Entropie ist nicht physikalisch ausgeschlossen, aber fürchterlich unwahrscheinlich, je größer die Entropiedifferenz ist. Im nächsten Teil kommt noch was zum thermodynamischen Gleichgewicht, in dem die Entropie zufällig rauf und runter geht.

    Anders gefragt: ist ein Perpetuum Mobile nicht möglich, weil es den zweiten Hauptsatz gibt, oder ist die Tatsache, dass es keine Perpetui Mobile (hoffentlich ist das der richtige Plural gibt, ein Beleg für den zweiten Hauptsatz der Thermodynamik?

    Ein Perpetuum Mobile erster Art verletzt den ersten Hauptsatz (Energieerhaltung), und der ist nicht statistisch. Ein Perpetuum Mobile zweiter Art läuft ewig weiter, ohne Energie zu verlieren. Das würde Freiheit jeglichen Energieverlusts (Reibung, Strahlung,…) voraussetzen, und das gibt es nicht. Statistisch oder nicht.

    Und wenn es ein Axiom ist, wieso ist man sich so sicher, dass er unbedingt auch innerhalb des Ereignishorizontes eines Schwarzen Lochs gelten muss?

    Die obigen Aussagen über die Entropie Schwarzer Löcher beziehen sich alle auf den Ereignishorizont selbst, nicht auf sein Inneres. Z.B. das Informationsparadoxon, dass Schwarze Löcher ja “keine Haare hätten”, weil sie außer Masse, Ladung und Drehimpuls keine Information tragen können, Information aber eigentlich nicht verloren gehen kann, wenn man etwas mit Information in das Schwarze Loch schmeißt. Man geht jetzt davon aus (Hawking hatte dafür seinen Wetteinsatz eingelöst), dass die Information im Ereignishorizont eingefroren wird und mit der Hawking-Strahlung wieder freigesetzt wird.

    Wie genau man jetzt gefolgert hat, dass der Entropiesatz für Schwarze Löcher erfüllt ist, weiß ich allerdings auch nicht.

    Wenn es in dem Schwarzen Loch ein Perpetuum Mobile gäbe, würde man das “von draußen” ja gar nicht bemerken, oder? Jedenfalls käme keine Energie heraus, weil die Strahlung ja innen gefangen wäre.
    Man könnte argumentieren, dass wegen E = m*c² Masse entstünde, wenn Energie entsteht, aber c in einem Schwarzen Loch ist ja vielleicht auch nicht so richtig zu gebrauchen?

    Was drinnen ist, bleibt drinnen verborgen. Davon dringt nichts heraus. Selbst wenn Masse entstünde (wovon ich nicht ausgehe) würde man das nicht bemerken. Ein Schwarzes Loch wächst nur durch Masseeinfall von außen. Wenn man von innen Masse hinzufügen könnte (was ich mir nicht vorstellen kann), könnte die Änderung der Masse gar nicht nach außen kommuniziert werden (Änderung der Gravitation = Gravitationswelle, die ist nur lichtschnell).

    Und dann könnte die Entropie in schwarzen Löchern vielleicht ja auch sinken – vielleicht ganz langsam – und wenn die dann am Schluss auch vielleicht alle wieder verschmolzen sind, macht es ja vielleicht wieder Peng.

    So eine ähnliche Idee gibt es, die Dichte könnte eine Inflation auslösen und ein Universum erzeugen. Nächstesmal…

    Aber wenn die Newtonschen Axiome nicht immer gelten, warum sollen dann die Hauptsätze der Thermodynamik keine Ausnahmen haben?

    Die Newtonschen Axiome gelten schon immer, nur müssen sie für hohe Geschwindigkeiten oder Schwerkräfte passend modifiziert werden, weil die Raumzeit sich verbiegt.

  13. #13 Volker
    4. Mai 2020

    @Alderamin

    Danke für die ausführlichen Antworten.
    Den 4. Teil muss ich mir dann wohl noch mal durchlesen.
    Und sehr interessant, dass man selbst von einem Massezuwachs im Inneren bzw. von Innen nichts mitbekommen würde. Das hätte ich jetzt auf Anhieb nicht gedacht.

  14. #14 Alex
    4. Mai 2020

    Du schreibst, dass ein Gas sich abkühlt, wenn es mehr Volumen ausfüllt. Wenn sich beispielsweise das Volumen verdoppelt, sinkt dann der Druck um die Hälfte?
    Nach der allgeimeinen Gasgleichung gilt:
    p * V = n * R * T
    Wieso bleibt die Temperatur nicht konstant?

  15. #15 Bbr
    Niedersachsen
    4. Mai 2020

    Ideale Gase kühlen sich bei Ausdehnung tatsächlich nur ab, wenn sie dabei mechanische Arbeit verrichten. Die meisten realen Gase schon:

    https://de.wikipedia.org/wiki/Joule-Thomson-Effekt

    Umkehr braucht man zum Komprimieren von Gasen natürlich immer mechanisch Arbeit, also werden sie dabei warm.

  16. #16 Alderamin
    4. Mai 2020

    @Alex, Bbr

    Ja, vollkommen richtig, umgekehrt zur Kompression muss das Gas bei der Expansion Arbeit verrichten, und die verrichtete Arbeit entspricht genau der Abnahme der inneren Energie. Insofern dürfte ein Gas, das ins Vakuum expandiert, nicht abkühlen.

  17. #17 Karl-Heinz
    5. Mai 2020

    Ich habe nach wie vor Schwierigkeiten damit zu verstehen wie man Entropie misst.
    Eine Aussage wie “Das System XY hat eine Entropie von 42” heisst, dass es irgendeine Maseinheit gibt, und irgendwie ein Verfahren wie ich die “42” bestimme.

    Anders gefragt: Wenn ich einen 10cm*10cm*10cm grossen Kasten habe,- und dort in einer 1cm*1cm*1cm grossen Ecke 420.000 Gasatome versammelt habe -> Wie bestimme ich hier jetzt den Wert der Entropie?

    Irgendwie muss da ja auch noch die Temeratur des Gases einfliessen,- das zur verfuegung stehene Volumen,- das Volujmen den das Gas einnimmt und und und.

    Die Formel S = k ⋅ ln (W) sieht so unschuldig aus, hat es aber in sich. 😉

    Zum Trost eine kleine Rechnung.

    Wie ist die Wahrscheinlichkeit, dass 1 kg Eisen unter Wärmeaufnahme (isothermer Prozess) 1m an Höhe gewinnt?

    Lösung:
    ∆S = ∆Q/T = – mgh/t = -1kg⋅9,81m⋅1m/(300K⋅s^2) = -0,037 J/K
    ∆S = k⋅ln(W) ⇒ W = e^(∆S/k) = e^(-2,37⋅10^21) ≈ 0.

    Anmerkung: ∆S ist deswegen negativ, weil ja Wärmeenergie in potentielle Energie umgewandelt wird.

    Zu deiner Frage:
    Man kann zum Beispiel die Entropieänderung von 1,00 mol idealem Gas berechnen, welches frei in sein doppeltes Volumen expandiert. Druck, Temperatur und Volumen sind als Angabe gar nicht notwendig.

  18. #18 Karl Mistelberger
    mistelberger.net
    5. Mai 2020

    > #17 Karl-Heinz, 5. Mai 2020
    > Die Formel S = k ⋅ ln (W) sieht so unschuldig aus, hat es aber in sich.

    Apropos Entropie: https://en.wikipedia.org/wiki/Category:Thermodynamic_entropy

  19. #19 Karl-Heinz
    6. Mai 2020

    @Karl Mistelberger

    Wow! … wirklich umfangreich die Thematik Entropie.

    @Ingo

    Ich habe nach wie vor Schwierigkeiten damit zu verstehen wie man Entropie misst.
    Eine Aussage wie “Das System XY hat eine Entropie von 42” heisst, dass es irgendeine Maseinheit gibt, und irgendwie ein Verfahren wie ich die “42” bestimme.

    Anders gefragt: Wenn ich einen 10cm*10cm*10cm grossen Kasten habe,- und dort in einer 1cm*1cm*1cm grossen Ecke 420.000 Gasatome versammelt habe -> Wie bestimme ich hier jetzt den Wert der Entropie?

    Irgendwie muss da ja auch noch die Temeratur des Gases einfliessen,- das zur verfuegung stehene Volumen,- das Volujmen den das Gas einnimmt und und und.

    Nun zu deine Frage: Wie rechnet man dein Beispiel.

    (I): S = k ⋅ ln (W)

    Gleichung (I) sieht wie Boltzmann so absolut aus.
    Dein Beispiel selbst handelt aber von einer Änderung der Entropie bei freier Expansion der Gasteilchen vom kleinen Volumen V1 in das größere Volumen V2.
    Dazu passen wir jetzt die Formel ein bisschen an.

    ∆S = S2-S1 = k ⋅ ln (W2) – k ⋅ ln (W1) = k ⋅ ln (W2/W1)

    Sarkasmus:
    Jetzt ein bisschen Statistik. Dank Wikipedia heutzutage kein Problem mehr. 😉

    ∆S = k ⋅ ln (W2/W1) = k ⋅ ln ((V2/V1)^N) = k⋅N⋅ln(V2/V1)

    Der volumenabhängiger Teil der Entropieänderung ist ∆S = k⋅N⋅ln(V2/V1)
    Das wäre dann für dein Beispiel:
    V2/V1 = 1000
    ln(V2/V1) = ln(1000) = 6,9
    k = 1,38 * 10^(-23) J/K
    N = 420.000 Atome
    ⇒ ∆S = 1,38⋅10^(-23) J/K ⋅ 4,2⋅10^5 * 6,9 = 4⋅10^(-17) J/K

  20. #20 Karl-Heinz
    6. Mai 2020

    Oh sehe gerade, dass …
    Statt von 420.000 Atome sollte man besser von 420.000 Teilchen (Moleküle) sprechen. 🙂