Dass die Entropie nie abnehmen kann, ist ja eines der wichtigsten Gesetze der Physik, bekannt unter dem Namen “zweiter Hauptsatz der Thermodynamik”. (Keine Sorge, falls ihr gerade nicht parat habt, was nochmal die Entropie ist, das klären wir gleich im Detail.) Dieser Satz ist so fundamental, dass Arthur Eddington (in einem meiner Lieblingszitate) darüber gesagt hat:

If someone points out to you that your pet theory of the universe is in disagreement with Maxwell’s equations — then so much the worse for
Maxwell’s equations. If it is found to be contradicted by observation — well these experimentalists do bungle things
sometimes. But if your theory is found to be against the second law of thermodynamics I can give you no hope; there is nothing for it but to
collapse in deepest humiliation.

[Falls Ihnen jemand zeigt, dass Ihre Lieblingstheorie des Universums nicht mit den Maxwell-Gleichungen übereinstimmt — Pech für die
Maxwell-Gleichungen. Falls die Beobachtungen ihr widersprechen — nun ja, diese Experimentatoren bauen manchmal Mist. Aber wenn Ihre Theorienicht mit dem zweiten Hauptsatz der Thermodynamik übereinstimmt, dann kann ich Ihnen keine Hoffnung machen; ihr bleibt nichts übrig als in tiefster Schande zu kollabieren.]

Kurz gesagt, der zweite Hauptsatz der Thermodynamik ist ziemlich fundamental. Um so erstaunlicher, dass er eigentlich nicht wirklich gilt, oder jedenfalls nicht immer, wenn man genau hinguckt – und das tun wir heute. Um es kurz zu machen. Ja, die Entropie darf auch abnehmen. Es ist allerdings sehr, sehr unwahrscheinlich.

Ein Spielzeugmodell

Wie so oft in der Physik versteht man die Dinge am besten an einem einfachen Beispiel, einem Spielzeugmodell. Wir stellen uns einen Kasten vor, der mit irgendwelchen Gasmolekülen oder -atomen gefüllt ist (denkt im Zweifel einfach an das Zimmer, in dem ihr gerade sitzt, aber denkt euch die Schwerkraft weg, die macht die Sache nur unnötig kompliziert). Die Temperatur ist in der Physik ein Maß für die Geschwindigkeit der Gasatome, solange die Temperatur nicht gleich Null ist, bewegen sich die Gasatome also in dem Kasten herum.

Stellt euch vor, dass die Gasatome am Anfang alle in einer Ecke sind (vielleicht ist dort eine Gasflasche, deren Hahn ihr aufdreht), während der Rest des Kastens leer ist – also ein Vakuum. Die Gasatome in der Flasche sausen wild durch die Gegend, fliegen mal hierhin, mal dorthin, und früher oder später fliegt eins aus der Flasche heraus und in den großen Kasten hinein. Die Wahrscheinlichkeit, dass es durch den Hals der Flasche wieder in die Flasche zurückfliegt, ist natürlich klein. Nach einer Weile verteilt sich das Gas also gleichmäßig im Kasten, es sind überall in etwa gleich viele Atome. (Auch in der Flasche, wenn sich die Gasatome gleichmäßig verteilt haben, dann fliegt im Mittel für jedes Atom, das durch den Flaschenhals nach Draußen fliegt, auch eins in die Flasche hinein.)

Wir haben jetzt also einen Kasten, in dem die Dichte der Teilchen (und auch der Druck der Teilchen usw) überall gleich groß ist, unser System ist im sogenannten “thermodynamischen Gleichgewicht”.  Ihr seht auch, dass daran nichts besonderes oder geheimnisvolles ist; es ist einfach eine Frage von Zufall und Statistik.

Mikro und Makro

Um etwas präziser zu werden, müssen wir zwei unterschiedliche Arten unterscheiden, das System zu beschreiben: Die Mikro- und die Makro-Sicht. In der Mikro-Sichtweise nehmen wir an, dass wir alles über das System wissen, quasi die Facebook-Ansicht des Gases. Von jedem Atom wissen wir genau, wo es ist, welche Geschwindigkeit es hat, usw. Wir wissen also, wo Gasatom Nummer 1 gerade ist, oder Nummer 12345678 usw.

Die andere Sichtweise ist die Makro-Sichtweise, bei der wir nicht so genau hinschauen. Da fragen wir uns nicht, was jedes einzelne Gasatom macht, sondern nur, was die im Mittel alle so tun. Das ist gewissermaßen die Politik-Sicht der Dinge – den Parteien ist egal, ob sie von Lieschen Müller oder Otto Meier gewählt werden, wichtig sind am Ende nur die Prozente, die sie abbekommen. In unserem Gas interessieren wir uns da nur für Größen, die wir makroskopisch messen können, beispielsweise die Dichte oder den Druck im Gas. Das ist auch die Sicht, die wir im Alltag haben – wnen ich Luft hole, ist nur wichtig, dass da ein Gasatom (bzw. Sauerstoffmolekül) zum Einatmen ist, aber ob ich jetzt Nummer 1 oder Nummer 12345678 einatme, ist mir ziemlich egal.

Teilen wir den kasten mal gedanklich in zwei Hälften. Wir können uns jetzt fragen: kann es nicht per Zufall passieren, dass eine der beiden Hälften komplett leer ist, weil sich alle Gasatome in der anderen Hälfte versammeln? Immerhin purzeln die alle zufällig in der Gegend herum (wer genau sein will, kann von “deterministischem Chaos” sprechen).  Wenn nur ein Gasatom da wäre, dann wäre es auf jeden Fall immer so, dass eine Hälfte des Kastens leer ist; bei zwei Gasatomen haben wir eine 50%-Chance, dass eine der beiden Hälften leer ist (die Atome können links oder rechts sein, also haben wir LL, LR, RL, RR als Möglichkeiten). Aber je mehr Gasatome es werden, desto unwahrscheinlicher wird es.

Fragen wir mal konkret, wie wahrscheinlich es ist, dass die linke Seite des Behälters leer ist. Bei einem Gasatom ist der Wert 50%, bei zwei nur noch 25%, bei drei nur noch 12,5% usw. Allgemein ist die Formel bei N Gasatomen 1/2N, bei 100 Gastomen schon 1: 1030, also 0,000000000000000000000000000001 (wenn ich mich mit den Nullen nicht verzählt habe), und bei realistischen Zahlen von Gasatomen (in der Größenordnung von 1023 ) ist die Wahrscheinlichkeit dann entsprechend unglaublich winzig.

Wichtig ist, immer im Kopf zu haben, dass das nicht daran liegt, dass es für ein einzelnes Atom irgendwie unwahrscheinlich wäre, auf der einen oder anderen Seite zu sein, es ist  lediglich eine Frage der Statistik. (So wie es für eine beliebige Person vielleicht eine 30%-Wahrscheinlichkeit gibt, die Partei XY zu wählen; dass aber alle Leute XY wählen, ist entsprechend unglaublich unwahrscheinlich.)

Entropie

Die Entropie ist jetzt genau die Größe, die diesen statistischen Effekt erfassen soll. Sie sagt, wie viele Möglichkeiten es gibt, einen bestimmten, makroskopischen Zustand  durch Mikro-Zustände zusammenzusetzen. (Mathematisch nimmt man da noch nen Logarithmus, damit die Zahlen nicht so riesig werden, aber das spielt erst mal keine Rolle.) In unserem Beispiel gibt es unglaublich viele Möglichkeiten, die Gasatome so zu verteilen, dass links und rechts genau gleich viele sind, aber deutlich weniger, bei denen links doppelt so viele sind wie rechts, und nur sehr wenige, bei denen alle Gasatome links sind. Das ist schlicht eine Frage der Statistik, aber weil wir es mit sehr vielen Gasatomen zu tun haben, ist die Wahrscheinlichkeit, eine signifikante Abweichung von der statistischen Vorhersage zu bekommen, extrem winzig.

Dass die Entropie immer zunimmt, ist also schlicht eine Frage der Statistik: Die Zahl der Möglichkeiten dafür, die Gasatome gleichmäßig zu verteilen, ist so unglaublich viel größer als die Zahl der Möglichkeiten dafür, dass die Gasatome alle auf einer Seite des Kastens sind, dass die Statistik schlicht dafür sorgt, dass ihr den einen Zustand (nahezu) immer und den anderen (nahezu) nie bekommt.

So weit, so gut. Aber wer genau aufgepasst hat, hat gemerkt, dass meine Definition der Entropie (oder des Makrozustands, auf den sie sich ja bezieht) ein bisschen schwammig ist: Was ist, wenn ich den Kasten nicht gedanklich in zwei Teile teile, sondern in vier? Ändert die Zahlen etwas, aber es ist immer noch verdammt unwahrscheinlich, dass einer der vier Teile komplett leer ist. Aber wenn ich 8 nehme? 16? Eine Million? Eine Milliarde? Spätestens, wenn ich den Kasten in mehr Teile teile, als ich Atome im Kasten habe, wird natürlich auch einer der Teile leer sein.

Man kann natürlich argumentieren, dass das dann wirklich keine Makro-Zustände mehr sind. Richtig. Aber wo genau ist die Grenze zwischen Makro und Mikro? Wie viele Teile für den Kasten gelten noch als Makrozustand, ab wann ist er ein Mikrozustand?

Wenn ihr so überlegt, merkt ihr, dass die Definition der Entropie ein wenig ungenau ist. Für praktische Zwecke ist das relativ egal – solange ihr die Teile nicht zuuu winzig macht, spielt es keine Rolle, wie genau ihr den Kasten aufteilt. Im Nano-Bereich wird das aber schon wichtig – Leute, die sich zum Beispiel mit Gassttrömungen durch Membranen mit Porengrößen so im Bereich von ein paar Hundert Nanometern beschäftigen, merken, dass da die handelsüblichen Regeln der Strömungsmechanik und Thermodynamik so nicht mehr gelten, weil es eben nicht mehr überall so viele Atome gibt, dass die Mittelung immer gut funktioniert.

1 / 2 / Auf einer Seite lesen

Kommentare (62)

  1. #1 tomtoo
    31. März 2018

    Entropie mein Feind ; )
    Die Gravitation ist doch der Gegenspieler sozusagen. Sonst gäbe es im Universum doch Maximal fein verteilten Wasserstoff(naja noch ein bischen andere leichte Elemente). Aber die Gravitation gibt es halt. Und die hat doch auch Einfluss auf Verteilungen im Universum. In der Kiste bildet sich also zufällig ein Dichte Zentrum. Und dann ist Schluss mit der Entropie .Alles maschiert freudig dahin. Ok, dunkle Energie vergessen. Und der Impuls vom Urknall. Mist ist das Universum kompliziert.

  2. #2 MartinB
    31. März 2018

    @tomtoo
    Ja, darauf hebt Penrose immer sehr ab, dass die Gravitation der Entropie in dem Sinne entgegenwirkt.

    Halte ich aber für problematisch: Wenn z.B. zwei Astreoiden zusammenstoßen und verklumpen, erhöht das die Entropie, weil die Energie ja in Wärme übergeht. Die wird dann wieder abgestahlt, was die Entropie weiter erhöht. Müsste ich nochmal gucken, wie er da genau argumentiert.

  3. #3 stone1
    31. März 2018

    Schöner Artikel zum Wiedereinstieg, nicht zu sehr ins Detail gehend aber dennoch den Denkapparat angenehm beanspruchend.
    Gibt es eigentlich denkbare praktikable ‘Einsatzzwecke’ für das gelegentliche Abnehmen der Entropie bei hinreichend kleinen Systemen? Das Paper zum Experiment ist leider nicht frei zugänglich.

  4. #4 Lercherl
    31. März 2018

    @stone1

    Gibt es eigentlich denkbare praktikable ‘Einsatzzwecke’ für das gelegentliche Abnehmen der Entropie bei hinreichend kleinen Systemen? Das Paper zum Experiment ist leider nicht frei zugänglich.

    Die Pollen- und ähnliche Körner, an denen die Brownsche Bewegung entdeckt wurde, sind das Standardbeispiel für Systeme, die gerade klein genug sind (in der Größenordnung von Mikrometern), dass Abweichungen vom 2. Hauptsatz erkennbar sind: die Stöße durch die thermische Bewegung der Wassermoleküle “sollten” die Körner von allen Seiten gleichmäßig treffen, sodass sich alle Kräfte aufheben und die Körner in Ruhe bleiben. Durch Fluktuationen ergeben sich Nettokräfte in ständig andere Richtungen.

    Sofern ich das Abstract richtig verstanden habe, ist der in dem verlinkten Paper beschriebene Effekt auch nicht viel Anderes als die Brownsche Bewegung.

  5. #5 MartinB
    31. März 2018

    @stone1
    Anwendungen sehe ich nicht – es mag eher ein Problem sein, z.B. in der Mikrotechnik, wenn Systeme plötzlich Energieschwankungen oder so haben.

    @Lecherl
    Ich sehe den Unterschied darin, dass hier das ganze Teilchenensemble angeguckt wurde, nicht bloß einzelne Teilchen.

  6. #6 stone1
    31. März 2018

    @Lercherl
    Danke, die Brownsche Bewegung wurde ja schon vor bald 200 Jahren entdeckt, ich dachte dass das Experiment vielleicht irgendetwas Neues dazu gezeigt hätte.

  7. #7 stone1
    31. März 2018

    @MartinB
    Oh, Kommentare überschnitten, ebenfalls Danke für die Antwort.

  8. #8 Lercherl
    31. März 2018

    Nebenbei: hier gibt es einen aktuellen Artikel von Steven Pinker über den Zweiten Hauptsatz, der auch das Eddington-Zitat enthält. Schön, dass so etwas auch von Psychologen kommt!

    Mein Lieblings-Zitat zum Zweiten Hauptsatz stammt von Boltzmann:

    Der allgemeine Daseinskampf der Lebenswesen ist daher nicht ein Kampf um die Grundstoffe — die Grundstoffe aller Organismen sind in Luft, Wasser und Erdboden im Überflusse vorhanden — auch nicht um Energie, welche in Form von Wärme leider unverwandelbar in jedem Körper reichlich enthalten ist, sondern ein Kampf um die Entropie, welche durch den Übergang der Energie von der heißen Sonne zur kalten Erde disponibel wird.

    Ludwig Boltzmann: Der zweite Hauptsatz der mechanischen Wärmetheorie (29. Mai 1886)

    (Sollte genauer “Negentropie” heißen, aber das Wort war damals noch nicht erfunden.)

  9. #9 MartinB
    31. März 2018

    @Lecherl
    Man könnte auch “Freie Energie” sagen.

  10. #10 Floh
    31. März 2018

    Spielt es keine Rolle, dass sich die Elektronenhüllen abstoßen?

  11. #11 Krypto
    1. April 2018

    @Martin: Danke, schöner Artikel!

    dass wir alles über das System wissen, quasi die Facebook-Ansicht

    made my day 🙂

  12. #12 Сhemіkеr
    Nordostindien
    1. April 2018

    He is back!

    Das letzte halbe Jahr war ein bißchen langweilig und ich freue mich sehr, daß Du wieder zum Bloggen kommst (bzw. einen Kommentar in einem anderen Blog zum Anlaß nimmst, selbst zu schreiben).

  13. #13 MartinB
    1. April 2018

    @Floh
    Wofür genau soll die Abstoßung eine Rolle spielen? Bei den Gasen ist das natürlich dafür verantwortlich, dass sich die Atome, wenn sie kollidieren, abstoßen.

  14. #14 Floh
    1. April 2018

    “Wofür genau soll die Abstoßung eine Rolle spielen?”

    Damit die Möleküle sich nicht nur in einer Hälfte aufhalten können.
    Oder anders gesagt, ohne die Abstoßung ist die Wahrscheinlichkeit für jedes Molekül 50% in einer Hälfte zu sein. Wenn aber sich die meisten Moleküle in einer Hälfte befinden, ist dann die Wahrscheinlichkeit immer noch 50% ?

    Hoffe die Frage ist jetzt verständlich fornmuliert.

  15. #15 MartinB
    1. April 2018

    @Floh
    Sorry, hatte ich nicht verstanden.
    Die Abstoßung ist sehr kurzreichweitig (im nanometerbereich), die spielt also nur ne Rolle, wenn sich die Atome wirklich nahe kommen, bei größeren Entfernungen ist sie vernachlässigbar.

  16. #16 Alderamin
    1. April 2018

    @tomtoo

    Die Gravitation ist doch der Gegenspieler sozusagen. Sonst gäbe es im Universum doch Maximal fein verteilten Wasserstoff(naja noch ein bischen andere leichte Elemente).

    Gasdynamisch gesehen mag man das so sehen, aber kosmologisch stimmt das so nicht. Die Entropie nimmt zu in Richtung einer wahrscheinlicheren Konfiguration, ganz gleich, aus welchem Antrieb heraus diese entsteht. Gas treibt es durch Kollisionen auseinander, aber Schwerkraft wirkt anziehend. Bei der Schwerkraft ist ein gleichförmig verteiltes Gas gerade der unwahrscheinlichste Fall, denn jede winzige Dichteschwankung nach oben für zum lokalen Kollaps der umgebenden Materie. Das Universum begann in einem Zustand extrem geringer Entropie mit einem fast gleichförmig verteilten Gemisch aus Wasserstoff, Helium und dunkler Materie. Durch das Entstehen von Galaxien, Sternen, schwarzen Löchern etc. nahm die Entropie zu. Gerade Schwarze Löcher sind Produzenten immenser Entropie, weil sie die Materie bestmöglich verdichten.

    https://phys.org/news/2009-10-cosmic-entropy-greater-previously-thought.html
    (hab auf die Schnelle nichts gescheiteres gefunden, aber in Brian Greenes „Der Stoff aus dem der Kosmos ist“ steht einiges dazu im Themenkreis, woher der Zeitpfeil stammt).

  17. #17 Alderamin
    1. April 2018

    @tomtoo

    Alderamin:

    Gasdynamisch gesehen mag man das so sehen, aber kosmologisch stimmt das so nicht.

    Ich meinte, es stimmt so nicht, dass die Gravitation der Gegenspieler der Entropie ist, nein, sie spielt ihr in die Karten. Natürlich ist es richtig, dass ohne Gravitation das Weltall gleichmäßig mit Gas ausgefüllt wäre. Nichts für ungut…

  18. #18 MartinB
    1. April 2018

    @Alderamin
    Aber es stimmt schon in dem Sinne, dass die Gravitation dafür sorgt, dass aus einem Universum, in dem die Materie anfangs gleichmäßig verteilt war, Strukturen entstehen können, die lokalisiert sind, was ja auf den ersten blick dem 2. Hauptsatz widerspricht. “Gegenspieler” ist zwar das falsche Wort, aber das Konzept ist schon nicht verkehrt, finde ich.
    Wie gesagt, dazu steht einiges bei Penrose (Road to reality, glaube ich).

  19. #19 WolfgangS
    1. April 2018

    You made my Eastern, das Fest der Auferstehung 🙂 oder wie ein Schüler es formulierte auf die Frage, was er über Ostern weiß: “an diesem Tag ist Jesus aufgekreuzt”. Aber Spaß beiseite, immerhin hat mich in Deinem Blog von gestern die Ermunterung, Fragen zu Themen zu stellen, dazu gebracht, selbiges zu tun. Und da Du heute gerade sowieso bei der Thermodynamik bist, eine simple Frage, die mich schon lange beschäftigt: Warum steigt warme Luft nach oben?, oder anders formuliert, welcher Mechanismus steckt genau dahinter, ist das mal verständlich durchgerechnet worden (Wirkungsquerschnitt, Stoßzahl, Teilchengöße, Impulsübertragung, Statistik…???)
    Dass ein mit Gas höherer Temperatur gefüllter Ballon Auftrieb erfährt ist klar, hier bietet ja die Ballonfläche eine dicht gepackte Angriffsfläche für die “drückenden” Teilchen/Atome/Moleküle, aber in einem Gas mit den großen Abständen zwichen diesen fehlt mir irgendwie die geschlossene Angriffsfläche zum “Drücken” (Abstände wohl so ca. der 10 – 30 fache Teilchendurchmesser und zusätzlich sind die “drückenden” Teilchen energetisch ja auch noch niedriger angesiedelt) .
    Den einzigen Beitrag einer gewissen Joana dazu habe ich vor Jahren mal hier (http://www.wer-weiss-was.de/t/wieso-steigt-warme-luft-nach-oben/1901639/18) gefunden, noch ziemlich lustig dazu, wenn man sich die gockelhaften Erklärungen der “Wissenden” durchliest.
    Auf jeden Fall toll, dass Du wieder da bist und: kann man schon vorbestellen?
    off topic Ende
    Nimmt man die Entropie als Verantwortliche für den Zeitpfeil, so kann man H. G. Wells ja direkt als Seher bezeichnen.

  20. #20 hmann
    1. April 2018

    Wolfgang S,
    woher weiß das Wasserstoff atom dass es nach oben fliegen muss und nicht nach unten, das war doch deine Frage? Wer findet da eine kurze Antwort?

  21. #21 MartinB
    1. April 2018

    @WolfgangS
    Warme Luft hat ne kleinere Dichte, das ist letztlich alles, oder? Einigermaßen ausführlich ist das hier erklärt (zweite Antwort):
    https://physics.stackexchange.com/questions/6329/does-hot-air-really-rise

  22. #22 Duck
    1. April 2018

    Hallo Martin,
    Entropie ist ein tolles Thema. Du könntest vielleicht mal die Rolle der Entropie für den Zeitpfeil (warum wir nicht in der Zeit zurück können) besprechen. Noch interessanter wäre aus meiner Sicht, die Möglichkeit des freien Willens zu diskutieren. In welchem Universum ist er möglich (Newton , Einstein, Quantenphysik, viele Welten…).
    Liebe Grüße

  23. #23 MartinB
    1. April 2018

    @Duck
    Zum freien Willen gibt es ja nen Artikel und ne endlose Debatte
    http://scienceblogs.de/hier-wohnen-drachen/2013/02/19/willensfreiheit-und-determinismus-warum-ich-das-problem-nicht-verstehe
    Entropie und Zeitpfeil ist ein interessantes Thema, hat allerdings den Nachteil, dass es schon sehr viele Texte dazu gibt, z.B.
    http://backreaction.blogspot.de/2015/11/dear-dr-b-what-do-physicists-mean-when.html

  24. #24 WolfgangS
    2. April 2018

    hmann kommt der Sache schon näher, in allen “Erklärungen” geht es immer nur um den Dichteunterschied, klar ist das die Ursache für den Auftrieb, wie beim Korken im Wasser oder einem Ballon in der Luft, alles völlig klar. Meine Frage war ja, wie kommt dieser Auftrieb in einem Gas (ohne geschlossene Hülle) zustande. Wo greifen die von unten drückenden Teilchen an, bei deren großen Abständen zueinander? Meiner Meinung ist das ein größeres Thema (Stoßhäufigkeit, Durchmischung an der Grenzfläche…), hätte mich halt interessiert, ob jemand darüber schon mal was gelesen hat. Außer der schon zitierten Joana habe ich leider nichts gefunden, muß ich doch selber mal ein bißchen rechnen und grübeln.:)

  25. #25 WolfgangS
    2. April 2018

    Wieder zu schnell auf abschicken gedrückt. In dem von Dir, MartinB, verlinkten Artikel erkennt auch ein gewisser Jeff mein Anliegen, allerdings sieht er auch nur das Problem.

  26. #26 MartinB
    2. April 2018

    @WolfgangS
    Sehe ich es richtig, dass du gern eine sozusagen mikroskopisch aufgelöste Rechnung hättest statt einer thermodynamischen Argumentation (die natürlich implizit die mikroskopische Information beinhaltet)?
    Ich weiß nicht, ob jemand sich mal die Mühe gemacht hat, das durchzurechnen.

  27. #27 tomtoo
    2. April 2018

    @hmann
    Wieso muss das Molekül wissen wo unten und oben ist ? Fliegt es Richtung grav. Zentrum wird es minimalst beschleunigt, fliegt es entgegen dem grav. Zentrum wird es minimal gebremst. Es gibt also sowas wie einen attraktiven Punkt. Bin ja kein Physiker, aber zumindest kann ichs mir so vorstellen. So wie wenn du ne Attraktive Dame siehst, in Richtung zu ihr wirste beschleunigt, in Richtung weg von ihr wirste gebremst. ; ) Na, muss ja nicht immer alles zerfleischend ernt sein.

  28. #28 Karl-Heinz
    2. April 2018

    @WolfgangS

    Ich vermute, dass bei deiner Frage, in diese Richtung argumentiert wird.

    Barometrische Höhenformel
    N Teilchen der Masse m befinden sich unter dem Einfluß des Gravitationspotentials mgz in einem Zylinder mit Querschnitssfläche A und Höhe H. Die gesamte potentielle Energie der Teilchen sei E = mg*(z¯)

    Bestimmen Sie aus der Boltzmann-Verteilung die barometrische Höhenformel, die angibt wieviele Teilchen n(z)dz sich in der Höhe z . . . z + dz befinden.

  29. #29 WolfgangS
    2. April 2018

    @MartinB
    Genau darum geht es mir, denn darüber habe ich bisher auch nichts finden können. Habe einfach dieses Verständnisproblem, wie die “kalten” Teilchen es schaffen, die “warmen” nach oben zu drücken. Ich könnte mir vorstellen, dass die Stoßzahl so hoch und die mittlere freie Weglänge so kurz ist (also nur wenig Diffusion an der Grenzfläche stattfindet) dass dieser Grenzbereich quasi wie eine geschlossene Haut, also wie eine Ballonhülle, wirkt und so den Auftrieb ermöglicht. Bin noch am rumrechnen, geht halt bei mir nicht mehr so schnell (lang lang ist’s her 🙂 )

  30. #30 Karl-Heinz
    2. April 2018

    @WolfgangS

    Bin noch am rumrechnen, geht halt bei mir nicht mehr so schnell (lang lang ist’s her.

    Na dann viel Spaß beim rumrechnen. Hoffentlich kommen die Kohlendioxid-Moleküle in der Zwischenzeit nicht auf die Idee, die leichteren Gasmoleküle nach oben zu drücken.

  31. #31 WolfgangS
    2. April 2018

    @Karl-Heinz
    Beschreibt die barom. Höhenfrml. nicht einfach nur die Druckabhängigkeit der Atmosphäre von der Höhe? Mir geht es ja um das Archimedes’sche Prinzip. Bei dem schwimmenden Korken im Wasser können die dicht an dicht, aber trotzdem beweglichen H2O Teilchen gegen eine auch geschlossene Korkfläche drücken, in einem Gas fehlen mir aber zu meinem Verständnis die geschlossenen Flächen (die Gasteilchen haben ja einen 10- und mehrfachen Abstand ihres Durchmessers zueinander). Das ist der eigentliche Grund meines Verständnisproblems.
    Aber auch wenn ich es nicht verstehe, funktionieren tut es doch!

  32. #32 MartinB
    2. April 2018

    @WolfgangS
    Vielleicht macht es die Rechnung leichter, wenn du einfach zwei Atomsorten mit unterschiedlichen Massen annimmst, dann sieht man vermutlich schneller, wie die sich entmischen. Ansonsten hast du auch den ganzen Ärger mit Stoßprozessen, die aus langsamen Teilchen schnelle machen und umgekehrt.

  33. #33 tomtoo
    2. April 2018

    @WofgangS
    Evtl. verstehe ich da was falsch, aber es geht ja um die durchschnittliche Geschwindigkeit der Teilchen. Und was schneller ist kommt halt weiter weg. Was wiederum sperre ich es ein zu einer geringern Dichte führt. Aber das ist halt das entstehende Phänomen. Entscheident ist das die Teilchen sich unterschiedlich schnell Bewegen. Ist ein Teilchen schnell , legt es weiter Strecken zurück als ein langsames Teilchen. Innerhalb des Grav. Attraktiven Zentrums wird es wohl desshalb weiter entfernt zu finden sein. Nur ein Gedanke.

  34. #34 Karl-Heinz
    2. April 2018

    @WolfgangS

    Die Höhenformel ist nur das Endprodukt.

    Interessant ist die Boltzmann-Verteilung.
    Da steckt als Parameter auch Energie bzw. Temperatur drinnen.

    https://de.m.wikipedia.org/wiki/Boltzmann-Statistik

  35. #35 WolfgangS
    2. April 2018

    Für He (weil einatomig) komme ich bei 1 bar und 293K auf eine Stoßzahl von ca. 10⁸ sec⁻¹ und eine mittlere freie Weglänge von ca. 10⁻⁴ cm. Hätt’ ich nicht gedacht! Vielleicht ist das meine gesuchte Hülle.
    N2 und O2 liegen zwar niedriger, aber immer noch erstaunlich hoch.

  36. #36 Karl-Heinz
    2. April 2018

    @MartinB

    Vielleicht macht es die Rechnung leichter, wenn du einfach zwei Atomsorten mit unterschiedlichen Massen annimmst, dann sieht man vermutlich schneller, wie die sich entmischen.

    Die beiden Sorten von Teilchen entmischen sich nicht vollständig in einem Gravitationsfeld. Das Konzentrationsgefälle ist aber dann doch anders.

  37. #37 WolfgangS
    2. April 2018

    Das Aufsteigen warmer Luft oder eines mit He gefüllten Ballons berechnet sich genau wie der Auftrieb eines schwimmenden Körpers nach dem Archm. Prinzip, daher glaube ich schon, dass das Aufsteigen warmer Luft keine Separation oder ähnliches ist, sondern “richtiger” Auftrieb, meine Überlegungen kreisen eigentlich nur um das Wie.
    Ich möchte aber mit meinem Anliegen nicht allzu sehr stören, es ging ja um Entropie, darum back to the roots.
    Ursprünglich hatte ich mal darüber nachgedacht, warum in einem Gas die Maxwell-Boltzmann-Verteilung aus Entropiegründen nicht verschwindet. Aber nun verstehe ich es so, dass die Entropie nur Makrozustände beschreibt und da ein einzelnes Teilchen kein Makrosystem ist, kann uns Maxwell-Boltzmann also erhalten bleiben. Sehe ich das nun richtiger?

  38. #38 MartinB
    2. April 2018

    @WolfgangS
    Soweit ich sehe, maximiert Maxwell-Boltzmann doch genau die Entropie?

  39. #39 Karl-Heinz
    2. April 2018

    @WolfgangS

    Damit was aufsteigt braucht man einen Druckgradient in vertikaler Richtung.
    Druck hat ja auch was mit Stößen der Teilchen zu tun. Ich stelle mir jetzt eine Kugel mit Luft vor. Diese Kugel erhitze ich in Gedanken. Seine Dichte wird dadurch kleiner. Du sagst ja selbst, dass du von der Anzahl der Stösse und von der Größe der freien Weglänge überrascht bist. Jedenfalls steigt meine Kugel zunächst mal, die natürlich später zerfließen wird.

  40. #40 Karl-Heinz
    2. April 2018

    @WolfgangS

    Gedankenblitz

    Je kleiner die Luftkugel umso schneller wird sie zerfließen. Ab einer bestimmten Grösse hat es dann keinen Sinn mehr vom Auftrieb zu sprechen. 😉

  41. #41 Karl-Heinz
    2. April 2018

    Ich weiß, das ganze passt jetzt nicht zum Thema Entropie.
    Aber bei dem Auftrieb möchte ich doch anmerken, dass eigentlich ein Teil der Luftmasse einen Auftrieb erfährt und man den Auftrieb nicht erklären kann, wenn man sich nur auf ein Teilchen und seiner lokalen Umgebung beschränkt ohne das Größere (Luftmassen)
    miteinzubeziehen.

  42. #42 MartinB
    2. April 2018

    @Karl-Heinz, WolfgangS
    Ich denke, man müsste eigentlich klarkommen, wenn man sich schlicht eine jorizontale Fläche denkt und sich dann fragt, wie viele teilchen mit welchen Eigenschaften pro zeit diese fläche in welche Richtung kreuzen, solange “heiß” und “kalt” gleichverteilt sind. Hab ich jetzt aber nicht im Detail durchgerechnet oder genau überlegt, ist mehr ein Bauchgefühl.

  43. #43 WolfgangS
    2. April 2018

    @MartinB
    “Soweit ich sehe, maximiert Maxwell-Boltzmann doch genau die Entropie?”
    Du hast das sicherlich viel mehr schon verinnerlicht, aus dieser Richtung muss ich mir das nochmal in Ruhe zu Gemüte führen.
    @Karl-Heinz @Karl-Heinz @Karl-Heinz
    So könnte man das auch formulieren, denn die Stöße sind es, die den Druck generieren, mich irritierte halt der große Abstand der Teilchen, sodass ich annahm, dass der größte Teil der Stoßenergie ins Leere laufen muss bzw. weit ins Innere der weniger dichten Gasblase vordringt und so eine geschlossene Druckfläche nicht existiert. Bei der kurzen freien Weglänge/hohen Stoßzahl erscheint wohl dieser Grenzbereich bei makroskopischer Betrachtung wie eine Pseudofläche.

  44. #44 Karl-Heinz
    2. April 2018

    Bei der kurzen freien Weglänge/hohen Stoßzahl erscheint wohl dieser Grenzbereich bei makroskopischer Betrachtung wie eine Pseudofläche.

    Cool, du hast überrissen worauf ich hinaus wollte.
    Das mit den Auftrieb in der Meteorologie ist schön kompliziert. 😉

    https://www2.meteo.uni-bonn.de/mitarbeiter/rlindau/download/ws1112/met110-111-V2.ppt

  45. #45 WolfgangS
    3. April 2018

    @Karl-Heinz
    Danke, sehr interessanter Link !

  46. #46 tomtoo
    4. April 2018

    Ich bin ganz ehrlich, ich gebe mir Mühe das mit der Entropie zu verstehen. Hey in einem Aquarium voller Gassmoleküle alles, ok. Aber sollte die eingestrahlte Energie der Sonne, nicht die Entropie auf der Erdoberfläche erhöhen ? Und hat ein Baum mehr Entropie als alle seine Atome frei verteilt im gleichen Volumen? Da schepperts bei mir. Könnte die zwangsläufige Erhöhung der Entropie , nicht einfach nur einer ein bischen zu kurzfristigen Beobachtung und der Konzentration auf das Aquarium zu verdanken sein ?Ok, bin nicht so fit. Aber Energiezufuhr sollte (Herstellung des Zustandes)die Entropie doch erst einmal beschleunigen ? Aber nö, die Energie sorgt dafür das ich , du, Bäume existieren. Also kann doch die Entropie nicht wirklich das Universum beschreiben, ok das Aquarium ja, aber doch nicht alles. Nicht falsch verstehen mag ja nur raffen wie Physiker das sehen ??

  47. #47 tomtoo
    4. April 2018

    @Karl-Heinz
    Könnte es sein das wir zwei uns nur unterhalten können, weil es so eine Art Wirbel (grenzflächen) innerhalb des Phänomens Entropie gibt ?

  48. #48 MartinB
    4. April 2018

    @tomtoo
    “sollte die eingestrahlte Energie der Sonne, nicht die Entropie auf der Erdoberfläche erhöhen ?”
    Generell stellt die Sonne als Energiequelle Energie mit niedriger Entropie zur Verfügung: Die Einstrahlung der Sonne ist sehr heiß, die Abstrahlung der Erde ist kälter.
    “Und hat ein Baum mehr Entropie als alle seine Atome frei verteilt im gleichen Volumen? ”
    Ist kompliziert, weil beim Knüpfen von Bindungen ja Bindungsenergien eine Role spielen. Ein Zuckermolekül hat z.B. eine höhere Energie als CO2 und H2O, deswegen steckt da ja auch nutzbare (freie) Energie drin. Aber wenn ich dann den Zucker esse und verbrenne, erhöhe ich die Entropie.

    Generell musst du aufpassen, die Konzepte Energie (Erhaltungsgröße) und Entropie bzw. freie Energie (Entropie nimmt immer zu, freie Energie immer ab) nicht durcheinander zu bringen, was manchmal nicht leicht ist. Meine alte Artikelserie zum Thema Thermodynamik hat noch ein paar mehr Beispiele dazu.

  49. #49 MartinB
    4. April 2018

    @tomtoo
    PS: Vielleicht schreibe ich demnächst nochmal etwas mehr über die Entropie, anscheinend ist es ja doch schwieriger als ich dachte.

  50. #50 tomtoo
    4. April 2018

    @MartinB
    Ich sag ja Entropie mein Feind. Aber ich gebe nicht auf. ; )

  51. #51 Karl-Heinz
    4. April 2018

    @tomtoo

    Oh… da tun sich Abgründe auf.
    Ob fressen und gefressen werden etwas mit der Entropie zu tun hat? 😉

  52. #52 tomtoo
    4. April 2018

    @K-H
    Ja klar. Bin ich ein Ameisenbär und esse einen ganzen Hügel Ameisen. Hat sich die Entropie jetzt vergrössert oder verkleinert ??
    Fragen über Fragen ??
    : )

  53. #53 MartinB
    4. April 2018

    @tomtoo
    Die Entropie der Welt als Ganzes hat sich vergrößert, deine verkleinert, weil du ja jede Menge chemische (freie) Energie gespeichert hast. Naja, genauer gesagt hat sich deine Entropie pro Masse verkleinert, weil du ja nach dem Essen auch schwerer geworden bist. Ich merk schon, alles gar nicht so leicht…

  54. #54 tomtoo
    4. April 2018

    @MartinB
    “…Alles gar nicht so leicht…”””
    Ja, danke! : )

  55. #55 Karl-Heinz
    4. April 2018

    @MartinB

    PS: Vielleicht schreibe ich demnächst nochmal etwas mehr über die Entropie, anscheinend ist es ja doch schwieriger als ich dachte.

    Das wäre echt cool. Es gibt sogar ein Paradoxon dazu, nämlich das Gibbssche Paradoxon.

  56. #56 WolfgangS
    4. April 2018

    “… . Zustände, in denen beispielsweise alle Atome eine hohe Geschwindigkeit haben, sind deshalb prinzipiell nicht möglich, weil sich dazu die Gesamtenergie ändern müsste.”
    (ich weiß leider nicht, wie man diesen schönen grauen Balken hinzaubert beim zitieren). An diesem Satz knabbere ich noch herum. Wenn nun alle Atome nicht eine hohe, sondern eine mittlere Geschwindigkeit hätten, dann bräuchte man doch auch nicht weitere Energie hinzufügen.
    Du schriebst ja schon (#38), das die Boltzmann-Verteilung der Zustand höchster Energie ist. Bauchgefühlsmäßig würde ich glauben, dass dann die Entropie eher höher sein müsste, wenn alles schön gleichmäßig ist.
    Das Dumme ist nur, das die Tatsachen dem Bauch widersprechen.
    Wie tomtoo schon schrieb, Fragen über Fragen.

  57. #57 WolfgangS
    4. April 2018

    …Du schriebst ja schon (#38), das die Boltzmann-Verteilung der Zustand höchster Energie ist…
    Falsch: Sollte natürlich “höchster Entropie” heißen

  58. #58 MartinB
    4. April 2018

    @WolfgangS
    Aber ist nicht klar, dass die Entropie höher ist, wenn die Geschwindigkeiten statistisch verteilt sind als wenn alle dieselbe mittlere Geschwindigkeit haben?

  59. #59 Schlotti
    4. April 2018

    @WolfgangS:

    (ich weiß leider nicht, wie man diesen schönen grauen Balken hinzaubert beim zitieren

    <blockquote>Zitat</blockquote>

    führt zu:

    Zitat

    Geht auch mit fett und kursiv:

    <b>fett</b> führt zu fett,
    <i>kursiv</i> führt zu kursiv,

  60. #60 tomtoo
    4. April 2018

    @schlotti
    Wie konnte sich jemand auch diesen bescheuerten blockquote tag ausdenken ? Da hätte doch bq oder sowas gereicht. Keine Ahnung was der/die/das an dem Tag geraucht hat, muss aber gutes Material gewesen sein.

  61. #61 WolfgangS
    5. April 2018

    Danke Schlotti, probiere es aus!

  62. #62 WolfgangS
    5. April 2018

    @MartinS
    Es ist wahrscheinlich(!):) wahrscheinlicher, wenn nicht alle Teilchen exakt gleich schnell sind, wer sollte auch der Taktgeber sein? Ich versuch’s mal zu verinnerlichen.