Entropie ist ein Begriff aus der Thermodynamik, bzw. der statistischen Physik, eines Bereiches der Physik der sich vor allem damit befasst, das Verhalten im Großen von Sammlungen sehr vieler Teile (z.B. Gasmoleküle) zu verstehen. Gerade der Zweite Hauptsatz der Thermodynamik, der besagt dass in einem geschlossenen System die Entropie im zeitlichen Mittel zunimmt, wird oft sehr stark überinterpretiert. Entropie ist ein verschieden definierbarer Begriff, aber ich denke wenn man ihn nur einfach statistisch ansieht, wird klar dass es keine Hexerei ist.

Entropie ist eine Größe, um den Zustand eines Systems zu beschreiben. Sagen wir, wir haben einen Haufen Bausteine, 14 rote und 14 blaue. Seht auf die folgende Anordnung:

i-67a1165d1c1e0b10336ef949661bf454-entropie-muster-thumb-400x231.png

Das was ihr jetzt zuerst wahrnehmt, nennt man den Makrozustand, in diesem Fall ein Muster bei dem abwechselnd rote und blaue Steine gesetzt werden. Außerdem interessant ist aber der Mikrozustand, das ist ein möglicher Weg, die Steine zu solch einem Muster zusammenzusetzen. Da alle blauen und alle roten Steine jeweils gleich sind, sieht man es dem Makrozustand nicht an, wie die blauen Steine angeordnet sind, aber es gibt eine Menge Wege, wie man den Makrozustand erreichen kann!
Dennoch gibt es eine ziemlich strenge Regel, nämlich dass die Steine alle parallel ausgerichtet sein müssen, und zusammengeschoben sind, und sich immer abwechseln müssen. Irgendwie stellt man sich doch ein Schachbrett vor, auf dem man die Bausteine angeordnet hat, oder? Jetzt stellt euch aber vor, ihr werft die Bausteine einfach mit Schwung in einen Raum. Wie wahrscheinlich ist es, dass sie gerade so landen werden? Zwar gibt es mehrere mögliche Mikrozustände (Vertauschungen von blauen oder roten Steinen untereinander), den obigen Makrozustand (das Muster insgesamt) zu erreichen. Im Angesicht der Aufgabe, dies durch Werfen in einen Raum zu erreichen, muss man aber sagen dass es wahrscheinlich nicht so aussehen wird, sondern wohl eher so:

i-21c388b816e8995651fd8fd66dd8f8cc-entropie-mix-thumb-400x410.png

Es gibt einfach furchtbar viele Möglichkeiten, wie die Steine landen könnten, und so ist die Anzahl an Mikrozuständen, die genau das Muster ergeben, sehr klein im Vergleich zur Gesamtanzahl.
Etwas Vorsicht mit dem obigen Bild! Ich meine nicht, dass man durch Werfen genau diese ungeordnete Anordnung erreichen möchte. Das Bild steht nur für irgendeine Form der “Unordnung”. Die Aussage ist: Es gibt viel mehr Möglichkeiten, eine Unordnung zu erhalten, als eine Ordnung. Das Verhältnis von Mikrozuständen, die unseren gewünschtes Muster ergeben im Vergleich zu den insgesamt möglichen Mikrozuständen, ist die Entropie eines Zustandes. Das Muster hat also eine geringe Entropie, denn nur wenige Möglichkeiten bleiben, dass man durch Hinwerfen der Bausteine dieses Muster erzielt. Ein ungeordneter Zustand mit wild verteilten Steinen hat eine hohe Entropie, da man meistens in einer ungeordneten Verteilung landen wird.

Und jetzt wird auch klar, wieso Entropie immer zunehmen muss: Wenn ich eine Kaffeetasse auf den Boden werfe, sodass sie zerbricht, ist es sehr unwahrscheinlich dass die Scherben noch wie eine Kaffeetasse angeordnet sein werden. Es gibt eben viele Wege, einen Haufen Scherben hinzulegen, aber nur einer davon sieht aus wie eine Kaffeetasse.


“Fundamentales” versucht in kurzen Beiträgen, einen wichtigen Begriff aus der Physik in wesentlichen Zügen zu erklären.

Mehr Fundamentales findet ihr hier.

Kommentare (7)

  1. #1 Chris
    01/03/2010

    Und auch an dieser Stelle möchte ich auf einen Link hinweisen, der es sehr schön illustriert, wie ich finde…

  2. #2 antiökofa
    01/07/2010

    Ich habe als Nichtphysiker eine recht laienhafte Vorstellung vom Begriff Entropie:

    “Es gibt viel mehr Möglichkeiten, eine Unordnung zu erhalten, als eine Ordnung.”

    Demnach wäre es “einfacher” eine Unordnung zu erhalten als eine Ordnung. Was bedeutet, daß der Energieaufwand zum Erreichen einer Ordnung höher sein muss als beim Erreichen eines chaotischen Zustands. Was wiederum bedeutet, daß eine Zustandsänderung von Ordnung zur Unordnung mit Energieverlust verbunden ist, da zur Wiederherstellung der Ordnung mehr Energie zugeführt werden muss als umgekehrt. In einem geschlossenen System aber (z.B. das Universum) geht aber keine Energie verloren (auch ein Hauptsatz der Thermodynamik). Das alles widerspricht sich.

    Bin ich mit dem Begriff Energie auf dem Holzweg oder was habe ich nicht verstanden?

    Danke für die Antwort im Voraus 😉

  3. #3 schlappohr
    01/07/2010

    Hm… was mir fehlt, ist eine Definition für die Begriffe Ordnung und Unordnung. In Deiner ersten Zeichnung sind die Steine geordnet, in der zweiten ungeordnet, aber diese Auffassung ist doch sehr subjektiv. Man könnte sich auch andere geordnete Anordnungen der Steine vorstellen (alle roten links, alle blauen rechts etc.) Ebenso könnte man eine statistische Gleichverteilung der Steine auf einer Fläche als eine Art Ordnung ansehen, und die ist garnicht so unwahrscheinlich.
    Wenn also die Entropie ein Maß für die Unordnung ist, dann muss es doch entsprechende Metriken dafür geben. In einem abgeschlossenen System kann man sich auch vorstellen, dass alle Partikel geordnet sind (z.B. ein Kristallgitter), z.B. die Energie aber ungeordnet ist (heiße und kalte Bereiche verteilt wie im zweiten Bild). Kann man da überhaupt von DER Entropie sprechen? Wie ist DIE Unordnung im Universum definiert?

  4. #4 Jörg
    01/07/2010

    @antiökofa: Es stimmt, man muss Energie aufwenden um ein höheres Maß an Ordnung zu schaffen, aber es geht keine Energie verloren beim ver-unordnen. Aber beispielsweise beim Verbrennen eines Baumes verteilt sich die Energie als Wärmeenergie.

    @schlappohr: Tatsächlich gibt es nicht DIE Entropie, es gibt verschiedene Definitionen die sich zum Teile erheblich in der Größe unterscheiden. Klassisch thermodynamisch ist sie definiert als die Änderung an Wärme pro Temperaturänderung. Interessant ist tatsächlich aber kein absolutes Maß, sondern nur die Änderung an Entropie.

  5. #5 H.M.Voynich
    01/07/2010

    @Schlappohr:
    “Hm… was mir fehlt, ist eine Definition für die Begriffe Ordnung und Unordnung. In Deiner ersten Zeichnung sind die Steine geordnet, in der zweiten ungeordnet, aber diese Auffassung ist doch sehr subjektiv.”
    Ein ganz gutes Kriterium dafür ist vielleicht die Komprimierbarkeit: wieviel Information muß ich jemandem geben, damit er das Muster exakt reproduzieren kann.
    Beim ersten Bild reicht dafür: leg abwechselnd rot und blau, dicht aneinander, 7 Spalten, 4 Zeilen. Beim zweiten Bild muß man für jedes einzelne Karo Koordinaten, Orientierung und Farbe angeben.

  6. #6 schlappohr
    01/08/2010

    @H.M.Voynich:

    Coole Idee… das ähnelt dann dem Entropiebegriff aus der Informationstheorie.

  7. #7 Jörg
    01/08/2010

    Die IT-Definition von Entropie nach Shannon ist übrigens gleich zur statistisch-mechanischen von Boltzmann und Gibbs.
    https://en.wikipedia.org/wiki/Entropy_in_thermodynamics_and_information_theory