Das Würfel-Beispiel

Wie groß wird die Wahrscheinlichkeit sein, beim Würfeln mit drei Würfeln spontan einen geordneten Zustand herzustellen, z.B. drei Sechsen? Das können wir leicht ausrechnen:

Die Wahrscheinlichkeit, mit einem Würfel eine Sechs zu werfen, ist genau 1/6.

Die Wahrscheinlichkeit, mit drei Würfeln drei Sechsen zu werfen, ist äußerst gering, nämlich 1/6 * 1/6 * 1/6 = 1/216. Umgekehrt ist die Wahrscheinlichkeit, mit drei Würfeln nicht drei Sechsen zu werfen, sehr hoch, nämlich 1 - 1/216.

So weit alles klar? Dann kommen wir nun wieder zur Entropie. Wenn wir drei Sechsen würfeln, so ist ein hochgeordneter Zustand entstanden, ein entropiearmer Zustand. Würfeln wir dagegen irgendwelche anderen Zahlen, beispielsweise eine Eins, eine Vier und eine Fünf, so können wir diesen Zustand als eher ungeordnet und entropiereich betrachten.

Ein Mathematiker müsste jetzt natürlich einwenden, dass die Wahrscheinlichkeit, eine 1, eine 4 und eine 5 zu würfeln, genau so groß ist wie die Wahrscheinlichkeit, dreimal die 6 zu würfeln.

Das ist völlig richtig, aber wenn wir Ergebnisse wie 1 - 1 - 1, 2 - 2 - 2, ... , 6 - 6 - 6 als "entropiearm" einstufen und Ergebnisse wie 1 - 2 - 1, 1 - 2 - 3,  2 - 1 - 4 und so weiter als "entropiereich", dann übersteigt die Zahl der "entropiereichen" Zustände die der "entropiearmen" bei Weitem.

Wir halten also fest:
Die Wahrscheinlichkeit, dass spontan ein entropiearmer Zustand entsteht, ist äußerst gering! Die Wahrscheinlichkeit, dass ein entropiereicher Zustand entsteht, ist dagegen recht groß.

Das Teilchen-Beispiel

Hier noch ein Beispiel aus der Physik bzw. der physikalischen Chemie. Wir denken uns einen Raum, der in zwei gleich große Hälften unterteilt ist, eine linke und eine rechte. In diesem Raum befinden sich vier Kugeln, zunächst alle auf der linken Hälfte. Jede Kugel hat eine andere Farbe, so dass wir die Kugeln unterscheiden können. Dann gibt es genau eine Möglichkeit für die Verteilung "4 links / 0 rechts" bzw. einen Zustand, der dieser Verteilung entspricht.

Wenn sich aber eine der vier Kugeln in der rechten Hälfte aufhalten darf, dann gibt es bereits vier verschiedene Zustände, in denen dies möglich ist. Betrachten wir nun die Zahl der Zustände, die einer gleichmäßigen Verteilung der Kugeln entsprechen, also zwei Kugeln links und zwei Kugeln rechts:

Weiter gibt es vier Zustände für eine "1 : 3" - Verteilung sowie einen Zustand für eine "0 : 4" - Verteilung.

Welche Verteilung ist jetzt am wahrscheinlichsten?

VerteilungZuständeWahrscheinlichkeit
4:011/16
3:144/16
2:266/16
1:344/16
0:411/16

Die gleichmäßige Verteilung 2 : 2 ist am wahrscheinlichsten. Hier ist die Entropie des Systems aus vier Kugeln am höchsten. Im unwahrscheinlichen Zustand 4 : 0 bzw. 0 : 4 ist die Entropie am geringsten.

Entropie und Diffusion

Jetzt sollte es auch dem und der Letzten klar sein, wieso ein Konzentrationsunterschied zu einem Konzentrationsausgleich durch Diffusion führt. Der Zustand des Konzentrationsunterschiedes ist ein entropiearmer "unwahrscheinlicher"  Zustand, während der Zustand des Konzentrationsausgleichs ein entropiereicher "wahrscheinlicher" Zustand ist. Durch die ungerichtete zufällige Bewegung der Teilchen (BROWNsche Molekularbewegung) stellt sich dieser wahrscheinliche Zustand mit der Zeit quasi von selbst ein.

Entropie und Wahrscheinlichkeit

Mit der folgenden Formel wird der Zusammenhang zwischen Entropie und Wahrscheinlichkeit beschrieben:

S = k * ln(W)

Die Entropie S berechnet sich aus dem natürlichen Logarithmus der Zahl der möglichen Zustände W eines Systems. k ist eine Naturkonstante.

Entropie und Wahrscheinlichkeit

Diejenigen Zustände, die wahrscheinlicher sind, haben auch die größte Entropie. Entropiereicher Zustand = wahrscheinlicher Zustand.