A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 9 Ω


Entropie

Physik

Basiswissen


Die Einheit der Entropie ist Joule pro Kelvin[2]. Der Begriff spielt eine wichtige Rolle in der Thermodynamik[1] und der Kosmologie[14] und auch der Philosophie[10]. Die Entropie ist ein Maß für die Unregelmäßigkeit oder Unordnung in einem System[3]. Das übliche Formelzeichen ist ein großes lateinisches S. Hier werden kurz einige Grundaussagen zur Entropie vorgestellt.

Jeder Gegenstand hat Entropie


Alle Gegenstände, das heißt Anordnungen aus Materie, haben Entropie, ihre Entropie ist also von Null verschieden.[8, Seite 43] Es gibt keinen Gegenstand mit der Entropie Null.

Arbeit transportiert niemals Entropie


Arbeit im Sinne der Physik und der Thermodynamik transportiert keine Entropie.[9] Siehe auch Arbeit ↗

Wärme transportiert immer Entropie


Wenn Wärme übertragen wird, wird immer auch Entropie übertragen. Dabei ist es ganz gleich, in welcher Form die Wärme übertragen wird.[8, Seite 43]

Entropie wird nur zusammen mit Wärme übertragen


Wenn Entropie übertragen wird, wird immer auch Wärme übertragen. Bemerkenswert ist aber, dass pro übertragener Wärme nicht immer dieselbe Menge an Entropie übertragen wird.[8, Seite 43]. Siehe auch Wärme ↗

Bei kalter Temperatur wird mehr Entropie übertragen


Bei hohen Temperaturen wird pro übertragener Wärme nur wenig Entropie mit übertragen. Bei niedrigen Temperaturen wird hingegen vergleichsweise mehr Entropie mit der Wärme übertragen. Die Temperatur ist gleich dem Quotienten aus der übertragenen Wärme und der übertragenen Entropie (T=Q/S)[8, Seite 44]. Bei dieser Formel muss die Temperatur in Kelvin eingesetzt werden, nicht in Grad Celsius. Siehe auch Temperatur ↗

Die Entropie ist eine extensive Größe


Masse, Teilchenzahl, Volumen, innere Energie und auch die Entropie[7]: als extensiv bezeichnet man in der Physik jede Größe, die sich bei einer Verdopplung der Teilchenzahl oder des Volumens mit verdoppelt, also proportional dazu ist. Das trifft auf die Entropie zu: verdoppelt man zum Beispiel die Menge an Wasser (in einem perfekt gleichartigen Zustand) so verdoppelt sich auch die Entropie. Siehe auch extensive Größe ↗

Entropie und der zweite Hauptsatz der Thermodynamik


Der zweite Hauptsatz der Thermodynamik, auch Entropiesatz genannt, besagt, dass die Entropie in einem abgeschlossenen System niemals abnehmen kann. Die maximale Entropie wird dann erreicht, wenn das abgeschlossene System ein vollständiges thermodynamisches Gleichgewicht erreicht hat. Solange dieser Zustand nicht erreicht, kann die Entropie gleich bleiben oder zunehmen, aber niemals abnehmen.[6] Siehe auch zweiter Hauptsatz der Thermodynamik ↗

Die Entropie ist keine Erhaltungsgröße


Energie, Impuls (auch Drehimpuls) und elektrische Ladung sind Beispiele für sogenannte Erhaltungsgrößen: ihre Menge kann in einem abgeschlossenen System weder zu noch abnehmen. Die Entropie gehört nicht zu den Erhaltungsgrößen.[11] Entropie kann "aus dem Nichts heraus entstehen". Aber der Umkehrschluss gilt nicht: "Entropie kann nur produziert, aber niemals vernichtet werden".[8, Seite 44]

Definition der Entropie I: Wärmetransport bei T


"ΔS=Qᵣₑᵥ/T"[13] oder auch "ΔS=Qᵣₑᵥ/T ist die Änderung der Entropie S zweier Zustände"[15]. Als Zahlenbeispiel kann man die Erhitzung von 1000 Gramm Wasser von einer Temperatur 293 K auf 297 K betrachten. Nimmt man als mittlere Temperatur des Übergangs 295 K an, und gibt ein Tauchsieder mit einer Leistung von 600 Watt in jeder Sekunde 600 J an Wärme an das Wasser ab und dauert die Erwärmung insgesamt 30 Sekunden, so kommt man zu einer übertragenen Wärme von 18000 Joule bei einer Temperatur von 295 K, das ergibt über die hier beschriebene Quotientenmethode oben eine Änderung der Entropie um 61 Joule pro Kelvin[16].

Definition der Entropie II: Zunahme der Mikrozustände


Bei thermodynamisch betrachteten Systemen, etwa Luft, unterscheidet man sogenannte Mikro- und Makrozustände. Makrozustände sind zum Beispiel die Temperatur, der Druck und das Volumen[17]. Um einen Makrozustand zu messen, benötigt man keine Kenntnisse über den dazugehörigen Zustand der einzelnen Teilchen des Systems, etwa der Luftteilchen. Tatsächlich können zum Makrozustand 20 °C einer Lufttemperatur in einem kleinen Studierzimmer praktisch unendlich viele Mikrozustände gehören. Denn für die 20 °C wichtig ist die durchschnittliche kinetische Enregie der Teilchen, nicht welches einzelne Teilchen welche Geschwindigkeit oder Flugrichtung hat. Der Physiker Ludwig Boltzmann schlug nun vor, dass man die Anzahl der Mikrozustände, die denselben Makrozustand ergeben, als Maß für die Entropie eines Systems nimmt[20], wobei sich das Problem des Zählens der Mikrozustände ergibt[22]. Diese Definition wird auch heute noch verwendet, und zwar in der Form ΔS = k·ln(w).[13]

Definition der Entropie über Wahrscheinlichkeiten


Keine Definition im eigentlichen Sinn, aber doch die Beschreibung einer wesentlichen Eigenschaft der Entropie bringt die Wahrscheinlichkeit von natürlichen Systemen[23] mit ins Spiel: ändert ein System seinen Zustand, sodass der Zustand nachher wahrscheinlicher ist als vorher, so nimmt auch die Entropie zu. In einen abgeschlossenen System laufen nun Vorgänge so lange von alleine ab, bis das System seinen wahrscheinlichsten Zustand erreicht hat, das heißt, bis seine Entropie maximal ist.[24]

Entropie und die Definition von Leben


Nicht die Nutzung von Energie alleine, sondern die Fähigkeit Energie niedriger Entropie zu Nutzen und Energie hoher Entropie wieder aus dem eigenen System ausscheiden zu können, betrachten verschiedene Denker wie Erwin Schrödinger[5] oder Valentin Turchin[27] als wesentlich für die Definition von Leben. Siehe auch Leben ↗

Quaestiones



Fußnoten


als mathematisch unendlich gross gedacht werden." [19]. Für die Temperatur 20 °C gibt es dann genauso unendlich viel Mikrozustände wie für die Temperatur 21 °C. Wie vergleicht man unendlich große Zahlen zur Abschätzung der Entropie? Wer hier etwas mehr weiß, kann mir gerne einen Hinweis schicken Rhetos Impressum ↗
the system in a low-entropy form, i.e. vested in a few number of agents, and leaves it in a high-entropy thermal form, is essential for preserving organization." In: Valentin Turchin: A Dialogue on Metasystem Transition. The City College of New York. July 12, 1999. Dort die Seite 32. Online: http://cleamc11.vub.ac.be/Papers/Turchin/dialog.pdf