In der statistischen Mechanik wird oft untersucht, wie physikalische Größen wie Energie, Entropie und spezifische Wärme von der Temperatur abhängen. Besondere Aufmerksamkeit verdienen dabei die niedrigen und hohen Temperaturgrenzen, da diese das Verhalten von Systemen auf fundamentale Weise verändern können.
Für ein ideales Gas, das aus Einzelfestkörpern besteht, können wir die thermodynamischen Größen auf Basis der Partitionierungsfunktionen ableiten. Eine zentrale Rolle spielt dabei die Temperatur, insbesondere im Hinblick auf die quantenmechanischen Effekte, die bei tiefen Temperaturen besonders signifikant werden. Um diese Zusammenhänge zu verstehen, betrachten wir das Verhalten eines Systems in den beiden Grenzfällen – der niedrigen und der hohen Temperatur.
Niedrigtemperaturgrenze
Für den Fall, dass die Temperatur klein im Vergleich zur charakteristischen Energie eines Systems ist (also ), nehmen die Exponentialterme in der Partitionierungsfunktion einen spezifischen Verlauf an. Die Energie des Systems zeigt ein Verhalten, das in der Nähe von Null eine erhebliche Änderung durchläuft. Der Ausdruck für die Energie nähert sich dem Wert , was bedeutet, dass bei extrem niedrigen Temperaturen das System in einem Zustand minimaler Energie verharrt. Dieser Zustand ist typisch für Quantenmechanismen, da die klassischen Modelle, die eine lineare Abhängigkeit der Energie von der Temperatur vorhersagen, in diesem Fall nicht zutreffen.
Die spezifische Wärme des Systems nimmt in diesem Fall den Wert an, was zeigt, dass die spezifische Wärme mit der Temperatur sinkt und bei gegen Null tendiert. Diese Tatsache ist besonders interessant, da sie die klassischen Erwartungen, die eine konstante spezifische Wärme bei tiefen Temperaturen vorhersagen, klar widerlegt.
Ein ähnliches Verhalten zeigt die Entropie, die sich mit zunehmender Temperatur einem Wert von Null annähert, was die minimale Unordnung des Systems bei extrem niedrigen Temperaturen widerspiegelt.
Hochtmperaturgrenze
Im Gegensatz dazu, wenn ist, also die Temperatur hoch genug ist, um quantenmechanische Effekte zu vernachlässigen, zeigen die thermodynamischen Größen ein sehr anderes Verhalten. In diesem Fall gilt, dass , und daher wird die Energie des Systems auf vereinheitlicht. Die spezifische Wärme nimmt dann den Wert an, was mit der klassischen Theorie der idealen Gase übereinstimmt.
Interessanterweise ist die Entropie in diesem Fall von der Form , was eine zunehmende Entropie mit steigender Temperatur beschreibt. Dieser Anstieg der Entropie ist typisch für die klassischen Systeme, bei denen die Zahl der verfügbaren Zustände mit steigender Temperatur wächst.
Die historischen Wurzeln dieser Erkenntnisse liegen in den Arbeiten von Albert Einstein aus dem Jahr 1907. Einstein zeigte, dass die spezifische Wärme von Festkörpern nicht durch klassische statistische Mechanik erklärt werden konnte, sondern dass der Übergang zur Quantenmechanik erforderlich war, um das Experiment zu erklären, das eine Abnahme der spezifischen Wärme mit steigender Temperatur zeigte. Es war jedoch nur eine qualitative Erklärung, da die genaue Form der Abhängigkeit von der Temperatur nicht exakt wiedergegeben wurde, sondern die experimentellen Daten eine Abhängigkeit der spezifischen Wärme von zeigten, was ein weiteres ungelöstes Problem der Thermodynamik darstellt.
Das polyatomare ideale Gas
Wenn wir uns nicht mehr nur mit monatomaren, sondern mit polyatomaren Gase beschäftigen, kommen zusätzlich neue Beiträge zur Gesamtenergie des Systems hinzu. Bei Molekülen mit mehreren Atomen müssen neben der kinetischen Energie der Translation auch die Energien aufgrund der Vibrationen und der Rotation der Atome berücksichtigt werden. Die Energie eines Moleküls ist daher die Summe der translationalen Energie , der Vibrationsenergie und der Rotationsenergie .
Der Zusammenhang zwischen der Partitionierungsfunktion für ein polyatomares Molekül und den verschiedenen Energiearten lässt sich durch die Produktform der Partitionierungsfunktionen für Translation, Vibration und Rotation darstellen. Die genaue Berechnung der thermodynamischen Eigenschaften erfordert daher eine detaillierte Analyse dieser drei Faktoren. Besonders die Rotationspartitionierungsfunktion stellt dabei eine Herausforderung dar, da die zugehörige Summe nicht analytisch lösbar ist, jedoch in verschiedenen Temperaturgrenzen approximiert werden kann.
In hohen Temperaturen dominiert der Beitrag der Translation, während bei niedrigeren Temperaturen vor allem die Rotationen und Vibrationen eine größere Rolle spielen. In vielen praktischen Anwendungen, wie etwa bei der Berechnung der spezifischen Wärme eines diatomaren Gases bei Raumtemperatur, kann die Vibrationseigenschaft als vernachlässigbar betrachtet werden, was dazu führt, dass die spezifische Wärme den klassischen Wert von annimmt.
Das Verhalten von Bosonen und Fermionen in einem Zwei-Niveausystem
Ein weiteres interessantes Szenario tritt auf, wenn man ein System von Teilchen betrachtet, die entweder Bosonen oder Fermionen sind. In einem Zwei-Niveausystem, in dem jedes Teilchen entweder den Energiezustand Null oder den Zustand mit Energie einnehmen kann, hängt die thermodynamische Eigenschaften stark von der statistischen Natur der Teilchen ab. Bei Fermionen ist zu beachten, dass der Pauli-Ausschlussprinzip besagt, dass nicht mehr als ein Fermion denselben Zustand einnehmen kann, was zu ganz anderen statistischen Verteilungen führt als bei Bosonen.
Die Berechnung der chemischen Potentiale und die Anwendung der statistischen Mechanik auf Bosonen und Fermionen liefert unterschiedliche Ergebnisse für die thermodynamischen Funktionen und macht die Bedeutung der Teilchenart für das Verhalten des Systems deutlich. Dies ist besonders wichtig für die Thermodynamik von Systemen mit ultrakalten Atomen, wie sie in modernen Experimenten zur Quantenstatistik untersucht werden.
Wichtig ist, dass die klassischen Modelle der Thermodynamik, wie sie in vielen Lehrbüchern dargestellt werden, oft nur eine Näherung darstellen. Für tiefere Temperaturen oder Systeme mit quantenmechanischen Einflüssen sind die klassischen Annahmen oft nicht mehr gültig, und die Quantenstatistik wird unvermeidlich notwendig, um die Eigenschaften des Systems korrekt zu beschreiben.
Wie die Eigenschaften eines Photonengases mit seiner Wellenbeschreibung zusammenhängen
In der vorherigen Betrachtung wurden die Eigenschaften eines Photonengases aus der Teilchenperspektive abgeleitet. Eine interessante Erweiterung dieser Betrachtung besteht darin, die Eigenschaften eines Photonengases mithilfe des Wellenbildes zu untersuchen. In einem geschlossenen Volumen wird ein einzelnes Photon als stehende Welle betrachtet. Die Herausforderung liegt nun darin, die Anzahl der stehenden Wellen mit Frequenzen zwischen ω und ω + dω zu zählen. Diese Zählung erfolgt zunächst durch die Bestimmung der Energiedichte des Ensembles dieser Wellen und durch die Verwendung der statistischen Gewichtsfunktion [exp(βω)−1]−1, wobei β = 1/(kBT) die inverse Temperatur ist.
Diese Vorgehensweise ermöglicht es, die Gesamtzahl der Photonen zu berechnen, indem man die Wellenfunktion in Bezug auf ihre Frequenz analysiert. So wird die Energie des Systems als Funktion der Frequenz ω und der Temperatur T ermittelt. Der Ausdruck für die Gesamtzahl der Photonen im System lautet:
Dabei ist und die Integration erfolgt über alle Frequenzen. Das Resultat dieser Berechnung zeigt, dass die durchschnittliche Anzahl der Photonen mit der Temperatur und dem Volumen des Systems in Beziehung steht. Zudem lässt sich erkennen, dass die spezifische Wärme eines Photonengases proportional zum Produkt der durchschnittlichen Photonenzahl und der Boltzmann-Konstanten ist:
Diese Erkenntnis eröffnet tiefere Einsichten in die thermodynamischen Eigenschaften von Photonengasen, insbesondere in Bezug auf die Temperaturabhängigkeit und die Verteilung der Photonen im System. Die Verwendung des Wellenbildes stellt eine alternative und ebenso präzise Methode dar, um die Verteilung der Photonen und ihre Wechselwirkungen mit der thermischen Umgebung zu analysieren.
Ein zentraler Punkt bei der Untersuchung von Photonengasen ist die Einhaltung der Thermodynamik. Da die spezifische Wärme in engem Zusammenhang mit der Anzahl der Photonen und deren Energie steht, ist es wichtig zu verstehen, wie Photonen in einem System thermisch miteinander interagieren. Diese Wechselwirkungen sind entscheidend, um das Verhalten des Photonengases unter verschiedenen Temperatur- und Volumenbedingungen zu beschreiben.
Die Untersuchung von Photonengasen führt zu einem weiteren wichtigen Konzept, der schwarzen Körperstrahlung. Ein schwarzer Körper wird als ein idealer Strahler definiert, der alle Wellenlängen vollständig absorbiert. In diesem Fall ist die Absorptionsfunktion konstant und gleich 1, was bedeutet, dass die Emission des Körpers vollständig mit der Energiedichte der Photonengasstrahlung korreliert ist. Diese Beziehung zwischen der Absorption und der Emission von Strahlung im Zusammenhang mit dem Photonengas lässt sich durch das Kirchhoffsche Gesetz ausdrücken, das die Universaldimension der Strahlung in Bezug auf Wellenlängen und Temperatur festlegt.
Dieses Gesetz besagt, dass das Verhältnis der Emissionsleistung zu der Absorptionsleistung nur von der Wellenlänge und der Temperatur abhängt und unabhängig von der Materialbeschaffenheit des Körpers ist. Diese universelle Beziehung gilt unabhängig von der Form und dem Material des Körpers und beschreibt die ideale Strahlungseigenschaft eines Schwarzen Körpers, der für alle Wellenlängen perfekt absorbiert.
In Bezug auf die Eigenschaften eines Photonengases innerhalb eines Hohlraums zeigt sich, dass diese Eigenschaften unabhängig von der Form und dem Material des Hohlraums sind. Auch wenn zwei Hohlräume denselben Volumeninhalt und dieselbe Temperatur aufweisen, aber aus verschiedenen Materialien bestehen, bleibt die thermische Energie des Photonengases innerhalb dieser Hohlräume gleich. Dies folgt aus der Tatsache, dass das Photonengas keinerlei Abhängigkeit von der Materialstruktur des Behälters hat, sondern lediglich von Volumen und Temperatur bestimmt wird.
Der Zusammenhang zwischen der Energie eines Photonengases und seiner Temperatur lässt sich durch das Konzept der thermischen Gleichgewichtszustände weiter vertiefen. Ein geschlossenes System, in dem sich zwei photonengasgefüllte Hohlräume befinden, wird sich im Laufe der Zeit so anpassen, dass ihre Temperaturen gleich werden, auch wenn die Materialbeschaffenheit der Hohlräume unterschiedlich ist. Dies widerspricht der Vorstellung, dass Materialeigenschaften die Energie eines Photonengases beeinflussen können, und verstärkt die Erkenntnis, dass die Eigenschaften eines Photonengases universell sind und nur durch die makroskopischen Größen wie Volumen und Temperatur beschrieben werden können.
Es ist wichtig zu erkennen, dass die Wellenbeschreibung von Photonengasen nicht nur eine theoretische Erweiterung des klassischen Teilchenmodells darstellt, sondern auch tiefere Einblicke in die Natur der Strahlung und der thermischen Prozesse ermöglicht. Insbesondere hilft sie, das Phänomen der schwarzen Körperstrahlung zu verstehen, das eine zentrale Rolle in der Thermodynamik und der statistischen Mechanik spielt. Der Vergleich der Emissions- und Absorptionsspezifikationen von Materialien führt zu einem tieferen Verständnis der Wechselwirkungen von Licht mit Materie und deren thermodynamischen Konsequenzen.
Wie die Fermi-Gas-Modelle zur Berechnung von Halbleitern und Neutronensternen führen
Die Fermi-Statistik beschreibt das Verhalten von Fermionen, also Teilchen mit halbzahligen Spin, die den Pauli-Ausschlussprinzipien unterliegen. Dies macht sie zu einer Grundlage für das Verständnis von physikalischen Systemen wie Halbleitern und Neutronensternen. Um die Eigenschaften eines Systems von Fermionen zu beschreiben, betrachten wir in diesem Zusammenhang das Verhalten von Elektronen im Leitungsband eines Halbleiters sowie von Neutronen in einem Neutronenstern. Beide Systeme sind Beispiele für Fermigas, deren Analyse mit den Prinzipien der statistischen Mechanik und der Fermi-Dirac-Verteilung durchgeführt wird.
Die Grundgleichung, die das Verhalten von Fermionen in einem Halbleiter beschreibt, lautet:
wobei als die Zustandsdichte der Löcher und als die effektive Masse eines Lochs definiert sind. Diese Gleichung ermöglicht es uns, die Anzahl der Löcher in einem Halbleiter zu berechnen, die durch die Formel
gegeben ist. Der Ausdruck für , die Fermi-Dirac-Verteilung, beschreibt, mit welcher Wahrscheinlichkeit ein Elektron den Zustand besetzen kann. Diese Verteilung hängt von der Temperatur und dem chemischen Potential ab und wird durch den Ausdruck
beschrieben. Da , vereinfacht sich der Ausdruck zu , was zu einer wesentlich einfacheren Berechnung der Anzahl der Löcher führt:
Nun können wir das chemische Potential als Funktion der Temperatur und der Anzahl der Elektronen im Leitungsband berechnen, was uns die Energieverhältnisse zwischen dem Valenzband und dem Leitungsband in einem Halbleiter zugänglich macht. Dies führt uns zur Berechnung des Fermi-Niveaus, das bei T = 0 im Mittelwert zwischen den beiden Bändern liegt.
Die Fermi-Niveau-Berechnung für einen Halbleiter erfolgt dabei aus der Bedingung, dass die Anzahl der Elektronen im Leitungsband und die Anzahl der Löcher im Valenzband durch die Gleichung
gegeben ist. Dies stellt die Temperaturabhängigkeit des chemischen Potentials dar. Bei einer Temperatur von ist das Fermi-Niveau genau in der Mitte zwischen dem unteren Ende des Leitungsbandes und dem oberen Ende des Valenzbandes . Da die effektive Masse von Löchern häufig größer ist als die von Elektronen , verschiebt sich das Fermi-Niveau bei steigender Temperatur in Richtung des Leitungsbandes.
Die Situation wird komplexer, wenn Impuritäten in das Halbleitermaterial eingeführt werden. Diese können Elektronen oder Löcher freisetzen, wodurch das Material in den sogenannten extrinsischen Zustand übergeht, bei dem die Anzahl der durch Impuritäten freigesetzten Teilchen größer wird als die der intrinsischen Elektronen und Löcher des Halbleiters. Dies führt zu einer weiteren Verschiebung der elektrischen Eigenschaften des Materials.
Ein weiterer wichtiger Punkt ist die Bewegung der Löcher im Valenzband. Ohne äußeres elektrisches Feld bewegen sich sowohl die Elektronen als auch die Löcher zufällig. Unter dem Einfluss eines elektrischen Feldes bewegen sich jedoch die Elektronen in die entgegengesetzte Richtung des Feldes, während die Löcher, die als „fehlende Elektronen“ betrachtet werden, in die Richtung des Feldes wandern. Löcher können daher als positiv geladene Teilchen mit einer effektiven Masse beschrieben werden.
Neben der klassischen Anwendung auf Halbleiter gibt es auch andere Systeme, bei denen die Fermi-Statistik eine wesentliche Rolle spielt. Ein bemerkenswertes Beispiel ist der Neutronenstern, der ebenfalls ein Beispiel für ein System degenerierter Fermionen ist, jedoch in einem anderen physikalischen Kontext. Neutronensterne sind extrem dichte Objekte, die aus Neutronen bestehen, und ihre Untersuchung mit den Methoden der statistischen Mechanik ermöglicht es, wichtige Erkenntnisse über ihre Größe und Stabilität zu gewinnen.
Die kinetische Energie eines Neutronensterns basiert auf den gleichen Prinzipien, die wir für die Berechnung des Verhaltens von Fermionen in Halbleitern verwendet haben. Bei Temperatur hat die Energie der Neutronen im Stern
wobei das chemische Potential der Neutronen ist und die kinetische Energie der Neutronen durch die Formel
gegeben ist. Das Gravitationspotenzial eines Neutronensterns wird ebenfalls unter Verwendung der Formeln der statistischen Mechanik berechnet und trägt zur Gesamtenergie des Systems bei. Das Ergebnis dieser Berechnungen zeigt, dass die Stabilität des Neutronensterns durch das Gleichgewicht zwischen der kinetischen Energie und der Gravitationsenergie erreicht wird.
Ein wichtiger Punkt bei der Berechnung des Volumens und der Größe eines Neutronensterns ist, dass das System energetisch optimiert ist, was bedeutet, dass das Gesamtvolumen des Sterns so gewählt wird, dass die Gesamtenergie minimiert wird. Durch die Minimierung der Gesamtenergie erhält man eine Relation für den Radius des Neutronensterns:
Mit typischen Werten für die Masse eines Neutronensterns und den Planckschen Konstanten ergibt sich für den Radius des Neutronensterns eine Größe von etwa 10 km. Diese Größe ist im Vergleich zu anderen Sternen, wie der Sonne mit einem Radius von etwa 700.000 km, sehr klein.
Die Untersuchung von Neutronensternen und Halbleitern zeigt eindrucksvoll, wie die statistische Mechanik zur Beschreibung komplexer Systeme von Fermionen verwendet wird. Die Konzepte der Fermi-Dirac-Verteilung und der degenerierten Fermionengase sind dabei von zentraler Bedeutung, um die thermodynamischen Eigenschaften und das Verhalten solcher Systeme zu verstehen. Dies führt uns zu einem tieferen Verständnis sowohl der Materie auf mikroskopischer Ebene als auch der physikalischen Phänomene, die makroskopisch beobachtet werden können.
Was ist Entropie und wie beeinflusst sie die Thermodynamik und statistische Mechanik?
Entropie ist eine fundamentale Größe in der Thermodynamik, die das Maß für die Unordnung oder das Fehlen von Information in einem System beschreibt. Ein häufig verwendetes Beispiel zur Erklärung von Entropie ist die Mischung von Tinte und Wasser: Wenn man Tinte in Wasser gießt, breitet sich die Tinte aus, und die Entropie des Systems (Tinte + Wasser) nimmt zu, bis das System einen Zustand des thermischen Gleichgewichts erreicht hat. In diesem Zustand ist die Entropie maximal. Der entscheidende Punkt hier ist, dass die Entropie eng mit der Wahrscheinlichkeit des Gleichgewichtszustands verbunden ist. Boltzmann formulierte 1877 erstmals einen Zusammenhang zwischen Entropie und Wahrscheinlichkeit: Je wahrscheinlicher ein Zustand ist, desto größer ist seine Entropie. Diese Wahrscheinlichkeit wird durch die Anzahl der möglichen Mikrozustände des Systems beschrieben, die zu einem bestimmten makroskopischen Zustand führen. Die Entropie, S, ist somit proportional zum Logarithmus der Anzahl dieser Mikrozustände, W, was sich mathematisch durch die Formel S = kB * ln(W) ausdrücken lässt. Dabei ist kB die Boltzmann-Konstante.
Die Entropie eines Systems ist im thermischen Gleichgewicht maximal. Jedoch wurde Boltzmanns Ansatz zunächst nicht von allen Wissenschaftlern akzeptiert. Die Debatten über die Boltzmann-Formel und ihre Implikationen für das Verständnis der Entropie dauerten viele Jahre an. Wichtig an dieser Entropie-Definition ist, dass sie erstmals eine mikroskopische Interpretation der Entropie ermöglichte und damit den Zusammenhang zwischen den mikroskopischen Eigenschaften von Teilchen und den makroskopischen thermodynamischen Größen aufzeigte.
In populären Darstellungen wird die Entropie oft mit "Unordnung" gleichgesetzt, was eine verkürzte Sichtweise darstellt. Mikroskopische Systeme erscheinen unordentlich, weil die Moleküle unterschiedliche Positionen und Geschwindigkeiten einnehmen können. Diese Betrachtungsweise vernachlässigt jedoch den Zusammenhang zwischen Entropie und Irreversibilität. Entropie ist nicht nur ein Maß für die Unordnung, sondern auch für die Unumkehrbarkeit von Prozessen. Ein System, das in einen Zustand höheren Entropie übergeht, wird diese Unordnung nicht mehr von selbst verlassen. Dieser irreversiblen Charakter ist eng mit der Definition von Entropie in einem geschlossenen System verbunden, in dem die Entropie immer zunimmt oder zumindest konstant bleibt.
Im Jahr 1902 veröffentlichte J. Willard Gibbs sein Werk Elementary Principles in Statistical Mechanics, das eine der größten Einflüsse auf die Entwicklung der statistischen Mechanik hatte. In diesem Werk definierte er das Konzept der Ensembles, mit dem er die Wahrscheinlichkeiten für bestimmte Zustände eines Systems berechnete. Gibbs verband die mikroskopische Beschreibung eines Systems mit seinen makroskopischen Eigenschaften, indem er die verschiedenen möglichen Konfigurationen von Teilchen in einem System betrachtete. Dabei definierte er verschiedene Ensembles: das kanonische, das mikrokanonische und das grandkanonische Ensemble. Durch diese Betrachtungen schuf Gibbs die Grundlage für die statistische Mechanik, die es ermöglicht, die Eigenschaften von Systemen mit einer sehr großen Anzahl von Teilchen zu verstehen und zu berechnen.
Die Entropie ist auch eng mit den Arbeiten von Max Planck und Albert Einstein zur Quantenmechanik und deren statistischer Mechanik verbunden. Planck entwickelte 1900 die Theorie der schwarzen Körperstrahlung, die das Verhalten von Strahlung in einem Körper beschreibt. Er führte das Konzept der Energiequanten ein und zeigte, dass die klassische Theorie nicht ausreicht, um das Strahlungsspektrum eines Körpers zu erklären. Planck fand, dass die Energie eines Oszillators nicht kontinuierlich, sondern in diskreten Einheiten von hv, wobei h die Planckschen Konstante und v die Frequenz des Oszillators ist, existiert. Diese Annahme ermöglichte es ihm, das Strahlungsspektrum korrekt zu berechnen.
Einstein hingegen wandte die Quantenannahme von Planck auf die spezifische Wärme von Festkörpern an. Er zeigte, dass die spezifische Wärme von Festkörpern bei tiefen Temperaturen nicht konstant bleibt, wie es die klassische Theorie voraussagte. Durch die Anwendung von Plancks Annahme konnte Einstein eine Formel für die spezifische Wärme ableiten, die in Übereinstimmung mit experimentellen Ergebnissen stand, insbesondere bei Materialien wie Diamant. Dieser Fortschritt führte zur Entwicklung einer modernen Theorie der Festkörperphysik.
Die Arbeiten von Planck und Einstein markierten einen entscheidenden Schritt in der Entwicklung der Quantenstatistik und der statistischen Mechanik. Die Quantenmechanik revolutionierte das Verständnis von Materie auf mikroskopischer Ebene und ermöglichte eine genauere Vorhersage und Erklärung der thermodynamischen Eigenschaften von Systemen.
Ein wichtiger Aspekt der statistischen Mechanik, der durch die Arbeiten von Boltzmann, Gibbs, Planck und Einstein hervorgehoben wurde, ist die Verbindung zwischen Mikrozuständen eines Systems und den makroskopischen thermodynamischen Größen wie Temperatur und Entropie. Diese Verbindung eröffnet neue Perspektiven auf die Entropie als Maß für die Wahrscheinlichkeit und die Unumkehrbarkeit von Prozessen und ermöglicht die Berechnung und das Verständnis von Phänomenen, die mit klassischen thermodynamischen Theorien nicht erklärbar waren. Entropie ist nicht nur ein Maß für Unordnung, sondern ein zentraler Bestandteil der Entropie- und Thermodynamiktheorie, die die Gesetzmäßigkeiten der Natur auf mikroskopischer Ebene beschreiben.
Was ist Sucht und wie entsteht sie? Ein Blick auf die verschiedenen Formen und deren Auswirkungen
Wie ACT die therapeutische Beziehung stärkt und den Umgang mit Angst verbessert

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский