In der statistischen Analyse von Messdaten sind viele Konzepte von zentraler Bedeutung, um die Unsicherheiten und systematischen Fehler richtig zu interpretieren. Ein besonders wichtiges Konzept ist die Varianz einer Messgröße, die die Streuung der Messwerte um den Mittelwert beschreibt. Die Varianz wird als oder bezeichnet und liefert eine quantifizierbare Angabe zur Unsicherheit der Messung einer physikalischen Größe. Die Standardabweichung ist die Quadratwurzel der Varianz und stellt eine direkte Maßzahl für die Streubreite der Messwerte dar.
Die Korrelationskoeffizienten und Kovarianz geben Aufschluss darüber, wie stark zwei Messgrößen miteinander zusammenhängen. Während die Kovarianz die Richtung des Zusammenhangs beschreibt, normalisiert der Korrelationskoeffizient diesen Wert, sodass er immer zwischen -1 und 1 liegt. Ein hoher positiver Korrelationswert deutet auf eine enge positive Beziehung zwischen den beiden Variablen hin, während ein negativer Wert auf eine inverse Beziehung hindeutet.
Ein weiteres wichtiges Konzept ist das arithmetische Mittel , welches den durchschnittlichen Wert einer Messreihe beschreibt. In vielen Experimenten wird das Mittel als zentrale Kennzahl verwendet, die eine Schätzung für den tatsächlichen Wert der gemessenen Größe liefert. Doch das Mittel allein reicht oft nicht aus, um eine vollständige Unsicherheit der Messung zu erfassen. Hier kommen die Begriffe wie das Standardabweichung oder die Fehlerfortpflanzung ins Spiel, die die Unsicherheit eines gemessenen Wertes in Abhängigkeit von den Messfehlern der zugrundeliegenden Größen beschreibt.
Das Konzept der Messfehler ist ebenfalls von entscheidender Bedeutung. Die Messung einer physikalischen Größe ist nie perfekt, und es sind immer Fehlerquellen vorhanden. Diese Fehler können systematisch oder zufällig sein. Systematische Fehler treten aufgrund ungenauer Messinstrumente oder unkontrollierter Umwelteinflüsse auf und führen zu einer konstanten Verzerrung der Messwerte. Zufällige Fehler hingegen entstehen durch unvorhersehbare Einflüsse und verteilen sich statistisch um den tatsächlichen Wert der Größe.
Die zentrale Rolle der Fehleranalyse in der physikalischen Forschung lässt sich anhand von Momenten und zentralen Momenten verdeutlichen. Momente höherer Ordnung, wie etwa die Schiefe (Skewness) und Kurtosis (Exzess), erlauben eine tiefere Einsicht in die Verteilung der Messwerte und ihre Abweichung von einer Normalverteilung. Besonders die Schiefe gibt Aufschluss darüber, ob die Verteilung der Messwerte eher asymmetrisch ist, während die Kurtosis die "Spitzigkeit" der Verteilung beschreibt.
Wichtig ist auch die Unterscheidung zwischen verschiedenen Arten von Unsicherheiten, die bei Messungen auftreten können. Hierzu zählen sowohl statistische als auch systematische Unsicherheiten. Während statistische Unsicherheiten durch die zufällige Natur der Messungen entstehen, resultieren systematische Unsicherheiten aus fehlerhaften Messmethoden, ungenauen Kalibrierungen oder Modellannahmen.
Zusätzlich ist es relevant, dass der Leser bei der Analyse von Messdaten stets die Wahrscheinlichkeit und statistische Verteilung berücksichtigt, aus der die Messwerte stammen. In vielen Fällen müssen statistische Modelle verwendet werden, um die Unsicherheiten quantitativ zu erfassen und um auf Basis der Messdaten Rückschlüsse auf die zugrundeliegenden physikalischen Größen zu ziehen.
Besonders im Bereich der Hochenergiephysik und der Astrophysik ist die Bedeutung von Bayesianischer Inferenz und Frequentismus für die Datenanalyse unumstritten. Hierbei geht es nicht nur um die Schätzung von Parametern, sondern auch um die Bewertung von Unsicherheiten und die Interpretation der Ergebnisse im Kontext von theoretischen Modellen und experimentellen Daten.
Der Begriff der „Unfolding“-Techniken ist ebenfalls von hoher Bedeutung, da er sich auf die Rekonstruktion von Messwerten bezieht, die aufgrund von experimentellen Einschränkungen oder systematischen Verzerrungen nicht direkt beobachtet werden können. Durch diese Techniken wird versucht, die tatsächlichen physikalischen Größen zu extrahieren und die Effekte von Verzerrungen zu minimieren.
Um die Unsicherheit bei der Analyse von Messdaten zu bewerten, kommen eine Vielzahl von Methoden zur Anwendung. Insbesondere die Anwendung von Monte-Carlo-Simulationen, die auf zufälligen Stichproben basieren, hat sich als äußerst hilfreich erwiesen. Diese Simulationen ermöglichen es, die Unsicherheit in den Messwerten durch wiederholte Modellberechnungen und Vergleiche mit experimentellen Daten zu quantifizieren.
Die Fähigkeit, diese Konzepte und Methoden zu verstehen und korrekt anzuwenden, ist entscheidend für die korrekte Interpretation von Messdaten in der Physik. Nur durch ein umfassendes Verständnis der Unsicherheit und der zugrundeliegenden statistischen Modelle können Wissenschaftler zu verlässlichen und präzisen Ergebnissen kommen.
Wie man Störparameter bei der Maximum-Likelihood-Schätzung behandelt
Die Methode der Maximum-Likelihood-Schätzung (MLE) ist in vielen wissenschaftlichen Bereichen von zentraler Bedeutung, insbesondere in der Statistik und den physikalischen Wissenschaften. Ein häufiger Fall tritt auf, wenn eine Wahrscheinlichkeitsdichtefunktion (p.d.f.) mehrere Parameter enthält, von denen nur einige von Interesse sind, während andere als Störparameter bezeichnet werden. Diese Störparameter beeinflussen das Schätzungsergebnis, sind aber selbst nicht von Interesse. Ein Verständnis der Handhabung solcher Parameter ist entscheidend für präzise und effiziente statistische Analysen.
Wenn die Verzerrungen der Messdaten nicht zu groß sind, kann ein einfacher Ansatz verwendet werden, bei dem der Maximum-Likelihood-Schätzer aus der beobachteten Stichprobe {x′₁, …, x′ₙ} extrahiert wird. In diesem Fall wird die Likelihood-Funktion des Systems analysiert, indem die Verzerrung ignoriert wird, um den ersten Schätzwert λ̂′ zu erhalten. Anschließend erfolgt eine Korrektur der Verzerrung mittels einer Monte-Carlo-Simulation, um die Beziehung zwischen dem ursprünglichen und dem verzerrten Schätzer zu bestimmen. Diese Vorgehensweise ist schnell und effizient, da sie ohne aufwendige Berechnungen oder komplizierte Simulationen auskommt.
In seltenen Fällen, in denen die experimentelle Auflösung sehr schlecht ist, können extreme Verzerrungen auftreten, bei denen die p.d.f. für bestimmte Beobachtungen undefiniert ist. Solche Probleme lassen sich durch Skalierung des Schätzers λ̂′ oder durch Ausschluss spezieller Beobachtungen beheben. Die Lösung des Problems der Akzeptanzverluste – wie sie in Abschnitt 6.5.2 gezeigt wurde – stellt sicher, dass selbst bei großen Akzeptanzverlusten die Schätzungen weiterhin zuverlässig bleiben.
Wesentlich für den Erfolg dieses Verfahrens ist die Bestimmung der sogenannten "Akzeptanzverluste" α(x), welche die Wahrscheinlichkeit eines akzeptierten Ereignisses in einem bestimmten Bereich darstellen. Diese Verluste wirken sich nicht unbedingt negativ auf die Präzision der Schätzung aus, solange sie ohne Auflösungsfehler behandelt werden. Wenn jedoch die Akzeptanzverluste signifikant sind, kann die Präzision des Verfahrens beeinträchtigt werden. In diesen Fällen muss die Akzeptanzverlustrate direkt in die Berechnung einfließen, um die Schätzung korrekt anzupassen.
Ein weiterer häufig auftretender Fall betrifft die Störparameter. Bei der Schätzung von Parametern wie der Zerfallsrate γ eines Teilchens, das Hintergrundereignisse enthält, müssen Störparameter wie die Anzahl der Hintergrundereignisse η berücksichtigt werden. Das Ziel ist es, den interessierenden Parameter γ zu schätzen, während η, der Störparameter, eliminiert wird. Dies kann entweder durch Integration über die Wahrscheinlichkeit des Störparameters oder durch numerische Optimierung geschehen. Im Beispiel der Zerfallskurve mit Hintergrund wird die Wahrscheinlichkeitsdichtefunktion durch die Mischung der Zerfallsgesetze für das Signal und den Hintergrund beschrieben. Die Likelihood-Funktion wird dann als Produkt dieser beiden Verteilungen dargestellt, wobei die Anzahl der Hintergrundereignisse als Störparameter behandelt wird.
Die Eliminierung von Störparametern ist auch dann möglich, wenn wir vorherige Informationen über den Störparameter haben. Beispielsweise kann die Anzahl der Hintergrundereignisse η aus einer unabhängigen Messung bekannt sein. In solchen Fällen kann der Störparameter mit einer vorher festgelegten Verteilung gewichtet und aus der Likelihood-Funktion integriert werden. Das führt zu einer vereinfachten Schätzung, die nur die interessierenden Parameter berücksichtigt.
Ein weiterer praktischer Ansatz zur Eliminierung von Störparametern ist die Faktorisierung der Likelihood-Funktion. Wenn die Wahrscheinlichkeitsdichtefunktion in der Form f(x|θ, ν) = fθ(x|θ) fν(x|ν) vorliegt, wobei fθ nur von den interessierenden Parametern θ abhängt, kann die Likelihood-Funktion als Produkt der beiden Teilschätzfunktionen geschrieben werden. In diesem Fall wird die Maximierung der Likelihood-Funktion nur für den interessierenden Parameter θ durchgeführt, während der Störparameter ν als unabhängig betrachtet wird.
Ein zentrales Konzept in der Handhabung von Störparametern ist die Verwendung von Bayesschen Methoden, bei denen ein vorheriger Wissen über den Störparameter in die Schätzung einfließt. Wenn der Störparameter eine bekannte Verteilung π(ν) hat, kann die Likelihood-Funktion über diesen Parameter integriert werden, sodass nur die interessierenden Parameter θ übrig bleiben. Diese Methode wird insbesondere in Fällen verwendet, in denen die genaue Kenntnis des Störparameters wichtig ist und eine statistische Unsicherheit über dessen Wert besteht.
Insgesamt zeigt sich, dass die Handhabung von Störparametern in der Maximum-Likelihood-Schätzung ein komplexer, aber entscheidender Teil des statistischen Schätzprozesses ist. Es ist von größter Bedeutung, die geeigneten Methoden zur Behandlung dieser Störparameter zu verstehen, um zuverlässige und präzise Schätzungen zu erhalten. Das Wissen um die richtigen Techniken, wie Monte-Carlo-Simulationen, Integration über Verteilungen und die Faktorisierung der Likelihood, eröffnet eine Vielzahl von Möglichkeiten, um auch in komplexen Szenarien zu präzisen Ergebnissen zu gelangen.
Wie die Dimensionalität und die Oberflächeneffekte die Genauigkeit von Messungen beeinflussen
Mit zunehmender Anzahl der Dimensionen in einem Datensatz vergrößert sich der Abstand zwischen den Eingabewerten, was dazu führt, dass die Raumfüllung immer dünner wird. In einem hyper-dimensionalen Raum, in dem eine feste Anzahl von Punkten gleichmäßig über ein Hyperwürfel verteilt ist, ist der mittlere Abstand zwischen den Punkten proportional zur Dimensionalität d. Je höher d, desto "leer" erscheint der Raum. Diese Erkenntnis hat tiefgreifende Auswirkungen auf die Präzision von Berechnungen und Schätzungen in hochdimensionalen Datenräumen, insbesondere wenn man versucht, die Positionen von Punkten oder deren Beziehungen zueinander zu bestimmen.
Ein bemerkenswerter Effekt, der mit zunehmender Dimension auftritt, ist die Verstärkung der Oberflächeneffekte. In einem Hyperwürfel steigt der Anteil des Volumens, der von einer in einen Hyperwürfel eingeschriebenen Hypersphäre eingenommen wird, exponentiell an. Zum Beispiel beträgt der Anteil des Volumens für d=5 nur 5,2%, und der Anteil des Volumens innerhalb einer Distanz, die weniger als 10% der Kantenlänge des Hyperwürfels beträgt, wächst mit der Formel . Für d=1 liegt dieser Anteil bei 20%, für d=5 jedoch bereits bei 67%.
Wenn wir uns eine Trainingsprobe von 1000 fünf-dimensionalen Eingabewerten ansehen, die gleichmäßig über einen Hyperwürfel mit Kantenlänge a verteilt sind, und versuchen, den Funktionswert im Zentrum des Bereichs zu schätzen, indem wir alle Probeelemente innerhalb eines Abstands von a/4 zum Zentrum heranziehen, wird die Zahl der relevanten Elemente dramatisch reduziert. Bei einem eindimensionalen Fall würden etwa 500 Elemente zu einer Schätzung beitragen, während es in diesem Fall nur rund 1,6 Elemente sind. Diese drastische Reduktion macht deutlich, wie schnell die Datenmenge mit zunehmender Dimension dünn wird.
In der Praxis bedeutet dies, dass eine Erhöhung der Dimensionen die Schätzung von Funktionen erschwert und Fehlerquellen verstärkt. Der Raum wird so leer, dass die Wahrscheinlichkeit, ausreichend benachbarte Punkte für präzise Schätzungen zu finden, stark sinkt. Dies führt dazu, dass viele gängige Schätzverfahren, wie sie in der Regression oder Interpolation verwendet werden, mit zunehmender Dimension weniger effektiv werden. Der sogenannte „Fluch der Dimensionalität“ (Curse of Dimensionality) wird daher zu einer zentralen Herausforderung in der Datenanalyse.
Neben den dimensionellen Herausforderungen wird auch der Einfluss von Oberflächeneffekten immer bedeutsamer. Diese Effekte führen dazu, dass in Bereichen, die nahe an den Rändern eines Hyperwürfels liegen, die Schätzungen ungenauer werden. Dies ist vor allem dann problematisch, wenn die Datenpunkte in einer Weise verteilt sind, dass sie verstärkt die Randregionen eines Raumes abdecken. Die im Allgemeinen steigende Unsicherheit in diesen Randregionen wird durch die größere Zahl von Dimensionen und die Unmöglichkeit, genügend repräsentative Nachbarpunkte zu finden, weiter verschärft.
Um diesem Problem entgegenzuwirken, ist es von entscheidender Bedeutung, bei der Interpolation und Regression auf spezialisierte Techniken zurückzugreifen, die diese Unwägbarkeiten berücksichtigen. Smoothing-Methoden, wie etwa die k-nächsten Nachbarn (k-NN), stellen hier eine gängige Lösung dar. Diese Methode verwendet den Mittelwert der k nächsten Nachbarn eines Punktes zur Schätzung des Funktionswertes an diesem Punkt. Doch auch diese einfache Methode hat ihre Grenzen, insbesondere in Regionen, in denen die Daten eine starke Struktur aufweisen oder die Funktion nicht konstant oder linear ist.
Eine weiterführende Möglichkeit ist es, den Mittelwert durch eine lineare Approximation der k nächsten Nachbarn zu ersetzen, um Verzerrungen an den Rändern des Variablenraums zu vermeiden. Diese Methode funktioniert gut, wenn die zugrunde liegende Funktion annähernd linear ist. In Fällen, in denen diese Bedingung nicht zutrifft, müssen erweiterte Verfahren wie gewichtete Mittelwerte, bei denen benachbarte Punkte je nach ihrer Distanz zum Zielpunkt unterschiedlich gewichtet werden, angewendet werden.
Für hochdimensionalen Raum und unregelmäßige Datenverteilungen sind jedoch noch ausgeklügeltere Verfahren erforderlich. Eine solche Methode ist die Verwendung von Gaußschen Kernen. Dabei wird jedem Punkt in der Nachbarschaft eine Gewichtung zugewiesen, die mit zunehmender Entfernung exponentiell abnimmt. Dies ermöglicht eine wesentlich genauere Schätzung als bei der einfachen k-NN-Methode, da nicht nur die benachbarten Punkte, sondern deren relative Entfernung berücksichtigt wird. Diese Methode bietet eine bessere Näherung an die tatsächliche Verteilung der Daten, indem sie die Auswirkungen von extremen Ausreißern und Rändern minimiert.
Es ist auch wichtig zu betonen, dass all diese Techniken davon ausgehen, dass die zu schätzende Funktion "glatt" ist. In der Praxis ist dies jedoch nicht immer der Fall. Insbesondere in Bereichen, in denen die Funktion starke Schwankungen oder nichtlineare Verhaltensweisen aufweist, müssen spezielle Anpassungen vorgenommen werden. Einfache glatte Funktionen lassen sich zwar in den meisten Fällen gut approximieren, aber die realen Daten können weitaus komplexer und unregelmäßiger sein.
Endtext
Wie Backpropagation und Validierung in neuronalen Netzwerken funktionieren
Im Bereich der künstlichen neuronalen Netze (ANNs) spielt der Lernprozess eine zentrale Rolle, und eine der bekanntesten Methoden zur Optimierung der Netzwerkparameter ist das sogenannte Backpropagation-Verfahren. Dieser Vorgang, bei dem die Fehler rückwärts durch das Netzwerk propagiert werden, wird typischerweise nach der Vorwärtsdurchlauf-Berechnung der Ausgabewerte angewendet. Die Gewichtungen der Verbindungen werden dabei schrittweise angepasst, um die Diskrepanz zwischen den tatsächlichen und den gewünschten Ausgaben zu minimieren. Der Lernprozess wird durch das Minimieren einer Verlustfunktion wie etwa der quadratischen Fehlerfunktion gesteuert. Die Fehler werden dabei an den Ausgabeknoten des Netzwerks berechnet, und diese Informationen werden in die vorherigen Schichten zurückgespeist, um die Gewichtungen zu aktualisieren.
In der ersten Phase werden die Gewichtungen der letzten Schicht (W(2)) entsprechend dem Fehler angepasst. Anschließend erfolgt die Rückpropagierung des Fehlers durch das Netzwerk, wobei auch die Gewichtungen der vorherigen Schichten (W(1)) modifiziert werden. Dies geschieht schrittweise, wobei der Fehler in jeder Schicht zurückgerechnet wird und die Gewichtungen in Richtung des Gradienten der Fehlerfunktion verändert werden. Der Gradientenabstieg ist das fundamentale Verfahren, das dabei hilft, die Netzwerkparameter zu optimieren, wobei der Lernrate (α) eine entscheidende Rolle spielt.
Allerdings bedeutet das Training eines neuronalen Netzwerks nicht zwangsläufig, dass es auch gut generalisieren kann, also korrekte Ergebnisse auf unbekannte Daten liefert. Eine wesentliche Herausforderung bei der Optimierung neuronaler Netzwerke ist das Phänomen des Overfittings. Wenn das Netzwerk zu viele Parameter anpasst und zu genau auf die Trainingsdaten passt, besteht die Gefahr, dass es auf neuen, unbekannten Daten schlecht abschneidet, da es die Trainingsdaten quasi „auswendig“ gelernt hat. Dies wird besonders dann problematisch, wenn nur eine begrenzte Menge an Trainingsdaten zur Verfügung steht. Ein Netzwerk, das zu stark an die Trainingsdaten angepasst ist, wird nicht in der Lage sein, generalisierte Vorhersagen für neue, nicht gesehene Daten zu treffen.
Eine Lösung für dieses Problem besteht in der Validierung des Netzwerks. Hierbei wird das Netzwerk mit einem separaten Satz von Daten getestet, die nicht in der Trainingsphase verwendet wurden. So kann überprüft werden, ob das Netzwerk in der Lage ist, auch auf unbekannte Daten richtig zu reagieren. Eine häufig angewandte Methode ist die Cross-Validation, bei der der Datensatz in mehrere Teile unterteilt wird und das Netzwerk wiederholt auf verschiedenen Kombinationen von Trainings- und Testdaten trainiert wird. Wenn die Validierungsergebnisse unbefriedigend sind, können verschiedene Maßnahmen ergriffen werden, um das Modell zu verbessern. Eine Möglichkeit besteht darin, die Anzahl der Parameter im Netzwerk zu reduzieren oder die Trainingswiederholungen mit denselben Daten zu variieren.
Darüber hinaus ist es für den Anwender eines neuronalen Netzwerks von entscheidender Bedeutung, die Funktionsweise des Netzwerks zu verstehen. Obwohl ein neuronales Netzwerk als eine Art „Black Box“ betrachtet werden kann, gibt es Methoden, die es ermöglichen, Einsicht in die Beziehungen zwischen den Eingabedaten und den Ausgabewerten zu gewinnen. Eine solche Methode ist die grafische Darstellung von Korrelationen, die es ermöglicht, zu visualisieren, wie sich bestimmte Eingabewerte auf das Ergebnis auswirken. Auch wenn das Netzwerk die analytische Form einer zugrunde liegenden Gleichung wie der van-der-Waals-Gleichung nicht direkt liefern kann, so bietet es dennoch die Möglichkeit, qualitative und quantitative Beziehungen zwischen den Variablen zu erkennen.
Ein weiteres wichtiges Konzept ist das Reduzieren der Komplexität des Netzwerks. Nach der Optimierung der Gewichtungen kann es sinnvoll sein, sehr kleine Gewichtungen zu eliminieren, indem die entsprechenden Verbindungen im Netzwerk entfernt werden. Falls der Ausschluss eines bestimmten Neurons keinen nennenswerten Einfluss auf das Ergebnis hat, kann dieses Neuron aus dem Netzwerk entfernt werden. Dies führt zu einem kompakteren und möglicherweise auch effizienteren Netzwerk. Natürlich muss das Netzwerk nach solchen Änderungen erneut trainiert werden, um sicherzustellen, dass es weiterhin korrekt funktioniert.
Praktisch gesehen gibt es eine Reihe von Hinweisen, die bei der Anwendung von Backpropagation und dem Training von ANNs berücksichtigt werden sollten. Die Wahl der Anzahl der Eingabekomponenten sowie der Neuronen in den einzelnen Schichten ist entscheidend. In der Regel sollte die Anzahl der Neuronen pro Schicht an die Eingabedaten angepasst werden, wobei einige Experten sogar eine größere Anzahl empfehlen. Ein weiterer Punkt ist die Wahl der Aktivierungsfunktion, wobei die Sigmoidfunktion häufig verwendet wird, da sie die Ausgabe zwischen null und eins limitiert. Es ist jedoch wichtig, die Zielwerte entsprechend zu skalieren, um eine effektive Lernphase zu gewährleisten.
Ein weiterer praktischer Aspekt betrifft die Initialisierung der Gewichtungen zu Beginn des Trainings. Diese können zufällig gesetzt oder auf feste Werte eingestellt werden, wobei der Zufallsansatz meist bevorzugt wird. Der Lernratenparameter α spielt ebenfalls eine zentrale Rolle. Zu Beginn des Trainings sollte der Lernrate relativ hoch gewählt werden, um schnelle Fortschritte zu erzielen, und dann im Verlauf des Trainings schrittweise verringert werden, um oszillierende Anpassungen zu vermeiden.
Neben der Wahl der richtigen Parameter gibt es auch zahlreiche Ansätze zur Verbesserung der Konvergenz des Trainingsprozesses, insbesondere in Bezug auf die Reduzierung von lokalen Minima. Der Trainingsprozess kann durch die Verwendung unterschiedlicher Startwerte für die Gewichtungen oder durch die Anwendung spezifischer Optimierungsverfahren verbessert werden.
Beispielsweise kann in einem praktischen Szenario wie der Rekonstruktion von Čerenkov-Kreisen durch ANNs das Netzwerk verwendet werden, um den Radius der Kreise und damit Informationen über die Geschwindigkeit und Richtung des relativistischen Teilchens zu bestimmen. Hierbei werden die Photonentrefferkoordinaten als Eingabedaten verwendet, und das Netzwerk wird darauf trainiert, den Radius zu rekonstruieren. Durch den Einsatz von Backpropagation und der Optimierung der Gewichtungen lässt sich eine hohe Genauigkeit bei der Bestimmung der Kreisparameter erreichen.
Wie der Krieg das Leben der Frauen veränderte: Einblick in das Leben der "Land Girls" im Zweiten Weltkrieg
Wie verändern wissenschaftliche Durchbrüche und globale Ereignisse unser Weltverständnis?
Wie kombiniert man Zutaten zu ausgewogenen, rohen Bowls mit maximaler Geschmacksdichte?
Wie der Polar Moment of Inertia in der Technik angewendet wird
Wie funktionieren Polizei und Kriminalität in Japan? Eine sprachliche und kulturelle Annäherung

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский