Die Poisson-Verteilung stellt einen wichtigen statistischen Zusammenhang dar, der in verschiedenen Bereichen der Physik, insbesondere in der Kern- und Teilchenphysik sowie in der Mikrosystemtechnik, eine entscheidende Rolle spielt. Sie kann als Grenzfall der Binomialverteilung betrachtet werden, wobei die Anzahl der Versuche gegen Unendlich geht und gleichzeitig die Wahrscheinlichkeit eines Erfolges gegen null tendiert. In diesem Grenzfall ergibt sich die Poisson-Verteilung als Limit der Binomialverteilung, wobei der Erwartungswert konstant bleibt.
Die Poisson-Verteilung ist besonders nützlich, wenn die Anzahl der möglichen Ereignisse sehr groß ist, während die Wahrscheinlichkeit eines einzelnen Ereignisses sehr klein bleibt. Ein klassisches Beispiel ist die Anzahl der radioaktiven Zerfälle, die in einem bestimmten Zeitintervall stattfinden. Hierbei handelt es sich um eine Anwendung der Poisson-Verteilung, da die Zahl der Kerne, die zerfallen können, sehr groß ist, die Wahrscheinlichkeit eines Zerfalls für jeden einzelnen Kern jedoch sehr gering.
Ein weiteres Beispiel findet sich in der Analyse von statistischen Schwankungen in der Mikrosystemtechnik. Angenommen, in einem Volumen von 1 Liter befinden sich Wasserstoffionen. Der Mittelwert der Ionen in einem Subvolumen von ist dann , mit einer Standardabweichung von . Wenn man die gleiche Berechnung mit der Binomialverteilung anstellt, würde sich die Standardabweichung nur um einen Faktor von unterscheiden. Das zeigt, wie nahe die Poisson-Verteilung der Binomialverteilung kommt, wenn die Zahl der Versuche groß ist und die Wahrscheinlichkeit eines einzelnen Erfolges klein bleibt.
Die Poisson-Verteilung ist nicht nur in der Kernphysik von Bedeutung, sondern auch in anderen Bereichen wie der Mikrosystemtechnik (etwa bei der Analyse von Rauschen) und der Optik. Sie beschreibt die statistischen Schwankungen in Systemen, bei denen die Anzahl der möglichen Ereignisse potenziell unendlich ist und die Wahrscheinlichkeit eines einzelnen Ereignisses in einem bestimmten Zeitraum minimal bleibt. Ein klassisches Beispiel in der Optik ist die Modellierung von Photonenzählungen, bei denen die Anzahl der gemessenen Photonen in einem bestimmten Intervall einer Poisson-Verteilung folgt.
Ein bemerkenswerter Aspekt der Poisson-Verteilung ist ihre sogenannte Stabilität: Wenn zwei Poisson-verteilte Zufallsgrößen mit den Erwartungswerten und addiert werden, so folgt die Summe ebenfalls einer Poisson-Verteilung, und zwar mit einem Erwartungswert . Dies ist ein direktes Ergebnis der Struktur der charakteristischen Funktion der Poisson-Verteilung. Diese Eigenschaft ist auch intuitiv verständlich: Die Anzahl der Ereignisse in einem System mit mehreren Quellen von Ereignissen folgt insgesamt einer Poisson-Verteilung, deren Parameter sich aus den einzelnen Quellen ergeben.
Ein anschauliches Beispiel ist die Analyse der Fluktuationen eines Zählratenmessgeräts, bei dem ein Signal von einer konstanten Hintergrundrate überlagert wird. Angenommen, der erwartete Signalwert ist und der erwartete Hintergrundwert ist , dann ergibt sich die Fluktuation des gemessenen Zählwerts zu . Diese Fluktuation bleibt auch dann bestehen, wenn der Hintergrundwert vom gemessenen Wert subtrahiert wird. Ein weiteres Beispiel bezieht sich auf die Wahrscheinlichkeit, dass ein registrierter Wert weniger als oder gleich einer bestimmten Zahl ist. Auch diese Berechnung kann mit Hilfe der Poisson-Verteilung und speziellen Integralen, wie dem unvollständigen Gamma-Integralen, durchgeführt werden.
Ein weiteres wichtiges Konzept im Zusammenhang mit der Poisson-Verteilung ist die Frage, wie sich die beobachteten Ereignisse verändern, wenn nur ein Bruchteil der gesamten Ereignisse registriert wird. Angenommen, die Registrierung von Ereignissen wird um einen Faktor reduziert, etwa durch eine Verringerung der Detektorgröße, so reduziert sich auch die erwartete Rate der registrierten Ereignisse auf . Diese Änderung kann auch mathematisch abgeleitet werden, indem man die Poisson-Verteilung auf einen Binomialprozess anwendet, bei dem die Wahrscheinlichkeit eines Ereignisses für jedes einzelne Element verringert wird.
Wichtig ist, dass die Poisson-Verteilung nicht nur als mathematisches Modell verwendet wird, sondern dass sie auch tief in die physikalische Realität vieler Messprozesse eingebettet ist. Besonders in der Physik, wo es oft auf die statistische Beschreibung von zufälligen Ereignissen ankommt – sei es in der Radioaktivität, der Teilchenphysik oder der Optik – hat diese Verteilung entscheidende Bedeutung. Sie bietet eine präzise Beschreibung von Ereignissen, die scheinbar zufällig auftreten, jedoch unter den gegebenen Randbedingungen einem klaren statistischen Muster folgen.
Die Poisson-Verteilung hat jedoch ihre Grenzen. Sie eignet sich besonders gut für Systeme, in denen die Ereignisse relativ unabhängig voneinander sind, also keine Wechselwirkungen zwischen den Ereignissen bestehen. In Systemen mit signifikanten Wechselwirkungen zwischen den Ereignissen ist möglicherweise eine andere Verteilung erforderlich, die diese Wechselwirkungen berücksichtigt.
Wie lässt sich die Verteilung des Likelihood-Ratio-Tests bei der Signifikanzprüfung interpretieren?
Die Likelihood-Ratio (LR) ist ein zentrales Werkzeug in der Hypothesentestung, insbesondere wenn es darum geht, zwischen einer Nullhypothese und einer Alternativhypothese zu entscheiden. Bei großen Stichproben kann die Verteilung der Teststatistik unter durch die Chi-Quadrat-Verteilung approximiert werden, wenn bestimmte Voraussetzungen erfüllt sind. Dabei gilt näherungsweise
wobei die Freiheitsgrade der Chi-Quadrat-Verteilung durch die Differenz der Anzahl freier Parameter zwischen und bestimmt werden. Diese Beziehung ermöglicht es, p-Werte schnell und effizient zu berechnen, ohne auf rechenintensive Monte-Carlo-Simulationen angewiesen zu sein.
Doch die Voraussetzungen für diese Asymptotik sind streng: Die Nullhypothese muss eine spezielle Ausprägung der Alternativhypothese sein, alle Parameter der Alternativhypothese müssen auch unter definiert sein und die geschätzten Parameter dürfen nicht an den Rand des erlaubten Parameterraums fallen. Beispielsweise können Parameter wie die Lage und Breite einer Gauss’schen Verteilung im Alternativmodell nicht existieren oder undefiniert sein, wenn die Signalstärke unter ist, was zu einer Verletzung dieser Bedingungen führt.
In solchen Fällen weicht die Verteilung des Teststatistik-Werts deutlich von einer Chi-Quadrat-Verteilung ab und muss mithilfe von Simulationen ermittelt werden. Dabei werden zahlreiche simulierte Experimente unter der Annahme von generiert, die dann mit dem beobachteten Teststatistik-Wert verglichen werden, um den p-Wert zu bestimmen. Dieser Prozess ist sehr rechenaufwendig, da in jedem simulierten Experiment die Parameter für beide Hypothesen angepasst werden müssen.
Ein klassisches Beispiel ist die Suche nach einem Resonanzsignal auf einem kontinuierlichen Hintergrund. Das Nullmodell beschreibt etwa eine polynomiale Hintergrundfunktion, während die Alternativhypothese zusätzlich eine Gaußsche Resonanz enthält. Werden Position und Breite der Resonanz frei geschätzt, folgt die Differenz der minimalen -Werte nicht mehr der Chi-Quadrat-Verteilung, weil unter die Resonanzparameter nicht definiert sind. Dies führt dazu, dass das erwartete deutlich größer als der Chi-Quadrat-Erwartungswert ausfällt. Hier hilft nur eine numerische Bestimmung der Verteilung.
Weiterhin ist wichtig, dass der p-Wert nicht die Wahrscheinlichkeit dafür angibt, dass wahr ist, sondern die Wahrscheinlichkeit, unter eine Teststatistik zu beobachten, die mindestens so extrem ist wie die tatsächlich beobachtete. Diese oft missverstandene Tatsache führt immer wieder zu falschen Interpretationen in der Praxis. Bayesianische Methoden bieten hier eine alternative Sichtweise, indem sie mit sogenannten Bayes-Faktoren die Wahrscheinlichkeit von Hypothesen direkt vergleichen, allerdings sind sie weniger verbreitet und haben eigene Herausforderungen.
Die Verteilung der LR-Teststatistik wird in Experimenten mit großen Datenmengen zudem meist anhand von Histogrammen berechnet, da die ungebundene Likelihood-Berechnung bei sehr großen Stichproben zu aufwendig wird. Simulationen zeigen, dass die Streuung der Teststatistik bei Vorhandensein eines Signals groß ist: Selbst bei identischen Experimenten können durch Zufall sehr unterschiedliche Signalstärken beobachtet werden.
Die multikanalige Erweiterung des LR-Tests basiert auf der Unabhängigkeit der Kanäle. Die Gesamtlikelihood ergibt sich als Produkt der Einzelwahrscheinlichkeiten, und die Gesamt-Teststatistik ist die Summe der Log-Likelihood-Verhältnisse über alle Kanäle. So kann die Signifikanz komplexerer Modelle mit mehreren Messreihen geprüft werden.
Wichtig ist, dass bei der Anwendung des Likelihood-Ratio-Tests immer die Voraussetzungen für die asymptotische Verteilung kritisch geprüft werden müssen. Andernfalls sind Monte-Carlo-Simulationen zur Bestimmung der Verteilung der Teststatistik unumgänglich. Ebenso sollte man sich der Limitationen der p-Werte bewusst sein und diese nicht als alleinige Entscheidungsgrundlage nutzen. Die Unsicherheiten der Parameterschätzungen, die Abhängigkeit vom Modell und die methodischen Unterschiede zwischen frequentistischen und bayesianischen Ansätzen müssen verstanden werden, um statistische Resultate korrekt zu interpretieren.
Wie man Signifikanztests und Signalstärken in der physikalischen Datenanalyse versteht
In vielen experimentellen Szenarien, insbesondere in der Teilchenphysik, analysiert man Signale, die durch das Zerfallen von Teilchen in verschiedene Kanäle entstehen. Diese Signale sind oft nicht direkt sichtbar, sondern erscheinen als "Hübe" in den Daten, die mit verschiedenen Hintergrundprozessen vermischt sind. Ein solches Signal ist typischerweise mit einer bestimmten Verteilung verbunden, und die Aufgabe besteht darin, diese Signale von den Hintergrundprozessen zu unterscheiden, um die Signifikanz eines möglichen neuen Phänomens zu bestimmen.
Ein häufiger Ansatz, um solche Signale zu identifizieren, ist die Berechnung des sogenannten "Likelihood Ratio" (LR), einer Teststatistik, die die Wahrscheinlichkeit eines gegebenen Datensatzes unter zwei konkurrierenden Hypothesen vergleicht: der Nullhypothese (H₀), die davon ausgeht, dass kein Signal existiert, und der Alternativhypothese (H₁), die ein Signal vorhersagt. Der LR-Test ermöglicht es, die Wahrscheinlichkeit der Beobachtung eines bestimmten Datensatzes unter der Annahme der Nullhypothese zu bewerten. Ein solcher Test ist besonders nützlich, wenn es darum geht, den besten Parameter für das Signal zu finden, der zu den beobachteten Daten passt.
Wenn wir nun ein Experiment betrachten, bei dem man Hübe bei derselben Masse in K verschiedenen Zerfallkanälen beobachtet, die mit demselben Phänomen verbunden sind – einem Teilchen, das in verschiedene Sekundärteilchen zerfällt – dann stellt sich die Frage, wie man diese Verteilungen modelliert. Jede Zerfallkanal trägt zu einer bestimmten Verteilung bei, die sowohl durch den Zerfall als auch durch den Hintergrundprozess beeinflusst wird. Die gesamte Verteilung unter der Nullhypothese H₀ ist das Produkt der Verteilungen in jedem einzelnen Kanal, wobei für jeden Kanal eine separate Verteilung für den Hintergrund existiert.
Unter der alternativen Hypothese H₁ wird die Signalverteilung berücksichtigt, wobei jedes Zerfallkanal eine Mischung aus dem Hintergrund und einem Signal beschreibt. Diese Mischung ist durch einen sogenannten "Mixing-Parameter" εk gekennzeichnet, der den Anteil des Signals im jeweiligen Kanal angibt. Das Ziel des Tests ist es, diesen Parameter und die dazugehörigen Verteilungen so zu schätzen, dass die Signifikanz des Signals maximiert wird.
Die Berechnung der Likelihood-Ratio in diesem Kontext erfordert die Kenntnis der Parameter θ₀k und θk für jeden Kanal. Dies führt zu einer Summe über alle Kanäle, die die Logarithmen der Verhältnisse der Likelihood-Funktionen für den Hintergrund und das Signal beschreibt. Das Resultat, die Likelihood-Ratio λ, gibt dann an, wie wahrscheinlich das beobachtete Signal unter der Nullhypothese im Vergleich zur alternativen Hypothese ist.
In vielen Fällen ist es jedoch nicht immer sinnvoll, auf die Likelihood-Ratio als Teststatistik zurückzugreifen, insbesondere wenn man die Bedeutung eines Signals eher durch eine konkrete Zahl von Ereignissen oder durch die Stärke des Signals selbst messen möchte. Stattdessen kann es vorteilhafter sein, einen Parameter aus der Signalstärke als Teststatistik zu verwenden. Dies ermöglicht eine direktere physikalische Interpretation des Ergebnisses. Ein solches Verfahren kann weniger präzise sein als die Likelihood-Ratio, ist aber in vielen praktischen Fällen einfacher zu handhaben und liefert dennoch nützliche Informationen.
Ein Beispiel für eine alternative Teststatistik könnte die Anzahl der Ereignisse sein, die in einem bestimmten Bereich um das Signal beobachtet werden. In einem solchen Fall vergleicht man die tatsächliche Zahl der beobachteten Ereignisse mit einer erwarteten Zahl aus einer Hintergrundverteilung. Dies kann beispielsweise unter der Annahme einer Poisson-Verteilung erfolgen, die die Anzahl der Ereignisse in einem bestimmten Bereich angibt. Es ist jedoch wichtig zu beachten, dass bei diesem Ansatz der sogenannte "Look-Elsewhere-Effekt" berücksichtigt werden muss, da das Signal möglicherweise an einer zufälligen Position im Energiebereich liegt.
Ein weiteres Beispiel ist die Berechnung der Signifikanz eines Signals in Einheiten von Standardabweichungen, üblicherweise als σ angegeben. Diese Berechnung basiert auf der Differenz zwischen der beobachteten Anzahl von Ereignissen und der erwarteten Anzahl von Ereignissen im Hintergrundbereich. Eine Transformation dieser Differenz in eine p-Wert-Berechnung ermöglicht eine statistische Beurteilung der Signifikanz des Signals.
Trotz der Nützlichkeit dieser Ansätze sollte man sich der Unsicherheiten bewusst sein, die mit den Schätzungen und der Berechnung der Signifikanz verbunden sind. Besonders in Fällen, in denen der Hintergrund nicht exakt bekannt ist oder bei sehr kleinen Signalstärken, können die Berechnungen nur als grobe Schätzungen betrachtet werden. Die Bestimmung der Signifikanz erfordert oft eine sorgfältige Berücksichtigung aller möglichen Unsicherheitsquellen und sollte nicht isoliert von anderen Methoden der Analyse durchgeführt werden.
Ein wichtiger Aspekt, den der Leser verstehen sollte, ist, dass die Wahl der Teststatistik und der Berechnungsmethoden in hohem Maße von der spezifischen Fragestellung und den zur Verfügung stehenden Daten abhängt. Während der LR-Test eine sehr mächtige Methode ist, die sowohl das Signal als auch seine Form berücksichtigt, können in einigen Fällen einfachere Methoden wie die Betrachtung der Ereignisanzahl in einem spezifischen Bereich ausreichen, um eine erste Einschätzung der Signifikanz zu geben. Darüber hinaus ist es entscheidend, dass der Leser sich mit den Grundlagen der Wahrscheinlichkeitsverteilungen und der Statistik vertraut macht, um die Ergebnisse richtig zu interpretieren und in den Kontext des Experiments zu setzen.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский