Vorlesung
Computergestützte Datenauswertung
Zusammenfassung VL 03:
Wahrscheinlichkeit und Verteilungen Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
SS '16
www.kit.edu
Häufigkeitsverteilung und Wahrscheinlichkeitsdichte Beispiel Messen: Häufigkeit von N Messergebnissen in bestimmten Intervallen („Bins“)
Erwartete Verteilung
hi bin i
Für eine große Anzahl von Messungen nähert sich die Häufigkeitsverteilung der erwarteten Verteilung immer mehr an
Intervallgrenzen („bin edges“)
Erwartungswert der Verteilung
Häufigkeitsdefinition der Wahrscheinlichkeit:
Charakterisierung v. Verteilungen: Stichprobe
diskrete Verteilung
Formeln kontinuierliche Vert.
Erwartungswert
Varianz * Schiefe
* „Bessel-Korrektur“: N → N-1 vermeidet Verzerrung Plausibilitätsargument: für N=1 ist V nicht definiert !
Kurtosis nennt man das n-te Moment der Verteilung γ2 = 0 für Gauß-Vert.
+ höhere ...
Eine Verteilung ist über ihre Momente vollständig charakterisiert
lineares Fehlerfortpflanzungsgesetz zusammenfassend kann man die Ergebnisse für unabhängige Variablen xi kompakt so schreiben:
Fehlerfortpflanzungsgesetz
Quadrierter absoluter Fehler auf Summe die oder Differenz zweier Zahlen ist die quadratische Summe ihrer absoluten Fehler
Quadrierter relativer Fehler auf das Produkt oder Verhältnis zweier Zahlen ist die quadratische Summe ihrer relativen Fehler
Anwendung:
Fehler auf den Mittelwert
Der Mittelwert einer Anzahl von N Messungen der gleichen Größe, , ist eine lineare Funktion der Messwerte und damit selbst eine Zufallsgröße. Mit dem Fehlerfortpflanzungsgesetz können wir die Unsicherheit berechnen:
weil alle Messungen aus der gleichen Verteilung stammen, sind alle Unsicherheiten gleich
Wichtiges Ergebnis Der Unsicherheit auf den Mittelwert aus N (identischen, unabhängigen) Messungen ist um den Faktor √N kleiner als die Unsicherheit auf eine Einzelmessung