Charakterisierung v. Verteilungen - Fakultät für Physik

Vorlesung
Computergestützte Datenauswertung
Zusammenfassung VL 03:
Wahrscheinlichkeit und Verteilungen
Günter Quast
Fakultät für Physik
Institut für Experimentelle Kernphysik
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
SS '16
www.kit.edu
Häufigkeitsverteilung und Wahrscheinlichkeitsdichte
Beispiel Messen:
Häufigkeit von N Messergebnissen
in bestimmten Intervallen („Bins“)
Erwartete
Verteilung
hi
bin i
Für eine große Anzahl von
Messungen nähert sich die
Häufigkeitsverteilung der
erwarteten Verteilung
immer mehr an
Intervallgrenzen
(„bin edges“)
Erwartungswert
der Verteilung
Häufigkeitsdefinition der Wahrscheinlichkeit:
Charakterisierung v. Verteilungen:
Stichprobe
diskrete Verteilung
Formeln
kontinuierliche Vert.
Erwartungswert
Varianz
*
Schiefe
* „Bessel-Korrektur“: N → N-1 vermeidet Verzerrung
Plausibilitätsargument: für N=1 ist V nicht definiert !
Kurtosis
nennt man das n-te Moment der Verteilung
γ2 = 0 für Gauß-Vert.
+ höhere ...
Eine Verteilung ist über ihre Momente vollständig charakterisiert
lineares Fehlerfortpflanzungsgesetz
zusammenfassend kann man die Ergebnisse für
unabhängige Variablen xi kompakt so schreiben:
Fehlerfortpflanzungsgesetz
Quadrierter absoluter Fehler auf Summe die
oder Differenz zweier Zahlen ist die
quadratische Summe ihrer absoluten Fehler
Quadrierter relativer Fehler auf das Produkt
oder Verhältnis zweier Zahlen ist die
quadratische Summe ihrer relativen Fehler
Anwendung:
Fehler auf den Mittelwert
Der Mittelwert einer Anzahl von N Messungen der gleichen Größe,
, ist eine lineare Funktion der Messwerte und damit
selbst eine Zufallsgröße.
Mit dem Fehlerfortpflanzungsgesetz können
wir die Unsicherheit berechnen:
weil alle Messungen aus der gleichen Verteilung
stammen, sind alle Unsicherheiten gleich
Wichtiges Ergebnis
Der Unsicherheit auf den Mittelwert aus N
(identischen, unabhängigen) Messungen
ist um den Faktor √N kleiner als die
Unsicherheit auf eine Einzelmessung