Vorlesung Computergestützte Datenauswertung Zusammenfassung VL 03: Wahrscheinlichkeit und Verteilungen Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft SS '16 www.kit.edu Häufigkeitsverteilung und Wahrscheinlichkeitsdichte Beispiel Messen: Häufigkeit von N Messergebnissen in bestimmten Intervallen („Bins“) Erwartete Verteilung hi bin i Für eine große Anzahl von Messungen nähert sich die Häufigkeitsverteilung der erwarteten Verteilung immer mehr an Intervallgrenzen („bin edges“) Erwartungswert der Verteilung Häufigkeitsdefinition der Wahrscheinlichkeit: Charakterisierung v. Verteilungen: Stichprobe diskrete Verteilung Formeln kontinuierliche Vert. Erwartungswert Varianz * Schiefe * „Bessel-Korrektur“: N → N-1 vermeidet Verzerrung Plausibilitätsargument: für N=1 ist V nicht definiert ! Kurtosis nennt man das n-te Moment der Verteilung γ2 = 0 für Gauß-Vert. + höhere ... Eine Verteilung ist über ihre Momente vollständig charakterisiert lineares Fehlerfortpflanzungsgesetz zusammenfassend kann man die Ergebnisse für unabhängige Variablen xi kompakt so schreiben: Fehlerfortpflanzungsgesetz Quadrierter absoluter Fehler auf Summe die oder Differenz zweier Zahlen ist die quadratische Summe ihrer absoluten Fehler Quadrierter relativer Fehler auf das Produkt oder Verhältnis zweier Zahlen ist die quadratische Summe ihrer relativen Fehler Anwendung: Fehler auf den Mittelwert Der Mittelwert einer Anzahl von N Messungen der gleichen Größe, , ist eine lineare Funktion der Messwerte und damit selbst eine Zufallsgröße. Mit dem Fehlerfortpflanzungsgesetz können wir die Unsicherheit berechnen: weil alle Messungen aus der gleichen Verteilung stammen, sind alle Unsicherheiten gleich Wichtiges Ergebnis Der Unsicherheit auf den Mittelwert aus N (identischen, unabhängigen) Messungen ist um den Faktor √N kleiner als die Unsicherheit auf eine Einzelmessung
© Copyright 2024 ExpyDoc