Monte-Carlo-Methode - Fakultät für Physik

Vorlesung
Computergestützte Datenauswertung
Zusammenfassung VL 05:
Monte Carlo und Parameteranpassung
Günter Quast
Fakultät für Physik
Institut für Experimentelle Kernphysik
KIT – Die Forschungsuniversität in der Helmholtz-Gemeinschaft
SS '16
www.kit.edu
Zusammenfassung:
Bedeutung der MC-Methode
Die Monte-Carlo-Methode (auch „MC-Simulation“)
- abgeleitet vom Namen der durch ihr Spielkasino berühmten Stadt Monte Carlo -
ist eine auf (Pseudo-)Zufallszahlen basierende numerische Methode zur
●
Integration in hochdimensionalen Räumen
●
Bestimmung der Eigenschaften von Verteilungen von Zufallszahlen
(z.B. von Messgrößen in Experimenten)
●
Nachbildung von komplexen Prozessen
(z.B. in Thermodynamik, Wirtschaft oder von experimentellen Apparaturen, u.v.a.)
Grundsätzliche Vorgehensweise:
I.
II.
Erzeuge Folge von Zufallszahlen r1 , r2, …, rm, gleichverteilt in ]0,1].
Transformiere diese zur Erzeugung einer anderen Sequenz x1 , x2, …, xn , die
einer Verteilungsdichte f(x) folgen (Anm.: xi können auch Vektoren sein !)
III. Aus den xi werden dann Eigenschaften von f(x) bestimmt
Vorteil: einfache Operationen mit den xi ersetzen sehr viel
komplexere Operationen auf den Verteilungsdichten
Simulierte Daten
Zufallskomponente z bei der Gewinnung empirischer Daten
ebenfalls mit Zufallszahlen modellierbar:
gemessener Wert
wahrer Wert
m = w +
z
zufälliger
Beitrag
Funktion (=Modell) des wahren Wertes, y = f(x), und
Modellierung der Messwerte mit MC:
my = f( wx + zx ) + zy
zx und zy entsprechen den Unsicherheiten der Messgrößen x und y
Parameterschätzung mit der Methode der kleinsten Quadrate
(„χ2-Methode“)
Entwickelt zu Beginn des 19. Jahrhunderts von Legendre, Gauß und Laplace.
Ziel: finden der besten Funktion, die Fehler-behaftete Datenpunkte annähert.
zunächst für Geraden (Ausgleichsgerade oder lineare Regression), aber
mit numerischen Minimierungsalgorithmen (z.B. MINUIT)
auf beliebige Funktionen und Anzahl Parameter anwendbar !
Minimiere bzgl. der Parameter {p}
S: „Summe der Residuen-Quadrate“
= f (x; {p})
σi2 sind die Varianzen der N Messungen yi
Falls die Fehler korreliert sind, ersetze
1/σi2 → cov -1 (Inverse der Kovarianzmatrix)
Methode ist auch aus „Likelihood-Prinzip“ herleitbar
→ später