MAP 311 - X2013 Fin de la Leçon 1: Variables aléatoires2 Rappel: nous avons construit l’espace de probabilité (Ω, A, P), avec une approche ensembliste. 2 MAP 311, Section 2.4 Fin de la Leçon 1: Variables aléatoires3 () MAP 311 - X2013 / 35 Variable aléatoire et sa loi4 Modèles aléatoires sophistiqués: Point de vue fonctionnel plutôt qu’ensembliste. Définition (Ω, A, P) donné. Une variable aléatoire est une grandeur qui dépend du résultat de l’expérience. Mathématiquement, c’est une fonction X : Ω −→ F , ω 7→ X (ω). Exemples: Le nombre de piles obtenus sur 100 lancers d’une pièce: F = {0, . . . , 100}. La distance du point d’atteinte d’une flèche au centre de la cible: F = [0, 15]. La valeur maximale d’un prix d’actif boursier sur un intervalle de temps donné: F = R+ . 4 MAP 311, Chapitre 2, Section 2.4 Fin de la Leçon 1: Variables aléatoires5 () MAP 311 - X2013 / 35 Enorme intérêt L’espace F = X (Ω) sera connu et simple (sous-ensemble de R ou de Rd ), et permettra de faire des calculs. (Ω est un espace souvent difficile à décrire, voire totalement abstrait.) Plutôt que de travailler sur l’espace de probabilité (Ω, A, P), on va étudier les chances de réalisation des valeurs de X . Notation: Pour B ⊂ F , on note {X ∈ B} P(X ∈ B) = {ω, X (ω) ∈ B} = X −1 (B); = P({ω, X (ω) ∈ B}). Remarque: {B, X −1 (B) ∈ A} est une tribu sur F , qui n’est en général pas égale à P(F ). Fin de la Leçon 1: Variables aléatoires6 () MAP 311 - X2013 / 35 Théorème Pour B ⊂ F tel que X −1 (B) ∈ A, on pose: PX (B) = P(X −1 (B)) = P({ω, X (ω) ∈ B}). Alors PX est une probabilité sur F = X (Ω). Définition La Probabilité PX s’appelle la loi de X. C’est la mesure image de P par l’application X . Remarque PX est beaucoup plus facile à caractériser que P car F est connu dans la pratique. Fin de la Leçon 1: Variables aléatoires7 () MAP 311 - X2013 / 35 Exemple Lancer de deux dés. Ω = {(i, j) : 1 ≤ i ≤ 6; 1 ≤ j ≤ 6}, probabilité uniforme: 1 pour chaque {ω}. P({ω}) = 36 X = Somme des résultats des deux dés. X : Ω → {2, . . . , 12} définie par X (i, j) = i + j. Elle a pour loi PX (B) = nombre de couples (i, j) tels que i + j ∈ B . 36 Ainsi, 1 = PX ({12}) = P(X = 12), 36 2 3 , PX ({4}) = PX ({10}) = , PX ({3}) = PX ({11}) = 36 36 4 5 PX ({5}) = PX ({9}) = , PX ({6}) = PX ({8}) = , 36 36 6 PX ({7}) = . 36 PX ({2}) = P(X = 2) = Comportement aléatoire de X décrit par {(xi , pi ), 2 ≤ i ≤ 12}. Fin de la Leçon 1: Variables aléatoires8 () MAP 311 - X2013 / 35 Fréquences théoriques (en vert) et résultats obtenus (en rouge) pour 100 lancers de dés. Fin de la Leçon 1: Variables aléatoires9 () MAP 311 - X2013 / 35 Leçon 2 Variables aléatoires sur un espace fini ou dénombrable10 10 MAP 311, Chapitre 3 Fin de la Leçon 1: Variables aléatoires11 () MAP 311 - X2013 / 35 Ω fini ou dénombrable12 F = X (Ω) = {x1 , . . . , xi , . . .} est dénombrable. Rappel: Une probabilité sur F est caractérisée par les probabilités de ses singletons. Proposition La loi PX de X est caractérisée par {(xi , piX ), xi ∈ F }, avec piX = P(X = xi ) = PX ({xi }). (1) Important: La loi PX de X est caractérisée par (1) dès que F = X (Ω) est dénombrable, (même si Ω ne l’est pas). En effet, les ensembles {ω, X (ω) = xi } forment une partition de Ω. 12 MAP 311, Chapitre 3, Section 3.2 Fin de la Leçon 1: Variables aléatoires13 () MAP 311 - X2013 / 35 Variables aléatoires discrètes usuelles14 • Ω = {Pile, Face}, p ∈]0, 1[. On pose: X = 1 si Pile, X = 0 si Face. PX (1) = P(X = 1) = p , PX (0) = 1 − p. La loi de X est appelée loi de Bernoulli de paramètre p. • Infinité de lancers indépendants: loi du premier succès. P(1er pile au k -ième lancer ) = P(FF . . . FP) = p (1 − p)k −1 . Définition Une variable géométrique de paramètre p ∈]0, 1[ est une variable à valeurs dans N∗ telle que ∀k ∈ N∗ , P(X = k ) = p (1 − p)k −1 . 14 MAP 311, Chapitre 3, Section 3.5 Fin de la Leçon 1: Variables aléatoires15 () MAP 311 - X2013 / 35 • Variable aléatoire binomiale de paramètres n et p Sn = nombre de Piles obtenus après n lancers indépendants. Pn Sn = i=1 Xi ; Sn (Ω) = {0, · · · , n}. P(Sn = k ) = P(ω ∈ Ω, Pn i=1 Xi (ω) = k ) = n k pk (1 − p)n−k . Définition La loi de Sn est appelée loi binomiale de paramètres n ∈ N∗ et p ∈]0, 1[ que l’on note B(n, p). Fin de la Leçon 1: Variables aléatoires16 () MAP 311 - X2013 / 35 Exemple: un modèle de génétique des populations Le modèle de Wright-Fisher. Population de taille N constante. A chaque génération, l’ancêtre d’un individu est choisi uniformément au hasard dans la génération précédente. Nombre d’enfants D d’un individu: loi binomiale B(N, N1 ). k N−k 1 N 1 P(D = k ) = 1− . k N N (On distingue chaque individu). Les effets des fluctuations aléatoires de la population: la dérive génétique. Fin de la Leçon 1: Variables aléatoires17 () MAP 311 - X2013 / 35 Supposons que N = 100. Probabilité pour que le nombre d’enfants soit inférieur à 4? P(X ≤ 4) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) P = 4k =0 100 (0, 01)k (0, 99)100−k = 0, 9964. k • Variable aléatoire de Poisson Modélisation des réalisations d’un événement rare. Soit B(n, an ) avec nan → θ ∈ R∗+ quand n → +∞. n k n−k k (an ) (1 − an ) pk (an , n) = 0 si k ≥ n + 1. Alors on a: lim pk (an , n) = pk = e−θ n→∞ Fin de la Leçon 1: Variables aléatoires18 () MAP 311 - X2013 θk , k! si k ≤n ∀k ∈ N. / 35 Définition On appelle variable aléatoire de Poisson de paramètre θ > 0 une v.a. X à valeurs dans N telle que P(X = k ) = e−θ θk , k! ∀k ∈ N. Sa loi est la loi de Poisson de paramètre θ notée P(θ). Exemple 1 précédent: On peut approcher X (en loi) par une variable aléatoire Z de loi de Poisson P(1). Vérifions que l’approximation est très bonne. k 0 1 2 3 4 Fin de la Leçon 1: Variables aléatoires19 () P(X = k ) 0,3660 0,3697 0,1848 0,0610 0,0149 P(Z = k ) 0,3679 0,3679 0,1839 0,0613 0,0153 MAP 311 - X2013 / 35 Le processus de Poisson: Apparitions d’un événement rare au cours du temps. Probabilité qu’il advienne pendant un intervalle de temps Ih de longueur h: λh + o(h). probabilité de deux événements ou plus pendant Ih : o(h). Indépendance des occurences sur des intervalles de temps disjoints. Alors N(t) = nombre d’apparitions de l’événement sur [0, t] est une variable de Poisson de paramètre λt. Processus de Poisson: t → N(t). Exemple. Nombre de crises financières mondiales: processus de Poisson, λ = 1. (Unité de temps: année). Probabilité de plus de 2 crises dans les 3 prochaines années: P(N(3) ≥ 2) Fin de la Leçon 1: Variables aléatoires20 () = 1 − P(N(3) = 0) − P(N(3) = 1) = 1 − e−3 − 3e−3 = 1 − 4e−3 ' 0, 8. MAP 311 - X2013 / 35 Espérance21 Motivation: Donner un résumé quantitatif de la variable aléatoire X . n observations: X1 , . . . , Xn valeurs successives prises par X . Moyenne arithmétique: X1 +...+Xn . n Modèle Pabstrait: Mn = ω∈Ω fn ({ω}) X (ω), où fn fréquence empirique. Définition Si E(|X |) = P ω∈Ω pω |X (ω)| < +∞, on appelle espérance de X le nombre E(X ) = X pω X (ω). ω∈Ω Théorème Si E(|X |) < +∞, 21 MAP E(X ) = P xi ∈F xi P(X = xi ). 311, Chapitre 3, Section 3.3 Fin de la Leçon 1: Variables aléatoires22 () MAP 311 - X2013 / 35 L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞. Propriétés: (immédiates à partir de la définition) Linéarité: E(aX + bY ) = a E(X ) + b E(Y ). Si X (ω) = a pour tout ω, alors E(X ) = a. |E(X )| ≤ E(|X |). Positivité: Si X ≥ 0, alors E(X ) ≥ 0. Si X ≤ Y , alors E(X ) ≤ E(Y ). Si Ω est fini, toutes les variables aléatoires sont dans L1 . Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et X (ω) = 0 si ω ∈ / A. E(X ) = E(1A ) = P(A). Fin de la Leçon 1: Variables aléatoires23 () MAP 311 - X2013 / 35 L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞. Propriétés: (immédiates à partir de la définition) Linéarité: E(aX + bY ) = a E(X ) + b E(Y ). Si X (ω) = a pour tout ω, alors E(X ) = a. |E(X )| ≤ E(|X |). Positivité: Si X ≥ 0, alors E(X ) ≥ 0. Si X ≤ Y , alors E(X ) ≤ E(Y ). Si Ω est fini, toutes les variables aléatoires sont dans L1 . Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et X (ω) = 0 si ω ∈ / A. E(X ) = E(1A ) = P(A). 23 MAP 311, Section 2.4 Fin de la Leçon 1: Variables aléatoires23 () MAP 311 - X2013 / 35 L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞. Propriétés: (immédiates à partir de la définition) Linéarité: E(aX + bY ) = a E(X ) + b E(Y ). Si X (ω) = a pour tout ω, alors E(X ) = a. |E(X )| ≤ E(|X |). Positivité: Si X ≥ 0, alors E(X ) ≥ 0. Si X ≤ Y , alors E(X ) ≤ E(Y ). Si Ω est fini, toutes les variables aléatoires sont dans L1 . Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et X (ω) = 0 si ω ∈ / A. E(X ) = E(1A ) = P(A). 23 MAP 311, Section 2.4 Fin de la Leçon 1: Variables aléatoires23 () MAP 311 - X2013 / 35 L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞. Propriétés: (immédiates à partir de la définition) Linéarité: E(aX + bY ) = a E(X ) + b E(Y ). Si X (ω) = a pour tout ω, alors E(X ) = a. |E(X )| ≤ E(|X |). Positivité: Si X ≥ 0, alors E(X ) ≥ 0. Si X ≤ Y , alors E(X ) ≤ E(Y ). Si Ω est fini, toutes les variables aléatoires sont dans L1 . Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et X (ω) = 0 si ω ∈ / A. E(X ) = E(1A ) = P(A). 23 MAP 311, Section 2.4 Fin de la Leçon 1: Variables aléatoires23 () MAP 311 - X2013 / 35 L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞. Propriétés: (immédiates à partir de la définition) Linéarité: E(aX + bY ) = a E(X ) + b E(Y ). Si X (ω) = a pour tout ω, alors E(X ) = a. |E(X )| ≤ E(|X |). Positivité: Si X ≥ 0, alors E(X ) ≥ 0. Si X ≤ Y , alors E(X ) ≤ E(Y ). Si Ω est fini, toutes les variables aléatoires sont dans L1 . Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et X (ω) = 0 si ω ∈ / A. E(X ) = E(1A ) = P(A). 23 MAP 311, Section 2.4 Fin de la Leçon 1: Variables aléatoires23 () MAP 311 - X2013 / 35 L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞. Propriétés: (immédiates à partir de la définition) Linéarité: E(aX + bY ) = a E(X ) + b E(Y ). Si X (ω) = a pour tout ω, alors E(X ) = a. |E(X )| ≤ E(|X |). Positivité: Si X ≥ 0, alors E(X ) ≥ 0. Si X ≤ Y , alors E(X ) ≤ E(Y ). Si Ω est fini, toutes les variables aléatoires sont dans L1 . Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et X (ω) = 0 si ω ∈ / A. E(X ) = E(1A ) = P(A). 23 MAP 311, Section 2.4 Fin de la Leçon 1: Variables aléatoires23 () MAP 311 - X2013 / 35 L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞. Propriétés: (immédiates à partir de la définition) Linéarité: E(aX + bY ) = a E(X ) + b E(Y ). Si X (ω) = a pour tout ω, alors E(X ) = a. |E(X )| ≤ E(|X |). Positivité: Si X ≥ 0, alors E(X ) ≥ 0. Si X ≤ Y , alors E(X ) ≤ E(Y ). Si Ω est fini, toutes les variables aléatoires sont dans L1 . Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et X (ω) = 0 si ω ∈ / A. E(X ) = E(1A ) = P(A). 23 MAP 311, Section 2.4 Fin de la Leçon 1: Variables aléatoires24 () MAP 311 - X2013 / 35 Théorème Soit f : F → R, telle que E(|f (X )|) < +∞, X E(f (X )) = f (xi ) P(X = xi ). xi ∈F Même preuve que pour l’espérance. Définition Supposons que E(X 2 ) < ∞. On appelle Variance de X le nombre positif Var (X ) = E( (X − E(X ))2 ) = E(X 2 − 2X E(X ) + (E(X ))2 ) X = E(X 2 ) − (E(X ))2 = P(X = xi ) xi2 − (E(X ))2 . xi ∈F Var (X ) =“Moyenne des carrés - carré des moyennes”. Fin de la Leçon 1: Variables aléatoires25 () MAP 311 - X2013 / 35 Ecart-type de X σX = p Var (X ). Exemple: Evolution de deux titres fictifs, l’un très volatil et l’autre peu volatil. Observations toutes les unités de temps. Les variations sont indépendantes et de même loi. Ces deux titres valent 100 au départ, 110 à la fin, ont tous deux une moyenne de 105,52. L’écart type est égal à 16,24 pour le premier et à 1,32 seulement pour le second. Fin de la Leçon 1: Variables aléatoires26 () MAP 311 - X2013 / 35 Fonction génératrice Définition Pour X variable aléatoire à valeurs dans N, et s ∈ [0, 1], X GX (s) = E(sX ) = pn sn , où pn = P(X = n). n Proposition 1) GX continue sur [0, 1], C ∞ sur [0, 1[. Elle caractérise la loi de X . 2) X ∈ L1 ⇐⇒ GX dérivable (à gauche) en s = 1, et E(X ) = GX0 (1). 3) X (X − 1) . . . (X − p) ∈ L1 ⇐⇒ GX est p + 1 fois dérivable en 1, et (p+1) E (X (X − 1) . . . (X − p)) = GX Fin de la Leçon 1: Variables aléatoires27 () MAP 311 - X2013 (1). / 35 Calcul de moments X Variable de Bernoulli: E(X ) = p , Var (X ) = p(1 − p). X Variable binomiale B(n, p): GX (s) = n X n k k =0 pk (1 − p)n−k sk = (1 − p + ps)n E(X ) = pn ; Var (X ) = np(1 − p). X Variable de Poisson P(θ): GX (s) = X k E(X ) = Var (X ) = = Fin de la Leçon 1: Variables aléatoires28 () sk θk −θ e = eθ(s−1) k! θ ; E(X (X − 1)) = θ2 E(X (X − 1)) + E(X ) − (E(X ))2 θ2 + θ − θ2 = θ. MAP 311 - X2013 / 35 Couple de variables aléatoires, cas discret On veut décrire l’évolution aléatoire conjointe de deux variables aléatoires X et Y . Exemple: Z = (X , Y ) décrit le nombre d’années d’études et le nombre de frères et soeurs de l’aîné d’une famille. X (Ω) = F ; Y (Ω) = G et Z (Ω) = F × G est dénombrable. Loi jointe du couple Z = (X , Y ): probabilité PZ sur F × G, caractérisée par PZ ({(x, y )}) = P(X = x; Y = y ). Lois marginales: les lois respectives PX et PY de X et de Y : PX (x) = P(X = x) = X P(X = x; Y = y ) = y ∈G PY (y ) = P(Y = y ) = X X PZ (x, y ), y ∈G PZ (x, y ). x∈F Fin de la Leçon 1: Variables aléatoires29 () MAP 311 - X2013 / 35 Lois conditionnelles30 Définition xi est fixé tel que PX (xi ) > 0. La loi conditionnelle de Y sachant X = xi est la probabilité sur G définie pour tout yj par: PY |X =xi (yj ) = P(Y = yj |X = xi ) = P(X ,Y ) (xi , yj ) . PX (xi ) On suppose E(Y ) < ∞. L’espérance conditionnelle de Y sachant X = xi vaut X yj PY |X =xi (yj ). E(Y |X = xi ) = yj L’espérance conditionnelle de Y sachant X est définie comme la variable aléatoire E(Y |X ) = Ψ(X ), définie par Ψ(xi ) = E(Y |X = xi ). Exercice: Montrer que 30 MAP E(E(Y |X )) = E(Y ). 311, Chapitre 3, Section 3.6.1 Fin de la Leçon 1: Variables aléatoires31 () MAP 311 - X2013 / 35 Exemple: Invasion et fixation d’un mutant Deux types: deux allèles A (les rouges) et a (les jaunes). Soit Zn = nombre d’individus d’allèle a à la génération n. j N−j N i i 1− . P(Zn+1 = j | Zn = i) = j N N i i i i E(Zn+1 | Zn = i) = N = i ; Var (Zn+1 | Zn = i) = N 1− =i 1− . N N N N Ainsi, Zn E(Zn+1 | Zn ) = Zn ; Var (Zn+1 | Zn ) = Zn 1 − . N On peut montrer (cours MAP 432): Quand le nombre de générations n tend vers l’infini, la suite (Zn )n tend vers 0 (fixation de A) ou vers N (fixation de a). Fin de la Leçon 1: Variables aléatoires32 () MAP 311 - X2013 / 35 Variables aléatoires indépendantes33 Définition Les variables aléatoires sont dites indépendantes si, ∀i, j, P(X = xi , Y = yj ) = P(X = xi ) P(Y = yj ) ⇐⇒ ∀A ⊂ F , ∀B ⊂ G, P(X ∈ A, Y ∈ B) = P(X ∈ A) P(X ∈ B). Proposition Si X et Y sont indépendantes, et si E(|f (X )|) < ∞ et E(|g(Y )|) < ∞, alors E(f (X )g(Y )) = E(f (X )) E(g(Y )). Exercice: Montrer que si X et Y sont indépendantes, alors E(Y |X ) = E(Y ). 33 MAP 311, Chapitre 3, section 3.6.3 Fin de la Leçon 1: Variables aléatoires34 () MAP 311 - X2013 / 35 Exemple Soit M une matrice carrée aléatoire de taille 2 × 2 dont les coefficients Xi,j sont des variables aléatoires indépendantes, telles que P(Xi,j = ±1) = 12 . Calculons la variance du déterminant de M. Fin de la Leçon 1: Variables aléatoires35 () MAP 311 - X2013 / 35 Somme de variables aléatoires indépendantes Proposition Soient X et Y des v.a. à valeurs entières, et Z = X + Y . Alors X P(Z = i) = P( (X , Y ) = (j, i − j)). j En particulier, si X et Y sont indépendantes, X X P(Z = i) = P(X = j) P(Y = i − j) = P(X = i − j) P(Y = j). j j Proposition Si X et Y indépendantes, alors GX +Y (s) = GX (s) GY (s). Preuve: Par indépendance, GX +Y (s) = E(sX sY ) = E(sX ) E(sY ) = GX (s) GY (s). Fin de la Leçon 1: Variables aléatoires36 () MAP 311 - X2013 / 35 Stabilité par indépendance 1) Somme de n v.a. de Bernoulli de paramètre p indépendantes: v.a. binomiale B(n, p): G(s) = (1 − p + ps)n . 2) X et Y des v.a. indépendantes de lois de Poisson de paramètres λ, µ. GX +Y (s) = GX (s)GY (s) = exp(λ(s − 1)) exp(µ(s − 1)) = exp((λ + µ)(s − 1)). =⇒ X + Y a une loi de Poisson de paramètre λ + µ, car la fonction génératrice caractérise la loi. Fin de la Leçon 1: Variables aléatoires37 () MAP 311 - X2013 / 35 Exercice Peut-on piper deux dés de telle sorte que la somme des points soit uniformément répartie sur {2, 3, · · · , 12}? Fin de la Leçon 1: Variables aléatoires38 () MAP 311 - X2013 / 35 POUR EN SAVOIR PLUS · · · Fin de la Leçon 1: Variables aléatoires39 () MAP 311 - X2013 / 35 Le processus de Galton-Watson - Chaque individu d’une génération meurt et laisse place à un nombre variable d’enfants. - A chaque instant n, la variable aléatoire Xn désigne la taille de la population au temps n. Xn−1 X X0 = 1 ; Xn = Yi,n . i=1 Les (Yi,n )i,n sont indépendantes et de même loi (pk )k ∈N . Fin de la Leçon 1: Variables aléatoires40 () MAP 311 - X2013 / 35 Extinction et Persistence On suppose que m = E(Y ) = P k ≥1 k pk < +∞. Fonction génératrice de la loi de reproduction: ∀s ∈ [0, 1], X g(s) = E(sY ) = pk sk ; g(1) = 1 ; g(0) = p0 ; m = g 0 (1). k C’est une fonction convexe et croissante. Soit gn la fonction génératrice de Xn (avec X0 = 1). On a la relation de récurrence: gn (s) = gn−1 ◦ g(s) = g ◦ g ◦ . . . ◦ g(s) (n fois). gn (s) = = Xn PXn−1 Yi,n PX n−1 Yi,n i=1 =E E s | Xn−1 E(s ) = E s Xn−1 E Πi=1 E sYi,n = E [E(sY )]Xn−1 = E [g(s)]Xn−1 = gn−1 ◦ g(s). Fin de la Leçon 1: Variables aléatoires41 () i=1 MAP 311 - X2013 / 35 Probabilité d’extinction à la génération n : qn = gn (0). On a alors qn = g(qn−1 ). C’est une suite définie par récurrence. Probabilité que la population s’éteigne en temps infini : q = limn→+∞ qn . Elle satisfait q = g(q). Deux cas possibles: m ≤ 1 (cas sous-critique ou critique): q = 1. Extinction. m > 1 (cas sur-critique): q < 1. Persistance avec probabilité positive. Fin de la Leçon 1: Variables aléatoires42 () MAP 311 - X2013 / 35 Information et Entropie X variable aléatoire discrète et pi = P(X = xi ). Entropie de X sous P: HP (X ) = X pi ln i X 1 =− pi ln pi . pi i HP (X ) ≥ 0 . HP (X ) = 0 ⇐⇒ X déterministe (X (ω) = x ∈ R). HP (X ) concave en les (pi )i : X i λi pi ln 1 1 ≤ p ln , pi p De plus , HP (X ) ≤ X i dès que X λi = 1 , p = X i pi ln 1 , qi pour tous qi ≥ 0, λi pi . i X qi = 1. i ( On utilise ln x ≤ x − 1). Fin de la Leçon 1: Variables aléatoires43 () MAP 311 - X2013 / 35 Maximisation entropie sous contrainte On se donne une fonction de poids w(x) et un nombre m. On veut maximiser HP (X ) comme fonction de (pi ) sous la contrainte de moment P EP (w(X )) = i pi w(xi ) = m . P Idée: on cherche Q telle que EQ (w(X )) = i w(xi ) qi = m. Prenons qi = On a P i −λ w(xi ) w(xi ) e s(λ) e−λ w(xi ) , s(λ) avec s(λ) = X e−λ w(xi ) . i 0 (λ) = − ss(λ) = m. Supposons qu’il y ait une unique solution à cette équation. P P Alors, i pi ln q1i = i (pi ln s(λ) + λpi w(xi )) = ln s(λ) + λ m ne dépend pas des pi . Fin de la Leçon 1: Variables aléatoires44 () MAP 311 - X2013 / 35 P Ainsi, HQ (X ) = i pi ln q1i est l’unique maximum entropique sous la contrainte de moment. La mesure (qi )i∈N s’appelle mesure de Gibbs. Exemple: w(x) = x, X ∈ N. P s(λ) = i∈N e−λ i = 1−e1−λ . Alors − s0 (λ) m = m ⇐⇒ e−λ = . s(λ) 1+m Nous en déduisons que qi = (1 − e−λ ) e−λ i : (qi )i∈N est la loi géométrique de m . paramètre 1+m Cela nous donne une autre manière de caractériser la loi géométrique. Fin de la Leçon 1: Variables aléatoires45 () MAP 311 - X2013 / 35
© Copyright 2024 ExpyDoc