Marseille

MAP 311 - X2013
Fin de la Leçon 1: Variables aléatoires2
Rappel: nous avons construit l’espace de probabilité (Ω, A, P), avec une
approche ensembliste.
2 MAP
311, Section 2.4
Fin de la Leçon 1: Variables aléatoires3 ()
MAP 311 - X2013
/ 35
Variable aléatoire et sa loi4
Modèles aléatoires sophistiqués: Point de vue fonctionnel plutôt
qu’ensembliste.
Définition
(Ω, A, P) donné. Une variable aléatoire est une grandeur qui dépend du
résultat de l’expérience. Mathématiquement, c’est une fonction
X : Ω −→ F
,
ω 7→ X (ω).
Exemples:
Le nombre de piles obtenus sur 100 lancers d’une pièce: F = {0, . . . , 100}.
La distance du point d’atteinte d’une flèche au centre de la cible: F = [0, 15].
La valeur maximale d’un prix d’actif boursier sur un intervalle de temps donné:
F = R+ .
4 MAP
311, Chapitre 2, Section 2.4
Fin de la Leçon 1: Variables aléatoires5 ()
MAP 311 - X2013
/ 35
Enorme intérêt
L’espace F = X (Ω) sera connu et simple (sous-ensemble de R ou de Rd ), et
permettra de faire des calculs.
(Ω est un espace souvent difficile à décrire, voire totalement abstrait.)
Plutôt que de travailler sur l’espace de probabilité (Ω, A, P), on va étudier
les chances de réalisation des valeurs de X .
Notation: Pour B ⊂ F , on note
{X ∈ B}
P(X ∈ B)
= {ω, X (ω) ∈ B} = X −1 (B);
= P({ω, X (ω) ∈ B}).
Remarque: {B, X −1 (B) ∈ A} est une tribu sur F , qui n’est en général pas
égale à P(F ).
Fin de la Leçon 1: Variables aléatoires6 ()
MAP 311 - X2013
/ 35
Théorème
Pour B ⊂ F tel que X −1 (B) ∈ A, on pose:
PX (B) = P(X −1 (B)) = P({ω, X (ω) ∈ B}).
Alors PX est une probabilité sur F = X (Ω).
Définition
La Probabilité PX s’appelle la loi de X.
C’est la mesure image de P par l’application X .
Remarque
PX est beaucoup plus facile à caractériser que P car F est connu dans la
pratique.
Fin de la Leçon 1: Variables aléatoires7 ()
MAP 311 - X2013
/ 35
Exemple
Lancer de deux dés. Ω = {(i, j) : 1 ≤ i ≤ 6; 1 ≤ j ≤ 6}, probabilité uniforme:
1
pour chaque {ω}.
P({ω}) = 36
X = Somme des résultats des deux dés. X : Ω → {2, . . . , 12} définie par
X (i, j) = i + j. Elle a pour loi
PX (B) =
nombre de couples (i, j) tels que i + j ∈ B
.
36
Ainsi,
1
= PX ({12}) = P(X = 12),
36
2
3
, PX ({4}) = PX ({10}) =
,
PX ({3}) = PX ({11}) =
36
36
4
5
PX ({5}) = PX ({9}) =
, PX ({6}) = PX ({8}) =
,
36
36
6
PX ({7}) =
.
36
PX ({2}) = P(X = 2) =
Comportement aléatoire de X décrit par {(xi , pi ), 2 ≤ i ≤ 12}.
Fin de la Leçon 1: Variables aléatoires8 ()
MAP 311 - X2013
/ 35
Fréquences théoriques (en vert) et résultats obtenus (en rouge) pour 100
lancers de dés.
Fin de la Leçon 1: Variables aléatoires9 ()
MAP 311 - X2013
/ 35
Leçon 2
Variables aléatoires sur un espace fini
ou dénombrable10
10 MAP
311, Chapitre 3
Fin de la Leçon 1: Variables aléatoires11 ()
MAP 311 - X2013
/ 35
Ω fini ou dénombrable12
F = X (Ω) = {x1 , . . . , xi , . . .} est dénombrable.
Rappel: Une probabilité sur F est caractérisée par les probabilités de ses
singletons.
Proposition
La loi PX de X est caractérisée par
{(xi , piX ), xi ∈ F }, avec piX = P(X = xi ) = PX ({xi }).
(1)
Important:
La loi PX de X est caractérisée par (1) dès que F = X (Ω) est
dénombrable, (même si Ω ne l’est pas).
En effet, les ensembles {ω, X (ω) = xi } forment une partition de Ω.
12 MAP
311, Chapitre 3, Section 3.2
Fin de la Leçon 1: Variables aléatoires13 ()
MAP 311 - X2013
/ 35
Variables aléatoires discrètes usuelles14
• Ω = {Pile, Face}, p ∈]0, 1[. On pose: X = 1 si Pile, X = 0 si Face.
PX (1) = P(X = 1) = p , PX (0) = 1 − p.
La loi de X est appelée loi de Bernoulli de paramètre p.
• Infinité de lancers indépendants: loi du premier succès.
P(1er pile au k -ième lancer ) = P(FF . . . FP) = p (1 − p)k −1 .
Définition
Une variable géométrique de paramètre p ∈]0, 1[ est une variable à
valeurs dans N∗ telle que ∀k ∈ N∗ ,
P(X = k ) = p (1 − p)k −1 .
14 MAP
311, Chapitre 3, Section 3.5
Fin de la Leçon 1: Variables aléatoires15 ()
MAP 311 - X2013
/ 35
• Variable aléatoire binomiale de paramètres n et p
Sn = nombre de Piles obtenus après n lancers indépendants.
Pn
Sn = i=1 Xi ; Sn (Ω) = {0, · · · , n}.
P(Sn = k ) = P(ω ∈ Ω,
Pn
i=1
Xi (ω) = k ) =
n
k
pk (1 − p)n−k .
Définition
La loi de Sn est appelée loi binomiale de paramètres n ∈ N∗ et p ∈]0, 1[
que l’on note B(n, p).
Fin de la Leçon 1: Variables aléatoires16 ()
MAP 311 - X2013
/ 35
Exemple: un modèle de génétique des populations
Le modèle de Wright-Fisher.
Population de taille N constante.
A chaque génération, l’ancêtre d’un individu est choisi uniformément au
hasard dans la génération précédente.
Nombre d’enfants D d’un individu: loi binomiale B(N, N1 ).
k N−k
1
N
1
P(D = k ) =
1−
.
k
N
N
(On distingue chaque individu).
Les effets des fluctuations
aléatoires de la population: la
dérive génétique.
Fin de la Leçon 1: Variables aléatoires17 ()
MAP 311 - X2013
/ 35
Supposons que N = 100.
Probabilité pour que le nombre d’enfants soit inférieur à 4?
P(X ≤ 4) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4)
P
= 4k =0 100
(0, 01)k (0, 99)100−k = 0, 9964.
k
• Variable aléatoire de Poisson
Modélisation des réalisations d’un événement rare.
Soit B(n, an ) avec nan → θ ∈ R∗+ quand n → +∞.
n
k
n−k
k (an ) (1 − an )
pk (an , n) =
0 si k ≥ n + 1.
Alors on a:
lim pk (an , n) = pk = e−θ
n→∞
Fin de la Leçon 1: Variables aléatoires18 ()
MAP 311 - X2013
θk
,
k!
si
k ≤n
∀k ∈ N.
/ 35
Définition
On appelle variable aléatoire de Poisson de paramètre θ > 0 une v.a. X à
valeurs dans N telle que
P(X = k ) = e−θ
θk
,
k!
∀k ∈ N.
Sa loi est la loi de Poisson de paramètre θ notée P(θ).
Exemple 1 précédent: On peut approcher X (en loi) par une variable aléatoire Z
de loi de Poisson P(1).
Vérifions que l’approximation est très bonne.
k
0
1
2
3
4
Fin de la Leçon 1: Variables aléatoires19 ()
P(X = k )
0,3660
0,3697
0,1848
0,0610
0,0149
P(Z = k )
0,3679
0,3679
0,1839
0,0613
0,0153
MAP 311 - X2013
/ 35
Le processus de Poisson:
Apparitions d’un événement rare au cours du temps.
Probabilité qu’il advienne pendant un intervalle de temps Ih de longueur
h: λh + o(h).
probabilité de deux événements ou plus pendant Ih : o(h).
Indépendance des occurences sur des intervalles de temps disjoints.
Alors N(t) = nombre d’apparitions de l’événement sur [0, t] est une variable
de Poisson de paramètre λt.
Processus de Poisson: t → N(t).
Exemple.
Nombre de crises financières mondiales: processus de Poisson, λ = 1. (Unité de
temps: année).
Probabilité de plus de 2 crises dans les 3 prochaines années:
P(N(3) ≥ 2)
Fin de la Leçon 1: Variables aléatoires20 ()
=
1 − P(N(3) = 0) − P(N(3) = 1)
=
1 − e−3 − 3e−3 = 1 − 4e−3 ' 0, 8.
MAP 311 - X2013
/ 35
Espérance21
Motivation: Donner un résumé quantitatif de la variable aléatoire X .
n observations: X1 , . . . , Xn valeurs successives prises par X .
Moyenne arithmétique:
X1 +...+Xn
.
n
Modèle
Pabstrait:
Mn = ω∈Ω fn ({ω}) X (ω), où fn fréquence empirique.
Définition
Si E(|X |) =
P
ω∈Ω
pω |X (ω)| < +∞, on appelle espérance de X le nombre
E(X ) =
X
pω X (ω).
ω∈Ω
Théorème
Si E(|X |) < +∞,
21 MAP
E(X ) =
P
xi ∈F
xi P(X = xi ).
311, Chapitre 3, Section 3.3
Fin de la Leçon 1: Variables aléatoires22 ()
MAP 311 - X2013
/ 35
L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞.
Propriétés: (immédiates à partir de la définition)
Linéarité: E(aX + bY ) = a E(X ) + b E(Y ).
Si X (ω) = a pour tout ω, alors E(X ) = a.
|E(X )| ≤ E(|X |).
Positivité: Si X ≥ 0, alors E(X ) ≥ 0.
Si X ≤ Y , alors E(X ) ≤ E(Y ).
Si Ω est fini, toutes les variables aléatoires sont dans L1 .
Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et
X (ω) = 0 si ω ∈
/ A.
E(X ) = E(1A ) = P(A).
Fin de la Leçon 1: Variables aléatoires23 ()
MAP 311 - X2013
/ 35
L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞.
Propriétés: (immédiates à partir de la définition)
Linéarité: E(aX + bY ) = a E(X ) + b E(Y ).
Si X (ω) = a pour tout ω, alors E(X ) = a.
|E(X )| ≤ E(|X |).
Positivité: Si X ≥ 0, alors E(X ) ≥ 0.
Si X ≤ Y , alors E(X ) ≤ E(Y ).
Si Ω est fini, toutes les variables aléatoires sont dans L1 .
Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et
X (ω) = 0 si ω ∈
/ A.
E(X ) = E(1A ) = P(A).
23 MAP
311, Section 2.4
Fin de la Leçon 1: Variables aléatoires23 ()
MAP 311 - X2013
/ 35
L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞.
Propriétés: (immédiates à partir de la définition)
Linéarité: E(aX + bY ) = a E(X ) + b E(Y ).
Si X (ω) = a pour tout ω, alors E(X ) = a.
|E(X )| ≤ E(|X |).
Positivité: Si X ≥ 0, alors E(X ) ≥ 0.
Si X ≤ Y , alors E(X ) ≤ E(Y ).
Si Ω est fini, toutes les variables aléatoires sont dans L1 .
Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et
X (ω) = 0 si ω ∈
/ A.
E(X ) = E(1A ) = P(A).
23 MAP
311, Section 2.4
Fin de la Leçon 1: Variables aléatoires23 ()
MAP 311 - X2013
/ 35
L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞.
Propriétés: (immédiates à partir de la définition)
Linéarité: E(aX + bY ) = a E(X ) + b E(Y ).
Si X (ω) = a pour tout ω, alors E(X ) = a.
|E(X )| ≤ E(|X |).
Positivité: Si X ≥ 0, alors E(X ) ≥ 0.
Si X ≤ Y , alors E(X ) ≤ E(Y ).
Si Ω est fini, toutes les variables aléatoires sont dans L1 .
Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et
X (ω) = 0 si ω ∈
/ A.
E(X ) = E(1A ) = P(A).
23 MAP
311, Section 2.4
Fin de la Leçon 1: Variables aléatoires23 ()
MAP 311 - X2013
/ 35
L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞.
Propriétés: (immédiates à partir de la définition)
Linéarité: E(aX + bY ) = a E(X ) + b E(Y ).
Si X (ω) = a pour tout ω, alors E(X ) = a.
|E(X )| ≤ E(|X |).
Positivité: Si X ≥ 0, alors E(X ) ≥ 0.
Si X ≤ Y , alors E(X ) ≤ E(Y ).
Si Ω est fini, toutes les variables aléatoires sont dans L1 .
Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et
X (ω) = 0 si ω ∈
/ A.
E(X ) = E(1A ) = P(A).
23 MAP
311, Section 2.4
Fin de la Leçon 1: Variables aléatoires23 ()
MAP 311 - X2013
/ 35
L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞.
Propriétés: (immédiates à partir de la définition)
Linéarité: E(aX + bY ) = a E(X ) + b E(Y ).
Si X (ω) = a pour tout ω, alors E(X ) = a.
|E(X )| ≤ E(|X |).
Positivité: Si X ≥ 0, alors E(X ) ≥ 0.
Si X ≤ Y , alors E(X ) ≤ E(Y ).
Si Ω est fini, toutes les variables aléatoires sont dans L1 .
Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et
X (ω) = 0 si ω ∈
/ A.
E(X ) = E(1A ) = P(A).
23 MAP
311, Section 2.4
Fin de la Leçon 1: Variables aléatoires23 ()
MAP 311 - X2013
/ 35
L1 est l’espace vectoriel des variables aléatoires X telles que E(|X |) < +∞.
Propriétés: (immédiates à partir de la définition)
Linéarité: E(aX + bY ) = a E(X ) + b E(Y ).
Si X (ω) = a pour tout ω, alors E(X ) = a.
|E(X )| ≤ E(|X |).
Positivité: Si X ≥ 0, alors E(X ) ≥ 0.
Si X ≤ Y , alors E(X ) ≤ E(Y ).
Si Ω est fini, toutes les variables aléatoires sont dans L1 .
Remarque fondamentale: A ⊂ Ω et X = 1A : X (ω) = 1 si ω ∈ A et
X (ω) = 0 si ω ∈
/ A.
E(X ) = E(1A ) = P(A).
23 MAP
311, Section 2.4
Fin de la Leçon 1: Variables aléatoires24 ()
MAP 311 - X2013
/ 35
Théorème
Soit f : F → R, telle que E(|f (X )|) < +∞,
X
E(f (X )) =
f (xi ) P(X = xi ).
xi ∈F
Même preuve que pour l’espérance.
Définition
Supposons que E(X 2 ) < ∞. On appelle Variance de X le nombre positif
Var (X )
= E( (X − E(X ))2 ) = E(X 2 − 2X E(X ) + (E(X ))2 )
X
= E(X 2 ) − (E(X ))2 =
P(X = xi ) xi2 − (E(X ))2 .
xi ∈F
Var (X ) =“Moyenne des carrés - carré des moyennes”.
Fin de la Leçon 1: Variables aléatoires25 ()
MAP 311 - X2013
/ 35
Ecart-type de X
σX =
p
Var (X ).
Exemple: Evolution de deux titres fictifs, l’un très volatil et l’autre peu volatil.
Observations toutes les unités de temps. Les variations sont indépendantes et de
même loi.
Ces deux titres valent 100 au départ, 110 à la fin, ont tous deux une moyenne de
105,52. L’écart type est égal à 16,24 pour le premier et à 1,32 seulement pour le
second.
Fin de la Leçon 1: Variables aléatoires26 ()
MAP 311 - X2013
/ 35
Fonction génératrice
Définition
Pour X variable aléatoire à valeurs dans N, et s ∈ [0, 1],
X
GX (s) = E(sX ) =
pn sn , où pn = P(X = n).
n
Proposition
1) GX continue sur [0, 1], C ∞ sur [0, 1[. Elle caractérise la loi de X .
2) X ∈ L1 ⇐⇒ GX dérivable (à gauche) en s = 1, et
E(X ) = GX0 (1).
3) X (X − 1) . . . (X − p) ∈ L1 ⇐⇒ GX est p + 1 fois dérivable en 1, et
(p+1)
E (X (X − 1) . . . (X − p)) = GX
Fin de la Leçon 1: Variables aléatoires27 ()
MAP 311 - X2013
(1).
/ 35
Calcul de moments
X Variable de Bernoulli: E(X ) = p , Var (X ) = p(1 − p).
X Variable binomiale B(n, p):
GX (s) =
n X
n
k
k =0
pk (1 − p)n−k sk = (1 − p + ps)n
E(X ) = pn ; Var (X ) = np(1 − p).
X Variable de Poisson P(θ):
GX (s)
=
X
k
E(X ) =
Var (X ) =
=
Fin de la Leçon 1: Variables aléatoires28 ()
sk
θk −θ
e = eθ(s−1)
k!
θ ; E(X (X − 1)) = θ2
E(X (X − 1)) + E(X ) − (E(X ))2
θ2 + θ − θ2 = θ.
MAP 311 - X2013
/ 35
Couple de variables aléatoires, cas discret
On veut décrire l’évolution aléatoire conjointe de deux variables aléatoires X
et Y .
Exemple: Z = (X , Y ) décrit le nombre d’années d’études et le nombre de frères et
soeurs de l’aîné d’une famille.
X (Ω) = F ; Y (Ω) = G et Z (Ω) = F × G est dénombrable.
Loi jointe du couple Z = (X , Y ): probabilité PZ sur F × G, caractérisée
par
PZ ({(x, y )}) = P(X = x; Y = y ).
Lois marginales: les lois respectives PX et PY de X et de Y :
PX (x) = P(X = x) =
X
P(X = x; Y = y ) =
y ∈G
PY (y ) = P(Y = y ) =
X
X
PZ (x, y ),
y ∈G
PZ (x, y ).
x∈F
Fin de la Leçon 1: Variables aléatoires29 ()
MAP 311 - X2013
/ 35
Lois conditionnelles30
Définition
xi est fixé tel que PX (xi ) > 0. La loi conditionnelle de Y sachant X = xi est la
probabilité sur G définie pour tout yj par:
PY |X =xi (yj ) = P(Y = yj |X = xi ) =
P(X ,Y ) (xi , yj )
.
PX (xi )
On suppose E(Y ) < ∞. L’espérance conditionnelle de Y sachant X = xi vaut
X
yj PY |X =xi (yj ).
E(Y |X = xi ) =
yj
L’espérance conditionnelle de Y sachant X est définie comme la variable aléatoire
E(Y |X ) = Ψ(X ), définie par Ψ(xi ) = E(Y |X = xi ).
Exercice: Montrer que
30 MAP
E(E(Y |X )) = E(Y ).
311, Chapitre 3, Section 3.6.1
Fin de la Leçon 1: Variables aléatoires31 ()
MAP 311 - X2013
/ 35
Exemple: Invasion et fixation d’un mutant
Deux types: deux allèles A (les
rouges) et a (les jaunes).
Soit Zn = nombre d’individus d’allèle a à la génération n.
j N−j
N
i
i
1−
.
P(Zn+1 = j | Zn = i) =
j
N
N
i
i
i
i
E(Zn+1 | Zn = i) = N
= i ; Var (Zn+1 | Zn = i) = N
1−
=i 1−
.
N
N
N
N
Ainsi,
Zn
E(Zn+1 | Zn ) = Zn ; Var (Zn+1 | Zn ) = Zn 1 −
.
N
On peut montrer (cours MAP 432): Quand le nombre de générations n tend vers
l’infini, la suite (Zn )n tend vers 0 (fixation de A) ou vers N (fixation de a).
Fin de la Leçon 1: Variables aléatoires32 ()
MAP 311 - X2013
/ 35
Variables aléatoires indépendantes33
Définition
Les variables aléatoires sont dites indépendantes si,
∀i, j,
P(X = xi , Y = yj ) = P(X = xi ) P(Y = yj )
⇐⇒ ∀A ⊂ F , ∀B ⊂ G,
P(X ∈ A, Y ∈ B) = P(X ∈ A) P(X ∈ B).
Proposition
Si X et Y sont indépendantes, et si E(|f (X )|) < ∞ et E(|g(Y )|) < ∞, alors
E(f (X )g(Y )) = E(f (X )) E(g(Y )).
Exercice: Montrer que si X et Y sont indépendantes, alors E(Y |X ) = E(Y ).
33 MAP
311, Chapitre 3, section 3.6.3
Fin de la Leçon 1: Variables aléatoires34 ()
MAP 311 - X2013
/ 35
Exemple
Soit M une matrice carrée aléatoire de taille 2 × 2 dont les coefficients Xi,j
sont des variables aléatoires indépendantes, telles que P(Xi,j = ±1) = 12 .
Calculons la variance du déterminant de M.
Fin de la Leçon 1: Variables aléatoires35 ()
MAP 311 - X2013
/ 35
Somme de variables aléatoires indépendantes
Proposition
Soient X et Y des v.a. à valeurs entières, et Z = X + Y . Alors
X
P(Z = i) =
P( (X , Y ) = (j, i − j)).
j
En particulier, si X et Y sont indépendantes,
X
X
P(Z = i) =
P(X = j) P(Y = i − j) =
P(X = i − j) P(Y = j).
j
j
Proposition
Si X et Y indépendantes, alors GX +Y (s) = GX (s) GY (s).
Preuve: Par indépendance,
GX +Y (s) = E(sX sY ) = E(sX ) E(sY ) = GX (s) GY (s).
Fin de la Leçon 1: Variables aléatoires36 ()
MAP 311 - X2013
/ 35
Stabilité par indépendance
1) Somme de n v.a. de Bernoulli de paramètre p indépendantes: v.a.
binomiale B(n, p): G(s) = (1 − p + ps)n .
2) X et Y des v.a. indépendantes de lois de Poisson de paramètres λ, µ.
GX +Y (s) = GX (s)GY (s) = exp(λ(s − 1)) exp(µ(s − 1))
= exp((λ + µ)(s − 1)).
=⇒ X + Y a une loi de Poisson de paramètre λ + µ, car la fonction
génératrice caractérise la loi.
Fin de la Leçon 1: Variables aléatoires37 ()
MAP 311 - X2013
/ 35
Exercice
Peut-on piper deux dés de telle sorte que la somme des points soit
uniformément répartie sur {2, 3, · · · , 12}?
Fin de la Leçon 1: Variables aléatoires38 ()
MAP 311 - X2013
/ 35
POUR EN SAVOIR PLUS · · ·
Fin de la Leçon 1: Variables aléatoires39 ()
MAP 311 - X2013
/ 35
Le processus de Galton-Watson
- Chaque individu d’une génération meurt et laisse place à un nombre
variable d’enfants.
- A chaque instant n, la variable aléatoire Xn désigne la taille de la population
au temps n.
Xn−1
X
X0 = 1 ; Xn =
Yi,n .
i=1
Les (Yi,n )i,n sont indépendantes et de même loi (pk )k ∈N .
Fin de la Leçon 1: Variables aléatoires40 ()
MAP 311 - X2013
/ 35
Extinction et Persistence
On suppose que m = E(Y ) =
P
k ≥1
k pk < +∞.
Fonction génératrice de la loi de reproduction: ∀s ∈ [0, 1],
X
g(s) = E(sY ) =
pk sk ; g(1) = 1 ; g(0) = p0 ; m = g 0 (1).
k
C’est une fonction convexe et croissante.
Soit gn la fonction génératrice de Xn (avec X0 = 1).
On a la relation de récurrence:
gn (s) = gn−1 ◦ g(s) = g ◦ g ◦ . . . ◦ g(s) (n fois).
gn (s)
=
=
Xn
PXn−1
Yi,n
PX
n−1
Yi,n
i=1
=E E s
| Xn−1
E(s ) = E s
Xn−1
E Πi=1
E sYi,n = E [E(sY )]Xn−1 = E [g(s)]Xn−1 = gn−1 ◦ g(s).
Fin de la Leçon 1: Variables aléatoires41 ()
i=1
MAP 311 - X2013
/ 35
Probabilité d’extinction à la génération n : qn = gn (0). On a alors
qn = g(qn−1 ).
C’est une suite définie par récurrence.
Probabilité que la population s’éteigne en temps infini : q = limn→+∞ qn . Elle
satisfait q = g(q).
Deux cas possibles:
m ≤ 1 (cas sous-critique ou
critique): q = 1. Extinction.
m > 1 (cas sur-critique): q < 1.
Persistance avec probabilité
positive.
Fin de la Leçon 1: Variables aléatoires42 ()
MAP 311 - X2013
/ 35
Information et Entropie
X variable aléatoire discrète et pi = P(X = xi ).
Entropie de X sous P:
HP (X ) =
X
pi ln
i
X
1
=−
pi ln pi .
pi
i
HP (X ) ≥ 0 .
HP (X ) = 0 ⇐⇒ X déterministe (X (ω) = x ∈ R).
HP (X ) concave en les (pi )i :
X
i
λi pi ln
1
1
≤ p ln ,
pi
p
De plus , HP (X ) ≤
X
i
dès que
X
λi = 1 , p =
X
i
pi ln
1
,
qi
pour tous qi ≥ 0,
λi pi .
i
X
qi = 1.
i
( On utilise ln x ≤ x − 1).
Fin de la Leçon 1: Variables aléatoires43 ()
MAP 311 - X2013
/ 35
Maximisation entropie sous contrainte
On se donne une fonction de poids w(x) et un nombre m.
On veut maximiser HP (X ) comme fonction de (pi ) sous la contrainte de
moment
P
EP (w(X )) = i pi w(xi ) = m .
P
Idée: on cherche Q telle que EQ (w(X )) = i w(xi ) qi = m.
Prenons
qi =
On a
P
i
−λ w(xi )
w(xi ) e
s(λ)
e−λ w(xi )
,
s(λ)
avec s(λ) =
X
e−λ w(xi ) .
i
0
(λ)
= − ss(λ)
= m.
Supposons qu’il y ait une unique solution à cette équation.
P
P
Alors, i pi ln q1i = i (pi ln s(λ) + λpi w(xi )) = ln s(λ) + λ m ne dépend pas
des pi .
Fin de la Leçon 1: Variables aléatoires44 ()
MAP 311 - X2013
/ 35
P
Ainsi, HQ (X ) = i pi ln q1i est l’unique maximum entropique sous la
contrainte de moment.
La mesure (qi )i∈N s’appelle mesure de Gibbs.
Exemple: w(x) = x, X ∈ N.
P
s(λ) = i∈N e−λ i = 1−e1−λ . Alors
−
s0 (λ)
m
= m ⇐⇒ e−λ =
.
s(λ)
1+m
Nous en déduisons que qi = (1 − e−λ ) e−λ i : (qi )i∈N est la loi géométrique de
m
.
paramètre 1+m
Cela nous donne une autre manière de caractériser la loi géométrique.
Fin de la Leçon 1: Variables aléatoires45 ()
MAP 311 - X2013
/ 35