Upload
hoangdat
View
216
Download
0
Embed Size (px)
Citation preview
Chaînes de Markov
Samy Tindel
Université de Lorraine
Master 1 - Nancy
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 1 / 78
Plan
1 Définition et exemples
2 Propriétés de MarkovTemps d’arrêtPropriétés de Markov
3 Classification des états
4 Théorème ergodique
5 Absorption
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 2 / 78
Plan
1 Définition et exemples
2 Propriétés de MarkovTemps d’arrêtPropriétés de Markov
3 Classification des états
4 Théorème ergodique
5 Absorption
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 3 / 78
Processus à temps discret
Espace de probabilités: (Ω,F ,P).
Espace d’état: E dénombrable (E = N,Z,Zd etc)
Processus: suite de variables aléatoires Xn; n ≥ 0 à valeurs dans E .
Processus et v.a.: On aPour tout n ≥ 0, Xn : (Ω,F)→ (E ,P(E )) variable aléatoire.X : Ω→ EN variable aléatoire.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 4 / 78
Chaîne de Markov
DéfinitionSoit X = Xn; n ≥ 0 processus.
1 X est une chaîne de Markov si
P (Xn+1 = j |X0 = i0, . . . ,Xn = in) = P (Xn+1 = j |Xn = in)
pour tout n ≥ 0, i0, . . . , in, j ∈ E.2 La chaîne de Markov est homogène si on a de plus
P (Xn+1 = j |Xn = i) = P (X1 = j |X0 = i)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 5 / 78
FiltrationFiltration naturelle: on pose pour n ≥ 0
Fn = σ(X0, . . . ,Xn).
La filtration (Fn)n≥0 se nomme filtration naturelle associée à X .
Définition alternative de chaîne de Markov: Pout tout n ≥ 0 et j ∈ E ,
P (Xn+1 = j | Fn) = P (Xn+1 = j |Xn)
ou encore, pour une chaîne homogène:
L (Xn+1| Fn) = p(Xn, ·)
au sens des lois conditionnelles régulières.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 6 / 78
Marche aléatoireDéfinition: SoientZi ; i ≥ 1 v.a. indépendantes de Rademacher→ P(Zi = −1) = P(Zi = 1) = 1/2On pose X0 = 0, et pour n ≥ 1,
Xn =n∑
i=1Zi .
X est appelée marche aléatoire dans Z.
Propriété: X est une chaîne de Markov et
P (Xn+1 = j |Xn = i) =12δi+1(j) +
12δi−1(j).
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 7 / 78
Chaîne homogène
PropositionSoit (Xn)n≥0 chaîne de MarkovAlors (Xn)n≥0 homogène ssi il existe p : E × E → [0, 1] telle que
P (Xn+1 = j |X0 = i0, . . . ,Xn = in) = p(in, j)
pour tout n + 2-uplé (i0, . . . , in, j) ∈ E
Enoncé alternatif de la proposition: Soit (Xn)n≥0 chaîne de MarkovAlors (Xn)n≥0 homogène ssi il existe p : E × E → [0, 1] telle que
P (Xn+1 = j | Fn) = p(Xn, j)
pour tout n ≥ 0 et j ∈ E (lien avec les lois conditionnelles régulières).
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 8 / 78
Notations
Soit X une chaîne de Markov homogène. On note:
Loi initiale: ν0 = L(X0) ou encore ν0(i) = P(X0 = i), i ∈ E
Probabilité de transition: p(i , j) = P(X1 = j |X0 = i), i , j ∈ E
Matrice de transition: p = (p(i , j))i ,j∈E
Loi à l’instant k : νk = L(Xk) ou encore νk(i) = P(Xk = i), i ∈ E
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 9 / 78
Propriété des matrices de transition
PropositionSoit X chaîne de Markov de matrice de transition p.Alors p vérifie
1 Pour tout i , j ∈ E, on a p(i , j) ∈ [0, 1]
2 Pour tout i ∈ E, on a ∑j∈E p(i , j) = 1.On dit que p est une matrice stochastique.
Démonstration:(1) p(i , j) = P(X1 = j |X0 = i) ∈ [0, 1].(2) ∑j∈E p(i , j) =
∑j∈E P(X1 = j |X0 = i) = 1.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 10 / 78
Exemple: marche aléatoire
Rappel: Soit X la marche aléatoire. On a vu: X0 = 0 et
P (Xn+1 = j |Xn = i) =12δi+1(j) +
12δi−1(j).
Donc1 ν0 = δ02 p(i , j) = 1
2δi+1(j) + 12δi−1(j).
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 11 / 78
Exemple: temps à Nancy
Modèle: on choisit E = 1, . . . , 6 := TM,M,AM,AB,B,TB.
Proba de transition: par observation statistique, on a trouvé
0 1 0 0 0 00.4 0.6 0 0 0 00.3 0 0.4 0.2 0.1 00 0 0 0.3 0.7 00 0 0 0.5 0 0.50 0 0 0.8 0 0.2
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 12 / 78
Loi de la chaîne et p
PropositionSoit X chaîne de Markov homogène, de loi initiale ν et transition p.
1 Pour n ∈ N et i0, . . . , in ∈ E,
P (X0 = i0, . . . ,Xn = in) = ν(i0) p(i0, i1) · · · p(in−1, in)
2 La loi de X est caractérisée par ν et p.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 13 / 78
Démonstration
(1) par récurrence: Cas n = 0 trivial.Si on suppose (1) vrai à l’ordre n, alors
P (X0 = i0, . . . ,Xn = in,Xn+1 = in+1)
= P (Xn+1 = in+1|X0 = i0, . . . ,Xn = in, ) P (X0 = i0, . . . ,Xn = in)
= p(in, in+1)× ν(i0) p(i0, i1) · · · p(in−1, in)
= ν(i0) p(i0, i1) · · · p(in, in+1).
(2): Il faut montrer que les lois fini-dimensionnellesengendrent une loi sur (EN,P(E )⊗N)→ Théorème de Kolmogorov.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 14 / 78
Loi de la chaîne et produits de matrice
PropositionSoit X CHMH, de loi initiale ν et transition p. Alors
νn(i) = [ν pn] (i).
Démonstration:
νn(i) = P(Xn = i)=
∑i0,...,in−1∈E
ν(i0) p(i0, i1) · · · p(in−1, i)
= [ν pn] (i).
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 15 / 78
Exemple: temps à Nancy
Modèle: on choisit E = 1, . . . , 6 := TM,M,AM,AB,B,TB.
Prédiction à J+2:
p2 =
0.4 0.6 0 0 0 00.24 0.76 0 0 0 00.12 0.3 0.16 0.19 0.18 0.050 0 0 0.44 0.21 0.350 0 0 0.55 0.35 0.10 0 0 0.4 0.56 0.04
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 16 / 78
Exemple: temps à Nancy (2)
Modèle: on choisit E = 1, . . . , 6 := TM,M,AM,AB,B,TB.
Prédiction à J+28:
p28 =
0.29 0.71 0 0 0 00.29 0.71 0 0 0 00.14 0.36 7.2× 10−12 0.23 0.16 0.100 0 0 0.47 0.33 0.200 0 0 0.47 0.33 0.200 0 0 0.47 0.33 0.20
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 17 / 78
Critère de markovianitéPropositionSoient
Z : Ω→ E variable aléatoire.F ensemble dénombrable.Yn; n ≥ 1 suite i.i.d, avec Y ⊥⊥ Z et Yn ∈ F .f : E × F → E.
On poseX0 = Z , et Xn+1 = f (Xn,Yn+1).
Alors X est une chaîne de Markov homogène telle que
ν0 = L(Z ), et p(i , j) = P (f (i ,Y1) = j) .
Remarque: Il existe une réciproque, mais on ne l’utilisera pas.Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 18 / 78
Démonstration
Sous les hypothèses de la proposition:
P (Xn+1 = j |X0 = i0, . . . ,Xn = in)
= P (f (Xn,Yn+1) = j |X0 = i0, . . . ,Xn = in)
= P (f (in,Yn+1) = j |X0 = i0, . . . ,Xn = in)
= P (f (in,Y1) = j)= p(in, j)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 19 / 78
Exemple: marche aléatoire
Rappel: On a vu que X est défini parZi ; i ≥ 1 v.a. indépendantes de Rademacher→ P(Zi = −1) = P(Zi = 1) = 1/2On pose X0 = 0, et pour n ≥ 1, Xn =
∑ni=1 Zi .
Application du critère:
Xn+1 = f (Xn,Zn+1), avec f : Z× −1, 1 → Z, (x , z) 7→ x + z
et X CHMH avec ν0 = δ0 et
p(i , j) = P (Z1 = j − i) =12δi+1(j) +
12δi−1(j).
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 20 / 78
Familles markoviennes de probabilités
Dépendence par rapport à la loi initiale: on note
Pµ (X0 = i0, . . . ,Xn = in) = µ(i0) p(i0, i1) · · · p(in−1, in)
Eµ [ϕ(X0, . . . ,Xn)] =∑
i0,...,in∈Eϕ(i0, . . . , in)µ(i0) p(i0, i1) · · · p(in−1, in)
Cas de la condition initiale fixe: on note Pδi = Pi . Donc
Pi (X0 = i0, . . . ,Xn = in) = δi(i0) p(i0, i1) · · · p(in−1, in)
Ei [ϕ(X0, . . . ,Xn)] =∑
i1,...,in∈Eϕ(i , i1, . . . , in) p(i , i1) · · · p(in−1, in)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 21 / 78
Relation entre familles markoviennesPropositionSoit X chaîne de Markov de transition p.(i) Soit µ ∈M1(E ) telle que µ(i) 6= 0. On a
Pi (X0 = i0, . . . ,Xn = in) = Pµ (X0 = i0, . . . ,Xn = in|X0 = i)Ei [ϕ(X0, . . . ,Xn)] = Eµ [ϕ(X0, . . . ,Xn)|X0 = i ]
(ii) Soit µ ∈M1(E ). Alors
Pµ (X0 = i0, . . . ,Xn = in) =∑i∈E
µ(i) Pi (X0 = i0, . . . ,Xn = in)
Eµ [ϕ(X0, . . . ,Xn)] =∑i∈E
µ(i) Ei [ϕ(X0, . . . ,Xn)]
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 22 / 78
Démonstration
(i) On part de la définition:
Pµ (X0 = i0, . . . ,Xn = in|X0 = i)
=Pµ (X0 = i0, . . . ,Xn = in,X0 = i)
Pµ (X0 = i)
=µ(i) p(i , i1) · · · p(in−1, in)
µ(i) 1(i0=i)
= p(i , i1) · · · p(in−1, in) 1(i0=i)
= Pi (X0 = i0, . . . ,Xn = in)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 23 / 78
Démonstration (2)
(ii) On utilise l’étape précédente:
Pµ (X0 = i0, . . . ,Xn = in)
=∑i∈E
Pµ (X0 = i0, . . . ,Xn = in|X0 = i) µ(i)
=∑i∈E
Pi (X0 = i0, . . . ,Xn = in) µ(i)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 24 / 78
Plan
1 Définition et exemples
2 Propriétés de MarkovTemps d’arrêtPropriétés de Markov
3 Classification des états
4 Théorème ergodique
5 Absorption
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 25 / 78
Plan
1 Définition et exemples
2 Propriétés de MarkovTemps d’arrêtPropriétés de Markov
3 Classification des états
4 Théorème ergodique
5 Absorption
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 26 / 78
Temps d’arrêt
DéfinitionFiltration: suite de σ-algèbres telles que Fn ⊂ Fn+1.
DéfinitionSoient
T : Ω→ N un temps aléatoire.Fn = σ(X0, . . . ,Xn)
On dit que T est un temps d’arrêt siPour tout n ∈ N, l’ensemble ω; T (ω) = n est Fn-mesurable.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 27 / 78
Temps d’arrêt: interprétation
Définition alternative: T est un temps d’arrêt si→ Pour tout n ∈ N, il existe An ∈ E n+1 tel que
ω; T (ω) = n = ω; (X0(ω), . . . ,Xn(ω)) ∈ An
Donc, si on connaît X0, . . . ,Xn, on sait si T = n ou T 6= n.
Définition alternative 2: Dans la définition de temps d’arrêton peut remplacer ω; T (ω) = n parω; T (ω) ≤ nω; T (ω) > n
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 28 / 78
Propriétés simples des temps d’arrêt
PropositionSoient S et T deux temps d’arrêt. Alors
1 S ∧ T2 S ∨ T
sont des temps d’arrêt.
PropositionSi T est un temps déterministe (T = n presque sûrement)→ alors T est un temps d’arrêt.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 29 / 78
Temps de retour et de visiteTemps de premier retour: Soit j ∈ E . On pose
Rj = inf n ≥ 1; Xn = j ,
temps de premier retour de X en j .
Temps de k ième retour: Soit j ∈ E et k ≥ 2. On pose
Rkj = inf
n ≥ Rk−1
j + 1; Xn = j,
temps de k ième retour de X en j .
Temps de visite: Soit C ⊂ E . On pose
TC = inf n ≥ 0; Xn ∈ C ,
temps de 1ère visite en C .Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 30 / 78
Retours, visites et temps d’arrêtPropositionSoit
X une chaîne de MarkovFn; n ≥ 0 la filtration naturelle
Alors les temps Rj , Rkj et TC sont des temps d’arrêt.
Démonstration:(i) Pour n ≥ 1, on a
Rj = n = X1 6= j , . . . ,Xn−1 6= j ,Xn = j
(ii) Pour n ≥ 1, on aRk
j = n
=
n−1∑l=1
1j(Xl) = k − 1, Xn = j
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 31 / 78
Contre-exemple
Dernier temps de passage: Soit i ∈ E et
Si = sup n ≥ 0; Xn = i .
Alors
Si = 10 = X10 = i ∩ Xn 6= i ; pour tout n ≥ 11
Ceci dépend aussi du futur après n = 10, i.e
Si = 10 6∈ F10.
Donc Si n’est pas un temps d’arrêt.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 32 / 78
Plan
1 Définition et exemples
2 Propriétés de MarkovTemps d’arrêtPropriétés de Markov
3 Classification des états
4 Théorème ergodique
5 Absorption
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 33 / 78
Processus Before et After
Temps de séparation: On considère τ ∈ N.
Processus Before: Soit Bτ = Bτn ; n ≥ 0 défini par
Bτn = Xn∧τ = Xn 1(n≤τ) + Xτ 1(n>τ).
Processus After: Soit Aτ = Aτn; n ≥ 0 défini par
Aτn = Xτ+n.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 34 / 78
Ensembles cylindriques
DéfinitionSoit A ⊂ EN. On dit que A est cylindriques’il existe k ≥ 0 et 0 ≤ n0 < n1 < · · · < nk tels que
A =x ∈ EN; xn0 = i0, . . . , xnk = ik
, pour i0, . . . , ik ∈ E ,
ou plus généralement
A =x ∈ EN; xn0 ∈ E0, . . . , xnk ∈ Ek
, pour E0, . . . ,Ek ⊂ E .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 35 / 78
Propriété de MarkovPropositionSoit
X chaîne de Markov homogène (loi initiale ν0, transition p).τ ∈ N.
Alors
(i) Aτ chaîne de Markov homogène (loi initiale L(Xτ ), transition p).
(ii) Aτ ⊥⊥ Bτ conditionnellement à Xτ , i.e.Pour tous A,B cylindriques et i ∈ E on a
P (Aτ ∈ A, Bτ ∈ B|Xτ = i)= P (Aτ ∈ A|Xτ = i) P (Bτ ∈ B|Xτ = i)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 36 / 78
DémonstrationPoint (i):
P(Aτn+1 = j |Aτ0 = i0, . . . ,Aτn = in
)= P (Xτ+n+1 = j |Xτ = i0, . . . ,Xτ+n = in)
= P (Xτ+n+1 = j |Xτ+n = in) (1)= P
(Aτn+1 = j |Aτn = in
)= p(in, j)
Démonstration de (1): On a
P (Xτ+n+1 = j |Xτ = i0, . . . ,Xτ+n = in)
=P (Xτ = i0, . . . ,Xτ+n = in,Xτ+n+1 = j)
P (Xτ = i0, . . . ,Xτ+n = in):=
ND
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 37 / 78
Démonstration (2)Calcul de N :
N =∑
`0,...,`τ−1∈EP(X0 = `0, . . . ,Xτ−1 = `τ−1,
Xτ = i0, . . . ,Xτ+n = in,Xτ+n+1 = j)=
∑`0,...,`τ−1∈E
P (X0 = `0, . . . ,Xτ−1 = `τ−1,Xτ = i0, . . . ,Xτ+n = in)
× P (Xτ+n+1 = j |Xτ+n = in)
= P (Xτ = i0, . . . ,Xτ+n = in) P (Xτ+n+1 = j |Xτ+n = in)
= D × P (Xτ = i0, . . . ,Xτ+n = in)
Conclusion:
P (Xτ+n+1 = j |Xτ = i0, . . . ,Xτ+n = in) =ND
= P (Xτ+n+1 = j |Xτ+n = in) .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 38 / 78
Démonstration plus élégante de (i)Rappel: Soit (Xn)n≥0 chaîne de MarkovAlors (Xn)n≥0 homogène ssi il existe p : E × E → [0, 1] telle que
P (Xn+1 = j | Fn) = p(Xn, j)
pour tout n ≥ 0 et j ∈ E .
Application:
P(Aτn+1 = j | FAτ
n
)= P (Xτ+n+1 = j |Xτ , . . . ,Xτ+n)
= E P (Xτ+n+1 = j | Fτ+n) |Xτ , . . . ,Xτ+n= E [p(Xτ+n, j)|Xτ , . . . ,Xτ+n]
= p(Xτ+n, j) = p(Aτn, j),
ce qui montre que Aτ est une chaîne homogène de transition p.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 39 / 78
Propriété de Markov forteThéorèmeSoit
X chaîne de Markov homogène (loi initiale ν0, transition p).T temps d’arrêt fini.XT (ω)(ω) =
∑∞n=0 Xn(ω) 1(T (ω)=n).
Alors(i) AT chaîne de Markov homogène, (loi initiale L(XT ), transition p).(ii) AT ⊥⊥ BT conditionnellement à XT , i.e.Pour tous A,B cylindriques et i ∈ E on a
P(AT ∈ A, BT ∈ B|XT = i
)= P
(AT ∈ A|XT = i
)P(BT ∈ B|XT = i
)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 40 / 78
Démonstration
Stratégie: on va montrer que
P(AT
0 = i0, . . . ,ATn = in
)= P(XT = i0) p(i0, i1) · · · p(in−1, in)
Préliminaires: On a1 P
(AT
0 = i0, . . . ,ATn
)=∑∞
k=0 P(T = k ,AT
0 = i0, . . . ,ATn = in
)2 T = k = (X0, . . . ,Xk) ∈ Dk.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 41 / 78
Démonstration (2)Calcul:
P(AT
0 = i0, . . . ,ATn = in
)=∞∑
k=0P(
(X0, . . . ,Xk) ∈ Dk , AT0 = i0, . . . ,AT
n = in)
=∞∑
k=0P ((X0, . . . ,Xk) ∈ Dk , Xk = i0, . . . ,Xk+n = in)
=∞∑
k=0P ((X0, . . . ,Xk) ∈ Dk , Xk = i0)
× P (Xk+1 = i0, . . . ,Xk+n = in| (X0, . . . ,Xk) ∈ Dk , Xk = i0)
=∞∑
k=0P ((X0, . . . ,Xk) ∈ Dk , Xk = i0) p(i0, i1) · · · p(in−1, in)
= P(XT = i0) p(i0, i1) · · · p(in−1, in)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 42 / 78
Cas particuliers d’application
PropositionSoit X chaîne de Markov homogène (loi initiale ν0, transition p).
1 Si T est un temps d’arrêt fini p.s.
P (XT+n = j |XT = i0, . . . ,XT+n−1 = in−1) = p(in−1, j)E [ϕ(XT+n)|XT = i ] = Ei [ϕ(Xn)]
2 Si T = Ti, Ri ou Rki , on a XT = i et
I AT est une chaîne de Markov (loi initiale δi , transition p).I AT ⊥⊥ BT .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 43 / 78
Contre-exempleContexte: On considère
Xn =∑n
i=1 Yi avec Yi i.i.d et Yi ∼ B(1/2)→ X chaine de Markov de transition
p(i , j) =12 1(j=i) +
12 1(j=i+1).
Le temps aléatoire T = supn ≥ 0;Xn = 0→ T <∞ p.s. et XT = 0.
Conclusion: Alors
P (XT+1 = 1|XT = 0) = 1 6= p(0, 1) = P0(X1 = 1).
La condition T temps d’arrêt est donc nécessaire.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 44 / 78
Loi de la chaîne Before
ThéorèmeSoient
X chaîne de Markov homogène (loi initiale ν0, transition p).C ⊂ E et TC = infn ≥ 0; Xn ∈ C
Alors1 BTC chaîne de Markov homogène (loi initiale ν0, transition q)2 On a
q(i , j) = p(i , j) 1Cc (i) + δi(j)1C (i).
Matriciellement:Q =
(P P0 Id
)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 45 / 78
Plan
1 Définition et exemples
2 Propriétés de MarkovTemps d’arrêtPropriétés de Markov
3 Classification des états
4 Théorème ergodique
5 Absorption
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 46 / 78
Accessibilité
Rappel: pour une chaîne de Markov homogène X , on a vu que
Pν (Xn = j) =∑i∈E
ν(i)pn(i , j).
Accessibilité:On dit que j accessible depuis i si
Il existe n ≥ 0 tel que Pi (Xn = j) = pn(i , j) > 0.
Notation: i → j .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 47 / 78
Communication
Communication:Si i → j et j → i , on dira que i et j communiquent.Notation: i ↔ j .
Remarques:1 Les définitions i → j et i ↔ j ne dépendent pas de ν.2 Pour tout i ∈ E , on a i ↔ i car p0(i , i) = 1.3 Si i → j et j → k , alors i → k .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 48 / 78
Graphe associé à une chaîne de Markov
DéfinitionSoit X chaîne de Markov homogène (loi initiale ν0, transition p).On note G(X ) le graphe défini parG(X ) est un graphe orienté.Les sommets de G(X ) sont les points de E .Les arêtes de G(X ) sont définies par l’ensemble
V ≡ (i , j); i 6= j , p(i , j) > 0 .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 49 / 78
Exemple
Définition de la chaîne: Prenons E = 1, 2, 3, 4, 5 et
p =
1/3 0 2/3 0 01/4 1/2 1/4 0 01/2 0 1/2 0 00 0 0 0 10 0 0 2/3 1/3
Graphe associé: au tableau.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 50 / 78
Graphe et accessibilité
PropositionSoit X chaîne de Markov homogène (loi initiale ν0, transition p).Alors
i → j ssi i = j ou il existe un chemin orienté de i à j dans G(X ).
Démonstration: Si i 6= j on a(i → j) ⇔ Il existe n ≥ 1 tel que pn(i , j) > 0⇔ Il existe n ≥ 1 tel que ∑i1,...,in−1∈E p(i , i1) · · · p(in−1, j) > 0⇔ Il existe n ≥ 1 et i1, . . . , in−1 ∈ E tels que p(i , i1) · · · p(in−1, j) > 0⇔ Il existe un chemin orienté de i à j dans G(X )
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 51 / 78
Classes
PropositionSoit X chaîne de Markov homogène (loi initiale ν0, transition p).Alors
1 La relation ↔ est une relation d’équivalence.2 Notons C1, . . . ,Cl les classes d’équivalence dans E pour ↔.
Alors → est une relation d’ordre partiel entre classesi.e. C1 → C2 et C2 → C3 =⇒ C1 → C3.
3 C1 → C2 ssi il existe i ∈ C1 et j ∈ C2 tels que i → j .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 52 / 78
Exemple
Définition de la chaîne: Prenons E = 1, 2, 3, 4, 5 et
p =
1/3 0 2/3 0 01/4 1/2 1/4 0 01/2 0 1/2 0 00 0 0 0 10 0 0 2/3 1/3
Classes associés:C1 = 1, 3, C2 = 2 et C3 = 4, 5.On a C2 → C1
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 53 / 78
Classe minimaleDéfinitionUne classe d’équivalence C est minimale si:
Pour tout i ∈ C et j 6∈ C , on a i 6→ j .
Exemple:Sur l’exemple précédent, on a C1,C3 minimales, et C2 non minimale.
Critères de minimalité:(i) S’il existe une unique classe C , elle est minimale.(ii) Il existe une unique classe minimale C⇔ Il existe une classe C telle que pour tout i ∈ E , on a i → C .
Application: Marche aléatoire.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 54 / 78
Etats récurrents et transitoires
DéfinitionSoient
X chaîne de Markov homogène (loi initiale ν0, transition p).Un élément i ∈ E
Alors1 On dit que i est récurrent si Pi (Ri <∞) = 12 On dit que i est transitoire si Pi (Ri <∞) < 1
Interprétation:Si i est récurrent, en partant de i on est sûr d’y revenir.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 55 / 78
Nombre de passagesPropositionSoient
X chaîne de Markov homogène (loi initiale ν0, transition p).Un élément i ∈ E et
N(i) =∞∑
k=0δi(Xk),
i.e. N(i) est le nombre de passages de X par i .Alors
1 L’état i est récurrent ⇔ N(i) =∞, Pi -presque sûrement.2 L’état i est transitoire ⇔ N(i) <∞, Pi -presque sûrement.
Démonstration: Application de Markov fort.Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 56 / 78
Récurrence et classesThéorèmeSoient
X chaîne de Markov homogène (loi initiale ν0, transition p).C une classe pour la relation ↔.
Alors1 Tous les états de C sont de la même nature (récurrent ou
transitoire).2 S’il existe i ∈ C tel que Ei [Ri ] <∞→ pour tout j ∈ C on a Ej [Rj ] <∞
3 S’il existe i ∈ C tel que Ei [Ri ] <∞→ pour tous j , k ∈ C on a Ej [Rk ] <∞
Démonstration: Application de Markov fort.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 57 / 78
Critères de récurrence
ThéorèmeSoient
X chaîne de Markov homogène (loi initiale ν0, transition p).C une classe pour la relation ↔.
Alors1 Si C n’est pas minimale, elle est transitoire.2 Si C est minimale et |E | <∞, alors
I C est récurrenteI C est récurrente positive: pour tout i ∈ C, Ei [Ri ] <∞.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 58 / 78
Exemple
Définition de la chaîne: Prenons E = 1, 2, 3, 4, 5 (donc |E | <∞)et
p =
1/3 0 2/3 0 01/4 1/2 1/4 0 01/2 0 1/2 0 00 0 0 0 10 0 0 2/3 1/3
Classes associés:C1 = 1, 3, C2 = 2 et C3 = 4, 5.→ C1,C3 minimales, et C2 non minimale.
Conclusion: C1,C3 récurrentes positives, C2 transitoire.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 59 / 78
Plan
1 Définition et exemples
2 Propriétés de MarkovTemps d’arrêtPropriétés de Markov
3 Classification des états
4 Théorème ergodique
5 Absorption
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 60 / 78
Hypothèses du théorème ergodique
On suppose:X chaîne de Markov (loi initiale ν, transition p) telle que(a) Il existe une classe minimale unique C .(b) On a TC <∞, Pν presque sûrement.(c) Pour tout i ∈ C , on a Ei [Ri ] <∞.
Remarque: Si |E | <∞→ (b) et (c) sont toujours vérifiées.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 61 / 78
Théorème limiteThéorèmeSous les hypothèses (a)-(b)-(c), on a
1 Il existe une solution unique de l’équation matricielle dans R1,|E |
→ π = π p et 〈π, 1〉 = 1, ou encore
π(j) =∑i∈E
π(i) p(i , j),∑j∈E
π(j) = 1. (2)
2 Pour toute fonction f : E → R bornée on a
limn→∞
1n
n∑k=1
f (Xk) =∑i∈E
f (i)π(i), Pν − p.s.
3 π(i) = 0 si i 6∈ C et pour i ∈ C on a π(i) = 1Ei [Ri ]
.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 62 / 78
Explications
Point 3: Si on prend f (j) = δi(j), alors le point 2 donne
Proportion du temps passé en i =Nn(i)n −→ π(i).
Intuitivement, proportion du temps passé en i→ Inversement proportionnelle au temps de retour Ri en i .→ π(i) = 1
Ei [Ri ].
Point 2: On s’attend à 1n∑n
k=1 f (Xk) −→ ∑i∈E f (i)π(i), car
1n
n∑k=1
f (Xk) =∑i∈E
f (i)Nn(i)n .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 63 / 78
Explications (2)
Vocabulaire:Si π est solution de (2),
π se nomme mesure de probabilités invariante pour p.Si L(X0) = π, alors L(Xn) = π pour tout n ≥ 1.
Point 1: Notons νk(i) = Pν(Xk = i). AlorsEν [Nn(i)] =
∑nk=1 νk(i).
1n∑n
k=1 νk(i) −→ π(i) par convergence dominée.Donc νn −→ π au sens de Cesaro. Donc
[νn+1 = νnp]n→∞−→ [π = πp] .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 64 / 78
ExempleDéfinition de la chaîne: Prenons E = 1, 2, 3, 4 (donc |E | <∞) et
p =
1/4 1/4 1/4 1/40 0 1 00 1/2 0 1/20 0 1 0
Classes associés:C1 = 1, C2 = 2, 3, 4→ C1 non minimale et C2 minimale.
Conclusion: C2 récurrente positive, C1 transitoire.
Mesure invariante:en résolvant le système π = π p et 〈π, 1〉 = 1, on trouve
π = (0, 1/4, 1/2, 1/4) .
De plus, le théorème ergodique s’applique.Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 65 / 78
Exemple (2)Remarque:• En général, il est plus facile de résoudre le systèmeπ = π p et 〈π, 1〉 = 1 que de calculer Ei [Ri ].• Ici, ce calcul est cependant possible.
Analyse directe: On trouve• E1[R1] =∞ car 1 est transitoire.• E3[R3] = 2 car R3 = 2, P3-p.s.• Pour calculer E2[R2]:
E2[1(R2>2k+2)
]= E2
[1(R2>2k) 1(R2>2k+2)
]= E2
1(R2>2k) EX2k
[1(R2(A2k)>2)
]= E2
1(R2>2k) E4
[1(R2(A2k)>2)
]= E2
[1(R2>2k) p(4, 3) p(3, 4)
]=
12E2
[1(R2>2k)
]On en déduit P2(R2 > 2k) = 1/2k et E2[R2] = 4 = E4[R4].
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 66 / 78
Convergence en loi
ThéorèmeSoit X chaîne de Markov (loi initiale ν, transition p) telle que(a) |E | <∞.(b) Il existe une classe minimale unique C.(c) Une des deux hypothèses est vérifiée:
1 p(i , i) > 0 pour tout i ∈ C.2 Il existe n ≥ 1 tel que pn(i , j) > 0 pour tout i , j ∈ E.
Alors
Xn(d)−→ π, i.e. lim
n→∞νn(i) = π(i), pour tout i ∈ E .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 67 / 78
Plan
1 Définition et exemples
2 Propriétés de MarkovTemps d’arrêtPropriétés de Markov
3 Classification des états
4 Théorème ergodique
5 Absorption
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 68 / 78
Définition, Hypothèse, Notation
DéfinitionSoit X chaîne de Markov (loi initiale ν, transition p).
On dit que i ∈ E est absorbant si p(i , i) = 1On dit que X est absorbante si ses classes minimales sont dessingletons.
Hypothèse de travail: |E | <∞ et X absorbante.
Notation: On décompose E = T ∪ A avec
T = Eléments transitoires , A = Eléments absorbants .
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 69 / 78
Exemple
Définition de la chaîne: Prenons E = 1, 2, 3, 4 (donc |E | <∞) et
p =
1 0 0 01/2 0 1/2 00 1/2 0 1/20 0 0 1
Classes associés:C1 = 1, C2 = 2, 3, C3 = 4→ C1,C3 minimales et C2 non minimale.→ X est absorbante.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 70 / 78
Loi à l’instant n
PropositionSoit X chaîne absorbante avec |E | <∞.On décompose p sur E = T ∪ A en
p =
(Q R0 Id
)
Alors pour n ≥ 1 on a
pn =
(Qn Rn0 Id
), avec Rn =
n−1∑j=0
Qj
R
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 71 / 78
Limite de p
ThéorèmeSoit X chaîne absorbante avec |E | <∞. Alors
1 On a limn→∞Qn = 0 .2 limn→∞ Rn = A avec A stochastique.3 Id− Q inversible et on pose M = (Id− Q)−1.4 On a A = M R.
Résumé:
p∞ =
(0 A0 Id
), avec A = (Id− Q)−1 R := M R
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 72 / 78
DémonstrationPoint 1: Soit ‖ · ‖ la norme sur les matrices de RT×T définie par
‖B‖ = supi∈T
supj∈T|B(i , j)|
Comme T → A, on peut montrer (un peu délicat) que
‖Qn‖ ≤ cβn, avec 0 < β < 1
En particulier, limn→∞Qn = 0.
Autres points: En fait, Qn → 0 exponentiellement. Donc:∑∞j=0 Qj converge vers (Id− Q)−1 := M.
(∑∞
j=0 Qj)R converge vers M R := A.Comme pn est stochastique, A est stochastique.
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 73 / 78
Temps d’absorption
ThéorèmeSoient
X chaîne absorbante avec |E | <∞.A, M et R définies au théorème précédent.TA = infn ≥ 0; Xn ∈ A = temps d’absorption.N(j) = limn→∞ Nn(j) = nombre de passages en j (pour j ∈ T).
Alors1 TA <∞ presque sûrement.2 A(i , j) = Pi(XTA = j) pour i ∈ T et j ∈ A.3 M(i , j) = Ei [N(j)] pour i , j ∈ T.4 Ei [TA] =
∑j∈T M(i , j).
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 74 / 78
DémonstrationPoints 1 et 2: Pour i ∈ T et j ∈ A, on a
pn(i , j) = Pi (Xn = j) = Pi (TA ≤ n, XTA = j)
En passant à la limite n→∞,
A(i , j) = Pi (TA <∞, XTA = j)
De plus, A est stochastique. Donc
1 =∑j∈A
Pi (TA <∞, XTA = j) = Pi (TA <∞)
etA(i , j) = Pi (TA <∞, XTA = j) = Pi (XTA = j)
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 75 / 78
Démonstration (2)
Point 3: On a, pour i , j ∈ T
M(i , j) =∞∑
n=0Qn(i , j) =
∞∑n=0
pn(i , j)
=∞∑
n=0Ei [δj(Xn)] = Ei
[ ∞∑n=0
δj(Xn)
]= Ei [N(j)]
Point 4: On a, pour i ∈ T ,
Ei [TA] = Ei
[ ∞∑n=0
1T (Xn)
]= Ei
∞∑n=0
∑j∈T
δj(Xn)
=∑j∈T
M(i , j).
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 76 / 78
ExempleDéfinition de la chaîne: Prenons E = 1, 2, 3, 4 (donc |E | <∞) et
p =
1 0 0 01/2 0 1/2 00 1/2 0 1/20 0 0 1
Décomposition en T ∪ A:On a T = 2, 3, A = 1, 4 et selon cette décomposition,
p =
0 1/2 1/2 01/2 0 0 1/20 0 1 00 0 0 1
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 77 / 78
Exemple (2)Matrices Q,R : On trouve
Q =
(0 1/21/2 0
), Id− Q =
(1 −1/2−1/2 1
), R =
(1/2 00 1/2
)
Matrices M,A: On a donc
M = [Id− Q]−1 =43
(1 1/21/2 1
), A =
M2 =
23
(1 1/21/2 1
).
Lecture en termes de probabilités: On obtient par exemple
P2 (XTA = 1) = A(2, 1) =23 , P2 (XTA = 4) = A(2, 4) =
13
E2[TA] = M(2, 2) + M(2, 3) = 2
Samy T. (IECL) M1 - Chaînes de Markov Université de Lorraine 78 / 78