processus stochastique univ loraine.pdf

  • Upload
    baraka

  • View
    242

  • Download
    0

Embed Size (px)

Citation preview

  • 7/24/2019 processus stochastique univ loraine.pdf

    1/257

    UNIVERSIT DE LORRAINE

    Olivier GARET

    Probabilits et Processus Stochastiques

    VERSION DE TRAVAIL DU 11 janvier 2016

  • 7/24/2019 processus stochastique univ loraine.pdf

    2/257

    2

  • 7/24/2019 processus stochastique univ loraine.pdf

    3/257

    Table des matires

    Table des matires i

    Table des matires i

    0 Variables de Bernoulli 10.1 La question de lexistence : de[0, 1]{0, 1}N . . . . . . . . . . 10.2 De{0, 1}N [0, 1]: o lon a envie des processus . . . . . . . . 30.3 Ingalits ; lois des grands nombres . . . . . . . . . . . . . . . 40.4 Variables de Rademacher et sries de Dirichlet . . . . . . . . . 6

    0.4.1 Une srie de Dirichlet alatoire . . . . . . . . . . . . . 60.4.2 Comportement au bord . . . . . . . . . . . . . . . . . . 7

    0.5 Exercices sur les variables de Bernoulli . . . . . . . . . . . . . 90.5.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 9

    1 qui-intgrabilit 111.1 Premires proprits . . . . . . . . . . . . . . . . . . . . . . . 111.2 Application la convergence dansLp . . . . . . . . . . . . . . 131.3 Une condition suffisante dqui-intgrabilit . . . . . . . . . . 131.4 Une version du lemme de Scheff . . . . . . . . . . . . . . . . 141.5 Caractrisation par lqui-continuit . . . . . . . . . . . . . . . 141.6 qui-intgrabilit dune famille de lois . . . . . . . . . . . . . 15

    1.7 Exercices sur lqui-intgrabilit . . . . . . . . . . . . . . . . . 161.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 161.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 16

    2 Esprance conditionnelle 192.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.2 construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    2.2.1 Proprits . . . . . . . . . . . . . . . . . . . . . . . . . 232.2.2 Ingalit de Jensen . . . . . . . . . . . . . . . . . . . . 26

    i

  • 7/24/2019 processus stochastique univ loraine.pdf

    4/257

    ii TABLE DES MATIRES

    2.2.3 Esprance conditionnelle sachant une variable (ou un

    vecteur) alatoire . . . . . . . . . . . . . . . . . . . . . 27Le cauchemar des conventions dcriture . . . . . . . . 27Des techniques de calculs utiles . . . . . . . . . . . . . 28

    2.3 Exercices sur lesprance conditionnelle . . . . . . . . . . . . . 312.3.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 312.3.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 31

    3 Martingales 353.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    3.1.1 Filtrations et martingales . . . . . . . . . . . . . . . . 35

    3.1.2 Diffrences de martingales . . . . . . . . . . . . . . . . 363.1.3 Sous-martingales, sur-martingales . . . . . . . . . . . . 363.2 Premires ingalits . . . . . . . . . . . . . . . . . . . . . . . . 37

    3.2.1 Martingales et fonctions convexes . . . . . . . . . . . . 373.2.2 Ingalit de Kolmogorov . . . . . . . . . . . . . . . . . 37

    3.3 Convergence des martingales de carr intgrable . . . . . . . . 383.4 Temps darrts . . . . . . . . . . . . . . . . . . . . . . . . . . 403.5 Convergence des martingales bornes dansL1 . . . . . . . . . 43

    3.5.1 Thorme des traverses montantes . . . . . . . . . . . 433.5.2 Le thorme de convergence de Doob . . . . . . . . . . 45

    3.5.3 Martingales inverses . . . . . . . . . . . . . . . . . . . 463.6 ApproximationL1 par des martingales . . . . . . . . . . . . . 473.7 Dcomposition de Doob (*) . . . . . . . . . . . . . . . . . . . 493.8 Exercices sur les martingales . . . . . . . . . . . . . . . . . . . 51

    3.8.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 513.8.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 53

    4 Complments de thorie de la mesure 574.1 Rappels de topologie . . . . . . . . . . . . . . . . . . . . . . . 57

    4.1.1 Topologie produit . . . . . . . . . . . . . . . . . . . . . 57

    4.1.2 Espaces polonais . . . . . . . . . . . . . . . . . . . . . 584.2 Notion de loi conditionnelle . . . . . . . . . . . . . . . . . . . 614.2.1 Le thorme gnral . . . . . . . . . . . . . . . . . . . 614.2.2 Loi dun vecteur sachant un autre . . . . . . . . . . . . 654.2.3 chantillonneur de Gibbs . . . . . . . . . . . . . . . . 67

    4.3 Thorme de RadonNikodm . . . . . . . . . . . . . . . . . . 704.4 Exercices sur les complments . . . . . . . . . . . . . . . . . . 73

    4.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 734.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 73

  • 7/24/2019 processus stochastique univ loraine.pdf

    5/257

    TABLE DES MATIRES iii

    5 Ingalits 75

    5.1 Ingalit dEfronStein . . . . . . . . . . . . . . . . . . . . . . 755.2 Lingalit de HoeffdingAzuma . . . . . . . . . . . . . . . . . 76

    5.2.1 Le thorme . . . . . . . . . . . . . . . . . . . . . . . . 765.2.2 Principe de Maurey . . . . . . . . . . . . . . . . . . . . 79

    tude dun exemple . . . . . . . . . . . . . . . . . . . . 805.3 Ingalit de Harris . . . . . . . . . . . . . . . . . . . . . . . . 805.4 Exercices sur les ingalits . . . . . . . . . . . . . . . . . . . . 82

    5.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 825.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 83

    6 Statistiques exhaustives 856.1 Hypothse de domination dominante privilgie . . . . . . . 866.2 Thorme de factorisation de Neyman-Fisher . . . . . . . . . . 876.3 Amlioration de Rao-Blackwell . . . . . . . . . . . . . . . . . 916.4 Statistiques exhaustives minimales . . . . . . . . . . . . . . . 916.5 Statistiques compltes . . . . . . . . . . . . . . . . . . . . . . 926.6 Modles exponentiels . . . . . . . . . . . . . . . . . . . . . . . 946.7 Exercices sur les statistiques exhaustives . . . . . . . . . . . . 96

    6.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 966.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 96

    7 Information de Fisher 997.1 Hypothses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 997.2 Ingalit de Cramer-Rao . . . . . . . . . . . . . . . . . . . . . 1017.3 Quelques proprits . . . . . . . . . . . . . . . . . . . . . . . . 102

    7.3.1 Information de Fisher dun produit . . . . . . . . . . . 1027.3.2 Information de Fisher dune statistique . . . . . . . . . 103

    7.4 Exercices sur linformation de Fisher . . . . . . . . . . . . . . 1057.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 1057.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 105

    8 Loi dun processus 1078.1 Loi dun processus . . . . . . . . . . . . . . . . . . . . . . . . 1078.2 Thorme dexistence de Kolmogorov . . . . . . . . . . . . . . 109

    8.2.1 Loi produit infini ; variables indpendantes . . . . . . . 1118.2.2 Loi markovienne . . . . . . . . . . . . . . . . . . . . . 111

    8.3 Processus rels stationnaires (temps discret) . . . . . . . . . . 1128.4 Processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 114

    8.4.1 Caractrisation . . . . . . . . . . . . . . . . . . . . . . 1148.4.2 Condition dexistence . . . . . . . . . . . . . . . . . . . 115

  • 7/24/2019 processus stochastique univ loraine.pdf

    6/257

    iv TABLE DES MATIRES

    8.4.3 Processus gaussiens stationnaires . . . . . . . . . . . . 116

    8.5 Exercices sur les processus . . . . . . . . . . . . . . . . . . . . 1178.5.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 1178.5.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 119

    9 Chanes de Markov 1239.1 Dfinition et caractrisations . . . . . . . . . . . . . . . . . . . 123

    9.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . 1239.1.2 Caractrisation par lesprance conditionnelle . . . . . 1239.1.3 Dynamique markovienne . . . . . . . . . . . . . . . . . 124

    9.2 Matrice stochastique . . . . . . . . . . . . . . . . . . . . . . . 125

    9.2.1 Existence des chanes de Markov . . . . . . . . . . . . 1259.2.2 Point de vue fonctionnel (*) . . . . . . . . . . . . . . . 1279.2.3 Puissances des matrices stochastiques . . . . . . . . . . 1289.2.4 Graphe associ une matrice stochastique . . . . . . . 129

    9.3 Proprit de Markov . . . . . . . . . . . . . . . . . . . . . . . 1319.3.1 Le thorme . . . . . . . . . . . . . . . . . . . . . . . . 1319.3.2 Analyse au premier pas . . . . . . . . . . . . . . . . . . 132

    9.4 Exercices sur les chanes de Markov . . . . . . . . . . . . . . . 1349.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 1349.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 134

    10 Rcurrence et mesures invariantes 14310.1 Temps darrt et proprit de Markov forte . . . . . . . . . . . 14310.2 Classification des tats . . . . . . . . . . . . . . . . . . . . . . 14610.3 Mesures invariantes . . . . . . . . . . . . . . . . . . . . . . . . 14910.4 Thorme de la probabilit stationnaire . . . . . . . . . . . . . 15210.5 Thorme ergodique des chanes de Markov . . . . . . . . . . 155

    10.5.1 Convergence presque sre des frquences empiriques . . 15510.5.2 Frquences empiriques et probabilits invariantes . . . 15610.5.3 Calcul dune mesure invariante partir de la loi des

    trajectoires issues dun point . . . . . . . . . . . . . . . 15910.6 Retour la classification des tats (*) . . . . . . . . . . . . . . 16010.7 Algorithme de Propp et Wilson . . . . . . . . . . . . . . . . . 162

    10.7.1 Loi 0-1 pour lalgorithme de Propp et Wilson . . . . . 16410.7.2 Algorithme de Propp et Wilson pour des dynamiques

    monotones . . . . . . . . . . . . . . . . . . . . . . . . . 16410.8 Exercices sur la rcurrence et les mesures invariantes . . . . . 167

    10.8.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 16710.8.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 169

  • 7/24/2019 processus stochastique univ loraine.pdf

    7/257

    TABLE DES MATIRES v

    A Indications 173

    A.1 Exercices sur les variables de Bernoulli . . . . . . . . . . . . . 173A.2 Exercices sur lqui-intgrabilit . . . . . . . . . . . . . . . . . 173A.3 Exercices sur lesprance conditionnelle . . . . . . . . . . . . . 174A.4 Exercices sur les martingales . . . . . . . . . . . . . . . . . . . 175A.5 Exercices sur les complements . . . . . . . . . . . . . . . . . . 177A.6 Exercices sur les ingalits . . . . . . . . . . . . . . . . . . . . 177A.7 Exercices sur les statistiques exhaustives . . . . . . . . . . . . 178A.8 Exercices sur linformation de Fisher . . . . . . . . . . . . . . 179A.9 Exercices sur les processus . . . . . . . . . . . . . . . . . . . . 180A.10 Exercices sur les chanes de Markov . . . . . . . . . . . . . . . 182

    A.11 Exercices sur la rcurrence et les mesures invariantes . . . . . 184B Solutions des exercices corrigs 187

    B.1 Exercices sur les Bernoulli . . . . . . . . . . . . . . . . . . . . 187B.2 Exercices sur lqui-intgrabilit . . . . . . . . . . . . . . . . . 188B.3 Exercices sur lesprance conditionnelle . . . . . . . . . . . . . 191B.4 Exercices sur les martingales . . . . . . . . . . . . . . . . . . . 195B.5 Exercices sur les complments . . . . . . . . . . . . . . . . . . 201B.6 Exercices sur les ingalits . . . . . . . . . . . . . . . . . . . . 202B.7 Exercices sur les statistiques exhaustives . . . . . . . . . . . . 205B.8 Exercices sur linformation de Fisher . . . . . . . . . . . . . . 206

    B.9 Exercices sur les processus . . . . . . . . . . . . . . . . . . . . 209B.10 Exercices sur les chanes de Markov . . . . . . . . . . . . . . . 215B.11 Exercices sur la rcurrence et les mesures invariantes . . . . . 217

    C Problmes 225C.1 Problme 1 : nombres de Stirling . . . . . . . . . . . . . . . . 225C.2 Problme 2 : thorme dErds, Feller et Pollard . . . . . . . . 227C.3 Problme 3 : thorme de De FinettiHewittSavage . . . . . 228

    D Solutions des problmes 231

    D.1 Solution du problme 1 . . . . . . . . . . . . . . . . . . . . . . 231D.2 Solution du problme 2 . . . . . . . . . . . . . . . . . . . . . . 234D.3 Solution du problme 3 . . . . . . . . . . . . . . . . . . . . . . 240

    Bibliographie 247

    Index 248

  • 7/24/2019 processus stochastique univ loraine.pdf

    8/257

    vi TABLE DES MATIRES

  • 7/24/2019 processus stochastique univ loraine.pdf

    9/257

    Chapitre 0

    La premire gorge de

    processus : les variables deBernoulli

    Le premier processus que nous allons tudie est celui form par unesuite de variables de Bernoulli indpendantes. Cest un modle simple, maissuffisamment riche pour permettre de voir, ou revoir, un certain nombre dequestions importantes de la thorie des probabilits.

    0.1 La question de lexistence : de[0, 1] {0, 1}NLa premire question est la question de lexistence. Est-on capable de fa-

    briquer un espace probabilis(, F, P)sur lequel vivent une suite de variablesindpendantes ? La rponse, positive, est donne par le thorme suivant :

    Thorme 1. Soitg2 un entier naturel fix.On considre lespace probabilis(, F, P) = ([0, 1[, B([0, 1[), [0,1[).Soit g 2 un entier. On pose Xg0 () = . On dfinit les variables Agi

    et Xgi par les rcurrences Xgi =

    {gXgi1

    }et Agi =

    gXi

    . Alors, pour tout

    [0, 1[, on a = X0() =

    +i=0

    Agi ()

    gi+1 avecAgi {0, 1, . . . , g 1}.

    La suite Agi () contient une infinit de termes diffrents de g 1 : cestle dveloppementg-adique de. La suite (Agi )i0 est une suite de variablesalatoires indpendantes suivant la loi uniforme sur{0, . . . , g 1}. En parti-culier, pourg = 2,(Agi )i0est une suite de variables alatoires indpendantesde Bernoulli de paramtre1/2.

    1

  • 7/24/2019 processus stochastique univ loraine.pdf

    10/257

    2 CHAPITRE 0. VARIABLES DE BERNOULLI

    Dmonstration. Par dfinition de la partie fractionnaire, il est immdiat que

    la suite des Xgi prend ses valeurs dans [0, 1[. Comme 0 gXgi < g, il estgalement clair que Agi prend ses valeurs dans{0, . . . , g1}. On a gXi =gXi + {gXi}, soit gXi=Ai+ Xi+1, ou encore Xigi = Aigi+1 + Xi+1gi+1. Ainsi

    ni=j

    Aigi+1

    =n

    i=j

    Xigi

    Xi+1gi+1

    =

    Xjgj

    Xn+1gn+1

    .

    Soit en faisant tendrenvers linfini : Xjgj

    =+

    i=jAi

    gi+1. En particulier, pourj =

    0, on obtient lcriture voulue. Reste voir queAine peut tre constammentgal j 1 partir dun certain rang. En effet, si on avait Ai = g 1pouri > j, on aurait Xj =g

    j+i=j g1gi+1 = 1, ce qui est exclu, car Xj[0, 1[.On va montrer par rcurrence que pour tout n, on a Hn : (A0, . . . , An)et Xn+1sont indpendants (A0, . . . , An)suit la loi uniforme sur{0, . . . , g 1}n+1 Xn+1suit la loi uniforme sur [0, 1].

    Notons dabord que pour tout n1, on a{An1=bn, XnJ}={gXn1= bn, {gXn1} J}

    ={gXn1J+bn}=

    Xn1J+ bng

    Ainsi pour n = 1, on a

    P(A0 = g0, X1J) = P(Xn1 J+ bng

    ) =(J+ bn

    g ) =

    1

    g(J),

    ce qui montre que H0est vraie. Ensuite, on procde par rcurrence : Comme

    {A0 = b0, . . . , An=bn, An+1 = bn+1, Xn+1J}={A0 = b0, . . . , An = bn, XnJ+ bn+1

    g },

    lhypothse de rcurrence nous donneP(A0=b0, . . . , An= bn, An+1 = bn+1, Xn+1J)= P(A0 = b0, . . . , An=bn)P(Xn J+ bn

    g )

    = 1

    gn+1(

    J+ bng

    ) = 1

    gn1

    g(J)

    = 1

    gn+2(J)

  • 7/24/2019 processus stochastique univ loraine.pdf

    11/257

    0.2. DE{0, 1}N [0, 1]: O LON A ENVIE DES PROCESSUS 3

    ce qui montre que lhypothse est vrifie au rang n+ 1.

    Ainsi pour tout n1 (A0, . . . An1)suit la loi uniforme sur {0, . . . , g1}n.Cependant la loi uniforme sur un produit densembles finis, cest le produitdes lois uniformes sur les ensembles fini : les variables (A0, . . . An1)sont desvariables alatoires indpendantes suivant la loi uniforme sur{0, . . . , g 1}.Comme cest vrai pour tout n, la suite (An)n0 est une suite de variablesalatoires suivant la loi uniforme sur{0, . . . , g 1}.

    0.2 De{0, 1}N [0, 1]: o lon a envie des pro-cessus

    La section prcdente nous a dmontr que si un espace tait suffisammentriche pour porter une variable alatoire suivant la loi uniforme sur [0, 1], alorsil supportait une suite de pile ou face indpendantes. Autrement dit, si onsait simuler une variable alatoire suivant la loi uniforme sur [0, 1], on saitsimuler une suite de pile ou face indpendantes. Le thorme qui suit montreque la rciproque est vraie.

    Thorme 2. Soit (, F, P) un espace probabilis et (Yn)n0 une suite devariables de Bernoulli de paramtre 1/2 sur cet espace. Alors, la variablealatoireVdfinie parV = +i=0 Yi2i+1 suit la loi uniforme sur [0, 1]Dmonstration. La convergence de la srie est vidente. Il suffit donc decaractriser la loi deV. Notonsn(x0, . . . , xn) =

    n1i=0

    xi2i+1

    et Vn=n1

    i=0Yi

    2i+1.

    Comme Vn = n((X0, . . . , X n1)), si on note n = ber(1/2)n et nla loi deVn, comme n est la loi de (X0, . . . , X n1), on peut dire que n est la loiimage de npar n.

    Revenons la suite de la section prcdente : si lon pose Sn=n1

    i=0A2i

    2i+1,

    de sorte queSn=n(A20, . . . , Ang ). Commenest la loi de (X0, . . . , X n1), la

    loi de Sn sous [0,1[ est galement n: pour toute fonction continue borne

    [0,1] f(Sn()) d() =

    [0,1] f(x) dn(x).

    Nous savons que Sn() tend vers pour tout [0, 1[. La convergencepresque sre entrane la convergence en loi, donc

    limn+

    [0,1]f(Sn()) d() =

    [0,1]

    f(x) d(x),

    soitlimn+

    [0,1]

    f() dn() =

    [0,1]f(x) d(x),

  • 7/24/2019 processus stochastique univ loraine.pdf

    12/257

    4 CHAPITRE 0. VARIABLES DE BERNOULLI

    Mais comme nest la loi de Vn, on vient de montrer que Vnconverge en loi

    vers U[0, 1]. Comme Vn converge presque srement vers V, Vn converge enloi vers V, donc la loi de Vest la loi uniforme sur [0, 1].

    La preuve est un peu complique. On aurait envie de faire plus court etde dire : daprs le Thorme 1 la loi image de ber(1/2)N par

    x(x) =+i=0

    xi2i+1

    est U[0, 1]. Or, la loi de (Yn)n1 est ber(1/2)N, donc V = ((Xn)n0 estU[0, 1]. Ce genre de raisonnement sera facile avec la notion de loi dun pro-cessus, que nous verrons au chapitre 8.

    Mais ds prsent, nous pouvons en donner comme consquence le rsul-tat suivant :

    Thorme 3.Sur(, F, P) = ([0, 1[, B([0, 1[), [0,1[), on peut faire vivre unesuite de variables indpendantes suivant la loi uniforme sur[0, 1].

    Dmonstration. Il suffit de poser Zj =+

    i=0

    A2(2j+1)2i

    2i et dappliquer conscu-

    tivement les deux thormes prcdents.

    0.3 Ingalits ; lois des grands nombresLes variables de Bernoulli de paramtre 1/2 ont leurs soeurs jumelles :

    les variables de Rademacher qui valent 1 et1 avec probabilit 1/2. AinsiXsuit une loi de Bernoulli de paramtre 1/2si et seulement si Y = 2X 1est une variable de Rademacher.

    Les sommes Bn = X1 +. . . X n et Sn = Y1 + +Yn sont lies parSn = 2Bn n. Ainsi, les (Sn), qui forment une marche alatoire sur Z,sont lies la loi binomiale. On transfre ainsi couramment et facilement lesrsultats de lun vers lautre.

    On sait par exemple que si les (Yi)sont des Rademacher indpendantes,la loi des grands nombres dit queSn = Y1+ + YnvrifieSn/ntend vers 0presque srement. Peut-on faire mieux ? Oui.

    Thorme 4. Soient (Yi)i1 des variables de Rademacher indpendantes.Pour tout >1/2,

    limn+Y1+ + Yn

    n = 0.

    On va sappuyer sur un lemme :

  • 7/24/2019 processus stochastique univ loraine.pdf

    13/257

    0.3. INGALITS ; LOIS DES GRANDS NOMBRES 5

    Lemme 1. Soient (Yi)i1 des variables de Rademacher indpendantes. On

    poseSn=Y1+ + Yn. Alors pour toutx >0 et toutn0 :P(|Sn ESn|> x)2exp

    x

    2

    2n

    .

    Dmonstration. Rappelons lingalit de Hoeffding (voir par exemple GaretKurtzmann, page 346)

    Proposition 1. Soit(Xn)nune suite de variables alatoires relles indpen-dantes. Supposons quil existe deux suites de rels (an)n0 et (bn)n0 tellesque, pour toutn0, an< bn et

    P(anXnbn) = 1.PosonsSn=X1+ . . .+ Xn. On a alors pour toutx >0 et toutn0 :

    P(|Sn ESn|> x)2 exp 2x

    2ni=1(bi ai)2

    .

    Ici, on peut prendre les bornes an=1et bn= 1, ce qui nous donne

    P(|Sn|> x)2exp(2x2

    4n).

    On verra plus loin au chapitre 5 une forme plus gnrale de lingalit deHoeffding, qui sapplique certaines variables dpendantes.

    Mais pour lheure, si on ne veut pas admettre lingalit de Hoeffding, ilest possible, dans ce cas particulier, de donner une preuve plus simple : ona, pour tout >0

    P(|Sn|> x)2P(Sn> x)2P(eSn > ex)2 EeSn

    ex =

    (Eec1)n

    ex .

    On a

    Eec1 = cosh =+

    k=02k

    (2k)!

    +

    k=02k

    2kk!= exp(

    2

    2),

    doP(|Sn|> x)2exp(fn,x())avec fn,x() =x n

    2

    2 .

    Il faut videmment rendrefn,x()maximal, ce qui est facile puisque cest unpolynme du second degr : on prend = x/n, do

    P(|Sn|> x)2 exp( x2

    2n).

  • 7/24/2019 processus stochastique univ loraine.pdf

    14/257

    6 CHAPITRE 0. VARIABLES DE BERNOULLI

    On peut maintenant passer la preuve du thorme :

    Dmonstration. Daprs le lemme,

    P(|Sn|> n1/2+)2exp(n2

    2 ).

    La srie de terme gnral exp(n22

    )converge (par exemple parce que n2

    2

    2log npournassez grand), donc daprs le lemme de Borel-Cantelli, presquesrement |Sn| n1/2+ pournassez grand, ce qui donne le rsultat voulu.

    0.4 Variables de Rademacher et sries de Di-richlet

    0.4.1 Une srie de Dirichlet alatoire

    Thorme 5. Soit (cn)n1 une suite de variables alatoires indpendantesidentiquement distribues avecP(cn = 1) = P(cn =1) = 12 . Alors la sriede terme gnral cn

    nsconverge presque srement pours > 1

    2.

    Dmonstration. Il sagit de mettre ensemble deux rsultats : un rsultat danalyse sur les sries de Dirichlet : si les sommes partiellessn =

    nk=1 ckvrifientsn= O(n

    )pour un certain0, alors la sriede Dirichet

    cnns

    converge pour s > . 1

    un rsultat de probabilit : dans le cas qui nous intresse, on a presquesrementsn=O(n1/2+)pour tout >0.

    Le rsultat de probabilit a t montr plus haut. Il ny a plus qu montrer lersultat danalyse : On va montrer que la srie de terme gnral ck

    k+ converge

    ds que M= supn1 |snn|< +.n

    k=1

    ckk+ =

    nk=1

    (sk sk1) 1

    k+

    =n

    k=1

    sk1

    k+

    n1k=0

    sk1

    (k+ 1)+

    = snn+

    +n1k=1

    sk( 1

    k+ 1

    (k+ 1)+)

    1. Vous avez sans doute dj rencontr le cas o = 0et cn= ein avec non congru0 modulo 2.

  • 7/24/2019 processus stochastique univ loraine.pdf

    15/257

    0.4. VARIABLES DE RADEMACHER ET SRIES DE DIRICHLET 7

    Commelimn

    +

    snn+

    = 0, la srie de terme gnral ckk+

    est de mme nature

    que la srie de terme gnralsk( 1k+ 1(k+1)+ ). Montrons que cette dernireconverge absolument. Daprs lingalit des accroissements finis, on a

    | 1k+

    1(k+ 1)+

    | + k++1

    .

    Comme|sk| M k, on a alors

    |sk( 1k+

    1(k+ 1)+

    )| M(+ )k1+

    ,

    ce qui assure la convergence voulue.

    Remarquons que si on connait la thorie des sries de variables alatoiresindpendantes, on a une preuve beaucoup plus rapide, qui nutilise pas latransformation dAbel : les variables cn

    nssont centres, et le terme gnral de la

    srie des variances est 14n2s

    , qui converge pours >1/2, donc la srie convergepresque srement (et aussi dans L2). Voir par exemple GaretKurtzmann,page 344.

    Remarque culturelle : notons (n) la fonction de Moebius, dfinie par(n) = (1)k si nest le produit de k nombre premiers distincts, 0sinon. sivous parvenez dmontrer que pour la suite cn= (n), on a sn = O(n1/2+)

    pour tout >0, et donc que la srie des

    (n)

    ns converge pours >1/2, alors vousavez dmontr un rsultat quivalent la fameuse conjecture de Riemann :les zros non-triviaux de la fonction de Riemann sont tous de partie relle1/2. Pour voir que cette proprit entrane la conjecture de Riemann, voirpar exemple Colmez, pages 319-320.

    0.4.2 Comportement au bord

    Thorme 6. Soit (cn)n1 une suite de variables alatoires indpendantesidentiquement distribues avecP(cn = 1) = P(cn =1) = 12 On pose, pours >1/2, (s) = +n=0 cnns . Alors, on a la convergence en loi

    2h(

    1

    2+h) = N(0, 1) quandhtend vers0par valeurs positives

    Dmonstration. Posons SN(s) =N

    n=0cnns

    . La fonction caractristique deSN(s) vaut t Nn=0cos( tns ). Comme eitSn(s) converge presque srementvers eit

    (s), le thorme de convergence domine nous donne

    (s)(t) =+n=0

    cos( t

    ns),

  • 7/24/2019 processus stochastique univ loraine.pdf

    16/257

    8 CHAPITRE 0. VARIABLES DE BERNOULLI

    do

    (1/2+h)(1+2h)

    (t) =+

    n=0

    cos( t(1 + 2h)1/2

    n1/2+h )

    Par ailleurs

    exp(t2

    2) =

    +n=0

    exp(t2

    2

    (1 + 2h)1

    n1+2h )

    On en dduit

    | (1/2+h)(1+2h)

    (t)exp(t2

    2)|

    +

    n=0| cos( t(1 + 2h)

    1/2

    n1/2+h )exp(t

    2

    2

    (1 + 2h)1

    n1+2h )|.

    Mais il existe Atel que pour tout rel x| cos(x) exp(x22)| Ax4. On en

    dduit pour h]0, 1]:

    | (1/2+h)(1+2h)

    (t) exp(t2

    2)| At

    2

    (2 + 2h)(1 + 2h)2 At

    2

    (4)(1 + 2h)2.

    Il est bien connu que (1 +h) h1 au voisinage de 0 : on en dduit laconvergence de (1/2+h)

    (1+2h)

    (t) vers exp( t22), et donc, daprs le thorme de

    Levy, la convergence en loi de (1/2+h)

    (1+2h)vers

    N(0, 1), puis, avec lquivalent

    (1 + 2h)(2h)1, la convergence en loi voulue.Donnons une preuve courte de lquivalent (1 +h) h1 au voisinage

    de 0: avec lingalit des accoissements finis, on a, pour h >0

    |+k=1

    1

    k1+h

    +k=1

    k+1k

    1

    t1+h dt|

    +k=1

    1

    k2+h (2),

    do(1 + h) =

    1

    h+ O(1).

  • 7/24/2019 processus stochastique univ loraine.pdf

    17/257

    0.5. EXERCICES SUR LES VARIABLES DE BERNOULLI 9

    0.5 Exercices sur les variables de Bernoulli

    0.5.1 Exercices corrigs

    Exercice 1. Considrons une suite (n)n1 de variables alatoires indpen-dantes suivant la loi de Bernoulli de paramtre p ]0, 1[. Soit X la variablealatoire dfinie par :

    X=

    n=1

    n2n

    On notepla loi deX. Pour quelle(s) valeur(s) dep la variableXadmet-elleune densit par-rapport la mesure de Lebesgue ? lien vers lindication lien

    vers la solution

  • 7/24/2019 processus stochastique univ loraine.pdf

    18/257

    10 CHAPITRE 0. VARIABLES DE BERNOULLI

  • 7/24/2019 processus stochastique univ loraine.pdf

    19/257

    Chapitre 1

    qui-intgrabilit

    Dfinition.On dit quune familleAde variables alatoires dfinies sur les-pace probabilis(, F, P)est qui-intgrable (ou uniformment intgrable) si

    limM+supXAE[|X| 1{|X|M}] = 0.

    1.1 Premires proprits

    Remarque 1. Une famille constitue dune seule variable intgrable

    est qui-intgrable. La runion de deux familles qui-intgrables est qui-intgrable. Parsuite une famille finie de variables intgrables est qui-intgrable.

    Une famille qui-intgrable est toujours borne dansL1.En effet, si Mest choisi tel que supXAE[|X| 1{|X|M}] 1, alorscomme|X| M +|X| 1{|X|M}, on a E[|X|] M + 1 pour toutX A.

    Si la familleA est qui-intgrable et que pour tout Y B, il existeX Aavec|Y| |X|, alors la familleB est qui-intgrable.

    Si la familleA est qui-intgrable, la famille(max(|X|, |Y|))(X,Y)A2est qui-intgrable.En effet,max(|X|, |Y|) 1{max(|X|,|Y|})M} |X| 1{|X|M}+|Y| 1{|Y|M}entrane

    E[max(|X|, |Y|) 1{max(|X|,|Y|})M}] E[|X| 1{|X|M}]+E[|Y| 1{|Y|M}].

    Par suite, si la familleAest qui-intgrable, la famille(X+Y)(X,Y)A2est qui-intgrable.En effet, il suffit de remarquer que|X+ Y| 2max(|X|, |Y|)et dap-pliquer les remarques prcdentes.

    11

  • 7/24/2019 processus stochastique univ loraine.pdf

    20/257

    12 CHAPITRE 1. QUI-INTGRABILIT

    Le rsultat principal est le suivant.

    Thorme 7. Soit(Xn)n1une suite qui-intgrable de variables alatoires.On suppose queXnconverge en loi versXlorsquentend vers linfini. AlorsXest intgrable et la suite(EXn)n1 converge versEX.

    Pour ce rsultat, on va avoir besoin dun lemme intermdiaire.

    Lemme 2. Si(Xn)n1converge en loi versX, alorsE|X| limn+E|Xn|.Dmonstration. Comme|Xn| converge en loi vers|X|, on peut se ramenerau cas o les variables Xnsont positives. On a pour tout n,

    EXn =

    [0,+[ P(Xn> t) d(t).

    On sait que P(Xn > t)converge vers P(X > t)en tous les points de continuitdeFX. Or les points de discontinuit deFXsont au plus dnombrables, doncP(Xn> t)converge-presque partout vers P(X > t). On peut donc appliquerle lemme de Fatou

    EX=

    [0,+[P(X > t) d(t) =

    [0,+[

    limn+P(Xn > t) d(t)

    limn+

    [0,+[P(Xn> t) d(t)

    = limn+EXn.

    Remarque 2.Certains auteurs invoquent ce thorme sous le nom de lemmede Fatou.

    On peut maintenant passer la dmonstration du thorme.

    Dmonstration du thorme 7. Daprs le lemme Xest intgrable, donc {Xn; n1} {X}est qui-intgrable. tant fix, on peut trouver Mtel que

    supn

    1E[Xn 1{

    Xn

    M}]

    et E[X1{

    X

    M}]

    . (1.1)

    Notons que

    E[Xn] = E[Xn M] + E[(Xn M)1{XnM}]et E[X] = E[X M] + E[(X M)1{XM}].

    Comme 0(Xn M)1{XnM}Xn1{XnM} et0(X M)1{XM}X1{XM}, on en dduit que

    |E[Xn] E[X]| |E[Xn M] E[X M]| + .

  • 7/24/2019 processus stochastique univ loraine.pdf

    21/257

    1.2. APPLICATION LA CONVERGENCE DANSLP 13

    Mais la fonctionx

    x

    Mest continue borne surR+, donc, par dfinition

    de la convergence en loi limn+E[Xn M] = E[X M], dolimn+|E[Xn] E[X]| ,

    et comme est quelconque, limn+|E[Xn] E[X]| = 0, ce qui donne lersultat voulu.

    Remarque 3. On pourrait dvelopper la notion dqui-intgrabilit sur unespace mesur (pas ncessairement un espace probabilis) en disant que(fn)est qui-intgrable si

    limM+

    supn1 |fn| 1{|fn|M} d= 0.

    Dans ce cas, le theorme 7 sappelle thorme de Vitali. Mais ce cadre estbeaucoup moins intressant car la convergence presque partout jointe lqui-intgrabilit nimplique pas la convergence des intgrales.

    Exemple: On prend pour la mesure de Lebesgue et fn = 1n1[n,2n]. PourM > 1, on a supn1

    |fn| 1{|fn|M} d = 0 et fn converge partout vers 0.Cependant, lintgrale de fnest constante gale 1.

    1.2 Application la convergence dansLp

    Corollaire 1.Soit(Xn)n1une suite de variables alatoires. On suppose queXn converge en probabilit versX lorsquen tend vers linfini. Si la famille(|Xn|p)n1 est qui-intgrable, alorsXLp etXnconverge dansLp versX.Dmonstration. Si Xn converge en probabilit vers X, alors la suite (Yn)dfinie par Yn =|Xn X|p converge en probabilit, donc en loi, vers 0. Lasuite|Xn|p est qui-intgrable, donc|X|p est intgrable, soit XLp.Il reste voir que (Yn)est qui-intgrable, ce qui dcoule de lingalitYn2p max(|Xn|p, |X|p) et des remarques faites plus haut. Il suffit alorsdappliquer le thorme la suite (Yn)n

    1.

    1.3 Une condition suffisante dqui-intgrabilit

    La manire la plus simple de montrer lqui-intgrabilit dune famille estde montrer sa bornitude dans Lp pour un certain p >1.En effet si E[|X|p]Cpour tout X A, on a pour tout X A,

    E[|X|1{|X|M}] E[|X|p

    Mp11{XM}] E[|X|

    p]

    Mp1 C

    Mp1.

  • 7/24/2019 processus stochastique univ loraine.pdf

    22/257

    14 CHAPITRE 1. QUI-INTGRABILIT

    Ainsi, si (Xn)n1converge en probabilit vers Xet que la suite (Xn)n1 est

    borne dansLq, on sait que Xnconverge vers XdansLp pour p < q.

    1.4 Une version du lemme de Scheff

    On dit parfois que lqui-intgrabilit est ce qui manque la convergencepresque sre pour avoir la convergence L1. Le thorme suivant prcise (etrenforce) cet nonc.

    Thorme 8. Soit (Xn)n1 une suite de variables alatoires positives, in-tgrables, convergeant en loi vers une variable alatoire X intgrable. Onsuppose queEXn tend versEX. Alors les variables alatoires(Xn)n1 sontuniformment intgrables.

    Dmonstration. Comme

    E[X 1{XM}] = E[X]

    [0,M]P(t < X < M) d(t)

    est vraie pour toute variable alatoire positive X, on a la convergence deE[Xn 1{XnM}] vers E[X 1{XM}] si M est un point de continuit de X.On peut trouver M tel que E[X 1

    {X

    M

    }] < . Si Mnest pas un point de

    continuit de FX, on le remplace par un point de continuit M de FX telque M M. Pour n0 assez grand, on a E[Xn 1{XnM}] < pour nn0.Comme la famille finieX1, . . . , X n01est qui-intgrable, il existeM

    tel queE[Xn 1{XnM}]< pour tout n < n0.Ainsi si on prend M1 = max(M, M), on a E[Xn 1{XnM1}]< pour toutn1.

    1.5 Caractrisation par lqui-continuit

    Thorme 9. La familleAde variables alatoires dfinies sur lespace pro-babilis(, F, P)est qui-intgrable si et seulement si elle est borne dansL1et vrifie

    lim0sup XAAF:P(A)

    E[|X| 1A] = 0.

    Dmonstration. On a dj vu quune famille qui-intgrable est borne. Main-tenant Pour tout A F,X Aet M >0, on a

    |X|1A |X|1{|X|M}+M1A.

  • 7/24/2019 processus stochastique univ loraine.pdf

    23/257

    1.6. QUI-INTGRABILIT DUNE FAMILLE DE LOIS 15

    Fixons >0. Lhypothse dqui-intgrabilit nous dit quon peut trouver M

    tel que pour tout X A E[|X|1{|X|M}]/2. Maintenant, pour 2M,pour tout X A,P(A) entrane

    E[|X|1A] E[|X|1{|X|M}] +MP(A).Rciproquement, supposons que la familleAest borne dansL1 et vrifie

    lim0sup XAAF:P(A)

    E[|X| 1A] = 0.

    Soit > 0. On peut trouver > 0tel que pour tout X A, P(A) entrane E[|X|1A] . Maintenant, si M supXAE[|X|] , si je pose A ={|X| M}, on a P(A) E[|X|]M , donc

    E[|X|1{|X|M}] = E[|X|1A].

    1.6 qui-intgrabilit dune famille de lois

    Dans ce qui prcde, lqui-intgrabilit a t prsent comme une pro-prit dune famille de variables alatoires dfinies sur un mme espace pro-

    babilis (, F,P

    ). Cependant, si on convient de dire quune familleM demesures de probabilits surR est qui-intgrable si et seulement

    limM+supA

    R\[M,M]|x|d= 0,

    on voit sans peine quune familleAde variables alatoires sur (, F, P)estqui-intgrable si et seulement la familleM={PX; X A}.

    Ainsi, lqui-intgrabilit est essentiellement une notion qui concerne leslois. En particulier, lqui-intgrabilit dune famille de variables alatoiresne dpend que de la famille des lois individuelles, pas des lois jointes.

    Un grand nombre de remarques faites pour les familles de variables qui-

    intgrables sadaptent donc sans douleur aux familles de lois qui-intgrables.En particulier le thorme 7 admet la variante suivante :

    Thorme 10. Soit(n)n1 une suite qui-intgrable de mesures de proba-bilit sur R. On suppose quen converge en loi vers lorsque n tend verslinfini. Alors

    R |x| d(x) < +et la suite(

    R x dn(x))n1 converge vers

    R x d(x).

    On applique parfois ce thorme des suites de variables alatoires quine sont pas toutes dfinies sur le mme espace de probabilit.

  • 7/24/2019 processus stochastique univ loraine.pdf

    24/257

    16 CHAPITRE 1. QUI-INTGRABILIT

    1.7 Exercices sur lqui-intgrabilit

    1.7.1 Exercices corrigs

    Exercice 2. Soit (Xn)une suite de variables alatoires positives avec

    supn1

    E[Xnlog(1 +Xn)]< +.

    Montrer que cette famille est qui-intgrable. lien vers lindication lien versla solution

    Exercice 3. Soient(X1, X2, . . . , X n)une suite de v-a i.i.dU

    [0, 1].SoitZn =ni=1Xini=1

    X2i. Le but de lexercice est de montrer que Zn converge presque sre-

    ment et dans L1 vers 32.

    1. Montrer la convergence presque sre.

    2. Soit Nun entier naturel. On pose QN = (N

    i=1 X2i)

    2. Montrer quepour tout nN, on a

    Z2n144 +n2QN1{Nn

  • 7/24/2019 processus stochastique univ loraine.pdf

    25/257

    1.7. EXERCICES SUR LQUI-INTGRABILIT 17

    Exercice 7. Soient pet qpositifs des exposants conjugus, cest dire que

    1/p+ 1/q= 1. Montrer que si (Xn)n1 est borne dans Lp et que (|Yn|q)n1est qui-intgrable, alors la suite(XnYn)n1est qui-intgrable. lien vers lin-dication

    Exercice 8. Soient (Xn)n1 une suite qui-intgrable et (Un) une suite devariables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On sup-pose de plus que(Un)n1est indpendante de(Xn)n1. Pour]0, 1], on poseN = inf{n1; Un }, puis Z = XN . Montrer que la famille (Z)]0,1]est qui-intgrable. lien vers lindication

    Exercice 9.Soit(Xn)une suite de variables alatoires positives. On suppose

    quil existe une variable alatoire intgrable Xtelle que

    n1 t >0 P(Xn> t) P(X > t).

    Montrer que (Xn)n1est qui-intgrable. lien vers lindication

  • 7/24/2019 processus stochastique univ loraine.pdf

    26/257

    18 CHAPITRE 1. QUI-INTGRABILIT

  • 7/24/2019 processus stochastique univ loraine.pdf

    27/257

    Chapitre 2

    Esprance conditionnelle

    2.1 Motivation

    Soient(, F, P)un espace probabilis ;A1, . . . , ANune partition de etXune variable alatoire intgrable sur , F, P). SoitA la tribu engendrepar la partition{A1, . . . , AN}.

    On sintresse aux expressions de la forme EX1A, o A A.Tout dabord, on va remarquer quil existe une correspondance entreA

    etP({1, . . . , N }: tout lment A Apeut scrire

    A=iBAi,pour un certain B P({1, . . . , N }).

    On a alors

    E(X1A) = E

    X

    Ni=1

    1iB1Ai

    =

    Ni=1

    E(1iBX1Ai) =N

    i=1

    1iBEX1Ai

    Maintenant posons

    X =N

    j=1

    1Ai

    EX1Aj

    P(Aj)

    .

    En remplaant dans la formule prcdente, on obtient

    EX1A =N

    i=1

    1iBEX1Ai

    Mais

    EX1Ai =N

    j=1

    EX1AjP(Aj)

    E1Ai1Aj = EX1Ai.

    19

  • 7/24/2019 processus stochastique univ loraine.pdf

    28/257

    20 CHAPITRE 2. ESPRANCE CONDITIONNELLE

    Il sensuit que pour tout A

    A, on a

    EX1A = EX1A (2.1)

    Ce qui est intressant ici, cest que X a une proprit que Xna pas engnral : en effet, X estA-mesurable (car cest une combinaison linairedindicatrices dlments deA).

    SiXest une variable alatoireA-mesurable et telle que (2.1) est vrifie,on dit que X est une esprance conditionnelle de Xpar rapport la tribuA.

    Nous savons donc construire des esprances conditionnelles par rapport des tribus finies. Le but de ce chapitre est de traiter le cas gnral et de

    donner les premires proprits de ces objets.

    2.2 construction

    Lemme 3. SoientXetYdes variables alatoires intgrables et mesurablespar rapport une tribuA. On suppose que pour toutA A, on a

    EX1A EY1A (2.2)alorsXY Ppresque srement.Dmonstration. On pose A={X > Y}On a

    EX1A EY1A.Ainsi E(X Y)1A0. Mais(X Y)1Aest positive, donc(X Y)1A= 0presque srement. AinsiP({X =Y} Ac) = 1, do P(Ac) = 1.

    Ainsi, si X et Y sont des esprances conditionnelles de X et Y parrapport la mme tribu, on voit que XYpresque srement entrane queXY presque srement.

    Cela a deux consquences faciles, mais importantes : dune part, on voit

    que lesprance conditionnelle est unique, un ngligeable prs. Dautre part,on voit que lesprance conditionnelle prserve lordre, en particulier lesp-rance conditionnelle dune variable (presque srement) positive est (presquesrement) positive.

    Soit(, F, P)un espace probabilis ;Aune sous-tribu deF. NotonsV1 =L1(, F, P),V2 =L2(, F, P)et H=L2(, A, P).

    Ici, il convient de noter que les lments V1 et V2 sont des classes defonctions :Lp(, F, P)est le quotient deLp(, F, P)par la relation dgalitpresque sre.

  • 7/24/2019 processus stochastique univ loraine.pdf

    29/257

    2.2. CONSTRUCTION 21

    AinsiV2est un espace de Hilbert dont Hest un sous-espace ferm.

    On a xV2 Ex=x, 1,o 1reprsente la classe de la fonction constante gale 1.

    Notons Pla projection orthogonale de V2sur H: par dfinition on a

    fV2gH f P f , g= 0.En particulier si A A, 1AH, et donc

    f

    V2

    f

    P f, 1A

    = 0, (2.3)

    soitf, 1A=P f, 1A, soit

    Ef1A= EP f1A.

    En particulierEf= EP f. (2.4)

    Lquation (2.3) dit que P fest un bon candidat pour tre lespranceconditionnelle. Les proprits de positivit voques plus haut sont galementvrifies, mais il faut tre un peu soigneux car lon travaille ici avec des classes

    de fonctions gales presque partout, non avec des fonctions.Rappelons quelques proprits simples : si F et G sont deux fonctionsmesurables qui sont gales presque partout, alors pour tout borlien A lesensembles F1(A) ={F A} et G1(A) ={G A} sont gaux unngligeable prs : cela signifie que

    P(F1(A)G1(A)) = 0.

    En effet{F A}{GA} {F=G},

    donc P({

    F

    A}

    {

    G

    A}

    )

    P(F=G) = 0. Ainsi

    |1{FA} 1{GA}|= 1{FA}{GA}= 0 Pp.s.

    ce qui signifie que 1{FA} et 1{GA} ont la mme classe dans Lp (avec pquelconque).

    Ainsi, si f Lp, il est licite de noter 1{fA} la classe de lindicatrice de{F A}, o Fest un reprsentant quelconque de la classe f.

    On peut ainsi parler des lments positifs de Lp : ce sont les lments fqui sont la classe dune fonction positive.

  • 7/24/2019 processus stochastique univ loraine.pdf

    30/257

    22 CHAPITRE 2. ESPRANCE CONDITIONNELLE

    Pour tout f

    Lp, on a f=f.1 =f(1f >0+1f=0+1f0+1f 0et f=f1f>0. Il est facile de voir quef+ =f1f>0et f+ =f1f>0

    Dmontrons maintenant lanalogue du lemme 2.1 : si f est un lmentpositif de L2, on a

    Ef1P f

  • 7/24/2019 processus stochastique univ loraine.pdf

    31/257

    2.2. CONSTRUCTION 23

    Vrifions dabord que Pvrifie les proprits fondamentales requises : P f

    estA-mesurable et pour toute fonction fF-mesurable dans L1, pour toutgA-mesurable dansL,Egf= EgP f (2.5)

    Preuve : pour f dans L, posons g(f) = Egf et g(f) = EgP f. On a|gf| g|f|, do|g(f)| ff1. Par ailleurs

    |g(f)|= g(P f)| fP f1 ff1.

    Ainsi g et g sont deux formes linaires continues sur V1. Comme ellesconcident sur V2qui est dense dansV1, elles concident.

    Pour tout fV1, on notera dsormais E[f|A] = P f.On remarquera que telle que nous lavons dfini, lobjet E[f|A]nest pas

    une variable alatoire, mais une classe de variable alatoires. En ralit, fairela confusion entre les deux objets est sans risque puisquon ne sintresse

    jamais aux valeurs en un particulier, mais seulement aux intgrales sur unensemble mesurable, intgrales qui ne dpendent pas du reprsentant choisi.

    2.2.1 Proprits

    Daprs le lemme 3, on voit donc que les proprits :YA-mesurable et

    A AEX1A = EY1A (2.6)

    entranent que Y = E[X|A].Ainsi, siXestA-mesurable, on a videmment E[X|A] =X. En particu-

    lier, les fonctions constantes tant mesurables par rapport nimporte quelletribu, on a pour tout rel c E[c|A] =c.

    Rappelons avec les nouvelles critures quelques proprits tablies : onsuppose queXet Ysont intgrables et queaet bsont des constantes relles :

    E[aX+ bY|A] =aE[X|A] +bE[Y|A] X

    Y p.s.=

    E[X

    |A]

    E[Y

    |A]p.s.

    X0 p.s.= E[X|A]0 p.s. SiYest borne etA-mesurable, alors EXY = E[E[X|A]Y].

    Et voici quelques consquences dont la preuve ne devrait pas laisser degrandes difficults au lecteur :

    EE[X|A] = EX E[E[X|A]|A] = E[X|A]|E[X|A]| E[|X| |A]Un peu plus compliqu, le thorme de convergence domine condition-

    nel :

  • 7/24/2019 processus stochastique univ loraine.pdf

    32/257

    24 CHAPITRE 2. ESPRANCE CONDITIONNELLE

    Thorme 11. Soit (Xn)n1 une suite de variables alatoires convergeant

    presque srement versX. On suppose que

    n1|Xn| Yp.s.,oYest une variable alatoire intgrable. Alors

    E[X|A] = limn+ E[Xn|A]p.s.

    Dmonstration. PosonsZn = supkn |Xn X|.(Zn)n1est une suite dcrois-sante de variables alatoires qui tend presque srement vers zro. Daprs lapositivit de lesprance conditionnelle, la suite E[Zn

    |A] est donc une suite

    dcroissante de variables alatoires positives : elle converge donc vers une va-riable alatoire positive Z. Pour tout n1, on a ZZn, donc EZEZn.Ainsi EZ infn1 EZn, mais pour tout n|Zn| 2Y, donc daprs le tho-rme de convergence domine EZn tend vers 0, ce qui montre que EZ = 0,donc Z est presque srement nulle. Ainsi E[Zn|A] tend presque srementvers0. Finalement, pour tout n, on a

    |E[X|A] E[Xn|A]| = |E[X Xn|A]| E[|X Xn| |A] E[Zn|A],

    ce qui entrane donc le rsultat voulu.

    On en dduit en particulier le rsultat trs important suivant :

    Thorme 12. SiY estA-mesurable, queXetXYsont intgrables, alorsE[XY|A] =YE[X|A]Dmonstration. On va dabord sintresser au cas o Yest born. Pour mon-trer que YE[X|A] est une version de lesprance conditionnelle de XY sa-chantA, il suffit de montrer

    que YE[X

    |A]est

    A-mesurable

    que pour toute fonction ZA-mesurable borne, on a EZXY = EZYE[X|A].Le premier point est clair, car YE[X|A] est le produit de deux fonctionsA-mesurables. Le deuxime point provient du fait que ZYest une fonctionA-mesurable borne et de la proprit fondamentale de lesprance condi-tionnelle.

    Pour passer au cas gnral, il suffit de poserYn = Y1|Y|n. Daprs ce quiprcde, on sait que pour tout n, on a

    E[XYn|A] =YnE[X|A].

  • 7/24/2019 processus stochastique univ loraine.pdf

    33/257

    2.2. CONSTRUCTION 25

    XYn converge presque srement vers XY et

    |XYn

    | |XY

    |. Daprs le

    thorme de convergence domine conditionnel,E[XYn|A]converge presquesrement versE[XY|A]. CommeYnconverge presque srement vers Y, on afinalement

    E[XY|A] =YE[X|A].

    On va terminer cette section par quelques proprits simples, mais utileslies la mesurabilit.

    Thorme 13. SoitXune variable alatoire intgrable,AetB deux tribusavecA B. Alors E[E[X|B]|A] = E[X|A].Dmonstration. PosonsX = E[E[X|B]|A]. SoitYune variable alatoire bor-neA-mesurable.Y estA-mesurable, doncYE[E[X|B]|A] = E[YE[X|B]|A].Par ailleurs, Y estB-mesurable, donc YE[X|B] = EXY|B, do EY X =E[EXY|B] = EXY. Ainsi, pour tout YA-mesurable borne, on a EY X =EY X. Comme XestA-mesurable, cela montre bien que X = E[X|A].Thorme 14. On suppose queAetBsont deux tribus indpendantes sousP. Alors, pour toute variable alatoire intgrableXB-mesurable, on a

    E[X|A] = EX.

    Dmonstration. Soit Y une variable alatoire borneA-mesurable.

    E[YEX] = EYEX= EY X.

    Comme la variable constante EXest lvidenceA-mesurable, cela achvela preuve.

    Le rsultat suivant peut galement parfois tre utile :

    Thorme 15. SiXest une variable intgrable,AetBdes tribus telles queB est indpendante de((X), A), alors

    E[X|(A, B)] = E[X|A].

    Dmonstration. Par linarit, en crivant X=X+ X, on peut se ramenerau cas oXest positive. CommeY = E[X|A]est(A, B)-mesurable, il suffitde montrer que lon a E[1CX] = E[1CY] pour tout C (A, B). CommeC E[1CX]et C E[1CY]sont des mesures finies, il suffit de les identifier

  • 7/24/2019 processus stochastique univ loraine.pdf

    34/257

    26 CHAPITRE 2. ESPRANCE CONDITIONNELLE

    sur un-systme qui engendre(

    A,

    B): on prend naturellement les ensemble

    de la forme C=A B, avec A Aet B B. Et, en effet, on aE[1CY] = E[1A1BY]

    = E[1B]E[1AY]

    = E[1B]E[1AX]

    = E[1B1AX] = E[1CX],

    ce qui conclut la preuve.

    2.2.2 Ingalit de Jensen

    Thorme 16. SoitXune variable alatoire intgrable valeurs dans lin-tervalle I. Soit fune fonction continue convexe de I dans R. On supposequef(X)est intgrable. Alors, pour toute tribuA, on a

    f(E[X|A]) E[f(X)|A].Dmonstration. Pour donner du sens lingalit, remarquons dabord queE[X|A]Ipresque srement. En effet, il est bien connu si X apresquesrement, on a alors E[X|A] apresque srement. Cependant, on va voirque siX > apresque srement, on a encore E[X|A]> apresque srement.

    Par linarit,on se ramne au cas o a= 0. On suppose donc que X >0et on pose Y = E[X|A]. On sait dj que Y 0 presque srement. Reste montrer P(Y = 0) = 0. Comme lvnement{Y = 0} estA-mesurable,on a E[1{Y=0}X] = E[1{Y=0}Y] = 0, donc 1{Y=0}X = 0 presque srement.Comme X > 0presque srement, on a 1{Y=0} = 0 presque srement, doncP(Y= 0) = 0.

    Soit une famille dnombrable de fonctions affines telles que

    xI (x)f(x).Soit . On a presque srement

    (X)f(X).On a donc E[(X)|A]E[f(X)|A]. Mais comme est une fonction affine,E[(X)|A] =(E[X|A]). Ainsi,

    (E[X|A]) E[f(X)|A],Comme est dnombrable, on a alors

    sup

    (E[X|A]) E[f(X)|A].

  • 7/24/2019 processus stochastique univ loraine.pdf

    35/257

    2.2. CONSTRUCTION 27

    Il reste donc dmontrer que la famille peut tre choisie de telle sorte que,

    presque srement, au pointx = E[X|A], on ait sup{(x); }= f(x)En tout point rationnel qde I, on considre lapplication affine q tan-

    gente droite (ou gauche) au point q la courbe reprsentative de f.On prend alors = (q)qIQ. Lapplication x sup (x) est convexe,continue, et concide avec f sur I Q, donc, par densit et continuit, surI.

    Pour retenir quel est le sens de lgalit, prendre la fonction convexe(x) =|x|.

    2.2.3 Esprance conditionnelle sachant une variable (ouun vecteur) alatoire

    Le cauchemar des conventions dcriture

    SoientAest un vnement,Aune tribu.On note frquemmentP(A|A) = E[1A|A].Si Y,X, X1, . . . , X n sont des variables alatoires (ou des vecteurs ala-

    toires), on note frquemmentE[Y|X]pour E[Y|(X)], et encore E[Y|X1, . . . , X n]pour E[Y|(X1, . . . , X n)].Par ailleurs, si Xest une variable alatoire (ou un vecteur alatoire), ilest bien vident que E[Y|X]est (X)-mesurable. Alors, daprs le lemme de

    Doob, il existe une application mesurable ftelle que

    E[Y|X] =f(X) (2.7)On crit souvent E[Y|X = x] = f(x) pour signifier que lapplication f

    vrifie lquation (2.7). Bien sr, il sagit dun abus dcriture car la propritest une proprit globale de la fonction, qui na pas de sens point par point,puisquen gnral (par exemple si la loi de X est densit) lvnement

    {X=x

    }est de probabilit nulle.

    Il est plus facile de donner un sens cette esprance conditionnelle etaussi de la calculer dans le cas o Xest une variable alatoire discrte.

    Thorme 17.SoitYL1(, F, P),Xune variable alatoire sur(, F, P),etDun ensemble fini ou dnombrable avecP(XD) = 1etP(X=n)> 0pour toutndansD. Alors, E[Y|X] =g(X)avec

    nD g(n) = E[1{X=n}Y]P(X=n)

    ,

  • 7/24/2019 processus stochastique univ loraine.pdf

    36/257

    28 CHAPITRE 2. ESPRANCE CONDITIONNELLE

    ce qui scrit encore

    nD E[Y|X=n] = E[1{X=n}Y]P(X=n)

    .

    Dmonstration. Pour tout ndans A, posons g(n) = E[1{X=n}Y]

    P(X=n) . Soit A

    D. Pour tout ndans A, on a

    E[Y1{X=n}] =g(n)P(X=n) = E[g(n)1{X=n}] = E[g(X)1{X=n}]

    En faisant la somme sur tous les nA, on obtientE[Y1{XA}] = E[g(X)1{XA}]

    Comme tous les lments de (X) peuvent scrire sous la forme{X A}avec AD et que g(X)est videmment (X)-mesurable, on a bien liden-tification voulue.

    Corollaire 2. SoitXune variable alatoire sur(, F, P), etD un ensemblefini ou dnombrable avecP(X D) = 1etP(X=n) > 0 pour toutndansD. SoitAun vnement. Pour toutnD, on a

    E[1A|X=n] =E[1

    {X=n

    }1A]

    P(X=n) =P(

    {X=n

    } A)

    P(X=n) = P(A|X=n).Ceci justifie que lon criveP(A|X)pourE(1A|X)sans quil y ait conflit

    entre les diffrentes conventions dcriture.

    Des techniques de calculs utiles

    La premire technique nest que la particularisation de la formule prc-dente au cas dun vecteur alatoire.

    Corollaire 3. SoitY

    L1(,

    F, P), X1, . . . , X n des variables alatoires sur

    (, F, P) valeurs dans S dnombrable, avec pour tous x1, . . . , xn dans SP(X1=x1, . . . , X n= xn)> 0. Alors, E[Y|X1, . . . , X n] =g(X1, . . . , X n)avec

    nD g(n) = E[1{X1=x1,...,Xn=xn}Y]P(X1=x1, . . . , X n= xn)

    ,

    ce qui scrit encore

    (x1, . . . , xn)Sn E[Y|X1 = x1, . . . , X n=xn] = E[1{X1=x1,...,Xn=xn}Y]P(X1 = x1, . . . , X n=xn)

    .

  • 7/24/2019 processus stochastique univ loraine.pdf

    37/257

    2.2. CONSTRUCTION 29

    On laisse au lecteur le soin de particulariser lnonc dans le cas o Y est

    lindicatrice dun vnement.Les thormes et corollaires prcdents permettent, dans le cas de va-

    riables alatoires discrtes, de calculer des esprances conditionnelles laidedoprations classiques sur les probabilits. En retour, les proprits desesprances conditionnelles permettent souvent de simplifier des calculs deprobabilits. Car exemple, on peut noter que

    P(X1=x1, . . . , X n= xn) = E(1{X1=x1,...,Xn})= E(1

    {X1=x1,...,Xn1=xn

    1

    }1

    {Xn=xn

    })

    = E(E(1{X1=x1,...,Xn1=xn1}1{Xn=xn}|X1, . . . , X n1))= E(1{X1=x1,...,Xn1=xn1}E(1{Xn=xn}|X1, . . . , X n1))= E(1{X1=x1,...,Xn1=xn1}P(Xn = xn|X1, . . . , X n1))

    Ce genre de manipulations sera trs utile dans le cadre de ltude deschanes de Markov.

    Un autre cas pratique trs important est celui o la variable conditionneest une fonction de deux variables indpendantes.

    Thorme 18. Soit X et Y deux vecteurs alatoires indpendants, res-pectivement valeurs dans Rn et Rp. Soit g une application de Rn RpdansR. On suppose queg(X, Y)est une variable alatoire intgrable. AlorsE[g(X, Y)|X] =G(X), avec

    G(x) =

    g(x, y)dPY(y) = Eg(x, Y).

    Autrement dit, E[g(X, Y)|X=x] = E[g(x, Y)].

    Dmonstration. Dabord, il faut vrifier queGest dfini PXpresque partout.Pour cela, il faut montrer que pour PXpresque tout x:

    |g(x, y)|dPY(y) 0, on a

    E[(Y)|X=i] = jD

    P(Y =j |X=i)(j).

    lien vers lindication

    Exercice 19. Soit

    M= 2

    1 1

    1 2 11 1 2

    1. Montrer quon peut construire un vecteur gaussien centr (X, Y , Z)

    admettantMcomme matrice de covariance.

    2. CalculerE[X|Y, Z].lien vers lindication

    Exercice 20. Soit

    M=

    3 0 20 2 1

    2 1 2

    1. Montrer quon peut construire un vecteur gaussien centr (X, Y , Z)admettantMcomme matrice de covariance.

    2. CalculerE[X|Y, Z].3. Soit une fonction mesurable borne telle que (X)est intgrable.

    Montrer que

    E[(X)|Y =y, Z=z] =

    R(x)fy,z (x) d(x),

  • 7/24/2019 processus stochastique univ loraine.pdf

    42/257

    34 CHAPITRE 2. ESPRANCE CONDITIONNELLE

    o fy,z est la densit de la loi normale

    N(

    23

    y+ 43

    z, 2), o

    2 =Mv, vavec v= (1,23

    , 43

    ).

    lien vers lindication

    Exercice 21. Soit (Yn)n1 une suite de variables alatoires positives int-grables, A une tribu quelconque. On pose Y= limn+Ynet Z= limn+E[Yn|A].Le but de lexercice est de montrer que si Zest fini presque srement, alorsY est galement fini presque srement.

    1. Soit M >0. Montrer que E[1{

    Y >M

    }|A] = limn

    +

    E[1

    {Yn>M

    }|A].

    2. Montrer que pour tout n1, on a ME[1{Yn>M}|A] E[Yn|A].3. En dduire que E[1{Y >M}|A]tend presque srement vers0 lorsqueM

    tend vers linfini.

    4. Conclure.

    lien vers lindication

    Exercice 22. Soit (Rn)n0 une suite dcroissante dentiers naturels, avecR0=N. On pose, pourn0,Sn+1=Rn Rn+1etFn= (S1, . . . , S n). Onpose T= inf{n0; Rn= 0}. On suppose en outre que

    k1 E[1T >k1(Sk 1)|Fk1] = 0.

    1. Montrer que pour tout entier naturel non nul k, on a

    P(Sk = 0, T k) = E(1Tk(Sk 1)+).

    En dduire que P(T

  • 7/24/2019 processus stochastique univ loraine.pdf

    43/257

    Chapitre 3

    Martingales

    3.1 Dfinitions

    3.1.1 Filtrations et martingales

    Soit (, F, P)un espace probabilis.Dfinition: On appelle filtration toute suite croissante (Fn)n0 de sous-tribus deF.Dfinition: Soit (Xn)n0 une suite de variables alatoires et (Fn)n0 unefiltration. On dit que la suite (Xn)n

    0 est (

    Fn)n

    0 adapte si pour tout n,

    XnestFn-mesurable.Dfinition: Soit (Xn)n0 une suite de variables alatoires. On appelle fil-tration naturelle adapte la suite (Xn)n0 la filtration dfinie parFn =(X0, X1, . . . X n).Dfinition: Soit (Fn)n0 une filtration et (Xn)n0 une suite de variablesalatoires. On dit que la suite(Xn)n0est une martingale adapte la filtra-tion (Fn)n0 si

    1. la suite (Xn)n0est (Fn)n0adapte2. Pour tout n, Xnest intgrable.

    3. Pour tout n, Xn= E[Xn+1|Fn].Exemples:

    1. Soit (Fn)n0 une filtration, Xune variable alatoire intgrable. Lasuite dfinie par Xn= E[X|Fn]est une martingale

    2. Soit(Xn)n1une suite de variables alatoires indpendantes centres.On pose pour tout n1: Fn = (X1, . . . X n)et Sn=X1+X2+. . . X n.Alors,(Sn)n1est une martingale adapte la filtration (Fn)n1.

    Remarque:Une martingale est toujours adapte sa filtration naturelle.

    35

  • 7/24/2019 processus stochastique univ loraine.pdf

    44/257

    36 CHAPITRE 3. MARTINGALES

    3.1.2 Diffrences de martingales

    SiXnest une martingale adapte la filtration(Fn)n0, la suiteYndfiniepar Yn=Xn Xn1vrifie

    n1 E[Yn|Fn1] = 0. (3.1)Rciproquement, si la suite (Yn)n1est adapte la filtration (Fn)n0et v-rifie 3.1, la suite des sommes partielles dfinie parXn= Y1 + + Ynest unemartingale adapte la filtration (Fn)n0.

    Dfinition:On appelle une telle suite (Yn)une diffrence de martingale.

    Remarque:Si la suite de diffrences de martingale (Yn)n1 est dans L2, lavariable Yn est orthogonale toutes les variables Zde carr intgrable quisontFn1-mesurables. En particulier, les (Yn)n1forment une suite orthogo-nale dansL2.

    Comme on le verra dans les exercices, les martingales sont souvent utilespour udier des suites de variables alatoires qui ne sont pas elles-mmes desmartingales. Mettre en vidence une martingale partir dune suite nest pastoujours facile. Une bonne ide est de commencer par exhiber une diffrence

    de martingale. Par exemple, si (Xn)n0est une suite intgrable quelconque,(Xn+1 E[Xn+1|X0, . . . X n])n0est toujours une diffrence de martingales.

    3.1.3 Sous-martingales, sur-martingales

    Dfinition: Soit (Fn)n0 une filtration et (Xn)n0 une suite de variablesalatoires. On dit que la suite (Xn)n0 est une sous-martingale adapte lafiltration(Fn)n0si

    1. la suite (Xn)n0est (Fn)n0adapte2. Pour tout n, Xnest intgrable.

    3. Pour tout n, Xn E[Xn+1|Fn].Dfinition: Soit (Fn)n0 une filtration et (Xn)n0 une suite de variablesalatoires. On dit que la suite (Xn)n0 est une surmartingale adapte lafiltration(Fn)n0si

    1. la suite (Xn)n0est (Fn)n0adapte2. Pour tout n, Xnest intgrable.

    3. Pour tout n, Xn E[Xn+1|Fn].

  • 7/24/2019 processus stochastique univ loraine.pdf

    45/257

    3.2. PREMIRES INGALITS 37

    Proposition 2. Soit (Xn)n0 une suite de variables alatoires intgrables.

    La suite(EXn)n0 est dcroissante si la suite(Xn)n0 est une surmartingale. croissante si la suite(Xn)n0 est une sous-martingale. constante si la suite(Xn)n0 est une martingale.

    Dmonstration. On va juste prouver la premire assertion. Pour tout n, ona Xn E[Xn+1|Fn].En prenant lesprance, on a E[Xn] E[E[Xn+1|Fn]] = E[Xn+1].

    3.2 Premires ingalits3.2.1 Martingales et fonctions convexes

    Thorme 20. Soit(Fn)n0 une filtration etune fonction convexe. Si la suite(Xn)n0est une martingale adapte la filtration(Fn)n0et

    que les((Xn))n0 sont intgrables, alors la suite la suite((Xn))n0est une sous-martingale adapte la filtration(Fn)n0.

    Si la suite (Xn)n0 est une sous-martingale adapte la filtration(Fn)n0, que est croissante et que les((Xn))n0 sont intgrables,alors la suite((Xn))n

    0 est une sous-martingale adapte la filtra-

    tion(Fn)n0.

    Dmonstration. Comme Xn= E[Xn+1|Fn], on a (Xn) =(E[Xn+1|Fn])E[(Xn+1)|Fn], daprs lingalit de Jensen conditionnelle.

    Xn E[Xn+1|Fn] entrane, avec lhypothse de croissance (Xn)(E[Xn+1|Fn])et on conclut comme prcdemment avec lingalit deJensen conditionnelle.

    Exemple: En particulier, si une suite (Xn)n

    0 de variables alatoires posi-

    tives est une sous-martingale de carr intgrable, alors la suite (X2n)n0 estune sous-martingale.

    3.2.2 Ingalit de Kolmogorov

    Thorme 21. Soit(Xn)n0 une sous-martingale. Pour tout >0, on a

    P(max1in

    Xi) 1

    E|Xn|.

  • 7/24/2019 processus stochastique univ loraine.pdf

    46/257

    38 CHAPITRE 3. MARTINGALES

    Dmonstration. Notons= inf

    {i

    1; Xi

    }. Il est clair que

    { max1in

    Xi}={n}.

    Soit k entre1 et n : lvnement =k estFk-mesurable, donc daprs laproprit de sous-martingale, on a

    E[Xn1{=k}] = E E[Xn1{=k}|Fk] = E 1{=k}E[Xn|Fk] E 1{=k}Xk.

    Mais 1{=k}Xk1{=k}. Ainsi, en intgrant, on obtient

    E[Xn1{

    =k

    }]

    P(=k).

    En faisant la somme pour kvariant de 1 n, on obtient

    E[Xn1{n}]P(n).

    Si(Xn)n1est une sous-martingale positive, on a fini, car alors

    EXn E[Xn1{n}]P(n).

    Sinon, comme (X+n)n1 est une sous-martingale positive, on peut lui appli-quer le rsultat que lon vient de dmontrer, et lon a

    P(max1in

    Xi) = P(max1in

    X+i ) 1

    EX+n

    1

    E|Xn|,

    ce qui donne le rsultat voulu.

    3.3 Convergence des martingales de carr in-tgrable

    Thorme 22. Soit(Xn)n

    0 une martingale adapte la filtration(F

    n)n

    1

    telle quesupn1

    EX2n

  • 7/24/2019 processus stochastique univ loraine.pdf

    47/257

    3.3. CONVERGENCE DES MARTINGALES DE CARR INTGRABLE39

    on sait que E[Xn

    |Fp] =Xpest le projet orthogonal de Xnsur le sous-espace

    des variablesFp-mesurables. Ainsi, on peut crire lidentit de Pythagore :Xn22=Xp22+ Xn Xp22,

    ou encoreEX2n= EX

    2p + E(Xn Xp)2.

    Il est alors clair que la suite (EX2n)n1 est croissante : elle converge doncvers = supn1 EX

    2n que nous avons suppos fini. Soit > 0et N tel que

    EX2n 2 pour nN. Alors, pour n, pN, on aXn Xp2,ce qui contre bien que la suite est de Cauchy, et donc convergente.

    On va maintenant montrer la convergence presque sre. Pour cela, on vamontrer que la suite(Xn)n1est presque srement de Cauchy, cest dire queRn= supi,jn |XiXj| tend presque srement vers0. Comme la suite(Rn)nest monotone dcroissante, il suffit de montrer quelle admet une sous-suitequi converge presque srement vers 0. Pour dmontrer que (Rn)n admetune sous-suite qui converge presque srement vers zro, il suffit (voir le coursde licence) de montrer que Rnconverge en probabilit vers 0.

    Soit donc >0. On a

    {Rn> } in{|Xn Xi|> /2}.Ainsi

    P(Rn > ) P(supin

    |Xn Xi| /2) P(sup

    in|Xn Xi|> /3).

    Daprs le thorme de continuit squentielle croissante, on a

    P(supin

    |Xn Xi|> /3) = supNn

    P( supniN

    |Xn Xi|> /3).

    La suite (Xn Xi)niest une martingale, donc la suite ((Xn Xi)2)niest une sous-martingale positive : on a donc

    P( supniN

    |Xn Xi|2 > 2/9) 92

    E(Xn XN)2.

    AinsiP(Rn> ) 9

    2 supNn

    E(Xn XN)2,

    cette dernire suite tend bien vers 0, puisque (Xn)n1 converge en moyennequadratique.

  • 7/24/2019 processus stochastique univ loraine.pdf

    48/257

    40 CHAPITRE 3. MARTINGALES

    3.4 Temps darrts

    On dit que variable alatoire T valeurs dans N {+}est un tempsdarrtadapt la filtration (Fn)n0si pour toutn N, lvnement T nestFn-mesurable.

    Comme{T = n} ={T n}\{T n1}, il sensuit que T = n estgalementFn-mesurable.Exemple:Toute constante est un temps darrt adapt toute filtration.

    Dmonstration. Si T est constant,{T n} ne peut valoir que ou , etest donc toujours dansFn.

    Exemple:Si (Xn)n1 est une suite de variables alatoires (Fn)n1-adapte valeurs dans Set Aun borlien de S, alors

    TA = inf{n1; XnA}est un temps darrt (Fn)n1-adapt.

    Preuve :{TAn}=nk=1{XkA}.Dfinition: On dit quun vnement Ase produit avant Tsi pour tout n,lvnementA {T n}estFn-mesurable.Remarque: Si deux temps darrts S et Tadapts la filtration (Fn)n0vrifientS

    T, alors tout vnement qui se produit avantSse produit avant

    T.

    Dmonstration. Soit A se produisant avant S. Comme S T, on a{Tn} A= (A {Sn}) {Tn}. Comme A se produit avant S,A {Sn} Fn. Par dfinition dun temps darrt,{T n} Fn. On en dduitque{T n} A Fn. Commen est quelconque,A se produit avant T.Proposition 3. Soit T un temps darrt adapt une filtration (Fn)n0.LensembleFTdes vnements qui se produisent avantT forme une tribu.Dmonstration. Montrons que

    FT. Pour tout n, on a

    {T

    n}= Fn, car toute tribu contient donc on a bien FT. Soit A FT. Montrons que Ac FT. Soit nentier. On a Ac {T

    n}={T n}\(A{T n}). Les vnements {Tn} etA{Tn}sont tous deuxFn-mesurables, donc Ac {T n}est bien dansFn.Comme nest quelconque, Ac FT.

    Soit (Ap)p1 une suite dlments deFT. Il faut montrer que A =p1Ap FT Soit nentier. On a

    A {T n}=p1(Ap {T n}),

  • 7/24/2019 processus stochastique univ loraine.pdf

    49/257

    3.4. TEMPS DARRTS 41

    Aest runion dnombrable dlments de

    Fn, donc A

    Fn, et finale-

    ment A FT.

    Remarque: T estFT mesurable.Dmonstration. Il suffit de montrer que pour tout t R{Tt} FT. Soitn N: Si on note ila partie entire de t, on a

    {T t} {Tn}={T i} {T n}={Ti n} Fin Fn.

    Thorme 23 (Thorme de Hunt). Soit(Fn)n0 une filtration et(Xn)n0une sous-martingale adapte la filtration(Fn)n0.

    SoientS et T deux temps darrts (Fn)n0-adapts borns avecS T.Alors

    E[XT|FS]XS.Dmonstration. Il sagit de montrer que pour tout vnement A FS-mesurable,on a EXT1A EXS1A. Soit M un entier dterministe tel que lon aitS T M. Posons k = Xk Xk1, avec X1 = 0. Notons, que comme(Xn)est une sous-martingaleE1Bkest positif pour tout ensembleBFk1-

    mesurable. On a

    E((XT XS)1A) = E(M

    k=0

    k1S

  • 7/24/2019 processus stochastique univ loraine.pdf

    50/257

    42 CHAPITRE 3. MARTINGALES

    Corollaire 5. Soit(

    Fn)n0une filtration et(Xn)n0une martingale adapte

    la filtration(Fn)n0.SoientS et T deux temps darrts (Fn)n0-adapts borns avecS T.

    AlorsE[XT|FS] =XS.

    Thorme 24 (Thorme darrt). Soit (Fn)n0 une filtration et (Xn)n0une sous-martingale adapte la filtration (Fn)n0. Soit Tun temps dar-rt adapt la filtration (Fn)n0. Alors la suite (XnT)n0 est une sous-martingale adapte la filtration(Fn)n0.Dmonstration. Soit Aun vnementFn-mesurable et n un entier. On a

    E1AX(n+1)T = E1AX(n+1)T1{Tn}+ E1AXn+1T1{T >n}= EXnT1A1{Tn}+ EX(n+1)T1A1{T >n}

    Pour linstant, on a juste utilis que quand T n, on a (n+ 1) T =T =n T.

    Montrons queA {T > n}estFnT-mesurable : soitp un entier ; on doitmontrer queA {T > n} {n Tp}est dansFp. Sin > p, lintersectionest lensemble vide, donc est

    Fp-mesurable. Sin

    p, alors

    {n

    T

    p

    }= ,

    doncA {T > n} {n T p}= A {T > n} Fn Fp.

    Ainsi, en appliquant le thorme de Hunt aux temps darrts (n + 1) Tet n T, on a

    EX(n+1)T1A1{T >n} EXnT1A1{T >n}Do

    E1AX(n+1)T = EXnT1A1{Tn}+ EX(n+1)T1A1{T >n} EXnT1A1{Tn}+ EXnT1A1{T >n}

    EX

    nT1

    A

    ce qui achve la preuve.

    On en dduit facilement les deux rsultats suivants :

    Corollaire 6.Soit(Fn)n0une filtration et(Xn)n0une surmartingale adap-te la filtration (Fn)n0. Soit T un temps darrt adapt la filtration(Fn)n0. Alors la suite(XnT)n0 est une surmartingale adapte la filtra-tion(Fn)n0.

  • 7/24/2019 processus stochastique univ loraine.pdf

    51/257

    3.5. CONVERGENCE DES MARTINGALES BORNES DANSL1 43

    Corollaire 7. Soit(

    Fn)n0une filtration et(Xn)n0une martingale adapte

    la filtration(Fn)n0. SoitTun temps darrt adapt la filtration(Fn)n0.Alors la suite(XnT)n0 est une martingale adapte la filtration(Fn)n0.Remarque: Certains auteurs appellent thorme darrt ce que nousavons appel thorme de Hunt . En fait, ces deux rsultats sont qui-valents. Ici, nous avons choisi de dmontrer le thorme de Hunt et dendduire le thorme darrt, tandis que dautres auteurs (par exemple Baldi,Mazliak et Priouret) font le choix inverse.

    Les deux lemmes suivants seront utiles par la suite. Leur preuve relvedes mthodes classiques.

    Lemme 4. Soit(Fn

    )n0

    une filtration et(Xn

    )n0

    une martingale adapte la filtration(Fn)n0. SoitTun temps darrt adapt la filtration(Fn)n0.Alors, la variable alatoire1{T

  • 7/24/2019 processus stochastique univ loraine.pdf

    52/257

    44 CHAPITRE 3. MARTINGALES

    Dmonstration. Posons pourn

    1:Yn=

    (Xna)+b

    a

    : comme

    |Yn

    | 1b

    a

    (

    |Xn

    |+

    |a|) et que (x) = (xa)+ba est croissante et convexe, (Yn)n1 est une sous-martingale.

    Posons0 = 0, et pour k1

    k = inf{nk1; Xna}

    etk= inf{nk; Xnb}.

    En utilisant le lemme 5, on voit facilement par rcurrence que les (k)et les

    (k)sont des temps darrt. Dautre part, par construction, on a 0 112 nn.On a

    U[a,b]n =n

    k=1

    1{kn}.

    Montrons que 1{kn}Ynk Ynk : il y a trois cas possibles sik > n, alors k > n: on a

    1{kn}= 0 =Yn Yn=Ynk Ynk .

    sikkn, alors on a Ynk =Yk1tandis queYnk =Yk = 0,de sorte que

    1{kn} = 1Ynk Ynk . si k n < k, alors Ynk =Yn0tandis que Ynk = Yk = 0, de

    sorte que1{kn} = 0Ynk Ynk .

    On a donc

    U[a,b]n n

    k=1

    Ynk Ynk .

    On peut crire

    Yn Y0 = Ynn Y0n=

    nk=1

    Ykn Yk1n

    =n

    k=1

    (Ykn Ykn) + (Ykn Yk1n)

  • 7/24/2019 processus stochastique univ loraine.pdf

    53/257

    3.5. CONVERGENCE DES MARTINGALES BORNES DANSL1 45

    Il sensuit que

    U[a,b]n Yn Y0 n

    k=1

    Ykn Yk1n

    Yn n

    k=1

    Ykn Yk1n,

    soit, en prenant lesprance

    EU[a,b]n EYn n

    k=1 E[Ykn Yk1n].Maisk netk1 nsont des temps darrts borns avec k1k. Daprsle thorme de Hunt, on a donc, en rintgrant, E[Ykn Yk1n]0, do

    EU[a,b]n EYn,

    ce qui tait le rsultat voulu.

    3.5.2 Le thorme de convergence de Doob

    Thorme 26. Soit(Xn)n1 une sous-martingale. Les quantitsK= supn1E[X

    +n] etL= supn1E[|Xn|]

    sont simultanment finies ou infinies. Si elles sont finies, la suite (Xn)n1converge presque surement vers une variable alatoire X intgrable, avecE|X| L.Dmonstration. On a pour tout n,

    E(X+n)E(|Xn|) = E(2X+n Xn) = 2E(X+n) E(Xn)2E(X+n) E(X0),

    do KL2K E(X0). Passons la preuve de la convergence.Faisons dabord une remarque danalyse : si une suite(xn)n1ne converge

    pas dans R, alors il existe deux rationnels a et b tels que la suite (xn)n1traverse une infinit de fois lintervalle [a, b] de bas en haut : pour cela, ilsuffit de considrer deux rationnels a et b vrifiant limn+xn < a < b 0. Pour Z variable positiveintgrable, on a

    E[Z|C] E[Z|D]1 E[Z a|C] E[Z a|D]1+ 2E[Z1{Z>a}]

    Dmonstration. On aE(Z|C) E(Z a|C) = E((Z a)1{Z>a}|C)

    Comme lesprance conditionnelle est une contraction dansL1, on a

    E(Z|C) E(Z a|C)1 E((Z a)1{Z>a}).De mme,

    E(Z|D) E(Z a|D)1 E((Z a)1{Z>a}).En utilisant lingalit triangulaire dans L1, on obtient lingalit voulue.

    Passons aux preuves des thormes.

    Dmonstration. Par linarit, avec Z=Z+ Z, il suffit de traiter le cas oZ0. On peut galement supposer sans restriction que EZ >0. Daprs lethorme de convergence des martingales de Doob, on sait que(Yn)convergepresque srement. Montrons que (Yn) est de Cauchy dans L1. Soit > 0.Par convergence domine, on peut se donner a tel que E(Z1{Z>a}) /3.La suite E(Z a|Fn)est une martingale, borne dans L2 ( par a) , donc quiconverge dans L2, et plus forte raison dans L1.

  • 7/24/2019 processus stochastique univ loraine.pdf

    56/257

    48 CHAPITRE 3. MARTINGALES

    Ainsi, la suite E(Z

    a

    |Fn) est de Cauchy dans L1 : on peut trouver N

    tels que pourn, pN,E(Z a|Fn) E(Z a|Fp)1/3. Avec le lemme,on aE(Z|Fn) E(Za|Fp)1 pour n, p N, ce qui montre que lasuite (Yn) est de Cauchy dans L1, donc convergente dans L1. Notons Y lalimite. Il reste voir que Y =E[Z|F]. Pour tout n, Yn estFn-mesurable,doncF-mesurable, et la limite Y estF-mesurable.

    Fixons un entier natureln. Soit A Fn. Pour pn, comme A Fp, onaE[Z1A] = E[Yp1A], donc

    |E[Z1A] E[Y1A]|=|E[Yp1A] E[Y1A]| E(|Yp Y]1A) E|Yp Y|

    Finalement |E[Z1A]E[Y1A]| lim E|Yp Y|= 0, do E[Z1A] = E[Y1A].En particulier, prenant A = , on a E(Z) = E(Y). Les applications AE[Z1A]

    EZ etA E[Y1A]

    EZ sont des mesures ce sont en fait des mesures densit

    par rapport P. Ce sont mme des probabilits. Daprs ce qui prcdent, cesdeux probabilits concident surn1Fn) qui est un -systme engendrantF: elles concident donc surF, ce qui montre queYest bien une versionde lesprance conditionnelle deZsachantF.

    Les deux preuves sont assez semblables, la deuxime tant peut-tre un

    peu plus facile. On suggre donc la lectrice de lire la premire preuve, puisdessayer de faire la seconde preuve seule avant de lire la preuve propose.

    Dmonstration. Par linarit, avec Z=Z+ Z, il suffit de traiter le cas oZ0. Daprs les thormes de convergence des surmartingales renverses,on sait que (Zn)converge presque srement. Montrons quelle est de Cauchydans L1. Soit >0 et prenons a tel que E(Z1{Z>a})/3.

    La suiteE(Z a|Gn)est une martingale renverse : elle converge presquesrement. Mais une suite de variables alatoires qui converge presque sre-ment et est uniformment borne par une constante converge dansL1. Ainsi,il existeNtel que pourn, p

    N,

    E(Z

    a

    |Gn)

    E(Z

    a

    |Gp)

    1

    /3, ce qui

    entrane avec le lemme queE(Z|Gn) E(Z a|Gp)1 pourn, pN : lasuite (Zn)est de Cauchy dans L1, donc convergentes dans L1. Notons Z lalimite. Il reste voir que Z= E[Z|G].

    Fixons n. Pour p n, Zp estGp-mesurable, doncGn-mesurable, et lalimiteZestGn-mesurable. Mais si ZestGn-mesurable pour tout n, elle estG-mesurable. Soit A G. Comme A Gn, on a E[Z1A] = E[Zn1A], donc

    |E[Z1A] E[Z1A]|=|E[Zn1A] E[Z1A]| E(|Zn Z]1A) E|Zn Z|

  • 7/24/2019 processus stochastique univ loraine.pdf

    57/257

    3.7. DCOMPOSITION DE DOOB (*) 49

    Finalement

    |E[Z1A]

    E[Z1A]

    | lim E

    |Zn

    Z

    |= 0, do E[Z1A] = E[Z1A]:

    Zest bien une version de lesprance conditionnelle de ZsachantG.

    3.7 Dcomposition de Doob (*)

    Dfinition:On dit quun processus(Fn)n0- adapt(Cn)n0est un processuscroissant prvisible si C0 = 0,CnCn+1et siCn+1estFn-mesurable.Thorme 30. Toute sous-martingale (Xn)ge0 scrit de manire uniquecomme somme dune martingale (Mn)n0 et dun processus croissant pr-visible intgrable(Cn)n0.

    Dmonstration. Supposons quune telle dcomposition existe : on a alors

    E[Xn+1 Xn|Fn] = E[Mn+1 Mn|Fn] + E[Cn+1 Cn|Fn]= 0 + (Cn+1 Cn)= Cn+1 Cn,

    car (Mn)n0 est une martingale et Cn+1Cn estFn-mesurable. CommeC0= 0, on doit ncessairement avoir

    Cn = i

  • 7/24/2019 processus stochastique univ loraine.pdf

    58/257

    50 CHAPITRE 3. MARTINGALES

    E[MT

    |FS] =MS. Dautre part , le processus (Cn)n0est adapt, donc daprs

    le lemme 4,CSest FS-mesurable et E[CS|FS] =CS. Finalement, E[XT|FS]MS+ CS=XS.

  • 7/24/2019 processus stochastique univ loraine.pdf

    59/257

    3.8. EXERCICES SUR LES MARTINGALES 51

    3.8 Exercices sur les martingales

    3.8.1 Exercices corrigs

    Exercice 23. Soit a R. Soit (Un)n1 une suite de variables alatoiresindpendantes suivant la loi uniforme sur [0, 1]. On dfinit par rcurrenceune suite Xnpar X0 =a et Xn+1=Un+1+ (1 Un+1)X2n.

    1. Montrer que la suite (Xn)n0 est une sous-martingale.

    2. On suppose maintenant que a[0, 1].(a) Montrer que (Xn)n0converge presque srement vers une variable

    alatoireX.

    (b) Donner la valeur de Xlien vers lindication lien vers la solution

    Exercice 24. Urne de PlyaUne urne contient des boules de mcouleurs diffrentes. On suit le procd

    suivant : on prend au hasard (avec quiprobabilit) une boule dans lurne,puis on la replace dans lurne en mme temps quon y ajoute Sboules de lacouleur tire. On sintresse au comportement asymptotique de la rpartitiondes couleurs dans lurne.

    On modlise le problme comme suit : on suppose que lurne contient

    initialement d1 boules de couleur 1, . . ., dm boules de couleur m. On posed= d1 + +dm. On se donne un vecteur dterministe (B1, . . . , Bd) valeursdans{1, . . . , m} de telle sorte que di est le nombre dapparitions de i dansla suite B1, . . . , Bd. On prend maintenant (Un)n1, une suite de variablesalatoires indpendantes telles que pour tout n, Unsuive la loi uniforme sur{1, . . . , d+ (n1)S}. On dfinit alors par rcurrence les suites (Bi)i>d et(Tn)n1en posant, pour n1 :

    Tn=BUn puis, pour ientre 1et S :Bd+i+(n1)S=Tn.

    (Bi)i1reprsente la suite des couleurs des boules successivement ajoutes

    dans lurne, tandis que (Ti)i1reprsente la suite des tirages.On note Vn =d+nS

    k=1 eBk : Vn reprsente le vecteur des effectifs des dif-frentes couleurs avant le n+ 1-ime tirage. On a donc V0 = (d1, . . . , dm).Notons que par construction Vn+1 = Vn+SeTn+1. On pose V

    in =Vn, ei :

    cest le nombre de boules de couleur idans lurne avant le n-ime tirage.Pourn1, n noteFn la tribu engendre par U1, . . . , U n; on pose gale-

    mentF0={, }.1. (a) Montrer que pour tout n1et pour tout i entre1et S, Bd+(n1)S+i

    estFn-mesurable.

  • 7/24/2019 processus stochastique univ loraine.pdf

    60/257

    52 CHAPITRE 3. MARTINGALES

    (b) Montrer que Vin+1=Vi

    n+ Sd+nSk=1 1{Un+1=k}1{Bk=i}

    (c) En dduire que E[Vin+1|Fn] =Vin+ SVin

    d+Sn.

    (d) Montrer que ( Vin

    Sn+d)n0est une martingale.

    (e) En dduire que la suite de vecteurs alatoires Vn/(Sn +d)convergepresque srement vers un vecteur alatoire W.

    (f) Montrer que pour tout n1 et tout i {1, . . . , m}, on a P(Tn=i) = di

    d.

    2. Dans la suite de lexercice, on va chercher dterminer la loi de W.On a besoin cet effet de quelques rappels sur les lois de Dirichlet. Par

    dfinition, la loi de Dirichlet de paramtre (a1, . . . , am) est la loi duvecteur(Y1, . . . , Y m) = ( X1X1++Xm , . . . , Xm

    X1++Xm ), o X1, . . . , X msontdes variables alatoires indpendantes avec pour tout ientre 1 et m :Xi (ai, 1). On peut dmontrer (et cest en fait la seule propritdes lois de Dirichlet qui sera utile ici) que pour toute suite dentiers(b1, . . . , bm), on a

    E[m

    i=1

    Ybii ] =B(a+b)

    B(a) , avec B(a) =

    mi=1(ai)

    (m

    i=1 ai).

    (a) Soit n1,(t1, . . . , tn) {1, . . . , m}n

    . Montrer que

    P(T1 = t1, . . . T n = tn) =

    mi=1 di(di+S) . . . (di+ (ai 1)S)

    d(d+ S) . . . (d+ (n 1)S) ,(3.2)

    oaiest le nombre dapparitions de i dans la suite t1, . . . , tn, puisque

    P(T1 = t1, . . . T n = tn) = E

    m

    i=1Yaii

    , (3.3)

    o le vecteur (Y1, . . . , Y m)suit la loi de Dirichlet de paramtre dS.Remarque : pourk entre1 et n, on pourra avoir intrt noterakile nombre dapparitions deidans la suite t1, . . . , tk.

    (b) Montrer que pour toute suite dentiersa1, . . . , amaveca1+. . . am =n, on a

    P((Vn d)/S= (a1, . . . , am)) =

    n

    a1, . . . , am

    E[

    mi=1

    Yaii ].

  • 7/24/2019 processus stochastique univ loraine.pdf

    61/257

    3.8. EXERCICES SUR LES MARTINGALES 53

    On rappelle que le coefficient multinomial ( n

    a1,a2,...,am)est, par d-finition, le nombre dapplications de{1, . . . , n} dans{1, . . . , m}prenantaifois la valeur i. On a la formule du multinme :

    mj=1

    Xj

    n=

    (a1,...,am)

    n

    a1, a2, . . . , am

    mk=1

    Xakk ,

    o la sommation a lieu sur lesm-uplets dentiers naturels de sommen.

    (c) On note n(u)la fonction caractristique du vecteur (Vn d)/S.Montrer que

    n(u) = E m

    k=1

    Ykeiukn

    .

    (d) Montrer que Vn/(Sn+ d)converge en loi versY.

    (e) Identifier la loi de W.

    Toute la preuve semble reposer sur lidentit miraculeuse (3.3). Enralit, lquation (3.2) entrane que les Ti sont changeables, cest dire que leur loi est invariante par permutation dun nombre fini decoordonnes. Dans ce cas, un thorme de De FinettiHewittSavageentrane que conditionnellement une certaine tribu

    T, les Ti sont

    indpendants et de mme loi. Ici, par exemple on peut dmontrer que

    P(T1 = t1, . . . T n = tn|W) =m

    i=1

    Wti ,

    ce qui entrane (3.3).

    lien vers lindication lien vers la solution

    3.8.2 Exercices non corrigs

    Exercice 25.Soient1et2des temps darrts adapts la filtration(Ft)t0.Montrer que = max(1, 2) est un temps darrt et queF = (F1 , F2).lien vers lindication

    Exercice 26. Soit (Xn)n1 une suite de variables alatoires indpendantesidentiquement distribues admettant un moment dordre 3 et vrifiant EX1 =EX31 = 0et EX

    21 = 1. On noteFn=(X1, . . . , X n)et on pose

    Sn=n

    k=1

    Xi.

  • 7/24/2019 processus stochastique univ loraine.pdf

    62/257

    54 CHAPITRE 3. MARTINGALES

    1. On poseYn=S3n

    3nSn. Montrer que(Yn)n1est une martingale par

    rapport la filtration (Fn)n1.2. Soient a,b,c,ddes rels. On pose

    Q(x, t) =x2 + axt + bx+ct + d.

    Pour quelles valeurs du quadruplet (a,b,c,d) la suite Zn = Q(Sn, n)forme-t-elle une martingale rapport la filtration(Fn)n1?

    lien vers lindication

    Exercice 27. Soit(Xn)n1une surmartingale(Fn)n1-adapte. On supposeque les(Xn)n1 ont toutes la mme loi.

    1. Montrer que (Xn)n1est une martingale.

    2. Montrer que pour tout rel a les suites (Xna)+n1 et (Xna)n1sont des martingales.

    3. En dduire que pour n > p 1, Xn est presque srement suprieurou gal asur lvnement{Xpa}.

    4. En dduire que (Xn)n1est presque srement constante.

    lien vers lindication

    Exercice 28. Soit (Xn)n1 une suite de variables alatoires indpendantesidentiquement distribues dont la loi commune est non dgnre et supportcompact. On pose Sn = X1+ + Xn, (t) = log EetX1 et

    Ytn =etSnn(t).

    1. Montrer que (Ytn )n1 est une martingale par rapport la filtrationnaturelle associe aux(Xn)n1.

    2. On suppose dsormais quetest non-nul. Montrer que(t/2)< (t)/2.

    3. En dduire que (Ytn )n1converge presque srement vers 0.

    4. Retrouver ce rsultat partir de la loi forte des grands nombres.lien vers lindication

    Exercice 29.Retour sur les thormes dapproximationL1 par des martin-galesLors de la preuve des thormes de convergence dapproximationL1 par desmartingales (thormes 28 et 29) , on a vu quune tape importante de lapreuve tait de passer de la convergence presque sre la convergence L1.Pour cela, on sest appuy sur le lemme 6. Une solution un peu plus longue,

  • 7/24/2019 processus stochastique univ loraine.pdf

    63/257

    3.8. EXERCICES SUR LES MARTINGALES 55

    mais clairante, est de passer par lqui-intgrabilit.

    Soit X une variable alatoire intgrable sur (, F, P). Montrer que lafamille de variables E(X|G), oGdcrit lensemble des sous-tribus deFestqui-intgrable. Conclure. lien vers lindication

    Exercice 30. Soita[0, /2]. Soit(Un)n1une suite de variables alatoiresindpendantes suivant la loi uniforme sur [0, 1]. On dfinit par rcurrence unesuiteXnparX0=a et Xn+1 = Un+1sin Xn. Montrer que (Xn)n1prend desvaleurs positives, puis que la suite(2nXn)n0est une surmartingale. lien verslindication

    Exercice 31. Arrt optimal pour une marche alatoire.On considre le jeu suivant. Jai un pion qui se dplace sur les entiers comprisentre 0 et n. A chaque point i {1, . . . , n 1} est associ un somme f(i)strictement positive (on la prolonge par f(0) = f(n) = 0). On prolongeencore f en une fonction continue par morceau dfinie sur [0, n] en posantf(k + (1 )(k + 1)) =f(k) + ( 1 )f(k + 1)pour toutk {0, . . . , n 1}et tout ]0, 1[.

    Mon pion part dun point i0 {1, . . . , n 1} ; chaque tape, je peuxdcider de partir avec le gain correspondant ma position actuelle, ou alorslancer une pice quilibre qui me donnera ma position suivante (juste

    droite si pile, juste gauche si face). Si je touche 0ou nje ne gagne rienet je suis limin. Quelle stratgie adopter ?

    Ce problme revient trouver un temps darrtToptimal pour la marchealatoire. Notons Xn la position de mon pion linstant n, etFn la tribuengendre par X0, . . . , X n.

    1. Soit g une fonction concave suprieure f. Montrer que (g(Xn))nNest une surmartingale.

    2. Soit Tun temps darrt fini p.s. Montrer que

    E(f(XT

    ))

    E(g(XT

    ))

    g(i0).

    3. Notons lenveloppe concave de f, cest dire

    (x) = inf{g(x); gS(f)},

    oS(f)est lensemble des fonctions concaves de [0, n]dans R qui sontsuprieures f. Montrer que

    E(f(XT))(i0).

  • 7/24/2019 processus stochastique univ loraine.pdf

    64/257

    56 CHAPITRE 3. MARTINGALES

    4. Montrer que est une fonction concave. Soit ]s, t[

    [0, n] tel que

    {x[s, t]; f(x) = (x)}={s, t}. Montrer que est affine sur [s, t].5. On dfinit Topt= min{n N, f(Xn) = (Xn)}, ainsi que

    A= min{ji0, f(j) = (j)}et B= max{ji0, f(j) = (j)}.

    CalculerE(f(XTopt))en fonction de f(A)et f(B), et en dduire que

    E(f(XTopt)) = (i0).

    lien vers lindication

    Exercice 32. Soit (Xn)n1 une suite de variables alatoires indpendantescentres, de variance 1. Montrer que la srie de terme gnral Yn = anX1 . . . X nconverge presque srement et dans L2. lien vers lindication

  • 7/24/2019 processus stochastique univ loraine.pdf

    65/257

    Chapitre 4

    Complments de thorie de la

    mesure

    4.1 Rappels de topologie

    4.1.1 Topologie produit

    Si les (Ei, di) sont des espaces mtriques, on dfinit une distance sur

    +i=1Eipar

    (x, y) +i=1

    Ei d(x, y) =+i=1

    2i arctan di(xi, yi).

    Notons ila projection sur la i-ime coordonne : i(x) =xi.La suite(x(n))n1converge vers x si et seulement si pour tout i (i(x(n))n1=

    (x(n)i )n1 converge vers xi=i(x).

    Dmonstration. En effet, on a dun ct lingalit

    di(xni, xi) = tan(arctan di(x

    ni, xi))tan(2id(xn, x)).

    Ainsi, si d(xn

    , x) tend vers 0, di(xn

    i, xi) tend vers 0. Rciproquement, sidi(xni, xi)tend vers 0 pour tout i, on ai1 limn+2i arctan di(xi, xni) = 0i1 n1 |2i arctan di(xi, xni)| 2i/2

    i12i/2< +

    Ainsi, le rsultat annonc dcoule du thorme de convergence domine pourla mesure de comptage.

    Corollaire 10. Un produit dnombrable despaces mtriques complets estcomplet.

    57

  • 7/24/2019 processus stochastique univ loraine.pdf

    66/257

    58 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

    4.1.2 Espaces polonais

    Dfinition. On introduit les deux dfinitions suivantes : Un espace mtrique est sparable sil contient une partie dnombrable

    dense Un espace polonais est un espace mtrique complet et sparable.

    Par exemple, R muni de la mtrique usuelle est un espace polonais : Rest complet etQ est dense dans R.

    Thorme 31(Lemme de Doob). Soient1, 2des ensembles. On supposequeXest une application de1 dans2,