View
271
Download
8
Category
Preview:
Citation preview
Universite Pierre et Marie Curie, Paris 6
Master de Mathematiques 2015-2016
M2–Probabilites et Finance
Calcul Stochastiquedes martingales continues
Philippe Bougerol
3 Decembre 2015
1
TABLE DES MATIERES
1. Introduction au calcul stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1. Modelisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2. Bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3. Un ”primer” sur l’integrale d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.4. Integrale de Wiener et theoreme de Cameron Martin. . . . . . . . . . . . . 51.5. Une formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.6. Biliographie pour tout le cours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2. Integration de Lebesgue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1. Mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2. Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.3. Espaces L1, L1,L2, L2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.4. Convergence en probabilite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.5. Uniforme integrabilite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.6. Divers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.7. Tribu engendree. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.8. Loi d’une variable aleatoire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.9. Mesure produit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.10. Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.11. Independance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3. Mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.1. Loi gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.2. Vecteur gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.3. Famille gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.4. Definition du mouvement brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.5. Filtrations et Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353.6. Propriete de Markov forte du mouvement brownien. . . . . . . . . . . . . . . 37
4 TABLE DES MATIERES
3.7. Existence et Simulation du Mouvement brownien. . . . . . . . . . . . . . . . . 403.8. Construction de P. Levy du mouvement brownien. . . . . . . . . . . . . . . . 413.9. Appendice 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4. Martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.1. Martingales, definition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.2. Martingales a temps discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464.3. Martingale continue a droite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484.4. Formulaire sur l’esperance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . 51
5. Crochet de martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.1. Cas discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.2. Premiers pas, a temps continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565.3. Crochet comme variation quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.4. Martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605.5. Processus a variation finie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635.6. Crochet de deux martingales locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6. Integrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.1. Cas d’une martingale de carre integrable. . . . . . . . . . . . . . . . . . . . . . . . . . 696.2. Cas d’une martingale locale.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 736.3. Semimartingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 756.4. Formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7. Applications de la formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 817.1. Sur le Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 817.2. Martingales exponentielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 837.3. Theoremes de representation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 867.4. Girsanov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 897.5. Critere de Novikov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 907.6. Cameron-Martin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8. Equations differentielles stochastiques. . . . . . . . . . . . . . . . . . . . . . . . . . . 938.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 938.2. Solutions fortes d’E.D.S.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 948.3. Localisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 968.4. Propriete de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 988.5. Processus de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 998.6. EDS et EDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
CHAPITRE 1
INTRODUCTION AU CALCUL
STOCHASTIQUE
Introduction tres tres sommaire et volontairement caricaturale, sans toutes
les justifications mathematiques, pour l’instant.
1.1. Modelisation
On cherche a modeliser (construire des modeles) et faire des calculs sur des
phenomenes evoluant dans le temps qui dependent du hasard.
La valeur Xt du phenomene a l’instant t, peut etre observee a cet instant,
mais pas predite avant. Entre les instants t et t+h une part de hasard s’ajoute.
On s’interesse dans ce cours au cas ou la fonction t 7→ Xt est continue. Pour
faire simple supposons que Xt est a valeurs dans R. On va avoir, pour t, h ≥ 0,
Xt+h = Xt + ∆ht
ou ∆ht est aleatoire. L’idee fondamentale est qu’au moins dans un premier
temps, pour h tres tres (infinitesimalement...) petit, ∆ht peut s’ecrire
∆ht = Htε
ht
ou εht est une variable aleatoire independante de tout ce qui precede et de loi
ne dependant que de h (et donc pas de t) et ou Ht est une fonction continue
de t, ”observable a l’instant t”, par exemple une fonction de Xt. On va voir
que c’est tres operationnel.
C’est assez naturel. Dans le cas deterministe (c’est a dire sans hasard), et
si Xt est derivable, on a bien ce type de modelisation en prenant pour Ht la
derivee a l’instant t et en prenant εht = h.
2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
1.2. Bruit
Le fait d’avoir pris h ≥ 0 (infinitesimalement) petit entraıne des contraintes.
Si on remplace h par h = h1 + h2, avec h1, h2 ≥ 0, on a
Xt+h = Xt +Htεht
= Xt+h1+h2 = Xt+h1 +Ht+h1εh2t+h1
= Xt +Htεh1t +Ht+h1ε
h2t+h1
.
Pour h1 tres petit on a par continuite Ht+h1 ∼ Ht. On arrive donc a
εht ∼ εh1t + εh2t+h1 .
De proche en proche, pour h tres petit,
εht ∼ εh/nt + ε
h/nt+h/n + ε
h/nt+2h/n + · · ·+ ε
h/nt+(n−1)h/n.
Nous avons suppose que εht est une variable aleatoire independante de tout ce
qui precede et de loi ne dependant pas de t. On voit donc que necessairement,
εht est la somme de n variables aleatoires independantes et de meme loi. Une
variante du theoreme de la limite centrale (qui utilise que les εht sont petits ...)
nous conduit a dire qu’alors εht a une loi gaussienne. Notons mh sa moyenne
et σ2h sa variance. La relation
εht = εh1t + εh2t+h1
entraıne que
mh1+h2 = mh1 +mh2 , σ2h1+h2 = σ2
h1 + σ2h2
donc (par exemple si ces coefficients sont continus), il existe a ∈ R et σ ≥ 0
tels que mh = ah et σ2h = σ2h.
On voit donc que l’on peut ecrire
εht = ah+ σ(Bt+h −Bt)
ou Bt est un mouvement brownien sur un espace de probabilite (Ω,A,P),
c’est a dire un processus (=famille de variables aleatoires) continu forme de
v.a. gaussiennes telles que Bt ∼ N(0, t) et Bt+h − Bt est independant de
Br, 0 ≤ r ≤ t.
On etait parti de
Xt+h = Xt +Htεht
donc on a, au moins infinitesimalement,
Xt+h = Xt +Ht(ah+ σ(Bt+h −Bt)).
1.3. UN ”PRIMER” SUR L’INTEGRALE D’ITO 3
Si σ = 0 cela s’interprete par l’equation differentielle
dXt
dt= aHt
ce qui s’ecrit aussi sous forme integrale
Xt −X0 =
∫ t
0aHs ds.
On va voir par contre que si σ > 0 alors Xt ne peut pas etre derivable. On
va donc plutot garder la forme integrale en ecrivant que
Xt −X0 =
∫ t
0aHs ds+
∫ t
0σHs dBs
ou il faut donner un sens a l’integrale dite stochastique∫ t
0 σHs dBs. On verra
qu’il est aussi utile de generaliser en ne prenant pas le meme facteur Hs dans
les deux termes, ce qui s’interprete en distinguant bien la partie aleatoire de
la partie deterministe de l’accroissement.
1.3. Un ”primer” sur l’integrale d’Ito
Le mot ”primer” est anglais et signifie ”premiere couche” en metallurgie.
Pour un processus continu par morceaux Ht on veut donner un sens a∫ t
0Hs dBs.
On va voir que c’est possible et naturel sous l’hypothese que l’on a deja
evoquee, que Ht est observable a l’instant t. Il faudra donner un sens a ca (et
on dira adapte), mais disons que la propriete essentielle dont on va se servir
ici est que l’accroissement Bt+h −Bt, h ≥ 0 est independant de Hs, s ≤ t.La definition simple ”naturelle” ressemble a l’integrale de Riemann : si
Ht =
n∑i=1
Hti1[ti,ti+1[(t)
par analogie avec la formule qui se verifie facilement∫ t
0Hs ds =
n∑i=1
Hti(ti+1 ∧ t− ti ∧ t)
(ou s ∧ t = min(s, t)), on pose∫ t
0Hs dBs =
n∑i=1
Hti(Bti+1∧t −Bti∧t).
4 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
Lemme 1.3.1. — Si Hs ∈ L2 pour tout s > 0, alors pour t > 0,
E(
∫ t
0Hs dBs) = 0,
E((
∫ t
0Hs dBs)
2) = E(
∫ t
0H2s ds).
Preuve: Montrons la seconde egalite :
E((∫ t
0 Hs dBs)2) = E((
n∑i=1
Hti(Bti+1∧t −Bti∧t))2)
=
n∑i,j=1
E(HtiHtj (Bti+1∧t −Bti∧t)(Btj+1∧t −Btj∧t))
=
n∑i=1
E(Hti2(Bti+1∧t −Bti∧t)2) +
+2∑i<j
E(HtiHtj (Bti+1∧t −Bti∧t)(Btj+1∧t −Btj∧t))
=n∑i=1
E(Hti2)E((Bti+1∧t −Bti∧t)2) +
+2∑i<j
E(HtiHtj (Bti+1∧t −Bti∧t))E(Btj+1∧t −Btj∧t)
en utilisant l’independance. Puisque E((Bti+1∧t − Bti∧t)2) = ti+1 − ti et
E((Btj+1∧t −Btj∧t)) = 0 on obtient que
E((
∫ t
0Hs dBs)
2) =
n∑i=1
E(Hti2)(ti+1 ∧ t− ti ∧ t) =
∫ t
0E(Hs
2) ds.
On veut prolonger cette construction a d’autres processus H. On le fait de
la facon suivante : si H(n)t , t ≥ 0, est une suite de processus du type precedent
pour laquelle il y a un processus H tel que H(n) → H au sens ou pour tout
t ≥ 0, ∫ t
0E(H(n)
s −Hs)2 ds→ 0
alors, la suite∫ t
0 H(n)s dBs est une suite de Cauchy dans l’espace L2(Ω,F ,P)
puisque
E([
∫ t
0H(n)s dBs −
∫ t
0H(m)s dBs]
2)
1.4. INTEGRALE DE WIENER ET THEOREME DE CAMERON MARTIN 5
= E([
∫ t
0(H(n)
s −H(m)s ) dBs]
2)
= E(
∫ t
0(H(n)
s −H(m)s )2 ds)
=
∫ t
0E((H(n)
s −H(m)s )2) ds
par le lemme. L’espace L2(Ω,F ,P) etant complet (Hilbert), cette suite∫ t0 H
(n)s dBs converge. On appelle∫ t
0Hs dBs
sa limite. Elle verifie, par passage a la limite, comme au dessus
Proposition 1.3.2. —
E(
∫ t
0Hs dBs) = 0,
E((
∫ t
0Hs dBs)
2) = E(
∫ t
0H2s ds).
Supposons que Ht, t ≥ 0, est un processus continu borne tel que Ht est
σ(Bs, 0 ≤ s ≤ t) mesurable. Alors la suite de processus
H(n)t =
n−1∑k=0
H kTn
1[ kTn,(k+1)T
n[(t)
approxime bien H au sens precedent sur l’intervalle [0, T ] (utiliser le theoreme
de convergence dominee). On peut donc lui appliquer la construction
precedente. En fait on verra qu’au lieu d’etre borne, il suffit que
E(
∫ T
0H2s ds) <∞.
1.4. Integrale de Wiener et theoreme de Cameron Martin
Considerons le cas tres particulier d’un processus Ht(ω), t ≥ 0, ω ∈ Ω,
qui ne depend pas de ω. Autrement dit il existe une fonction f : R+ → Rtelle que Ht(ω) = f(t) pour tout t ≥ 0, ω ∈ Ω. Dans ce cas l’integrale
stochastique a ete introduite des les annees 30 par Wiener et porte parfois
le nom d’integrale de Wiener. Si f ∈ L2([0, T ],m), ou m est la mesure de
Lebesgue, il existe une suite de fonctions fn constantes par morceaux, donc
de la forme fn =∑kn
i=1 ani 1[tni ,t
ni+1[ tels que fn → f dans L2([0, T ],m). Dans
6 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
ce cas, par le paragraphe precedent,∫ t
0 f(s)dBs est la limite dans L2(Ω) de∫ t0 fn(s)dBs. Remarquons que∫ t
0fn(s)dBs =
kn∑i=1
ani (Bt∧tni+1−Bt∧tni )
a une loi gaussienne d’esperance nulle et de variance∫ t
0 fn(s)2ds, donc pour
tout λ ∈ R
E(exp (iλ
∫ t
0fn(s)dBs)) = exp (−1
2λ2
∫ t
0fn(s)2ds)
et quand n→ +∞, puisque∫ t
0 fn(s)2ds→∫ t
0 f(s)2ds,
E(exp (iλ
∫ t
0f(s)dBs)) = exp (−1
2λ2
∫ t
0f(s)2ds).
On a donc montre,
Proposition 1.4.1. — Si f ∈ L2([0, T ],m),∫ t
0 f(s)dBs a une loi gaussienne
centree de variance∫ t
0 f(s)2ds
Pour une fonction f ∈ L2([0, T ],m) posons
Z = exp[
∫ T
0f(s)dBs −
1
2
∫ T
0f(s)2ds]
et sur l’espace de probabilite (Ω,A,P) definissons une probabilite Q par la
formule, pour tout A ∈ A
Q(A) =
∫1AZdP.
Si on note EQ l’esperance par rapport a Q et E l’esperance par rapport a P,
on a pour toute fonction mesurable positive X
EQ(X) =
∫XdQ =
∫XZdP = E(XZ)
Theoreme 1.4.2 (Cameron Martin). — Sur l’espace de probabilite
(Ω,A,Q),
BQt = Bt −
∫ t
0f(s)ds
est, pour 0 ≤ t ≤ T , un mouvement brownien.
1.5. UNE FORMULE D’ITO 7
Preuve: Soit g ∈ L2([0, T ],m). Calculons
EQ(exp[
∫ T
0g(t)dBQ
t ]).
On a ∫ T
0g(t)dBQ
t =
∫ T
0g(t)dBt −
∫ T
0g(t)f(t)dt
donc
EQ(exp[
∫ T
0g(t)dBQ
t ]) = E(exp[
∫ T
0g(t)dBQ
t ]Z)
= E(exp[
∫ T
0g(t)dBt −
∫ T
0g(t)f(t)dt+
∫ T
0f(t)dBt −
1
2
∫ T
0f(t)2dt])
= exp[−∫ T
0(g(t)f(t) +
1
2f(t)2)dt]E(exp[
∫ T
0[g(t) + f(t)]dBt]).
On sait par la proposition precedente que∫ T
0 [g(t)+f(t)]dBt a une loi normale
centree de variance∫ T
0 [g(t) + f(t)]2dt donc
E(exp[
∫ T
0[g(t) + f(t)]dBt]) = exp[
1
2
∫ T
0[g(t) + f(t)]2dt]
On obtient donc
EQ(exp[
∫ T
0g(t)dBQ
t ]) = exp[−∫ T
0(g(t)f(t)+
1
2f(t)2)dt] exp[
1
2
∫ T
0[g(t)+f(t)]2dt]
= exp[1
2
∫ T
0g(t)2dt]
Le theoreme s’en deduit en prenant g(t) =∑n
k=1 λk1[0,tk](t) on voit que le
vecteur (BQt1, · · · , BQ
tn) a sous Q la meme transformee de Fourier, donc la meme
loi que (Bt1 , · · · , Btn) et est donc un mouvement brownien.
1.5. Une formule d’Ito
Commencons par un resultat fondamental, qui est tout a fait particulier au
mouvement brownien.
Theoreme 1.5.1. — Si B est un mouvement brownien si tn0 = 0 < tn1 <
· · · < tnn−1 < tnn = t est une suite de subdivisions de [0, t] dont le pas
sup0≤k≤n−1 |tnk+1 − tnk | tend vers 0, alors, dans L2,
limn→∞
n−1∑k=0
(Btnk+1−Btnk )2 = t.
8 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
En fait montrons le resultat plus general suivant :
Proposition 1.5.2. — Sous les memes hypotheses, si f est une fonction
mesurable bornee, alors dans L2,
limn→∞
n−1∑k=0
f(Btnk )[(Btnk+1−Btnk )2 − (tnk+1 − tnk)] = 0.
Preuve:
E(
(n−1∑k=0
f(Btnk )[(Btnk+1−Btnk )2 − (tnk+1 − tnk)]
)2
)
= E(n−1∑k=0
n−1∑r=0
f(Btnk )f(Btnr )[(Btnk+1−Btnk )2−(tnk+1−tnk)][(Btnr+1
−Btnr )2−(tnr+1−tnr )])
=n−1∑k=0
E(f(Btnk )2[(Btnk+1−Btnk )2 − (tnk+1 − tnk)]2)
+2∑
0≤k<r<nEf(Btnk )f(Btnr )[(Btnk+1
−Btnk )2−(tnk+1−tnk)][(Btnr+1−Btnr )2−(tnr+1−tnr )])
On utilise l’independance des accroissements (esperance du produit est egal
au produit des esperances) :
=
n−1∑k=0
E(f(Btnk )2)E[((Btnk+1−Btnk )2 − (tnk+1 − tnk))2)
+2∑
0≤k<r<nE[f(Btnk )f(Btnr )((Btnk+1
−Btnk )2−(tnk+1−tnk))]E[(Btnr+1−Btnr )2−(tnr+1−tnr )].
Or, puisque Bt+h −Bt a la meme loi que√hB1,
E[(Btnr+1−Btnr )2 − (tnr+1 − tnr )] = 0
E[((Btnk+1−Btnk )2 − (tnk+1 − tnk))2) = E[((
√tnk+1 − tnk)B1)2 − (tnk+1 − tnk))2)
= (tnk+1 − tnk)2E[(B21 − 1)2].
Donc
E(
(n−1∑k=0
f(Btnk )[(Btnk+1−Btnk )2 − (tnk+1 − tnk)]
)2
)
=
n−1∑k=0
(tnk+1 − tnk)2E(f(Btnk )2)E[(B21 − 1)2].
1.5. UNE FORMULE D’ITO 9
Or ceci se majore par, si C = E[(B21 − 1)2] max f2,
Cn−1∑k=0
(tnk+1 − tnk)2 ≤ C sup0≤k≤n−1
|tnk+1 − tnk |n−1∑k=0
(tnk+1 − tnk)
≤ Ct sup0≤k≤n−1
|tnk+1 − tnk |
qui tend vers 0.
Theoreme 1.5.3 (Une formule d’Ito). — Si f : R → R est a derivee
seconde continue,
f(Bt) = f(B0) +
∫ t
0f ′(Bs) dBs +
1
2
∫ t
0f ′′(Bs) ds.
Preuve: On peut se ramener au cas f est a support compact. On va utiliser
la formule de Taylor (Taylor-Lagrange) : pour tout x, y il existe z entre x et y
tels que
f(y)− f(x) = f ′(x)(y − x) +1
2f ′′(z)(y − x)2.
On prend une suite de subdivisions de [0, t], par exemple tnk = ktn .
f(Bt)− f(B0) =n−1∑k=0
(f(Btnk+1)− f(Btnk ))
=
n−1∑k=0
f ′(Btnk )(Btnk+1−Btnk ) +
1
2
n−1∑k=0
f ′′(θkn)(Btnk+1−Btnk )2
ou θkn est entre Btnk et Btnk+1.
Comme ca ne depend pas de n c’est egal a sa limite quand n → +∞.
Prenons la limite de chacun des deux termes de la somme pour une sous suite
(en utilisant que la convergence L2 entraıne la convergence p.s. pour une sous
suite). Pour le premier, on remarque d’abord que
n−1∑k=0
f ′(Btnk )(Btnk+1−Btnk ) =
∫ t
0Zns dBs
ou
Znt =
n−1∑k=0
f ′(Btnk )1[tnk ,tnk+1](t).
Donc,
E([
n−1∑k=0
f ′(Btnk )(Btnk+1−Btnk )−
∫ t
0f ′(Bs) dBs]
2)
10 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
= E([
∫ t
0(Zns − f ′(Bs)) dBs]2)
= E(
∫ t
0(Zns − f ′(Bs))2 ds)
qui tend vers 0 par le theoreme de convergence dominee usuel. Donc, dans L2,
n−1∑k=0
f ′(Btnk )(Btnk+1−Btnk )→
∫ t
0f ′(Bs) dBs.
On regarde maintenant le dernier terme :
n−1∑k=0
[f ′′(θnk )− f ′′(Btnk )](Btnk+1−Btnk )2
≤ sup1≤r≤n−1
|f ′′(θnr )− f ′′(Btnr )|n−1∑k=0
(Btnk+1−Btnk )2
tend vers 0, p.s. suivant une sous suite car f ′′ est uniformement continue. Par
la proposition, dans L2,
limn→∞
n−1∑k=0
f ′′(Btnk )(Btnk+1−Btnk )2 = lim
n→∞
n−1∑k=0
f ′′(Btnk )(tnk+1 − tnk)
=
∫ t
0f ′′(Bs) ds
puisque f ′′ est continue (approximation de l’integrale de Riemann).
On laisse en exercice la generalisation suivante tres utile, en utilisant la
formule de Taylor pour une fonction de deux variables.
Theoreme 1.5.4 (Une formule d’Ito). — Si f : R+ × R → R, (t, x) 7→f(t, x) est a derivees secondes continues,
f(t, Bt) = f(0, 0) +
∫ t
0
∂f
∂t(s,Bs) ds
∫ t
0
∂f
∂x(s,Bs) dBs +
1
2
∫ t
0f ′′(s,Bs) ds
1.5.1. Deux calculs. —
B2t = 2
∫ t
0Bs dBs + t.
Si Zt = exp(λBt − λ2t2
2 ) alors
Zt = 1 +
∫ t
0λZsdBs.
1.6. BILIOGRAPHIE POUR TOUT LE COURS 11
1.6. Biliographie pour tout le cours
R. Bass : Stochastic Processes, Cambridge University Press, 2011.
F. Baudoin : Diffusion Processes and Stochastic Calculus, EMS Textbooks
in mathematics, 2014.
R. Durrett : Stochastic calculus, A practical Introduction, 1996. CRC Press.
I. Karatzas, S. Shreve : Brownian motion and stochastic calculus, Second
Edition 1991. Springer.
F.C Klebaner : Introduction to Stochastic Calculus with Applications, Second
Edition 2005. Imperial College Press.
J.-F. Le Gall : Mouvement brownien, martingales et calcul stochas-
tiqueSpringer, Collection : Mathematiques et Applications, Vol. 71, 2013.
(Recommande)
B. Oksendal : Stochastic differential equations, 6th edition, 2010. Springer.
(Beaucoup d’applications)
Ph. Protter : Stochastic Integration and Differential Equations, Second Edi-
tion Version 2.1, 2005. Springer (traite aussi le cas discontinu).
D. Revuz, M. Yor : Continuous martingales and Brownian motion, 2004.
Springer.
CHAPITRE 2
INTEGRATION DE LEBESGUE
Le but de ce chapitre est de developper rapidement ce que l’on appelle la
theorie abstraite de l’integration de Lebesgue.
2.1. Mesures
Un espace mesurable est la donnee (Ω,F) d’un ensemble Ω et d’une tribu
F sur cet ensemble :
Definition 2.1.1. — Une classe de parties F d’un ensemble Ω est une tribu
si
(i) elle est stable par complementaire,
(ii) elle est stable par reunion denombrable,
(iii) elle contient Ω.
Pour comparaison une topologie est une classe d’ouverts : c’est a dire, par
definition, une classe de parties de Ω stable par union quelconque, intersection
finie, contenant Ω et ∅
Definition 2.1.2. — Une mesure sur un espace mesurable (Ω,F) est une
application m : F → R+ ∪ +∞ telle que
(i) m(∅) = 0.
(ii) m(A ∪B) = m(A) +m(B) si A ∈ F , B ∈ F sont disjoints.
(iii) si (An) est une suite croissante d’elements de F , m(An)→ m(∪An).
On dit que m est σ-finie si on peut ecrire Ω comme une reunion denombrable
d’ensembles de mesure finie ; m est une probabilite si m(Ω) = 1.
14 CHAPITRE 2. INTEGRATION DE LEBESGUE
Exemple : Lorsque Ω est denombrable (c’est a dire fini ou en bijection avec
N) , F = ensemble de toutes les parties de Ω est une tribu et m(A) = Card(A)
definit une mesure σ-finie (theorie des series).
Il est difficile de decrire aussi explicitement des exemples tres differents de
celui ci, comme par exemple la mesure de Lebesgue que nous verrons.
Definition 2.1.3. — On dit qu’une propriete est vraie p.p. (presque partout)
ou p.s. (presque surement) si elle est vraie en dehors d’un ensemble de mesure
nulle.
2.2. Integration
Soit (Ω,F ,m) un espace mesurable muni d’une mesure. Une fonction f :
Ω→ R est etagee si on peut l’ecrire sous la forme
f =n∑k=1
rk1Ak
ou rk ∈ R, Ak ∈ F , k = 1, ..n. On definit l’integrale de la fonction etagee f
positive par ∫f dm =
n∑k=1
rkm(Ak).
(avec la convention ici que 0 · ∞ = 0). On verifie que ca ne depend pas de la
decomposition choisie et que, si f, g sont etagees positives et a, b ∈ R+,∫(af + bg) dm = a
∫f dm+ b
∫g dm.
Pour l’instant, appelons fonction mesurable reelle une fonction f : Ω → Rtelle que pour tout a ∈ R, f > a ∈ F . (On utilisera les notations f > a =
ω ∈ Ω; f(ω) > a et R = R ∪ +∞ ∪ −∞).
Lemme 2.2.1. — Si (fn) est une suite de fonctions mesurables, alors
supn∈N fn est mesurable.
Preuve: En effet il suffit d’ecrire que
supn∈N
fn > a = ∪n∈Nfn > a.
2.2. INTEGRATION 15
Si (fn) est une suite de fonctions mesurables, pour la meme raison, infn∈N fnet donc
lim sup fn := limn→+∞
supk≥n
fk = infn∈N
supk≥n
fk
lim inf fn := limn→+∞
infk≥n
fk = supn∈N
infk≥n
fk
sont mesurables. En particulier une limite de fonctions mesurables est me-
surable (rappelons qu’une suite fn converge dans R ssi f := lim sup fn =
lim inf fn et qu’alors f est la limite).
Si f : Ω→ R est mesurable positive on pose∫f dm = sup
∫g dm
ou le sup est pris sur l’ensemble des fonctions etagees g qui verifient 0 ≤ g ≤ f .
Si f est mesurable on dit que f est integrable si f+ := max(f, 0) et f− :=
−min(f, 0) sont d’integrale finie et on pose alors∫f dm =
∫f+ dm−
∫f− dm.
On voit que f est integrable ssi |f | l’est puisque |f | = f+ + f− et on a
|∫f dm| ≤
∫|f | dm
Lemme 2.2.2. — Une fonction integrable est finie presque partout.
Preuve: Soit A = |f | = +∞. Si r > 0 et g = r1A, on a g ≤ |f | donc
rm(A) =
∫g dm ≤
∫|f |dm
ce qui n’est possible pour r > 0 que si m(A) = 0.
Si f et g sont mesurables finies, −f et f + g sont aussi mesurables car
−f > ac = f ≥ −a = ∩n∈Nf > −a−1
n
et
f + g > a = ∪r∈Qf > r, g > a− r.
On en deduit
Proposition 2.2.3. — L’ensemble des fonctions integrables est un espace
vectoriel.
16 CHAPITRE 2. INTEGRATION DE LEBESGUE
Theoreme 2.2.4 (de convergence monotone, ou de Beppo Levi)
Si fn est une suite croissante de fonctions mesurables positives,
limn→+∞
∫fn dm =
∫lim
n→+∞fn dm.
Preuve: La fonction f := lim fn est mesurable. Puisque fn ≤ fn+1 ≤ f , il est
facile de voir que ∫fn dm ≤
∫fn+1 dm ≤
∫f dm.
Donc lim∫fn dm ≤
∫f dm. Pour montrer l’inegalite inverse, prenons une
fonction etagee g telle que 0 ≤ g ≤ f et un reel c tel que 0 < c < 1. Chaque
ensemble
En = fn ≥ cgest mesurable, la suite En est croissante, de reunion Ω. On a∫
fn dm ≥∫fn1En dm ≥
∫cg1En dm.
Comme g est etagee, on verifie que le terme de droite tend vers c∫g dm. On
a donc
lim
∫fn dm ≥ c
∫g dm
d’ou, par definition,
lim
∫fn dm ≥ c
∫f dm.
Il suffit alors de faire tendre c vers 1.
Corollaire 2.2.5. — Si (fn)est une suite de fonctions mesurables positives
+∞∑n=0
∫fn dm =
∫ +∞∑n=0
fn dm.
Lemme 2.2.6 (de Fatou). — Soit (fn) une suite de fonctions mesurables
positives, ∫lim inf fn dm ≤ lim inf
∫fn dm.
Theoreme 2.2.7 (de convergence dominee). — Soit (fn) une suite de
fonctions mesurables verifiant |fn(x)| ≤ g(x) pour tout x de E, ou g est une
fonction integrable, alors si fn converge
limn→+∞
∫fn dm =
∫lim
n→+∞fn dm.
2.3. ESPACES L1, L1,L2, L2. 17
Preuve: En remplacant fn par fn − lim fk on se ramene au cas ou fn → 0.
Dans ce cas, par Fatou applique a g − |fn| ≥ 0,∫g dm ≤
∫lim inf g−|fn| dm ≤ lim inf
∫g−|fn| dm =
∫g dm−lim sup
∫|fn| dm
Donc lim sup∫|fn| dm = 0 ce qui assure que lim
∫|fn| dm = 0. Donc
| lim∫fn dm| ≤ lim
∫|fn| dm = 0.
2.3. Espaces L1, L1,L2, L2.
On note L1 l’ensemble des fonctions integrables, L2 l’ensemble des fonctions
de carre integrable, i.e. des fonctions mesurables f : Ω→ R telles que∫|f |2 dm < +∞,
et L∞ l’ensemble des fonctions mesurables f pour lesquelles il existe une
constante M ≥ 0 telle que |f | ≤M , p.p. On pose
‖f‖1 =
∫|f | dm
‖f‖2 = (
∫f2 dm)1/2.
et ‖f‖∞ = l’inf des M tels que |f | ≤M , p.p. On definit ainsi des semi-normes
c’est a dire que la relation suivante est vraie pour p = 1, 2,∞ :
‖f + g‖p ≤ ‖f‖p + ‖g‖pCeci est immediat pour p = 1 et resulte pour p = 2 du lemme essentiel suivant :
Lemme 2.3.1 (inegalite de Cauchy Schwarz). — Pour f, g mesurables
(
∫fg dm)2 ≤
∫f2 dm
∫g2 dm.
Preuve: Pour tout λ ∈ R, le trinome en λ du second degre
λ2[
∫f2 dm] + 2λ[
∫fg dm] +
∫g2 dm =
∫(λf + g)2 dm
est positif, ce qui n’est possible que si son discriminant
[
∫fg dm]2 − [
∫f2 dm][
∫g2 dm]
est negatif.
18 CHAPITRE 2. INTEGRATION DE LEBESGUE
On dit qu’une suite de fonctions mesurables fn converge vers f dans Lp, si
limn→+∞
‖fn − f‖p = 0.
Theoreme 2.3.2. — Si une suite fn converge vers f dans Lp il existe une
sous suite d’entiers nk telle que, pour presque tout ω ∈ Ω
fnk(ω)→ f(ω).
Preuve: Ecrivons la preuve pour p = 1. Par hypothese pour ε = 1/2k il existe
nk tel que
‖fnk − f‖1 ≤1
2k.
Alors, par Beppo Levi,∫ ∞∑k=0
|fnk − f | dm =
∞∑k=0
∫|fnk − f | dm =
∞∑k=0
‖fnk − f‖ ≤∞∑k=0
1
2k< +∞
Donc (cf Lemme 2.2.2) la serie∑∞
k=0 |fnk − f | converge p.p. ce qui entraıne
que son terme general fnk − f tend vers 0, p.p.
Definition 2.3.3. — La suite (fn) est de Cauchy dans Lp si pour tout ε > 0
il existe N > 0 tel que pour m,n ≥ N
‖fn − fm‖ ≤ ε.
Theoreme 2.3.4. — Soit (fn) une suite de Cauchy dans Lp. Alors il existe
f ∈ Lp tel que fn → f dans Lp.
Preuve: Ecrivons la preuve pour p = 1. Puisque la suite (fn) est de Cauchy,
pour tout k ∈ N, il existe Nk tel que, pour n,m ≥ Nk,
‖fn − fm‖ ≤ 2−k.
Si on prend nk = max(N0, · · · , Nk) on voit que
‖fnk+1− fnk‖ ≤ 2−k.
Donc, un peu comme dans la preuve precedente,∫ ∞∑k=1
|fnk+1− fnk | dm =
∞∑k=0
‖fnk+1− fnk‖ ≤
∞∑k=0
1
2k< +∞.
2.3. ESPACES L1, L1,L2, L2. 19
Donc (cf Lemme 2.2.2)∑∞
k=0 |fnk − fnk+1| est fini presque partout, et la serie∑∞
k=0(fnk − fnk+1) est donc convergente (car absolument convergente). On a
fnp = fn0 +
p−1∑k=0
(fnk+1− fnk)
et on pose
f = fn0 +∞∑k=0
(fnk+1− fnk).
Pour tout n ≥ Nk, p ≥ k, ‖fn − fnp‖ ≤ 2−k donc, en appliquant le lemme de
Fatou, ∫|fn − f | dm ≤
∫lim infp→+∞
|fn − fnp | dm ≤ 2−k
d’ou ‖fn − f‖ tend vers 0.
Par rapport a la topologie il y a une petite difficulte car
Lemme 2.3.5. — Si f est mesurable∫|f | dm = 0 si et seulement si f = 0
p.p.
Cela resulte immediatement de la tres importante inegalite suivante
Lemme 2.3.6 (Inegalite de Markov). — Si f est une fonction mesurable
positive et T > 0,
m(f ≥ T ) ≤∫f dm
T.
Donc ‖f‖ = 0, n’entraıne pas que f est nulle (partout). Donc ‖ · ‖ n’est pas
une norme, mais seulement une semi-norme, et d(f, g) = ‖f −g‖ pas vraiment
une distance. Ce n’est pas genant (et si on veut une norme on remplace Lppar l’ensemble Lp des classes de fonctions egales presque partout).
Un role particulier est joue par L2 (ou L2) car il a une structure geometrique
plus riche que les autres. On peut y definir les angles et surtout l’orthogonalite,
a partir du produit scalaire : pour f, g ∈ L2
〈f, g〉 =
∫fg dm.
Un espace vectoriel muni d’un produit scalaire dans lequel les suites de Cauchy
convergent est appele un espace de Hilbert. Donc L2 (ou plutot L2) est un
espace de Hilbert. Une propriete fondamentale des espaces de Hilbert est le
theoreme suivant.
20 CHAPITRE 2. INTEGRATION DE LEBESGUE
Theoreme 2.3.7 (Theoreme de projection). — Soit V un sous espace
vectoriel ferme dans un espace de Hilbert H. Pour tout x ∈ H il existe un
unique element v ∈ V appele la projection de x sur V caracterise par
— v ∈ V— 〈x− v, w〉 = 0, pour tous w ∈ V .
Corollaire 2.3.8. — Soit W un sous espace vectoriel d’un Hilbert H. Si le
seul vecteur orthogonal a W est 0, alors W est dense dans H
Preuve: Appliquer le theoreme a l’adherence de W .
2.4. Convergence en probabilite
Definition 2.4.1. — Une suite de v.a. Xn tend vers X en probabilite si pour
tout ε > 0,
P(|Xn −X] ≥ ε)→ 0
quand n→ +∞.
Lemme 2.4.2. — Xn → 0 en probabilite si et seulement si min(|Xn|, 1)→ 0
dans L1
Preuve: Si Xn → 0 en probabilite, pour tout ε > 0,
E(min(|Xn|, 1)) = E(min(|Xn|, 1)1|Xn|≥ε) + E(min(|Xn|, 1)1|Xn|<ε)
≤ P(|Xn| ≥ ε) + ε ≤ 2ε
pour n assez grand. Reciproquement, par l’inegalite de Markov, pour 0 ≤ ε ≤ 1
P(|Xn| ≥ ε) = P(min(1, |Xn|) ≥ ε) ≤min(1, |Xn|)
ε
qui tend vers 0.
On deduit donc du Theoreme 2.3.2 que
Proposition 2.4.3. — Si Xn → 0 p.s., alors Xn → 0 en probabilite.. Si
Xn → X en probabilite il existe une sous suite nk telle que Xnk → X presque
surement.
2.5. UNIFORME INTEGRABILITE 21
2.5. Uniforme integrabilite
Limitons nous au cas des probabilites et utilisons les notations probabilistes :
on note P une probabilite sur (Ω,F). Une variable aleatoire reelle X : Ω→ Rest la meme chose qu’une fonction mesurable et on pose
E(X) =
∫X dP.
Definition 2.5.1. — Une famille L de v.a. est uniformement integrable si
supX∈L
∫|X|>R
|X| dP→ 0, quand R→ +∞.
Lemme 2.5.2. — Si Xi, i ∈ I et Yi, i ∈ I sont uniformement integrables,
alors Xi + Yi, i ∈ I est uniformement integrable.
Preuve: On a
E(|Xi|1|Xi+Yi|≥M) = E(|Xi|1|Xi+Yi|≥M1|Xi|≥M/2)+E(|Xi|1|Xi+Yi|≥M1|Xi|<M/2)
≤ E(|Xi|1|Xi|≥M/2) + E(|Xi|1|Xi+Yi|≥M1|Xi|<M/2)Le sup du premier terme tend vers 0 car (Xi) est uniformement integrable.
Pour le second on remarque qu’il est majore par
E(|Yi|1|Yi|≥M/2)
qui tend aussi vers 0.
Theoreme 2.5.3. — Soit Xn, n ∈ N une suite uniformement integrable de
v.a. qui converge en probabilite (donc a fortiori si elle converge p.s.) vers X.
Alors Xn → X dans L1 et en particulier, E(Xn)→ E(X).
Preuve: La suite Yn = |Xn − X| est aussi uniformement integrable par le
lemme.. Ensuite
E(Yn) = E(Yn1Yn<R) + E(Yn1Yn≥R)
Pour tout ε > 0, pour R assez grand, le second terme est inferieur a ε/2 par
unif. int. Un tel R etant choisi, le premier terme est inferieur a ε/2 pour n
assez grand, par convergence en probabilite.
Proposition 2.5.4. — Une suite de v.a. Xn telle que supnE(X2n) < +∞ est
uniformement integrable.
Preuve: On utilise que 1|Xn|>R ≤|Xn|R donc
E[|Xn|1|Xn|>R] ≤E[X2
n]
R.
22 CHAPITRE 2. INTEGRATION DE LEBESGUE
2.6. Divers
Lemme 2.6.1 (de Borel Cantelli). — Soit (An) une suite de sous en-
sembles mesurables de Ω telle que∑∞
n=0m(An) < +∞. Alors
+∞∑k=0
1An < +∞ p.s.
Autrement dit, presque tout ω ∈ Ω n’appartient qu’a un nombre fini de An.
Preuve: Par convergence monotone,∫ +∞∑k=0
1An dm =
+∞∑k=0
m(An) < +∞
donc∑+∞
k=0 1An < +∞ p.p. .
2.7. Tribu engendree
Definition 2.7.1. — Soit C un ensemble de parties de Ω. On appelle tribu
engendree par C et on note σ(C) la plus petite tribu contenant C.
Definition 2.7.2. — Soit E un espace muni d’une topologie, on appelle tribu
borelienne de E et on note B(E) la tribu engendree par les ouverts.
Definition 2.7.3. — Soit (E, E) et (F,B) deux espaces mesurables, on dit
qu’une fonction f : E → F est mesurable si pour tout B ∈ B, f−1(B) ∈ E .
Lorsque E ou F est un espace topologique, si on ne le precise pas, on le
munit de la tribu borelienne. On retrouve donc la notion introduite avant. Un
sup, un inf, une limite d’une suite de fonctions mesurables a valeurs reelles
sont mesurables. Les fonctions continues sont mesurables.
Lemme 2.7.4. — Toute fonction mesurable de E dans R+ est la limite crois-
sante d’une suite de fonctions etagees.
En effet,
f = limn→+∞
n1n≤f +
n2n−1∑k=0
k
2n1 k
2n≤f< k+1
2n
(lorsque f est finie on peut se passer du premier terme).
Pour s’habituer aux notations, utilisons le vocabulaire des probabilites.
Donnons nous une famille (Ei, Ei), i ∈ I, d’espaces mesurables.
2.7. TRIBU ENGENDREE 23
Definition 2.7.5. — Soit Xi : Ω → Ei, i ∈ I, des v.a.. On appelle tribu
engendree par cette famille et on note σ(Xi, i ∈ I) la tribu engendree par
Xi ∈ Ai, Ai ∈ Ei et i ∈ I.
Intuitivement, la tribu σXi, i ∈ I est formee des ensembles que l’on peut
decrire a l’aide des Xi. Pour une seule application X : Ω → Rd, σ(X) est
exactement la classe des ensembles X ∈ A, ou A est un borelien de Rd.Donnons nous pour toute la suite un espace de probabilite (Ω,F ,P). Une
variable aleatoire est la meme chose qu’une application mesurable mais la
plupart du temps a valeurs dans E = R ou Rd. Le lemme suivant est tres
utile.
Lemme 2.7.6. — Soit X une application de Ω dans un espace mesurable
(E, E) et σ(X). Une application Y : Ω→ R est σ(X)-mesurable si et seulement
si il existe une application mesurable φ : E → R telle que Y = φ(X).
Preuve: Supposons d’abord que Y est etagee et σ(X)-mesurable. On peut par
definition l’ecrire sous la forme Y =∑k
n=1 αn1An , ou An ∈ σ(X). Il existe donc
pour tout n, un borelien Bn tel que An = X ∈ Bn. Posons φ =∑k
n=1 αn1Bn .
On verifie qu’alors Y = φ(X). Ceci montre la partie directe du lemme lorsque
Y est etagee. Dans le cas general, si Y est σ(X)-mesurable, il existe une suite
de v.a. etagees Yn telle que Y = limYn. Par ce qui precede, on peut ecrire
Yn = φn(X) et il suffit alors de poser φ = lim supφn. La reciproque est facile.
Une facon agreable d’exprimer le lemme precedant est de dire qu’une va-
riable aleatoire Y est σ(X1, X2, · · · , Xn)-mesurable si et seulement si elle
s’ecrit
Y = φ(X1, X2, · · · , Xn)
pour une application borelienne φ.
Le maniement des tribus engendrees est souvent delicat. Un outil sophis-
tique :
Theoreme 2.7.7 (de la classe monotone). — Soient C et M des en-
sembles de parties de Ω tels que C ⊂ M. On suppose que
(i) C est stable par intersection finie (i.e. A,B ∈ C implique A ∩B ∈ C).
(ii) M est stable par difference propre (i.e. A,B ∈ M et A ⊂ B implique
B \A ∈M).
(iii)M est stable par limite croissante (i.e. An ∈M et An ⊂ An+1 implique
∪An ∈M).
(iv) Ω est dans M.
24 CHAPITRE 2. INTEGRATION DE LEBESGUE
Alors σ(C) est contenu dans M.
Preuve: Montrons que l’intersection N de toutes les classes M verifiant
(ii), (iii), (iv) est une tribu donc contient σ(C). Stable par intersection finie :
Fixons un A de C, la classe
B ∈ N ;A ∩B ∈ N
contient C par (i) et verifie (ii, iii, iv), elle contient donc N . Maintenant, fixons
un B dans N , la classe
C ∈ N ;C ∩B ∈ Ncontient C par ce que l’on vient de montrer et verifie (ii, iii, iv), elle contient
donc N .
Le resultat fondamental de la theorie de l’integration est le suivant :
Theoreme 2.7.8. — Il existe une et une seule mesure m sur R, appelee
mesure de Lebesgue, verifiant
m(]s, t]) = t− s
Plus generalement, pour toute fonction croissante continue a droite A il existe
une mesure et une seule mA verifiant
mA(]s, t]) = A(t)−A(s)
pour tout s < t.
La preuve de l’existence est difficile, nous l’admettons. Par contre l’unicite
est consequence du theoreme de la classe monotone (applique a la classe des
intervalles de la forme [a, b], a, b ∈ R, qui engendre la tribu borelienne et est
stable par intersection finie.)
Il est facile de voir, en utilisant le theoreme de convergence dominee que
pour toute fonction continue a support compact sur R,∫f dm n’est autre que
l’integrale de Riemann de f . Nous utiliserons donc aussi la notation∫f(x) dx.
2.8. Loi d’une variable aleatoire
On se donne un espace de probabilite (Ω,F ,P) et un ensemble E, muni
d’une tribu E .
Definition 2.8.1. — Soit X : Ω → E une variable aleatoire (= application
mesurable). On appelle loi de X et on note parfois P(X) la probabilite sur
(E, E) definie par P(X)(A) = P(X ∈ A), pour tout A de E .
2.9. MESURE PRODUIT 25
La regle de calcul suivante est d’un emploi constant : il faut absolument
savoir la manier. La premiere egalite est la definition de l’esperance.
Proposition 2.8.2. — Soit X une variable aleatoire a valeurs dans E. Pour
toute fonction mesurable f : E → R, a valeurs positives ou telle que f(X) soit
integrable, on a
E(f(X)) =
∫Ωf(X) dP =
∫Ef dP(X).
Definition 2.8.3. — Etant donne deux mesures µ et ν sur (Ω,F), et une
fonction mesurable positive φ : Ω → R, on dit que µ a la densite φ par
rapport a ν et on ecrit
dµ = φdν
si pour tout A ∈ F
µ(A) =
∫Aφ(x) dν(x).
Alors, pour toute fonction mesurable positive f∫f dµ =
∫fφ dν.
Souvent lorsqu’on dit qu’une v.a. reelle a la densite φ, on sous entend que sa
loi a la densite φ par rapport a la mesure de Lebesgue.
Proposition 2.8.4. — Si une v.a. X a une loi de densite φ, alors
E(f(X)) =
∫f(x)φ(x) dm(x)
pour toute fonction mesurable positive f .
2.9. Mesure produit
Soient (E1, E1,m1) et (E2, E2,m2) deux espaces mesures σ-finis. On munit
E1×E2 de la tribu E1⊗E2 sur E1×E2, appelee tribu produit, engendree par
les ensembles de la classe
C = A×B,A ∈ E1, B ∈ E2
Cette classe est stable par intersection finie. On pose, pour tout C ∈ E1 ⊗ E2,
(m1 ⊗m2)(C) =
∫∫
1C(x, y) dm1(x) dm2(y)
26 CHAPITRE 2. INTEGRATION DE LEBESGUE
(a l’aide du thm de classe monotone, on verifie que y 7→∫
1C(x, y) dm1(x) est
bien mesurable). On definit ainsi une mesure sur m1 ⊗m2 sur E1 ×E2. De la
meme facon, la formule
ν(C) =
∫∫
1C(x, y) dm2(y) dm1(x)
definit aussi une mesure. Pour tout C = A×B de C,
(m1 ⊗m2)(C) = m1(A)m2(B) = ν(C)
On deduit donc du theoreme de classe monotone que les deux mesures m1⊗m2
et ν coincident. Il en resulte assez facilement :
Theoreme 2.9.1 (de Fubini). — Soit f : E1 × E2 → R une fonction me-
surable. Alors, pour tout x ∈ E1, la fonction
y ∈ E2 7→∫f(x, y) dm1(x)
est mesurable et∫∫f(x, y) dm1(x)dm2(y) =
∫∫f(x, y) dm2(y)dm1(x)
sous l’une des deux hypotheses suivantes (i) f est a valeurs positives (ii) f est
integrable
Lorsque f n’est pas positive, on applique souvent ce thm a |f | pour montrer
que f est integrable.
L’exemple fondamental est celui de la mesure de Lebesgue sur Rd = R ×R× · · · ×R, egale au produit, d fois, de la mesure de Lebesgue sur R. Pour la
manier on utilise parfois le
Theoreme 2.9.2 (de changement de variables). — Si φ est un
diffeomorphisme de l’ouvert U sur l’ouvert V , on a, pour toute f ∈ B+(Rd),
(1)
∫Vf(v) dm(v) =
∫Uf(φ(u))|J(φ)(u)| dm(u).
ou J(φ) est le determinant de la matrice des∂φj∂uk
et m est le mesure de
Lebesgue.
2.10. PROCESSUS 27
2.10. Processus
Un processus (a temps continu) est une famille de variables aleatoires (Xt) a
valeurs dans un espace E muni d’une tribu E , indexee par t ∈ R+. En fait c’est
la meme chose qu’une variable aleatoire a valeurs dans l’ensemble F (R+, E)
des fonctions de R+ dans E muni de la tribu F(R+, E) engendree par les
applications φt : F (R+, E)→ E definies par φt(ω) = ω(t), ω ∈ F (R+, E).
La loi du processus est par definition la loi de cette variable aleatoire.
Proposition 2.10.1. — La loi d’un processus est determinee par les lois
finies dimensionnelles, c’est a dire les lois de
(Xt1 , · · ·Xtn), 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn, n ∈ N.
Preuve: Cela resulte du theoreme de la classe monotone. En effet, la classe
des sous ensembles de F(R+, E) qui s’ecrivent
ω ∈ F (R+, E);ω(t1) ∈ E1, · · · , ω(tn) ∈ En
ou les Ek sont dans E est stable par intersection finie et engendre la tribu
F(R+, E).
Soit (Ω,F ,P) un espace de probabilite. On represente ce que l’on ”connait”
a l’instant t par une tribu Ft. Ceci amene a poser
Definition 2.10.2. — Une famille croissante (Ft, t ∈ R+) de sous-tribus de
F , c’est a dire verifiant Fs ⊂ Ft ⊂ F , s’appelle une filtration et le terme
(Ω,F ,Ft,P) un espace de probabilite filtre.
Un processus Xt est dit adapte a cette filtration si Xt est Ft-mesurable,
pour tout t ≥ 0.
L’exemple fondamental de filtration est donne par Ft = σ(Xs, s ≤ t) ou
(Xt) est un processus quelconque. Si Xt est un processus adapte sans regularite
particuliere, on ne sait rien de sa dependance en t. Elle n’est peut etre meme
pas borelienne. Ceci amene a poser :
Definition 2.10.3. — Un processus progressivement mesurable Xt, t ∈ R+,
est un processus tel que pour tout T ≥ 0, l’application
(t, ω) ∈ [0, T ]× Ω 7→ Xt(ω)
est mesurable de B([0, T ])⊗FT dans B(R), ou B([0, T ]) et B(R) sont les tribus
boreliennes.
En pratique tous les processus adaptes que nous rencontrerons seront pro-
gressifs. C’est par exemple le cas des processus continus et plus generalement,
28 CHAPITRE 2. INTEGRATION DE LEBESGUE
Lemme 2.10.4. — Si X est un processus continu a droite (ou a gauche)
adapte a (Ft), l’application (s, ω) 7→ Xs(ω) est progressivement mesurable.
Preuve: Pour continu a droite : pour tout n, posons
X(n)s =
n−1∑k=0
X k+1n∧t1 k
n∧t≤s< k+1
n∧t
Alors (s, ω) 7→ X(n)s (ω) est mesurable de ([0, t] × Ω,B([0, t]) ⊗ Ft) dans E. Il
en est donc de meme de la limite X de X(n) quand n→ +∞.
2.11. Independance
La notion la plus importante en probabilite est sans conteste la notion
d’independance. Elle recouvre a la fois une notion intuitive (le resultat du
loto est independant de la temperature, etc ...) et une notion mathematique.
Il est necessaire de bien posseder ces deux aspects et de comprendre qu’ils
signifient la meme chose. Un bon utilisateur des probabilites est quelqu’un qui
sait exploiter l’independance, ou la non independance, dans les evenements
de la vie courante. Meme si le plus souvent on ne s’interesse qu’a l’independ-
ance d’evenements ou de variables aleatoires, il s’avere plus efficace de definir
l’independance de tribus. Un espace de probabilite (Ω,A,P) est toujours fixe.
Definition 2.11.1. — On dit que des tribus A1, · · · ,An contenues dans Asont independantes si, pour tout A1 ∈ A1, · · · , An ∈ An,
P(A1 ∩A2 · · · ∩An) = P(A1)P(A2) · · ·P(An).
Des variables aleatoires X1, · · · , Xn sont dites independantes si les tribus
engendrees σ(X1), · · · , σ(Xn) le sont. On dit qu’une famille infinie de sous
tribus (ou de variables aleatoires) est formee de tribus independantes lorsque
toute sous famille finie a cette propriete. Donnons quelques resultats utiles au
maniement de l’independance. Le premier est tres important et son enonce
est a bien comprendre, malgre son aspect complique. Nous en donnons deux
formes.
Proposition 2.11.2 (Lemme de regroupement). — (Forme 1). Soit I
un ensemble d’indices, et Ai, i ∈ I, des sous tribus independantes de A.
Alors, si I1, I2, · · · , In sont des parties disjointes de I, les tribus σ(Ai, i ∈I1), σ(Ai, i ∈ I2), · · · , σ(Ai, i ∈ In) sont independantes.
2.11. INDEPENDANCE 29
(Forme 2). Soit X1, X2, · · · , Xn, · · · des variables aleatoires indep-
endantes. Alors si 0 < n1 < n2 < n3 < · · · les variables aleatoires
φ1(X1, · · · , Xn1), φ2(Xn1+1, · · · , Xn2), · · · sont independantes, pour toute
application φ1 : Rn1 → R, φ2 : Rn2−n1 → R, · · · , mesurable.
Donnons un exemple simple mais typique d’utilisation : si X,Y, U, V sont
quatre variables aleatoires reelles independantes, alors X +Y et UV sont ind-
ependantes.
Theoreme 2.11.3. — Deux variables aleatoires X,Y sont independantes si
et seulement si P(X,Y ) = P(X) ⊗ P(Y ).
Corollaire 2.11.4. — Si les variables aleatoires X,Y sont independantes,
alors pour toute fonction φ mesurable positive (ou telle que φ(X,Y ) soit
integrable) on a
E[φ(X,Y )] =
∫ ∫φ(x, y) dP(X)(x)dP(Y )(y).
On peut aussi ecrire cette relation sous les formes
E[φ(X,Y )] =
∫Ω
∫Ωφ(X(ω), Y (ω′)) dP(ω)dP(ω′),
ou encore
E[φ(X,Y )] =
∫ΩE[φ(X,Y (ω′))] dP(ω′),
qui nous seront utiles.
CHAPITRE 3
MOUVEMENT BROWNIEN
3.1. Loi gaussienne
La loi gaussienne N(m,σ2) sur R est la masse de Dirac en m lorsque σ = 0
et la loi de densite1√
2πσ2e−
(x−m)2
2σ2
sinon. Il n’y a pas de primitive explicite mais une excellente approximation par
une fraction rationnelle (1). Si X suit la N(m,σ2), alors E(X) = m, var(X) =
σ2. Lorsque σ = 0, X = m p.s. La fonction caracteristique est E(eitX) =
exp−σ2t2
2 + itm.
Proposition 3.1.1. — Toute limite de v.a. gaussiennes, en loi, en probabi-
lite, ou p.s., ou dans L1, ou dans L2 est gaussienne. De plus l’esperance et la
variance convergent vers l’esperance et la variance de la limite.
Preuve: Toutes les convergences considerees entraınent la convergence en
loi. Supposons donc que Xn converge en loi vers X et que Xn suit une loi
N(mn, σ2n). Alors E(eitXn) = exp−σ2
nt2
2 +itmn et E(eitXn)→ g(t) := E(eitX).
En prenant le module on voit que exp−σ2nt
2
2 → |g(t)| donc que σ2n converge
vers σ2 = −(2 log |g(t)|)/t2. On en deduit que eitmn converge vers h(t) =
exp−σ2t2
2 g(t). Alors, si f est C1 a support compact, tel que∫f(t)h(t)dt 6= 0,
par integration par parties,∫f ′(t)eitmndt = −imn
∫f(t)eitmndt
1. cf. Appendice
32 CHAPITRE 3. MOUVEMENT BROWNIEN
donc, en pasant a la limitemn converge versm := i(∫f ′(t)h(t)dt)/(
∫f(t)h(t)dt).
On voit donc que
E(eitXn)→ exp−σ2t2
2+ itm
et la limite est donc gaussienne.
3.2. Vecteur gaussien
On identifie un vecteur a une matrice colonne. L’esperance d’un vecteur
aleatoire X = (X1, · · · , Xd)t est le vecteur E(X) = (E(X1), · · · ,E(Xd))
t et sa
matrice de covariance est,
KX = E[(X − E(X))(X − E(X))t] = E(XXt)− E(X)[E(X)]t.
ses composantes sont KX(i, j) = Cov(Xi, Xj). Si les composantes X1, . . . , Xd
sont independantes, K(X) est diagonale. Il est clair que
Lemme 3.2.1. — Si M est une matrice deterministe r × d, on a KMX =
MKXMt.
Pour λ ∈ Rd, notons
〈λ,X〉 =
d∑i=1
λiXi
le produit scalaire. En appliquant le lemme a M = λt on voit que
λtKXλ = var〈λ,X〉 ≥ 0.
En particulier, KX est une matrice symetrique semi-definie positive, donc
diagonalisable de valeurs propres positive ou nulles.
Definition 3.2.2. — Un vecteur aleatoire X = (X1, . . . , Xd)t est dit gaus-
sien si toute combinaison lineaire des composantes suit une loi normale.
Proposition 3.2.3. — Un vecteur X est gaussien si et seulement, il existe
un vecteur m ∈ Rd et une matrice de covariance K telle que pour tout λ ∈ Rd
E(exp(i〈λ,X〉) = exp(i〈λ,m〉 − λtKλ
2).
Alors m = E(X) et K = KX .
3.4. DEFINITION DU MOUVEMENT BROWNIEN 33
Un exemple typique de vecteur gaussien est donne par un vecteur de com-
posantes normales independantes. Par contre, en general, un vecteur a com-
posantes gaussiennes n’est pas necessairement gaussien. En appliquant la pro-
position precedente pour calculer la fonction caracteristique, on obtient le
theoreme fondamental suivant :
Theoreme 3.2.4. — Soit (X1, . . . , Xp, Y1, · · · , Yq)t un vecteur gaussien de
Rp+q. Alors les vecteurs (X1, . . . , Xp) et (Y1, · · · , Yq) sont independants ssi
cov(Xi, Yj) = 0
lorsque 1 ≤ i ≤ p, 1 ≤ j ≤ q.
3.3. Famille gaussienne
Une famille, ou un processus, Xi, i ∈ I de variables aleatoires est dite
gaussienne si toute combinaison lineaire finie de ces v.a. suit une loi normale.
La loi globale de cette famille (c’est a dire par definition, la loi de toute sous
famille finie) est determinee par les esperances E(Xi), i ∈ I, et les covariances
Cov (Xi, Xj), i, j ∈ I. Comme pour le thm. on a
Theoreme 3.3.1. — Soit Xi, i ∈ I une famille gaussienne et I1, I2, · · · , Indes parties disjointes de I. Alors les familles
Xi, i ∈ I1, Xi, i ∈ I2, · · · , Xi, i ∈ In
sont independantes ssi
cov(Xi, Xj) = 0
chaque fois que iet j sont dans des ensembles I1, · · · , In differents.
Preuve: Il suffit de voir que Xi, i ∈ I1 ∪ I2 ∪ · · · ∪ In−1 est independant de
Xi, i ∈ In...
3.4. Definition du mouvement brownien
Definition 3.4.1. — On appelle mouvement brownien un processus gaussien
Bt, t ∈ R+, presque surement a trajectoires continues, tel que B0 = 0 et
Bt+s −Bt est independant de σ(Bu, u ≤ t) de loi N(0, s), pour tout t, s ≥ 0.
Proposition 3.4.2. — Un processus gaussien continu Bt, t ∈ R+ est un
mouvement brownien si et seulement si
E(Bt) = 0, E(BtBs) = min(s, t), pour tout t, s ≥ 0.
34 CHAPITRE 3. MOUVEMENT BROWNIEN
Preuve: Supposons d’abord que Bt, t ∈ R+, est un mouvement brownien.
Alors Bt est centre donc E(Bt) = 0. De plus, si 0 ≤ s ≤ t, on sait que Bt−Bsest independant de σ(Br, r ≤ s), donc en particulier de Bs. Il en resulte que
E(BtBs) = E((Bt −Bs +Bs)Bs) = E(Bt −Bs)E(Bs) + E(B2s ) = s.
Reciproquement, supposons les relations vraies et montrons qu’alors Bt, t ∈R+, est un mouvement brownien. Il faut montrer d’abord que si 0 ≤ s ≤ t,
Bt −Bs est independant de σ(Br, r ≤ s). Puisque la famille des Bt, t ≥ 0, est
gaussienne, il suffit de verifier que Cov(Bt −Bs, Br) = 0, si r ≤ s ≤ t. Or
Cov(Bt −Bs, Br) = E(BtBr)− E(BsBr) = min(t, r)−min(s, r) = 0.
Ensuite, il faut voir que, si 0 ≤ s ≤ t, loi de Bt −Bs ne depend que de t− s :
cette loi est gaussienne centree et sa variance est
E((Bt −Bs)2) = E(B2t ) + E(B2
s )− 2E(BtBs) = t+ s− 2s = t− s.
Enfin, Bt est bien centre de variance t.
Faisons une remarque importante sur la continuite. Dans l’enonce precedent
ne supposons pas a priori la continuite. La construction de Paul Levy donnee
plus bas construit un processus continu et le fait d’etre uniformement continu
sur les rationnels de [0, T ] pour un T > 0 fixe est mesurable. On voit donc que
sous les autres hypotheses de la proposition, Bt est p.s. uniformement continu
sur les rationnels de [0, T ], pour tout T > 0, donc admet un prolongement par
continuite a R+ tout entier.
Corollaire 3.4.3. — Soit Bt, t ∈ R+ un mouvement brownien. Alors
1. pour tout a > 0, Bt+a −Ba, t ∈ R+,
2. (Scaling) pour tout α ∈ R, αBα−2t, t ∈ R+,
3. tB1/t, t ∈ R+,
sont des mouvements browniens.
Preuve: Les trois assertions se montrent de la meme facon. Traitons par
exemple la seconde. Posons Xt = αBα−2t. Tout d’abord, toute combinaison
lineaire des v.a. Xt est une combinaison lineaire de certains Bs donc est
gaussienne. Ceci montre que le processus Xt, t ≥ 0 est gaussien. Il est continu
comme Bt. Il est clair que E(Xt) = 0, et
E(XtXs) = α2E(Bα−2tBα−2s) = α2 min(t
α2,s
α2) = min(s, t).
3.5. FILTRATIONS ET BROWNIEN 35
Par la proposition precedente, Xt, t ≥ 0 est un brownien. Dans le troisieme
cas, il faut aussi verifier la continuite p.s. en 0. Puisque tB1/t, t > 0 a la meme
loi que Bt, t > 0, Xn = sup0<s<1/n |sB1/s| et Yn = sup0<s<1/n |Bs| ont la
meme loi. Donc P(Xn → 0) = P(Yn → 0) = 1 puisque B est continu en 0, ce
qui montre la continuite p.s.
3.5. Filtrations et Brownien
Considerons un espace de probabilite filtre (Ω, (Ft),F ,P). En general, on
note F∞ = σ(Ft, t ≥ 0). On pose
(2) Ft+ = ∩ε>0Ft+ε.
On dit que la filtration Ft est continue a droite si Ft+ = Ft. La filtration Ft+est elle meme continue a droite.
Definition 3.5.1. — Un processus B adapte a (Ω,Ft,P) est un (Ft)–mouve-
ment brownien si B est un mouvement brownien et pour tout s ≥ 0, la famille
Bt −Bs, t ≥ s est independante de Fs.
Theoreme 3.5.2. — Un (Ft)–mouvement brownien est aussi un (Ft+)–mou-
vement brownien.
Preuve: Pour tout s < t < t1 < · · · < td le vecteur
(Bt1 −Bt, · · · , Btd −Bt)
est independant de Ft donc de Fs+ , qui est contenu dans Ft. Par continuite
(Bt1 −Bs, · · · , Btd −Bs)
est aussi independant de Fs+ .
Corollaire 3.5.3 (Loi 0–1 de Blumenthal). — Soit B un mouvement
brownien et Ft = σ(Bs, 0 ≤ s ≤ t). Pour tout A ∈ F0+, P(A) = 0 ou 1.
Preuve: F0+ est independant de Bt pour tout t > 0 donc de Ft, donc de F0+ .
36 CHAPITRE 3. MOUVEMENT BROWNIEN
3.5.1. Quelques proprietes trajectorielles du brownien. — Le resultat
technique suivant va nous permettre de decrire quelques proprietes non tri-
viales du mouvement brownien.
Lemme 3.5.4. — Si Bt, t ∈ R+ est un mouvement brownien,
lim supt→0+
Bt√t
= +∞, lim inft→0+
Bt√t
= −∞, p.s.
Preuve: La variable aleatoire R = lim supt→0+ Bt/√t est F0+–mesurable, ou
Ft = σ(Bs, 0 ≤ s ≤ t), donc constante p.s.. Plus precisement, soit R = +∞,
soit il existe une constante α telle que R ≤ α, p.s. Ce dernier cas est impossible
car il entraıne que P(Bt√t≥ α+ 1) → 0 quand t = 1/n avec n → +∞ alors
que P(Bt√t≥ α+ 1) = P(B1 ≥ α + 1) 6= 0. Le cas de la liminf s’obtient en
appliquant la limsup a (−Bt) qui est aussi un brownien.
Proposition 3.5.5. — Pour presque tout ω, la trajectoire t 7→ Bt(ω),
(i) n’est nulle part derivable ;
(ii) passe une infinite de fois par chaque point de R.
Preuve: Le lemme assure que B n’est pas derivable en 0, p.s., donc en
tout point t fixe, sur un ensemble de probabilite 1, qui peut dependre de
t. Nous admettons qu’on peut choisir cet ensemble independant de t. Posons
Wt = tB1/t. Comme Wt, t ≥ 0, est un mouvement brownien, on peut lui
appliquer le lemme : presque surement,
lim supt→0
Wt√t
= +∞.
Donc, en posant s = t−1,
lim sups→+∞
1√sBs = lim sup
s→∞
√sW1/s = +∞,
donc supBt = +∞. De meme inf Bt = −∞ ; les trajectoires etant continues
elles doivent passer par tous les points, une infinite de fois, p.s.
La preuve precedente montre aussi que la trajectoire oscille enormement au
moment ou elle part de 0, puisqu’elle arrive a traverser une infinite de fois
l’axe x = 0 avant chaque instant fixe.
3.6. PROPRIETE DE MARKOV FORTE DU MOUVEMENT BROWNIEN 37
3.6. Propriete de Markov forte du mouvement brownien
3.6.1. Temps d’arret. — Soit (Ω,Ft,P) un espace de probabilite filtre et
F∞ = σ(Ft, t ≥ 0).
Definition 3.6.1. — Une application τ de Ω dans R+ est un temps d’arret
si, pour tout t ≥ 0, τ ≤ t ∈ Ft. La tribu
Fτ := A ∈ F∞ , pour tout t ≥ 0, A ∩ τ ≤ t ∈ Ft
s’appelle la tribu des evenements anterieurs a τ .
Lemme 3.6.2. — Une application τ : Ω → R+ est un temps d’arret si et
seulement si le processus
Xt = 1[0,τ [(t)
est adapte.
Proposition 3.6.3. — (i) Soient σ et τ des temps d’arret. Alors σ ∨ τ et
σ ∧ τ sont des temps d’arret et Fσ∧τ = Fσ ∩ Fτ . De plus σ ≤ τ et σ = τappartiennent a Fσ∧τ .
(ii) Soient τn des temps d’arret. Alors supn τn est un temps d’arret.
(iii) Supposons (Ft) continue a droite. Alors τ est un temps d’arret des que
τ < t ∈ Ft et un inf d’une suite de temps d’arret est un temps d’arret.
Preuve: (i) Soit A ∈ Fσ ∩ Fτ , alors A ∩ σ ∧ τ ≤ t = (A ∩ σ ≤ t) ∪(A ∩ τ ≤ t) ∈ Ft et A ∈ Fσ∧τ . Si A ∈ Fσ∧τ , A ∩ τ ≤ t = A ∩ σ ∧ τ ≤t ∩ τ ≤ t est dans Ft. Donc A ∈ Fτ de meme A ∈ Fσ. Pour montrer
que σ ≤ τ ∈ Fσ∧τ , il suffit de montrer que σ ≤ τ ∈ Fσ ∩ Fτ . Mais
l’on a σ ≤ τ ∩ τ ≤ t = σ ≤ t ∩ τ ≤ t ∩ σ ∧ t ≤ τ ∧ t ∈ Ft et
σ ≤ τ ∩ σ ≤ t = σ ∧ t ≤ τ ∧ t ∩ σ ≤ t ∈ Ft. On procede de meme
pour σ = τ.(ii) On a supn τn ≤ t = ∩nτn ≤ t ∈ Ft.(iii) Si τ < t ∈ Ft, pour tout t ≥ 0, τ ≤ t = ∩ε>0τ < t+ ε ∈ Ft+ = Ft.Si τn est une suite de temps d’arret et τ = inf τn, τ < t = ∪nτn < t ∈ Ft,donc τ est un temps d’arret.
Soit (Xt) un processus adapte a (Ω, (F t)) a valeurs dans un espace metrique
(E, d), par exemple Rk avec la norme usuelle. La distance d definit une topo-
logie et on munit E de la tribu borelienne. On associe a un sous ensemble A
de E,
(3) τA(ω) = inf(t ≥ 0, Xt(ω) ∈ A),
τA est appele le temps d’entree dans A.
38 CHAPITRE 3. MOUVEMENT BROWNIEN
Proposition 3.6.4. — Si A est ferme et X a trajectoires continues, τA est
un temps d’arret.
Preuve: Posons d(x,A) = infa∈A d(x, a). Cette fonction est continue car, pour
tout x, y ∈ E et a ∈ A
d(x, a) ≤ d(x, y) + d(y, a)
donc d(x,A) ≤ d(x, y) +d(y,A) ce qui assure que |d(x,A)−d(y,A)| ≤ d(x, y).
On utilise alors que
τA ≤ t = ∩n ∪s≤t,s∈Q+ d(Xs, A) ≤ 1
n ∈ Ft.
(detail : si τA ≤ t, puisque A est ferme, il existe s ≤ t tel que Xs ∈ A. Par
continuite de x 7→ d(x,A), on a alors d(Xs, A) = 0. Il existe donc sn ∈ Qtel que sn → s et sn < s pour lequel d(Xsn , A) ≤ 1/n. Donc l’inclusion de
τA ≤ t dans le terme de droite. Reciproquement, si pour tout n ∈ N, il existe
sn ≤ t tel que d(Xsn , A) ≤ 1/n, pour toute valeur d’adherence s de la suite snon a s ≤ t et d(Xs, A) = 0 donc Xs ∈ A.)
Proposition 3.6.5. — Si A est ouvert et X a trajectoires continues a droite,
τA est un temps d’arret de Ft+.
Preuve: En effet
τA < t = ∪s<t,s∈Q+Xs ∈ A
Proposition 3.6.6. — Si X est un processus adapte progressivement mesu-
rable (cf. 2.10.3) et si τ est un temps d’arret, Xτ1τ<∞ est Fτ -mesurable.
Preuve: Soit Γ un borelien de E. Il s’agit de montrer que pour tout t ≥ 0,
Xτ ∈ Γ ∩ τ ≤ t ∈ Ft. Remarquons que
Xτ ∈ A ∩ τ ≤ t = Xτ∧t ∈ A ∩ τ ≤ t.
Soit Ωt = τ ≤ t. L’application ω 7→ (τ(ω), ω) est mesurable de (Ωt,Ft)dans ([0, t] × Ω,B([0, t]) ⊗ Ft), l’application (s, ω) 7→ Xs(ω) est mesurable de
(([0, t]×Ω,B([0, t])⊗Ft) dans E. Donc l’application composee ω 7→ Xτ(ω)(ω)
de (Ωt,Ft) dans E est mesurable i.e. τ ≤ t,Xτ ∈ Γ ∈ Ft.
3.6.2. La propriete de Markov forte du brownien. —
Lemme 3.6.7. — Soit τ un temps d’arret. Il existe une suite decroissante
τn, n ∈ N de temps d’arret convergeant vers τ telle que τn est a valeurs dans
k/2n, k ∈ N ∪ +∞.
Preuve: On peut prendre τn = [2nτ ]+12n .
3.6. PROPRIETE DE MARKOV FORTE DU MOUVEMENT BROWNIEN 39
Theoreme 3.6.8. — Soit Bt, t ≥ 0 un (Ft)–mouvement brownien. Alors,
pour tout temps d’arret τ , conditionnellement a τ < +∞, le processus
Bt+τ −Bτ , t ∈ R+ est un brownien, independant de Fτ .
Preuve: Il faut montrer que pour toute v.a. Z, Fτ -mesurable bornee et
F : Rd → R, continue bornee,
E(Z1τ<+∞F (Bt1+τ −Bτ , Bt2+τ −Bτ , · · · , Btd+τ −Bτ )) =
= E(Z1τ<+∞)E(F (Bt1 , · · · , Btd))On considere d’abord le cas ou τ prend toutes ses valeurs dans l’ensemble
denombrable sk = k2−n, k ∈ N. Alors, puisque τ < +∞ est la reunion
denombrable des ensembles disjoints τ = sk, on peut ecrire :
E(Z1τ<+∞F (Bt1+τ − Bτ , · · · , Btd+τ −Bτ )) =
=+∞∑k=0
E(ZF (Bt1+τ −Bτ , · · · , Btd+τ −Bτ )1τ=sk)
=
+∞∑k=0
E(Z1τ=skF (Bt1+sk −Bsk , · · · , Btd+sk −Bsk))
=+∞∑k=0
E(Z1τ=sk)E(F (Bt1 , · · · , Btd))
= E(Z1τ<+∞)E(F (Bt1 , · · · , Btd))
ou l’on a utilise que Z1τ=sk est Fsk mesurable et que B est un Ft–brownien.
Dans le cas general, on approche τ par une suite decroissante τn de temps
d’arret a valeurs denombrables, donnee par le lemme. Puisque Fτ est contenu
dans Fτn on a encore
E(Z1τ<+∞F (Bt1+τn −Bτn , · · · , Btd+τn −Bτn)) =
E(Z1τ<+∞)E(F (Bt1 , · · · , Btd))et on fait tendre n vers l’infini pour conclure, en utilisant la continuite des
trajectoires.
Proposition 3.6.9 (Principe de reflexion). — Soit Bt, t ≥ 0 un mou-
vement brownien. Pour a > 0, on pose Ta = inft ≥ 0;Bt = a. Alors
P(Ta ≤ t) = 2P(Bt ≥ a).
La densite de Ta est f(s) = a(2πs3)−1/2e−a2/2s1R+(s). En particulier E(Ta) =
+∞.
40 CHAPITRE 3. MOUVEMENT BROWNIEN
Preuve: En utilisant la propriete de Markov forte du brownien, on sait que
Wt = Bt+Ta − BTa est un brownien independant de FTa donc en particulier
de Ta. On peut donc ecrire, puisque BTa = a et en utilisant a l’avant derniere
ligne l’important theoreme 4.4.5 que
P(Bt ≥ a) = P(Ta ≤ t, Bt ≥ a)
= P(Ta ≤ t, (Bt −BTa) +BTa ≥ a)
= P(Ta ≤ t,Wt−Ta ≥ 0)
=
∫1s≤tP(Wt−s ≥ 0)dPTa(s)
=1
2P(Ta ≤ t).
On en deduit, avec le changement de variable de x en s ou x = a√t/s,
P(Ta ≤ t) = 2P(Bt ≥ a) =√
2/πt
∫ ∞a
e−x2/2t dx = a
∫ t
0(2πs3)−1/2e−a
2/2s ds.
Donc la densite de Ta est f(s) = a(2πs3)−1/2e−a2/2s, ce qui permet de calculer
l’esperance.
On voit donc que, bien que le brownien passe une infinite de fois par tout
les points, il met un temps d’esperance infinie pour atteindre un point donne.
La propriete suivante est assez etonnante !
Corollaire 3.6.10. — La loi de sup0≤s≤tBs est la meme que celle de |Bt|.
Preuve: P(sup0≤s≤tBs ≥ a) = P(Ta ≤ t) = 2P(Bt ≥ a) = P(|Bt| ≥ a).
3.7. Existence et Simulation du Mouvement brownien
L’ordinateur simule une suite Un de v.a. i.i.d. uniformes sur [0, 1]. (Par
simulation on veut dire qu’il ”tente” de fabriquer ... ) On commence par simuler
des v.a. independantes X1, X2, · · · de loi gaussienne N(0, 1). Une facon de faire
est de poser
Xn =√−2 logU2n sin(2πU2n+1).
Un intervalle de temps [0, T ] etant donne, on choisit ensuite un pas de
discretisation h = Tn , ou n ∈ N. On simule la trajectoire brownienne aux
instants kT/n, k = 0, 1, · · · , n− 1 en posant B0 = 0 puis par recurrence,
B(k+1)T/n = BkT/n +
√T
nXk+1.
3.8. CONSTRUCTION DE P. LEVY DU MOUVEMENT BROWNIEN 41
Il y a une autre methode de simulation, qui permet de faire eventuellement
un effet de loupe sur un morceau de trajectoire choisi. Expliquons le principe
de cette construction en simulant le mouvement brownien sur [0, 1] par raffine-
ments successifs : A l’etape n on construit le brownien au points k2n , 0 ≤ k ≤ 2n.
A l’etape 0 on pose B0 = 0 et on choisit pour B1 une v.a. de loi N(0, 1). Une
fois l’etape n achevee, on procede ainsi : on se donne des v.a. ε0, ε1, · · · indep-
endantes entre elles et de ce qui precede, avec εn de loi N(0, 2−n) et l’on pose,
pour k entier,
B 2k+1
2n+1=B k
2n+B k+1
2n
2+ εk.
On verifie (cf. la construction de P. Levy dans la section suivante) que l’on
construit bien ainsi un mouvement brownien sur [0, 1] en passant a la limite
sur l’approximation lineaire. Ceci montre en particulier son existence.
3.8. Construction de P. Levy du mouvement brownien
Soit Yk,n; 0 ≤ k ≤ 2n, n ∈ N des v.a. independantes, toutes de loi
N(0, 1). On construit par recurrence sur n une suite Xn(t), 0 ≤ t ≤ 1n∈N∗de processus tels que :
Xn(t) est lineaire sur chaque intervalle dyadique [2−nk, 2−n(k + 1)],
X0(0) = 0, X0(1) = Y1,0,
Xn+1(2−nk) = Xn(2−nk),
Xn+1(2−(n+1)(2k + 1)) = Xn(2−(n+1)(2k + 1)) + 2−(n+2)/2Y2k+1,n+1.
Pour n fixe, toute combinaison lineaire des Xn(t), 0 ≤ t ≤ 1 est une
combinaison lineaire des Yk,m pour m ≤ n et est donc gaussienne. Montrons
par recurrence sur n que les v.a. Xn(2−n(k+1))−Xn(2−nk), k = 0, 1, · · · 2n−1,
sont independantes de loi N(0, 2−n). Si c’est vrai au rang n, regardons
Xn+1(2−n−1(2k + 1))−Xn+1(2−n−1(2k)) =
Xn(2−n(k + 1))−Xn(2−nk)
2+ 2−(n+2)/2Y2k+1,n+1
et
Xn+1(2−(n+1)(2k + 2))−Xn+1(2−(n+1)(2k + 1)) =
Xn(2−n(k + 1))−Xn(2−nk)
2− 2−(n+2)/2Y2k+1,n+1
42 CHAPITRE 3. MOUVEMENT BROWNIEN
La seule chose non evidente est que ces deux v.a. sont independantes. Or leur
covariance est
var(Xn(2−n(k + 1))−Xn(2−nk)
2)− var(2−(n+2)/2Y2k+1,n+1) = 0.
Vu la construction de Xn+1 a partir de Xn,
sup0≤t≤1
|Xn+1(t)−Xn(t)| = sup0≤k≤2n−1
2−(n+2)/2Y2k+1,n+1
donc
P( sup0≤t≤1
|Xn+1(t)−Xn(t)| ≥ 2−n/4) = P( sup0≤k≤2n−1
2−(n+2)/2|Y2k+1,n+1| ≥ 2−n/4)
P( sup0≤k≤2n−1
|Y2k+1,n+1| ≥ 2(n+4)/4) ≤2n−1∑k=0
P(|Y2k+1,n+1| ≥ 2(n+4)/4)
= 2nP(|Y0,0| ≥ 2(n+4)/4)
Utilisons la majoration, pour a > 0
1√2π
∫ +∞
ae−t
2/2dt ≤ 1√2π
∫ +∞
a
t
ae−t
2/2dt ≤ 1√2π
1
ae−a
2/2
pour voir que∞∑n=0
P( sup0≤t≤1
|Xn+1(t)−Xn(t)| ≥ 2−n/4) < +∞
On en deduit, par Borel Cantelli, que, p.s., pour n assez grand,
sup0≤t≤1
|Xn+1(t)−Xn(t)| ≤ 2−n/4
donc que Xn converge uniformement sur [0, 1]. La limite Xt est donc continue,
c’est un processus gaussien centre continu dont les covariances coıncident avec
celles du brownien sur les dyadiques, donc partout.
3.9. Appendice 1
Donnons une excellente approximation de la fonction de repartition de la
loi normale sous la forme d’un programme C.
// standard normal density function
double ndf(double t)
return 0.398942280401433*exp(-t*t/2);
3.9. APPENDICE 1 43
// standard normal cumulative distribution function
double nc(double x)
double result;
if (x<-7.)
result = ndf(x)/sqrt(1.+x*x);
else if (x>7.)
result = 1. - nc(-x);
else
result = 0.2316419;
static double a[5] = 0.31938153,-0.356563782,1.781477937,
-1.821255978,1.330274429;
result=1./(1+result*fabs(x));
result=1-ndf(x)*(result*(a[0]+result*
(a[1]+result*(a[2]+result*(a[3]+result*a[4])))));
if (x<=0.) result=1.-result;
return result;
CHAPITRE 4
MARTINGALES
4.1. Martingales, definition
Pour T = R ou N on considere (Ω, (Ft)t∈T ,P) un espace de probabilite filtre.
Definition 4.1.1. — Une famille de variables aleatoires reelles Mt, t ∈ T , est
une martingale si Mt ∈ L1, (Mt) est adapte et
E(Mt|Fs) = Ms, pour tout 0 ≤ s ≤ t.
Une famille Mt, t ∈ T , est une sous-martingale si Mt ∈ L1, (Mt) est adapte et
E(Mt|Fs) ≥Ms, pour tout 0 ≤ s ≤ t.
Si M est une (ss)-martingale sur (Ω, (Ft)t∈T ,P), ca l’est aussi pour la
filtration naturelle F0t = σ(Ms, s ≤ t).
Exemple. Soit X ∈ L1. On pose Xt = E(X|Ft). On a, pour s < t,
E(Xt|Fs) = E(E(X|Ft)|Fs) = E(X|Fs) = Xs
et Xt est une martingale.
Proposition 4.1.2. — Soit B un (Ft)–mouvement brownien. Alors,
(i) Bt, t ∈ R+ ;
(ii) B2t − t, t ∈ R+ ;
(iii) pour λ ∈ R , exp(λBt − λ2t2 ), t ∈ R+ ;
sont des (Ft)-martingales.
Proposition 4.1.3 (Inegalite de Jensen). — Soit M une martingale
(resp. sous martingale) et φ : R → R une fonction convexe (resp. convexe
croissante). Si φ(Mt) est integrable pour tout t ≥ 0, c’est une sous martingale.
46 CHAPITRE 4. MARTINGALES
Preuve: Une fonction convexe est l’enveloppe superieure d’une famille de
droites : il existe une famille F de fonctions affines (du type x 7→ ax+ b) telles
que
φ(x) = supf∈F
f(x)
avec de plus chaque f croissante si φ est croissante (c’est evident si ϕ(x) = x+,
ou |x| ou x2, qui sont les cas principaux ou on appliquera cette inegalite dans
la suite du cours). Pour tout f ∈ F
E(φ(Mt)|Fs) ≥ E(f(Mt)|Fs) = f(E(Mt|Fs)) ≥ f(Ms)
donc E(φ(Mt)|Fs) ≥ supf∈F f(Ms) = φ(Ms).
Exemple : Si M est une martingale |M | est une sous martingale et si X est
une sous martingale, alors X+ est une sous martingale.
Proposition 4.1.4. — Soit M (n)t , t ∈ T, n ∈ N, une suite de (Ft)– martin-
gales. Si pour tout t, M(n)t tend vers Mt dans L1, ou afortiori dans L2, alors
Mt, t ∈ T , est une martingale.
Preuve: On utilise que
E(|E(M(n)t |Fs)− E(Mt|Fs)|) ≤ E(E(|M (n)
t −Mt||Fs)) = ||M (n)t −Mt||1.
4.2. Martingales a temps discret
Nous allons exposer deux resultats fondamentaux de Doob, indispensables
pour nous. Etant donne un processus M et un temps d’arret τ on note M τ le
processus arrete a l’instant τ , defini par :
M τt = Mτ∧t.
Theoreme 4.2.1 (d’arret). — Soit Mn, n ∈ N une (sous) martingale et
τ un temps d’arret. Alors M τ est encore une (sous)-martingale.
Preuve: Il suffit d’ecrire
M τn+1 −M τ
n = 1τ>n(Mn+1 −Mn).
Le lemme suivant n’est utile que pour les temps d’arret a valeurs
denombrables, c’est a dire rarement dans le cas ”continu” car il n’a d’interet
que si P(σ = r) > 0.
4.2. MARTINGALES A TEMPS DISCRET 47
Lemme 4.2.2. — Si σ est un temps d’arret et r un reel fixe, pour toute v.a.
X ≥ 0, p.s.,
1σ=rE(X|Fσ) = 1σ=rE(X|Fr),
Preuve: Puisque σ = r ∈ Fσ, il faut montrer que
1σ=rE(X|Fσ) = 1σ=rE(X|Fr),
On utilise la propriete caracteristique de l’esperance conditionnelle 4.4.1 : la
v.a. Z = 1σ=rE(X|Fr) est Fσ-mesurable et pour toute v.a. U positive, Fσ-
mesurable, puisque U1σ=r est Fr-mesurable,
E(UZ) = E(U1σ=rE(X|Fr)) = E(U1σ=rX)
donc Z = E(1σ=rX|Fσ).
Corollaire 4.2.3. — Soient Mn, n ∈ N une (sous) martingale, σ et τ deux
temps d’arret a valeurs dans N. On suppose que τ est borne. Alors
E(Mτ | Fσ) ≥Mτ∧σ
avec egalite dans le cas d’une martingale.
Preuve: Si τ est borne par la constante r > 0, on peut ecrire que, sur σ = n,
E(Mτ | Fσ) = E(M τr | Fn) ≥M τ
r∧n = Mτ∧σ.
Theoreme 4.2.4. — Soit Mn, n ∈ N, une sous-martingale positive. Pour
tout a > 0,
P( max0≤k≤n
Mk ≥ a) ≤ 1
aE(Mn1max0≤k≤nMk≥a) ≤
1
aE(Mn).
De plus
E( max0≤k≤n
M2k ) ≤ 4E(M2
n).
Preuve: L’inegalite de droite est evidente car Mn ≥ 0. Pour celle de gauche,
posons σ = infk ≥ 0;Mk ≥ a. On a σ ≤ n = max0≤k≤nMk ≥ a donc
E(Mn1max0≤k≤nMk≥a) = E(Mn1σ≤n) = E(E(Mn|Fσ)1σ≤n)
≥ E(Mn∧σ1σ≤n) ≥ aP(σ ≤ n) = aP( max0≤k≤n
Mk ≥ a)
en appliquant le corollaire. Ensuite∫ ∞0
aP( max0≤k≤n
Mk ≥ a) da ≤∫ ∞
0E(Mn; max
0≤k≤nMk ≥ a) da.
48 CHAPITRE 4. MARTINGALES
Avec Fubini ceci s’ecrit,
E(
∫ max0≤k≤nMk
0a da) ≤ E(Mn
∫ max0≤k≤nMk
0da)
donc1
2E(( max
0≤k≤nMk)
2) ≤ E(Mn max0≤k≤n
Mk).
En appliquant Cauchy Schwarz on obtient
1
2E(( max
0≤k≤nMk)
2) ≤ E(M2n)1/2E(( max
0≤k≤nMk)
2)1/2,
E((max0≤k≤nMk)2) est fini car majore par E(
∑nk=0M
2k ) on peut donc sim-
plifier par E((max0≤k≤nMk)2)1/2 dans l’inegalite precedente, ce qui donne le
resultat.
Dans la preuve precedente, en multipliant par ap−2 et en appliquant
l’inegalite de Holder (c.f. ??) on obtient pour p > 1,
|| max0≤k≤n
Mk||p ≤ q||Mn||p
ou p−1 + q−1 = 1.
4.3. Martingale continue a droite
Si Mt, t ∈ R+, est un processus a trajectoires continues a droite, on a
sup0≤t≤T
Mt = limn→+∞
sup0≤k≤2n
M kT2n.
En appliquant le Theoreme 4.2.4 a la sous martingale Xk = M kT2n
et l’egalite
sup0≤t≤T
Mt > a = ∪n∈N sup0≤k≤2n
M kT2n> a
on obtient, en passant par P(sup0≤t≤T Mt > a),
Theoreme 4.3.1 (Inegalites de Doob). — Soit Mt, t ∈ R+, une sous-
martingale continue a droite positive. Pour tout a > 0,
P( sup0≤t≤T
Mt ≥ a) ≤ 1
aE(MT 1sup0≤t≤T Mt≥a) ≤
1
aE(MT )
De plus
E( sup0≤t≤T
M2t ) ≤ 4E(M2
T ).
Puisque la valeur absolue d’une martingale est une sous martingale positive,
on en deduit le corollaire absolument fondamental pour la suite :
4.3. MARTINGALE CONTINUE A DROITE 49
Corollaire 4.3.2. — Si M est une martingale continue a droite,
P( sup0≤t≤T
|Mt| ≥ a) ≤ E(|MT |)a
et
E( sup0≤t≤T
M2t ) ≤ 4E(M2
T ).
Deduisons un convergence de theoreme de martingales (il en existe d’autres,
par exemple pour les martingales positives).
Theoreme 4.3.3. — Une martingale continue a droite (Mt) telle que
supt≥0
E(M2t ) < +∞
converge p.s. et dans L2 lorsque t→ +∞.
Preuve: Puisque M2t est une sous martingale, E(M2
t ) est une fonction crois-
sante. Par hypothese, elle est bornee. Donc elle converge lorsque t→ +∞. On
en deduit que, pour tout ε > 0, il existe N tel que, si s, t ≥ N
E((Mt −Ms)2) = E(M2
t )− E(M2s ) < ε
lorsque s, t → +∞. La suite Mn est donc de Cauchy dans L2, elle converge
vers une v.a. M∞. En faisant tendre t → +∞ suivant les entiers on voit, par
Fatou, que
E((M∞ −Ms)2) < ε
donc Ms → M∞ dans L2. Si on applique l’inegalite de Doob a la martingale
Nt = Ms+t −Ms on obtient, pour s > N ,
E(supt≤T
(Mt+s −Ms)2) ≤ 4E((MT+s −Ms)
2) ≤ 4ε
pour tout T ≥ 0, donc
E(supt≥0
(Mt+s −Ms)2) ≤ 4ε.
Il en resulte en ecrivant que
(Mt+s −M∞)2 ≤ 2(Mt+s −Ms)2 + 2(Ms −M∞)2
que
E(supt≥0
(Mt+s −M∞)2) ≤ 16ε.
Il existe donc une sous suite ni telle que, p.s., supt≥0(Mt+ni −M∞) → 0, ce
qui entraıne que Mt →M∞, p.s.
Pour montrer le theoreme d’arret, nous allons utiliser :
50 CHAPITRE 4. MARTINGALES
Lemme 4.3.4. — Si X ∈ L1(Ω,A,P), la famille E(X|F), F sous tribu de Aest uniformement integrable.
Preuve: Remarquons d’abord que pour tout ε > 0, il existe α > 0 tel que, si
P(A) < α alors E(|X|1A) ≤ ε. En effet, par Lebesgue domine, E(|X|1|X|≥M)tend vers 0 lorsque M → +∞. On choisit M pour lequel E(|X|1|X|≥M)) <ε/2 et ensuite α > 0 tel que αM < ε/2. On a alors
E(|X|1A) ≤ E(|X|1A1|X|≥M) + E(|X|1A1|X|≤M)
≤ E(|X|1|X|≥M) +MP(A) ≤ ε.Soit R = α−1E|X|. On a, pour a > R, P(|E(X|F)| > a) ≤ a−1E|E(X|F)| ≤a−1E|X| < α et∫|E(X|F)|>a
|E(X|F)| dP ≤∫|E(X|F)|>a
E(|X||F) dP =
∫|E(X|F)|>a
|X| dP < ε.
Theoreme 4.3.5 (d’arret). — Soient (Xt, t ∈ R+) une sous-martingale
continue a droite, et σ et τ deux temps d’arret avec τ borne. Alors Xτ ∈ L1
et Xσ∧τ ≤ E(Xτ | Fσ), avec egalite si X est une martingale.
Preuve: (a) La suite de temps d’arret τn = 2−n([2nτ ] + 1) decroit vers
τ et Xτn tend vers Xτ , quand n → +∞. Si τ est bornee par K, τn est
borne par K + 1. D’apres le corollaire 4.2.3, X+k2n
etant une sous-martingale,
X+τn ≤ E(X+
K+1 | Fτn). On a alors
E|Xτn | = 2E(X+τn)− E(Xτn) ≤ 2E(X+
K+1)− E(X0)
d’ou, par le lemme de Fatou, E|Xτ | ≤ lim infn E|Xτn | < +∞ donc Xτ ∈ L1.
(b) Soit σn = 2−n([2nσ] + 1). On suppose d’abord que Xt ≥ 0 pour tout
t ≥ 0. Soit A ∈ Fσ ⊂ Fσn . On a alors, en appliquant le corollaire 4.2.3 a la
sous-martingale X k2n, k ∈ N,
Xσn∧τn ≤ E(Xτn |Fσn)
donc
E(1AXσn∧τn) ≤ E(1AXτn).
Puisque Xt ≥ 0, |Xσn∧τn | ≤ E(Xτn |Fσn) et le lemme montre que les suites
Xσn∧τn et Xτn sont uniformement integrables. Donc Xσn∧τn et Xτn convergent
vers Xσ∧τ et Xτ dans L1 et E(1AXσ∧τ ) ≤ E(1AXτ ).
(c) On revient au cas general. Pour tout a > 0, a+Xt ∨ (−a) est une sous-
martingale positive donc, pour tout A ∈ Fσ, E(1A(Xσ∧τ ∨(−a))) ≤ E(1A(Xτ ∨
4.4. FORMULAIRE SUR L’ESPERANCE CONDITIONNELLE 51
(−a))). On conclut facilement puisque, lorsque a→ +∞, Xτ ∨ (−a)→ Xτ et
Xσ∧τ ∨ (−a)→ Xσ dans L1 puisque |Xτ ∨ (−a)| ≤ |Xτ .
Corollaire 4.3.6. — Soient (Mt, t ∈ R+) une sous-martingale continue a
droite, telle que E(sup0≤t<+∞ |Mt|) < +∞. Pour tous temps d’arret σ et τ
E(Mτ |Fσ) ≥Mτ∧σ,
avec egalite si X est une martingale.
Preuve: En utilisant le theoreme precedent aux temps d’arrets bornes τ ∧ tet σ ∧ t, pour tout A ∈ Fσ
E(1A1σ≤tMτ∧t) = E(1A1σ≤tMσ∧τ∧t)
car A∩σ ≤ t ∈ Fσ∧t. Il suffit alors de faire tendre t vers l’infini en appliquant
le theoreme de convergence dominee.
Corollaire 4.3.7. — Soient (Xt, t ∈ R+) une (sous) martingale continue a
droite et τ un temps d’arret. Alors Xτt := Xt∧τ est une (sous) martingale.
Preuve: Vu le corollaire precedent, on a, pour s < t, E(Xt∧τ | Fs) ≥ Xt∧τ∧s =
Xτ∧s p.s.
Corollaire 4.3.8. — Soit (Xt, t ∈ R+) un processus integrable continu a
droite. Alors Xt est une martingale si et seulement si, pour tout temps d’arret
borne τ on a E(Xτ ) = E(X0).
Preuve: La necessite resulte du theoreme 4.3.5. Montrons que la condition
est suffisante. Soient s < t et A ∈ Fs. τ = s1A + t1Ac est un temps d’arret
borne et l’on E(X0) = E(Xτ ) = E(1AXs) + E(1AcXt). Mais τ = t est aussi
un temps d’arret borne d’ou E(X0) = E(Xt) = E(1AXt) + E(1AcXt). On en
deduit E(1AXs) = E(1AXt) i.e. Xt est une martingale.
4.4. Formulaire sur l’esperance conditionnelle
Soit (Ω,A,P) un espace de probabilite et F une sous-tribu deA. L’esperance
conditionnelle E(X|F) d’une variable aleatoire X positive (ou integrable) n’est
definie que presque surement, on ommetra d’ecrire ”p.s.” dans une egalite ou
elle apparait.
Theoreme 4.4.1 (Propriete caracteristique de l’esperance condition-
nelle)
52 CHAPITRE 4. MARTINGALES
Soit X une v.a.r. positive ou integrable. L’esperance conditionnelle E(X|F)
est la seule (classe de) v.a. Z ayant les deux proprietes suivantes :
(i) Z est F-mesurable ;
(ii) pour toute v.a.r. U , F-mesurable bornee positive,
E(ZU) = E(XU).
On utilisera tres souvent les inegalites suivantes qui montrent que l’applica-
tion T : Lp → Lp donnee par T (X) = E(X|F) est continue pour p = 1, 2,∞.
Proposition 4.4.2 (Continuite de l’esperance conditionelle)
‖E(X|F)‖L1 ≤ ‖X‖L1 ; ‖E(X|F)‖L2 ≤ ‖X‖L2 ;
Les proprietes suivantes sont faciles a demontrer et essentielles :
Proposition 4.4.3. — Si les expressions ont un sens :
1. E(E(X|F)) = E(X);
2. |E(X|F)| ≤ E(|X||F).
3. Si X est F-mesurable, E(XY |F) = XE(Y |F);
4. Si G est une sous-tribu de F , E(X|G) = E(E(X|F)|G);
5. E(1|F) = 1;
6. E(aX + bY |F) = aE(X|F) + bE(Y |F);
7. Si X ≤ Y , E(X|F) ≤ E(Y |F);
8. |E(XY |F)|2 ≤ E(X2|F)E(Y 2|F).
On a l’analogue des theoremes de convergence de Beppo Levi, de Fatou, de
Lebesgue :
Proposition 4.4.4. — Soit (Xn) une suite de v.a.
(Beppo Levi conditionnel) Si 0 ≤ Xn ↑ X, E(Xn|F)→ E(X|F), p.s.
(Fatou conditionnel) Si 0 ≤ Xn, E(lim inf Xn|F) ≤ lim inf E(Xn|F),
(Lebesgue conditionnel) Si |Xn| ≤ V ou V ∈ L1 et si Xn → X , E(Xn|F)→E(X|F), p.s. et dans L1.
4.4. FORMULAIRE SUR L’ESPERANCE CONDITIONNELLE 53
Preuve: On commence par montrer Beppo Levi : si 0 ≤ Xn ↑ X la suite
E(Xn|F) est croissante donc a une limite, que nous notons Z. Comme limite
de fonctions F-mesurables Z est F-mesurable. Et pour toute v.a. U positive
et F-mesurable, par le theoreme de Beppo Levi classique, applique deux fois,
E(UZ) = limn→+∞
E(UE(Xn|F)) = limn→+∞
E(UXn) = E(UX).
Donc Z = E(X|F) par la propriete caracteristique de l’esperance condition-
nelle (Thm 4.4.1). Les autres enonces s’en deduisent comme dans le cas non
conditionnel et par le fait que
||E(Xn|F)− E(X|F)||1 ≤ ||Xn −X||1pour la convergence dans L1.
Tres souvent les calculs explicites d’esperance conditionnelle utilisent le
theoreme suivant :
Theoreme 4.4.5. — Soit (T,X) une variable aleatoire a valeurs dans un
espace produit E × F et h : E × F → R mesurable, positive ou bornee. On
suppose que T est B-mesurable et que X est independante de B. Alors,
E(h(T,X)|B) = φ(T ) ou φ(t) = E(h(t,X)).
On peut encore ecrire cette egalite comme
E(h(T,X)|B)(ω) =
∫Ωh(T (ω), X(ω′)) dP(ω′).
Preuve: On utilise la caracterisation de l’esperance conditionnelle pour mon-
trer que E(h(T,X)|B) est bien la variable aleatoire φ(T ). D’abord, il resulte
du theoreme de Fubini que l’application t 7→ E(h(t,X)) est mesurable. Il en
resulte que φ(T ) est σ(T ) mesurable, donc B-mesurable. Ensuite, pour toute
v.a. Z B-mesurable, bornee et positive, p.s.,
E(h(T,X)Z)(ω) =
∫ ∫h(T (ω), X(ω′))Z(ω)dP(ω)dP(ω′)
d’apres le corollaire 2.11.4. Ceci est egal, par Fubini, a∫ ( ∫h(T (ω), X(ω′))dP(ω′)
)Z(ω)dP(ω′) =
∫φ(T (ω))Z(ω)dP(ω′) =
= E(φ(T )Z)(ω).
CHAPITRE 5
CROCHET DE MARTINGALES
Afin d’introduire le crochet de martingales, nous allons debuter la construc-
tion de l’integrale stochastique. La construction est naturelle mais il y a pas
mal d’inegalites a controler ! Apres ce debut, et a l’aide du crochet, on pourra
dans le chapitre suivant construire l’integrale stochastique en toute generalite.
5.1. Cas discret
Soit (Mn, n ∈ N) une (Fn)–martingale sur (Ω, (Fn)n∈N,P). Si Hn, n ∈ N,est un processus adapte on pose S(H,M)0 = 0 et
S(H,M)n =
n∑k=1
Hk−1(Mk −Mk−1).
Le lemme simple suivant est la cle des calculs que nous ferons.
Lemme 5.1.1 (Lemme d’orthogonalite). — Si Mn, n ∈ N, est une mar-
tingale dans L2,
E(M2n)− E(M2
0 ) =
n∑k=1
E((Mk −Mk−1)2).
Montrons maintenant un resultat technique (dont la courte demonstration
est due a M.M Belkhiria, etudiant du master),
Proposition 5.1.2. — Soit Mn, n ∈ N, une martingale et Hn, n ∈ N, un
processus adapte borne. Alors S(H,M) est une martingale et pour tout n ≥ 0,
E(S(H,M)2n) ≤ ‖ sup
k≤pH2k‖2‖M2
n‖2.
56 CHAPITRE 5. CROCHET DE MARTINGALES
Preuve: Puisque H est borne, S(H,M)n est integrable pour tout n. C’est une
martingale car
E(S(H,M)n+1 − S(H,M)n|Fn) = E(Hn(Mn+1 −Mn)|Fn)
= Hn[E(Mn+1|Fn)−Mn] = 0.
Supposons maintenant que |M | est bornee par c. Par le lemme d’orthogonalite,
puisque S(H,M)0 = 0, en posant Kp = supk≤pH2k ,
E(S(H,M)2n) =
n−1∑p=0
E(H2p (Mp+1 −Mp)
2) ≤n−1∑p=0
E(Kp(Mp+1 −Mp)2).
Puisque Kp est Fp mesurable on a
E(KpMpMp+1)) = E(KpMpE(Mp+1|Fp)) = E(KpM2p )
donc en developpant,
E(Kp(Mp+1 −Mp)2) = E(Kp(M
2p+1 −M2
p )).
On obtient (puisque Kp ≤ Kp+1)
E(S(H,M)2n) ≤
n−1∑p=0
E(Kp(M2p+1 −M2
p ))
≤n−1∑p=0
E(Kp+1M2p+1 −KpM
2p )) = E(KnM
2n −K0M
20 )) ≤ E(KnM
2n)
donc, par Cauchy Schwarz,
E(S(H,M)2n) ≤ ‖ sup
k≤pH2k‖2‖M2
n‖2.
5.2. Premiers pas, a temps continu
On considere une martingale continue Mt, t ∈ R+, sur (Ω, (Ft),P). On
appelle processus (adapte) elementaire un processus H s’ecrivant
Ht =
n−1∑i=0
Hti1[ti,ti+1[(t)
ou 0 ≤ t0 < t1 · · · < tn et ou Hti est une v.a. Fti–mesurable bornee. On note
E l’ensemble de ces processus elementaires.
5.3. CROCHET COMME VARIATION QUADRATIQUE 57
Proposition 5.2.1. — Pour H ∈ E on pose∫ t
0Hs dMs = (H ·M)t =
n−1∑i=0
Hti(Mti+1∧t −Mti∧t).
Alors
(i) H ·M est une (Ft)-martingale continue, nulle en 0.
(ii) Si M est bornee par C > 0, pour tout T > 0,
|| sup0≤t≤T
(H ·M)t||22 ≤ C2|| supt≤T
H2t ||2
Preuve: Puisque M est une martingale, E(Mr|Fs) = Mr∧s pour tous r, s,≥ 0.
On en deduit que si 0 ≤ ti ≤ s ≤ t,
E(Hti(Mti+1∧t −Mti∧t)|Fs) = HtiE(Mti+1∧t −Mti∧t)|Fs)= Hti(Mti+1∧t∧s −Mti∧t∧s)
= Hti(Mti+1∧s −Mti∧s).
En utilisant cette relation pour s = ti, on voit maintenant que si 0 ≤ r ≤ ti ≤ t,
E(Hti(Mti+1∧t −Mti∧t)|Fr) = E(E(Hti(Mti+1∧t −Mti∧t)|Fti)|Fr) = 0
donc encore
E(Hti(Mti+1∧t −Mti∧t)|Fr) = Hti(Mti+1∧r −Mti∧r).
Lorsque t ≤ ti, ceci est trivialement vrai. Donc H ·M est une martingale.
Montrons (ii). On regarde la martingale a temps discret Nk = Mtk∧T et le
processus a temps discret Gk = Htk . Alors
(H ·M)T = S(G,N)n
donc par la Proposition 5.1.2, il existe c > 0 tel que
||(H ·M)T ||22 ≤ c|| supt≤T
H2t ||2.
On applique alors l’inegalite de Doob a la martingale H ·M .
5.3. Crochet comme variation quadratique
Theoreme 5.3.1. — Soit M une martingale continue bornee et 0 = tn0 ≤tn1 ≤ · · · ≤ tnpn = T une suite de subdivisions de [0, T ] dont le pas tend vers 0.
Alors, la limite
(4) limn→+∞
pn−1∑i=0
(Mtni+1∧t −Mtni ∧t)2
58 CHAPITRE 5. CROCHET DE MARTINGALES
existe dans L2 et definit, pour t ≤ T , un processus croissant continu adapte
note 〈M,M〉t. Il existe une sous suite qui, presque surement, converge uni-
fomement en t ∈ [0, T ]. De plus
M2t − 〈M,M〉t
est une martingale.
Preuve: L’idee de la preuve est d’anticiper la formule
M2t −M2
0 − 〈M,M〉t = 2
∫ t
0MsdMs
(que l’on ne connait pas encore) en ecrivant que
M2t −M2
0 −pn−1∑i=0
(Mtni+1∧t −Mtni ∧t)2 = 2
pn−1∑i=0
Mtni ∧t(Mtni+1∧t −Mtni ∧t)
= 2
pn−1∑i=0
Mtni(Mtni+1∧t −Mtni ∧t).
Avec
M(n)t =
pn−1∑i=0
Mtni1[tni ,t
ni+1[(t),
ceci se reecrit
(5) M2t −M2
0 −pn−1∑i=1
(Mtni+1∧t −Mtni ∧t)2 = 2
∫ t
0M (n)s dMs.
Posons
X(n)t =
∫ t
0M (n)s dMs.
On sait par la Proposition 5.2.1 que X(n)t est une martingale. En appliquant
cette proposition a la martingale X(n)t −X(m)
t on voit qu’il existe C > 0 telle
que
E[ sup0≤t≤T
(X(n)t −X(m)
t )2] ≤ C|| sup0≤s≤T
(M (m)s −M (n)
s )2||2
≤ 2C|| sup0≤s≤T
(M (m)s −Ms)
2||2 + 2C|| sup0≤s≤T
(M (n)s −Ms)
2||2
(en utilisant (a + b)2 ≤ 2(a2 + b2)). Par continuite de t 7→ Mt(ω) et donc
uniforme continuite sur [0, T ], et le theoreme de convergence dominee, ceci
5.3. CROCHET COMME VARIATION QUADRATIQUE 59
tend vers 0 quand m,n→ +∞. Par recurrence construisons une suite d’entiers
nk verifiant nk ≥ nk−1 et, pour tout ≥ nk
E( sup0≤t≤T
(X(nk)t −Xm
t )2) ≤ 1/2k.
Alors,
E(+∞∑k=0
sup0≤t≤T
|X(nk)t −X(nk+1)
t |) ≤+∞∑k=0
E( sup0≤t≤T
|X(nk)t −X(nk+1)
t |2)1/2 < +∞.
Donc+∞∑k=0
sup0≤t≤T
|X(nk)t −X(nk+1)
t | < +∞, p.s.
On en deduit que, presque surement, X(nk)t converge uniformement sur [0, T ]
vers un processus Xt qui sera donc continu. Toute la suite X(n)t converge vers
Xt dans L2. En particulier X est une martingale. Ceci montre (4) en utilisant
(5) et
〈M,M〉t = M2t −M2
0 − 2Xt.
On a
M2t −M2
0 − 2X(n)t =
pn−1∑i=0
(Mtni+1∧t −Mtni ∧t)2
Donc la suite i 7→M2tni−M2
0−2X(n)tni
est croissante. Choisissons une subdivision
qui se raffine, alors c’est encore vrai pour la suite i 7→M2tni−M2
0 −2X(m)tni
pour
m ≥ n, donc par passage a la limite pour la suite
〈M,M〉t(n)i
= limm→+∞
M2tni−M2
0 − 2X(m)tni
La fonction 〈M,M〉t est donc croissante.
Remarque : La preuve montre que
(6) limn→+∞
E[supt≤T
(
pn−1∑i=0
(Mtni+1∧t −Mtni ∧t)2 − 〈M,M〉t)2] = 0
Le corollaire suivant resulte de la formule (4) et de la convergence p.s. pour
une sous suite.
Lemme 5.3.2. — Si M est une martingale bornee et τ un temps d’arret,
〈M τ ,M τ 〉t = 〈M,M〉t∧τ .
60 CHAPITRE 5. CROCHET DE MARTINGALES
5.4. Martingale locale
Dans ce cours, on se concentre sur les processus continus. C’est pourquoi
on pose :
Definition 5.4.1. — Un processus adapte M tel que M0 = 0 est une mar-
tingale locale si il est continu et si il existe une suite croissante τn, n ∈ N, de
temps d’arret tendant vers +∞ telle que M τn soit une martingale. On dit que
(τn) reduit M .
Si M est un processus adapte non nul en 0, on dit que c’est une martingale
locale si Mt −M0 l’est.
Lemme 5.4.2. — Il y a equivalence entre
(i) M est une martingale locale et M0 est integrable ;
(ii) Il existe une suite croissante (τn) de temps d’arret tendant vers +∞telle que M τn soit une martingale continue.
Il resulte du theoreme d’arret que :
Theoreme 5.4.3. — Une martingale locale arretee est une martingale locale.
Lemme 5.4.4. — La somme de deux martingales locales est une martingale
locale.
Preuve: Si (τn) reduit la martingale locale M et (σn) reduit la martingale
locale N , alors σn ∧ τn reduit M +N .
Tres souvent on utilisera :
Proposition 5.4.5. — Si M est une martingale locale nulle en 0, et si
Tn = inft ≥ 0; |Mt| = n
alors MTn est une martingale bornee.
Preuve: Si (τk) reduit M , M τk est une martingale donc par le theoreme
d’arret, M τk∧Tn est une martingale. Pour tout t ≥ 0, quand k → +∞, M τk∧Tnt
tend vers MTnt dans L1 par convergence dominee (puisque |M τk∧Tn
t | ≤ n).
Donc MTn est une martingale.
Theoreme 5.4.6. — Une martingale locale M telle que sup0≤s≤t |Ms| est
dans L1 pour tout t ≥ 0 est une martingale.
5.4. MARTINGALE LOCALE 61
Preuve: Il suffit d’utiliser qu’une limite dans L1 de martingales est une
martingale (Proposition 4.1.4) et le theoreme de convergence dominee.
Par contre l’uniforme integrabilite ne suffit pas. L’exemple classique est
Mt = 1/||Bt+1|| ou B est le brownien dans R3 : on verra que c’est une
martingale locale avec la formule d’Ito, par calcul E(M2t ) est uniformement
borne (et meme E(M5/2t ) ) et pourtant
E(Mt) = E(1/||Bt+1||) =1√t+ 1
E(1/||B1||)
n’est pas constant.
5.4.1. Crochet d’une martingale locale. — Considerons une martingale
locale M , nulle en 0, et Tn = inft ≥ 0; |Mt| = n. Il resulte du corollaire 5.3.2
que si n ≤ m alors
〈MTn ,MTn〉t = 〈MTm ,MTm〉tsi t ≤ Tn. On peut donc definir sans ambiguite 〈M,M〉 en posant
〈M,M〉t = 〈MTn ,MTn〉t, pour tout n tel que Tn ≥ t.
On aura
〈M τ ,M τ 〉t = 〈M,M〉t∧τOn remarque que, puisque M2
t∧τn − 〈M,M〉t∧τn est une martingale,
Proposition 5.4.7. — Si M est une martingale locale, le processus 〈M,M〉test continu, adapte et
M2t − 〈M,M〉t, t ≥ 0,
est une martingale locale.
Le theoreme suivant est tres important.
Theoreme 5.4.8. — Soit M une martingale locale nulle en 0. Alors les
conditions suivantes sont equivalentes :
(i) pour tout t ≥ 0, 〈M,M〉t ∈ L1 ;
(ii) M est une martingale de carre integrable.
Sous ces conditions, M2t − 〈M,M〉t est une martingale.
Preuve: Supposons (i). On peut reduire M avec Tn = inft; |Mt| = n. Alors
N(n)t = (MTn
t )2 − 〈MTn ,MTn〉t
est une martingale (cf. Theoreme 5.3.1). Donc E(N(n)t ) = 0 c’est a dire
(7) E(M2Tn∧t) = E(〈M,M〉Tn∧t).
62 CHAPITRE 5. CROCHET DE MARTINGALES
En particulier
E(M2Tn∧t) ≤ E(〈M,M〉t)
ce qui assure que la suite MTn∧t, n ∈ N, est uniformement integrable. Donc
MTnt tend vers Mt dans L1 et Mt est une martingale comme limite dans L1
de martingales. Par Fatou
E(M2t ) ≤ lim inf
n→+∞E(M2
Tn∧t) ≤ lim infn→+∞
E(〈M,M〉Tn∧t) = E(〈M,M〉t) < +∞.
Donc Mt est de carre integrable. Ce qui montre (ii). Dans ce cas, par Doob
sup0≤s≤tM2s est dans L1. La martingale locale M2
t − 〈M,M〉t est majoree en
valeur absolue pour t ∈ [0, T ] par 〈M,M〉T + sup0≤t≤T M2t . C’est donc une
vraie martingale par le theoreme 5.4.6.
Supposons maintenant (ii) donc que Mt est une martingale de carre
integrable. Alors, par Doob,
E( sup0≤t≤T
M2t ) ≤ 4E(M2
T )
donc, puisque MTn est bornee,
E(〈MTn ,MTn〉T ) = E(M2Tn∧T ) ≤ 4E(M2
T )
et
E(〈M,M〉T ) ≤ 4E(M2T ) < +∞.
Proposition 5.4.9. — Soit Mt une martingale locale nulle en 0 et
〈M,M〉∞ = limt→+∞
〈M,M〉t.
Alors
E(supt≥0
M2t ) ≤ 4E(〈M,M〉∞).
Si ces quantites sont finies, Mt est une martingale, elle converge p.s. et dans
L2 vers une v.a. M∞ quand t→ +∞ et pour tous temps d’arrets σ, τ
E(Mτ |Fσ) = Mτ∧σ.
Preuve: Soit (τn) une suite de temps d’arret bornant M . Par Doob, pour tout
T > 0,
E(supt≤T
(M τnt )2) ≤ 4E((M τn
T )2) = 4E(〈M τn ,M τn〉T ) ≤ 4E(〈M,M〉∞)
On peut appliquer deux fois le theoreme de convergence monotone, en faisant
tendre T puis n vers l’infini, pour obtenir
E(supt≥0
M2t ) ≤ 4E(〈M,M〉∞).
5.5. PROCESSUS A VARIATION FINIE 63
Si cette quantite est finie, Mt est une martingale convergente p.s. par le
theoreme de convergence 4.3.3. Par le theoreme d’arret,
E(Mτ∧n|Fσ) = Mτ∧n∧σ.
et on peut appliquer le theoreme de convergence dominee pour l’esperance
conditionnelle (ou la continuite dans L2) pour faire tendre n vers l’infini.
Attention : si M est une vraie martingale, E(M2t ) = E(〈M,M〉t), donc
supt≥0
E(M2t ) = E(〈M,M〉∞).
Si par contreM est seulement une martingale locale ceci peut etre faux, comme
le montre le contre exemple de la fin de la section precedente Mt = 1/||Bt+1||ou B est le brownien de R3 (dans ce cas E(〈M,M〉∞) = +∞ car M n’est pas
une martingale).
Insistons, l’inegalite de Doob sous la forme
E(supt≤T
M2t ) ≤ 4E(M2
T )
est fausse pour la martingale locale Mt = 1/||Bt+1||.
5.5. Processus a variation finie
Definition 5.5.1. — On appelle processus (sous entendu adapte continu) a
variation finie la difference de deux processus croissants continus adaptes.
Si At = Ut − Vt est a variation finie avec U et V croissants, pour toute
subdivision 0 = t0 < t1 < · · · < tn = T ,
(8)n∑i=1
|Ati−Ati−1 | ≤n∑i=1
|Uti−Uti−1 |+n∑i=1
|Vti−Vti−1 | ≤ UT −U0 +VT −V0.
Il y a une reciproque a cette propriete, mais nous ne l’utiliserons pas.
L’exemple typique de processus a variation finie est donne par la primitive
At =∫ t
0 Rs ds d’un processus Rt localement integrable progressif (par exemple
continu adapte) : en effet il suffit de prendre Ut =∫ t
0 R+s ds et Vs =
∫ t0 R−s ds.
Si A est nul en 0 on prendra U et V nuls en 0.
Proposition 5.5.2. — Une martingale locale (continue) nulle en 0 a varia-
tion finie est nulle.
64 CHAPITRE 5. CROCHET DE MARTINGALES
Preuve: Ecrivons Mt = Ut − Vt avec U, V croissants continus adaptes. Soit
τk = inft ≥ 0;Ut + Vt ≥ k et 0 = tn0 < tn1 < · · · < tnpn = T une suite de
subdivisions de [0, T ] dont le pas tend vers 0. Alors, en appliquant le lemme
d’orthogonalite 5.1.1 a la martingale N = M τk ,
E(M2T∧τk) = E(
pn∑i=1
(Ntni−Ntni−1
)2)
≤ E(supj|Ntnj
−Ntnj−1|pn∑i=1
|Ntni−Ntni−1
|)
≤ E(supj|Ntnj
−Ntnj−1|(UT∧τk + VT∧τk))
≤ kE(supj|Ntnj
−Ntnj−1])→ 0,
donc MT = 0.
Corollaire 5.5.3. — Si M est une martingale locale, 〈M,M〉 est l’unique
processus croissant adapte At nul en 0 tel que M2t − At soit une martingale
locale.
5.6. Crochet de deux martingales locales
Considerons deux martingales locales M et N . Le ”crochet” de M et N est
defini par
〈M,N〉t =1
4[〈M +N,M +N〉t − 〈M −N,M −N〉t]
Exactement comme au dessus on voit que
Proposition 5.6.1. — 〈M,N〉 est le seul processus (continu adapte) a va-
riation finie, nul en 0, tel que MN − 〈M,N〉 soit une martingale locale.
Si M et N sont bornes, il resulte de la formule (4) du theoreme 5.3.1 que
si 0 = tn0 < tn1 < · · · < tnpn = T sont des subdivisions dont le pas tend vers 0.
Alors
(9) 〈M,N〉T = limn→+∞
pn∑i=1
(Mtni−Mtni−1
)(Ntni−Ntni−1
)
On en deduit :
5.6. CROCHET DE DEUX MARTINGALES LOCALES 65
Theoreme 5.6.2. — Si M et N sont deux martingales locales, et τ un temps
d’arret, alors
〈M τ , N〉 = 〈M,N τ 〉 = 〈M τ , N τ 〉 = 〈M,N〉τ .
Preuve: Ecrire (apres avoir borne par localisation) que
〈M τ , N〉T = limn→+∞
pn∑i=1
(Mtni ∧τ −Mtni−1∧τ )(Ntni−Ntni−1
)
et que ∑i=1
=∑i;tni ≤τ
+∑
i;tni−1≤τ≤tni
+∑
i;tni−1≥τ.
La somme du milieu ne comporte qu’un seul terme et tend donc vers 0, les
autres sont les memes si on remplace Ntni−Ntni−1
par Ntni ∧τ −Ntni−1∧τ . Le
resultat suivant serait aussi vrai pour des martingales (cf TD),
Proposition 5.6.3. — Si Bt, t ≥ 0, et B′t, t ≥ 0, sont deux Ft-browniens
independants, alors 〈B,B′〉t = 0.
Preuve: En appliquant la proposition 3.4.2, on voit que Wt =Bt+B′t√
2est un
mouvement brownien. On en deduit que
t = 〈W,W 〉t =1
2(〈B,B〉t + 2〈B,B′〉t + 〈B′, B′〉t) = t+ 〈B,B′〉t
donc 〈B,B′〉 = 0.
Considerons un processus croissant continu A sur R+. Pour chaque ω ∈ Ω,
definissons une mesure mA(ω) sur R+ on posant
mA(ω)([s, t]) = At(ω)−As(ω).
Pour simplifier, on notera∫ t
0f(s) dmA(ω)(s) =
∫ t
0f(s) dAs(ω)
si f est borelienne positive ou bornee, et la plupart du temps on n’ecrit pas ω.
Si A maintenant est un processus a variation finie, donc s’ecrivant At = Ut−Vtou U et V sont des processus croissants, on posera∫ t
0f(s) dAs =
∫ t
0f(s) dUs −
∫ t
0f(s) dVs.
66 CHAPITRE 5. CROCHET DE MARTINGALES
Le seul cas que l’on rencontrera souvent est celui ou A est une primitive :
At =∫ t
0 Rs ds. Alors ∫ t
0f(s) dA(s) =
∫ t
0f(s)Rs ds.
Le lemme suivant sera considerablement renforce au theoreme 6.1.8.
Lemme 5.6.4. — Pour H ∈ E, si M et N sont des martingales locales,
〈H ·M,N〉T =
∫ T
0Hs d〈M,N〉s.
Preuve: Par linearite, il suffit de considerer le cas ou Ht = Z1[a,b[(t), avec
b ≤ T , ou Z est Fa–mesurable, bornee. Par localisation, il suffit de considerer
le cas ou M et N sont bornees. On a alors
E((H ·M)TNT ) = E(Z(Mb −Ma)NT ),
or
E(Z(Mb −Ma)NT ) = E(ZMbNb)− E(ZMaNa)
= E(Z[(MbNb−〈M,N〉b)−(MaNa−〈M,N〉a)])+E(Z〈M,N〉b)−E(Z〈M,N〉a)
= E(Z〈M,N〉b)− E(Z〈M,N〉a)
car MN − 〈M,N〉 est une martingale, donc,
E((H ·M)TNT ) = E(Z(〈M,N〉b − 〈M,N〉a)) = E(
∫ t
0Hs d〈M,N〉s).
Pour tout temps d’arret τ borne par T , en remplacant M et N par M τ et N τ
on a encore
E((H ·M)τNτ ) = E(
∫ τ
0Hs d〈M,N〉s)
ce qui montre que (H ·M)tNt −∫ t
0 Hs d〈M,N〉s est une martingale (par le
corollaire 4.3.8).
Le resultat suivant est deterministe.
Lemme 5.6.5. — Soit H une fonction qui s’ecrit Ht =∑n−1
i=0 Hti1[ti,ti+1[(t)
ou Hti est un reel. Alors
(
∫ t
0Hs d〈M,N〉s)2 ≤ 〈N,N〉t
∫ t
0H2s d〈M,M〉s.
5.6. CROCHET DE DEUX MARTINGALES LOCALES 67
Preuve: On ecrit que 〈λM + N,λM + N〉t est une fonction croissante de t,
on en deduit que, si s ≤ t,
(〈M,N〉t − 〈M,N〉s)2 ≤ (〈M,M〉t − 〈M,M〉s)(〈N,N〉t − 〈N,N〉s)
qui s’ecrit aussi
(
∫ t
sd〈M,N〉u)2 ≤
∫ t
sd〈M,M〉u
∫ t
sd〈N,N〉u.
On en deduit que
|∫ t
0Hs d〈M,N〉s| = |
n∑i=1
∫ ti+1∧t
ti∧tHs d〈M,N〉s|
≤n∑i=1
|Hti
∫ ti+1∧t
ti∧td〈M,N〉s|
≤n∑i=1
|Hti |[∫ ti+1∧t
ti∧td〈M,M〉s]1/2[
∫ ti+1∧t
ti∧td〈N,N〉s]1/2.
Or (∑aibi)
2 ≤ (∑a2i )(∑b2i ) (Cauchy Schwarz) donc
(
∫ t
0Hs d〈M,N〉s)2 ≤ [
n∑i=1
H2ti
∫ ti+1∧t
ti∧td〈M,M〉s][
n∑i=1
∫ ti+1∧t
ti∧td〈N,N〉s]
c’est a dire
(
∫ t
0Hs d〈M,N〉s)2 ≤
∫ t
0H2sd〈M,M〉s
∫ t
0d〈N,N〉s.
En utilisant par exemple la proposition 6.1.7, on voit, en utilisant la densite
dans L2(R, dd〈M,M〉) a fixe, que
Proposition 5.6.6 (Kunita Watanabe). — L’application qui a Ht =∑n−1i=0 Hti1[ti,ti+1[(t) associe
∫ t0 Hs d〈M,N〉s se prolonge par continuite a tout
processus mesurable H tel que∫ t
0 H2sd〈M,M〉u <∞ et si on note de la meme
facon ce prolongement, il verifie encore
(
∫ t
0Hs d〈M,N〉s)2 ≤ 〈N,N〉t
∫ t
0H2s d〈M,M〉s.
CHAPITRE 6
INTEGRALE STOCHASTIQUE
6.1. Cas d’une martingale de carre integrable
Sur un espace (Ω, (Ft),P) on considere une martingale continue Mt de
carre integrable (c’est a dire telle que Mt ∈ L2 pour tout t ≥ 0). Rappelons
(Theoreme 5.4.8) qu’alors 〈M,M〉t ∈ L1 et que
M2t − 〈M,M〉t
est une martingale. Dans la suite on fixe un T > 0.
Definition 6.1.1. — On noteH2T l’espace des martingales dans L2(Ω, (Ft),P)
presque surement continues Mt, 0 ≤ t ≤ T , telles que M0 = 0, muni du produit
scalaire
(M,N)H2T
= E(MTNT ) = E(〈M,M〉T ).
Remarquons que si M,N ∈ H2T , alors M + N et M − N sont dans H2
T et
que MN − 〈M,M〉 est une martingale.
On identifiera deux martingales egales p.s. dans la proposition suivante.
Proposition 6.1.2. — H2T est un espace de Hilbert.
Preuve: Il faut montrer queH2T est complet. Considerons une suite de Cauchy
M (n). Alors M(n)T est une suite de Cauchy dans L2(Ω,F ,P), qui est complet.
Il existe donc une variable aleatoire, que nous noterons MT , dans L2(Ω,F ,P)
telle que
E((M(n)T −MT )2)→ 0
70 CHAPITRE 6. INTEGRALE STOCHASTIQUE
quand n → +∞. Posons, pour tout t ≤ T , Mt = E(MT |Ft). Il est clair que
(Mt) est une martingale, et par continuite dans L2 de l’esperance condition-
nelle, que M(n)t →Mt dans L2. Par Doob
E( sup0≤t≤T
(M (n)s −M (m)
s )2) ≤ 4E((M(n)T −M (m)
T )2)
tend vers 0 quand n,m → +∞. On peut extraire une sous suite nk telle que
M(nk)t converge uniformement. La limite sera donc continue. Or cette limite
est necessairement Mt. Ceci montre que Mt est une martingale continue. Donc
M ∈ H2T et ||M (n) −M ||2H2
T= E((M
(n)T −MT )2)→ 0.
Definition 6.1.3. — Etant donnee une martingale M on note L2(M)T l’en-
semble des processus progressifs H tels que E(∫ T
0 H2sd〈M,M〉s) <∞ muni du
produit scalaire
(H,K)L2(M)T = E(
∫ T
0HsKs d〈M,M〉s).
Proposition 6.1.4. — E est dense dans L2(M)T .
Preuve: Remarquons que L2(M)T est un sous espace ferme de l’espace L2(Ω×[0, T ],FT ⊗B([0, T ]),m) ou m est la mesure definie par, si A ∈ FT ⊗B([0, T ]),
m(A) = E(
∫ T
01A(ω, s)d〈M,M〉s(ω))
C’est donc un espace de Hilbert. Il suffit donc de montrer que si K ∈ L2(M)Test orthogonal a E alors il est nul (cf. Corollaire 2.3.8). Posons, pour un tel K,
Xt =
∫ t
0Ks d〈M,M〉s.
Montrons que Xt est une martingale : Par l’inegalite de Kunita Watanabe
(Proposition 5.6.6),∫ t
0|Ks| d〈M,M〉s ≤ 〈M,M〉1/2t (
∫ t
0K2s d〈M,M〉s)1/2
on voit, apres avoir applique Cauchy Schwarz, que
(10) [E(
∫ t
0|Ks| d〈M,M〉s)]2 ≤ E(〈M,M〉t)E(
∫ t
0K2s d〈M,M〉s) < +∞.
Donc Xt ∈ L1. Soit Z une v.a. Fs–mesurable bornee. Pour 0 ≤ s ≤ t ≤ T ,
le processus Hr = Z1[s,t[(r) est dans E donc, par hypothese, orthogonal a K,
6.1. CAS D’UNE MARTINGALE DE CARRE INTEGRABLE 71
donc
0 = E(
∫ T
0HrKr d〈M,M〉r) = E(Z
∫ t
sKr d〈M,M〉r) = E(Z(Xt −Xs)).
Ceci entraıne que X est une martingale. Comme elle est a variation finie, elle
est nulle par la Proposition 5.5.2. Donc, p.s.∫ t
0Ks d〈M,M〉s = 0
pour tout s > 0, ce qui entraıne (par densite des combinaisons lineaires de
fonctions indicatrices 1[0,s], ou classe monotone) que, pour presque tout ω ∈ Ω,
s 7→ Ks(ω) est nul d〈M,M〉s(ω) presque partout, donc que K est nul dans
L2(M)T .
Rappelons maintenant que lorsque H =∑Hti1[ti,ti+1[ ∈ E et M est une
martingale, on a defini l’integrale stochastique
(H ·M)t =∑
Hti(Mti+1∧t −Mti∧t)
Lemme 6.1.5. — Si H ∈ E et M est une martingale de carre integrable,
E(H ·M)2T = E(
∫ T
0H2s d〈M,M〉s).
Preuve: Il suffit d’appliquer deux fois le lemme 5.6.4 :
d〈H ·M,H ·M〉 = Hd〈M,H ·M〉 = H2d〈M,M〉.
Theoreme 6.1.6. — L’integrale stochastique par rapport a M se prolonge en
une isometrie de L2(M)T dans H2T . On note encore H ·M ou
∫ t0 Hs dMs, 0 ≤
t ≤ T, l’image de H ∈ L2(M)T .
Preuve: Considerons l’application
IM : E 7→ H2T
definie par IM (H) = H ·M . Le lemme precedent montre que c’est une isometrie
de E , considere comme sous espace de L2(M)T , dans H2T . Comme E est dense
et H2T complet, on peut prolonger cette isometrie a H2
T tout entier. En effet,
on a le resultat general suivant :
Proposition 6.1.7. — On considere deux espaces metriques (F1, d1) et
(F2, d2), D une partie dense de F1 et φ : D 7→ F2 une application pour laquelle
il existe c > 0 tel que
d2(φ(x), φ(y)) ≤ cd1(x, y)(11)
72 CHAPITRE 6. INTEGRALE STOCHASTIQUE
pour tous x, y ∈ D. Si (F2, d2) est complet, l’application φ se prolonge a F1
tout entier en une application verifiant (11) partout.
Preuve: En effet, par densite, pour tout x ∈ F1, il existe une suite xn ∈ Dtendant vers x. La suite (xn) est de Cauchy pour d1 puisqu’elle converge.
L’inegalite (11) montre que φ(xn) est une suite de Cauchy dans (F2, d2).
Comme cet espace est complet, φ(xn) converge. Il suffit de poser φ(x) =
limφ(xn).
Le theoreme suivant est fondamental.
Theoreme 6.1.8 (Propriete caracteristique). — Pour H ∈ L2(M)T ,
(H ·M)t, t ≤ T, est la seule martingale de H2T , nulle en 0, verifiant
〈H ·M,N〉T =
∫ T
0Hs d〈M,N〉s,
pour tout N ∈ H2T .
Preuve: Lorsque H ∈ E la relation est donnee par le lemme le lemme 5.6.4.
Pour traiter le cas general d’un H dans L2(M)T , approchons le par une suite
Hn ∈ E . Par construction de l’integrale stochastique, Hn ·M tend vers H ·Mdans H2
T . L’application lineaire
M ∈ H2T 7→ 〈M,N〉T ∈ L1
est continue par Kunita Watanabe (Proposition 5.6.6 appliquee a H = 1),
donc, dans L1,
〈H·M,N〉T = limn→+∞
〈Hn·M,N〉T = limn→+∞
∫ T
0Hns d〈M,N〉s =
∫ T
0Hs d〈M,N〉s,
puisque en utilisant a nouveau Kunita Watanabe
[E|∫ T
0(Hn
s −Hs) d〈M,N〉s|]2 ≤ E〈N,N〉TE∫ T
0(Hn
s −Hs)2 d〈M,M〉s.
Reste l’unicite : si X est une martingale nulle en 0, telle que pour tout N ,
〈X,N〉T = 〈H ·M,N〉T ,
alors, en prenant N = X − H ·M , on a 〈X − H ·M,X − H ·M〉 = 0 donc
X = H.M .
Une autre facon d’ecrire cette relation est
d〈H ·M,N〉t = Ht d〈M,N〉tc’est a dire que, pour chaque ω fixe, la mesure d〈H ·M,N〉t a la densite Ht
par rapport a la mesure d〈M,N〉t.
6.2. CAS D’UNE MARTINGALE LOCALE. 73
Corollaire 6.1.9. — Pour toutes martingales M,N dans H2T , H ∈ L2(M)T
et K ∈ L2(N)T
〈H ·M,K ·N〉T =
∫ T
0HsKs d〈M,N〉s.
Theoreme 6.1.10. — Pour H ∈ L2(M)T , pour tout temps d’arret τ ,
(H ·M)τ = H ·M τ = H1[0,τ [ ·M.
De plus, K ∈ L2(H ·M)T si et seulement si KH ∈ L2(M)T et alors (associa-
tivite de l’integrale stochastique)
(KH) ·M = K · (H ·M).
Preuve: Pour l’arret, on utilise la propriete caracteristique. Par le theoreme
5.6.2 pour tout N ∈ H2T , et
〈(H ·M)τ , N〉T = 〈(H ·M), N〉τT =
∫ T
0Hs d〈M,N〉τs
=
∫ T
0Hsd 〈M τ , N〉s = 〈H ·M τ , N〉T
et
〈(H ·M)τ , N〉T =
∫ T
0H1[0,τ [ d〈M,N〉s = 〈H1[0,τ [ ·M,N〉T .
Pour l’associativite : d’abord
E(
∫ T
0K2s d〈(H ·M), (H ·M)〉s) = E(
∫ T
0K2sH
2s d〈M,M〉s).
Par ailleurs
〈(KH)·M,N〉T =
∫ T
0KsHsd 〈M,N〉s =
∫ T
0Ks〈H·M,N〉s = 〈K·(H·M), N〉T .
6.2. Cas d’une martingale locale.
Soit M une martingale locale.
Definition 6.2.1. — On note L0(M) l’ensemble des processus progressifs H
tels que, pour tout t > 0,∫ t
0H2s d〈M,M〉s < +∞, p.s.
74 CHAPITRE 6. INTEGRALE STOCHASTIQUE
Les processus adaptes ”raisonnables” sont dans L0(M), par exemple (en
utilisant le lemme 3.6.2)
Proposition 6.2.2. — Si Xt est un processus adapte continu et τ ≤ +∞ un
temps d’arret alors
Ht = Xt1[0,τ [(t)
est dans L0(M).
Tout processus adapte continu, et meme seulement cad-lag, est dans L0(M).
Soit H ∈ L0(M). La suite
τn = inft ≥ 0;
∫ t
0(1 +H2
s )d〈M,M〉s ≥ n
est formee de temps d’arret et croıt vers +∞. Puisque
〈M τn ,M τn〉t ≤ n et
∫ T
0H2s d〈M τn ,M τn〉s ≤ n,
on voit que M τn est une vraie martingale de H2T et que H est dans L2(M τn)T .
Considerons H ·M τn . Pour m ≥ n,
(H ·M τm)τn = H · (M τm)τn = H ·M τm∧τn = H ·M τn .
On peut donc poser, sans ambiguıte,
(H ·M)t = (H ·M τn)t, pour tout n tel que τn ≥ t.
On utilisera aussi la notation
(H ·M)t =
∫ t
0Hs dMs.
Theoreme 6.2.3 (Propriete caracteristique). — Pour H ∈ L0(M), H ·M est l’unique martingale locale, nulle en 0, telle que, pour toute martingale
locale N
〈H ·M,N〉T =
∫ T
0Hs d〈M,N〉s,
Preuve: facile.
Corollaire 6.2.4. — Pour H,K ∈ L0(M), pour tout temps d’arret τ ,
(H ·M)τ = H ·M τ = H1[0,τ [ ·M et (HK) ·M = H · (K ·M).
6.3. SEMIMARTINGALES 75
Corollaire 6.2.5 (Kunita Watanabe 2). — Pour H ∈ L0(M), K ∈L0(N),
(
∫ t
0HsKs d〈M,N〉s)2 ≤
∫ t
0H2s d〈M,M〉s
∫ t
0K2s d〈N,N〉s.
6.3. Semimartingales
On se fixe (Ω,F , (Ft),P).
Definition 6.3.1. — On appelle semimartingale (sous entendu continue) un
processus adapte Xt s’ecrivant
Xt = X0 +Mt + Vt
ou M est une martingale locale et V un processus a variation finie, nuls en 0,
continus adaptes et X0 est F0-mesurable.
Vu la Proposition 5.5.2, cette decomposition est unique. On l’appelle la
decomposition canonique.
Definition 6.3.2. — Le crochet de 2 semimartingales Xt = X0 + Mt +
Vt, Yt = Y0 + Nt + Ut ou M et N sont les parties martingales locales, est
par definition
〈X,Y 〉 = 〈M,N〉.
L’exemple fondamental de semimartingale (mais ce n’est pas le seul, penser
au sup du brownien St = max0≤s≤tBs) est donne par les processus d’Ito : on
considere un Ft–mouvement brownien B = (B(1), · · · , B(d)) a valeurs dans Rdissu de 0 ; par definition,
Definition 6.3.3. — Un Ft–mouvement brownien B = (B(1), · · · , B(d)) a
valeurs dans Rd est un processus continu tel que Bt+s − Bt, s ≥ 0, est
independant de Ft et dont les composantes sont des browniens independants.
Definition 6.3.4. — On appelle processus d’Ito reel tout processus Xt de la
forme
(12) Xt = X0 +d∑
k=1
∫ t
0φks dB
ks +
∫ t
0αs ds
ou X0 ∈ F0, ou φk et α sont des processus progressifs reels tels que, pour tout
t > 0,∫ t
0
∑(φks)
2 ds+∫ t
0 |αs| ds < +∞ p.s.
76 CHAPITRE 6. INTEGRALE STOCHASTIQUE
Un processus d’Ito multidimensionnel est un processus dont les compo-
santes sont des processus d’Ito reels (par rapport au meme Ft–brownien d-
dimensionnel B). Soient Xt = X0 +∑∫ t
0 φk dBk +
∫ t0 αs ds et Yt = Y0 +∑∫ t
0 ψk dBk +
∫ t0 βs ds les composantes d’un processus d’Ito de dimension 2.
On a
(13) 〈X,Y 〉t =d∑
k=1
∫ t
0φksψ
ks ds.
6.3.1. Integration par rapport a une semimartingale. — Soit Xt =
X0 +Mt +A1t −A2
t une semimartingale ou A1 et A2 sont croissants. On note
L0(X), l’ensemble des processus progressifs U tels que, pour tout t > 0,∫ t
0U2s d〈Ms,Ms〉+
∫ t
0|Us| d(A1
s +A2s) < +∞, p.s.
Par exemple tout processus adapte continu par morceaux est dans L0(X).
Pour U ∈ L0(X), on definit :
(U ·X)t =
∫ t
0Us dXs =
∫ t
0Us dMs +
∫ t
0Us dA
1s −
∫ t
0Us dA
2s.
On verifie facilement que :
Proposition 6.3.5. — Si X,Y sont des semimartingales, pour H ∈ L0(X),
pour tout temps d’arret τ ,
(H ·X)τ = H ·Xτ ),
si K ∈ L0(H.X),
(KH) ·X = K · (H ·X),
〈H ·X,K · Y 〉t =
∫ t
0HsKs d〈X,Y 〉s.
Theoreme 6.3.6 (de convergence dominee pour l’I.S.)
Soit K,H ∈ L0(X) et H(n) une suite de processus progressifs telle que ;
pour tout t ≥ 0, H(n)t → Ht p.s. quand n → +∞ et |H(n)
t | ≤ Kt. Alors, en
probabilite
sup0≤t≤T
|∫ t
0H(n)s dXs −
∫ t
0Hs dXs| → 0.
6.3. SEMIMARTINGALES 77
Preuve: Si Xt = X0 + Mt + At est la decomposition canonique de X.
L’integrale par rapport a A se traite avec le theoreme de Lebesgue classique.
Pour la partie M , appliquons la technique fondamentale : la localisation.
Etape 1 : Localisation et convergence L2. Soit τk la suite croissante vers
+∞ de temps d’arret, definie par
τk = inft ≥ 0; |Mt|+ 〈K ·M,K ·M〉t = k
alors par Doob
E[ sup0≤t≤T
(
∫ t
0H(n)s dM τk
s −∫ t
0Hs dM
τks )2] ≤ 4E[(
∫ T
0H(n)s dM τk
s −∫ T
0Hs dM
τks )2]
= 4E[(
∫ τk∧T
0(H(n)
s −Hs)2 d〈M,M〉s].
Par Lebesgue domine (puisque (H(n)s −Hs)
2 ≤ 4K2s ) on voit que
∫ τk∧T0 (H
(n)s −
Hs)2 d〈M,M〉 → 0 quand n→ +∞, et puisque cette quantite est bornee (par
2k) son esperance tend vers 0 a nouveau par Lebesgue domine.
Etape 2 : Convergence en probabilite :Soit ε > 0
P( sup0≤t≤T
(
∫ t
0H(n)s dMs −
∫ t
0Hs dMs)
2 > ε)
≤ P( sup0≤t≤T
(
∫ t
0H(n)s dM τk
s −∫ t
0Hs dM
τks )2 > ε, τk > t) + P(τk ≤ t)
etc... tend vers 0.
Proposition 6.3.7. — Soit X une semimartingale et U un processus adapte
continu. Soit 0 = tn0 ≤ tn1 ≤ . . . ≤ tnpn = T, une suite de subdivisions dont le
pas tend vers 0. Alors
sup0≤t≤T
|pn−1∑i=0
Utni (Xtni+1∧t −Xtni ∧t)−∫ t
0Us dXs| → 0
et
sup0≤t≤T
|pn−1∑i=0
Utni (Xtni+1∧t −Xtni ∧t)2 −
∫ t
0Us d〈X,X〉s| → 0
en probabilite.
Preuve: On pose Uns =∑pn−1
i=0 Utni 1[tni ,tni+1[(s). On a
pn−1∑i=0
Utni (Xtni+1∧t −Xtni ∧t) =
∫ t
0Uns dXs.
78 CHAPITRE 6. INTEGRALE STOCHASTIQUE
Vu la continuite, Un tend vers U en restant borne pour chaque ω puisque
|Uns | ≤ max0≤r≤t |Ur|. Il suffit d’appliquer le theoreme precedent pour obtenir
la premiere limite.
Pour la seconde limite, pour simplifier les notations ne regardons que ce qui
se passe en T . Ecrivons X = X0 + M + A ou M est une martingale et A a
variation finie. Commencons par montrer que
pn−1∑i=0
(Xtni−Xtni−1
)2 → 〈X,X〉T .
On a
limn→+∞
|pn−1∑i=0
(Xtni−Xtni−1
)2 −pn−1∑i=0
(Mtni−Mtni−1
)2|
≤ lim |pn−1∑i=0
(Atni −Atni−1)2 + 2
pn−1∑i=0
(Mtni−Mtni−1
)(Atni −Atni−1)|
≤ ( sup1≤j≤n
|Atnj −Atnj−1|+ 2|Mtnj
−Mtnj−1|)|
pn−1∑i=0
|Atni −Atni−1| = 0
par continuite de M et de A et en utilisant l’inegalite (8). Donc
lim
pn−1∑i=0
(Xtni−Xtni−1
)2 = lim
pn−1∑i=0
(Mtni−Mtni−1
)2
Posons τk = inf(s ≥ 0, |Ms| ≥ k). En ecrivant
P(|pn−1∑i=0
(Mtni−Mtni−1
)2 − 〈X,X〉T | > ε)
= P(|pn−1∑i=0
(M τktni−M τk
tni−1)2 − 〈Xτk , Xτk〉T | > ε, t < τk) + P(t ≥ τk)
on obtient la convergence en probabilite puisque∑pn
i=1(M τktni− M τk
tni−1)2 →
〈Xτk , Xτk〉T par le theoreme 5.3.1. Le cas avec supt≤T se traite avec (6).
Il est alors facile de traiter le cas d’un U continu : Il suffit de l’approcher
(pour ω fixe) uniformement sur [0, T ] par les fonctions en escalier du type∑k Uk/n1[k/n,(k+1)/n[.
6.4. FORMULE D’ITO 79
Corollaire 6.3.8. — Si X,Y sont deux semimartingales et U un processus
adapte continu.
sup0≤t≤T
|pn−1∑i=0
Utni (Xtni+1∧t −Xtni ∧t)(Ytni+1∧t − Ytni ∧t)−∫ t
0Us d〈X,Y 〉s| → 0
en probabilite.
Preuve: Par decoupage.
6.4. Formule d’Ito
Theoreme 6.4.1. — (Formule d’Ito) Soit Xt = (X1t , . . . , X
pt ) une semimar-
tingale a valeurs dans un ouvert U de Rp, et f ∈ C2(U). Alors f(Xt) est une
semimartingale et
f(Xt)− f(X0) =
p∑j=1
∫ t
0
∂f
∂xj(Xs) dX
js +
1
2
p∑j,k=1
∫ t
0
∂2f
∂xj∂xk(Xs) d〈Xj , Xk〉s.
Preuve: Traitons le cas p = 1. Par continuite Xt reste a valeurs dans l’inter-
valle de U contenant X0. La formule de Taylor a l’ordre 2 s’ecrit
f(y)− f(x) = f ′(x)(y − x) +(y − x)2
2f ′′(θ)
pour un θ ∈ [x, y]. Ecrivons donc, pour une suite de subdivisions 0 = tn0 <
tn1 < . . . < tnpn = t, de [0, t] dont le pas tend vers 0,
f(Xt)− f(X0) =
pn−1∑i=0
(f(Xtni+1)− f(Xtni
))
=
pn−1∑i=0
f ′(Xtni)(Xtni+1
−Xtni) +
pn−1∑i=0
f ′′(θni )(Xtni+1
−Xtni)2
2
ou θni est entre Xtni+1et Xtni
. Le premier terme tend en probabilite vers∫ t0 f′(Xs) dXs par la proposition 6.3.8. Pour le second, on a
limn→+∞
pn−1∑i=0
|f ′′(θni )− f ′′(Xtni)|
(Xtni+1−Xtni
)2
2
≤ limn→+∞
supk|f ′′(θnk )− f ′′(Xtnk
)|pn−1∑i=0
(Xtni+1−Xtni
)2
2= 0
80 CHAPITRE 6. INTEGRALE STOCHASTIQUE
par uniforme continuite de f ′′ sur les compacts. Il suffit donc d’appliquer la
proposition precedente pour conclure. Si p > 1, la preuve est la meme lorsque
U est convexe. Sinon on utilise la formule de Taylor sous la forme, pour x, y
variant dans un compact de U , il existe une fonction o telle que
f(y)−f(x) =
p∑j=1
∂f
∂xj(x) (yj−xj)+
1
2
p∑j,k=1
∂2f
∂xj∂xk(x)(yj−xj)(yk−xk)+o(‖y−x‖2),
ou o(h)/h→ 0 quand h→ 0.
On ecrit souvent de facon formelle,
(14) df(Xt) =
p∑j=1
∂f
∂xj(Xt) dX
jt +
1
2
p∑j,k=1
∂2f
∂xj∂xk(Xt) d〈Xj , Xk〉t.
Corollaire 6.4.2. — Soit X une semimartingale a valeurs dans Rp et f ∈C1,2(R+ × Rp). Alors f(t,Xt) est une semimartingale et
f(t,Xt)− f(0, X0) =∫ t
0
∂f
∂t(s,Xs) ds+
p∑j=1
∫ t
0
∂f
∂xj(s,Xs) dX
js+
1
2
p∑j,k=1
∫ t
0
∂2f
∂xj∂xk(s,Xs) d〈Xj , Xk〉s.
Corollaire 6.4.3 (Integration par parties). — Si X et Y sont deux se-
mimartingales,
d(XtYt) = XtdYt + YtdXt + d〈X,Y 〉t
CHAPITRE 7
APPLICATIONS DE LA FORMULE D’ITO
7.1. Sur le Brownien multidimensionnel
Soit B le Brownien dans Rd partant de 0 et Wt = Bt + x0, le mouvement
brownien partant de x0 ∈ Rd. Pour tout temps d’arret, τ , par Ito, si U est un
ouvert tel que Wt∧τ ∈ U pour tout t ≥ 0, pour toute fonction C2(U)
f(Wt∧τ ) = f(x0) +d∑i=1
∫ t∧τ
0
∂f
∂xi(Ws) dW
is +
1
2
∫ t∧τ
0∆f(Ws) ds
ou ∆ est le laplacien ∆f =∑d
i=1∂2f∂x2i
. Considerons pour U = Rd − 0 la
fonction f : U → R egale a :
f(x) = log ‖x‖, si d = 2 et f(x) =1
‖x‖d−2, si d ≥ 3.
En dehors de 0, ∆f = 0 (on dit que f est harmonique). Donc
Lemme 7.1.1. — Si τ est un temps d’arret tel que W τt ne s’annule jamais,
f(W τt ) est une martingale locale.
Proposition 7.1.2 (Les points sont polaires en dimension ≥ 2)
Si d ≥ 2, pour tout x ∈ Rd
P(∃t > 0;Bt = x) = 0.
Preuve: Il suffit de traiter le cas d = 2. Supposons d’abord x0 6= 0. Montrons
que
P(∃t > 0;Wt = 0) = 0.
Choisissons r,R > 0 tels que r < ||x0|| < R, posons Tr = inft ≥ 0; ||Wt|| =
r, TR = inft ≥ 0; ||Wt|| = R et τ = Tr ∧ TR. Puisque ln(||W τt ||) est une
82 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
martingale locale bornee,
E[ln(||W τt ||)] = E[ln(||W τ
0 ||)] = ln ||x0||
donc, en faisant t→ +∞, par convergence dominee,
E[ln(||Wτ ||)] = ln ||x0||
c’est a dire
P(Tr < TR) ln r + P(Tr > TR) lnR = ln ||x0||
ce qui donne
(15) P(Tr < TR) =lnR− ln ||x0||
lnR− ln r.
En faisant tendre r vers 0 on obtient que
P(T0 ≤ TR) = 0,
car T0 ≤ TR = ∪r<RTr < TR. Puis en faisant tendre R vers +∞,
P(T0 <∞) = 0.
Donc partant de x0 6= 0 on n’atteint pas 0. Ensuite, puisque pour tout ε > 0,
Bt = Bt+ε−Bε, t ≥ 0, est un brownien independant de Bε et puisque Bε 6= 0,
p.s., on a (en prenant dans ce qui precede Wt = Bt +Bε)
P(∃t > ε,Bt = 0) = P(∃t > 0, Bε+t = 0) = P(∃t > 0, Bt = −Bε) = 0
et, en faisant tendre ε vers 0, P(∃t > 0, Bt = 0) = 0.
Proposition 7.1.3. — En dimensions d = 1, 2, pour tout ouvert U de Rd
P(∃t > 0;Bt ∈ U) = 1
et, p.s.,
lim inft→+∞
||Bt|| = 0.
Si d ≥ 3, p.s.,
limt→+∞
||Bt|| = +∞.
Preuve: Le cas d = 1 est clair. Pour d = 2 en reprenant la preuve precedente
on voit en commencant par faire tendre R vers l’infini dans (15), que pour
tout x0, P(Tr < +∞) = 1 et donc que pour tout x ∈ R2,
P(∃t > 0; ||Bt − x|| < ε) = 1.
7.2. MARTINGALES EXPONENTIELLES 83
On conclut alors facilement. Par contre pour d ≥ 3, puisque ce n’est plus
ln ||x|| mais ||x||2−d qui est harmonique hors de 0, on obtient a la place de
l’equation (15),
P(Tr < TR) =R2−d − ||x0||2−d
R2−d − r2−d .
En faisant tendre R vers +∞, on obtient que, partant de x0,
P(Tr < +∞) =||x0||2−d
r2−d .
On a donc, pour tout M > 0,
P(lim inft→+∞
|Bt| ≥ r) ≥ P(‖Bt+TM ‖ ≥ r, ∀t ≥ 0) ≥ 1− M2−d
r2−d → 1
quand M tend vers l’infini si d > 2.
Remarque : On peut maintenant justifier que Mt := 1/||Bt+1|| est bien une
martingale locale pour le brownien dans R3.
7.2. Martingales exponentielles
7.2.1. Definition. —
Theoreme 7.2.1. — Soit M une martingale locale. Alors, pour tout λ ∈ C,
E(λM) = exp(λM − 1
2λ2〈M,M〉)
est une martingale locale et
dE(λM) = λE(λM) dM.
Si N est une martingale locale strictement positive, il existe une martingale
locale M telle que N = E(M)
Preuve: Il suffit pour la partie directe d’appliquer la formule d’Ito aux fonc-
tions parties reelles et imaginaires de f(x) = ex et a la semimartingale
λM − λ2
2 〈M,M〉. Pour la reciproque on applique Ito a log(Nt).
Proposition 7.2.2. — Soit M une martingale locale a valeurs positives ou
nulles telle que M0 est integrable. Alors M est une surmartingale (i.e. −M est
une sous martingale). On a toujours E(MT ) ≤ E(M0). Si E(MT ) = E(M0),
alors M est une martingale.
84 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
Preuve: Soit τn reduisant M . Par Fatou conditionnel
E(MT |Fs) ≤ E(lim infn→+∞
M τnT |Fs) ≤ lim inf
n→+∞E(M τn
T |Fs) = lim infn→+∞
M τns = Ms
donc Mt est une surmartingale. Pour 0 ≤ s ≤ t ≤ T ,
E(MT |Fs) ≤ E(Mt|Fs) ≤Ms
donc
E(MT ) ≤ E(Mt) ≤ E(Ms) ≤ E(M0) < +∞.
Si E(MT ) = E(M0) alors E(Mt) = E(Ms). Donc Ms − E(Mt|Fs) ≥ 0 est
d’esperance nulle, donc nul p.s.
Corollaire 7.2.3. — Soit M une martingale locale nulle en 0 et E(M) =
exp(M− 12〈M,M〉). Alors E(E(M)T ) ≤ 1 et, si E(E(M)T ) = 1 pour un T > 0,
alors E(M)t, t ≤ T, est une (vraie) martingale.
7.2.2. Critere de Paul Levy. —
Proposition 7.2.4. — Soit M une martingale locale (continue) nulle en 0
de crochet t. Alors M est un (Ft)–brownien.
Preuve: Par le theoreme precedent, pour tout λ reel, E(iλM) est une martin-
gale locale bornee sur [0, T ] par eλ2T2 donc une martingale : pour 0 < s < t,
E[E(iλMt)|Fs] = E(iλMs)
autrement dit,
E[exp(iλMt −1
2λ2t)|Fs] = exp(iλMs −
1
2λ2s)
d’ou
E[exp(iλ(Mt −Ms))|Fs] = exp(−1
2λ2(t− s))
et l’on conclut facilement.
7.2.3. Dubins-Schwarz. —
Proposition 7.2.5. — Soit M une martingale locale nulle en 0. Alors il
existe un brownien B tel que Mt = B〈M,M〉t.
7.2. MARTINGALES EXPONENTIELLES 85
Preuve: Ne traitons que le cas plus simple ou 〈M,M〉 est strictement croissant
et 〈M,M〉∞ = ∞. Dans ce cas, pour chaque ω ∈ Ω, la fonction t ∈ R+ 7→〈M,M〉t(ω) ∈ R+ est bijective. Notons t ∈ R+ 7→ σt(ω) ∈ R+ l’inverse de
cette fonction (qui verifie donc 〈M,M〉σt = σ〈M,M〉t = t). Chaque σt est un
temps d’arret car
σt ≤ s = 〈M,M〉σt ≤ 〈M,M〉s = t ≤ 〈M,M〉s
est Fs–mesurable. Pour n ∈ N, Mσn est une vraie martingale car
〈Mσn ,Mσn〉t ≤ 〈M,M〉σn = n
et par Doob
E(supt≥0
(Mσnt )2) ≤ lim
T→+∞E(sup
t≤T(Mσn
t )2) ≤ 4E(〈M,M〉σn) = n.
On n’a donc pas de mal a justifier l’application du theoreme d’arret pour
obtenir que si s ≤ t,
E(Mσnσt |Fσs) = Mσn
σs .
Donc Mσt est une (Fσt)-martingale locale. On voit de la meme facon que
(M2 − 〈M,M〉)σt = M2σt − t
est une martingale locale. On conclut donc avec le critere de Levy que Bt =
Mσt est un mouvement brownien. On termine en remarquant que Mt =
B〈M,M〉t .
Proposition 7.2.6. — Soit M une martingale locale. Presque surement,
a. Sur 〈M,M〉∞ = +∞,
lim supt→+∞
Mt = +∞, lim inft→+∞
Mt = −∞
et limt→+∞Mt/〈M,M〉t = 0.
b. Sur 〈M,M〉∞ < +∞, Mt converge quand t→ +∞.
Corollaire 7.2.7. — Une martingale locale positive converge p.s.
86 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
7.3. Theoremes de representation
Theoreme 7.3.1 (Theoreme de representation L2)
On suppose que (Ft) est la filtration du brownien Ft = σ(Bs, 0 ≤ s ≤ t). Si
Z ∈ L2(FT ), il existe un unique processus K dans L2T (B) tel que
(16) Z − E(Z) =
∫ T
0Ks dBs.
Preuve: Les combinaisons lineaires des v.a.
U = exp(i
n∑j=1
λj(Btj −Btj−1)),
n ∈ N, λ1, · · · , λn ∈ R, t1 ≤ t2 ≤ · · · ≤ tn ≤ T, sont denses dans L2(Ω,FT ). En
effet soit X ∈ L2(Ω,FT ) tel que
E[X exp(i
n∑j=1
λj(Btj −Btj−1))] = 0.
Notons µ+ et µ+ les probabilites sur Rn images de X+
E(X+)dP et X−
E(X−)dP
par le vecteur (Bt1 − Bt0 , · · · , Btn − Btn−1). Ces deux probabilites ont la
meme transformee de Fourier donc sont egales. Autrement dit pour tout
A ∈ σ(Btj − Btj−1 , j = 1, · · · , n), E(1AX) = 0. Par classe monotone, c’est
vrai pour tout A ∈ FT . Donc X = 0.
Notons H l’ensemble des Z de L2(FT ) admettant la representation (16).
C’est un ferme car si Zn → Z dans L2 et
Zn = E(Zn) +
∫ T
0Kns dBs
la suite Zn − E(Zn) est de Cauchy donc Kn est de Cauchy dans L2T (B), qui
est complet. Si Kn → K, alors
Z = E(Z) +
∫ T
0Ks dBs.
Montrons que chaque v.a. U est dans H. Posons Gt =∑n
j=1 λj1[tj−1,tj [(t),
Mt = ei∫ t0 Gs dBs+
12
∫ t0 G
2s ds et γ = e−
12
∫ T0 G2
s ds. Remarquons que γ n’est pas
aleatoire et que dMt = iGtMtdBt. On a
U = ei∫ T0 Gs dBs = ei
∫ T0 Gs dBs+
12
∫ T0 G2
s dse−12
∫ T0 G2
s ds = γMt
donc
U = γ[1 +
∫ T
0iGtMt dBt]
7.3. THEOREMES DE REPRESENTATION 87
U = E(U) +
∫ T
0iγGtMt dBt
ce qui montre que U est dans H. Finalement H est ferme et contient un sous
ensemble dense dans L2T (B), il lui est donc egal. Ceci montre l’existence de
la representation (16). Pour l’unicite, si (16) est vrai pour K et K ′, alors∫ T0 Ks dBs =
∫ T0 K ′s dBs donc
E(
∫ T
0(Ks −K ′s) dBs)2 =
∫ T
0E(Ks −K ′s)2 ds = 0
et Ks = K ′s, p.s.
Corollaire 7.3.2. — Si Ft = σ(Bs, 0 ≤ s ≤ t), toutes les Ft-martingales
sont continues p.s.
Preuve: Soit M est une martingale arbitraire et T > 0. Considerons une suite
Zn de v.a. bornees qui tend vers MT dans L1, on peut ecrire
Zn = E(Zn) +
∫ T
0Kns dBs
et alors, pour 0 ≤ t ≤ T ,
M(n)t = E(Xn|Ft) = E(Zn) +
∫ t
0Kns dBs
est continue. Par Doob
P( sup0≤s≤T
|M (n)s −M (m)
s | > ε) ≤ E(|Xn −Xm|)ε
il en resulte qu’une sous suite de M (n) converge uniformeement sur [0, T ], p.s.,
vers M . Donc M est continue.
Corollaire 7.3.3 (Theoreme de representation L1)
Si Z ∈ L1(FT ), ou FT = σ(Bs, 0 ≤ s ≤ T ), il existe un processus K dans
L(0)T (B) tel que
(17) Z − E(Z) =
∫ T
0Ks dBs.
Preuve: Par la corollaire precedent Mt = E(Z|Ft), 0 ≤ t ≤ T , est une
martingale continue. Elle s’ecrit donc par le theoreme de representation des
martingales
Mt = M0 + intt0Ks dBs
ou K dans L(0)T (B). Il suffit alors de remarquer que Z = MT .
88 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
Theoreme 7.3.4 (Theoreme de representation des martingales)
Si Mt est une Ft = σ(Bs, 0 ≤ s ≤ t)-martingale locale, il existe un processus
K ∈ L(0)(B) tel que
Mt = M0 +
∫ t
0Ks dBs.
Preuve: On peut supposer que M0 = 0. Soit τn = inft ≥ 0; |Mt| ≥ n.Puisque M τn
T est borne, il existe par le theoreme precedent un unique processus
Kn ∈ L2T (B) tel que
M τnT =
∫ T
0Kns dBs
Alors, pour tout 0 ≤ t ≤ T ,
M τnt = E(M τn
T |Ft) =
∫ t
0Kns dBs
Si m ≥ n
M τmt =
∫ t
0Kms dBs
donc puisque τn ≤ τm,
M τnt =
∫ t∧τn
0Kms dBs =
∫ t
0Kms 1s≤τn dBs
Par unicite
Kms 1s≤τn = Kn
s
On peut donc poser sans ambiguite, pour s ≤ τn
Ks = Kns
Alors on aura, pour tout n
M τnt =
∫ t
0Ks dBs
donc, puisque τn → +∞,
M τnt =
∫ t
0Ks dBs.
7.4. GIRSANOV 89
7.4. Girsanov
Sur un espace probabilisable (Ω,F) on dit que deux probabilites P et Qsont equivalentes si il existe une v.a. Z strictement positive telle que pour
tout A ∈ FQ(A) =
∫1AZ dP.
On ecrira Q = Z·P, ou dQ = Z dP. Par application du theoreme de convergence
monotone c’est la meme chose que dire que pour toute v.a. X, F–mesurable
positive, ∫X dQ =
∫XZ dP.
On continuera a noter E l’esperance par rapport a P mais on notera EQl’esperance par rapport a Q. Autrement dit E(X) =
∫X dP et EQ(X) =∫
X dQ =∫XZ dP..
Theoreme 7.4.1 (Girsanov). — Soit M une martingale locale nulle en 0
sur (Ω, (Ft),P), T > 0 et
ZT = eMT− 12〈M,M〉T .
On suppose que E(ZT ) = 1 et on note Q la probabilite ZT · P sur (Ω,FT ).
Alors pour toute martingale locale N sur (Ω, (Ft),P), le processus Xt = Nt −〈N,M〉t, 0 ≤ t ≤ T, est une martingale locale sur (Ω, (Ft)t≤T ,Q) de processus
croissant 〈N,N〉t.
Preuve: Montrons d’abord que, sous P, XtZt est une martingale locale.
Puisque dZ = ZdM et d〈N,Z〉 = Zd〈N,M〉 la formule d’Ito nous montre
que
d(XZ) = d(NZ−〈N,M〉Z) = ZdN+NdZ+d〈N,Z〉−〈N,M〉dZ−Zd〈N,M〉
= ZdN +NdZ − 〈N,M〉dZest une somme d’integrales stochastiques par rapport a des martingales locales,
donc une martingale locale. Soit (τn) reduisant XZ en martingale et soit τ
un temps d’arret borne par T , alors, en utilisant a la fois que, sous P, Z (cf.
Lemme 7.2.3) et (XZ)τn sont des martingales,
EQ[Xτnτ ] = E[Xτn
τ ZT ] = E[Xτnτ E(ZT |Fτn∧τ )]
= E[Xτnτ Zτn∧τ ] = E[(XZ)τnτ ] = E[X0] = EQ[X0],
(car Z0 = 1). Donc Xτn est une Q-martingale (Corollaire 4.3.8).
90 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
Le crochet pouvant s’obtenir par une limite p.s. ne depend que de la classe
d’equivalence des probabilites (puisqu’alors les ensembles negligeables sont les
memes).
Il resulte de ce theoreme que les semimartingales pour P et Q sont les
memes (jusqu’en T ). Par l’argument de la fin de la preuve, ou la propriete
caracteristique par exemple, on voit aussi que les integrales stochastiques sont
les memes pour P et pour Q.
Pour verifier l’hypothese du theoreme de Girsanov, on utilise le critere de
Novikov :
7.5. Critere de Novikov
Lemme 7.5.1. — Une famille Xi, i ∈ I est uniformement integrable si et
seulement si supi∈I E(|Xi|) < +∞ et pour tout ε > 0, il existe η > 0 tel que
si P(A) ≤ η alors E(1A|Xi|) ≤ ε pour tout i ∈ I.
Preuve: Si le criere est verifie, etant donne ε > 0, par Markov,
P(|Xi| ≥ a) ≤ supE(|Xi|)a
≤ η
pour a assez grand, donc E(1|Xi|≥a|Xi|) ≤ ε. Reciproquement, si la famille
est uniformement integrable, pour M assez grand, et P(A) ≤ ε/2M ,
E(|X|1A) ≤ E(|X|1A1|X|≥M) + E(|X|1A1|X|≤M)
≤ E(|X|1|X|≥M) +MP(A) ≤ ε
Theoreme 7.5.2 (Critere de Novikov). — Soit M martingale locale
nulle en 0, telle que E(e〈M,M〉T
2 ) < +∞. Alors E(E(M)T ) = 1.
Preuve: Rappelons d’abord (Corollaire 7.2.3) que E(E(M)T ) ≤ 1. Pour tout
A ∈ FT ,
1AeMT2 = E(M)
1/2T 1A(e
〈M,M〉T2 )1/2,
donc par Cauchy Schwarz,
E(1AeMT2 ) ≤ [E(E(M)T )]1/2[E(1Ae
〈M,M〉T2 )]1/2 ≤ [E(1Ae
〈M,M〉T2 )]1/2.
Pour 0 < a < 1, posons X = exp aMT1+a , alors
E(aM)T = eaMT−a2
2〈M,M〉T = (eMT− 1
2〈M,M〉T )a
2ea(1−a)MT = E(M)a
2
T X1−a2 .
7.6. CAMERON-MARTIN 91
En appliquant l’inegalite de Holder on a
(18) E(1AE(aM)T ) ≤ E(E(M)T )a2E(1AX)1−a2 ≤ E(1AX)1−a2 .
Comme (1+a)/2a > 1 on peut appliquer l’inegalite de Jensen (E(U)(1+a)/2a ≤E(U (1+a)/2a),
E(1AX) = E(1A expaMT
1 + a) ≤ E(1Ae
MT2 )
2a1+a .
On arrive donc a
E(1AE(aM)T ) ≤ E(1AeMT2 )2a(1−a) ≤ [E(1Ae
〈M,M〉T2 )]a(1−a).
Pour tout temps d’arret τ , en appliquant ceci a M τ , on obtient que
E(1AE(aM)τ∧T ) ≤ [E(1Ae〈M,M〉T
2 )]a(1−a).
Il resulte du lemme que la famille E(aM)τ∧T est uniformement integrable. Et
donc (pourquoi ?) que la martingale locale E(aM)t est une vraie martingale.
En particulier E(E(aM)T ) = 1. Pour atteindre le cas a = 1 on ecrit que par
(18) avec A = Ω,
1 = E(E(aM)T ) ≤ E(E(M)T )a2E(X)1−a2
donc en prenant a→ 1, E(E(M)T ) = 1.
Remarque : On a aussi E(E(M)T |F0) = 1 puisque E(E(M)T |F0) ≤ 1 et
E(E(E(M)T |F0)) = E(E(M)T ) = 1.
7.6. Cameron-Martin
Corollaire 7.6.1 (Cameron–Martin). — Soit B un brownien sur
(Ω, (Ft),P) et φs ∈ L0(B). On suppose que ZT = exp[∫ T
0 φs dBs − 12
∫ T0 φ2
s ds]
verifie E(ZT ) = 1. Alors, pour 0 ≤ t ≤ T , Bt = Bt −∫ t
0 φs ds est un
mouvement brownien sur (Ω, (Ft)0≤t≤T ,Q) ou dQ = ZT dP sur FT .
Preuve: d’apres le critere de Levy, il suffit de voir que Bt est une martingale
locale de processus croissant t ce qui est immediat par le theoreme.
Le critere suivant est tres utile :
Corollaire 7.6.2 (Variante de Novikov). — Si il existe µ > 0 tel que∫ T0 E(eµφ
2t ) dt < +∞, alors E(ZT ) = 1.
92 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
Preuve: On choisit t0 = 0 < t1 · · · < tn = T avec ti+1 − ti < 2µ et on
pose φi = φ1[ti,ti+1[. Alors, ecrivons, en utilisant que pour toute probabilite
ν,exp∫|f | dν ≤
∫exp |f | dp (consequence de l’inegalite de Jensen),
E(e12
∫ T0 φi(s)
2 ds) = E(exp[1
ti+1 − ti
∫ ti+1
ti
(ti+1 − ti)φ(s)2
2ds])
≤ E(1
ti+1 − ti
∫ ti+1
ti
exp(ti+1 − ti)φ(s)2
2ds) ≤ 1
ti+1 − ti
∫ ti+1
ti
E expµφ(s)2 ds
est fini, donc en appliquant la remarque suivant Novikov au processusZti+tZti
, t ≥0, on voit que
E(Zti+1
Zti|Fti) = 1.
Donc de proche en proche,
E(ZT ) = E(Zt0Zt1Zt0· · · Ztn
Ztn−1
) = 1.
CHAPITRE 8
EQUATIONS DIFFERENTIELLES
STOCHASTIQUES
8.1. Introduction
Notons Mp×d(R) l’ensemble des matrices p× d a coefficients dans R. Soient
σ : Rp → Mp×d(R) et b : Rp → Rp deux fonctions mesurables localement
bornees (i.e. bornees sur chaque boule) definies sur Rp. Pour x ∈ Rp, on
considere l’equation differentielle stochastique (E.D.S.)
(19) dXt = σ(Xt) dBt + b(Xt) dt, X0 = x ∈ Rp;
pour Bt ∈ Rd et Xt ∈ Rp. Etant donne un Ft-mouvement Brownien d dimen-
sionnel B sur (Ω, (Ft),P), muni de sa filtration, on appelle solution (forte) de
cette equation un processus adapte continu Xt tel que, en coordonnees, pour
i = 1, · · · , p, pour tout t ≥ 0,
X(i)t = X
(i)0 +
d∑j=1
∫ t
0σij(Xs) dB
(j)s +
∫ t
0bi(Xs) ds
Le cas d’une equation a coefficients dependant du temps, du type
dXt = σ(t,Xt) dBt + b(t,Xt) dt
se ramene a cette situation en travaillant dans Rp+1, en rajoutant une com-
posante X(0)t = t. Le lemme suivant est crucial.
Lemme 8.1.1 (Gronwall). — Soit g : [0, T ] → R une fonction borelienne
bornee telle que, pour a, b ≥ 0,
g(t) ≤ a+ b
∫ t
0g(s) ds, pour tout 0 ≤ t ≤ T.
Alors g(t) ≤ aebt sur [0, T ].
94 CHAPITRE 8. EQUATIONS DIFFERENTIELLES STOCHASTIQUES
Preuve: On pose G(t) = a+ b∫ t
0 g(s) ds et H(t) = a+ b∫ t
0 G(s) ds. Alors
g(t) ≤ G(t) ≤ H(t)
et H(t) ≤ a+ b∫ t
0 H(s) ds. Il suffit donc majorer H or H est derivable et
(e−btH(t))′ = −be−btH(t) + e−btH ′(t) = −be−btH(t) + be−btG(t) ≤ 0
donc e−btH(t) ≤ H(0) = a.
8.2. Solutions fortes d’E.D.S.
On considere l’equation (19). On dit que b et σ sont lipschitziennes si il
existe K > 0 tel que, partout,
||b(x)− b(y)|| ≤ K||x− y||, ||σ(x)− σ(y)|| ≤ K||x− y||.
(on peut prendre comme norme, par exemple, ||σ(x)|| = (∑
i,j σi,j(x)2)1/2 et
||b(x)|| = (∑
i bi(x)2)1/2). Le theoreme fondamental est le suivant :
Theoreme 8.2.1. — Soit Bt, t ≥ 0, un (Ω, (Ft),P) mouvement brownien d–
dimensionnel. On suppose que b et σ sont lipschitziennes. Etant donne x ∈ Rpil existe un et un seul processus continu adapte X tel que pour tout t ≥ 0,
Xt = x+
∫ t
0b(Xs) ds+
∫ t
0σ(Xs) dBs.
Preuve: En dimensions p = d = 1, pour simplifier les notations uniquement.
1. Unicite : Si X,X ′ sont deux solutions. On localise avec τ = inft >0; |Xt −X ′t| ≥ n :
Xt∧τ −X ′t∧τ =
∫ t∧τ
0(b(Xs)− b(X ′s)) ds+
∫ t∧τ
0(σ(Xs)− σ(X ′s)) dBs.
Puisque (a+ b)2 ≤ 2a2 + 2b2, et en appliquant Cauchy Schwarz, si t ≤ T ,
E([Xt∧τ − X ′t∧τ ]2) ≤
≤ 2E([
∫ t∧τ
0(b(Xs)− b(X ′s)) ds]2) + 2E([
∫ t∧τ
0(σ(Xs)− σ(X ′s)) dBs]
2)
≤ 2E((t ∧ τ)[
∫ t∧τ
0(b(Xs)− b(X ′s))2 ds]) + 2E([
∫ t∧τ
0(σ(Xs)− σ(X ′s))
2 ds])
≤ 2E(T [
∫ t∧τ
0(K|Xs −X ′s|)2 ds]) + 2E([
∫ t∧τ
0(K|Xs −X ′s|)2 ds])
≤ 2(T + 1)K2
∫ t
0E(|Xs∧τ −X ′s∧τ |)2 ds.
8.2. SOLUTIONS FORTES D’E.D.S. 95
Donc E[Xt∧τ−X ′t∧τ ]2 = 0 par le lemme de Gronwall. On en deduit queX = X ′.
2. Existence : on utilise ce qu’on appelle le schema de Picard. On pose, pour
tout t ≥ 0, X0t = x puis par recurrence
Xnt = x+
∫ t
0b(Xn−1
s ) ds+
∫ t
0σ(Xn−1
s ) dBs
On a
Xn+1t −Xn
t =
∫ t
0(b(Xn
s )− b(Xn−1s )) ds+
∫ t
0(σ(Xn
s )− σ(Xn−1s )) dBs
Posons
gn(u) = E(supt≤u
[Xn+1t −Xn
t ]2).
Si 0 ≤ u ≤ T ,
gn(u) ≤ 2E(supt≤u
[
∫ t
0(b(Xn
s )− b(Xn−1s )) ds]2) + 2E(sup
t≤u[
∫ t
0(σ(Xn
s )− σ(Xn−1s )) dBs]
2)
≤ 2E(T
∫ u
0(b(Xn
s )− b(Xn−1s ))2 ds) + 8E([
∫ u
0(σ(Xn
s )− σ(Xn−1s ))2 ds)
≤ 2(T + 4)K2
∫ u
0E(|Xn
s −Xn−1s |2) ds
≤ 2(T + 4)K2
∫ u
0E(sup
s≤v|Xn
s −Xn−1s |2) dv = C
∫ u
0gn−1(v) dv
pour C = 2(T + 4)K2. On en deduit par recurrence que,
gn(t) ≤ Cntn−1
(n− 1)!g0(t)
or
g0(t) ≤ E(sups≤T
[X1s − x]2) ≤ E(sup
s≤T(sb(x) + σ(x)Bs)
2)) ≤ Cte
On a donc
E(∞∑n=0
supt≤T
[Xn+1t −Xn
t ]2) =∞∑n=0
gn(T ) < +∞.
On en deduit facilement que Xn converge p.s. vers une solution X de
l’equation.
96 CHAPITRE 8. EQUATIONS DIFFERENTIELLES STOCHASTIQUES
8.3. Localisation
On dit que b et σ sont localement lipschitziennes si pour tout N > 0 il existe
KN ,K′N > 0 tel que, si ||x|| ≤ N, ||y|| ≤ N ,
||b(x)− b(y)|| ≤ KN ||x− y||, ||σ(x)− σ(y)|| ≤ K ′N ||x− y||.
C’est le cas par exemple dans le cas fondamental ou les fonctions b et σ sont
de classe C1, par le theoreme des accroissements finis.
Theoreme 8.3.1. — On suppose que b et σ sont localement lipschitziennes.
Alors pour tout x ∈ Rp il existe un temps d’arret ξ ≤ +∞ et un processus X
tel que pour tout t < ξ, Xt est solution de l’E.D.S.,
dXt = σ(Xt) dBt + b(Xt) dt, X0 = x.
Lorsque ξ < +∞, lim supt→ξ− ||Xt|| = +∞. Dans ce cas on dit qu’il y a
explosion.
Si, de plus il existe K > 0 tel que, pour tout x ∈ Rp,
(20) ||σ(x)||+ ||b(x)|| ≤ K(1 + ||x||)
alors ξ = +∞ p.s. et pour tout m,T > 0,
E(supt≤T‖Xt‖m) < +∞.
Preuve: Pour tout n > 0 on se donne une fonction φn : Rp → R de classe C1,
egale a 1 sur x; ||x|| ≤ n et a 0 sur x; ||x|| ≥ n+ 1. Les fonctions bn = bφnet σn = σφn sont lipschitziennes. Il existe donc une unique solution X(n) de
l’E.D.S.
dX(n)t = σn(X
(n)t ) dBt + bn(X
(n)t ) dt, X
(n)0 = x.
On prend n ≥ ||x||. Soit τn = inft ≥ 0; ||X(n)t || ≥ n. Si m ≥ n , soit
τnm = inft ≥ 0; ||X(m)t || ≥ n. Alors bm(X
(m)t∧τnm) = bn(X
(m)t∧τnm) et σm(X
(m)t∧τnm) =
σn(X(m)t∧τnm). Comme pour la preuve de l’unicite dans la preuve du theoreme
8.2.1 on en deduit que pour tout m ≥ n,
X(m)t∧τnm = X
(n)t∧τn
en particulier τnm ≥ τn. On peut donc poser, des que τn ≥ t,
Xt = X(n)t
8.3. LOCALISATION 97
Soit ξ = limn→+∞ τn. On definit ainsi, pour t < ξ, une solution Xt de l’E.D.S.
De plus si ξ <∞,
lim supt→ξ−
||Xt|| ≥ lim supn→+∞
||Xτn || = lim supn→+∞
n = +∞.
Supposons maintenant verifiee la condition (20). Soit
τ = inft ≥ 0; ‖Xt‖ ≥ n
avec n ≥ ‖x0‖. Pour simplifier les notations, travaillons en dimension 1, pour
p ∈ N, par Ito,
dXpt = pXp−1
t dXt +p(p− 1)
2Xp−2t d〈X,X〉t
donc
Xpt∧τ = xp0 +
∫ t∧τ
0[p(Xτ
s )p−1b(Xτs ) +
p(p− 1)
2σ(Xτ
s )2(Xτs )p−2]ds
+
∫ t∧τ
0p(Xτ
s )p−1σ(Xτs )dBs
Puisque (a+ b+ c)2 ≤ 4(a2 + b2 + c2) on en deduit que
X2pt∧τ ≤ 4x2p
0 + 4(
∫ t∧τ
0[p(Xτ
s )p−1b(Xτs ) +
p(p− 1)
2σ(Xτ
s )2(Xτs )p−2]ds)2
+4(
∫ t∧τ
0p(Xτ
s )p−1σ(Xτs )dBs)
2
donc par Doob, et par Cauchy Schwarz, si 0 ≤ r ≤ T , pour un T > 0 fixe,
E(supt≤r
X2pt∧τ ) ≤
4x2p0 + 4T (
∫ r
0[p(Xτ
s )p−1b(Xτs ) +
p(p− 1)
2σ(Xτ
s )2(Xτs )p−2]2ds)
+16E(
∫ r
0[p(Xτ
s )p−1σ(Xτs )]2ds
On peut trouver deux constantes α, β > 0 telles que, pour tout x ∈ R,
4T (pxp−1b(x) +p(p− 1)
2σ(x)2xp−2)2 + 16(pxp−1σ(x))2 ≤ α+ β|x|2p
On a donc, en posant γ = 4x2p0 + Tα,
E(supt≤r
X2pt∧τ ) ≤ γ + β
∫ r
0E(X2p
s∧τ )ds
donc
E(supt≤r
X2pt∧τ ) ≤ γ + β
∫ r
0E(sup
t≤sX2pt∧τ )ds
98 CHAPITRE 8. EQUATIONS DIFFERENTIELLES STOCHASTIQUES
et par Gronwall,
E(supt≤r
X2pt∧τ ) ≤ γeβr.
Comme les constantes ne dependent pas de n (qui a defini τ) on peut faire
tendre n vers l’infini pour obtenir que
E(supt≤r
X2pt ) ≤ γeβr.
En particulier Xt est fini p.s. donc ξ = +∞.
8.4. Propriete de Markov
Reprenons les hypotheses precedentes en supposant que ξ = +∞, et notons
Xt la solution de l’E.D.S. (19) verifiant X0 = x0. Par construction, l’applica-
tion
(x0, ω) ∈ Rp × Ω 7→ Xt(ω), 0 ≤ t ∈ C(R+,Rp)est mesurable lorsqu’on munit Rd × Ω de la tribu B(R+)× F∞ et l’ensemble
des fonctions continues C(R+,Rp) de R+ dans Rp de la tribu engendree par les
applications coordonnees (f 7→ f(t)), par exemple. Puisque l’on peut prendre
F∞ = σ(Bs, s ≥ 0) , il existe une application mesurable
Φ : Rp × C(R+,Rp)→ C(R+,Rp)
telle que
Xt = Φ(x0, B)(t).
De plus, par construction, Pour tout temps d’arret τ , fini p.s., on a
Xτt = Φ(x0, B
τ )(t).
Par la propriete de Markov forte on sait que le processus Bt = Bt+τ −Bτ est
un mouvement brownien independant de Fτ , donc de Xτ . On voit facilement
en prenant d’abord pour H des fonctions etagees que, pour tout H de L0(B),∫ t+τ
τHs dBs =
∫ t
0Hs+τ dBs
La relation
Xτ+t = Xτ +
∫ t+τ
τb(Xs) ds+
∫ t+τ
τσ(Xs) dBs
= Xτ +
∫ t
0b(Xτ+s) ds+
∫ t
0σ(Xτ+s) dBs
montre que, si on pose τXt = Xτ+t, pour tout t ≥ 0, alors
τX = Φ(Xτ , B).
8.5. PROCESSUS DE MARKOV 99
Puisque B est independant de Fτ , on en deduit :
Theoreme 8.4.1. — (Propriete de Markov forte) Pour tout temps d’arret τ
fini p.s., pour toute fonction mesurable positive F definie sur C(R+,Rp),
E(F (τX)|Fτ ) = Ey(F (X)), pour y = Xτ
ou le symbole Ey signifie que l’on considere la solution X telle que X0 = y.
8.5. Processus de Markov
Posons, pour f mesurable positive sur Rp, Ptf(x) = Ex(f(Xt)). En prenant
F (X) = f(Xt) et τ = s dans le theoreme precedent on voit que
E(f(Xt+s)|Fs) = Ey(f(Xt)) = Ptf(y), pour y = Xs,
donc, en prenant l’esperance,
Pt+sf(x) = Ex(f(Xt+s)) = Ps(Ptf)(x)
c’est la propriete dite de semigroupe. On dit que X est un processus de Markov
de semigroupe (Pt). Par continuite des trajectoires en t = 0,
limt→0
Ptf(x) = f(x)
si f est continue bornee.
Definition 8.5.1. — On appelle generateur du semigroupe (Pt) l’operateur
Lf defini par
Lf(x) = limt→0
Ptf(x)− f(x)
t
pour les f pour lesquels cette limite a un sens.
Theoreme 8.5.2. — Soit X solution de l’E.D.S.,
dXt = σ(Xt) dBt + b(Xt) dt
Alors X est un processus de Markov dont le generateur est donne par
Lf(x) =1
2
p∑i,j=1
ai,j(x)∂2f
∂xi∂xj(x) +
p∑i=1
bi(x)∂f
∂xi(x)
lorsque f est C2 a support compact ou a = σσ∗. On dit que X est une diffusion.
100 CHAPITRE 8. EQUATIONS DIFFERENTIELLES STOCHASTIQUES
Preuve: Si on applique la formule d’Ito a f(Xt), on obtient,
f(Xt) = f(X0) +∑i,j
∫ t
0
∂f
∂xi(Xs)σi,j(Xs) dBj(s) +
∫ t
0Lf(Xs) ds
Puisque f est a support compact , ∂f∂xi
(Xs)σi,j(Xs) est borne, donc l’integrale
stochastique est une martingale, d’esperance nulle. On a alors
Ptf(x) = f(x) + Ex(
∫ t
0Lf(Xs) ds) = f(x) +
∫ t
0PsLf(x) ds
Donc
Lf(x) = limt→0
Ptf(x)− f(x)
t= lim
t→0
1
t
∫ t
0PsLf(x) ds = P0Lf(x) = Lf(x).
8.6. EDS et EDP
La formule d’Ito et le theoreme precedent montrent qu’il y a un lien tres fort
entre les EDS et les operateurs differentiels aux derivees partielles du second
ordre du type de L. Ceci permet en particulier de donner des solutions proba-
bilistes a certaines equations aux derivees partielles (EDP), et reciproquement.
Donnons deux exemples.
8.6.1. Probleme de Dirichlet. — Dans Rp considerons un ouvert borne
D de frontiere ∂D reguliere. Etant donne une fonction f : ∂D → R sur le bord
on considere l’equation
Lφ(x) = 0, x ∈ D;
φ(x) = f(x), x ∈ ∂D,ou φ est continue sur D. Donnons juste l’idee du type de resultat auquel on
peut s’attendre :
Theoreme 8.6.1. — Sous de bonnes hypotheses..., la solution φ admet la
representation
φ(x) = Ex(f(Xτ )), x ∈ D;
ou X est la diffusion associee a (19) et τ = inft ≥ 0;Xt ∈ ∂D.
Preuve: On considere la solution X de (19) partant de x ∈ D. Par Ito,
φ(Xt∧τ ) = φ(x) +
∫ t∧τ
0
∑i,j
∫ t
0
∂φ
∂xi(Xs)σi,j(Xs) dBj(s) +
∫ t∧τ
0Lφ(Xs) ds
8.6. EDS ET EDP 101
On prend l’esperance et on tient compte du fait que Lφ est nulle :
E(φ(Xt∧τ )) = E(φ(x)) = φ(x)
et on fait tendre t vers l’infini, et on utilise que φ = f sur ∂D :
φ(x) = limt→+∞
E(φ(Xt∧τ ) = E(φ(Xτ )) = E(f(Xτ )).
8.6.2. Feynman-Kac. — On se donne g : R+×Rp → R φ, c : Rp → R avec
c ≥ 0. On considere une solution u bornee a derivees bornees de l’equation
(21)∂u
∂t(t, x) = (L− c(x))u(t, x) + g(t, x), u(0, x) = φ(x).
Theoreme 8.6.2. — La solution u(t, x) de (21) verifie :
u(t, x) = Ex[φ(Xt) exp(−∫ t
0c(Xs) ds)]+Ex[
∫ t
0g(t−s,Xs) exp(−
∫ s
0c(Xu) du) ds]
ou X est la diffusion associee a (19)
Preuve: On pose, t > 0 etant fixe,
v(s, x) = u(t− s, x), Zs = exp(−∫ s
0c(Xu) du).
Appliquant la formule d’Ito, on a
d(v(s,Xs)Zs) = −v(s,Xs)c(Xs)Zs ds+ Zs dv(s,Xs)
= Z∂v∂s
+ (L− c)v ds+ Z∇xv σ dBs.
Vu que ∇xv est bornee et que 0 ≤ Zs ≤ 1, E(∫ t
0 Zs∇xv σ(Xs) dBs) = 0.
D’autre part ∂v∂s (s, x) = −∂u
∂s (t− s, x) et donc
∂v
∂s(s, x) + (L− c)v(s, x) = −∂u
∂s(t− s, x) + (L− c)u(t− s, x) = −g(t− s, x).
On a donc
E(v(t,Xt)Zt)− E(v(0, X0)Z0) = E(−∫ t
0g(t− s,Xs)Zs ds),
mais, puisque u(0, Xt) = φ(Xt),
E(v(t,Xt)Zt)−E(v(0, X0)Z0) = E(u(0, Xt)Zt)−u(t, x) = E(φ(Xt)Zt)−u(t, x)
et l’on obtient
u(t, x) = E(φ(Xt)Zt) + E(
∫ t
0g(t− s,Xs)Zs ds).
Recommended