You are on page 1of 96

Universit

e Pierre et Marie Curie, Paris 6


Master de Math

ematiques 2010-2011
M2Probabilit es et Finance
Calcul Stochastique
Philippe Bougerol
12 Decembre 2010
1
TABLE DES MATI
`
ERES
1. Introduction au calcul stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Modelisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Un primer sur lintegrale dIto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2. Integration de Lebesgue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1. Mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3. Espaces /
1
, L
1
, /
2
, L
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4. Uniforme integrabilite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Divers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.6. Tribu engendree. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7. Lois. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.8. Mesure produit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.9. Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.10. Independance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3. Mouvement Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1. Loi gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2. Vecteur gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3. Famille gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4. Denition du mouvement brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5. Filtrations et Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6. Propriete de Markov forte du mouvement brownien. . . . . . . . . . . . . . . 30
3.7. Existence et Simulation du Mouvement brownien. . . . . . . . . . . . . . . . . 34
3.8. Appendice 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.9. Appendice 2 : Construction de P. Levy du mouvement brownien. . 35
4. Martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4 TABLE DES MATI
`
ERES
4.1. Martingales, denition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2. Martingales `a temps discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3. Martingale continue `a droite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4. Formulaire sur lesperance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . 43
5. Crochet de martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1. Cas discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2. Premiers pas, `a temps continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.3. Crochet comme variation quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.4. Martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.5. Processus `a variation nie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.6. Crochet de deux martingales locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.7. Appendice : Changement de temps. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6. Integrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.1. Cas dune martingale de carre integrable. . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2. Cas dune martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.3. Semimartingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.4. Formule dIto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7. Applications de la formule dIto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.1. Sur le Brownien multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.2. Martingales exponentielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.3. Theor`eme de representation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.4. Girsanov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.5. Cameron-Martin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
8. Equations dierentielles stochastiques. . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2. Solutions fortes dE.D.S.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.3. Localisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.4. Propriete de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.5. Processus de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.6. EDS et EDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
CHAPITRE 1
INTRODUCTION AU CALCUL
STOCHASTIQUE
Introduction tr`es tr`es sommaire et volontairement caricaturale, sans toutes
les justications mathematiques, pour linstant.
1.1. Modelisation
On cherche `a modeliser (construire des mod`eles) et faire des calculs sur des
phenom`enes evoluant dans le temps qui dependent du hasard.
La valeur X
t
du phenom`ene `a linstant t, peut etre observee `a cet instant,
mais pas predite avant. Entre les instants t et t+h une part de hasard sajoute.
On sinteresse au cas le plus frequent o` u la fonction t X
t
est continue. Pour
faire simple supposons que X
t
est `a valeurs dans R. On va avoir, pour t, h 0,
X
t+h
= X
t
+
h
t
o` u
h
t
est aleatoire. Lidee fondamentale est quau moins dans un premier
temps, pour h tr`es tr`es (innitesimalement...) petit,
h
t
peut secrire

h
t
= H
t

h
t
o` u
h
t
est une variable aleatoire independante de tout ce qui prec`ede et de loi
ne dependant que de h (et donc pas de t) et o` u H
t
est une fonction continue
de t, observable `a linstant t, par exemple une fonction de X
t
. On va voir
que cest tr`es operationel.
Cest assez naturel. Dans le cas deterministe (cest `a dire sans hasard), et
si X
t
est derivable, on a bien ce type de modelisation en prenant pour H
t
la
derivee `a linstant t et en prenant
h
t
= h.
2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
1.2. Bruit
Le fait davoir pris h 0 (innitesimalement) petit entrane des contraintes.
Si on remplace h par h = h
1
+h
2
, avec h
1
, h
2
0, on a
X
t+h
= X
t
+H
t

h
t
= X
t+h
1
+h
2
= X
t+h
1
+H
t+h
1

h
2
t+h
1
= X
t
+H
t

h
1
t
+H
t+h
1

h
2
t+h
1
.
Pour h
1
tr`es petit on a par continuite H
t+h
1
H
t
. On arrive donc `a

h
t

h
1
t
+
h
2
t+h
1
.
De proche en proche, pour h tr`es petit,

h
t

h/n
t
+
h/n
t+h/n
+
h/n
t+2h/n
+ +
h/n
t+(n1)h/n
.
Nous avons suppose que
h
t
est une variable aleatoire independante de tout ce
qui prec`ede et de loi ne dependant pas de t. On voit donc que necessairement,

h
t
est la somme de n variables aleatoires independantes et de meme loi. Une
variante du theor`eme de la limite centrale (qui utilise que les
h
t
sont petits ...)
nous conduit `a dire qualors
h
t
a une loi gaussienne. Notons m
h
sa moyenne
et
2
h
sa variance. La relation

h
t
=
h
1
t
+
h
2
t+h
1
nous am`ene `a (et lon va voir que cest vraiment ca la propriete clef, plus
encore que detre gaussien)
m
h
1
+h
2
= m
h
1
+m
h
2
,
2
h
1
+h
2
=
2
h
1
+
2
h
2
donc (par exemple si ces coecients sont continus), il existe a R et 0
tels que m
h
= ah et
2
h
=
2
h.
On voit donc que lon peut ecrire

h
t
= ah +(B
t+h
B
t
)
o` u B
t
est un mouvement brownien sur un espace de probabilite (, /, P),
cest `a dire un processus (=famille de variables aleatoires) continu forme de
v.a. gaussiennes telles que B
t
N(0, t) et B
t+h
B
t
est independant de
B
r
, 0 r t.
On etait parti de
X
t+h
= X
t
+H
t

h
t
donc on a, au moins innitesimalement,
X
t+h
= X
t
+H
t
(ah +(B
t+h
B
t
)).
1.3. UN PRIMER SUR LINT

EGRALE DITO 3
Si = 0 cela sinterpr`ete par lequation dierentielle
dX
t
dt
= aH
t
ce qui secrit aussi sous forme integrale
X
t
X
0
=
_
t
0
aH
s
ds.
On va voir par contre que si > 0 alors X
t
ne peut pas etre derivable. On
va donc plutot garder la forme integrale en ecrivant que
X
t
X
0
=
_
t
0
aH
s
ds +
_
t
0
H
s
dB
s
o` u il faut donner un sens `a lintegrale dite stochastique
_
t
0
H
s
dB
s
. On verra
quil est aussi utile de generaliser en ne prenant pas le meme facteur H
s
dans
les deux termes, ce qui sinterprete en distinguant bien la partie aleatoire de
la partie deterministe de laccroissement.
1.3. Un primer sur lintegrale dIto
Le mot primer est anglais et signie premi`ere couche en metallurgie.
Pour un processus continu par morceaux H
t
on veut donner un sens `a
_
t
0
H
s
dB
s
.
On va voir que cest possible et naturel sous lhypoth`ese que lon a deja
evoquee, que H
t
est observable `a linstant t. Il faudra donner un sens `a ca (et
on dira adapte), mais disons que la propriete essentielle dont on va se servir
ici est que laccroissement B
t+h
B
t
, h 0 est independant de H
s
, s t.
La denition simple naturelle ressemble `a lintegrale de Riemann : si
H
t
=
n

i=1
H
t
i
1
[t
i
,t
i+1
[
(t)
par analogie avec la formule qui se verie facilement
_
t
0
H
s
ds =
n

i=1
H
t
i
(t
i+1
t t
i
t)
(o` u s t = min(s, t)), on pose
_
t
0
H
s
dB
s
=
n

i=1
H
t
i
(B
t
i+1
t
B
t
i
t
).
4 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
Lemme 1.3.1. Si H
s
L
2
pour tout s > 0, alors pour t > 0,
E(
_
t
0
H
s
dB
s
) = 0,
E((
_
t
0
H
s
dB
s
)
2
) = E(
_
t
0
H
2
s
ds).
Preuve: Montrons la seconde egalite :
E((
_
t
0
H
s
dB
s
)
2
) = E((
n

i=1
H
t
i
(B
t
i+1
t
B
t
i
t
))
2
)
=
n

i,j=1
E(H
t
i
H
t
j
(B
t
i+1
t
B
t
i
t
)(B
t
j+1
t
B
t
j
t
))
=
n

i=1
E(H
t
i
2
(B
t
i+1
t
B
t
i
t
)
2
) +
+2

i<j
E(H
t
i
H
t
j
(B
t
i+1
t
B
t
i
t
)(B
t
j+1
t
B
t
j
t
))
=
n

i=1
E(H
t
i
2
)E((B
t
i+1
t
B
t
i
t
)
2
) +
+2

i<j
E(H
t
i
H
t
j
(B
t
i+1
t
B
t
i
t
))E(B
t
j+1
t
B
t
j
t
)
en utilisant lindependance. Puisque E((B
t
i+1
t
B
t
i
t
)
2
) = t
i+1
t
i
et
E((B
t
j+1
t
B
t
j
t
)) = 0 on obtient que
E((
_
t
0
H
s
dB
s
)
2
) =
n

i=1
E(H
t
i
2
)(t
i+1
t t
i
t) =
_
t
0
E(H
s
2
) ds.
On veut prolonger cette construction `a dautres processus H. On le fait de
la facon suivante : si H
(n)
t
, t 0, est une suite de processus du type precedent
pour laquelle il y a un processus H tel que H
(n)
H au sens o` u pour tout
t 0,
_
t
0
E(H
(n)
s
H
s
)
2
ds 0
alors, la suite
_
t
0
H
(n)
s
dB
s
est une suite de Cauchy dans lespace L
2
(, T, P)
puisque
E([
_
t
0
H
(n)
s
dB
s

_
t
0
H
(m)
s
dB
s
]
2
)
1.3. UN PRIMER SUR LINT

EGRALE DITO 5
= E([
_
t
0
(H
(n)
s
H
(m)
s
) dB
s
]
2
)
= E(
_
t
0
(H
(n)
s
H
(m)
s
)
2
ds)
=
_
t
0
E((H
(n)
s
H
(m)
s
)
2
) ds
par le lemme. Lespace L
2
(, T, P) etant complet (Hilbert), cette suite
_
t
0
H
(n)
s
dB
s
converge. On appelle
_
t
0
H
s
dB
s
sa limite. Elle verie, par passage `a la limite, comme au dessus
Proposition 1.3.2.
E(
_
t
0
H
s
dB
s
) = 0,
E((
_
t
0
H
s
dB
s
)
2
) = E(
_
t
0
H
2
s
ds).
Si H
t
, t 0, est un processus continu borne tel que H
t
est (B
s
, 0 s t)
mesurable. Alors la suite de processus
H
(n)
t
=
n1

k=0
HkT
n
1
[
kT
n
,
(k+1)T
n
[
(t)
approxime bien H au sens precedent sur lintervalle [0, T] (utiliser le theor`eme
de convergence dominee). En fait on verra quau lieu detre borne, il sut que
E(
_
T
0
H
2
s
ds) < .
1.3.1. Une formule dIto. Commencons par un resultat fondamental,
qui est tout `a fait particulier au mouvement brownien.
Theor`eme 1.3.3. Si B est un mouvement brownien si t
n
0
= 0 < t
n
1
<
< t
n
n1
< t
n
n
= t est une suite de subdivisions de [0, t] dont le pas
sup
0kn1
[t
n
k+1
t
n
k
[ tend vers 0, alors, dans L
2
,
lim
n
n1

k=0
(B
t
n
k+1
B
t
n
k
)
2
= t.
En fait montrons le resultat plus general suivant :
6 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
Proposition 1.3.4. Sous les memes hypoth`eses, si f est une fonction
mesurable bornee, alors dans L
2
,
lim
n
n1

k=0
f(B
t
n
k
)[(B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
)] = 0.
Preuve:
E(
_
n1

k=0
f(B
t
n
k
)[(B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
)]
_
2
)
= E(
n1

k=0
n1

r=0
f(B
t
n
k
)f(B
t
n
r
)[(B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
)][(B
t
n
r+1
B
t
n
r
)
2
(t
n
r+1
t
n
r
)])
=
n1

k=0
E(f(B
t
n
k
)
2
[(B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
)]
2
)+
+2

0k<r<n
Ef(B
t
n
k
)f(B
t
n
r
)[(B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
)][(B
t
n
r+1
B
t
n
r
)
2
(t
n
r+1
t
n
r
)])
On utilise lindependance des accroissements (esperance du produit est egal
au produit des esperances) :
=
n1

k=0
E(f(B
t
n
k
)
2
)E[((B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
))
2
)+
+2

0k<r<n
E[f(B
t
n
k
)f(B
t
n
r
)((B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
))]E[(B
t
n
r+1
B
t
n
r
)
2
(t
n
r+1
t
n
r
)]
Or, puisque B
t+h
B
t
a la meme loi que

hB
1
,
E[(B
t
n
r+1
B
t
n
r
)
2
(t
n
r+1
t
n
r
)] = 0
E[((B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
))
2
) = E[((
_
t
n
k+1
t
n
k
)B
1
)
2
(t
n
k+1
t
n
k
))
2
)
= (t
n
k+1
t
n
k
)
2
E[(B
2
1
1)
2
]
Donc
E(
_
n1

k=0
f(B
t
n
k
)[(B
t
n
k+1
B
t
n
k
)
2
(t
n
k+1
t
n
k
)]
_
2
)
=
n1

k=0
(t
n
k+1
t
n
k
)
2
E(f(B
t
n
k
)
2
)E[(B
2
1
1)
2
].
1.3. UN PRIMER SUR LINT

EGRALE DITO 7
Or ceci se majore par, si C = E[(B
2
1
1)
2
] max f
2
,
C
n1

k=0
(t
n
k+1
t
n
k
)
2
C sup
0kn1
[t
n
k+1
t
n
k
[
n1

k=0
(t
n
k+1
t
n
k
)
Ct sup
0kn1
[t
n
k+1
t
n
k
[
qui tend vers 0.
Theor`eme 1.3.5 (Une formule dIto). Si f : R R est `a derivee
seconde continue,
f(B
t
) = f(B
0
) +
_
t
0
f

(B
s
) dB
s
+
1
2
_
t
0
f

(B
s
) ds.
Preuve: On va utiliser la formule de Taylor (Taylor-Lagrange) : pour tout
x, y il existe z entre x et y tels que
f(y) f(x) = f

(x)(y x) +
1
2
f

(z)(y x)
2
.
On prend une suite de subdivisions de [0, t], par exemple t
n
k
=
kt
n
.
f(B
t
) f(B
0
) =
n1

k=0
f(B
t
n
k+1
) f(B
t
n
k
)
=
n1

k=0
f

(B
t
n
k
)(B
t
n
k+1
B
t
n
k
) +
1
2
n1

k=0
f

(
k
n
)(B
t
n
k+1
B
t
n
k
)
2
o` u
k
n
est entre B
t
n
k
et B
t
n
k+1
.
Comme ca ne depend pas de n cest egal `a sa limite quand n +.
Supposons par exemple f

borne et prenons la limite de chacun des deux


termes de la somme dans L
2
. Pour le premier, on remarque dabord que
n1

k=0
f

(B
t
n
k
)(B
t
n
k+1
B
t
n
k
) =
_
t
0
Z
n
s
dB
s
o` u
Z
n
t
=
n1

k=0
f

(B
t
n
k
)1
[t
n
k
,t
n
k+1
]
(t).
Donc, en utilisant la proposition,
E([
n1

k=0
f

(B
t
n
k
)(B
t
n
k+1
B
t
n
k
)
_
t
0
f

(B
s
) dB
s
]
2
)
8 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
= E([
_
t
0
(Z
n
s
f

(B
s
)) dB
s
]
2
)
= E([
_
t
0
(Z
n
s
f

(B
s
))
2
ds])
qui tend vers 0 par le theor`eme de convergence dominee usuel. Donc, dans L
2
,
n1

k=0
f

(B
t
n
k
)(B
t
n
k+1
B
t
n
k
)
_
t
0
f

(B
s
) dB
s
.
On regarde maintenant le dernier terme :
n1

k=0
[f

(
n
k
) f

(B
t
n
k
)](B
t
n
k+1
B
t
n
k
)
2
sup
1rn1
[f

(
n
r
) f

(B
t
n
r
)[
n1

k=0
(B
t
n
k+1
B
t
n
k
)
2
tend vers 0 (au moins p.s. suivant une sous suite) car f

est uniformement
continue sur les compacts. Par la proposition, dans L
2
,
lim
n
n1

k=0
f

(B
t
n
k
)(B
t
n
k+1
B
t
n
k
)
2
= lim
n
n1

k=0
f

(B
t
n
k
)(t
n
k+1
t
n
k
)
=
_
t
0
f

(B
s
) ds
puisque f

est continue (approximation de lintegrale de Riemann).


On laisse en exercice la generalisation suivante tr`es utile, en utilisant la
formule de Taylor pour une fonction de deux variables.
Theor`eme 1.3.6 (Une formule dIto). Si f : R
+
R R, (t, x)
f(t, x) est `a derivees secondes continues,
f(t, B
t
) = f(0, 0) +
_
t
0
f
t
(s, B
s
) ds
_
t
0
f
x
(s, B
s
) dB
s
+
1
2
_
t
0
f

(s, B
s
) ds
1.3.2. Deux calculs.
B
2
t
= 2
_
t
0
B
s
dB
s
+t.
Si Z
t
= exp(B
t


2
t
2
2
) alors
Z
t
= 1 +
_
t
0
Z
s
dB
s
.
CHAPITRE 2
INT

EGRATION DE LEBESGUE
Le but de ce chapitre est de developper rapidement ce que lon appelle la
theorie abstraite de lintegration de Lebesgue.
2.1. Mesures
Un espace mesurable est la donnee (, T) dun ensemble et dune tribu
T sur cet ensemble :
Denition 2.1.1. Une classe de parties T dun ensemble est une tribu
si
(i) elle est stable par complementaire,
(ii) elle est stable par reunion denombrable,
(iii) elle contient .
Pour comparaison une topologie est une classe douverts : cest `a dire, par
denition, une classe de parties de stable par union quelconque, intersection
nie, contenant et
Denition 2.1.2. Une mesure sur un espace mesurable (, T) est une
application m : T R
+
+ telle que
(i) m() = 0.
(ii) m(A B) = m(A) +m(B) si A T, B T sont disjoints.
(iii) si (A
n
) est une suite croissante delements de T, m(A
n
) m(A
n
).
On dit que m est -nie si on peut ecrire comme une reunion denombrable
densembles de mesure nie ; m est une probabilite si m() = 1.
10 CHAPITRE 2. INT

EGRATION DE LEBESGUE
Exemple : Lorsque est denombrable (cest `a dire ni ou en bijection avec
N) , T = ensemble de toutes les parties de est une tribu et m(A) = Card(A)
denit une mesure -nie (theorie des series).
Il est dicile de decrire aussi explicitement des exemples tr`es dierents de
celui ci, comme par exemple la mesure de Lebesgue que nous verrons.
Denition 2.1.3. On dit quune propriete est vraie p.p. (presque partout)
ou p.s. (presque surement) si elle est vraie en dehors dun ensemble de mesure
nulle.
2.2. Integration
Soit (, T, m) un espace mesurable muni dune mesure. Une fonction f :
R est etagee si on peut lecrire sous la forme
f =
n

k=1
r
k
1
A
k
o` u r
k
R, A
k
T, k = 1, ..n. On denit lintegrale de la fonction etagee f
positive par
_
f dm =
n

k=1
r
k
m(A
k
).
(avec la convention ici que 0 = 0). On verie facilement que ca ne
depend pas de la decomposition choisie et que, si f, g sont etagees positives et
a, b R
+
,
_
(af +bg) dm = a
_
f dm+b
_
g dm.
Pour linstant, appelons fonction mesurable reelle une fonction f :

R
telle que pour tout a R, f > a T. (On utilisera les notations f > a =
; f() > a et

R = R + ).
Lemme 2.2.1. Si (f
n
) est une suite de fonctions mesurables, alors
sup
nN
f
n
est mesurable.
Preuve: En eet il sut decrire que
sup
nN
f
n
> a =
nN
f
n
> a.
2.2. INT

EGRATION 11
Si (f
n
) est une suite de fonctions mesurables, pour la meme raison, inf
nN
f
n
et donc
limsup f
n
:= lim
n+
sup
kn
f
k
= inf
nN
sup
kn
f
k
liminf f
n
:= lim
n+
inf
kn
f
k
= sup
nN
inf
kn
f
k
sont mesurables. En particulier une limite de fonctions mesurables est me-
surable (rappelons quune suite f
n
converge dans

R ssi f := limsup f
n
=
liminf f
n
et qualors f est la limite).
Si f : R est mesurable positive on pose
_
f dm = sup
_
g dm
o` u le sup est pris sur lensemble des fonctions etagees g qui verient 0 g f.
Si f est mesurable on dit que f est integrable si f
+
:= max(f, 0) et f

:=
min(f, 0) sont dintegrale nie et on pose alors
_
f dm =
_
f
+
dm
_
f

dm.
On voit que f est integrable ssi [f[ lest puisque [f[ = f
+
+f

et on a
[
_
f dm[
_
[f[ dm
Lemme 2.2.2. Une fonction integrable est nie presque partout.
Preuve: Soit A = [f[ = +. Si r > 0 et g = r1
A
, on a g [f[ donc
rm(A) =
_
g dm
_
[f[dm
ce qui nest possible pour r > 0 que si m(A) = 0.
Si f et g sont mesurables nies, f et f +g sont aussi mesurables car
f > a
c
= f a =
nN
f > a
1
n

et
f +g > a =
rQ
f > r, g > a r.
On en deduit
Proposition 2.2.3. Lensemble des fonctions integrables est un espace
vectoriel.
12 CHAPITRE 2. INT

EGRATION DE LEBESGUE
Theor`eme 2.2.4 (de convergence monotone, ou de Beppo Levi)
Si f
n
est une suite croissante de fonctions mesurables positives,
lim
n+
_
f
n
dm =
_
lim
n+
f
n
dm.
Preuve: La fonction f := limf
n
est mesurable. Puisque f
n
f
n+1
f, il est
facile de voir que
_
f
n
dm
_
f
n+1
dm
_
f dm.
Donc lim
_
f
n
dm
_
f dm. Pour montrer linegalite inverse, prenons une
fonction etagee g telle que 0 g f et un reel c tel que 0 < c < 1. Chaque
ensemble
E
n
= f
n
cg
est mesurable, la suite E
n
est croissante, de reunion . On a
_
f
n
dm
_
f
n
1
E
n
dm
_
cg1
E
n
dm.
Comme g est etagee, on verie que le terme de droite tend vers c
_
g dm. On
a donc
lim
_
f
n
dm c
_
g dm
do` u, par denition,
lim
_
f
n
dm c
_
f dm.
Il sut alors de faire tendre c vers 1.
Corollaire 2.2.5. Si (f
n
)est une suite de fonctions mesurables positives
+

n=0
_
f
n
dm =
_
+

n=0
f
n
dm.
Lemme 2.2.6 (de Fatou). Soit (f
n
) une suite de fonctions mesurables
positives,
_
liminf f
n
dm liminf
_
f
n
dm.
Theor`eme 2.2.7 (de convergence dominee). Soit (f
n
) une suite de
fonctions mesurables veriant [f
n
(x)[ g(x) pour tout x de E, o` u g est une
fonction integrable, alors si f
n
converge
lim
n+
_
f
n
dm =
_
lim
n+
f
n
dm.
2.3. ESPACES L
1
, L
1
, L
2
, L
2
. 13
Preuve: En remplacant f
n
par f
n
limf
k
on se ram`ene au cas o` u f
n
0.
Dans ce cas, par Fatou applique `a g [f
n
[ 0,
_
g dm
_
liminf g[f
n
[ dm liminf
_
g[f
n
[ dm =
_
g dmlimsup
_
[f
n
[ dm
Donc limsup
_
[f
n
[ dm = 0 ce qui assure que lim
_
[f
n
[ dm = 0. Donc
[ lim
_
f
n
dm[ lim
_
[f
n
[ dm = 0.
2.3. Espaces /
1
, L
1
, /
2
, L
2
.
On note /
1
lensemble des fonctions integrables, /
2
lensemble des fonctions
de carre integrable, i.e. des fonctions mesurables f :

R telles que
_
[f[
2
dm < +,
et /

lensemble des fonctions mesurables f pour lesquelles il existe une


constante M 0 telle que [f[ M, p.p. On pose
|f|
1
=
_
[f[ dm
|f|
2
= (
_
f
2
dm)
1/2
.
et |f|

= linf des M tels que [f[ M, p.p. On denit ainsi des semi-normes
cest `a dire que la relation suivante est vraie pour p = 1, 2, :
|f +g|
p
|f|
p
+|g|
p
Ceci est immediat pour p = 1 et resulte pour p = 2 du lemme essentiel suivant :
Lemme 2.3.1 (inegalite de Cauchy Schwartz). Pour f, g mesurables
(
_
fg dm)
2

_
f
2
dm
_
g
2
dm.
Preuve: Pour tout R, le trinome en du second degre

2
[
_
f
2
dm] + 2[
_
fg dm] +
_
g
2
dm =
_
(f +g)
2
dm
est positif, ce qui nest possible que si son discriminant
[
_
fg dm]
2
[
_
f
2
dm][
_
g
2
dm]
est negatif.
14 CHAPITRE 2. INT

EGRATION DE LEBESGUE
On dit quune suite de fonctions mesurables f
n
converge vers f dans /
p
, si
lim
n+
|f
n
f|
p
= 0.
Theor`eme 2.3.2. Si une suite f
n
converge vers f dans /
p
il existe une
sous suite dentiers n
k
telle que, pour presque tout
f
n
k
() f().
Preuve: Ecrivons la preuve pour p = 1. Par hypoth`ese pour = 1/2
k
il existe
n
k
tel que
|f
n
k
f|
1

1
2
k
.
Alors, par Beppo Levi,
_

k=0
[f
n
k
f[ dm =

k=0
_
[f
n
k
f[ dm =

k=0
|f
n
k
f|

k=0
1
2
k
< +
Donc (cf Lemme 2.2.2) la serie

k=0
[f
n
k
f[ converge p.p. ce qui entraine
que son terme general f
n
k
f tend vers 0, p.p.
Denition 2.3.3. La suite (f
n
) est de Cauchy dans /
p
si pour tout > 0
il existe N > 0 tel que pour m, n N
|f
n
f
m
| .
Theor`eme 2.3.4. Soit (f
n
) une suite de Cauchy dans /
p
. Alors il existe
f /
p
tel que f
n
f dans /
p
.
Preuve: Ecrivons la preuve pour p = 1. Puisque la suite (f
n
) est de Cauchy,
pour tout k N, il existe N
k
tel que, pour n, m N
k
,
|f
n
f
m
| 2
k
Si on prend n
k
= max(N
0
, , N
k
) on voit que
|f
n
k+1
f
n
k
| 2
k
Donc, un peu comme dans la preuve precedente,
_

k=1
[f
n
k+1
f
n
k
[ dm =

k=0
|f
n
k+1
f
n
k
|

k=0
1
2
k
< +
2.3. ESPACES L
1
, L
1
, L
2
, L
2
. 15
Donc (cf Lemme 2.2.2)

k=0
[f
n
k
f
n
k+1
[ est ni presque partout, et la serie

k=0
(f
n
k
f
n
k+1
) est donc convergente (car absolument convergente). On a
f
n
p
= f
n
0
+
p1

k=0
(f
n
k+1
f
n
k
)
et on pose
f = f
n
0
+

k=0
(f
n
k+1
f
n
k
).
Pour tout n N
k
, p k, |f
n
f
n
p
| 2
k
donc, en appliquant le lemme de
Fatou,
_
[f
n
f[ dm
_
liminf
p+
[f
n
f
n
p
[ dm 2
k
do` u |f
n
f| tend vers 0.
Par rapport `a la topologie il y a une petite diculte car
Lemme 2.3.5. Si f est mesurable
_
[f[ dm = 0 si et seulement si f = 0
p.p.
Cela resulte immediatement de la tr`es importante inegalite suivante
Lemme 2.3.6 (Inegalite de Markov). Si f est une fonction mesurable
positive et T > 0,
m(f T)
_
f dm
T
.
Donc |f| = 0, nentrane pas que f est nulle (partout). Donc | | nest pas
une norme, mais seulement une semi-norme, et d(f, g) = |f g| pas vraiment
une distance. Ce nest pas genant (et si on veut une norme on remplace /
p
par lensemble L
p
des classes de fonctions egales presque partout).
Un role particulier est joue par /
2
(ou L
2
) car il a une structure geometrique
plus riche que les autres. On peut y denir les angles et surtout lorthogonalite,
`a partir du produit scalaire : pour f, g /
2
f, g =
_
fg dm.
Un espace vectoriel muni dun produit scalaire dans lequel les suites de Cauchy
convergent est appele un espace de Hilbert. Donc /
2
(ou plutot L
2
) est un
espace de Hilbert. Une propriete fondamentale des espaces de Hilbert est le
theor`eme suivant.
16 CHAPITRE 2. INT

EGRATION DE LEBESGUE
Theor`eme 2.3.7 (Theor`eme de projection). Soit V un sous espace
vectoriel ferme dans un espace de Hilbert H. Pour tout x H il existe un
unique element v V appele la projection de x sur V caracterise par
v V
x v, w = 0, pour tous w V .
Corollaire 2.3.8. Soit W un sous espace vectoriel dun Hilbert H. Si le
seul vecteur orthogonal `a W est 0, alors W est dense dans H
Preuve: Appliquer le theor`eme `a ladherence de W.
2.4. Uniforme integrabilite
Limitons nous au cas des probabilites et utilisons les notations probabilistes :
on note P une probabilite sur (, T). Une variable aleatoire reelle X : R
est la meme chose quune fonction mesurable et on pose
E(X) =
_
X dP.
Denition 2.4.1. Une famille / de v.a. est uniformement integrable si
sup
XL
_
{|X|>R}
[X[ dP 0, quand R +.
Theor`eme 2.4.2. Soit X
n
, n N une suite uniformement integrable
de v.a. qui converge p.s. vers X. Alors X
n
X dans /
1
et en particulier,
E(X
n
) E(X).
Preuve: On verie que la suite Y
n
= [X
n
X[ est aussi uniformement
integrable. Ensuite
E(Y
n
) = E(Y
n
1
{Y
n
<R}
) +E(Y
n
1
{Y
n
R}
)
Pour tout > 0, pour R assez grand, le second terme est inferieur `a /2 par
unif. int. Un tel R etant choisi, le premier terme est inferieur `a /2 pour n
assez grand, par convergence dominee.
Lemme 2.4.3. Une suite de v.a. X
n
telle que sup
n
E(X
2
n
) < + est
uniformement integrable.
Preuve: On utilise que 1
{|X
n
|>R}

|X
n
|
R
donc
E[[X
n
[1
{|X
n
|>R}
]
E[X
2
n
]
R
.
2.6. TRIBU ENGENDR

EE 17
2.5. Divers
Lemme 2.5.1 (de Borel Cantelli). Soit (A
n
) une suite de sous en-
sembles mesurables de telle que

n=0
m(A
n
) < +. Alors
+

k=0
1
A
n
< + p.s.
Autrement dit, presque tout nappartient qu`a un nombre ni de A
n
.
Preuve: Par convergence monotone,
_
+

k=0
1
A
n
dm =
+

k=0
m(A
n
) < +
donc

+
k=0
1
A
n
< + p.p. .
Denition 2.5.2. Une suite de v.a. X
n
tend vers X en probabilite si pour
tout > 0,
P([X
n
X] ) 0
quand n +.
Proposition 2.5.3. Si X
n
X en probabilite il existe une sous suite n
k
telle que X
n
k
X presque surement.
Une facon de le montrer est de remarquer que X
n
0 en probabilite si et
seulement si min([X
n
[, 1) 0 dans L
1
.
2.6. Tribu engendree
Denition 2.6.1. Soit ( un ensemble de parties de . On appelle tribu
engendree par ( et on note (() la plus petite tribu contenant (.
Denition 2.6.2. Soit E un espace muni dune topologie, on appelle tribu
borelienne de E et on note B(E) la tribu engendree par les ouverts.
Denition 2.6.3. Soit (E, c) et (F, B) deux espaces mesurables, on dit
quune fonction f : E F est mesurable si pour tout B B, f
1
(B) c.
Lorsque E ou F est un espace topologique, si on ne le precise pas, on le
munit de la tribu borelienne. On retrouve donc la notion introduite avant. Un
sup, un inf, une limite dune suite de fonctions mesurables `a valeurs reelles
sont mesurables. Les fonctions continues sont mesurables.
18 CHAPITRE 2. INT

EGRATION DE LEBESGUE
Lemme 2.6.4. Toute fonction mesurable de E dans

R
+
est la limite crois-
sante dune suite de fonctions etagees.
En eet,
f = lim
n+
n1
{nf}
+
n2
n
1

k=0
k
2
n
1
{
k
2
n
f<
k+1
2
n
}
(lorsque f est nie on peut se passer du premier terme).
Pour shabituer aux notations, utilisons le vocabulaire des probabilites.
Donnons nous une famille (E
i
, c
i
), i I, despaces mesurables.
Denition 2.6.5. Soit X
i
: E
i
, i I, des v.a.. On appelle tribu
engendree par cette famille et on note (X
i
, i I) la tribu engendree par
X
i
A
i
, A
i
c
i
et i I.
Intuitivement, la tribu X
i
, i I est formee des ensembles que lon peut
decrire `a laide des X
i
. Pour une seule application X : R
d
, (X) est
exactement la classe des ensembles X A, o` u A est un borelien de R
d
.
Donnons nous pour toute la suite un espace de probabilite (, T, P). Une
variable aleatoire est la meme chose quune application mesurable mais la
plupart du temps `a valeurs dans E = R ou R
d
. Le lemme suivant est tr`es
utile.
Lemme 2.6.6. Soit X une application de dans un espace mesurable
(E, c) et (X). Une application Y : R est (X)-mesurable si et seulement
si il existe une application mesurable : E R telle que Y = (X).
Preuve: Supposons dabord que Y est etagee et (X)-mesurable. On peut par
denition lecrire sous la forme Y =

k
n=1

n
1
A
n
, o` u A
n
(X). Il existe donc
pour tout n, un borelien B
n
tel que A
n
= X B
n
. Posons =

k
n=1

n
1
B
n
.
On verie qualors Y = (X). Ceci montre la partie directe du lemme lorsque
Y est etagee. Dans le cas general, si Y est (X)-mesurable, il existe une suite
de v.a. etagees Y
n
telle que Y = limY
n
. Par ce qui prec`ede, on peut ecrire
Y
n
=
n
(X) et il sut alors de poser = limsup
n
. La reciproque est facile.
Une fa con agreable dexprimer le lemme precedant est de dire quune va-
riable aleatoire Y est (X
1
, X
2
, , X
n
)-mesurable si et seulement si elle
secrit
Y = (X
1
, X
2
, , X
n
)
pour une application borelienne .
2.6. TRIBU ENGENDR

EE 19
Le maniement des tribus engendrees est souvent delicat. Un outil sophis-
tique :
Theor`eme 2.6.7 (de la classe monotone). Soient ( et / des en-
sembles de parties de tels que ( /. On suppose que
(i) ( est stable par intersection nie (i.e. A, B ( implique A B ().
(ii) / est stable par dierence propre (i.e. A, B / et A B implique
B A /).
(iii) / est stable par limite croissante (i.e. A
n
/ et A
n
A
n+1
implique
A
n
/).
(iv) est dans /.
Alors (() est contenu dans /.
Preuve: Montrons que lintersection A de toutes les classes / veriant
(ii), (iii), (iv) est une tribu donc contient ((). Stable par intersection nie :
Fixons un A de (, la classe
B A; A B A
contient ( par (i) et verie (ii, iii, iv), elle contient donc A. Maintenant, xons
un B dans A, la classe
C A; C B A
contient ( par ce que lon vient de montrer et verie (ii, iii, iv), elle contient
donc A.
Le resultat fondamental de la theorie de lintegration est le suivant :
Theor`eme 2.6.8. Il existe une et une seule mesure m sur R, appelee
mesure de Lebesgue, veriant
m(]s, t]) = t s
Plus generalement, pour toute fonction croissante continue `a droite A il existe
une mesure et une seule m
A
veriant
m
A
(]s, t]) = A(t) A(s)
pour tout s < t.
La preuve de lexistence est dicile, nous ladmettons. Par contre lunicite
est consequence du theor`eme de la classe monotone (applique `a la classe des
intervalles de la forme [a, b], a, b R, qui engendre la tribu borelienne et est
stable par intersection nie.)
20 CHAPITRE 2. INT

EGRATION DE LEBESGUE
Il est facile de voir, en utilisant le theor`eme de convergence dominee que
pour toute fonction continue `a support compact sur R,
_
f dm nest autre que
lintegrale de Riemann de f. Nous utiliserons donc aussi la notation
_
f(x) dx.
2.7. Lois
On se donne un espace de probabilite (, T, P) et un ensemble E, muni
dune tribu c.
Denition 2.7.1. Soit X : E une variable aleatoire (= application
mesurable). On appelle loi de X et on note parfois P
(X)
la probabilite sur
(E, c) denie par P
(X)
(A) = P(X A), pour tout A de c.
La r`egle de calcul suivante est dun emploi constant : il faut absolument
savoir la manier. La premi`ere egalite est la denition de lesperance.
Proposition 2.7.2. Soit X une variable aleatoire ` a valeurs dans E. Pour
toute fonction mesurable f : E R, `a valeurs positives ou telle que f(X) soit
integrable, on a
E(f(X)) =
_

f(X) dP =
_
E
f dP
(X)
.
Denition 2.7.3. Etant donne deux mesures et sur (, T), et une
fonction mesurable positive : R, on dit que a la densite par
rapport `a et on ecrit
d = d
si pour tout A T
(A) =
_
A
(x) d(x).
Alors, pour toute fonction mesurable positive f
_
f d =
_
fd.
Souvent lorsquon dit quune v.a. reelle a la densite , on sous entend que sa
loi a la densite par rapport `a la mesure de Lebesgue.
Proposition 2.7.4. Si une v.a. X a une loi de densite , alors
E(f(X)) =
_
f(x)(x) dm(x)
pour toute fonction mesurable positive f.
2.8. MESURE PRODUIT 21
2.8. Mesure produit
Soient (E
1
, c
1
, m
1
) et (E
2
, c
2
, m
2
) deux espaces mesures -nis. On munit
E
1
E
2
de la tribu c
1
c
2
sur E
1
E
2
, appelee tribu produit, engendree par
les ensembles de la classe
( = AB, A c
1
, B c
2

Cette classe est stable par intersection nie. On pose, pour tout C c
1
c
2
,
(m
1
m
2
)(C) =
_

_
1
C
(x, y) dm
1
(x) dm
2
(y)
(`a laide du thm de classe monotone, on verie que y
_
1
C
(x, y) dm
1
(x) est
bien mesurable). On denit ainsi une mesure sur m
1
m
2
sur E
1
E
2
. De la
meme facon, la formule
(C) =
_

_
1
C
(x, y) dm
2
(y) dm
1
(x)
denit aussi une mesure. Pour tout C = AB de (,
(m
1
m
2
)(C) = m
1
(A)m
2
(B) = (C)
On deduit donc du theor`eme de classe monotone que les deux mesures m
1
m
2
et coincident. Il en resulte assez facilement :
Theor`eme 2.8.1 (de Fubini). Soit f : E
1
E
2
R une fonction me-
surable. Alors, pour tout x E
1
, la fonction
y E
2

_
f(x, y) dm
1
(x)
est mesurable et
_

_
f(x, y) dm
1
(x)dm
2
(y) =
_

_
f(x, y) dm
2
(y)dm
1
(x)
sous lune des deux hypoth`eses suivantes (i) f est `a valeurs positives (ii) f est
integrable
Lorsque f nest pas positive, on applique souvent ce thm `a [f[ pour montrer
que f est integrable.
Lexemple fondamental est celui de la mesure de Lebesgue sur R
d
= R
R R, egale au produit, d fois, de la mesure de Lebesgue sur R. Pour la
manier on utilise parfois le
22 CHAPITRE 2. INT

EGRATION DE LEBESGUE
Theor`eme 2.8.2 (de changement de variables). Si est un
dieomorphisme de louvert U sur louvert V , on a, pour toute f B
+
(R
d
),
(1)
_
V
f(v) dm(v) =
_
U
f((u))[J()(u)[ dm(u).
o` u J() est le determinant de la matrice des

j
u
k
et m est le mesure de
Lebesgue.
2.9. Processus
On appelle processus `a temps continu une famille de variables aleatoires
indexee par R
+
et processus `a temps discret une famille de variables aleatoires
indexee par N, donc une suite de v.a..
Considerons un processus X
t
, t R
+
, `a valeurs dans un espace E muni dune
tribu c. La loi de ce processus, vu comme une v.a. `a valeurs dans lensemble
produit E
R
+
, muni de la tribu produit, est completement determinee par les
lois nies dimensionnelles de
(X
t
1
, , X
t
n
), t
1
< < t
n
, n N.
Soit (, T, P) un espace de probabilite. On represente ce que lon connait
`a linstant t par une tribu T
t
. Ceci am`ene `a poser
Denition 2.9.1. Une famille croissante (T
t
, t R
+
) de sous-tribus de
T, cest `a dire veriant T
s
T
t
T, sappelle une ltration et le terme
(, T, T
t
, P) un espace de probabilite ltre.
Un processus X
t
est dit adapte `a cette ltration si X
t
est T
t
-mesurable,
pour tout t 0.
Lexemple fondamental de ltration est donne par T
t
= (X
s
, s t) o` u
(X
t
) est un processus quelconque. Si X
t
est un processus adapte sans regularite
particuli`ere, on ne sait rien de sa dependance en t. Elle nest peut etre meme
pas borelienne. Ceci am`ene `a poser :
Denition 2.9.2. Un processus progressif X
t
, t R
+
, est un processus
tel que pour tout T 0, lapplication
(t, ) [0, T] X
t
()
est mesurable de B([0, T]) T
T
dans B(R), o` u B([0, T]) et B(R) sont les tribus
boreliennes.
2.10. IND

EPENDANCE 23
En pratique tous les processus adaptes que nous rencontrerons seront pro-
gressifs. Cest par exemple le cas des processus continus (ou continus `a droite,
`a gauche, etc...).
2.10. Independance
La notion la plus importante en probabilite est sans conteste la notion
dindependance. Elle recouvre `a la fois une notion intuitive (le resultat du
loto est independant de la temperature, etc ...) et une notion mathematique.
Il est necessaire de bien posseder ces deux aspects et de comprendre quils
signient la meme chose. Un bon utilisateur des probabilites est quelquun qui
sait exploiter lindependance, ou la non independance, dans les evenements
de la vie courante. Meme si le plus souvent on ne sinteresse qu`a lindepend-
ance devenements ou de variables aleatoires, il sav`ere plus ecace de denir
lindependance de tribus. Un espace de probabilite (, /, P) est toujours xe.
Denition 2.10.1. On dit que des tribus /
1
, , /
n
contenues dans /
sont independantes si, pour tout A
1
/
1
, , A
n
/
n
,
P(A
1
A
2
A
n
) = P(A
1
)P(A
2
) P(A
n
).
Des variables aleatoires X
1
, , X
n
sont dites independantes si les tribus
engendrees (X
1
), , (X
n
) le sont. On dit quune famille innie de sous
tribus (ou de variables aleatoires) est formee de tribus independantes lorsque
toute sous famille nie a cette propriete. Donnons quelques resultats utiles au
maniement de lindependance. Le premier est tr`es important et son enonce
est `a bien comprendre, malgre son aspect complique. Nous en donnons deux
formes.
Proposition 2.10.2 (Lemme de regroupement). (Forme 1). Soit I
un ensemble dindices, et /
i
, i I, des sous tribus independantes de /.
Alors, si I
1
, I
2
, , I
n
sont des parties disjointes de I, les tribus (/
i
, i
I
1
), (/
i
, i I
2
), , (/
i
, i I
n
) sont independantes.
(Forme 2). Soit X
1
, X
2
, , X
n
, des variables aleatoires indep-
endantes. Alors si 0 < n
1
< n
2
< n
3
< les variables aleatoires

1
(X
1
, , X
n
1
),
2
(X
n
1
+1
, , X
n
2
), sont independantes, pour toute
application
1
: R
n
1
R,
2
: R
n
2
n
1
R, , mesurable.
24 CHAPITRE 2. INT

EGRATION DE LEBESGUE
Donnons un exemple simple mais typique dutilisation : si X, Y, U, V sont
quatre variables aleatoires reelles independantes, alors X +Y et UV sont ind-
ependantes.
Theor`eme 2.10.3. Deux variables aleatoires X, Y sont independantes si
et seulement si P
(X,Y )
= P
(X)
P
(Y )
.
Corollaire 2.10.4. Si les variables aleatoires X, Y sont independantes,
alors pour toute fonction mesurable positive (ou telle que (X, Y ) soit
integrable) on a
E[(X, Y )] =
_ _
(x, y) dP
(X)
(x)dP
(Y )
(y).
On peut aussi ecrire cette relation sous les formes
E[(X, Y )] =
_

(X(), Y (

)) dP()dP(

),
ou encore
E[(X, Y )] =
_

E[(X, Y (

))] dP(

),
qui nous seront utiles.
CHAPITRE 3
MOUVEMENT BROWNIEN
3.1. Loi gaussienne
La loi gaussienne N(m,
2
) sur R est la masse de Dirac en m lorsque = 0
et la loi de densite
1

2
2
e

(xm)
2
2
2
sinon. Il ny a pas de primitive explicite mais une excellente approximation par
une fraction rationnelle
(1)
. Si X suit la N(m,
2
), alors E(X) = m, var(X) =

2
. Lorsque = 0, X = m p.s. La fonction caracteristique est E(e
itX
) =
exp

2
t
2
2
+itm.
Proposition 3.1.1. Toute limite de v.a. gaussiennes, en loi, en probabi-
lite, ou p.s., ou dans L
1
, ou dans L
2
est gaussienne. De plus lesperance et la
variance convergent vers lesperance et la variance de la limite.
Preuve: Toutes les convergences considerees entranent la convergence en
loi. Supposons donc que X
n
converge en loi vers X et que X
n
suit une loi
N(m
n
,
2
n
). Alors E(e
itX
n
) = exp

2
n
t
2
2
+itm
n
et E(e
itX
n
) g(t) := E(e
itX
).
En prenant le module on voit que exp

2
n
t
2
2
[g(t)[ donc que
2
n
converge
vers
2
= (2 log [g(t)[)/t
2
. On en deduit que e
itm
n
converge vers h(t) =
exp

2
t
2
2
g(t). Alors, si f est C
1
`a support compact, tel que
_
f(t)h(t)dt ,= 0,
par integration par parties,
_
f

(t)e
itm
n
dt = im
n
_
f(t)e
itm
n
dt
1. cf. Appendice
26 CHAPITRE 3. MOUVEMENT BROWNIEN
donc, en pasant `a la limite m
n
converge vers m := i(
_
f

(t)h(t)dt)/(
_
f(t)h(t)dt).
On voit donc que
E(e
itX
n
) exp

2
t
2
2
+itm
et la limite est donc gaussienne.
3.2. Vecteur gaussien
On identie un vecteur `a une matrice colonne. Lesperance dun vecteur
aleatoire X = (X
1
, , X
d
)
t
est le vecteur E(X) = (E(X
1
), , E(X
d
))
t
et sa
matrice de covariance est,
K
X
= E[(X E(X))(X E(X))
t
] = E(XX
t
) E(X)[E(X)]
t
.
ses composantes sont K
X
(i, j) = Cov(X
i
, X
j
). Si les composantes X
1
, . . . , X
d
sont independantes, K(X) est diagonale. Il est clair que
Lemme 3.2.1. Si M est une matrice deterministe r d, on a K
MX
=
MK
X
M
t
.
Pour R
d
, notons
, X =
d

i=1

i
X
i
le produit scalaire. En appliquant le lemme `a M =
t
on voit que

t
K
X
= var, X 0.
En particulier, K
X
est une matrice symetrique semi-denie positive, donc
diagonalisable de valeurs propres positive ou nulles.
Denition 3.2.2. Un vecteur aleatoire X = (X
1
, . . . , X
d
)
t
est dit gaus-
sien si toute combinaison lineaire des composantes suit une loi normale.
Proposition 3.2.3. Un vecteur X est gaussien si et seulement, il existe
un vecteur m R
d
et une matrice de covariance K telle que pour tout R
d
E(exp(i, X) = exp(i, m

t
K
2
).
Alors m = E(X) et K = K
X
.
3.4. D

EFINITION DU MOUVEMENT BROWNIEN 27


Un exemple typique de vecteur gaussien est donne par un vecteur de com-
posantes normales independantes. Par contre, en general, un vecteur `a com-
posantes gaussiennes nest pas necessairement gaussien. En appliquant la pro-
position precedente pour calculer la fonction caracteristique, on obtient le
theor`eme fondamental suivant :
Theor`eme 3.2.4. Soit (X
1
, . . . , X
p
, Y
1
, , Y
q
)
t
un vecteur gaussien de
R
p+q
. Alors les vecteurs (X
1
, . . . , X
p
) et (Y
1
, , Y
q
) sont independants ssi
cov(X
i
, Y
j
) = 0
lorsque 1 i p, 1 j q.
3.3. Famille gaussienne
Une famille, ou un processus, X
i
, i I de variables aleatoires est dite
gaussienne si toute combinaison lineaire nie de ces v.a. suit une loi normale.
La loi globale de cette famille (cest `a dire par denition, la loi de toute sous
famille nie) est determinee par les esperances E(X
i
), i I, et les covariances
Cov (X
i
, X
j
), i, j I. Comme pour le thm. on a
Theor`eme 3.3.1. Soit X
i
, i I une famille gaussienne et I
1
, I
2
, , I
n
des parties disjointes de I. Alors les familles
X
i
, i I
1
, X
i
, i I
2
, , X
i
, i I
n

sont independantes ssi


cov(X
i
, X
j
) = 0
chaque fois que iet j sont dans des ensembles I
1
, , I
n
dierents.
Preuve: Il sut de voir que X
i
, i I
1
I
2
I
n1
est independant de
X
i
, i I
n
...
3.4. Denition du mouvement brownien
Denition 3.4.1. On appelle mouvement brownien un processus gaussien
B
t
, t R
+
, `a trajectoires continues tel que B
0
= 0 et B
t+s
B
t
est independant
de (B
u
, u t) de loi N(0, s), pour tout t, s 0.
On peut demontrer que sans lhypoth`ese de continuite les trajectoires sont
continues p.s.
28 CHAPITRE 3. MOUVEMENT BROWNIEN
Proposition 3.4.2. Un processus gaussien B
t
, t R
+
`a trajectoires
continues est un mouvement brownien si et seulement si
E(B
t
) = 0, E(B
t
B
s
) = min(s, t), pour tout t, s 0.
Preuve: Supposons dabord que B
t
, t R
+
, est un mouvement brownien.
Alors B
t
est centre donc E(B
t
) = 0. De plus, si 0 s t, on sait que B
t
B
s
est independant de (B
r
, r s), donc en particulier de B
s
. Il en resulte que
E(B
t
B
s
) = E((B
t
B
s
+B
s
)B
s
) = E(B
t
B
s
)E(B
s
) +E(B
2
s
) = s.
Reciproquement, supposons les relations vraies et montrons qualors B
t
, t
R
+
, est un mouvement brownien. Il faut montrer dabord que si 0 s t,
B
t
B
s
est independant de (B
r
, r s). Puisque la famille des B
t
, t 0, est
gaussienne, il sut de verier que Cov(B
t
B
s
, B
r
) = 0, si r s t. Or
Cov(B
t
B
s
, B
r
) = E(B
t
B
r
) E(B
s
B
r
) = min(t, r) min(s, r) = 0.
Ensuite, il faut voir que, si 0 s t, loi de B
t
B
s
ne depend que de t s :
cette loi est gaussienne centree et sa variance est
E((B
t
B
s
)
2
) = E(B
2
t
) +E(B
2
s
) 2E(B
t
B
s
) = t +s 2s = t s.
Enn, B
t
est bien centre de variance t.
Corollaire 3.4.3. Soit B
t
, t R
+
un mouvement brownien. Alors
1. pour tout a > 0, B
t+a
B
a
, t R
+
,
2. (Scaling) pour tout R, B

2
t
, t R
+
,
3. tB
1/t
, t R
+
sur lensemble de probabilite 1 o` u lim
t0
tB
1/t
= 0,
sont des mouvements browniens.
Preuve: Les trois assertions se montrent de la meme fa con. Traitons par
exemple la seconde. Posons X
t
= B

2
t
. Tout dabord, toute combinaison
lineaire des v.a. X
t
est une combinaison lineaire de certains B
s
donc est
gaussienne. Ceci montre que le processus X
t
, t 0 est gaussien. Il est continu
comme B
t
. Il est clair que E(X
t
) = 0, et
E(X
t
X
s
) =
2
E(B

2
t
B

2
s
) =
2
min(
t

2
,
s

2
) = min(s, t).
Par la proposition precedente, X
t
, t 0 est un brownien. Dans le troisi`eme
cas, il faut aussi verier la continuite p.s. en 0. Puisque tB
1/t
, t > 0 a la meme
loi que B
t
, t > 0, X
n
= sup
0<s<1/n
[sB
1/s
[ et Y
n
= sup
0<s<1/n
[B
s
[ ont la
meme loi. Donc P(X
n
0) = P(Y
n
0) = 1 puisque B est continu en 0, ce
qui montre la continuite p.s.
3.5. FILTRATIONS ET BROWNIEN 29
3.5. Filtrations et Brownien
Considerons un espace de probabilite ltre (, (T
t
), T, P).En general, on
note T

= (T
t
, t 0). On pose
(2) T
t
+ =
>0
T
t+
.
On dit que la ltration T
t
est continue `a droite si T
t
+ = T
t
. La ltration T
t
+
est elle meme continue `a droite.
Denition 3.5.1. Un processus B adapte `a (, T
t
, P) est un (T
t
)mouve-
ment brownien si B est un mouvement brownien et pour tout s 0, la famille
B
t
B
s
, t s est independante de T
s
.
Theor`eme 3.5.2. Un (T
t
)mouvement brownien est aussi un (T
t
+)mou-
vement brownien.
Preuve: Pour tout s < t < t
1
< < t
d
le vecteur
(B
t
1
B
t
, , B
t
d
B
t
)
est independant de T
t
donc de T
s
+, qui est contenu dans T
t
. Par continuite
(B
t
1
B
s
, , B
t
d
B
s
)
est aussi independant de T
s
+.
Corollaire 3.5.3 (Loi 01 de Blumenthal). Soit B un mouvement
brownien et T
t
= (B
s
, 0 s t). Pour tout A T
0
+, P(A) = 0 ou 1.
Preuve: T
0
+ est independant de B
t
pour tout t > 0 donc de T
t
, donc de T
0
+.
3.5.1. Quelques proprietes trajectorielles du brownien. Le resultat
technique suivant va nous permettre de decrire quelques proprietes non tri-
viales du mouvement brownien.
Lemme 3.5.4. Si B
t
, t R
+
est un mouvement brownien,
limsup
t0
+
B
t

t
= +, liminf
t0
+
B
t

t
= , p.s.
Preuve: La variable aleatoire R = limsup
t0
+ B
t
/

t est T
0
+mesurable,
o` u T
t
= (B
s
, 0 s t), donc constante p.s.. Plus precisement, soit R =
+, soit il existe une constante telle que R , p.s. Ce dernier cas est
impossible car il entraine que P(
B
t

t
+ 1) 0 quand t + alors que
30 CHAPITRE 3. MOUVEMENT BROWNIEN
P(
B
t

t
+ 1) = P(B
1
+1) ,= 0. Le cas de la liminf sobtient en appliquant
la limsup `a (B
t
) qui est aussi un brownien.
Proposition 3.5.5. Pour presque tout , la trajectoire t B
t
(),
(i) nest nulle part derivable ;
(ii) passe une innite de fois par chaque point de R.
Preuve: Le lemme assure que B nest pas derivable en 0, p.s., donc en
tout point t xe, sur un ensemble de probabilite 1, qui peut dependre de
t. Nous admettons quon peut choisir cet ensemble independant de t. Posons
W
t
= tB
1/t
. Comme W
t
, t 0, est un mouvement brownien, on peut lui
appliquer le lemme : presque s urement,
limsup
t0
W
t

t
= +.
Donc, en posant s = t
1
,
limsup
s+
1

s
B
s
= limsup
s

sW
1/s
= +,
donc sup B
t
= +. De meme inf B
t
= ; les trajectoires etant continues
elles doivent passer par tous les points, une innite de fois, p.s.
La preuve precedente montre aussi que la trajectoire oscille enormement au
moment o` u elle part de 0, puisquelle arrive `a traverser une innite de fois
laxe x = 0 avant chaque instant xe.
3.6. Propriete de Markov forte du mouvement brownien
3.6.1. Temps darret. Soit (, T
t
, P) un espace de probabilite ltre et
T

= (T
t
, t 0).
Denition 3.6.1. Une application de dans

R
+
est un temps darret
si, pour tout t 0, t T
t
. La tribu
T

:= A T

, pour tout t 0, A t T
t

sappelle la tribu des evenements anterieurs `a .


Proposition 3.6.2. (i) Soient et des temps darret. Alors et
sont des temps darret et T

= T

. De plus et =
appartiennent `a T

.
(ii) Soient
n
des temps darret. Alors sup
n

n
est un temps darret.
3.6. PROPRI

ET

E DE MARKOV FORTE DU MOUVEMENT BROWNIEN 31


(iii) Supposons (T
t
) continue ` a droite. Alors est un temps darret des que
< t T
t
et un inf dune suite de temps darret est un temps darret.
Preuve: (i) Soit A T

, alors A t = (A t)
(A t) T
t
et A T

. Si A T

, A t = A
t t est dans T
t
. Donc A T

de meme A T

. Pour montrer
que T

, il sut de montrer que T

. Mais
lon a t = t t t t T
t
et
t = t t t T
t
. On proc`ede de meme
pour = .
(ii) On a sup
n

n
t =
n

n
t T
t
.
(iii) Si < t T
t
, pour tout t 0, t =
>0
< t + T
t
+ = T
t
.
Si
n
est une suite de temps darret et = inf
n
, < t =
n

n
< t T
t
,
donc est un temps darret.
Soit (X
t
) un processus adapte `a (, T
t
) `a valeurs dans un espace metrique
(E, d), par exemple R
k
avec la norme usuelle. La distance d denit une topo-
logie et on munit E de la tribu borelienne. On associe `a un sous ensemble A
de E,
(3)
A
() = inf(t 0, X
t
() A),

A
est appele le temps dentree dans A.
Proposition 3.6.3. Si A est ferme et X `a trajectoires continues,
A
est
un temps darret.
Preuve: Posons d(x, A) = inf
aA
d(x, a). Cette fonction est continue car, pour
tout x, y E et a A
d(x, a) d(x, y) +d(y, a)
donc d(x, A) d(x, y) +d(y, A) ce qui assure que [d(x, A) d(y, A)[ d(x, y).
On utilise alors que

A
t =
n

s<t,sQ
+ d(X
s
, A)
1
n
T
t
.
Proposition 3.6.4. Si A est ouvert et X `a trajectoires continues `a droite,

A
est un temps darret de T
t
+.
Preuve: En eet

A
< t =
s<t,sQ
+X
s
A
32 CHAPITRE 3. MOUVEMENT BROWNIEN
Lemme 3.6.5. Si X est un processus continu `a droite adapte `a (T
t
),
lapplication (s, ) X
s
() est mesurable de ([0, t] , B([0, t]) T
t
) dans
E.
Preuve: Pour tout n, posons X
(n)
s
=

n1
k=0
Xk+1
n
t
1
{
k
n
ts<
k+1
n
t}
. Alors
(s, ) X
(n)
s
() est mesurable de ([0, t] , B([0, t]) T
t
) dans E. Il en
est donc de meme de la limite X de X
(n)
quand n +.
Proposition 3.6.6. Si X est un processus adapte continu `a droite et un
temps darret, X

1
<
est T

-mesurable.
Preuve: Soit un borelien de E. Il sagit de montrer que pour tout t 0,
X

t T
t
. Soit
t
= t. Lapplication ((), )
est mesurable de (
t
, T
t
) dans ([0, t] , B([0, t]) T
t
), lapplication (s, )
X
s
() est mesurable de (([0, t] , B([0, t]) T
t
) dans E par le lemme. Donc
lapplication composee X
()
() de (
t
, T
t
) dans E est mesurable i.e.
t, X

T
t
.
3.6.2. La propriete de Markov forte du brownien.
Lemme 3.6.7. Soit un temps darret. Il existe une suite decroissante

n
, n N de temps darret convergeant vers telle que
n
est `a valeurs dans
k/2
n
, k N +.
Preuve: On peut prendre
n
=
[2
n
]+1
2
n
.
Theor`eme 3.6.8. Soit B
t
, t 0 un (T
t
)mouvement brownien. Alors,
pour tout temps darret , conditionnellement `a < +, le processus
B
t+
B

, t R
+
est un brownien, independant de T

.
Preuve: Il faut montrer que pour toute v.a. Z, T

-mesurable bornee et
F : R
d
R, continue bornee,
E(Z1
{<+}
F(B
t
1
+
B

, B
t
2
+
B

, , B
t
d
+
B

)) =
= E(Z1
{<+}
)E(F(B
t
1
, , B
t
d
))
On consid`ere dabord le cas o` u prend toutes ses valeurs dans lensemble
denombrable s
k
= k2
n
, k N. Alors, puisque < + est la reunion
3.6. PROPRI

ET

E DE MARKOV FORTE DU MOUVEMENT BROWNIEN 33


denombrable des ensembles disjoints = s
k
, on peut ecrire :
E(Z1
{<+}
F(B
t
1
+
B

, , B
t
d
+
B

)) =
=
+

k=0
E(ZF(B
t
1
+
B

, , B
t
d
+
B

)1
{=s
k
}
)
=
+

k=0
E(Z1
{=s
k
}
F(B
t
1
+s
k
B
s
k
, , B
t
d
+s
k
B
s
k
))
=
+

k=0
E(Z1
{=s
k
}
)E(F(B
t
1
, , B
t
d
))
= E(Z1
{<+}
)E(F(B
t
1
, , B
t
d
))
o` u lon a utilise que Z1
{=s
k
}
est T
s
k
mesurable et que B est un T
t
brownien.
Dans le cas general, on approche par une suite decroissante
n
de temps
darret `a valeurs denombrables, donnee par le lemme. Puisque T

est contenu
dans T

n
on a encore
E(Z1
{<+}
F(B
t
1
+
n
B

n
, , B
t
d
+
n
B

n
)) = E(Z1
{<+}
)E(F(B
t
1
, , B
t
d
))
et on fait tendre n vers linni pour conclure, en utilisant la continuite des
trajectoires.
Proposition 3.6.9 (Principe de reexion). Soit B
t
, t 0 un mou-
vement brownien. Pour a > 0, on pose T
a
= inft 0; B
t
= a. Alors
P(T
a
t) = 2P(B
t
a).
La densite de T
a
est f(s) = a(2s
3
)
1/2
e
a
2
/2s
1
R
+(s). En particulier E(T
a
) =
.
Preuve: En utilisant la propriete de Markov forte du brownien, on sait que
W
t
= B
t+T
a
B
T
a
est un brownien independant de T
T
a
donc en particulier de
T
a
. On peut donc ecrire, puisque B
T
a
= a que
P(B
t
a) = P(T
a
t, B
t
a)
= P(T
a
t, (B
t
B
T
a
) +B
T
a
a)
= P(T
a
t, W
tT
a
0)
=
_
1
{st}
P(W
ts
0)dP
T
a
(s)
=
1
2
P(T
a
t).
34 CHAPITRE 3. MOUVEMENT BROWNIEN
On en deduit, avec le changement de variable x = a
_
t/s,
P(T
a
t) =
_
2/t
_

a
e
x
2
/2t
dx = a
_
t
0
(2s
3
)
1/2
e
a
2
/2s
ds.
Donc la densite de T
a
est f(s) = a(2s
3
)
1/2
e
a
2
/2s
, ce qui permet de calculer
lesperance.
On voit donc que, bien que le brownien passe une innite de fois par tout
les points, il met un temps desperance innie pour atteindre un point donne.
La propriete suivante est assez etonnante !
Corollaire 3.6.10. La loi de sup
0st
B
s
est la meme que celle de [B
t
[.
Preuve: P(sup
0st
B
s
a) = P(T
a
t) = 2P(B
t
a) = P([B
t
[ a).
3.7. Existence et Simulation du Mouvement brownien
Lordinateur simule une suite U
n
de v.a. i.i.d. uniformes sur [0, 1]. (Par
simulation on veut dire quil tente de fabriquer ... ) On commence par simuler
des v.a. independantes X
1
, X
2
, de loi gaussienne N(0, 1). Une facon de faire
est de poser
X
n
=
_
2 log U
2n
sin(2U
2n+1
).
Un intervalle de temps [0, T] etant donne, on choisit ensuite un pas de
discretisation h =
T
n
, o` u n N. On simule la trajectoire brownienne aux
instants kT/n, k = 0, 1, , n 1 en posant B
0
= 0 puis par recurrence,
B
(k+1)T/n
= B
kT/n
+
_
T
n
X
k+1
.
Il y a une autre methode de simulation, qui permet de faire eventuellement
un eet de loupe sur un morceau de trajectoire choisi. Expliquons le principe
de cette construction en simulant le mouvement brownien sur [0, 1] par rane-
ments successifs : A letape n on construit le brownien au points
k
2
n
, 0 k 2
n
.
A letape 0 on pose B
0
= 0 et on choisit pour B
1
une v.a. de loi N(0, 1). Une
fois letape n achevee, on proc`ede ainsi : on se donne des v.a. X
0
, X
1
, ind-
ependantes entre elles et de ce qui prec`ede, de loi N(0, 2
n
) et lon pose, pour
k entier,
B2k+1
2
n+1
=
B k
2
n
+Bk+1
2
n
+X
k
2
.
3.9. APPENDICE 2 : CONSTRUCTION DE P. L

EVY DU MOUVEMENT BROWNIEN 35


On verie (cf. exercice dans lappendice 2) que lon construit bien ainsi un
mouvement brownien sur [0, 1] en passant `a la limite sur lapproximation
lineaire. Ceci montre en particulier son existence.
3.8. Appendice 1
Donnons une excellente approximation de la fonction de repartition de la
loi normale sous la forme dun programme C.
// standard normal density function
double ndf(double t)
{
return 0.398942280401433*exp(-t*t/2);
}
// standard normal cumulative distribution function
double nc(double x)
{
double result;
if (x<-7.)
result = ndf(x)/sqrt(1.+x*x);
else if (x>7.)
result = 1. - nc(-x);
else
{
result = 0.2316419;
static double a[5] = {0.31938153,-0.356563782,1.781477937,
-1.821255978,1.330274429};
result=1./(1+result*fabs(x));
result=1-ndf(x)*(result*(a[0]+result*
(a[1]+result*(a[2]+result*(a[3]+result*a[4])))));
if (x<=0.) result=1.-result;
}
return result;
}
3.9. Appendice 2 : Construction de P. Levy du mouvement brownien
36 CHAPITRE 3. MOUVEMENT BROWNIEN
Soit Y
k,n
; 0 k 2
n
, n N des v.a. independantes, toutes de loi
N(0, 1). On construit par recurrence sur n une suite X
n
(t), 0 t 1
nN

de processus tels que


X
n
(t) est lineaire sur chaque intervalle dyadique [2
n
k, 2
n
(k + 1)],
X
0
(0) = 0, X
0
(1) = Y
1,0
,
X
n+1
(2
n
k) = X
n
(2
n
k)
X
n+1
(2
(n+1)
(2k + 1)) = X
n
(2
(n+1)
(2k + 1)) + 2
(n+2)/2
Y
2k+1,n+1
.
a. Montrer que X
n
(t), 0 t 1 est un processus gaussien.
b. Montrer que
P( sup
0t1
[X
n+1
(t) X
n
(t)[ 2
n/4
) 2
n
P([Y
0,0
[ 2
(n+4)/4
).
c. Montrer que si Y N
1
(0, 1), P([Y [ > a) C
1
a
8
.
d. Montrer que p.s. X
n
converge uniformement sur [0, 1] vers un processus
X, et que X est un mouvement brownien.
CHAPITRE 4
MARTINGALES
4.1. Martingales, denition
Pour T = R ou N on consid`ere (, (T
t
)
tT
, P) un espace de probabilite ltre.
Denition 4.1.1. Une famille M
t
, t T, est une martingale si M
t
L
1
,
(M
t
) est adapte et
E(M
t
[T
s
) = M
s
, pour tout 0 s t.
Une famille M
t
, t T, est une sous-martingale si M
t
L
1
, (M
t
) est adapte et
E(M
t
[T
s
) M
s
, pour tout 0 s t.
Si M est une (ss)-martingale sur (, (T
t
)
tT
, P), ca lest aussi pour la
ltration naturelle T
0
t
= (M
s
, s t).
Exemple. Soit X L
1
. On pose X
t
= E(X[T
t
). On a, pour s < t,
E(X
t
[T
s
) = E(E(X[T
t
)[T
s
) = E(X[T
s
) = X
s
et X
t
est une martingale.
Proposition 4.1.2. Soit B un (T
t
)mouvement brownien. Alors,
(i) B
t
, t R
+
;
(ii) B
2
t
t, t R
+
;
(iii) pour R , exp(B
t


2
t
2
), t R
+
;
sont des (T
t
)-martingales.
Proposition 4.1.3 (Inegalite de Jensen). Soit M une martingale
(resp. sous martingale) et : R R une fonction convexe (resp. convexe
croissante). Si (M
t
) est integrable pour tout t 0, cest une sous martingale.
38 CHAPITRE 4. MARTINGALES
Preuve: Une fonction convexe est lenveloppe superieure de ses tangentes :
Donc il existe une famille F de fonctions anes (du type x ax+b) tels que
(x) = sup
fF
f(x)
avec de plus chaque f croissante si est croissante. Pour tout f F
E((M
t
)[T
s
) E(f(M
t
)[T
s
) = f(E(M
t
[T
s
) f(M
s
)
donc E((M
t
)[T
s
) sup
fF
f(M
s
) = (M
s
).
Exemple : Si M est une martingale [M[ est une sous martingale et si X est
une sous martingale, alors X
+
est une sous martingale.
Proposition 4.1.4. Soit M
(n)
t
, t T, n N, une suite de (T
t
) martin-
gales. Si pour tout t, M
(n)
t
tend vers M
t
dans L
1
, ou afortiori dans L
2
, alors
M
t
, t T, est une martingale.
Preuve: On utilise que
E([E(M
(n)
t
[T
s
) E(M
t
[T
s
)[) E(E([M
(n)
t
M
t
[[T
s
)) = [[M
(n)
t
M
t
[[
1
.
4.2. Martingales `a temps discret
Nous allons exposer deux resultats fondamentaux de Doob, indispensables
pour nous. Etant donne un processus M et un temps darret on note M

le
processus arrete `a linstant , deni par :
M

t
= M
t
.
Theor`eme 4.2.1 (darret). Soit M
n
, n N une (sous) martingale et
un temps darret. Alors M

est encore une (sous)-martingale.


Preuve: Il sut decrire
M

n+1
M

n
= 1
{>n}
(M
n+1
M
n
).
Le lemme suivant nest utile que pour les temps darret `a valeurs
denombrables, cest `a dire rarement dans le cas continu car il na dinteret
que si P( = r) > 0.
Lemme 4.2.2. Si est un temps darret et r un reel xe, pour toute v.a.
X 0, p.s.,
E(X[T

) = E(X[T
r
), sur = r
4.2. MARTINGALES
`
A TEMPS DISCRET 39
Preuve: Il nous faut montrer que
1
{=r}
E(X[T

) = 1
{=r}
E(X[T
r
),
soit encore puisque = r T

que
E(1
{=r}
X[T

) = 1
{=r}
E(X[T
r
).
On utilise la propriete caracteristique de lesperance conditionnelle 4.4.1 : la
v.a. Z = 1
{=r}
E(X[T
r
) est T

-mesurable et pour toute v.a. U positive, T

-
mesurable, puisque U1
{=r}
est T
r
-mesurable,
E(UZ) = E(U1
{=r}
E(X[T
r
)) = E(U1
{=r}
X)
donc Z = E(1
{=r}
X[T

).
Corollaire 4.2.3. Soient M
n
, n N une (sous) martingale, et deux
temps darret `a valeurs dans

N. On suppose que est borne. Alors
E(M

[ T

) M

avec egalite dans le cas dune martingale.


Preuve: Si est borne par la constante r > 0, on peut ecrire que, sur = n,
E(M

[ T

) = E(M

r
[ T
n
) M

rn
= M

.
Theor`eme 4.2.4. Soit M
n
, n N, une sous-martingale positive. Pour
tout a > 0,
aP( max
0kn
M
k
a) E(M
n
; max
0kn
M
k
a) E(M
n
).
De plus
E( max
0kn
M
2
k
) 4E(M
2
n
).
Preuve: Soit = infk 0; M
k
a. On applique le corollaire au temps
darret et au temps darret constant egal `a n :
E(M
n
[ T

) M
n
donc E(M
n
) E(M
n
). Posons A = n = max
0kn
M
k
a. On a
M
n
a1
A
+M
n
1
A
c.
Donc
E(M
n
) E(M
n
) aP(A) +E(M
n
1
A
c),
ce qui donne linegalite aP(A) E(M
n
1
A
) que lon cherchait. Ensuite
_

0
aP( max
0kn
M
k
a) da
_

0
E(M
n
; max
0kn
M
k
a) da.
40 CHAPITRE 4. MARTINGALES
Avec Fubini ceci secrit, si on pose S = max
0kn
M
k
E(
_
max
0kn
M
k
0
a da) E(M
n
_
max
0kn
M
k
0
da)
donc
1
2
E(( max
0kn
M
k
)
2
) E(M
n
max
0kn
M
k
).
En appliquant Cauchy Schwarz on obtient
1
2
E(( max
0kn
M
k
)
2
) E(M
2
n
)
1/2
E(( max
0kn
M
k
)
2
)
1/2
ce qui donne le resultat.
Dans la preuve precedente, en multipliant par a
p2
et en appliquant
linegalite de Holder, on obtient pour p > 1,
[[ max
0kn
M
k
[[
p
q[[M
n
[[
p
o` u p
1
+q
1
= 1.
4.3. Martingale continue `a droite
Si M
t
, t R
+
, est un processus `a trajectoires continues `a droite, on a
sup
0tT
M
t
= lim
n+
sup
0k2
n
MkT
2
n
.
En appliquant le Theor`eme 4.2.4 `a la sous martingale X
k
= MkT
2
n
et legalite
sup
0tT
M
t
> a =
nN
sup
0k2
n
MkT
2
n
> a
on obtient immediatement :
Theor`eme 4.3.1 (Inegalites de Doob). Soit M
t
, t R
+
, une sous-
martingale continue `a droite positive. Pour tout a > 0,
aP( sup
0tT
M
t
a) E(M
T
; sup
0tT
M
t
) E(M
T
)
De plus
E( sup
0tT
M
2
t
) 4E(M
2
T
).
Puisque la valeur absolue dune martingale est une sous martingale, on en
deduit le corollaire absolument fondamental pour la suite :
4.3. MARTINGALE CONTINUE
`
A DROITE 41
Corollaire 4.3.2. Si M est une martingale continue `a droite
E( sup
0tT
M
2
t
) 4E(M
2
T
).
Deduisons un convergence de theor`eme de martingales (il en existe dautres,
par exemple pour les martingales positives).
Theor`eme 4.3.3. Une martingale continue `a droite (M
t
) telle que
sup
t0
E(M
2
t
) < +
converge p.s. et dans L
2
lorsque t +.
Preuve: Puisque M
2
t
est une sous martingale, E(M
2
t
) est une fonction crois-
sante. Par hypoth`ese, elle est bornee. Donc elle converge lorsque t +. On
en deduit que, pour tout > 0, il existe N tel que, si s, t N
E((M
t
M
s
)
2
) = E(M
2
t
) E(M
2
s
) <
lorsque s, t +. La suite M
n
est donc de Cauchy dans L
2
, elle converge
vers une v.a. M

. En faisant tendre t + suivant les entiers on voit, par


Fatou, que
E((M

M
s
)
2
) <
donc M
s
M

dans L
2
. Si on applique linegalite de Doob `a la martingale
N
t
= M
s+t
M
s
on obtient
E(sup
tT
(M
t+s
M
s
)
2
) 4E((M
T+s
M
s
)
2
) 4
pour tout T 0, donc
E(sup
t0
(M
t+s
M
s
)
2
) 4.
Il en resulte en ecrivant que
(M
t+s
M

)
2
2(M
t+s
M
s
)
2
+ 2(M
s
M

)
2
que
E(sup
t0
(M
t+s
M

)
2
) 16.
Il existe donc une sous suite n
i
telle que, p.s., sup
t0
(M
t+n
i
M

) 0, ce
qui entraine que M
t
M

, p.s.
Pour montrer le theor`eme darret, nous allons utiliser :
Lemme 4.3.4. Si X L
1
(, /, P), la famille E(X[T), T sous tribu de /
est uniformement integrable.
42 CHAPITRE 4. MARTINGALES
Preuve: Remarquons dabord que pour tout > 0, il existe > 0 tel que, si
P(A) < alors E([X[1
A
) . En eet, par Lebesgue domine, E([X[1
{|X|M}
)
tend vers 0 lorsque M +.On choisit M pour lequel E([X[1
{|X|M}
)) < /2
et ensuite > 0 tel que M < /2. On a alors
E([X[1
A
) E([X[1
A
1
{|X|M}
) +E([X[1
A
1
{|X|M}
)
E([X[1
{|X|M}
) +MP(A [X[ M)
Soit R =
1
E[X[. On a, pour a > R, P([E(X[T)[ > a) a
1
E[E(X[T)[
a
1
E[X[ < et
_
{|E(X|F)|>a}
[E(X[T)[ dP
_
{|E(X|F)|>a}
E([X[[T) dP =
_
{|E(X|F)|>a}
[X[ dP < .
Theor`eme 4.3.5 (darret). Soient (X
t
, t R
+
) une sous-martingale
continue `a droite, et et deux temps darret avec borne. Alors X

L
1
et X

E(X

[ T

).
Preuve: (a) La suite de temps darret
n
= 2
n
([2
n
] + 1) decroit vers
et X

n
tend vers X

, quand n +. Si est bornee par K,


n
est
borne par K + 1. Dapr`es le corollaire 4.2.3, X
+
t
etant une sous-martingale,
X
+

n
E(X
+
K+1
[ T

n
). On a alors
E[X

n
[ = 2E(X
+

n
) E(X

n
) 2E(X
+
K+1
) E(X
0
)
do` u, par le lemme de Fatou, E[X

[ liminf
n
E[X

n
[ < + donc X

L
1
.
(b) Soit
n
= 2
n
([2
n
] + 1). On suppose X
t
0 pour tout t 0. Soit
A T

n
. On a alors, en appliquant le corollaire 4.2.3 `a la sous-martingale
X k
2
n
, k N,
X

n
E(X

n
[T

n
)
donc
E(1
A
X

n
) E(1
A
X

n
).
Puisque X
t
0 le lemme montre que les suites X

n
et X

n
sont uni-
formement integrables. Donc X

n
et X

n
convergent vers X

et X

dans
L
1
et E(1
A
X

) E(1
A
X

).
(c) On revient au cas general. Pour tout a > 0, a +X
t
(a) est une sous-
martingale positive donc, pour tout A T

, E(1
A
(X

(a))) E(1
A
(X


(a))). On conclut facilement puisque, lorsque a +, X

(a) X

et
X

(a) X

dans L
1
puisque [X

(a)[ [X

.
4.4. FORMULAIRE SUR LESP

ERANCE CONDITIONNELLE 43
Corollaire 4.3.6. Soient (M
t
, t R
+
) une sous-martingale continue `a
droite, telle que E(sup
0t<+
[M
t
[) < +. Pour tous temps darret et
E(M

[T

) M

.
Preuve: En utilisant le corollaire precedent aux temps darrets bornes t
et t, pour tout A T

E(1
A
1
{t}
M
t
) = E(1
A
1
{t}
M
t
)
car A t T
t
. Il sut alors de faire tendre t vers linni en appliquant
le theor`eme de convergence dominee.
Corollaire 4.3.7. Soient (X
t
, t R
+
) une (sous) martingale continue `a
droite et un temps darret. Alors X

t
:= X
t
est une (sous) martingale.
Preuve: Vu le corollaire precedent, on a, pour s < t, E(X
t
[ T
s
) X
ts
=
X
s
p.s.
Corollaire 4.3.8. Soit (X
t
, t R
+
) un processus integrable continu `a
droite. Alors X
t
est une martingale si et seulement si, pour tout temps darret
borne on a E(X

) = E(X
0
).
Preuve: La necessite resulte du corollaire ??. Montrons que la condition est
susante. Soient s < t et A T
s
. = s1
A
+ t1
A
c est un temps darret
borne et lon E(X
0
) = E(X

) = E(1
A
X
s
) + E(1
A
cX
t
). Mais = t est aussi
un temps darret borne do` u E(X
0
) = E(X
t
) = E(1
A
X
t
) + E(1
A
cX
t
). On en
deduit E(1
A
X
s
) = E(1
A
X
t
) i.e. X
t
est une martingale.
4.4. Formulaire sur lesperance conditionnelle
Soit (, /, P) un espace de probabilite et T une sous-tribu de /. Lesperance
conditionnelle E(X[T) dune variable aleatoire X positive (ou integrable) nest
denie que presque surement, on ommetra decrire p.s. dans une egalite o` u
elle apparait.
Theor`eme 4.4.1 (Propriete caracteristique de lesperance condition-
nelle)
Soit X une v.a.r. positive ou integrable. Lesperance conditionnelle E(X[T)
est la seule (classe de) v.a. Z ayant les deux proprietes suivantes :
(i) Z est T-mesurable ;
(ii) pour toute v.a.r. U, T-mesurable bornee positive,
E(ZU) = E(XU).
44 CHAPITRE 4. MARTINGALES
On utilisera tr`es souvent les inegalites suivantes qui montrent que lapplica-
tion T : /
p
/
p
donnee par T(X) = E(X[T) est continue pour p = 1, 2, .
Proposition 4.4.2 (Continuite de lesperance conditionelle)
|E(X[T)|
L
1 |X|
L
1; |E(X[T)|
L
2 |X|
L
2;
Les proprietes suivantes sont faciles `a demontrer et essentielles :
Proposition 4.4.3. Si les expressions ont un sens :
1. E(E(X[T)) = E(X);
2. [E(X[T)[ E([X[[T).
3. Si X est T-mesurable, E(XY [T) = XE(Y [T);
4. Si ( est une sous-tribu de T, E(X[() = E(E(X[T)[();
5. E(1[T) = 1;
6. E(aX +bY [T) = aE(X[T) +bE(Y [T);
7. Si X Y , E(X[T) E(Y [T);
8. [E(XY [T)[
2
E(X
2
[T)E(Y
2
[T).
On a lanalogue des theor`emes de convergence de Beppo Levi, de Fatou, de
Lebesgue :
Proposition 4.4.4. Soit (X
n
) une suite de v.a.
(Beppo Levi conditionnel) Si 0 X
n
X, E(X
n
[T) E(X[T), p.s.
(Fatou conditionnel) Si 0 X
n
, E(liminf X
n
[T) liminf E(X
n
[T),
(Lebesgue conditionnel) Si [X
n
[ V o` u V L
1
et si X
n
X , E(X
n
[T)
E(X[T), p.s. et dans L
1
Preuve: On commence par montrer Beppo Levi : si 0 X
n
X la suite
E(X
n
[T) est croissante donc a une limite, que nous notons Z. Comme limite
de fonctions T-mesurables Z est T-mesurable. Et pour toute v.a. U positive
et T-mesurable, par le theor`eme de Beppo Levi classique, applique deux fois,
E(UZ) = lim
n+
E(UE(X
n
[T)) = lim
n+
E(UX
n
) = E(UX)
Donc Z = E(X[T) par la propriete caracteristique de lesperance condition-
nelle (Thm 4.4.1). Les autres enonces sen deduisnet comme dans le cas non
conditionnel et par le fait que
[[E(X
n
[T) E(X[T)[[
1
[[X
n
X[[
1
4.4. FORMULAIRE SUR LESP

ERANCE CONDITIONNELLE 45
pour la convergence dans L
1
.
Tr`es souvent les calculs explicites desperance conditionnelle utilisent le
theor`eme suivant :
Theor`eme 4.4.5. Soit (T, X) une variable aleatoire `a valeurs dans un
espace produit E F et h : E F R mesurable, positive ou bornee. On
suppose que T est B-mesurable et que X est independante de B. Alors,
E(h(T, X)[B) = (T) o` u (t) = E(h(t, X)).
On peut encore ecrire cette egalite comme
E(h(T, X)[B)() =
_

h(T(), X(

)) dP(

).
CHAPITRE 5
CROCHET DE MARTINGALES
An dintroduire le crochet de martingales, nous allons debuter la construc-
tion de lintegrale stochastique. La construction est naturelle mais il y a pas
mal dinegalites `a controler ! Apr`es ce debut, et `a laide du crochet, on pourra
dans le chapitre suivant construire lintegrale stochastique en toute generalite.
5.1. Cas discret
Soit (M
n
, n N) une (T
n
)martingale sur (, (T
n
)
nN
, P). Si H est un
processus adapte on pose S(H, M)
0
= 0 et
S(H, M)
n
=
n

k=1
H
k1
(M
k
M
k1
).
Le lemme simple suivant est la cle des calculs que nous ferons.
Lemme 5.1.1 (Lemme dorthogonalite). Si M
n
, n N, est une mar-
tingale dans L
2
,
E(M
2
n
) E(M
2
0
) =
n

k=1
E((M
k
M
k1
)
2
).
Montrons maintenant un resultat technique.
Proposition 5.1.2. Soit M une martingale et H un processus adapte
borne. Alors S(H, M) est une martingale et si M est bornee il existe une
constante c > 0 ne dependant que de la borne de M, telle que, pour tout n,
[[S(H, M)
n
[[
2
2
c[[ sup
kn
H
2
k
[[
2
.
48 CHAPITRE 5. CROCHET DE MARTINGALES
Preuve: On peut supposer M
0
= 0. Puisque H est borne, S(H, M)
n
est
integrable pour tout n. Cest une martingale car
E(S(H, M)
n+1
S(H, M)
n
[T
n
) = E(H
n
(M
n+1
M
n
)[T
n
)
= H
n
[E(M
n+1
[T
n
) M
n
] = 0.
Supposons maintenant que [M[ est bornee par K. Posons A
0
= 0 et
A
n
=
n

k=1
E((M
k
M
k1
)
2
[T
k1
).
Nous allons chercher `a majorer E(A
2
n
). Commen cons par E(A
n
). En appliquant
le lemme,
E(A
n
) = E(
n

k=1
(M
k
M
k1
)
2
) = E(M
2
n
) K
2
.
Par ailleurs, puisque
A
k
A
k1
= E((M
k
M
k1
)
2
[T
k1
),
on a 0 A
k
A
k1
4K
2
, donc
(A
k
A
k1
)
2
4K
2
(A
k
A
k1
)
et
E(
n

k=1
(A
k
A
k1
)
2
) 4K
2
E(
n

k=1
(A
k
A
k1
)) = 4K
2
E(A
n
) 4K
4
.
On verie que M
2
n
A
n
est une martingale. En appliquant le lemme `a cette
martingale, et en utilisant linegalite (a +b)
2
2(a
2
+b
2
), on obtient que
E[(M
2
n
A
n
)
2
] = E(
n

k=1
(M
2
k
A
k
M
2
k1
+A
k1
)
2
)
2E(
n

k=1
(M
2
k
M
2
k1
)
2
) + 2E(
n

k=1
(A
k
A
k1
)
2
)
Utilisons linegalite
(M
2
k
M
2
k1
)
2
= (M
k
+M
k1
)
2
(M
k
M
k1
)
2
4K
2
(M
k
M
k1
)
2
;
on obtient
E[(M
2
n
A
n
)
2
] 8K
2
E(
n

k=1
(M
k
M
k1
)
2
) + 8K
4
8K
4
+ 8K
4
= 16K
4
,
5.2. PREMIERS PAS,
`
A TEMPS CONTINU 49
donc
E(A
2
n
) 2E(M
4
n
) + 2E(M
2
n
A
n
)
2
34K
4
.
On a alors, en appliquant cette fois le lemme `a la martingale S(H, M)
E[S(H, M)
2
n
] =
n

k=1
E(H
2
k1
(M
k
M
k1
)
2
)
=
n

k=1
E(H
2
k1
E((M
k
M
k1
)
2
[T
k1
)) =
n

k=1
E(H
2
k1
(A
k
A
k1
))

k=1
E(sup
k
[H
k
[
2
(A
k
A
k1
)) = E(sup
k
[H
k
[
2
A
n
)
[[A
n
[[
2
[[ sup
k
[H
k
[
2
[[
2

34K
2
[[ sup
k
[H
k
[
2
[[
2
o` u lon a utilse Cauchy Schwarz `a la derni`ere ligne. On peut donc prendre
c = 6K
2
.
5.2. Premiers pas, `a temps continu
On consid`ere une martingale continue M
t
, t R
+
, sur (, (T
t
), P). On
appelle processus (adapte) elementaire un processus H secrivant
H
t
=
n1

i=0
H
t
i
1
[t
i
,t
i+1
[
(t)
o` u 0 t
0
< t
1
< t
n
et o` u H
t
i
est une v.a. T
t
i
mesurable bornee. On note
c lensemble de ces processus elementaires.
Proposition 5.2.1. Pour H c on pose
_
t
0
H
s
dM
s
= (H M)
t
=
n1

i=0
H
t
i
(M
t
i+1
t
M
t
i
t
).
Alors
(i) H M est une (T
t
)-martingale continue, nulle en 0.
(ii) Si M est bornee, il existe une constante C > 0, ne dependant que de la
borne de M, telle que, pour tout T > 0,
[[ sup
0tT
(H M)
t
[[
2
2
C[[ sup
tT
H
2
t
[[
2
50 CHAPITRE 5. CROCHET DE MARTINGALES
Preuve: Puisque M est une martingale, E(M
r
[T
s
) = M
rs
pour tous r, s, 0.
On en deduit que si 0 t
i
s t,
E(H
t
i
(M
t
i+1
t
M
t
i
t
)[T
s
) = H
t
i
E(M
t
i+1
t
M
t
i
t
)[T
s
)
= H
t
i
(M
t
i+1
ts
M
t
i
ts
)
= H
t
i
(M
t
i+1
s
M
t
i
s
).
En utilisant cette relation pour s = t
i
, on voit maintenant que si 0 r t
i
t,
E(H
t
i
(M
t
i+1
t
M
t
i
t
)[T
r
) = E(E(H
t
i
(M
t
i+1
t
M
t
i
t
)[T
t
i
)[T
r
) = 0
donc encore
E(H
t
i
(M
t
i+1
t
M
t
i
t
)[T
r
) = H
t
i
(M
t
i+1
r
M
t
i
r
).
Lorsque t t
i
, ceci est trivialement vrai. Donc H M est une martingale.
Montrons (ii). On regarde la martingale `a temps discret N
k
= M
t
k
T
et le
processus `a temps discret G
k
= H
t
k
. Alors
(H M)
T
= S(G, N)
n
donc par la Proposition 5.1.2, il existe c > 0 tel que
[[(H M)
T
[[
2
2
c[[ sup
tT
H
2
t
[[
2
.
On applique alors linegalite de Doob `a la martingale H M.
5.3. Crochet comme variation quadratique
Theor`eme 5.3.1. Soit M une martingale continue bornee et 0 = t
n
0
<
t
n
1
< < t
n
p
n
= T une suite de subdivisions de [0, T] dont le pas tend vers 0.
Alors, la limite
(4) lim
n+
p
n

i=1
(M
t
n
i
t
M
t
n
i1
t
)
2
existe dans L
2
et denit, pour t T, un processus croissant continu note
M, M
t
. Il existe une sous suite qui, presque surement, converge uni-
fomement. De plus la formule
M
2
t
M
2
0
M, M
t
denit une martingale que lon notera
_
t
0
M
s
dM
s
.
5.3. CROCHET COMME VARIATION QUADRATIQUE 51
Preuve: Remarquons dabord que
M
2
0
+
p
n

i=1
(M
t
n
i
t
M
t
n
i1
t
n
i
t
)
2
= M
2
t
2X
(n)
t
o` u
X
(n)
t
=
_
t
0
M
(n)
s
dM
s
avec
M
(n)
t
=
n1

i=0
M
t
n
i
1
[t
n
i
,t
n
i+1
[
(t).
On sait par la Proposition 5.2.1 que X
(n)
t
est une martingale. En appliquant
cette proposition `a la martingale X
(n)
t
X
(m)
t
on voit quil existe C > 0 telle
que
E[ sup
0tT
(X
(n)
t
X
(m)
t
)
2
] C[[ sup
0sT
(M
(m)
(s) M
(n)
(s))
2
[[
2
2C[[ sup
0sT
(M
(m)
(s) M(s))
2
[[
2
+ 2C[[ sup
0sT
(M
(n)
(s) M(s))
2
[[
2
(en utilisant (a + b)
2
2(a
2
+ b
2
)). Par continuite de t M
t
() et donc
uniforme continuite sur [0, T], et le theor`eme de convergence dominee, le
dernier terme tend vers 0. On peut donc trouver une sous suite n
k
, k 1,
telle que
E( sup
0tT
(X
(n
k
)
t
X
(n
k+1
)
t
)
2
) 1/2
k
On en deduit que, presque surement, X
(n
k
)
t
converge uniformement sur [0, T]
vers un processus X qui sera donc continu. Toute la suite X
(n)
t
converge vers
X
t
dans L
2
. En particulier X est une martingale. Il reste `a montrer que
A
t
:= M
2
t
2X
t
est croissant. On a
(5) A
t
n
j
= M
2
t
n
j
2X
(n)
t
n
j
= M
2
0
+
j

i=1
(M
t
n
i
M
t
n
i1
)
2
.
donc A
t
n
j
n
A
t
n
i
n
) 0. Soit 0 r s T et pour chaque n, notons i
n
j
n
les entiers tels que
t
n
i
n
r t
n
i
n+1
, t
n
j
n
s t
n
j
n+1
.
On a
X
(n)
r
X
(n)
t
n
i
n
= M
t
n
i
n
(M
r
M
t
n
i
n
) 0
52 CHAPITRE 5. CROCHET DE MARTINGALES
quand n +. De meme
X
(n)
s
X
(n)
t
n
j
n
0
On peut donc ecrire
A
s
A
r
= lim
n+
(A
t
n
j
n
A
t
n
i
n
) 0
la positivite venant de (5).
Le corollaire suivant resulte de la formule (4) et de la convergence p.s. pour
une sous suite.
Lemme 5.3.2. Si M est une martingale bornee et un temps darret,
M

, M

t
= M, M
t
.
Corollaire 5.3.3. Si (M
t
) est une martingale bornee, on a pour t > s > 0,
E((M
t
M
s
)
2
[T
s
) = E(M, M
t
M, M
s
[T
s
).
Preuve: Puisque (M
t
) est une martingale, on a
E((M
t
M
s
)
2
[T
s
) = E(M
2
t
[T
s
) +M
2
s
2M
s
E(M
t
[T
s
)
= E(M
2
t
[T
s
) +M
2
s
2M
2
s
= E(M
2
t
[T
s
) M
2
s
et, puisque M
2
t
M, M
t
est une martingale,
E(M
2
t
[T
s
) M
2
s
= E(M
2
t
M, M
t
+M, M
t
[T
s
) M
2
s
= M
2
t
i
M, M
t
i
+E(M, M
t
[T
s
) M
2
s
= E(M, M
t
M, M
s
[T
s
).
5.4. Martingale locale
Denition 5.4.1. Un processus adapte continu M tel que M
0
= 0 est une
martingale locale si il existe une suite croissante
n
, n N, de temps darret
tendant vers + telle que M

n
soit une martingale. On dit que (
n
) reduit
M.
Si M est un processus adapte non nul en 0, on dit que cest une martingale
locale si M
t
M
0
lest. Il resulte du theor`eme darret que
Theor`eme 5.4.2. Une martingale locale arretee est une martingale locale.
5.4. MARTINGALE LOCALE 53
Lemme 5.4.3. La somme de deux martingales locales est une martingale
locale.
Preuve: Si (
n
) reduit la martingale locale M et
n
reduit la martingale locale
N, alors
n

n
reduit M +N.
Tr`es souvent on utilisera :
Proposition 5.4.4. Si M est une martingale locale nulle en 0, et si
T
n
= inft 0; [M
t
[ = n
alors M
T
n
est une martingale bornee.
Preuve: Si (
k
) reduit M, M

k
est une martingale donc par le theor`eme
darret, M

k
T
n
est une martingale. Pour tout t 0, quand k +, M

k
T
n
t
tend vers M
T
n
t
dans L
1
par convergence dominee (puisque [M

k
T
n
t
[ n).
Donc M
T
n
est une martingale.
Theor`eme 5.4.5. Une martingale locale M telle que sup
0st
[M
s
[ est
dans L
1
est une martingale.
Preuve: Il sut dutiliser quune limite dans L
1
de martingales est une
martingale (Proposition 4.1.4) et le theor`eme de convergence dominee.
Par contre luniforme integrabilite ne sut pas. Lexemple classique est
M
t
= 1/[[B
t+1
[[ o` u B est le brownien dans R
3
: on verra que cest une
martingale locale avec la formule dIto, par calcul E(M
2
t
) est uniformement
borne (et meme E(M
5/2
t
) ) et pourtant
E(M
t
) = E(1/[[B
t+1
[[) =
1

t + 1
E(1/[[B
1
[[)
nest pas constant.
5.4.1. Crochet dune martingale locale. Considerons une martingale
locale M, nulle en 0, reduite par (
n
) ; il resulte du corollaire 5.3.2 que si n m
alors
M

n
, M

t
= M

m
, M

t
si t
n
. On peut donc denir sans ambiguite M, M en posant
M, M
t
= M

n
, M

t
, pour tout n tel que
n
t.
On remarque que
54 CHAPITRE 5. CROCHET DE MARTINGALES
Proposition 5.4.6. Si M est une martingale locale, le processus M, M
t
est continu, adapte et
M
2
t
M, M
t
, t 0,
est une martingale locale.
Theor`eme 5.4.7. Soit M une martingale locale nulle en 0. Alors les
conditions suivantes sont equivalentes :
(i) pour tout t 0, M, M
t
L
1
,
(ii) M est une martingale de carre integrable.
Sous ces conditions, M
2
t
M, M
t
est une martingale.
Preuve: Supposons (i). On peut reduire M avec T
n
= inft; [M
t
[ = n. Alors
N
(n)
t
= (M
T
n
t
)
2
M
T
n
, M
T
n

t
est une martingale (cf. Theor`eme 5.3.1). Donc E(N
(n)
t
) = 0 cest `a dire
(6) E(M
2
T
n
t
) = E(M, M
T
n
t
).
En particulier
E(M
2
T
n
t
) E(M, M
t
)
ce qui assure que la suite M
T
n
t
, n N, est uniformement integrable. Donc
M
T
n
t
tend vers M
t
dans L
1
et M
t
est une martingale comme limite dans L
1
de martingales. Par Fatou
E(M
2
t
) liminf
n+
E(M
2
T
n
t
) liminf
n+
E(M, M
T
n
t
) = E(M, M
t
) < +.
Donc M
t
est de carre integrable. Ce qui montre (ii). Dans ce cas, par Doob
sup
0st
M
2
s
est dans L
1
. La martingale locale M
2
t
M, M
t
est majoree pour
t [0, T] par M, M
T
+sup
0tT
M
2
t
. Cest donc une vraie martingale par le
theor`eme 5.4.5.
Supposons maintenant (ii) donc que M
t
est une martingale de carre
integrable. Alors, par Doob,
E( sup
0tT
M
2
t
) 4E(M
2
T
)
et puisque M
T
n
est bornee,
E(M
T
n
, M
T
n

T
= E(M
2
T
n
t
)
Donc
E(M, M
T
E( sup
0tT
M
2
t
) 4E(M
2
T
) < +.
5.4. MARTINGALE LOCALE 55
Proposition 5.4.8. Soit M
t
une martingale locale et
M, M

= lim
t+
M, M
t
.
Alors
E(sup
t0
M
2
t
) 4E(M, M

).
Si ces quantites sont nies, M
t
est une martingale, elle converge p.s. et dans
L
2
vers une v.a. M

quand t + et pour tous temps darrets ,


E(M

[T

) = M

.
Preuve: Soit (
n
) une suite de temps darret bornant M. Par Doob, pour tout
T > 0,
E(sup
tT
(M

n
t
)
2
) 4E((M

n
T
)
2
) = 4E(M

n
, M

T
).
On a donc
E( sup
tT
n
M
2
t
) = 4E(M, M
T
n
).
On peut appliquer deux fois le theor`eme de convergence monotone, en faisant
tendre T puis n vers linni, pour obtenir
E(sup
t0
M
2
t
) 4E(M, M

).
Si cette quantite est nie, M
t
est une martingale convergente p.s. par le
theor`eme de convergence 4.3.3, et clairement dans L
2
. Par le theor`eme darret,
E(M
n
[T

) = M
n
.
et on peut appliquer le theor`eme de convergence dominee pour lesperance
conditionnelle (ou la continuite dans L
2
) pour faire tendre n vers linni.
Attention : si M est une vraie martingale, E(M
2
t
) = E(M, M
t
), donc
sup
t0
E(M
2
t
) = E(M, M

).
Si par contre M est seulement une martingale locale ceci peut etre faux, comme
le montre le contre exemple de la n de la section precedente M
t
= 1/[[B
t+1
[[
o` u B est le brownien de R
3
.
Insistons, linegalite de Doob sous la forme
E(sup
tT
M
2
t
) 4E(M
2
T
)
est fausse pour la martingale locale M
t
= 1/[[B
t+1
[[.
56 CHAPITRE 5. CROCHET DE MARTINGALES
5.5. Processus `a variation nie
Denition 5.5.1. On appelle processus (adapte continu) `a variation nie
la dierence de deux processus croissants continus adaptes.
Si A
t
= U
t
V
t
est `a variation nie avec U et V croissants, pour toute
subdivision 0 = t
0
< t
1
< < t
n
= T,
(7)
n

i=1
[A
t
i
A
t
i1
[
n

i=1
[U
t
i
U
t
i1
[ +
n

i=1
[V
t
i
V
t
i1
[ U
T
U
0
+V
T
V
0
Il y a une reciproque `a cette propriete, mais nous ne lutiliserons pas.
Lexemple typique de processus `a variation nie est donne par la primitive
A
t
=
_
t
0
R
s
ds dun processus R
t
localement integrable progressif (par exemple
continu adapte) : en eet il sut de prendre U
t
=
_
t
0
R
+
s
ds et V
s
=
_
t
0
R

s
ds.
Proposition 5.5.2. Une martingale locale (continue) nulle en 0 `a varia-
tion nie est nulle.
Preuve: Ecrivons M
t
= U
t
V
t
avec U, V croissants continus adaptes nuls en
0. Soit
k
= inft 0; U
t
+ V
t
k et 0 = t
n
0
< t
n
1
< < t
n
p
n
= T une suite
de subdivisions de [0, T] dont le pas tend vers 0. Alors, en appliquant le lemme
5.1.1 `a la martingale N = M

k
,
E(M
2
T
k
) = E(
p
n

i=1
(N
t
n
i
N
t
n
i1
)
2
)
E(sup
j
[N
t
n
j
N
t
n
j1
[
p
n

i=1
[N
t
n
i
N
t
n
i1
[)
E(sup
j
[N
t
n
j
N
t
n
j1
[(U
T
k
+V
T
k
))
kE(sup
j
[N
t
n
j
N
t
n
j1
]) 0,
donc M
T
= 0.
Corollaire 5.5.3. Si M est une martingale locale, M, M est lunique
processus croissant adapte A
t
nul en 0 tel que M
2
t
A
t
soit une martingale
locale.
5.6. CROCHET DE DEUX MARTINGALES LOCALES 57
5.6. Crochet de deux martingales locales
Considerons deux martingales locales M et N. Le crochet de M et N est
deni par
M, N
t
=
1
4
[M +N, M +N
t
M N, M N
t
]
Exactement comme au dessus on voit que
Proposition 5.6.1. M, N est le seul processus (continu adapte) `a va-
riation nie, nul en 0, tel que MN M, N soit une martingale locale.
Si M et N sont bornes, il resulte de la formule (4) que si 0 = t
n
0
< t
n
1
<
< t
n
p
n
= T sont des subdivisions dont le pas tend vers 0. Alors
(8) M, N
T
= lim
n+
p
n

i=1
(M
t
n
i
M
t
n
i1
)(N
t
n
i
N
t
n
i1
)
On en deduit :
Lemme 5.6.2. Si M et N sont deux martingales locales, et un temps
darret, alors
M

, N = M, N

= M

, N

= M, N

.
Considerons un processus croissant continu A sur R
+
. Pour chaque ,
denissons une mesure m
A()
sur R
+
on posant
m
A()
([s, t]) = A
t
() A
s
()
(voir lappendice pour une preuve de lexistence). Pour simplier, on notera
_
t
0
f(s) dm
A()
(s) =
_
t
0
f(s) dA
s
()
si f est borelienne positive ou bornee, et la plupart du temps on necrit pas .
Si A maintenant est un processus `a variation nie, donc secrivant A
t
= U
t
V
t
o` u U et V sont des processus croissants, on posera
_
t
0
f(s) dA
s
=
_
t
0
f(s) dU
s

_
t
0
f(s) dV
s
.
Le seul cas que lon rencontrera souvent est celui o` u A est une primitive :
A
t
=
_
t
0
R
s
ds. Alors
_
t
0
f(s) dA(s) =
_
t
0
f(s)R
s
ds.
Considerons deux martingales locales M et N.
58 CHAPITRE 5. CROCHET DE MARTINGALES
Lemme 5.6.3. Pour H c,
(
_
t
0
H
s
dM, N
s
)
2
N, N
t
_
t
0
H
2
s
dM, M
s
.
Preuve: On ecrit que M + N, M + N
t
est une fonction croissante de t,
on en deduit que
(M, N
t
M, N
s
)
2
(M, M
t
M, M
s
)(N, N
t
N, N
s
)
qui secrit aussi
(
_
t
s
dM, N
u
)
2

_
t
s
dM, M
u
_
t
s
dN, N
u
.
Si
H
t
=
n1

i=0
H
t
i
1
[t
i
,t
i+1
[
(t)
est un processus de c, on en deduit que
[
_
t
0
H
s
dM, N
s
[ = [
n

i=1
_
t
i+1
t
t
i
t
H
s
dM, N
s
[

i=1
[H
t
i
_
t
i+1
t
t
i
t
dM, N
s
[

i=1
[H
t
i
[[
_
t
i+1
t
t
i
t
dM, M
s
]
1/2
[
_
t
i+1
t
t
i
t
dN, N
s
]
1/2
.
Or (

a
i
b
i
)
2
(

a
2
i
)(

b
2
i
) (Cauchy Schwarz) donc
(
_
t
0
H
s
dM, N
s
)
2
[
n

i=1
H
2
t
i
_
t
i+1
t
t
i
t
dM, M
s
][
n

i=1
_
t
i+1
t
t
i
t
dN, N
s
]
cest `a dire
(
_
t
0
H
s
dM, N
s
)
2

_
t
0
H
2
s
dM, M
s
_
t
0
dN, N
s
.
En utilisant par exemple la proposition 6.1.7, on voit que
Proposition 5.6.4 (Kunita Watanabe). Lapplication
H c
_
t
0
H
s
dM, N
s
5.7. APPENDICE : CHANGEMENT DE TEMPS 59
se prolonge par continuite `a tout processus mesurable H tel que
_
t
0
H
2
s
dM, M
u
<
et si on note de la meme facon ce prolongement, il verie encore
(
_
t
0
H
s
dM, N
s
)
2
N, N
t
_
t
0
H
2
s
dM, M
s
.
5.7. Appendice : Changement de temps
On consid`ere une fonction croissante positive A(t), t 0 continue `a droite,
nulle en 0.
Denition 5.7.1. On appelle inverse continu `a droite de la fonction A,
la fonction G(t), t 0 denie par
G(t) = infs 0, A(s) > t.
Proposition 5.7.2. a. La fonction G : R
+
R est croissante positive,
continue `a droite.
b. Pour tous 0 s, t
A(s) > t = G(t) s = A(s) t.
c. Limage de la mesure de Lebesgue sur lintervalle G < par G est la
mesure dA associee au processus croissant A.
d. Pour toute fonction mesurable positive : R
+
R
+
,
_
+
0
(t)dA(t) =
_
+
0
(G(t))1
{G(t)<+}
dt.
e. On a
F(t) = infs 0, G(s) > t.
Preuve: a. Il est clair que G est croissante. Montrons quelle est continue `a
droite. Soit (t
n
) une suite decroissante vers t. Il est clair que G(t) limG(t
n
)
et si G(t) < s
0
< limG(t
n
), alors on peut trouver s < s
0
tel que A(s) > t donc
tel que A(s) > t
n
pour n assez grand, et alors G(t
n
) s
0
. Absurde.
b. Il est clair que A(s) > t = G(t) s. Si G(t) s, il existe s
n
decroissant vers s tel que A(s
n
) > t et alors A(s) t par continuite `a droite
de A.
c. Par denition dA([0, s]) = A(s). Si m est la mesure de Lebesgue sur
lintervalle G < , son image par G verie, pour tout s 0,
([0, s]) = mG s.
60 CHAPITRE 5. CROCHET DE MARTINGALES
Par b, on a [0, A(s)[ G s [0, A(s)] donc mG s = A(s) = dA([0, s])
et = dA.
d. Le c. secrit aussi
_
+
0
1
[
0, s](t)dA(t) =
_
+
0
1
[
0, s](G(t))1
{G(t)<+}
dt.
Par combinaison lineaire et limite croissante on obtient la formule.
e. Laisse en exercice.
CHAPITRE 6
INT

EGRALE STOCHASTIQUE
6.1. Cas dune martingale de carre integrable
On consid`ere une martingale continue M
t
de carre integrable (cest `a dire
telle que M
t
L
2
pour tout t 0). Rappelons (Theor`eme 5.4.7) qualors
M, M
t
L
1
et que
M
2
t
M, M
t
est une martingale. Dans la suite on xe un T > 0.
Denition 6.1.1. On note 1
2
T
lespace des martingales dans L
2
presque
surement continues M
t
, 0 t T, telles que M
0
= 0, muni du produit scalaire
(M, N)
H
2
T
= E(M
T
N
T
).
Remarquons que si M, N 1
2
T
, alors M + N et M N sont dans 1
2
T
et
que MN M, M est une martingale.
On identiera deux martingales egales p.s. dans la proposition suivante.
Proposition 6.1.2. 1
2
T
est un espace de Hilbert.
Preuve: Il faut montrer que 1
2
T
est complet. Considerons une suite de Cauchy
M
(n)
. Alors M
(n)
T
est une suite de Cauchy dans L
2
(, T, P), qui est complet.
Il existe donc une variable aleatoire, que nous noterons M
T
, dans L
2
(, T, P)
telle que
E((M
(n)
T
M
T
)
2
) 0
62 CHAPITRE 6. INT

EGRALE STOCHASTIQUE
quand n +. Posons, pour tout t T, M
t
= E(M
T
[T
t
). Il est clair que
(M
t
) est une martingale, et par continuite dans L
2
de lesperance condition-
nelle, que M
(n)
t
M
t
dans L
2
. Par Doob
E( sup
0tT
(M
(n)
s
M
(m)
s
)
2
) 4E((M
(n)
T
M
(m)
T
)
2
)
tend vers 0 quand n, m +. On peut extraire une sous suite n
k
telle que
M
(n
k
)
t
converge uniformement. La limite sera donc continue. Or cette limite
est necessairement M
t
. Ceci montre que M
t
est une martingale continue. Donc
M 1
2
T
et [[M
(n)
M[[
2
H
2
T
= E((M
(n)
T
M
T
)
2
) 0.
Denition 6.1.3. Etant donnee une martingale M on note L
2
(M)
T
len-
semble des processus progressifs H tels que E(
_
T
0
H
2
s
dM, M
s
) < muni du
produit scalaire
(H, K)
L
2
(M)
T
= E(
_
T
0
H
s
K
s
dM, M
s
).
Proposition 6.1.4. c est dense dans L
2
(M)
T
.
Preuve: Remarquons que L
2
(M)
T
est un sous espace ferme de lespace L
2
(
[0, T], T
T
B([0, T]), m) o` u m est la mesure denie par
m(A) = E(
_
T
0
1
A
(, s)dM, M
s
())
Cest donc un espace de Hilbert. Il sut donc de montrer que si K L
2
(M)
T
est orthogonal `a c alors il est nul. Posons
X
t
=
_
t
0
K
s
dM, M
s
.
Montrons que X
t
est une martingale : Par linegalite de Kunita Watanabe
(Proposition 5.6.4),
_
t
0
[K
s
[ dM, M
s
M, M
1/2
t
(
_
t
0
K
2
s
dM, M
s
)
1/2
on voit, apr`es avoir applique Cauchy Schwarz, que
(9) E(
_
t
0
[K
s
[ dM, M
s
) E(M, M
t
)E(
_
t
0
K
2
s
dM, M
s
) < +.
Donc X
t
L
1
. Soit Z une v.a. T
s
mesurable bornee. Pour 0 s t T,
le processus H
r
= Z1
[s,t[
(r) est dans c donc, par hypoth`ese, orthogonal `a K
6.1. CAS DUNE MARTINGALE DE CARR

E INT

EGRABLE 63
donc
0 = E(
_
T
0
H
r
K
r
dM, M
r
) = E(Z
_
t
s
K
r
dM, M
r
) = E(Z(X
t
X
s
)).
Ceci entraine que X est une martingale. Comme elle est `a variation nie, elle
est nulle par la Proposition 5.5.2. Donc K doit etre aussi nul dans L
2
(M)
T
.

Rappelons maintenant que lorsque H =

H
t
i
1
[t
i
,t
i+1
[
c et M est une
martingale, on a deni lintegrale stochastique (H M)
t
=

H
t
i
(M
t
i+1
t

M
t
i
t
)
Proposition 6.1.5. Si H c est un processus elementaire et M est une
martingale de carre integrable,
E(H M)
2
T
= E(
_
T
0
H
2
s
dM, M
s
).
Preuve: Sans perte de generalite, on peut supposer que t
n
= T pour sim-
plier les notations. Alors, en appliquant le lemme dorthogonalite 5.1.1 `a la
martingale H.M,
E(H M)
2
T
=
n1

i=0
E[((H M)
t
i+1
(H M)
t
i
)
2
)
= E(
n1

i=0
H
2
t
i
(M
t
i+1
M
t
i
)
2
)
= E(
n1

i=0
H
2
t
i
E((M
t
i+1
M
t
i
)
2
[T
t
i
))
= E(
n1

i=0
H
2
t
i
E(M, M
t
i+1
M, M
t
i
[T
t
i
))
= E(
n1

i=0
H
2
t
i
(M, M
t
i+1
M, M
t
i
))
= E(
_
T
0
n1

i=0
H
2
t
i
1
[t
i
,t
i+1
[
(s)dM, M
s
)
= E(
_
T
0
H
2
s
dM, M
s
).
64 CHAPITRE 6. INT

EGRALE STOCHASTIQUE
Theor`eme 6.1.6. Lintegrale stochastique par rapport `a M se prolonge en
une isometrie de L
2
(M)
T
dans 1
2
T
. On note encore H M ou
_
t
0
H
s
dM
s
, 0
t T, limage de H L
2
(M)
T
.
Preuve: Considerons lapplication
I
M
: c 1
2
T
denie par I
M
(H) = H M. La proposition precedente montre que cest une
isometrie de c, considere comme sous espace de L
2
(M)
T
, dans 1
2
T
. Comme c
est dense et 1
2
T
complet, on peut prolonger cette isometrie `a 1
2
T
tout entier.
En eet, on a le resultat general suivant :
Proposition 6.1.7. On consid`ere deux espaces metriques (F
1
, d
1
) et
(F
2
, d
2
), D une partie dense de F
1
et : D F
2
une application pour laquelle
il existe c > 0 tel que
d
2
((x), (y)) cd
1
(x, y) (10)
pour tous x, y D. Si (F
2
, d
2
) est complet, lapplication se prolonge `a F
1
tout entier en une application veriant (10) partout..
Preuve: En eet, par densite, pour tout x F
1
, il existe une suite x
n
D
tendant vers x. La suite x
n
est de Cauchy pour d
1
puisquelle converge.
Linegalite (10) montre que (x
n
) est une suite de Cauchy dans (F
2
, d
2
).
Comme cet espace est complet, (x
n
) converge. Il sut de poser (x) =
lim(x
n
).
Theor`eme 6.1.8 (Propriete caracteristique). Pour H L
2
(M)
T
,
(H M)
t
, t T, est la seule martingale de 1
2
T
, nulle en 0, veriant
H M, N
T
=
_
T
0
H
s
dM, N
s
,
pour tout N 1
2
T
.
Preuve: Montrons dabord la relation pour H c et meme par linearite, pour
H
t
= Z1
[a,b[
(t), avec b T, o` u Z est T
a
mesurable, bornee. On a
E((H M)
T
N
T
) = E(Z(M
b
M
a
)N
T
)
or
E(ZM
b
N
T
) = E(ZM
b
N
b
) = E(ZM
b
N
b
ZM, N
b
) +E(ZM, N
b
)
6.1. CAS DUNE MARTINGALE DE CARR

E INT

EGRABLE 65
donc
E((H M)
T
N
T
) = E(Z(M, N
b
M, N
a
)) = E(
_
t
0
H
s
dM, N
s
).
Pour tout temps darret borne par T, en remplacant M et N par M

et N

on a encore
E((H M)

) = E(
_

0
H
s
dM, N
s
)
ce qui montre bien que (H M)
t
N
t

_
t
0
H
s
dM, N
s
est une martingale.
Pour traiter le cas general dun H dans L
2
(M)
T
, approchons le par H
n
c.
Lapplication
M 1
2
T
M, N
T
L
1
est continue par Kunita Watanabe (Proposition 5.6.4 appliquee `a H = 1),
donc, dans L
1
,
HM, N
T
= lim
n+
H
n
M, N
T
= lim
n+
_
T
0
H
n
s
dM, N
s
=
_
T
0
H
s
dM, N
s
,
en utilisant `a nouveau Kunita Watanabe. Reste lunicite : si X est une mar-
tingale nulle en 0, telle que pour tout N,
X, N
T
= H M, N
T
,
alors, en prenant N = X H M, on a X H M, X H M = 0 donc
X = H.M.
Une autre fa con decrire cette relation est
dH M, N
t
= H
t
dM, N
t
cest `a dire que, pour chaque xe, la mesure dH M, N
t
a la densite H
t
par rapport `a la mesure dM, N
t
.
Corollaire 6.1.9. Pour toutes martingales M, N dans 1
2
T
, H L
2
(M)
T
et K L
2
(N)
T
H M, K N
T
=
_
T
0
H
s
K
s
dM, N
s
.
Theor`eme 6.1.10. Pour H L
2
(M)
T
, pour tout temps darret ,
(H M)

= H M

.
De plus , K L
2
(H M)
T
si et seulement si KH L
2
(M)
T
et alors
(associativite de lintegrale stochastique)
(KH) M = K (H M).
66 CHAPITRE 6. INT

EGRALE STOCHASTIQUE
Preuve: Pour larret, on utilise la propriete caracteristique : pour tout N
1
2
T
, et
(H M)

, N
T
= (H M), N

T
=
_
T
0
H
s
dM, N

s
=
_
T
0
H
s
d M

, N
s
=
_
T
0
d H M

, N
s
= H M

, N
T
Pour lassociativite : dabord
E(
_
T
0
K
2
s
d(H M), (H M)
s
) = E(
_
T
0
K
2
s
H
2
s
dM, M
s
).
Par ailleurs
(KH)M, N
T
=
_
T
0
K
s
H
s
d M, N
s
=
_
T
0
K
s
HM, N
s
= K(HM), N
T
.
6.2. Cas dune martingale locale.
Soit M une martingale locale. On note L
0
(M) lensemble des processus
progressifs H tels que, pour tout t > 0,
_
t
0
H
2
s
dM, M
s
< +, p.s.
Par exemple tout processus adapte continu, et meme seulement cad lag, est
dans L
0
(M). La suite

n
= inft 0;
_
t
0
(1 +H
2
s
)dM, M
s
n
est formee de temps darret et crot vers +. Puisque
M

n
, M

t
n et
_
T
0
H
2
s
dM

n
, M

s
n,
on voit que M

n
est une vraie martingale de 1
2
T
et que H est dans L
2
(M

n
)
T
.
Considerons H M

n
. Pour m n,
(H M

m
)

n
= H (M

m
)

n
= H M

n
= H M

n
.
On peut donc poser, sans ambigute,
(H M)
t
= H (M

n
)
t
, pour tout n tel que
n
t.
6.3. SEMIMARTINGALES 67
Theor`eme 6.2.1 (Propriete caracteristique). HM est lunique mar-
tingale locale, nulle en 0, telle que, pour toute martingale locale N
H M, N
T
=
_
T
0
H
s
dM, N
s
,
Preuve: facile
Corollaire 6.2.2. Pour H, K L
0
(M), pour tout temps darret ,
(H M)

= H M

et (HK) M = H (K M).
On a aussi (H M)

= H1
[0,[
M.
6.3. Semimartingales
On se xe (, T, (T
t
), P).
Denition 6.3.1. On appelle semimartingale (continue) un processus
adapte X
t
secrivant
X
t
= X
0
+M
t
+V
t
o` u M est une martingale locale et V un processus `a variation nie, nuls en 0,
continus adaptes.
Vu la Proposition 5.5.2, cette decomposition est unique. On lappelle la
decomposition canonique.
Denition 6.3.2. Le crochet de 2 semimartingales X
t
= X
0
+ M
t
+
V
t
, Y
t
= Y
0
+ N
t
+ U
t
o` u M et N sont les parties martingales locales, est
par denition
X, Y = M, N.
Lexemple fondamental de semimartingale (mais ce nest pas le seul, penser
au sup du brownien S
t
= max
0st
B
s
) est donne par les processus dIto : on
consid`ere un T
t
mouvement brownien B = (B
(1)
, , B
(d)
) `a valeurs dans R
d
issu de 0 ; par denition,
Denition 6.3.3. Un T
t
mouvement brownien B = (B
(1)
, , B
(d)
) `a
valeurs dans R
d
est un processus continu tel que B
t+s
B
t
, s 0, est
independant de T
t
et donc les composantes sont des browniens independants.
68 CHAPITRE 6. INT

EGRALE STOCHASTIQUE
Denition 6.3.4. On appelle processus dIto reel tout processus X
t
de la
forme
(11) X
t
= X
0
+
d

k=1
_
t
0

k
s
dB
k
s
+
_
t
0

s
ds
o` u X
0
T
0
, o` u
k
et sont des processus progressifs reels tels que, pour tout
t > 0,
_
t
0

(
k
s
)
2
ds +
_
t
0
[
s
[ ds < + p.s.
Un processus dIto multidimensionnel est un processus dont les compo-
santes sont des processus dIto reels (par rapport au meme T
t
brownien d-
dimensionnel B). Soient X
t
= X
0
+
_
t
0

k
dB
k
+
_
t
0

s
ds et Y
t
= Y
0
+
_
t
0

k
dB
k
+
_
t
0

s
ds les composantes dun processus dIto de dimension 2.
On a
(12) X, Y
t
=
d

k=1
_
t
0

k
s

k
s
ds.
6.3.1. Integration par rapport `a une semimartingale. Soit X
t
=
X
0
+M
t
+A
1
t
A
2
t
une semimartingale. On note L
0
(X), lensemble des processus
progressifs U tels que, pour tout t > 0,
_
t
0
U
2
s
dM
s
, M
s
+
_
t
0
[U
s
[ d(A
1
s
+A
2
s
) < +, p.s.
Pour U L
0
(X), on denit :
_
t
0
U
s
dX
s
=
_
t
0
U
s
dM
s
+
_
t
0
U
s
dA
1
s

_
t
0
U
s
dA
2
s
.
Tout processus adapte continu est dans L
0
(X). On verie facilement que :
Proposition 6.3.5 (Proprietes importantes). Si X, Y sont des semi-
martingales, pour H L
0
(M)
T
, pour tout temps darret ,
(H M)

= H M

);
si K L
0
(H.M)
T
,
(KH) M = K (H M);
pour toute semimartingale N, si K L
0
(N)
T
H M, K N
T
=
_
T
0
H
s
K
s
dM, N
s
.
6.3. SEMIMARTINGALES 69
Theor`eme 6.3.6 (de convergence dominee pour lI.S.)
Soit K, H L
0
(X) et H
(n)
une suite de processus progressifs telle que ;
pour tout t 0, H
(n)
t
H
t
p.s. quand n + et [H
(n)
t
[ K
t
. Alors, en
probabilite
sup
0tT
[
_
t
0
H
(n)
s
dX
s

_
t
0
H
s
dX
s
[ 0.
Preuve: Si X
t
= X
0
+ M
t
+ A
t
est la decomposition canonique de X.
Lintegrale par rapport `a A se traite avec le theor`eme de Lebesgue classique.
Pour la partie M, appliquons la technique fondamentale : la localisation.
Localisons : Soit
k
la suite croissante vers + de temps darret, denie
par

k
= inft 0; [M
t
[ +K M, K M
t
= k
alors par Doob
E[ sup
0tT
(
_
t
0
H
(n)
s
dM

k
s

_
t
0
H
s
dM

k
s
)
2
] 4E[(
_
T
0
H
(n)
s
dM

k
s

_
T
0
H
s
dM

k
s
)
2
]
= 4E[(
_

k
T
0
(H
(n)
s
H
s
)
2
dM, M
s
].
Par Lebesgue domine (puisque (H
(n)
s
H
s
)
2
4K
2
s
) on voit que
_

k
T
0
(H
(n)
s

H
s
)
2
dM, M 0 quand n +, et puisque cette quantite est bornee (par
2k) son esperance tend vers 0 `a nouveau par Lebesgue domine. Soit > 0
P( sup
0tT
(
_
t
0
H
(n)
s
dM
s

_
t
0
H
s
dM
s
)
2
> )
P( sup
0tT
(
_
t
0
H
(n)
s
dM

k
s

_
t
0
H
s
dM

k
s
)
2
> ,
k
> t) +P(
k
t)
etc... tend vers 0.
Proposition 6.3.7. Soit X une semimartingale et U un processus adapte
continu. Soit 0 = t
n
0
< t
n
1
< . . . < t
n
p
n
= T, une suite de subdivisions dont le
pas tend vers 0. Alors
sup
0tT
[
p
n
1

i=0
U
t
n
i
(X
t
n
i+1
t
X
t
n
i
t)
_
t
0
U
s
dX
s
[ 0
et
sup
0tT
[
p
n
1

i=0
U
t
n
i
(X
t
n
i+1
t
X
t
n
i
t
)
2

_
t
0
U
s
dX, X
s
[ 0
en probabilite.
70 CHAPITRE 6. INT

EGRALE STOCHASTIQUE
Preuve: On pose U
n
s
=

p
n
1
i=0
U
t
n
i
1
[t
n
i
,t
n
i+1
[
(s). On a
p
n
1

i=0
U
t
n
i
(X
t
n
i+1
t
X
t
n
i
t
) =
_
t
0
U
n
s
dX
s
.
Vu la continuite, U
n
tend vers U en restant borne pour chaque puisque
[U
n
s
[ max
0rt
[U
r
[. Il sut dappliquer le theor`eme precedent pour obtenir
la premi`ere limite.
Pour simplier les notations ne regardons que se qui se passe en T. Montrons
que
p
n
1

i=0
(X
t
n
i
X
t
n
i1
)
2
X, X
T
.
Ecrivons X = X
0
+ M + A o` u M est une martingale et A `a variation nie.
Commencons par montrer que
p
n
1

i=0
(X
t
n
i
X
t
n
i1
)
2
X, X
T
p
n
1

i=0
(X
t
n
i
X
t
n
i1
)
2
=
p
n
1

i=0
(M
t
n
i
M
t
n
i1
)
2
+
p
n
1

i=0
(A
t
n
i
A
t
n
i1
)
2
+ 2
p
n
1

i=0
(M
t
n
i
M
t
n
i1
)(A
t
n
i
A
t
n
i1
)
et
p
n
1

i=0
[(A
t
n
i
A
t
n
i1
)
2
+ 2(M
t
n
i
M
t
n
i1
)(A
t
n
i
A
t
n
i1
)[
( sup
1jn
[A
t
n
j
A
t
n
j1
[ + 2[M
t
n
j
M
t
n
j1
[)[
p
n
1

i=0
[(A
t
n
i
A
t
n
i1
)[
tend vers 0, par continuite de M et de A et en utilisant linegalite (7). Posons

k
= inf(s 0, [M
s
[ k). En ecrivant
P([
p
n
1

i=0
(M
t
n
i
M
t
n
i1
)
2
X, X
T
[ > )
= P([
p
n
1

i=0
(M

k
t
n
i
M

k
t
n
i1
)
2
X

k
, X

T
[ > , t <
k
) +P(t
k
)
on obtient la convergence en probabilite puisque

p
n
i=1
(M

k
t
n
i
M

k
t
n
i1
)
2

k
, X

T
par le theor`eme 5.3.1.
6.4. FORMULE DIT

O 71
Il est alors facile de traiter le cas dun U continu : Il sut de lapprocher
(pour xe) uniformement sur [0, T] par les fonctions en escalier du type

k
U
k/n
1
[k/n,(k+1)/n[
.
6.4. Formule dIto
Theor`eme 6.4.1. (Formule dIto) Soit X
t
= (X
1
t
, . . . , X
p
t
) une semimar-
tingale `a valeurs dans R
p
, et f C
2
(R
p
). Alors f(X
t
) est une semimartingale
et
f(X
t
) f(X
0
) =
p

j=1
_
t
0
f
x
j
(X
s
) dX
j
s
+
1
2
p

j,k=1
_
t
0

2
f
x
j
x
k
(X
s
) dX
j
, X
k

s
.
Preuve: Traitons le cas p = 1, avec une methode qui setend immediatement
au cas general. La formule de Taylor `a lordre 2 secrit
f(y) f(x) = f

(x)(y x) +
(y x)
2
2
f

()
pour un [x, y]. Ecrivons donc, pour une suite de subdivisions 0 = t
n
0
<
t
n
1
< . . . < t
n
p
n
= t, de [0, t] dont le pas tend vers 0,
f(X
t
) f(X
0
) =
p
n
1

i=0
(f(X
t
n
i+1
) f(X
t
n
i
))
=
p
n
1

i=0
f

(X
t
n
i
)(X
t
n
i+1
X
t
n
i
) +
p
n
1

i=0
f

(
n
i
)
(X
t
n
i+1
X
t
n
i
)
2
2
o` u
n
i
est entre X
t
n
i+1
et X
t
n
i
. Le premier terme tend en probabilite vers
_
t
0
f

(X
s
) dX
s
par la proposition 6.3.7. Pour le second, on a
lim
n+
p
n
1

i=0
[f

(
n
i
) f

(X
t
n
i
)[
(X
t
n
i+1
X
t
n
i
)
2
2
lim
n+
sup
k
[f

(
n
k
) f

(X
t
n
k
)[
p
n
1

i=0
(X
t
n
i+1
X
t
n
i
)
2
2
= 0
par uniforme continuite de f

sur les compacts. Il sut donc dappliquer la


proposition precedente pour conclure.
On ecrit souvent de fa con formelle,
(13) df(X
t
) =
p

j=1
f
x
j
(X
t
) dX
j
t
+
1
2
p

j,k=1

2
f
x
j
x
k
(X
t
) dX
j
, X
k

t
.
72 CHAPITRE 6. INT

EGRALE STOCHASTIQUE
Corollaire 6.4.2. Soit X une semimartingale `a valeurs dans R
p
et f
C
1,2
(R
+
R
p
). Alors f(t, X
t
) est une semimartingale et
f(t, X
t
) f(0, X
0
) =
_
t
0
f
t
(s, X
s
) ds+
p

j=1
_
t
0
f
x
j
(s, X
s
) dX
j
s
+
1
2
p

j,k=1
_
t
0

2
f
x
j
x
k
(s, X
s
) dX
j
, X
k

s
.
CHAPITRE 7
APPLICATIONS DE LA FORMULE DITO
7.1. Sur le Brownien multidimensionnel
La formule dIto peut etre localisee. Voyons ca sur un exemple. Soit B le
Brownien dans R
d
partant de 0 et W
t
= B
t
+ x
0
, le mouvement brownien
partant de x
0
R
d
. Pour tout temps darret, , par Ito, pour toute fonction
C
2
f(W
t
) = f(x
0
) +
d

i=1
_
t
0
f
x
i
(W
s
) dW
i
s
+
1
2
_
t
0
f(W
s
) ds
o` u est le laplacien f =

d
i=1

2
f
x
2
i
. Si W

s
est `a valeurs dans un ensemble F
et que f est C
2
uniquement sur un voisinage de F, cette formule reste valable
(car on peut y remplacer f par une fonction C
2
sur R
d
tout entier, egale `a f
sur ce voisinage). Prenons pour F un ferme ne contenant pas 0, et considerons
la fonction f : R
d
R egale `a :
f(x) = log |x|, si d = 2 et f(x) =
1
|x|
d2
, si d 3.
En dehors de 0, f = 0 (on dit que f est harmonique). Donc
Lemme 7.1.1. Si est un temps darret tel que W

t
ne sannule jamais,
f(W

t
) est une martingale locale.
Preuve: Soit
n
= inft; [[W
t
[[ 1/n, avec |x| > 1/n. Par Ito, f(W

n
t
)
est une martingale locale. De plus
n
+ car W
t
ne sannule pas.
Proposition 7.1.2 (Les points sont polaires en dimension 2)
Si d 2, pour tout x R
d
P(t > 0; B
t
= x) = 0.
74 CHAPITRE 7. APPLICATIONS DE LA FORMULE DITO
Preuve: Il sut de traiter le cas d = 2. Supposons dabord x
0
,= 0. Il faut
montrer (quitte `a changer x
0
en x
0
) que
P(t > 0; W
t
= 0) = 0.
Choisissons r, R > 0 tels que r < [[x
0
[[ < R, posons T
r
= inft 0; [[W
t
[[ =
r, T
R
= inft 0; [[W
t
[[ = R et = T
r
T
R
. Puisque ln([[W

t
[[) est une
martingale locale bornee,
E[ln([[W

t
[[)] = E[ln([[W

0
[[)] = ln [[x[[
donc, en faisant t +, par convergence dominee,
E[ln([[W

[[)] = ln [[x
0
[[
cest `a dire
P(T
r
< T
R
) ln r +P(T
r
> T
R
) ln R = ln [[x
0
[[
ce qui donne
(14) P(T
r
< T
R
) =
ln R ln [[x
0
[[
ln R ln r
.
En faisant tendre r vers 0 on obtient que
P(T
0
T
R
) = 0,
car T
0
T
R
=
r<R
T
r
< T
R
. Puis en faisant tendre R vers +,
P(T
0
< ) = 0.
Donc partant de x
0
,= 0 on natteint pas 0. Ensuite, puisque pour tout > 0,

B
t
= B
t+
B

, t 0, est un brownien independant de B

et puisque B

,= 0,
p.s., on a (en prenant dans ce qui prec`ede W
t
=

B
t
+B

)
P(t > , B
t
= 0) = P(t > 0, B
+t
= 0) = P(t > 0,

B
t
= B

) = 0
et, en faisant tendre vers 0, P(t > 0, B
t
= 0) = 0.
Proposition 7.1.3. En dimension 2 , pour tout ouvert O de R
2
P(t > 0; B
t
O) = 1
et, p.s., liminf
t+
[[B
t
[[ = 0. Si d 3, lim
t+
[[B
t
[[ +.
Preuve: Pour d = 2 en reprenant la preuve precedente on voit en commencant
par faire tendre R vers linni, que pour tout x
0
, P(T
r
< +) = 1 et donc
que pour tout x R
2
,
P(t > 0; [[B
t
x[[ < ) = 1.
7.2. MARTINGALES EXPONENTIELLES 75
Par contre pour d 3, puisque ce nest plus ln [[x[[ mais [[x[[
2d
qui est
harmonique, on obtient `a la place de lequation (14),
P(T
r
< T
R
) =
R
2d
[[x
0
[[
2d
R
2d
r
2d
.
En faisant tendre R vers +, on obtient que, partant de x
0
,
P(T
r
< +) =
[[x
0
[[
2d
r
2d
.
On a donc, pour tout M > 0,
P(liminf
t+
[B
t
[ r) P(|B
t+T
M
| r, t 0) 1
M
2d
r
2d
1
quand M tend vers linni si d > 2.
Remarque : On peut maintenant justier que M
t
:= 1/[[B
t+1
[[ est bien une
martingale locale pour le brownien dans R
3
.
7.2. Martingales exponentielles
7.2.1. Denition.
Theor`eme 7.2.1. Soit M une martingale locale. Alors, pour tout C,
c(M) = exp(M
1
2

2
M, M)
est une martingale locale et
dc(M) = c(M) dM.
Preuve: Il sut dappliquer la formule dIto aux fonctions parties reelles et
imaginaires de f(x) = e
x
et `a la semimartingale M

2
2
M, M.
Proposition 7.2.2. Soit M une martingale locale `a valeurs positives ou
nulles telle que M
0
est integrable. Alors M est une surmartingale (i.e. M est
une sous martingale). On a toujours E(M
T
) E(M
0
). Si E(M
T
) = E(M
0
),
alors M est une martingale.
Preuve: Soit
n
reduisant M. Par Fatou conditionnel
E(M
T
[T
s
) E(liminf
n+
M

n
T
[T
s
) liminf
n+
E(M

n
T
[T
s
) = liminf
n+
M

n
s
= M
s
donc M
t
est une surmartingale. Pour 0 s t T,
E(M
T
[T
s
) E(M
t
[T
s
) M
s
76 CHAPITRE 7. APPLICATIONS DE LA FORMULE DITO
donc E(M
T
) E(M
t
) E(M
s
) E(M
0
). Si E(M
T
) = E(M
0
) alors E(M
t
) =
E(M
s
). Donc M
s
E(M
t
[T
s
) 0 est desperance nulle, donc nul p.s.
Corollaire 7.2.3. Soit M une martingale locale et c(M) = exp(M
1
2
M, M). Si E(c(M)
T
) = 1 pour un T > 0, alors c(M)
t
, t T, est une
(vraie) martingale.
7.2.2. Crit`ere de Paul Levy.
Proposition 7.2.4. Soit M une martingale locale (continue) nulle en 0
de crochet t. Alors M est un (T
t
)brownien.
Preuve: Par le theor`eme precedent, pour tout reel, c(iM) est une martin-
gale locale bornee sur [0, T] par e

2
T
2
donc une martingale : pour 0 < s < t,
E[c(iM
t
)[T
s
] = c(iM
s
)
autrement dit,
E[exp(iM
t

1
2

2
t)[T
s
] = exp(iM
s

1
2

2
s)
do` u
E[exp(i(M
t
M
s
))[T
s
] = exp(
1
2

2
(t s))
et lon conclut facilement.
7.2.3. Dubins-Schwarz.
Proposition 7.2.5. Soit M une martingale locale nulle en 0. Alors il
existe un brownien B tel que M
t
= B
M,M
t
.
Preuve: Ne traitons que le cas plus simple o` u M, M est strictement croissant
et M, M

= . Dans ce cas, pour chaque , la fonction t R


+

M, M
t
() R
+
est bijective. Notons t R
+

t
() R
+
linverse de
cette fonction (qui verie donc M, M

t
=
M,M
t
= t). Chaque
t
est un
temps darret car

t
s = M, M

t
M, M
s
= t M, M
s

est T
s
mesurable. Pour n N, M

n
est une vraie martingale car
M

n
, M

t
M, M

n
= n
et par Doob
E(sup
t0
(M

n
t
)
2
) lim
T+
E(sup
tT
(M

n
t
)
2
) 4E(M, M

n
) = n.
7.3. TH

EOR
`
EME DE REPR

ESENTATION 77
On na donc pas de mal `a justier lapplication du theor`eme darret `a
s
:
E(M

t
[T

s
) = M

s
.
Donc M

t
est une (T

t
)-martingale locale. On voit de la meme facon que
(M
2
M, M)

t
= M
2

t
t
est une martingale locale. On conclut donc avec le crit`ere de Levy que B
t
=
M

t
est un mouvement brownien. On termine en remarquant que M
t
=
B
M,M
t
.
Proposition 7.2.6. Soit M une martingale locale. Presque s urement,
a. Sur M, M

= +,
limsup
t+
M
t
= +, liminf
t+
M
t
=
et lim
t+
M
t
/M, M
t
= 0.
b. Sur M, M

< +, M
t
converge quand t +.
7.3. Theor`eme de representation
Theor`eme 7.3.1. On suppose que (T
t
) est la ltration du brownien T
t
=
(B
s
, 0 s t).
Si Z L
2
(T
T
), il existe un unique processus K dans L
2
T
(B) tel que
(15) Z E(Z) =
_
T
0
K
s
dB
s
.
Si M est une martingale de carre integrable arbitraire, donc pas necessairement
continue, nulle en 0, il existe K dans L
0
(B) tel que
M
t
=
_
t
0
K
s
dB
s
.
En particulier, M est continue.
Preuve: Les combinaisons lineaires des v.a.
U = exp(i
n

j=1

j
(B
t
j
B
t
j1
)),
n N,
1
, ,
n
R, t
1
t
2
t
n
T, sont denses dans L
2
(, T
T
). En
eet soit X L
2
(, T
T
) tel que
E[X exp(i
n

j=1

j
(B
t
j
B
t
j1
))] = 0.
78 CHAPITRE 7. APPLICATIONS DE LA FORMULE DITO
Notons
+
et
+
les probabilites sur R
n
images de
X
+
E(X
+
)
dP et
X

E(X

)
dP
par le vecteur (B
t
1
B
t
0
, , B
t
n
B
t
n1
). Ces deux probabilites ont la
meme transformee de Fourier donc sont egales. Autrement dit pour tout
A (B
t
j
B
t
j1
, j = 1, , n), E(1
A
X) = 0. Par classe monotone, cest
vrai pour tout A T
T
. Donc X = 0.
Notons

H lensemble des Z de L
2
(T
T
) admettant la representation (15).
Cest un ferme car si Z
n
Z dans L
2
et
Z
n
= E(Z
n
) +
_
T
0
K
n
s
dB
s
la suite Z
n
E(Z
n
) est de Cauchy donc K
n
est de Cauchy dans L
2
T
(B), qui
est complet. Si K
n
K, alors
Z = E(Z) +
_
T
0
K
s
dB
s
.
Montrons que chaque v.a. U est dans

H. Posons G
t
=

n
j=1

j
1
[t
j1
,t
j
[
(t),
M
t
= e
i

t
0
G
s
dB
s
+
1
2

t
0
G
2
s
ds
et = e

1
2

T
0
G
2
s
ds
. Remarquons que nest pas
aleatoire et que dM
t
= iG
t
M
t
dB
t
. On a
U = e
i

T
0
G
s
dB
s
= e
i

T
0
G
s
dB
s
+
1
2

T
0
G
2
s
ds
e

1
2

T
0
G
2
s
ds
= M
t
donc
U = [1 +
_
T
0
iG
t
M
t
dB
t
]
U = E(U) +
_
T
0
iG
t
M
t
dB
t
ce qui montre que U est dans

H. Finalement

H est ferme et contient un sous
ensemble dense dans L
2
T
(B), il lui est donc egal. Ceci montre lexistence de
la representation (15). Pour lunicite, si (15) est vrai pour K et K

, alors
_
T
0
K
s
dB
s
=
_
T
0
K

s
dB
s
donc
E(
_
T
0
(K
s
K

s
) dB
s
)
2
=
_
T
0
E(K
s
K

s
)
2
ds = 0
et K
s
= K

s
, p.s.
Considerons maintenant une martingale locale M, nulle en 0 que lon reduit
par
n
en martingales de carre integrable. Puisque M

n
T
est dans L
2
(, T
T
), il
existe un processus K
(n)
tel que
M

n
T
=
_
T
0
K
(n)
s
dB
s
7.4. GIRSANOV 79
on en deduit que, pour 0 t T,
M

n
t
= E(M

n
T
[T
t
) = E(
_
T
0
K
(n)
s
dB
s
[T
t
) =
_
t
0
K
(n)
s
dB
s
.
Posons alors pour tout t 0, K
t
= K
n
t
d`es que t
n
. Lunicite precedente
montre que K est ainsi bien deni. On a, en prenant
n
t,
M
t
= M

n
t
=
_
t
0
K
(n)
s
dB
s
=
_
t
0
K
s
dB
s
.
7.4. Girsanov
Sur un espace probabilisable (, T) on dit que deux probabilites P et Q
sont equivalentes si il existe une v.a. Z strictement positive telle que pour
tout A T
Q(A) =
_
1
A
Z dP.
On ecrira Q = Z P, ou dQ = Z dP Par application du theor`eme de Lebesgue
cest la meme chose que dire que pour toute v.a. X, Tmesurable positive,
_
X dQ =
_
XZ dP.
On continuera `a noter E lesperance par rapport `a P mais on notera E
Q
lesperance par rapport `a Q. Autrement dit E(X) =
_
X dP et E
Q
(X) =
_
X dQ.
Theor`eme 7.4.1 (Girsanov). Soit M une martingale locale nulle ne 0
sur (, (T
t
), P) et
Z
T
= e
M
T

1
2
M,M
T
.
On suppose que E(Z
T
) = 1 et on note Q la probabilite Z
T
P sur (, T
T
).
Alors pour toute martingale locale N sur (, (T
t
), P), le processus X
t
= N
t

N, M
t
, 0 t T, est une martingale locale sur (, (T
t
)
tT
, Q) de processus
croissant N, N
t
.
Preuve: Puisque dZ = ZdM et dN, Z = ZdN, M la formule dIto nous
montre que
d(XZ) = d(NZN, MZ) = ZdN+NdZ+dN, ZN, MdZZdN, M
= ZdN +NdZ N, MdZ
est une integrale stochastique par rapport `a une martingale locale, donc une
martingale locale. Soit (
n
) reduisant XZ en martingale et soit un temps
80 CHAPITRE 7. APPLICATIONS DE LA FORMULE DITO
darret borne par T, alors, en utilisant `a la fois que Z (cf. Lemme 7.2.3) et
(XZ)

n
sont des martingales,
E
Q
[X

] = E[X

Z
T
] = E[X

E(Z
T
[T

)]
= E[X

] = E[(XZ)

] = E[X
0
] = E
Q
[X
0
],
(car Z
0
= 1). Donc X

n
est une Q-martingale (Corollaire 4.3.8).
Il resulte de ce theor`eme que les semimartingales pour P et Q sont les
memes (jusquen T). De plus, le crochet pouvant sobtenir par une limite
p.s. ne depend que de la classe dequivalence des probabilites (puisqualors les
ensembles negligeables sont les memes). Par le meme argument, ou la propriete
caracteristique par exemple, on voit aussi que les integrales stochastiques sont
les memes pour P et pour Q.
Pour verier lhypoth`ese du theor`eme de Girsanov, on utilise :
Proposition 7.4.2 (Crit`ere de Novikov). Soit M martingale locale
nulle en 0, telle que E(e
M,M
T
2
) < +. Alors E(c(M)
T
) = 1.
Preuve: Montrons cette proposition uniquement sous lhypoth`ese un peu plus
forte que E(e
6M,M
T
) < +. Ecrivons
2(M
t

1
2
M, M
t
) = 2M
t
4M, M
t
+ 3M, M
t
Par Cauchy Schwarz, pour la suite de temps darret (
n
) bornant M, on a
E[c(M)
2
T
n
] E[exp(2(2M
T
n
4M, M
T
n
))]
1
2
E[exp(6M, M
T
n
)]
1
2
E[exp(6M, M
T
]
1
2
car E(c(2M
t
n
)) 1. Les v.a. c(M)
T
n
sont uniformement integrable et
desperance egale `a 1. Donc lesperance de la limite est aussi egale `a 1.
Remarque : On a aussi E(c(M)
T
[T
0
) = 1, que lon utilisera plus bas.
7.5. Cameron-Martin
Corollaire 7.5.1 (CameronMartin). Soit B un brownien sur
(, (T
t
), P) et
s
L
0
(B). On suppose que Z
T
= exp[
_
T
0

s
dB
s

1
2
_
T
0

2
s
ds]
verie E(Z
T
) = 1. Alors, pour 0 t T,

B
t
= B
t

_
t
0

s
ds est un
mouvement brownien sur (, (T
t
)
0tT
, Q) o` u dQ = Z
T
dP sur T
T
.
Preuve: dapr`es le crit`ere de Levy, il sut de voir que

B
t
est une martingale
locale de processus croissant t ce qui est immediat par le theor`eme.
7.5. CAMERON-MARTIN 81
7.5.1. Novikov. Le crit`ere suivant est tr`es utile :
Corollaire 7.5.2. Si il existe > 0 tel que
_
T
0
E(e

2
t
) dt < +, alors
E(Z
T
) = 1.
Preuve: Soit > 0. On choisit t
0
= 0 < t
1
< t
n
= T avec (t
i+1
t
i
) < et
on pose
i
= 1
[t
i
,t
i+1
[
. Alors, ecrivons, en utilisant que pour toute probabilite
p,exp
_
[f[ dp
_
exp [f[ dp (consequence de linegalite de Jensen),
E(e

T
0

i
(s)
2
ds
) = E(exp[
1
t
i+1
t
i
_
t
i+1
t
i
(t
i+1
t
i
)(s)
2
ds])
E(
1
t
i+1
t
i
_
t
i+1
t
i
exp(t
i+1
t
i
)(s)
2
ds)
1
t
i+1
t
i
_
t
i+1
t
i
Eexp (s)
2
ds
est ni, donc en appliquant la remarque suivant Novikov au processus
Z
t
i
+t
Z
t
i
, t
0, on voit que
E(
Z
t
i+1
Z
t
i
[T
t
i
) = 1.
Donc de proche en proche,
E(Z
T
) = E(Z
t
0
Z
t
1
Z
t
0

Z
t
n
Z
t
n1
) = 1.
CHAPITRE 8
EQUATIONS DIFF

ERENTIELLES
STOCHASTIQUES
8.1. Introduction
Notons M
pd
(R) lensemble des matrices p d `a coecients dans R. Soient
: R
p
M
pd
(R) et b : R
p
R
p
deux fonctions mesurables localement
bornees (i.e. bornees sur chaque boule) denies sur R
p
. Pour x R
p
, on
consid`ere lequation dierentielle stochastique (E.D.S.)
(16) dX
t
= (X
t
) dB
t
+b(X
t
) dt, X
0
= x R
p
;
Etant donne un mouvement Brownien d dimensionnel B sur (, (T
t
), P), muni
de sa ltration, on appelle solution (forte) de cette equation un processus
adapte continu X
t
tel que, en coordonnees, pour i = 1, , p, pour tout t 0,
X
(i)
t
= X
(i)
0
+
d

j=1
_
t
0

ij
(X
s
) dB
(j)
s
+
_
t
0
b
i
(X
s
) ds
Le cas dune equation `a coecients dependant du temps, du type
dX
t
= (t, X
t
) dB
t
+b(t, X
t
) dt
se ram`ene `a cette situation en travaillant dans R
p+1
, en rajoutant une com-
posante X
(0)
t
= t. Le lemme suivant est crucial.
Lemme 8.1.1 (Gronwall). Soit g : [0, T] R une fonction borelienne
bornee telle que, pour a, b 0,
g(t) a +b
_
t
0
g(s) ds, pour tout 0 t T.
Alors g(t) ae
bt
sur [0, T].
84 CHAPITRE 8. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
Preuve: On pose G(t) = a +b
_
t
0
g(s) ds. Alors g(t) G(t). Si g est continue,
G est une fonction derivable et
(e
bt
G(t))

= be
bt
G(t) +e
bt
G

(t) = be
bt
G(t) +be
bt
g(t) 0
donc e
bt
g(t) e
bt
G(t) G(0) = a.
Si g est seulement mesurable bornee, G est continue et verie
G(t) = a +b
_
t
0
g(s) ds a +b
_
t
0
G(s) ds
donc la meme conclusion est vraie.
8.2. Solutions fortes dE.D.S.
On consid`ere lequation (16). On dit que b et sont lipschitziennes si il
existe K > 0 tel que, partout,
[[b(x) b(y)[[ K[[x y[[, [[(x) (y)[[ K[[x y[[.
(on peut prendre comme norme, par exemple, [[(x)[[ = (

i,j

i,j
(x)
2
)
1/2
et
[[b(x)[[ = (

i
b
i
(x)
2
)
1/2
). Le theor`eme fondamental est le suivant :
Theor`eme 8.2.1. Soit B
t
, t 0, un (, (T
t
), P) mouvement brownien d
dimensionnel. On suppose que b et sont lipschitziennes. Etant donne x R
p
il existe un et un seul processus continu adapte X tel que pour tout t 0,
X
t
= x +
_
t
0
b(X
s
) ds +
_
t
0
(X
s
) dB
s
.
Preuve: En dimensions p = d = 1, pour simplier les notations uniquement.
1. Unicite : Si X, X

sont deux solutions. On localise avec = inft >


0; [X
t
X

t
[ n :
X
t
X

t
=
_
t
0
(b(X
s
) b(X

s
)) ds +
_
t
0
((X
s
) (X

s
)) dB
s
.
8.2. SOLUTIONS FORTES DE.D.S. 85
Puisque (a +b)
2
2a
2
+ 2b
2
, et en appliquant Cauchy Schwarz, si t T,
E([X
t
X

t
]
2
)
2E([
_
t
0
(b(X
s
) b(X

s
)) ds]
2
) + 2E([
_
t
0
((X
s
) (X

s
)) dB
s
]
2
)
2E((t )[
_
t
0
(b(X
s
) b(X

s
))
2
ds]) + 2E([
_
t
0
((X
s
) (X

s
))
2
ds])
2E(T[
_
t
0
(K[X
s
X

s
[)
2
ds]) + 2E([
_
t
0
(K[X
s
X

s
[)
2
ds])
2(T + 1)K
2
_
t
0
E([X
s
X

s
[)
2
ds.
Donc E[X
t
X

t
]
2
= 0 par le lemme de Gronwall. On en deduit que X = X

.
2. Existence : on utilise ce quon appelle le schema de Picard. On pose, pour
tout t 0, X
0
t
= x puis par recurrence
X
n
t
= x +
_
t
0
b(X
n1
s
) ds +
_
t
0
(X
n1
s
) dB
s
On a
X
n+1
t
X
n
t
=
_
t
0
(b(X
n
s
) b(X
n1
s
)) ds +
_
t
0
((X
n
s
) (X
n1
s
)) dB
s
Posons
g
n
(u) = E(sup
tu
[X
n+1
t
X
n
t
]
2
).
Si 0 u T,
g
n
(u) 2E(sup
tu
[
_
t
0
(b(X
n
s
) b(X
n1
s
)) ds]
2
) + 2E(sup
tu
[
_
t
0
((X
n
s
) (X
n1
s
)) dB
s
]
2
)
2E(T
_
u
0
(b(X
n
s
) b(X
n1
s
))
2
ds) + 8E([
_
u
0
((X
n
s
) (X
n1
s
))
2
ds)
2(T + 4)K
2
_
u
0
E([X
n
s
X
n1
s
[
2
) ds
2(T + 4)K
2
_
u
0
E(sup
sv
[X
n
s
X
n1
s
[
2
) dv = C
_
u
0
g
n1
(v) dv
pour C = 2(T + 4)K
2
. On en deduit par recurrence que,
g
n
(t)
C
n
t
n1
(n 1)!
g
0
(t)
or
g
0
(t) E(sup
sT
[X
1
s
x]
2
) E(sup
sT
(sb(x) +(x)B
s
)
2
)) Cte
86 CHAPITRE 8. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
On a donc
E(

n=0
sup
tT
[X
n+1
t
X
n
t
]
2
) =

n=0
g
n
(T) < +.
On en deduit que X
n
converge p.s. vers une solution X de lequation.
8.3. Localisation
On dit que b et sont localement lipschitziennes si pour tout N > 0 il existe
K
N
, K

N
> 0 tel que, si [[x[[ N, [[y[[ N,
[[b(x) b(y)[[ K
N
[[x y[[, [[(x) (y)[[ K

N
[[x y[[.
Cest le cas par exemple dans le cas fondamental o` u les fonctions b et sont
de classe C
1
, par le theor`eme des accroissements nis.
Theor`eme 8.3.1. On suppose que b et sont localement lipschitziennes.
Alors pour tout x R
p
il existe un temps darret + et un processus X
tel que pour tout t < , X
t
est solution de lE.D.S.,
dX
t
= (X
t
) dB
t
+b(X
t
) dt, X
0
= x.
Lorsque < +, limsup
t
[[X
t
[[ = +. Dans ce cas on dit quil y a
explosion.
Si, de plus il existe K > 0 tel que, pour tout x R
p
,
(17) [[(x)[[ +[[b(x)[[ K(1 +[[x[[)
alors = + p.s. et pour tout m, T > 0,
E(sup
tT
|X
t
|
m
) < +.
Preuve: Pour tout n > 0 on se donne une fonction
n
: R
p
R derivable,
egale `a 1 sur x; [[x[[ n et ` a 0 sur x; [[x[[ n+1. Les fonctions b
n
= b
n
et
n
=
n
sont lipschitziennes. Il existe donc une unique solution X
(n)
de
lE.D.S.
dX
(n)
t
=
n
(X
(n)
t
) dB
t
+b
n
(X
(n)
t
) dt, X
(n)
0
= x.
On prend n [[x[[. Soit
n
= inft 0; [[X
(n)
t
[[ n. Si m n , soit

n
m
= inft 0; [[X
(m)
t
[[ n. Alors b
m
(X
(m)
t
n
m
) = b(X
(m)
t
n
m
) et
m
(X
(m)
t
n
m
) =
(X
(m)
t
n
m
). Comme pour la preuve de lunicite dans la preuve du theor`eme 8.2.1
on en deduit que pour tout m n,
X
(m)
t
n
m
= X
(n)
t
n
8.3. LOCALISATION 87
en particulier
n
m

n
. On peut donc poser, d`es que
n
t,
X
t
= X
(n)
t
Soit = lim
n+

n
. On denit ainsi, pour t < , une solution X
t
de lE.D.S.
De plus si < ,
limsup
t

[[X
t
[[ limsup
n+
[[X

n
[[ = limsup
n+
n = +.
Supposons maintenant veriee la condition (17). Soit
= inft 0; |X
t
| n
avec n |x
0
|. Pour simplier les notations, en dimension 1, en prenant p pair
pour que |X
t
|
p
= X
p
t
, par Ito,
dX
p
t
= pX
p1
t
dX
t
+
p(p 1)
2
X
p2
t
dX, X
t
donc
X
p
t
= x
p
0
+
_
t
0
[p(X

s
)
p1
b(X

s
) +
p(p 1)
2
(X

s
)
2
(X

s
)
p2
]ds
+
_
t
0
p(X

s
)
p1
(X

s
)dB
s
Puisque (a +b +c)
2
4(a
2
+b
2
+c
2
) on en deduit que
X
2p
t
4x
2p
0
+ 4(
_
t
0
[p(X

s
)
p1
b(X

s
) +
p(p 1)
2
(X

s
)
2
(X

s
)
p2
]ds)
2
+4(
_
t
0
p(X

s
)
p1
(X

s
)dB
s
)
2
donc par Doob, et par Cauchy Schwarz, si 0 r T, pour un T > 0 xe,
E(sup
tr
X
2p
t
)
4x
2p
0
+ 4T(
_
r
0
[p(X

s
)
p1
b(X

s
) +
p(p 1)
2
(X

s
)
2
(X

s
)
p2
][
2
ds)
+16E(
_
r
0
[p(X

s
)
p1
(X

s
)]
2
ds
On peut trouver deux constantes , > 0 telles que, pour tout x R,
4T([px
p1
b(x)[ +[
p(p 1)
2
(x)
2
x
p2
][)
2
+ 16[px
p1
(x)[
2
+[x[
2p
On a donc, en posant = 4x
2p
0
+T,
E(sup
tr
X
2p
t
) +
_
r
0
E(X
2p
s
)ds
88 CHAPITRE 8. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
donc
E(sup
tr
X
2p
t
) +
_
r
0
E(sup
ts
X
2p
t
)ds
et par Gronwall,
E(sup
tr
X
2p
t
) e
r
.
Comme les constantes ne dependent pas de n (qui a deni ) on peut faire
tendre n vers linni pour obtenir que
E(sup
tr
X
2p
t
) e
r
.
En particulier X
t
est ni p.s. donc = +.
8.4. Propriete de Markov
Reprenons les hypoth`eses precedentes en supposant que = +, et notons
X
t
la solution de lE.D.S. (16) veriant X
0
= x
0
. Par construction, lapplica-
tion
(x
0
, ) R
p
X
t
(), 0 t C(R
+
, R
p
)
est mesurable lorsquon munit R
d
de la tribu B(R
+
) T

et lensemble
des fonctions continues C(R
+
, R
p
) de R
+
dans R
p
de la tribu engendree par les
applications coordonnees (f f(t)), par exemple. Puisque lon peut prendre
T

= (B
s
, s 0) , il existe une application mesurable
: R
p
C(R
+
, R
p
) C(R
+
, R
p
)
telle que
X
t
= (x
0
, B)(t).
De plus, par construction, Pour tout temps darret , ni p.s., on a
X

= (x, B

).
Par la propriete de Markov forte on sait que le processus

B
t
= B
t+
B

est
un mouvement brownien independant de T

, donc de X

. On voit facilement
en prenant dabord pour H des fonctions etagees que, pour tout H de L
0
(B),
_
t+

H
s
dB
s
=
_
t
0
H
s+
d

B
s
La relation
X
+t
= X

+
_
t+

b(X
s
) ds +
_
t+

(X
s
) dB
s
8.5. PROCESSUS DE MARKOV 89
= X

+
_
t
0
b(X
+s
) ds +
_
t
0
(X
+s
) d

B
s
montre que, si on pose

X
t
= X
+t
, pour tout t 0, alors

X = (X

,

B).
Puisque

B est independant de T

, on en deduit :
Theor`eme 8.4.1. (Propriete de Markov forte) Pour tout temps darret
ni p.s., pour toute fonction mesurable positive F denie sur C(R
+
, R
p
),
E(F(

X)[T

) = E
y
(F(X)), pour y = X

o` u le symbole E
y
signie que lon consid`ere la solution X telle que X
0
= y
(cest `a dire X(y)).
8.5. Processus de Markov
Posons, pour f mesurable positive sur R
p
, P
t
f(x) = E
x
(f(X
t
)). En prenant
F(X) = f(X
t
) et = s dans le theor`eme precedent on voit que
E(f(X
t+s
)[T
s
) = E
y
(f(X
t
)) = P
t
f(y), pour y = X
s
,
donc, en prenant lesperance,
P
t+s
f(x) = E
x
(f(X
t+s
)) = P
s
(P
t
f)(x)
cest la propriete dite de semigroupe. On dit que X est un processus de Markov
de semigroupe (P
t
). Par continuite des trajectoires en t = 0,
lim
t0
P
t
f(x) = f(x)
si f est continue bornee.
Denition 8.5.1. On appelle generateur du semigroupe (P
t
) loperateur
Lf deni par
Lf(x) = lim
t0
P
t
f(x) f(x)
t
pour les f pour lesquels cette limite a un sens.
Theor`eme 8.5.2. Soit X solution de lE.D.S.,
dX
t
= (X
t
) dB
t
+b(X
t
) dt
Alors X est un processus de Markov dont le generateur est donne par
Lf(x) =
1
2
p

i,j=1
a
i,j
(x)

2
f
x
i
x
j
(x) +
p

i=1
b
i
(x)
f
x
i
(x)
90 CHAPITRE 8. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
lorsque f est C
2
`a support compact o` u a =

. On dit que X est une diusion.


Preuve: Si on applique la formule dIto `a f(X
t
), on obtient,
f(X
t
) = f(X
0
) +

i,j
_
t
0
f
x
i
(X
s
)
i,j
(X
s
) dB
j
(s) +
_
t
0
Lf(X
s
) ds
Puisque f est `a support compact ,
f
x
i
(X
s
)
i,j
(X
s
) est borne, donc lintegrale
stochastique est une martingale, desperance nulle. On a alors
P
t
f(x) = f(x) +E
x
(
_
t
0
Lf(X
s
) ds) = f(x) +
_
t
0
P
s
Lf(x) ds
Donc
Lf(x) = lim
t0
P
t
f(x) f(x)
t
= lim
t0
1
t
_
t
0
P
s
Lf(x) ds = P
0
Lf(x) = Lf(x).
8.6. EDS et EDP
La formule dIto et le theor`eme precedent montrent quil y a un lien tr`es fort
entre les EDS et les operateurs diferentiels aux derivees partielles du second
ordre du type de L. Ceci permet en particulier de donner des solutions proba-
bilistes `a certaines equations aux derivees partielles (EDP), et reciproquement.
Donnons deux exemples.
8.6.1. Probl`eme de Dirichlet. Dans R
p
considerons un ouvert borne
D de fronti`ere D reguli`ere. Etant donne une fonction f : D R sur le bord
on consid`ere lequation
L(x) = 0, x D;
(x) = f(x), x D.
Donnons juste lidee du type de resultat auquel on peut sattendre :
Theor`eme 8.6.1. Sous de bonnes hypoth`eses..., la solution admet la
representation
(x) = E
x
(f(X

)), x D;
o` u X est la diusion associee `a (16) et = inft 0; X
t
D est suppose
desperance ni.
8.6. EDS ET EDP 91
Preuve: On consid`ere la solution X de (16) partant de x D. Par Ito,
(X
t
) = (x) +
_
t
0

i,j
_
t
0

x
i
(X
s
)
i,j
(X
s
) dB
j
(s) +
_
t
0
L(X
s
) ds
On prend lesperance et on tient compte du fait que L est nulle :
E((X
t
)) = E((x)) = (x)
et on fait tendre t vers linni, et on utilise que = f sur D :
(x) = lim
t+
E((X
t
) = E((X

)) = E(f(X

)).
8.6.2. Feynman-Kac. On se donne g : R
+
R
p
R , c : R
p
R avec
c 0. on consid`ere une solution u bornee `a derivees bornees de lequation
(18)
u
t
(t, x) = (L c(x))u(t, x) +g(t, x), u(0, x) = (x).
Theor`eme 8.6.2. La solution u(t, x) de (18) verie :
u(t, x) = E
x
[(X
t
) exp(
_
t
0
c(X
s
) ds)]+E
x
[
_
t
0
g(ts, X
s
) exp(
_
s
0
c(X
u
) du) ds]
o` u X est la diusion associee `a (16)
Preuve: On pose, t > 0 etant xe,
v(s, x) = u(t s, x), Z
s
= exp(
_
s
0
c(X
u
) du).
Appliquant la formule dIto, on a
d(v(s, X
s
)Z
s
) = v(s, X
s
)c(X
s
)Z
s
ds +Z
s
dv(s, X
S
)
= Z
v
s
+ (L c)v ds +Z
x
v dB
s
.
Vu que
x
v est bornee et que 0 Z
s
1, E(
_
t
0
Z
s

x
v (X
s
) dB
s
) = 0.
Dautre part
v
s
(s, x) =
u
s
(t s, x) et donc
v
s
(s, x) + (L c)v(s, x) =
u
s
(t s, x) + (L c)u(t s, x) = g(t s, x).
On a donc
E(v(t, X
t
)Z
t
) E(v(0, X
0
)Z
0
) = E(
_
t
0
g(t s, X
s
)Z
s
ds),
mais, puisque u(0, X
t
) = (X
t
),
E(v(t, X
t
)Z
t
)E(v(0, X
0
)Z
0
) = E(u(0, X
t
)Z
t
)u(t, x) = E((X
t
)Z
t
)u(t, x)
92 CHAPITRE 8. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
et lon obtient
u(t, x) = E((X
t
)Z
t
) +E(
_
t
0
g(t s, X
s
)Z
s
ds).

You might also like