You are on page 1of 132

Processus Alatoires

J EAN F RANOIS DELMAS B ENJAMIN JOURDAIN B ERNARD LAPEYRE

Table des matires


1 Rappels de Probabilits 1.1 Notion de tribu et de variables alatoires . . . . . . . . . 1.2 Esprance dune variable alatoire . . . . . . . . . . . . 1.3 Thormes de convergences pour les esprances . . . . . 1.4 Loi dune variable alatoire relle . . . . . . . . . . . . 1.5 Loi dun vecteur alatoire . . . . . . . . . . . . . . . . . 1.6 Convergence presque sre et thormes lis . . . . . . . 1.7 Convergence en loi dune famille de variables alatoires . 1.8 Autres type de convergence . . . . . . . . . . . . . . . . 1.9 Problme corrig . . . . . . . . . . . . . . . . . . . . . 1.10 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . 2 Vecteurs gaussiens - Mouvement Brownien 2.1 Vecteurs gaussiens . . . . . . . . . . . . . . . 2.2 Mouvement Brownien . . . . . . . . . . . . . 2.3 Vers une construction du mouvement brownien 2.4 Rgularit des trajectoires . . . . . . . . . . . . 2.5 Caractre gaussien du mouvement brownien . . 2.6 Exercices . . . . . . . . . . . . . . . . . . . . 2.7 Travail dirig : Test dadquation une loi . . . 3 Esprance conditionnelle 3.1 Tribus construites partir de variables alatoires 3.2 Notion desprance conditionnelle . . . . . . . 3.3 Cas dun couple gaussien . . . . . . . . . . . . 3.4 Travail dirig : Estimation bayesienne . . . . . 3.5 Exercices . . . . . . . . . . . . . . . . . . . . 7 7 8 10 12 13 16 18 20 22 29 33 33 37 39 41 42 44 46 49 49 50 54 56 58 61 61 62 64 65 67 69 75 77

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

4 Martingales temps discrets 4.1 Introduction la notion de martingale . . . . . . . . . . 4.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Un exemple gnrique de martingale . . . . . . . . . . . 4.4 Notion de temps darrt . . . . . . . . . . . . . . . . . . 4.5 Thorme de convergence des martingales . . . . . . . . 4.6 Convergence de Martingales et algorithmes stochastiques 4.7 Travail dirig : Temps de sortie dune marche alatoire . 4.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . 3

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

TABLE DES MATIRES

5 Chanes de Markov temps discret 5.1 Chane de Markov . . . . . . . . . . . . . . . . . . . . . . . 5.2 Calcul de lois . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Exemple dutilisation des chanes de Markov . . . . . . . . 5.4 Chanes de Markov et esprance conditionnelle . . . . . . . 5.4.1 Solution dun problme darrt optimal . . . . . . . 5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Travail dirig : Modlisation de lvolution dune population 5.7 Travail dirig : Algorithme de Hastings-Metropolis . . . . . 5.8 Travail dirig : Rcurrence de la marche alatoire simple . . 6 Proprit de Markov forte 6.1 Proprit de Markov gnrale . . . . . . . . . . . . 6.2 Introduction la proprit de Markov forte . . . . . 6.3 Tribu des vnements antrieurs un temps darrt 6.4 Proprit de Markov forte : premire approche . . . 6.5 Exercices . . . . . . . . . . . . . . . . . . . . . . 6.6 Contrle : Loi du supremum dune marche alatoire

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

79 79 82 84 86 88 92 95 97 98 101 101 102 102 105 107 109 111 112 112 113 114 115 115 116 118 121 121 122 122 123 125 127 129

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

7 Options europennes dans le modle de Cox-Ross-Rubinstein 7.1 Le modle . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 description . . . . . . . . . . . . . . . . . . . . . 7.1.2 liens entre les paramtres r, a et b . . . . . . . . . 7.1.3 le cas dune seule priode de temps : N = 1 . . . . 7.2 Portefeuilles, arbitrages . . . . . . . . . . . . . . . . . . . 7.2.1 portefeuille . . . . . . . . . . . . . . . . . . . . . 7.2.2 Absence dOpportunits dArbitrage . . . . . . . . 7.3 Pricing des options europennes . . . . . . . . . . . . . . 8 Mouvement brownien et martingales 8.1 Gnralits sur les processus temps continu . . . 8.2 Extensions de la dnition du mouvement brownien 8.3 Exemples de martingales browniennes . . . . . . . 8.4 Exemples dutilisation de la proprit de martingale 8.5 Proprit de Markov forte du mouvement brownien 8.6 Exercices . . . . . . . . . . . . . . . . . . . . . . 8.7 Travail dirig : Principe de rexion . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

Table des gures


1.1 1.2 1.3 1.4 1.5 3.1 4.1 4.2 5.1 5.2 8.1
1 2 Densit e- 2 x / 2 de N (0, 1) Fonction de rpartition . . . . . Loi de Yn . . . . . . . . . . . . Loi de Y2n Yn . . . . . . . . . Loi de Zn . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

13 13 25 25 26 50 62 75 85 85

Projection orthogonale sur HB . . . . . . . . . . . . . . . . . . . . . . . . . . Trajectoire de la marche alatoire symtrique . . . . . . . . . . . . . . . . . . Temps de sortie de [a, b] par une marche alatoire . . . . . . . . . . . . . . . . Histogramme de la loi du nombre maximum de F conscutifs aprs 100 tirages Probabilit davoir au moins n F conscutifs aprs 100 tirages . . . . . . . . .

Principe de rexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

Chapitre 1 Rappels de Probabilits


1.1 Notion de tribu et de variables alatoires
Dnition 1.1.1 Soit un ensemble et A un sous ensemble de lensemble P() des parties de . On dit que A est une tribu si cet ensemble est stable par les oprations ensemblistes naturelles, plus prcisment : stabilit par , et passage au complmentaire : si A et B appartiennent A, alors A B, A B et Ac appartiennent A. stabilit par runion et intersection dnombrables : si pour tout i N , Ai A alors i1 Ai et i1 Ai sont dans A. , A. Remarque 1.1.2 A reprsente une information disponible. Exemples A = {, } est la plus petite tribu. On lappelle la tribu triviale. Elle reprsente labsence totale dinformation. A = P() est une tribu appele tribu discrte qui reprsente linformation totale. Soit (B1 , . . . , Bn ) une partition de , alors : A = runion nie Bik , est une tribu. Soit = R, on appelle tribu borlienne la plus petite tribu contenant les intervalles de R. On la note B(R).
Remarque 1.1.3 Il est facile de vrier que lintersection dune famille quelconque de tribus reste une tribu. La tribu borlienne de R est donc dnie comme lintersection de toutes les tribus qui contiennent les intervalles de R. Comme tout ouvert de R sexprime comme union dnombrable dintervalles ouverts disjoints, la tribu borlienne contient tous les ouverts de R et tous les ferms par passage au complmentaire. En fait la tribu borlienne B(R) est strictement plus petite que lensemble de toutes les parties de R, mais la preuve de ce rsultat dlicat repose sur lutilisation de laxiome du choix.

La notion de tribu permet de prciser la dnition dune variable alatoire. Dnition 1.1.4 Une application X de dans R est une variable alatoire mesurable par rapport la tribu A, si pour tout B B(R) : { , X() B} = {X B} A. On dit alors que X est une variable alatoire A-mesurable. 7

Cours de Processus Alatoires

Dnition 1.1.5 Une probabilit P sur (, A) est une mesure positive de masse totale 1 dnie sur A. Cela signie que : pour tout A A, P(A) [0, 1] est dni, P() = 1, si pour tout entier i 1, Ai A et la famille des Ai est disjointe, alors : P(i1 Ai ) =
i0

P(Ai ).

Le triplet (, A, P) sappelle espace de probabilit. On voit que pour une variable alatoire A-mesurable on peut dnir P(X A) pour tout A, borlien de R. Remarque 1.1.6 En choisissant Ai = pour i n + 1, on obtient que si A1 , . . . , An sont disjoints P(n 1 Ai ) = n 1 P(Ai ). i= i= Dnition 1.1.7 On dit quune proprit est vraie presque srement, si cette proprit est vrie avec probabilit 1. On dit ainsi quune suite (Xn , n 1) converge presque srement si : P
n!+1

lim Xn existe

= 1.

1.2 Esprance dune variable alatoire


La notion desprance est la formalisation du concept de moyenne. Cas des variables alatoires positives Soit (, A, P) un espace de probabilit. Soit X une variable alatoire relle valeurs R+ {+} mesurable par rapport la tribu A (en plus de la dnition 1.1.4, on suppose simplement que {X = +} A). Notez bien que lon accepte que X puisse prendre la valeur + avec probabilit non nulle Si X prend un nombre ni de valeurs de R, {x1 , . . . , xn }, on dnit lesprance naturellement par
n

E(X) :=
i=1

xi P(X = xi ).

On tend lesprance a toute variable alatoire X positive en approchant X par la suite croissante (Xn , n 1) donne par
n2n -1

Xn =
k=0

k 1 2n

k+1 k X< n n 2 2

+ n1{X n} .

Notez que pour un n x on sait donner une valeur E(Xn ) (car Xn prend un nombre ni de valeurs) n2n k k+1 k E(Xn ) = P X< n + nP(X n). n n 2 2 2 k=0 On dnit alors lesprance E(X) par E(X) = lim E(Xn ).
n!1

Ch.1 Rappels de Probabilits

La limite existe forcment comme limite croissante de nombres rels positifs. Elle peut tre gale +. Dans tous les cas elle dnit lesprance de la variable alatoire positive X. Notez que si P(X = +) > 0, on a par construction pour tout n E(X) nP(X n) nP(X = +). On a donc E(X) = +. Par contrapose, on voit quune variable alatoire positive desprance nie est nie avec probabilit 1. Autrement dit E(X) < + implique P(X < +) = 1. (1.1)

Exercice 1 Vrier partir de la construction de lesprance que, si 0 X Y on a E(X) E(Y). Cas des variables alatoire de signe quelconque Si X est une v.a. relle de signe quelconque, on dit quelle est intgrable si E(|X|) < (E(|X|) est toujours dnie daprs ce qui prcde). Notez que 1.1 implique que |X| est nie presque srement. Comme X1X0 |X| et (X)1X<0 |X| On a, par croissance de lesprance, E(X1X0 ) E(|X|) < + et E((X)1X<0 ) E(|X|) < +. On peut donc dnir lesprance par la diffrence de deux nombres rels (nis !) E(X) = E(X1X0 ) E((X)1X<0 ). On admet les proprits suivantes de lesprance.

1. Linarit. Soient X et Y deux v.a. intgrables, soient , R. Alors la v.a. X + Y est intgrable, et on a E[X + Y] = E[X] + E[Y]. 2. E(1A ) = P(A). 3. Positivit. Soit X une v.a. relle positive p.s., cest--dire telle que P(X 0) = 1, alors on a E(X) [0, ]. En particulier E(X) 0. 4. Soient X et Y deux v.a. relles intgrables telles que X Y p.s., cest--dire telles que P(X Y) = 1, alors on a E(X) E(Y).

10

Cours de Processus Alatoires

1.3 Thormes de convergences pour les esprances


Les thormes suivants sont fondamentaux lorsque lon cherche justier proprement que :
n!1

lim E(Xn ) = E

n!1

lim Xn .

Cette galit bien que naturelle ne va pas de soi et est en gnral fausse, mme si on peut la justier dans de nombreux cas. Lesprance dune variable alatoire positive X a t construite comme la limite des esprances de variables alatoires Xn qui convergent vers X en croissant. Cest pourquoi le thorme suivant que nous admettrons est naturel.

Thorme 1.3.1 (Thorme de convergence monotone) Si (Xn , n 1) est une suite de variables alatoires croissantes positives, i.e. 0 Xn Xn+1 , on peut afrmer que : E( lim Xn ) = lim E(Xn ).
n!+1 n!+1

Noter que lon nimpose ni lintgrabilit des Xn ni celle de limn!+1 Xn , ce qui rend ce thorme trs pratique : rien ninterdit aux limites droite et gauche de lgalit de prendre la valeur +. Si lune vaut + cela implique que lautre vaut aussi +. Remarque 1.3.1 Une application directe de ce dernier rsultat montre que lon a toujours : E(|Xn |) = E
n0 n0

|Xn | .

Lorsque lon peut prouver que

n0

E(|Xn |) < + , on est donc sr que |Xn |


n0

< +.

La variable alatoire n0 |Xn | est donc nie presque srement et la srie n0 Xn est donc forcment (absolument) convergente. En particulier, Xn tends presque srement vers 0. On dmontrerait de faon identique que si, pour un entier p plus grand que 1 E(|Xn |p ) < +,
n0

alors limn!+1 Xn = 0. Ce rsultat (trs facile obtenir !) est lun des rares moyens qui permet de prouver la convergence presque sre. Le rsultat le plus important pour passer la limite dans les esprances est le

Ch.1 Rappels de Probabilits

11

Thorme 1.3.2 (Thorme de convergence domine (ou de Lebesgue)) On suppose que la suite (Xn , n 1) vrie convergence presque sre : P domination : pour tout n, ^ ^ |Xn | X, avec E(X) < +. On peut alors afrmer que limn!+1 Xn est intgrable et que : E( lim Xn ) = lim E(Xn ).
n!+1 n!+1 n!+1

lim Xn existe

= 1.

Nous allons montrer que le thorme de convergence domine dcoule du thorme de convergence monotone. Pour cela nous allons commencer par tablir le Thorme 1.3.3 (Lemme de Fatou) Soit (Xn )nN une suite de v.a. positives p.s. On a : E
n!1 kn

lim inf Xk

lim inf E(Xk ).


n!1 kn

Dmonstration : On pose Yn = infkn Xk . La suite (Yn ) est une suite croissante de variables positives. Par le thorme de convergence monotone, E(lim Yn ) = lim E(Yn ).
n n

Pour k n, Yn Xk et par croissance de lesprance, E(Xk ) E(Yn ). Donc infkn E(Xk ) E(Yn ). En passant la limite n + dans cette ingalit, on obtient lim inf E(Xk ) lim E(Yn ) = E(lim Yn ).
n kn n n

On peut alors dmontrer le thorme de convergence domine : ^ Dmonstration : On note X = limn Xn . Par passage la limite dans lingalit de domination |Xn | X, ^ ^ on obtient que |X| X, ce qui assure lintgrabilit de X. On a galement |X Xn | |X| + |Xn | 2X. ^ |X Xn | sont positives. Le lemme de Fatou implique alors Ainsi les variables Yn = 2X E ingalit qui se rcrit ^ 2E(X) E lim sup |X Xk |
n kn n!1 kn

^ lim inf (2X |X Xk |)

^ lim inf E(2X |X Xk |),


n!1 kn

^ 2E(X) lim sup E(|X Xk |).


n kn

Comme par convergence de Xn vers X, supkn |X Xk | converge presque srement vers 0 lorsque n +, on en dduit que lim sup E(|X Xk |) 0
n kn

12

Cours de Processus Alatoires

et donc que limn E(|X Xn |) = 0. On conclut en utilisant lingalit |E(X) E(Xn )| E(|X Xn |) qui sobtient par linarit et croissance de lesprance.

1.4 Loi dune variable alatoire relle


Dnition 1.4.1 Soit X une variable alatoire valeurs dans R. On dit que cette variable alatoire admet une densit p(x) (p(x) tant une fonction positive dintgrale sur R gale 1) si pour toute fonction f : R R borne ou positive, on a : E (f(X)) =
R

f(x)p(x)dx.

Remarque 1.4.2 Notons que la loi dune variable alatoire est caractrise par : sa fonction de rpartition : u R FX (u) = P (X u) , ou sa fonction caractristique : u R X (u) = E eiuX . Si X admet la densit p, FX (u) =
-1
u

p(x)dx et X (u) =

eiux p(x)dx.

Exemple de loi : la loi gaussienne Un exemple de loi densit sur R trs utile est la loi gaussienne. On dit que G suit une loi gaussienne centre rduite si pour toute fonction f borne : E (f(G)) = La fonction caractristique de cette loi vaut : E eiuG = eu2 2 x2 dx f(x)e- 2 . 2 R

la fonction de rpartition nadmet pas de formule explicite et on la note souvent N :


x

N(x) =

-1

e-

u2 2

du . 2

Ch.1 Rappels de Probabilits

13

0.5

0.0 -5 -4 -3 -2 -1 0 1 2 3 4 5

0 -5 -4 -3 -2 -1 0 1 2 3 4 5

1 2 F IG . 1.1 Densit e- 2 x / 2 de N (0, 1)

F IG . 1.2 Fonction de rpartition

On dit que X suit une loi gaussienne de moyenne m et dcart-type (ou de variance1 2 ) si, pour toute fonction positive : E (f(X)) =
+1 -1

f(x)e-

(x-m)2
22

dx . 2

On vrie que E(X) = m et Var(X) = 2 et lon dit que X suit la loi N (m, 2 ). Notons que si X suit une loi gaussienne de moyenne m et de variance 2 , alors G = (X m)/ est une gaussienne de moyenne 0 et de variance 1 (on dit aussi centre rduite). On voit donc que lon peut toujours crire une gaussienne (m, 2 ) sous la forme X = m + G, G tant une gaussienne centre rduite. Cette remarque est souvent utile pour simplier certains calculs. Il est facile dexpliciter la fonction caractristique dune gaussienne (m, 2 ) en effet : E eiuX = E eiu(m+G) = eium E eiuG = eium e(u)2
2 u2 = eiuE(X) e- 2 Var(X) .

1.5 Loi dun vecteur alatoire


Dnition 1.5.1 Soit X = (X1 , . . . , Xd ) une variable alatoire prenant ses valeurs dans Rd . On dit que X admet une densit p(x1 , . . . , xd ), si pour toute fonction positive ou borne f de Rd dans R on a : E (f(X1 , . . . , Xd )) =
Rn

f(x1 , . . . , xd )p(x1 , . . . , xd )dx1 . . . dxd .

La densit dun vecteur alatoire permet de calculer la densit de chacune de ses composantes grce la formule des densits marginales : Proposition 1.5.2 Si le vecteur alatoire X = (X1 , . . . , Xd ) possde la densit p(x1 , . . . , xd ) alors pour tout 1 i d, Xi possde la densit pi (xi ) obtenue partir de p en intgrant sur les autres variables : pi (xi ) =
1

Rd-1

p(x1 , . . . , xd )dx1 . . . dxi-1 dxi+1 . . . dxd .

La variance dune variable alatoire est donne par : Var(X) = E(X2 ) E(X)2 = E (X E(X))
2

14

Cours de Processus Alatoires

La fonction de rpartition dun vecteur est rarement utilise, mais on peut dnir la fonction caractristique dun vecteur par, pour tout u = (u1 , . . . , ud ) vecteur de Rd : X (u) = E eiu:X =
Rn

eiu:x p(x)dx,

avec u.x = u1 x1 + + ud xd et dx = dx1 . . . dxd . La fonction caractristique caractrise la loi du vecteur X : on peut montrer que si X et Y sont deux vecteurs valeurs dans Rd tels que pour tout u Rd : E eiu:X = E eiu:Y , alors la loi de X est identique celle de Y et donc pour toute fonction relle positive ou borne f sur Rd : E (f(X)) = E (f(Y)) . La notion dindpendance est centrale en probabilit. Cest la faon naturelle de spcier un modle dvolution. Commenons par dnir lindpendance de deux variables alatoires. Dnition 1.5.3 On dit que deux variables alatoires relles X et Y sont indpendantes, si lon a lune des deux proprits quivalentes suivantes pour tout A et B ensemble (de la tribu borlienne pour les amateurs !) P (X A, Y B) = P (X A) P (Y B) , Pour tout f et g fonctions bornes (et mesurable pour les mmes amateurs) de R dans R E (f(X)g(Y)) = E (f(X)) E (g(Y)) . On peut gnraliser cette dnition n variables alatoires. Dnition 1.5.4 On dit que n variables alatoires relles (X1 , . . . , Xn ) sont indpendantes, si lon a lune des deux proprits quivalentes suivantes pour tout ensemble A1 , . . . , An P (X1 A, . . . , Xn An ) = P (X1 A) . . . P (Xn An ) , Pour tout (fk , 1 k n) fonctions bornes de R dans R E (f1 (X1 ) . . . fn (Xn )) = E (f1 (X1 )) . . . E (fn (Xn )) . Dnition 1.5.5 On dit que (Xn , n 0) est une suite de variables alatoires indpendantes si, tout vecteur de longueur ni est constitu de variables alatoires indpendantes. On peut caractriser lindpendance dun vecteur alatoire sur la densit de la loi. Le rsultat est exprim pour un couple de variables alatoires mais stend sans difcult au cas vectoriel. Proposition 1.5.6 Un couple (X, Y) de variables alatoires relles admettant une loi de densit p(x, y), est un couple de variables alatoires indpendantes si et seulement si, on peut mettre p sous la forme p(x, y) = p1 (x)p2 (y), p1 et p2 tant deux densits de loi valeurs relles. En outre, X admet alors la densit p1 et Y la densit p2 .

Ch.1 Rappels de Probabilits

15

Dmonstration : Supposons dabord que p(x, y) = p1 (x)p2 (y). Soit f et g deux fonctions bornes E (f(X)g(Y)) = f(x)g(y)p(x, y)dxdy = f(x)g(y)p1 (x)p2 (y)dxdy.

R2

R2

En utilisant le thorme de Fubini pour des intgrales relles on obtient E (f(X)g(Y)) =


R

f(x)p1 (x)dx
R

g(y)p2 (y)dy.

En faisant g = 1 on obtient E (f(X)) =


R

f(x)p1 (x)dx,

et de mme E (g(Y)) =
R

g(y)p2 (y)dy.

On a nalement E (f(X)g(Y)) = E(f(X))E(g(Y)). X et Y sont donc indpendantes. Rciproquement supposons que X et Y soient indpendantes. Commenons par construire p1 et p2 . Pour cela, notons que, en toute gnralit, on a E(f(X)) = f(x)p(x, y)dxdy =
R

R2

f(x)
R

p(x, y)dy dx.

Ce qui prouve que la loi de X admet une densit donne par p1 (x) =
R

p(x, y)dy.

De mme la densit de la loi de Y est donne par p2 (y) =


R

p(x, y)dx.

Pour simplier la preuve, on supposera que p, p1 et p2 sont des fonctions continues. On a P (X [x, x + ], Y [y, y + ]) = P (X [x, x + ]) P (Y [y, y + ]) . Donc :
x+ x y+ y 2 x+ x y+ y

p(u, v)dudv =

p1 (u)du

p2 (v)dv.

On peut alors diviser par

et passer la limite lorsque

tend vers 0, pour obtenir, pour tout x, y :

p(x, y) = p1 (x)p2 (y).

16

Cours de Processus Alatoires

Simulation dune gaussienne centre rduite Nous allons voir comment lon peut simuler des variables alatoires suivant la loi gaussienne centre rduite. Pour cela, appelons G1 , G2 deux gaussiennes centres rduites indpendantes et notons R le rayon polaire : R = r(G1 , G2 ) = G2 + G2 , 1 2

et = (G1 , G2 ), langle polaire (il est plus prudent de ne pas expliciter la formule de langle polaire !). Soit f une fonction positive, on a : E (f(R, ) =
x f( (x, y), (x, y))er 2 +y2 2

R2

1 dxdy. 2

Un changement de variable polaire permet alors dafrmer que : E (f(R, ) =


r>0;[0;2[

f(r, )e- 2

r2

1 rdrd. 2

Ceci permet didentier la loi du couple (R, ) comme tant la loi de densit : 1{r > 0} re-r
2 =2

1{ [0, 2[} 2

On en dduit que les deux variables alatoires R et sont indpendantes. suit une loi uniforme sur [0, 2[ et un changement de variable simple (exercice) montre que R2 suit une loi exponentielle de paramtre 1/2. On en dduit que : 2 , U1 = e-R =2 et U2 = 2 sont deux variables alatoires indpendantes suivant des lois uniformes sur [0, 1]. Il est facile dexprimer G1 et G2 laide de U1 et U2 : G1 = G2 = 2 log(U1 ) cos(2U2 ) 2 log(U1 ) sin(2U2 ).

Ceci conduit la mthode classique de simulation dune variable alatoire gaussienne : tirer U1 et U2 indpendantes selon une loi uniforme sur [0, 1], renvoyer 2 log(U1 ) sin(2U2 ).

1.6 Convergence presque sre et thormes lis


Rappelons lun des thormes fondamentaux du calcul des probabilits : la Loi Forte des Grand Nombres. Thorme 1.6.1 Soit (Xi , i 1) une suite de variables alatoires indpendantes suivant toutes la mme loi quune variable alatoire X. On suppose que E(|X|) < +. Alors, pour presque tout : 1 (X1 () + + Xn ()). E(X) = lim n!+1 n Ce rsultat est dune importance centrale en statistique et les mthodes de Monte-Carlo en sont une application directe.

Ch.1 Rappels de Probabilits

17

Remarque 1.6.1 La condition que E(|X|) < + est videmment essentielle. On vrie, par exemple, que si (Xi , i 1) est une suite de variables alatoires indpendantes suivant une loi de Cauchy standard, cest dire de densit donne par : 1 , (1 + x2 ) alors la loi de (X1 + + Xn )/n est gale celle de X1 (on pourra dmontrer ce rsultat en exercice, en admettant que la fonction caractristique de la loi de Cauchy est donne par E(eiuX1 ) = e-juj ). On peut alors en dduire que (X1 + + Xn )/n ne peut converger vers une constante. Application On considre un modle dvolution du cours dune action en temps discret. Entre linstant n et linstant n + 1, on suppose le cours peut soit monter en tant multipli par un facteur > 1 soit baisser en tant multipli par un facteur ]0, 1[ mais que sa moyenne reste constante. Pour formaliser cette ide, on se donne une suite (Ti , i 1) de variables alatoires i.i.d. valeurs dans {, } desprance E(Ti ) = 1. Un rapide calcul montre que P(Ti = ) = p = Le cours de laction linstant n est
n

et P(Ti = ) = p = 1 p .

Sn = T1 T2 . . . Tn =
i=1

Ti .

Les variables ln(Ti ) valeurs dans {ln(), ln()} sont intgrables. Comme pour tout x > 0 diffrent de 1, ln(x) < 1 x, E(ln(Ti )) = p ln() + p ln() < p (1 ) + p (1 ) = 1 E(Ti ) = 0.
1 En appliquant la loi forte des grands nombres, on obtient que n n 1 ln(Ti ) converge presque i= srement vers E(ln(T1 )) < 0 lorsque n +. Donc n 1 ln(Ti ) = ln(Sn ) tend presque i= srement vers . Par composition avec la fonction exponentielle, on conclut que Sn converge presque srement vers 0. Mais par indpendance des Ti , E(Sn ) = n 1 E(Ti ) = 1. On a donc i=

1 = lim E(Sn ) > E(lim Sn ) = 0.


n n

Cet exemple naturel montre que lesprance de la limite nest pas toujours gale la limite des esprances. Il ne faut toutefois pas se dcourager lorsque lon doit calculer lesprance dune limite. Les thormes de convergence monotone et surtout de convergence domine permettent de conclure dans bien des cas. Lexemple illustre simplement la ncessit de vrier lhypothse de positivit et de croissance pour appliquer le thorme de convergence monotone et lhypothse de domination pour appliquer celui de convergence domine. Ici la suite Sn nest pas croissante, ce qui explique que le thorme de convergence monotone ne sapplique pas. Et comme la conclusion du thorme de convergence domine est inrme, on en dduit que lhypothse de domination nest pas vrie : E(supn Sn ) = +. Enn on peut noter que lingalit donne par le Lemme de Fatou est stricte.

18

Cours de Processus Alatoires

1.7 Convergence en loi dune famille de variables alatoires


Dnition 1.7.1 Soit (Xn , n 1) une suite de variables alatoires relles, on dit que cette suite converge en loi vers une variable alatoire X si, pour toute fonction continue et borne f : R R, lim E (f(Xn )) = E (f(X)) .
n!+1

On peut montrer le rsultat, important mais dlicat prouver, suivant. Proposition 1.7.2 (Xn , n 1) converge en loi vers une variable alatoire X si et seulement si, pour tout rel u : lim E eiuXn = E eiuX .
n!+1

Nous pouvons maintenant rappeler lun des rsultats fondamentaux du cours de probabilit de 1re anne : le thorme de la limite centrale. Thorme 1.7.1 Soit (Xn , n 1) une suite de variables alatoires indpendantes suivant toutes la mme loi quune variable alatoire X. On suppose que E(X2 ) < +. On note 2 la variance de X, alors : n 1 (X1 + + Xn ) E (X) n converge en loi vers G,

G tant une variable alatoire suivant une loi gaussienne centre rduite.
Dmonstration : Quitte retrancher E(X) X, on se ramne au cas o X est une variable alatoire de moyenne nulle. Notons alors : n (u) = E e
X ++X iu 1 n n

En utilisant le fait que les Xn sont indpendantes et de mme loi, on obtient : n (u) = E e
X iu n

.
X iu n

Puis, en faisant un dveloppement de Taylor lordre 2 en 0 de u E e remarque 1.7.3 pour un argument prcis) : E e avec limn!+1
n
X iu n

, on obtient (voir la

u2 1 u 1 = 1 + E(X) E(X2 ) + n n n 2

n.

= 0. Finalement, comme E(X) = 0, E(X2 ) = 2 et E e


X iu: n

=1

1 2 2 1 u + 2n n

n.

Donc :
n!+1

lim n (u) = lim

n!+1

1 2 2 1 u + 2n n

n n

= e-

2 u2 2

Ceci prouve le rsultat annonc grce la proposition 1.7.2. Remarque 1.7.3 Pour justier en dtail le dveloppement limit, il faut vrier que la fonction (u) dnie par : (u) = E eiuX ,

Ch.1 Rappels de Probabilits

19

est 2 fois diffrentiable, les drives secondes partielles tant continues. Pour ceci, on commence par prouver que, comme E(|X|) < +, on a : (u) = E iXeiuX . Puis, comme E(|X|2 ) < +, on a dduit que : (u) = E X2 eiuX , et lon peut aussi prouver que (u) est continue en utilisant le thorme de convergence domine.

1 Notons n = n (X1 + + Xn ) E (X). Considrons la fonction f(x) = 1{x [a, b]} . Cette fonction nest pas continue aux points a et b. Mais comme P(G = a) = P(G = b) = 0, on peut tendre (exercice difcile) le rsultat du thorme prcdent pour obtenir, que pour tout a<b: b x2 dx lim P a n b = e- 2 . n!+1 n n 2 a On prend, alors, b = a et on choisit a de faon avoir :
x2 dx e- 2 = p proche de 1. 2 -a

Les valeurs classiques de p sont p = 0.95 (qui correspond a = 1.96) et p = 0.99 (a = 2.6). Dans les applications pratiques on oublie le passage la limite pour afrmer que  P | n | 1.96 n est de lordre de 0.95. On a donc avec une probabilit proche de 0.95 que : E (X) 1 1 (X1 + + Xn ) 1.96 , (X1 + + Xn ) + 1.96 n n n n

Application la mthode de Monte-Carlo On cherche calculer E(X). On suppose que E(X2 ) < + et que, de plus, lon sait simuler une suite de variables alatoires (Xn , n 1) (cela signie que lon peut considrer les variables alatoires comme indpendantes et tires selon la loi de X). lissue de n tirages on va estimer la moyenne m par la moyenne empirique m dnie par : 1 m = (X1 + + Xn ) . n Quelle est la prcision de cette estimation ? Le thorme de la limite centrale nous dit que : P m [m 1.96 , m + 1.96 ] n n 0.95.

Lcart-type nest videmment pas explicitement connu lorsque lon utilise une mthode de Monte-Carlo et lon doit donc trouver une mthode destimation pour . La mthode habituellement utilise est la suivante, on pose : n 2 = 1 n1
n

(Xi m)2 =

i=1

1 n1

X2 i
i=1

n m2 . n1

20

Cours de Processus Alatoires

n On peut alors montrer (exercice facile) que E(2 )2 (on dit que lon a affaire un estimateur 2 n sans biais de ) et que, presque srement, limn!+1 2 = 2 (on dit que lestimateur est convergent). Dans la pratique, au cours de la simulation, en plus de stocker la somme des Xi on stocke galement la somme i X2 de leurs carrs (cela ne cote pratiquement rien de plus) pour cali n culer 2 laide de sa seconde expression ci-dessus. On remplace par n dans les extrmits de lintervalle et lon afrme que (bien que lon ait rajout une autre source derreur) : n n P m [m 1.96 , m + 1.96 ] n n 0.95.

Exercice 2 Implementer la mthode de Monte-Carlo qui vous est suggre avec G une gaussienne centre rduite et X = 1{G } pour = 0, 1, 2, . . . , 5. Comment volue lerreur relative de la mthode ? Exercice 3 Calculer par simulation (ou au moins essayer !) E eG pour = 1, 2, 5. Prciser chaque fois lintervalle de conance. Que constatez vous ? Comment interprter ce rsultat.

1.8 Autres type de convergence


Dnition 1.8.1 On dit quune suite de v.a. (Xn )nN converge en probabilit vers une v.a. X si et seulement si pour tout > 0,
n!1

lim P(|Xn X| > ) = 0.

Proposition 1.8.2 La convergence p.s. entrane la convergence en probabilit. Dmonstration : Soit (Xn , n N ) une suite de v.a qui converge p.s. vers X. La suite de v.a. discrtes positives (1jXn -Xj>" )nN converge p.s. vers 0. De plus elle est uniformment borne par 1. Par le thorme de convergence domine, on en dduit que :
n!1

lim E 1jXn -Xj>" = lim P(|Xn X| > ) = E lim 1jXn -Xj>" = 0.


n!1 n!1

Proposition 1.8.3 De toute suite qui converge en probabilit, on peut extraire une sous-suite qui converge presque srement. Dmonstration : Soit (Xn )nN une suite de v.a. qui converge en probabilit vers X. On dnit la sous-suite de manire suivante : (1) = 1 et (n + 1) = inf p > (n) tel que P(|Xp X| > 1 1 ) 2 n n .

La suite (Xn ) converge en probabilit, cela assure que la sous-suite (n) est bien dnie. On en dduit, par convergence monotone, que E
n1

1|X(n) -X|> 1

1 < . n2 n1

Ch.1 Rappels de Probabilits

21

1 dpend de ). Donc, partir dun certain rang, X(n) X < n . En particulier, cela implique que p.s. limn!1 X(n) = X. Donc la sous-suite (X(n) ) converge p.s. vers X.

Cela implique que p.s. n1 1|X(n) -X|> 1 < . Les termes dune srie convergente tendent n vers 0. Donc p.s. limn!1 1|X(n) -X|> 1 = 0. Comme la fonction indicatrice ne prend que deux n valeurs 0 ou 1, cela entrane que p.s. 1|X(n) -X|> 1 () est nul partir dun certain rang n0 (qui
n

Proposition 1.8.4 La convergence en probabilit implique la convergence en loi. Remarque 1.8.5 En fait, on a le rsultat plus fort du Paul Lvy : soit (Xn , n N ) une suite de v.a. relle (vectorielle valeurs dans Rd ). Si Xn converge vers une fonction continue en 0, alors est la fonction caractristique dune v.a. vectorielle X et la suite (Xn , n N ) converge en loi vers X. Remarque 1.8.6 Il existe un rsultat similaire pour les tranformes de Laplace. Proposition 1.8.7 Soit (Xn , n N ) une suite de v.a. qui converge en loi vers la loi dune v.a X. Soit f une fonction valeurs relles, mesurable borne. Soit A lensemble des points de discontinuit de f (A B(Rd )). Si P(X A) = 0, alors
n!1

lim E [f(Xn )] = E [f(X)] .

Remarque 1.8.8 On peut galement montrer que la suite (Xn , n N ) converge en loi vers X si et seulement si la suite de fonctions de rpartition FXn (x) converge presque partout vers la fonction de rpartition de X.

22

Cours de Processus Alatoires

1.9 Problme corrig


1. Soit X une variable alatoire suivant une loi de Cauchy rduite, cest dire suivant la loi dx . (1 + x2 ) Calculer la fonction de rpartition de X, note F.
La fonction de rpartition de X est donn, pour tout x rel, par F(x) = do :
1 F(x) =  Arc tan(x) + 1 2

du 2 -1 (1 + u )

2. Vrier que F est une bijection de R dans ]0, 1[. On note F-1 son inverse et lon considre une variable alatoire U de loi uniforme sur [0, 1]. Quelle est la probabilit que U vaille 0 ou 1 ? Montrer que F-1 (U) suit la mme loi que X. En dduire une mthode de simulation selon la loi de Cauchy.
La fonction F est dnie sur R et prend ses valeurs dans ]0, 1[, de plus elle est strictement croissante puisque sa drive est la densit de probabilit de X qui est strictement positive. F est donc bien une bijection de R dans ]0, 1[. Lensemble {0, 1} est un ensemble de mesure nulle pour la mesure de Lebesgue, et donc : P(U = 0) = 0 P(U = 1) = 0 De ce qui prcde, F-1 (U) est bien dnie. On va montrer que X et F-1 (U) ont mme fonction de rpartition (elles auront donc mme loi). La fonction de rpartition de F-1 (U) est pour tout x rel : P(F-1 (U x) = P(U F(x)), puisque F est une bijection croissante de R dans ]0, 1[. On a donc P(U F(x)) =
F(x) 0

du = F(x).

F-1 (U) et X ont donc mme loi. Pour simuler la loi de Cauchy il suft de simuler une variable alatoire de loi uniforme sur [0, 1] et dappliquer la fonction F-1 (x) = tan x 1 . Les probabilits de 2 tirer 0 ou 1 tant nulle, il ny a pas de problme.

3. Soit V une variable alatoire qui vaut 1 ou 1 avec probabilit 1/2 et Z une variable alatoire qui suit une loi exponentielle de paramtre 1. Quelle est la loi de VZ ? Calculer sa fonction caractristique. En dduire, en utilisant la formule dinversion de la transformation de Fourrier, que : +1 dx = e-juj . eiux (1 + x2 ) -1

Ch.1 Rappels de Probabilits

23

Calculons la loi de VZ. On a pour toute f fonction borne E(f(VZ)) = E(f(Z)1{V = 1} ) + E(f(Z)1{V = 1} ) +1 +1 = 1 0 f(u)e-u du + 1 0 f(u)e-u du 2 2 +1 = 1 -1 f(u)(1fu<0g eu + 1fu>0g e-u )du 2 Do VZ suit la loi 1 -juj e du. 2 La fonction caractristique de VZ est alors pour tout u rel :
+1 1 iux-jxj dx -1 2 e

= = =

+1 1 iux-x e dx + 2 0 1 1+iu 1-iu + 1+u2 ) ( 2 1+u2 1 1+u2

-1 2 e

1 iux+x

dx

On en dduit donc en utilisant linversion de la transformation de Fourrier que +1 eiux 1 -juj do la fonction caractristique de la loi de Cauchy r-1 1+x2 dx = 2 2 e duite : eiux dx = e-juj (1 + x2 ) -1
+1

4. Soient X et Y deux variables alatoires indpendantes suivant des lois de Cauchy de paramtres respectifs a et b. Calculer la loi de X + Y.
Si les variables alatoires X et Y sont indpendantes, on peut calculer la fonction caractristique X+Y de X + Y pour tout u rel, par : X+Y (u) = = = = E(eiu(X+Y ) ) E(eiuX eiuY ) E(eiuX )E(eiuY ) X (u)Y (u)

Or, pour tout rel u la fonction caractristique dune variable alatoire de loi de Cauchy de paramtre est e-jjjuj avec la question prcdente. Do, X+Y (u) = e-(jaj+jbj)juj . X + Y suit une loi de Cauchy de paramtre |a| + |b|.

5. Soit (Yn , n 1), une suite de variables alatoires relles convergeant presque srement vers une variable alatoire Z. Montrer, en utilisant le thorme de Lebesgue, que lon a, pour tout > 0 lim P (|Y2n Yn | ) = 0.
n!+1

Soit un rel strictement positif. On considre la variable alatoire Un = 1jY2n -Yn j" . On peut crire pour tout entier n, |Y2n Yn | = |Y2n Z + Z Yn | |Y2n Z| + |Z Yn |. Or, on sait que la suite (Yn , n 1) converge vers Z presque srement. On en dduit que la suite (|Y2n Yn |, n 1) converge presque srement vers 0 et donc quil existe un rang N avec N entier naturel dpendant de tel que pour tout n > N on a Un = 0 presque srement.

24

Cours de Processus Alatoires

Ainsi, (Un , n 1) converge presque srement vers 0. De plus, pour tout entier naturel n on a Un 1 avec 1 qui est une variable alatoire dsprance nie gale 1. On peut donc appliquer le thorme de convergence de Lebesgue :
n!+1

lim E(Un ) = E( lim Un ).


n!+1

Do :
n!+1

lim P(|Y2n Yn | ) = 0.

6. Soit (Xn , n 1) une suite de variables alatoires indpendantes suivant une loi de Cauchy de paramtre 1. On considre la suite Yn = X1 + X2 + + Xn . n

Calculer la loi de Y2n Yn . La suite des Yn converge telle en loi ? presque srement ?
Pour tout entier n > 0, Y2n Yn = (X1 + + Xn ) + (Xn+1 + + X2n ) . 2n

Comme X1 , X2 , . . . , Xn , Xn+1 , . . . , X2n sont des variables alatoires indpendantes suivant des lois de Cauchy, on peut faire comme dans la question 3 et montrer que pour tout entier n : la loi de Y2n Yn qui est une loi de Cauchy de paramtre 1. De la mme manire on peut dire que pour tout n, Yn suit une loi de Cauchy de paramtre 1. Yn converge donc en loi vers une une loi de Cauchy de paramtre 1. Si Yn convergeait presque srement vers une variable alatoire Z, alors avec la question 5) on aurait lim P(|Y2n Yn | 1) = 0,
n!+1

or Y2n Yn suit une loi de Cauchy de paramtre 1 et donc pour tout entier naturel n, P(|Y2n Yn | 1) =

jxj1

dx , (1 + x2 )

est indpendant de n et est strictement positif. Il y a alors une contradiction et donc : Yn ne converge pas presque srement.

7. Montrer que la suite (Zn , n 1) dnie par Zn = |X1 | + |X2 | + + |Xn | /n

converge presque srement et crire sa limite sous forme dune intgrale.


On va vrier que lon peut utiliser la loi des grands nombres pour la variable alatoire |Xi |. Pour cela notons que, comme |x| est une fonction positive on a : E( |Xi |) =
R

|x|dx . (1 + x2 )

Ch.1 Rappels de Probabilits

25

Comme, pour x grand : |x| 1 3=2 , 2) (1 + x |x|

E( |Xi |) < +. La loi des grands nombres permet alors dafrmer que (Zn , n 1) converge presque srement vers
R (1+x2 ) .

jxjdx

8. Vrier par simulation que Yn diverge (p.s.) et que Zn converge (p.s.).

On commence voir pour 3000 tirages de Y40000 et de Y40000 Y20000 que Yn (gure 1.3) et Y2n Yn (gure 1.4) suivent une loi de Cauchy de paramtre 1 :

F IG . 1.3 Loi de Yn

F IG . 1.4 Loi de Y2n Yn

Pour 3000 tirages de Z40000 , on voit un pic (gure 1.5) se former :

26

Cours de Processus Alatoires

F IG . 1.5 Loi de Zn

Ch.1 Rappels de Probabilits

27

Exercice 2
Soient f et g deux fonctions de R dans R+ telles que f(x) et g(x) soient les densits de lois de variables alatoires valeurs dans R. On suppose de plus que, pour tout x R f(x) kg(x). Soient (Y1 , Y2 , , Yn , ) une suite de variables alatoires indpendantes suivant la loi de densit g(x) et (U1 , U2 , , Un , ) une suite de variables alatoires indpendantes suivant une loi uniforme sur [0, 1] indpendante de la suite des Yi . On pose N = inf{n 1, kUn g(Yn ) < f(Yn )}. 1. Dmontrer que N est ni presque srement et suit une loi gomtrique. Quelle est sa moyenne ?
Commenons par remarquer que p = P(kUn g(Yn ) < f(Yn )) ne dpend pas de n (cette probabilit sexprime en fonction de la loi du couple (Yn , Un ) qui ne dpend pas de n). De plus en utilisant lindpendance de Yn et Un , on peut aussi crire p sous la forme p=
1 0

1fkug(x)<f(x)g g(x)dudx.

Commenons par montrer que p est non nul. Pour cela, remarquons que si A = {x R, g(x) = 0}, on a p= Do p=
R=A
1 0

R=A
f(x) kg(x)

1fkug(x)<f(x)g g(x)dudx. f(x) dx. k

du g(x)dx =
R=A

En tenant compte de lingalit f(x) kg(x), on obtient pour tout x de A, f(x) = 0. x 1 Do p = R f(k ) dx. On en dduit, comme f est une densit, que p = k . p est en particulier strictement positif. Pour tout entier non nul n, on a (en utilisant les proprits dindpendance) P(N n) = P(k, 1 k < n, kUk g(Yk ) f(Yk ))
n

=
k=1

P(kUk g(Yk ) f(Yk )) = (1 p)n .

Comme p > 0 on obtient (par - additivit de la probabilit P ... ou par convergence monotone, ... ou par convergence domin) : P(N = +) = lim P(N n) = 0.
n!+1

N est donc ni presque srement. Pour tout n entier naturel non nul, on a (par indpendance) P(N = n) = P(l, 1 l < n, kUl g(Yl ) f(Yl ), kUn g(Yn ) < f(Yn ))
n

=
l=1

P(kUl g(Yl ) < f(Yl )) P (kUn g(Yn ) < f(Yn )) .

Do

28

Cours de Processus Alatoires

P(N = n) = p (1 p)n-1
1 N suit bien une loi gomtrique de paramtre p = k . La moyenne de N est donne par

E(N) =
n1

np(1 p)n-1 ,

grce au rsultat connu sur les sries : E(N) =


1 p

=k

2. On dnit alors la variable alatoire X en posant : X = YN =


i1

Yi 1{N = i} .

Calculer pour n x et f borne E 1{N = n} f(X) . En dduire la loi de X. Quelle est la loi du couple (N, X) ?
Soit n un entier naturel et h une fonction relle borne. On a E(1fN=ng h(X)) = E(1{1 l < n, kU g(Y ) l l Do par indpendance entre les tirages, on a E(1fN=ng h(X)) = (1 p)n-1 E(1{kU g(Y ) < f(Y )} h(Yn )). n n n Et par le mme raisonnement que dans la question 1) on obtient : E(1{kU g(Y ) < f(Y )} h(Yn )) = p n n n Donc : E(1fN=ng h(X)) = (1 p)n-1 p
R h(y)f(y)dy.

f(Yl )} 1{kUn g(Yn ) < f(Yn )} h(Yn )).

h(y)f(y)dy.
R

Cette relation permet didentier la loi du couple X, N et prouve en particulier que X et N sont des variables alatoires indpendantes. Pour identier la loi de X, il suft de remarquer que toute fonction relle borne h, E(h(X)) =
n1

E(1N=n h(X)) =
R h(y)f(y)dy.

h(y)f(y)dy
R
n1

p(1 p)n-1 ,

do E(h(X)) =

X suit donc la loi de densit f.

3. En dduire comment on peut simuler une variable alatoire de loi f(x)dx si on sait simuler une variable alatoire de loi g(x)dx.

Ch.1 Rappels de Probabilits

29

On a vu que X suit une loi de densit f. Il suft donc de simuler les suites (Un , n 1) et (Yn , n 1) de manire indpendante jusqu N (qui est une variable alatoire) : YN donne alors un tirage dune variable alatoire de loi f(x)dx. On peut remarquer quil faut trouver un densit g telle quil existe un k permettant dassurer que f(x) kg(x) pour tout x. Cest souvent possible, quitte prendre k grand. Cependant plus k est grand, plus lesprance de N, E(N) = k est grande et plus la simulation sera infcace. Il est donc conseill de choix g de faon avoir k aussi proche de 1 que possible.

1.10 Exercices
Exercice 4 Soit (Xi )iN une suite de variables alatoires indpendantes, les Xi suivant une loi de moyenne m et de variance 2 . 1. Calculez lestimation de P X1 ++Xn m en fonction de la variance que lon n obtient en appliquant lingalit de Bienaym-Tchebychev. En dduire un intervalle de conance 5% prs, par excs, de la moyenne lissue de n tirages. 2. Appliquer le thorme de la limite centrale et en dduire un intervalle de conance pour lestimation de la moyenne 5% prs. 3. On suppose que () = E eX < + pour un R. Calculer () si X suit une loi gaussienne centre de variance 2 (suppose connue). 4. On suppose que la loi de X est symtrique, ce qui signie que : E (f(X)) = E (f(X)) , pour toute fonction borlienne positive (ou borne) f. Dmontrer que dans ce cas pour tout > 0 : 2 P (|X| )  E e X e 5. Dmontrer que pour tout > 0 : P 6. En dduire que P X1 + + Xn m n X1 + + Xn m n (u) = sup
R+

2 E e n (X1 -m) e a
( )

2 e -n

o : .

u log E e

(X1 -m)

7. Calculer (u) pour une gaussienne de moyenne m et de variance 2 . Dduire pour cette loi un intervalle de conance 5% de la moyenne. Comparer avec les rsultats obtenus en 1 et en 2. Exercice 5 Soit X et Y deux variables alatoires gaussiennes centres de variance 1 indpen2 2 dantes. Trouver la loi du couple X-2Y , X+2Y . En dduire la fonction caractristique de X -Y . 2 Exercice 6 Soit (Un , n 1) une suite de variables alatoires relles indpendantes identiquement distribues. On pose : Yn = sup Uk et Zn = inf Uk .
1kn 1kn

30

Cours de Processus Alatoires

1. On suppose la loi des Ui uniforme sur [0, 1]. Calculer la loi de Yn et de Zn . Quel est le comportement presque sr de Yn et Zn ? 2. Dterminer la loi du couple (Yn , Zn ). On commencera par calculer P (Yn x, Zn y) . 3. Quelle est la limite en loi du couple ((n 2)(1 Yn ), (n 2)Zn ) ? 4. Si les Ui suivent des lois exponentielles de paramtre 1, quelle est la loi de Yn et celle Zn . Quel est le comportement presque sr de ces variables lorsque n tend vers +. 5. On suppose que les Ui suivent des lois uniformes sur [0, ], tant un paramtre que lon cherche estimer. On va estimer par n = Yn . Calculer la moyenne de n et en dduire un estimateur sans biais de . Calculer la variance de lestimateur. Exercice 7 Soit (Xn , n 0) une suite de variables alatoires indpendantes qui ont toutes pour loi une loi exponentielle de paramtre . 1. On pose Sn = X0 + + Xn . Calculer la loi de Sn . 2. Soit T = inf{n 0, Sn > 1}. Dmontrer que presque srement T < +. 3. Calculer la loi de T et lidentier comme une loi de Poisson. 4. Proposer une mthode de simulation de la loi de Poisson, en prenant soin dutiliser au maximum des fonctions lmentaires (addition, multiplication). Exercice 8 Soit X = (X1 , . . . , Xn ) un vecteur centr, de matrice de covariance K. Calculer la variance de n 1 ui Xi . Dmontrer que si il existe un vecteur u = tel que Ku = 0, alors la loi i= de X est porte par un sous espace vectoriel strict de Rn . Exercice 9 Soit X une variable alatoire normale centre rduite. 1. Calculer la loi de X3 . 2. Soit Z la variable alatoire dnie par, si a > 0 : Z= X X si |X| < a si |X| a

Calculer la loi de Z. Le couple (X, Z) est-il gaussien ? 3. Donner un exemple de couple de variables alatoires (X, Z) centres, telles que E(XZ) = 0, X et Z suivent des lois gaussiennes et telles que X et Z ne sont pas indpendantes. Exercice 10 Soit ((Xi , Yi ), i 1) une suite de variables alatoires indpendantes valeurs dans R2 suivant toutes la mme loi. On suppose de plus que E(X1 ) = E(Y1 ) = 0, que E(X2 ) < + 1 2 et E(Y1 ) < +. 1. Quelle est la loi limite de (X1 + + Xn )/ n, de (Y1 + + Yn )/ n ? 2. Quelle est la loi limite du couple (X1 + + Xn )/ n, (Y1 + + Yn )/ n ? 3. A quelle condition la loi limite est elle celle dun couple de variables alatoires indpendantes ? 4. On suppose que le couple des (Xi , Yi ) suit la loi suivante : avec probabilit 1/4 le couple vaut soit (cos(), sin()), soit ( sin(), cos()), soit ( cos(), sin()), soit (sin(), cos()). A quelle condition sur , les Xi et les Yi sont elles indpendantes ? Montrer que, cependant, quelle que soit la valeur de , la loi limite est celle dun couple de variables alatoires indpendantes dont on donnera la loi.

Ch.1 Rappels de Probabilits

31

Exercice 11 On se donne 2n (n 2) variables alatoires relles gaussiennes indpendantes X1 , . . . , Xn , Y1 , . . . , Yn telles que, pour 1 i n : E (Xi ) = , E (Yi ) = , et : Var(Xi ) = Var(Yi ) = 2 ,

, , tant trois paramtres rels. On pose : Ln = X1 + + Xn n Mn = Y1 + + Yn . n

1. Trouver la loi du vecteur alatoire (Ln , Mn ). 2. Exprimer lorsque = , la fonction dnie, pour a 0 par : f(a) = P |Ln Mn | > a/ n , laide de N(x) = 3. On pose : S2 = n
2 n 2 n

e-u -1 1 n1
2 n

2 =2

du/ 2. (Xi Ln )2
2 n 2 Tn =

i=1

1 n1

(Yi Mn )2

i=1

Montrer que S , T et (S + T )/2 sont des estimateurs sans biais de 2 . Lequel vous parait il prfrable ? 4. En dduire que lorsque = , la variable alatoire : L n Mn n , 2 S2 + Tn n suit une loi de Student de paramtre n 1. 5. Que se passe til lorsque = et que n tend vers +. Proposer un test de lhypothse = contre lalternative = . 6. Soit deux groupes de 21 lves. On constate que la moyenne empirique est de 13.8 et la variance empirique de 2.4 pour le premier groupe et de 13 et 3.1 pour le deuxime groupe. Lcart entre les deux groupes vous parait elle signicative ? (Student = 0.93) Exercice 12 On considre le modle de transmission suivant : un signal dterministe sn est bruit par une variable alatoire Bn . On pose Xn = sn + Bn o Xn est lobservation effective (bruite). et sont des paramtres xs mais inconnus. On cherche en particulier une mthode destimation de . On suppose que les (Bk )1kn suivent des lois gaussiennes centres rduites et sont indpendantes. 1. Trouver la loi du vecteur (X1 , . . . , Xn ). 2. On note x = (x1 , . . . , xn ) un point de Rn . Trouver la valeur (x) qui maximise cette ^ densit. Calculer : E (^ (X1 , . . . , Xn )) et Var (^ (X1 , . . . , Xn )) . A quelle condition estil un estimateur convergent en moyenne quadratique. ^

Chapitre 2 Vecteurs gaussiens - Mouvement Brownien


2.1 Vecteurs gaussiens
Dnition 2.1.1 On dit quun vecteur alatoire X = (X1 , . . . , Xd ) est un vecteur gaussien si, pour tout u Rd , la variable alatoire relle u.X est une variable alatoire gaussienne. Notons que par linarit de lesprance et par bilinarit de la variance on a : E(u.X) = u1 E(X1 ) + + ud E(Xn ) = u.E(X), et :
d d

Var (u.X) =
i=1 j=1

ui uj Cov (Xi , Xj ),

avec Cov (Y, Z) = E(YZ) E(Y)E(Z) = E {(Y E(Y))(Z E(Z))}. Notons , avec ij = Cov (Xi , Xj ), la matrice de variance covariance du vecteur X et m, avec mi = E(Xi ), son vecteur moyenne. On voit donc que : E eiu:X = eiE(u:X)- 2 Var(u:X) = eiu:m- 2 u: u . On constate que la fonction caractristique (et donc la loi) ne dpend que du couple (m, ). On dit dans ce cas que X suit la loi N (m, ). Exemples : Si G1 , . . . , Gd sont des variables gaussiennes centres rduites indpendantes alors G = (G1 , . . . , Gd ) est un vecteur gaussien centr de matrice de variance covariance gale la matrice identit de Rd . En effet pour u Rd , par indpendance, la fonction caractristique de u.G est u:G (v) = E(e
iv(u:G) d d
1 1

)=
j=1

E(e

ivuj Gj

)=
j=1

e-

(vuj )2
2

= e- 2 u:u ,

v2

ce qui implique que cette variable alatoire suit la loi gaussienne centre de variance u.u. Remarque 2.1.2 Il ne suft pas que X1 et X2 soient des variables gaussiennes relles pour que (X1 , X2 ) soit un vecteur gaussien. Ce rsultat est vrai dans le cas particulier o X1 et X2 sont indpendantes mais pas en toute gnralit. Notons que la matrice de variance covariance de nimporte quel vecteur X est une matrice symtrique positive (i.e. u.u 0 pour tout vecteur u de Rd ) : en effet, u.u = Var(u.X) 0. Dautre part, on peut construire (ou simuler) un vecteur gaussien de vecteur moyenne m et de 33

34

Cours de Processus Alatoires

matrice de covariance donnes si et seulement si la matrice est symtrique positive. Nous prouvons ce rsultat dans le paragraphe consacr la simulation dun vecteur gaussien . Notons, de plus, que peut tre dgnre (i.e. il existe u0 = tel que u0 = 0) et dans ce cas X prend ses valeurs dans un sous espace afne strict de Rd . Stabilit du caractre gaussien par transformation linaire Si X est un vecteur alatoire valeurs Rd et Y = a + MX pour un vecteur (constant) a Rn et une matrice M de taille n d, alors toute combinaison linaire des coordonnes de Y est combinaison linaire des coordonnes de X une constante prs : pour v Rn , v.Y = v.a + (Mt v).X. Donc si X est gaussien, Y lest aussi. Exercice 13 Vrier que E(Y) = a + M.E(X) et que la matrice de variance covariance de Y sexprime en fonction de celle de X par la relation = MMt . Exemples : Si X = (X1 , . . . , Xd ) est un vecteur gaussien valeurs Rd alors pour k d, le vecteur (X1 , . . . , Xk ) est gaussien (de mme que tout vecteur obtenu partir de X en enlevant 1 certaines coordonnes). La moyenne empirique d d=1 Xi est une gaussienne relle. i Simulation dun vecteur gaussien Supposons que lon cherche simuler un vecteur gaussien dont on connat le vecteur moyenne m et la matrice de variance-covariance . La matrice est symtrique positive. Il existe donc une racine carre A telle que : AAt = . Voir lexercice 14 pour une preuve. Daprs ce qui prcde, si G = (G1 , . . . , Gd ) est un vecteur de variables alatoires gaussiennes centres rduites indpendantes alors m + AG suit la loi N (m, ). On dbouche donc sur lalgorithme suivant pour simuler un vecteur gaussien m, : Simulation dun vecteur gaussien : Calculer une racine carre A de , tirer un vecteur de gaussiennes centres rduites indpendantes G = (G1 , . . . , Gd ), retourner le vecteur m + AG. Exercice 14 Algorithme de Cholevsky En supposant que est A est une matrice triangulaire suprieure, rsoudre itrativement lquation AAt = . Programmer la mthode ainsi identie. Vecteurs gaussiens et indpendance Si les coordonnes du vecteur alatoire X = (X1 , . . . , Xd ) sont indpendantes et de carr intgrable, alors sa matrice de variance covariance est diagonale. En effet pour i = j, E(Xi Xj ) = E(Xi )E(Xj ) i.e. Cov (Xi , Xj ) = 0. Dans le cas o X est un vecteur gaussien, le caractre diagonal de la matrice de covariance savre une condition sufsante dindpendance : Proposition 2.1.3 Les coordonnes dun vecteur gaussien X = (X1 , . . . , Xd ) sont indpendantes si et seulement si sa matrice de variance covariance est diagonale.
Dmonstration : Nous avons dj dmontr la condition ncessaire. Supposons que la matrice de variance covariance est diagonale et notons m le vecteur esprance de X. Si Y1 , . . . , Yd sont des variables gaussiennes indpendantes desprance et variance respectives m1 , 11 , . . . , md , dd alors le vecteur

Ch.2 Vecteurs gaussiens - Mouvement Brownien

35

Y = (Y1 , . . . , Yd ) suit la loi N (m, ). Donc X et Y ont mme loi et les coordonnes Xi sont des variables indpendantes.

Exercice 15 Soit Y1 , . . . , Yn des vecteurs alatoires valeurs respectivement dans Rd1 , . . . , Rdn t.q. le vecteur Y = (Y1 , . . . , Yn ) est gaussien (cela implique en particulier que les Yi sont des vecteurs gaussiens). Montrer que les vecteurs Y1 , . . . , Yn sont indpendants si et seulement si la matrice de variance covariance de Y est diagonale par blocs au sens o :
n

(j, k) /

[d1 + . . . + di-1 + 1, d1 + . . . + di ]2 , jk = 0.
i=1

Convergence en loi de vecteurs alatoires tique au cas unidimensionnel.

La dnition de la convergence en loi est iden-

Dnition 2.1.4 On dit que (Xn , n 1) suite de variables alatoires valeurs dans Rd converge en loi vers X variable alatoire valeurs dans Rd si, pour toute fonction continue et borne f : Rd R, lim E (f(Xn )) = E (f(X)) .
n!+1

On peut tendre au cas vectoriel le critre de convergence utilisant la fonction caractristique. Thorme 2.1.1 Soit (Xn , n 1) une suite de variables alatoires valeurs dans Rd . Cette suite converge en loi vers X si et seulement si, pour tout u = (u1 , . . . , ud ), on a :
n!+1

lim E eiu:Xn = E eiu:X .

Ce rsultat est dlicat obtenir et nous ladmettrons. Nous allons voir quil permet de dmontrer simplement une gnralisation du thorme de la limite centrale. Thorme 2.1.2 (de la limite centrale multidimensionnel) Soit (Xn , n 1) une suite de variables alatoires valeurs dans Rd indpendantes suivant toutes la mme loi que X. On suppose que E |X|2 < + (o |x| dsigne la norme euclidienne dun vecteur de Rd ). On note m le vecteur des esprances de X, mi = E(Xi ) pour i = 1, . . . , d. et le matrice de variancecovariance du vecteur X, ij = Cov (Xi , Xj ). Alors : n 1 (X1 + + Xn ) m n

converge en loi vers un vecteur gaussien centr de matrice de variance-covariance .


Dmonstration : Soit u Rd et Yn = u.Xn . Les variables Yn sont des variables alatoires relles indpendantes et identiquement distribues. Elles sont de carr intgrable. Leur esprance est mu = u.m et leur variance 2 = u.u. u Donc, par application du thorme de la limite centrale dans R (thorme 1.7.1), la suite 1 n n (Y1 + . . . + Yn ) mu converge en loi vers u G. En utilisant la caractrisation de la convergence en loi des variables alatoires relles par les fonctions caractristiques, on en dduit :
n!+1

lim E ei

1 n( n (Y1 +:::+Yn )-mu )

= E eiu G = e- 2 u: u .

36

Cours de Processus Alatoires

En utilisant la dnition de Yn , on obtient


n!+1

lim E eiu:

1 n( n (X1 +:::+Xn )-m)

= e- 2 u: u .

Comme u Rd est arbitraire, on conclut en utilisant la caractrisation de la convergence en loi des vecteurs alatoires dans Rd par les fonctions caractristiques.

Stabilit des vecteurs gaussiens par convergence en loi Le rsultat suivant qui assure que toute limite en loi ( fortiori presque sre, en probabilit, dans L1 ou dans L2 puisque ces convergences impliquent la convergence en loi) de variables gaussiennes relles est gaussienne, est trs utile pour obtenir le caractre gaussien de variables obtenues par un procd de passage la limite. Proposition 2.1.5 Soit (Xn )n une suite de variables gaussiennes relles qui converge en loi vers X. Alors X est gaussienne.
Dmonstration : Supposons dans un premier temps que Xn converge vers X dans L2 i.e. que E((Xn X)2 ) 0. Comme (E(Xn ) E(X))2 E((Xn X)2 ), E(Xn ) E(X). Par lingalit de Cauchy-Schwarz, E(Xn X) E(X2 ) E(X2 ). n Donc E((Xn X)2 ) = E(X2 ) 2E(Xn X) + E(X2 ) ( E(X2 ) E(X2 ))2 . n n Ainsi E(X2 ) E(X2 ) et Var(Xn ) Var(X). n
u u On en dduit que pour u R, E(eiuXn ) = eiuE(Xn )- 2 Var(Xn ) eiuE(X)- 2 Var(X) . La convergence dans L2 de Xn vers X entrane la convergence en loi de Xn vers X et donc daprs les thormes 1.7.2 et 2.1.1, la convergence de E(eiuXn ) vers E(eiuX ). On conclut donc que 2 2

u R, E(eiuX ) = eiuE(X)-

u2 Var(X) 2 ,

la suite eiuE(Xn ) converge vers une limite (u) avec |(u)| = 1. Montrons par labsurde que lon peux extraire de la suite (E(Xn ))n une sous-suite (E(Xnk ))k qui converge vers une limite nie m R. Supposons quau contraire |E(Xn )| +. Soit une fonction C1 support compact sur R. Par convergence domine (u)(u)du = lim
R
n!+1 R

ce qui implique que X est gaussienne. Traitons maintenant le cas plus dlicat o lon suppose seulement la convergence en loi de la suite Xn vers X. Comme la fonction caractristique X (u) = E(eiuX ) est continue (consquence du thorme de convergence domine) et vrie X (0) = 1, il existe v > 0 t.q. |X (v)| = 0. La convergence en loi 2 de Xn vers X entrane celle de E(eivXn )E(e-ivXn ) = e-v Var(Xn ) vers E(eivX )E(e-ivX ) = |X (v)|2 . On en dduit que la suite (Var(Xn ))n converge vers une limite 2 R+ . u2 Comme pour tout u R, E(eiuXn ) = eiuE(Xn )- 2 Var(Xn ) converge vers E(eiuX ), pour tout u R

eiuE(Xn ) (u)du.

Or par intgration par parties, eiuE(Xn ) (u)du =


R

i E(Xn )
1

eiuE(Xn ) (u)du.
R

ce qui entrane que | R eiuE(Xn ) (u)du| C1 support compact ,


R

jE(Xn )j |

R |

(u)|du. On conclut que pour toute fonction

(u)(u)du = 0.

Ch.2 Vecteurs gaussiens - Mouvement Brownien

37

Ainsi la distribution associe la fonction localement intgrable est nulle i.e. 0, ce qui contredit || 1. Donc il existe une sous-suite (E(Xnk ))k qui converge vers une limite m R. On conclut que u R, E(eiuX ) = lim E(eiuXnk ) = lim eiuE(Xnk )k k
u2 Var(X ) nk 2

= eium-

u2 2 2 .

Corollaire 2.1.6 Soit (Xn )n une suite de vecteurs gaussiens valeurs Rd qui converge en loi vers un vecteur X. Alors X est gaussien.
Dmonstration : Comme pour u Rd , lapplication x Rd u.x R est continue, la convergence en loi de Xn vers X entrane celle de u.Xn vers u.X. Les variables u.Xn tant gaussiennes, on en dduit avec la proposition 2.1.5 que u.X est une variable gaussienne. Comme u Rd est arbitraire, X est un vecteur gaussien.

2.2 Mouvement Brownien


Dnition 2.2.1 On appelle processus stochastique temps continu valeurs dans un espace E muni dune tribu E, une famille (Xt , t 0) de variables alatoires valeurs dans E dnies sur un espace de probabilit (, A, P). Remarque 2.2.2 Lindice t [0, +[ reprsente le temps. Notons que lon peut associer, chaque , une trajectoire : t Xt (). Dnition 2.2.3 Un processus stochastique (Bt , t 0) valeurs relles est appel mouvement brownien (standard) sil vrie les quatre proprits suivantes : (i) B0 = 0 (ii) Pour tout s t, laccroissement Bt Bs suit la loi gaussienne centre de variance t s. (iii) si 0 t1 t2 . . . tn , les accroissements Bt1 , Bt2 Bt1 , . . . , Btn Btn-1 sont indpendants (iv) En dehors dun ensemble de probabilit nulle, les trajectoires t Bt () sont continues. Notons que (i) et (ii) implique que Bt = Bt B0 suit la loi gaussienne centre de variance t dont la densit est x2 1 e- 2t . 2t Dnition 2.2.4 Un processus (Xt , t 0) valeurs relles est dit : continu si les trajectoires t Xt () le sont. accroissements indpendants si n N et 0 t1 t2 . . . tn , les accroissements Xt1 X0 , Xt2 Xt1 , . . . , Xtn Xtn-1 sont indpendants. accroissements stationnaires si s, t 0, Xt+s Xt a mme loi que Xs X0 . Un mouvement brownien standard est donc un processus continu (iv) accroissements indpendants (iii) et stationnaires (ii). En fait, on peut caractriser tout les processus qui vrient ces trois proprits

38

Cours de Processus Alatoires

Thorme 2.2.1 Si (Xt , t 0) est un processus continu accroissements indpendants et stationnaires alors il existe deux constantes relles r et t.q. t 0, Xt X0 = rt + Bt avec (Bt , t 0) un mouvement brownien.
Dmonstration : La dmonstration du caractre gaussien de Xt X0 est dlicate. Elle repose sur des variantes du thorme de la limite centrale. Nous admettrons ce rsultat. Par contre, il est trs facile de calculer la moyenne et la variance de Xt X0 . En effet : Xt+s X0 = (Xt+s Xt ) + (Xt X0 ) . La loi de (Xt+s Xt ) est identique celle de (Xs X0 ) par hypothse. Comme nous avons admis quil sagissait dune variable alatoire gaussienne, cette variable alatoire a une esprance et une variance nie ainsi que (Xt X0 ). Donc : E (Xt+s X0 ) = E (Xt+s Xt ) + E (Xt X0 ) = E (Xs X0 ) + E (Xt X0 ) . Si lon note (t) = E (Xt X0 ), on a donc lquation fonctionnelle : (t + s) = (t) + (s). On en dduit que pour k, n N , (k/n) = k(1/n). Si on pose r = (1), le choix k = n permet de vrier que k, n N , (k/n) = rk/n. On conclut alors, sans presque aucune hypothse de rgularit sur , que (t) = rt. De mme, pour la variance, comme Xt+s Xt et Xt X0 sont deux variables alatoires indpendantes, on a : Var (Xt+s X0 ) = Var (Xt+s Xt ) + Var (Xt X0 ) = Var (Xs X0 ) + Var (Xt X0 ) . Le mme argument permet alors dafrmer que Var (Xt X0 ) = 2 t. On vrie ensuite facilement que 1 Bt =  (Xt X0 rt) est un mouvement brownien.

Remarque 2.2.5 Si on souhaite modliser le cours (St )t0 dune action par un processus continu strictement positif accoissements relatifs St Su St = 1, u t Su Su indpendants et stationnaires alors Xt = ln(St ) est un processus continu accroissements indpendants et stationnaires. Dans ces conditions, daprs le thorme 2.2.1, il existe deux constantes relles r et et un mouvement brownien (Bt , t 0) t.q. t 0, St = S0 exp(Bt + rt). Ce modle dactif est appel modle de Black-Scholes. Exercice 16 Montrer que pour tout R, E(eBt ) = e E(Bn ) = t
2 t 2

. En dduire que

0 si n impair tn=2 n! si n pair. 2n=2 (n=2)!

Ch.2 Vecteurs gaussiens - Mouvement Brownien

39

2.3 Vers une construction du mouvement brownien


Nous allons donner une rponse (partielle) la question : Le mouvement brownien (standard) existe til ? Le but de cette partie sera dcrire un programme informatique permettant de simuler une trajectoire dun mouvement brownien. Pour mener bien cette construction, nous allons chercher identier la loi conditionnelle de B t+s lorsque lon connait Bt et Bs . 2 Pour cela, notons que si s t alors le vecteur : (Bs , B t+s , Bt )
2

est un vecteur gaussien puisque il scrit linairement partir du vecteur de gaussiennes indpendantes : (Bs , B t+s Bs , Bt B t+s ).
2 2

Lindpendance de ces trois variables alatoires est une consquence de la dnition : les accroissements du brownien sont indpendants. On cherche dterminer et de faon ce que la variable alatoire Z ; : Z
;

= B t+s Bs Bt ,
2

soit indpendante du couple (Bs , Bt ). Pour cela, il convient de noter que le vecteur (Z ; , Bs , Bt ) est un vecteur gaussien (comme combinaison linaire de variables alatoires gaussiennes indpendantes) centr (puisque E(Bt ) = E(B t+s ) = E(Bs ) = 0 et donc E(Z ; ) = 0). 2 Ce vecteur tant gaussien, daprs lexercice 15, Z ; sera indpendante du couple (Bs , Bt ) si et seulement si : Cov (Z ; , Bs ) = 0 et Cov (Z ; , Bt ) = 0. On obtient, sans difcults, que : Cov (Z
;

, Bs ) = E B t+s Bs E(B2 ) E(Bt Bs ). s


2

On voit donc quil faut savoir calculer, pour un mouvement brownien standard E(Bu Bv ) si u v. Pour cela remarquons que : E(Bu Bv ) = E(B2 + Bu (Bv Bu )) = E(B2 ) + E(Bu (Bv Bu )). u u Mais, Bu et Bv Bu sont indpendantes et E(Bu ) = 0 donc : E(Bu (Bv Bu )) = 0. De plus, Bu suit une loi gaussienne centre de variance u donc E(B2 ) = u. On voit donc que, u si u v : E(Bu Bv ) = u. Plus gnralement, cela implique que pour tout t et pour tout s : E(Bt Bs ) = t s = inf(s, t). Ce rsultat intermdiaire tant tabli, on obtient : Cov (Z
;

, Bs ) = E B t+s Bs E(B2 ) E(Bt Bs ) = s s s, s


2

40

Cours de Processus Alatoires

et : Cov (Z
;
2

, Bt ) = E B t+s Bt E(Bt Bs ) E(B2 ) = t


;

1 (Bs + Bt ) . 2 2 Z est par construction une variable alatoire indpendante du couple (Bs , Bt ). De plus elle suit une loi gaussienne puisque elle sexprime linairement en fonction du vecteur gaussien (Bs , B t+s , Bt ). Pour identier la loi de Z il suft de calculer sa moyenne et sa variance. On 2 obtient facilement que E(Z) = 0 puis que : Z = B t+s Var(Z) = E(Z ) = E En dveloppant le carr, on obtient : Var(Z) = t+s t s t+s s 1 + + s + = (t s). 2 4 4 2 2 4 1 t s Gs;t , 2
2

On a donc Cov (Z Z = Z1=2;1=2 , soit :

, Bs ) = Cov (Z

t+s s t. 2 , Bt ) = 0 si et seulement si = = 1/2. Posons

B t+s
2

1 (Bs + Bt ) 2

On voit donc que Z scrit sous la forme : Z=

Gs;t tant une gaussienne centre rduite indpendante du couple (Bs , Bt ). Remarque 2.3.1 On peut montrer que Gs;t est en fait indpendante de Bu pour tout u s ou t. On peut rsumer le rsultat qui vient dtre tabli de la faon suivante : 1 B t+s = 1 (Bs + Bt ) + 2 t s Gs;t 2 2 Gs;t tant indpendante de Bu pour tout u s ou t.

(2.1)

Cela suggre la procdure de simulation (ou de construction) suivante de la trajectoire (Bs , 0 s 1) partir dune suite (Gj )j1 de variables gaussiennes centres rduites indpendantes : 1. Poser B1 = G1 ,
1 2. utiliser (2.1), avec s = 0 et t = 1 pour poser B1=2 = 2 (B1 + G2 ), 1 3. utiliser (2.1), avec s = 0 et t = 1/2 pour poser B1=4 = 2 (B1=2 + 1 2

G2 ),
1 2

1 4. utiliser (2.1), avec s = 1/2 et t = 1 pour poser B3=4 = 2 (B1=2 + B1 +

G4 ),

5. etc ... Il est facile dcrire un programme C qui fait ce travail. double gaussienne() // renvoit une gaussienne centre rduite { return ... } void Pont(s,x,t,y)

Ch.2 Vecteurs gaussiens - Mouvement Brownien

41

{ double z; if(|t-s|<epsilon) { tracer la droite de (s,x) (t,y); return; } z = (x+y)/2 + sqrt(t-s)/2 * gaussienne(); Pont(s,x,(s+t)/2,z); Pont((s+t)/2,z,t,y); } void main(void) { Pont(0,0,1,gaussienne()); }

2.4 Rgularit des trajectoires


Une proprit importante (bien que parfois gnante !) du mouvement brownien est le manque de rgularit des trajectoires. Nous admettrons le thorme suivant. Thorme 2.4.1 Soit (Bt , t 0) un mouvement brownien, alors, en dehors dun ensemble de probabilit nulle, il nexiste aucun point o la trajectoire est diffrentiable. Nous allons prouver un rsultat li ce thorme bien que moins fort. Proposition 2.4.1 Soit (Bt , t 0) un mouvement brownien, soit T un rel positif, n un entier. On pose : iT tn = , pour 0 i n. i n Alors, au sens de la convergence L2 :
n-1 n!+1

lim

i=0

Btn+1 Btn i i

= T.

Dmonstration : En utilisant lindpendance des accroissements de (Bt , t 0) on obtient :


n-1

Var
i=0

Btn+1 Btn i i

n-1

=
i=0

Var

Btn+1 Btn i i

Mais : Var Btn+1 Btn i i


2

=E

Btn+1 Btn i i

Btn+1 Btn i i

La loi de Btn+1 Btn est celle dune gaussienne centre de variance tn 1 tn = T/n, donc si G est une i i+ i i gaussienne centre rduite, on a : Var Btn+1 Btn i i
2

T2 T2 E(G4 ) E(G2 )2 = 2 (E(G4 ) 1). n2 n

42

Cours de Processus Alatoires

De plus :
n-1

E
i=0

Btn+1 Btn i i

n-1

=
i=0

Btn+1 Btn i i

=n

T = T. n

Finalement on obtient : E

n-1 i=0

Btn+1 Btn i i

2 2 = T (E(G4 ) 1) = 2T . n n

Ce qui prouve le rsultat.

Remarque 2.4.2 Ceci implique que (Bt , t 0) ne peut tre lischitzienne sur lintervalle [0, T ]. En effet la convergence L2 implique la convergence presque sre pour une sous suite et, de plus, si |Bt Bs | K |t s|, on a :
n-1 i=0

Btn+1 Btn i i

n-1

i=0

K2 T K2 T 2 n!+1 0. n2 n

Ceci prouve que la trajectoire ne peut tre lipschitzienne sur lintervalle [0, T ].

2.5 Caractre gaussien du mouvement brownien


Nous avons vu que si (Bt , t 0) est un mouvement brownien alors Bt suit une loi gaussienne. Une proprit plus forte est vri par le processus (Bt , t 0) : cest un processus gaussien. Dnition 2.5.1 On dit quun processus (Xt , t 0) est un processus gaussien, si pour tout entier n et pour tout n-uplet, 0 t1 < t2 < < tn < +, le vecteur (Xt1 , . . . , Xtn ) est un vecteur gaussien. Il est alors facile de vrier que : Thorme 2.5.1 Un mouvement brownien est un processus gaussien.
Dmonstration : Appelons (Bt , t 0) ce mouvement brownien. Alors (Bt1 , Bt2 Bt1 , . . . , Btn Btn-1 ) est un vecteur form de gaussiennes indpendantes, donc un vecteur gaussien. Le vecteur (Bt1 , . . . , Btn ) qui sobtient par transformation linaire du prcdent est galement gaussien.

On peut de plus prouver le rsultat suivant. Thorme 2.5.2 Soit (Bt , t 0) un processus gaussien centr continu t.q. s, t 0, Cov (Bs Bt ) = min(s, t). Alors (Bt , t 0) est un mouvement brownien.
Dmonstration : Le point (iv) de la dnition 2.2.3 est vri. Comme E(B0 ) = 0 (processus centr) et Var(B0 ) = min(0, 0) = 0, B0 est nul avec probabilit 1 et le point (i) est vri.

Ch.2 Vecteurs gaussiens - Mouvement Brownien

43

Pour les points (ii) et (iii) on se donne 0 = t0 t1 . . . tn . Pour 1 i n, Var(Bti Bti-1 ) = Var(Bti )2Cov (Bti , Bti-1 )+Var(Bti-1 ) = ti 2 min(ti , ti-1 )+ti-1 = ti ti-1 . Et pour 1 i < j n, Cov (Bti Bti-1 Btj Btj-1 ) = Cov (Bti , Btj ) Cov (Bti , Btj-1 ) Cov (Bti-1 , Btj ) + Cov (Bti-1 , Btj-1 ) = min(ti , tj ) min(ti , tj-1 ) min(ti-1 , tj ) + min(ti-1 , tj-1 ) = ti ti ti-1 + ti-1 = 0. Comme (Bt ) est un processus gaussien, on conclut que les variables Bt1 , Bt2 Bt1 , . . . , Btn Btn-1 sont des gaussiennes centres indpendantes de variances respectives t1 , t2 t1 , . . . , tn tn-1 .

Exercice 17 Montrer que si (Bt , t 0) est un mouvement brownien alors : (Bt , t 0) ( 1 Bc2 t , t 0) o c = 0, c (Bt0 +t Bt0 , t 0) o t0 0 T 1 sont des mouvements browniens. En dduire que Loi( 0 Bs ds) = Loi(T 3=2 0 Bs ds). Une application du caractre gaussien du mouvement brownien Quelle est la loi de T Bs ds si (Bt , t 0) est un mouvement brownien ? 0 Comme (Bt , t 0) est un processus continu, on a, au sens dune limite presque sre : T lim n!+1 n
n-1 i=0 T

B tn = i

Bs ds,

si tn = iT (approximation dune intgrale par une somme de Rieman). i n Comme le processus (Bt , t 0) est un processus gaussien les variables alatoires T n-1 T n i=0 Bti sont des gaussiennes centres. Avec la proposition 2.1.5, on en dduit que 0 Bs ds n T T est une gaussienne. Comme E( 0 Bs ds) = 0 E(Bs )ds = 0, pour identier sa loi il nous reste calculer sa variance :
T T 2

Var
0

Bs ds

= E
0 T

Bs ds
T 0

= E
T 0 T 0

Bs Bs dsds

=
0

E (Bs Bs ) dsds .

Comme E(Bs Bt ) = min(s, t), un calcul simple montre que :


T

Var
0

Bs ds

T3 . 3

Exercice 18 Montrer que le couple BT ,

T 0

Bs ds est un vecteur gaussien et identier sa loi.

44

Cours de Processus Alatoires

2.6 Exercices
Exercice 19 Soit X et Y des variables gaussiennes relles indpendantes. Donner une condition ncessaire et sufsante pour que les variables X + Y et X Y soient indpendantes. Exercice 20 Soit X une variable gaussienne centre rduite et une variable vriant P( = 1) = P( = 1) = 1/2 indpendantes. 1. Quelle est la loi de Y = X ? 2. Donner la matrice de covariance du vecteur (X, Y). 3. Comparer E(X2 Y 2 ) E(X2 )E(Y 2 ). Les variables X et Y sont-elles indpendantes ? 4. Que peut-on conclure sur le couple (X, Y) ? Exercice 21 Soit X1 , . . . , Xn des variables gaussiennes centres rduites indpendantes. On 1 1 note Mn = n n 1 Xi et Vn = n-1 n 1 (Xi Mn )2 la moyenne et la variance empirique. i= i= 1. Montrer que Mn est indpendante du vecteur (X1 Mn , X2 Mn , . . . , Xn Mn ). 2. Conclure que Mn et Vn sont indpendantes. Exercice 22 Dans toute la suite on suppose que (Bt , t 0) est un mouvement brownien standard. 1. Calculer E(|Bt |). 2. Calculer E(B2 B2 ). t s Exercice 23 Soient f1 ,f2 deux fonctions continues sur [0, 1]. On note Xj = 1. Montrer que presque srement Xj = lim 1 n!1 n
n-1 1 0

Bs fj (s)ds.

Bk=n fj (k/n).
k=0

2. En dduire que (X1 , X2 ) est un vecteur gaussien. 3. Calculer la moyenne et la matrice de variance covariance de ce vecteur. Exercice 24 Lemme de Borel-Cantelli 1. Soit (Xk , k 1), une suite de variables alatoires relles, montrer que lon a toujours : E
k1

|Xk |

=
k1

E (|Xk |) .

2. En dduire que si E

k1

|Xk | < +, alors, presque srement limk!+1 Xk = 0.

3. On considre une suite dvnements (Ak , k 1). Montrez, en posant Xk = 1Ak que si k1 P(Ak ) < + alors, presque srement, il existe un rang N() (dpendant du hasard) tel que si k N() alors Ak . Ce rsultat, trs utile pour prouver des convergences, est connu sous le nom de Lemme de Borel-Cantelli. Il sera utilis dans lexercice suivant.

Ch.2 Vecteurs gaussiens - Mouvement Brownien

45

Exercice 25 1. On note Zt = tB1=t . Montrer que le vecteur (Zt1 , Zt2 Zt1 , . . . , Ztn Ztn-1 ), o 0 < t1 < < tn , est un vecteur gaussien dont on dterminera les caractristiques. En admettant que limt!0 Zt = 0, montrer que (Zt , t 0) est un mouvement brownien. Le reste de cet exercice consiste a prouver que limt!0 Zt = 0. 2. Montrer que presque srement limn!1 Bn /n = 0. 3. On considre Mn = sup{|Bt Bn |; n t n + 1}. Montrer que (Mn , n 0) est une suite de variables alatoires indpendantes de mme loi. On admettra dans la suite de cet exercice que E(|M1 |) < +. 4. Montrer que, pour tout >0 P (M1 n)
n1

P (Mn n) =
n1

E(|M1 |).

En utilisant le fait que E(|M1 |) < + et le lemme de Borel-Cantelli en dduire que, presque srement, limn!+1 Mn /n = 0. 5. Montrez que pour n t < n + 1, on a Bt Bn |Bn | Mn + . t n n(n + 1) n En dduire que presque srement
t!1

lim Bt /t = 0.

Exercice 26 Soit 0 a < b < xs. Soit une subdivision nie de [a, b] : = (t0 , . . . , tn ) o a = t0 < < tn = b. Le pas () de la subdivision est () = sup{ti+1 ti , 0 i < n}. Enn on note X = tend vers zro.
n i=1

[Bti+1 Bti ]2 . Soit (k , k 1) une suite de subdivisions dont le pas

1. Montrer que la suite (Xk , k 1) converge dans L2 (P) vers b a. 2. Montrer quil existe une sous-suite (kl , l 1) telle que la suite (Xkl , l 1) converge presque srement vers b a (On utilisera le lemme de Borel-Cantelli). 3. Soit > 0. Dduire de la question prcdente que presque srement sup |Bs Bt | (s t) 2 +"
1

(s;t)[a;b]2 ; s=t

= .

Donner une interprtation intuitive en terme de rgularit dune trajectoire dun mouvement brownien ?

46

Cours de Processus Alatoires

2.7 Travail dirig : Test dadquation une loi


On vous propose de jouer avec un d et cinq partenaires. Tout le monde mise 1F, on lance le d. La face expose dtermine le gagnant qui empoche toutes les mises. Calculer votre gain moyen au bout de n coups. Pour accepter de jouer, il vous faut savoir si le d est biais ou non. Notre but est dtablir une procdure simple pour dterminer si le d est non-biais. On parle de test dadquation une loi. On note (Xi , i 1) des variables alatoires indpendantes et de mme loi valeurs dans {x1 , , xk }, dont la loi est caractrise par pj = P[X1 = xj ] > 0 et k=1 pj = 1. (Dans j lexemple ci-dessus k = 6.) On note
n k

Nj =
i=1

1Xi =xj

et

Tn =
j= 1

(Nj npj )2 . npj

1. Dterminer la loi de Nj . Le cas dune pice : k = 2 1. Dterminer la loi du couple (N1 , N2 ). 2. Dterminer le comportement de la suite (N1 /n, n 1).
-np 3. Dterminer le comportement de la suite ( N1n 1 , n 1).

La loi du 2 1. Soit (Xn , n 1) une suite de variables alatoires vectorielles qui converge en loi vers X. Soit f une fonction continue. Dterminer le comportement de la suite (f(Xn ), n 1). 2. Calculer Tn . Comportement de (Tn , n 1). 3. Donner la densit de la loi limite. Identier la loi limite comme une loi Gamma : (1/2, d/2) avec d = 1. Rappeler sa fonction caractristique. On parle galement de loi du 2 d degrs de libert. Ces lois sont tabules. 4. En dduire un test pour dterminer si une pice est non-biaise. Le cas gnral 1. Donner la loi de la somme de deux 2 indpendants k1 et k2 degrs de libert. En dduire la loi de k=1 X2 , o X1 , , Xk sont k gaussiennes indpendantes N (0, 1). On j j pose N1 np1 Nk npk Zn = , , . np1 npk 2. Donner la limite en loi, Z, de (Zn , n 1) quand n . Dterminer la matrice de variance-covariance . 3. Calculer k=1 pj Zn (j). En dduire que est de rang strictement infrieur k. j 4. Montrer que 2 = . Montrer que est de rang k 1. On pourra considrer les vecteurs ek et ek o ek (1) = pk , ek (k) = p1 et ek (i) = 0 si i {1; k} pour k 2. En dduire quil existe une matrice unitaire U telle que Ut U est diagonale. 5. Donner la loi de Ut Z. En dduire la loi de
k j=1

Z(j)2 .

6. Donner la limite de (Tn , n > 1). En dduire un test pour savoir si un d est non-biais.

Ch.2 Vecteurs gaussiens - Mouvement Brownien

47

Exemples numriques 1. On considre les naissances aux U.S.A. On souhaite savoir si les naissances sont quirparties sur les jours de la semaine. Les nombres moyens de naissances par jours de semaine pour 1997 sont les suivants (source NVSR 1999) : NLundi = 10861, NMardi = 12104, NMercredi = 11723, NJeudi = 11631, NVendredi = 11640, NSamedi = 8670 et NDimanche = 7778. On obtient Tn = 1639. On lit dans la table du 2 6 degrs de libert que P(2 (6) > 23) = 0, 1%. On rejette donc lhypothse des naissances uniformes sur les jours de la semaine au niveau 0,1%. 2. Weldon a effectu n = 26306 lancers de 12 ds six faces. On note Xi le nombre de faces indiquant 5 ou 6 lors du i-ime lancer. Les frquences empiriques observes sont Nj ^ notes fj = , o Nj est le nombre de fois o lon a observ j faces 5 et 6 sur les 12 n ds lancs : Nj = n 1 1Xi =j . Les rsultats obtenus sont : Si les ds sont non biaiss, i= ^ f0 = 0, 007033 ^ f4 = 0, 232418 ^ f8 = 0, 015320 ^ f12 = 0, 000000 ^ f1 = 0, 043678 ^ f5 = 0, 197445 ^ f9 = 0, 003991 ^ f2 = 0, 124116 ^ f6 = 0, 116589 ^ f10 = 0, 000532 ^ f3 = 0, 208127 ^ f7 = 0, 050597 ^ f11 = 0, 000152

la probabilit dobserver les faces 5 ou 6 dans un lancer de d est 1/3. Les variables alatoires (Xi , 1 i n) suivent donc une loi binomiale de paramtre (12, 1/3). Les frquences thoriques sont : f0 = 0, 007707 f4 = 0, 238446 f8 = 0, 014903 f12 = 0, 000002 f1 = 0, 046244 f5 = 0, 190757 f9 = 0, 003312 f2 = 0, 127171 f6 = 0, 111275 f10 = 0, 000497 f3 = 0, 211952 f7 = 0, 047689 f11 = 0, 000045

Calculer Tn , et en dduire que lon rejette lhypothse des ds non biaiss. Les donnes sont issues du livre de Feller Tome 1 : An introduction to probability theory and its applications, page 149.

Chapitre 3 Esprance conditionnelle


3.1 Tribus construites partir de variables alatoires
Soit un ensemble muni dune tribu A cest--dire un sous-ensemble de lensemble P() des parties de contenant et stable par passage au complmentaire stable par union ou intersection dnombrable. Rappelons la dnition dune variable alatoire relle sur (, A) : Dnition 3.1.1 Une application X de muni de la tribu A dans R est une variable alatoire si pour tout B dans la tribu borlienne de R (plus petite tribu qui contient tous les intervalles) : { , X() B} = {X B} A. Cette proprit est la A-mesurabilit de X. Une sous-tribu B de A est une tribu sur t.q. B A. Soit X une variable alatoire sur (, A) valeurs dans R. On note : (X) la plus petite sous tribu B de A, rendant lapplication X B-mesurable. Cette tribu reprsente linformation donne par la connaissance de X. Notez, par exemple, que si A A, alors la tribu engendre par la variable alatoire 1A est gale : {, A, Ac , } . Soit X1 , . . . , Xn , n variables alatoires sur (, A) valeurs dans R, on note : (X1 , . . . , Xn ) la plus petite sous tribu B de A rendant les applications X1 , . . . , Xn B-mesurables. Cette tribu reprsente linformation donne par la connaissance des variables alatoires X1 , . . . , X n . Soit (Xn , n 1) une suite de variables alatoires relles A-mesurables. On note, pour tout n 1 : Fn = (Xk , 1 k n). Alors (Fn , n 1) est une suite croissante de tribus qui porte le nom de ltration naturelle. Pour un n x, Fn reprsente linformation disponible linstant n. Le rsultat suivant dont la preuve fait lobjet de lexercice 35 clarie linterprtation dune tribu comme information. 49

50

Cours de Processus Alatoires

Proposition 3.1.2 Soit X et Y deux variables alatoires relles. Alors Y est (X)-mesurable si et seulement si il existe une fonction1 f de R dans R, telle que : P (Y = f(X)) = 1. Remarque 3.1.3 Si Y est (X)-mesurable et, si lon connat la valeur de X, on peut en dduire la valeur de Y.

3.2 Notion desprance conditionnelle


Soit X une variable alatoire relle dnie sur (, A) et soit B A une sous tribu de A. Lesprance conditionnelle vise dnir la notion de meilleure approximation de X par une variable alatoire B-mesurable. Cette notion est, videmment, relative au choix dune probabilit P sur (, A). Nous allons commencer par traiter le cas o X est une variable alatoire de carr intgrable, cest dire telle que E(X2 ) < + (on le note aussi X L2 (P)). La construction se fait en utilisant le thorme de projection sur un sous espace ferm dun espace de Hilbert. Pour cela posons : HA = X variable alatoire A-mesurable telle que E(X2 ) < + , HB = X variable alatoire B-mesurable telle que E(X2 ) < + . Alors HA est un espace de Hilbert : cest un espace vectoriel complet muni dune norme drivant du produit scalaire < X, Y >= E(XY) et X 2 =< X, X >. HB est un sous espace vectoriel ferm inclus dans cet espace de Hilbert. On peut alors montrer, en utisant le thorme de projection sur un sous espace ferm dans un espace de Hilbert, le rsultat suivant. Proposition 3.2.1 Si X est une variable alatoire telle que E(X2 ) < +, il existe une unique variable alatoire Z, telle que E(Z2 ) < +, B-mesurable et vriant : E (X Z)2 = inf E (X Y)2 .
Y HB

Z est, ainsi, la variable alatoire la plus proche de X au sens de la norme de lespace de Hilbert HA , cest dire de la norme E(X2 ). Z est lesprance conditionnelle de X sachant B que lon note : E (X|B) .
X

HB

F IG . 3.1 Projection orthogonale sur HB


mesurable au sens o limage rciproque par f de tout lment de la tribu borlienne de R est dans la tribu borlienne de R
1

Ch.3 Esprance conditionnelle

51

La dnition implique que pour tout rel , et pour toute variable alatoire Y de HB on a : E (X Z)2 E (X Z Y)2 . On voit donc que = 0 ralise le minimum de la fonction : f() = 2 E(Y 2 ) + E (X Z)2 2E ((X Z)Y) . On en dduit en crivant f (0) = 0 que : E ((X Z)Y) = 0. Rciproquement, si Z, tel que E(Z2 ) < + vrie E (ZY) = E (XY) , pour tout Y de HB , alors on peut prouver, en utilisant le thorme de Pythagore que Z minimise la distance X dans HB . On obtient donc le rsultat suivant : Proposition 3.2.2 Il existe une unique2 variable alatoire B-mesurable telle que E(Z2 ) < +, vriant pout toute variable alatoire Y, B-mesurable et telle que E(Y 2 ) < + : E(XY) = E(ZY). Cette variable alatoire Z est la meilleure approximation, au sens de la norme parmi les variables alatoires B-mesurables de carr intgrable. E(X2 ), de X

Cette dnition ne permet pas de traiter le cas de variables alatoires seulement intgrables (i.e. telle que E(|X|) < +). Lextension au cas intgrable, pour lessentiel identique au cas de carr intgrable, est plus technique et nous admettrons donc le rsultat suivant. Thorme 3.2.1 Soit X une variable alatoire relle telle que E(|X|) < +, alors il existe une unique variable alatoire B-mesurable Z telle que E(|Z|) < + vriant pour toute variable alatoire Y B-mesurable et borne : E(XY) = E(ZY). On note la variable alatoire Z sous la forme : E (X|B) . Cest lesprance conditionnelle de X sachant B. Remarque 3.2.3 Evidemment pour une variable alatoire de carr intgrable, les deux dnitions concident. Remarque 3.2.4 Lorsque la tribu B est celle engendre par une variable alatoire X (B = (X)), on note : E(Y|X) := E(Y|(X)). Noter que comme toute variable alatoire (X)-mesurable est de la forme f(X), f tant une fonction (voir la proposition 3.1.2), on a : E(Y|X) = f(X). E(Y|X) est ainsi la meilleure approximation de Y par une fonction de X.
unique au sens des variables alatoires : deux variables alatoires sont considres comme gales lorsque elle sont gales avec probabilit 1
2

52

Cours de Processus Alatoires

Exercice 27 Soit B1 , . . . , Bn une partition de et B = runion nie Bik . Soit Y une variable B-mesurable. Pour 1 i n, on note i un lment de Bi et yi = Y(i ). Lensemble {Y = yi } contient i et appartient B daprs lhypothse sur Y. En utilisant la dnition de B, on en dduit que {Y = yi } contient Bi . Ainsi Y = n 1 1Bi yi . Inversement si Y i= est de cette forme, alors il est facile de vrier que Y est B-mesurable. En utilisant cette caractrisation des variables alatoires B-mesurables, vrier que pour toute variable alatoire relle X intgrable sur (, A), E(X|B) =
i:P(Bi )>0

1Bi

E(X1Bi ) . P(Bi )

Ch.3 Esprance conditionnelle

53

Proprits de lesprance conditionnelle On peut dmontrer (exercice sans difcults) les proprits suivantes de lesprance conditionnelle quil faut imprativement connatre. Dans ce qui suit toutes les variables alatoires considres sont supposes intgrables.

1. Linarit : E(X + Y|B) = E(X|B) + E(Y|B). 2. Positivit : Si X 0, alors E(X|B) 0. Si X Y, alors E(X|B) E(Y|B). 3. Si X est intgrable et B-mesurable alors : E (X|B) = X. 4. Si Z est une variable alatoire B-mesurable et borne : E(ZX|B) = ZE(X|B). 5. E (E (X|B)) = E(X). Soit C une sous tribu de B alors : E (E(X|B)|C) = E(X|C). 6. Si X est indpendante de la tribu B (cest dire indpendante de toutes la variables alatoires B-mesurables) : E (X|B) = E(X). 7. Contraction pour la norme L2 : E |E(X|B)|2 E(|X|2 ).

Remarque 3.2.5 On dduit de la proprit 2 : |E(X|B)| E (|X||B) , et (contraction pour la norme L1 ) : E (|E(X|B)|) E(|X|).

54

Cours de Processus Alatoires

Le rsultat suivant est trs utilis dans les calculs. Lemme 3.2.6 Soit B une sous-tribu de A et X, Y deux variables alatoires relles t.q. X est indpendante de B (i.e. de toutes les variables B-mesurables) et Y est B-mesurable. Soit, en outre, f une fonction mesurable borne de R2 dans R, alors : E(f(X, Y)|B) = (Y), avec : (y) = E(f(X, y)). En particulier, lorsque X et Y sont indpendantes, X est indpendante de (Y) et E(f(X, Y)|Y) = (Y) o est dnie dans lnonc du lemme. Dmonstration : Nous donnerons une dmonstration dans le cas particulier o B = (Y) et o X et Y ont des lois admettant des densits notes respectivement pX (x) et pY (y). Cette hypothse technique simplie la dmonstration mais nest pas ncessaire. (Y) tant une variable alatoire (Y)-mesurable, il suft de vrier que pour toute variable alatoire Z borne (Y)-mesurable borne, donc de la forme h(Y), on a : E((Y)h(Y)) = E(f(X, Y)h(Y)). Pour cela on va expliciter E((Y)h(Y)). On a : E((Y)h(Y)) =
R

(y)h(y)pY (y)dy,

mais, (y) = E(f(X, y)) =

f(x, y)pX (x)dx, donc : f(x, y)pX (x)dx h(y)pY (y)dy.


R R

E((Y)h(Y)) =

En utilisant le thorme de Fubini, on obtient : E((Y)h(Y)) = f(x, y)h(y)pX (x)pY (y)dy = E(f(X, Y)h(Y)).

R2

Ceci permet den dduire le rsultat annonc.

3.3 Cas dun couple gaussien


Soit (X, Y) un couple de variables alatoires centres (E(X) = 0 et E(Y) = 0) qui est un vecteur gaussien. Nous allons chercher calculer : E (X|Y) .

Remarque 3.3.1 Rappellons que daprs la proposition 2.1.3, les coordonnes dun vecteur gaussien sont indpendantes si et seulement si sa matrice de variance-covariance est diagonale.

Ch.3 Esprance conditionnelle

55

Proposition 3.3.2 Soit (X, Y) un couple qui forme un vecteur gaussien centr. On notera 2 la 1 variance de X, 2 la variance de Y (que lon supposera strictement positive) et le coefcient 2 de corrlation3 de X et de Y : Cov (X, Y) = . Var(X)Var(Y) Alors : E(X|Y) = de plus : X = E(X|Y) + Z, Z tant une variable alatoire gaussienne centre indpendante de Y et de variance : Var(Z) = (1 2 )2 . 1 Remarque 3.3.3 Dans ce cas, trs particulier, la meilleure approximation de X par une fonction linaire de Y donne la meilleure approximation de X parmi toutes les fonctions de Y.
Dmonstration : Cherchons R t.q. la variable Z = X Y soit indpendante de Y. Comme le couple (Z, Y) est obtenu par transformation linaire partir du couple gaussien centr (X, Y), il est gaussien centr. Donc Z est indpendant de Y ssi E(ZY) = 0 soit E(XY) = E(Y 2 ). Posons : 0 = Cov (X, Y) 1 = Var(Y) 2 Z = X 0 Y, Z est donc indpendant de Y. Calculons maintenant E(X|Y), on a (par linarit) : E(X|Y) = E(Z|Y) + 0 E(Y|Y). Mais E(Y|Y) = Y (Y est bien sr (Y)-mesurable) et E(Z|Y) = E(Z) (puisque Z est indpendant de Y par construction). De plus E(Z) = E(X) 0 E(Y) = 0, donc : E(X|Y) = 0 Y = 1 Y. 2

Cov (X, Y) 1 Y = Y, Var(Y) 2

De plus, le couple (X, Y) formant un vecteur gaussien, comme Z = X 0 Y, Z suit une loi gaussienne centre de variance donne par : Var(Z) = Var(X) + 2 Var(Y) 20 Cov (X, Y) = Var(X) 1 2 . 0

Noter que est un nombre rel entre 1 et 1

56

Cours de Processus Alatoires

3.4 Travail dirig : Estimation bayesienne


Mesure de la qualit. On considre une entreprise qui fabrique des rsistances lectroniques. Les imperfections de la production entranent que la rsistance dun composant ne correspond pas exactement la valeur nominale m . On modlise la valeur de la rsistance par une variable alatoire gaussienne N (m , 2 ). Cette modlisation est issue dune tude antrieure. Pour  vrier la qualit de production, lingnieur qualit prlve un composant et mesure la valeur de sa rsistance. Lappareil de mesure quoique de bonne qualit induit une erreur alatoire E sur la mesure. On suppose que lappareil est bien calibr et que lerreur est une variable alatoire gaussienne N (0, 2 ) indpendante de la quantit mesure. Le rsultat de la mesure est donc e X = + E. Le problme qui suit a pour but de donner une estimation de la resistance, alors que lon connait le rsultat X de la mesure. 1. Quelle est la loi du couple (, E). En dduire la loi de X. 2. Trouver R t.q. Z = X soit indpendant de X. Quelles sont lesprance et la variance de Z ? ^ 3. Calculer = E[ | X]. Interprter les cas limites  0 et e 0. 4. Calculer E ^
2

. Cette quantit caractrise lerreur (quadratique) de lestimation.

^ Pourquoi dit-on que est le meilleur estimateur de ? O lon dispose de plusieurs mesures. On rpte n fois la mesure de la mme rsistance. chaque mesure i lappareil de mesure produit une erreur Ei . On suppose que les variables alatoires Ei , 1 i n sont indpendantes et de mme loi N (0, 2 ). On suppose de plus que e les erreurs sont indpendantes de la valeur de la rsistance mesure. 1. Quelle est la loi du vecteur (, E1 , . . . , En ) ? 2. On note Xi = + Ei le rsultat de la mesure i. Pour calculer la loi de sachant X = (X1 , . . . , Xn )t , on applique la mme mthode que prcdemment. On cherche Rn tel que la variable Z dnie par = t X + Z, soit indpendante de X. Montrer que cette condition se traduit par t = Cov (, Xt ) (VarX)-1 . o VarX dsigne la matrice de variance covariance de X. 3. Montrer que VarX = 2 1n + 2 In , o 1n est la matrice de taille n n forme de 1 et In e  est la matrice identit de Rn . 2 1  1n est linverse de VarX. 4. Montrer que 2 In 2 2 e e (n + 2 ) e 5. Montrer que t 6. Montrer que E[Z] = 2  (1, . . . , 1). n2 + 2 e  2 m  n2 + 2 e  et VarZ 2 2  e . n2 + 2 e 
1 n n i=1

^ 7. Exprimer n = E [ | X] en fonction de la moyenne empirique Xn = mesures.

Xi des

Ch.3 Esprance conditionnelle

57

8. Montrer que lerreur quadratique moyenne est E ^ n


2

2 2  e = . 2 n + 2 e

Quel est lintrt de faire plusieurs mesures ? ^ 9. Montrer que Xn et n convergent presque srement quand n . Quelle est la limite. On parle destimateurs convergents. ^ 10. Calculer la loi de n(Xn ) et la loi de n(n ). Comparer les erreurs quadratiques moyennes de ces deux estimateurs. Conclusion. ^ 11. Donner la loi asymptotique de n(Xn ) et de n(n ). Que se passe-t-il si lon dispose dun grand nombre de mesures ?

58

Cours de Processus Alatoires

3.5 Exercices
Exercice 28 Soit (Bt )t0 un mouvement brownien et 0 < s t. 1. Calculer E(Bt |Bs ) et E(Bs |Bt ). 2. Dterminer E(B2 |Bs ) et E(eBt |Bs ) o R t Exercice 29 Soit A, B deux sous-ensembles mesurables de (, A, P). Calculer : E [1A | 1B ] . Exercice 30 Soit (Z, Z1 , . . . , Zn ) un vecteur centr de carr intgrable. 1. Montrer que si Z = n 0 Zi est tel que, pour tout i :
i=1 i

E (Z Z)Zi = 0, alors Z ralise le minimum de E (Z


n i=1

i Zi )2 .

2. Si on suppose de plus que (Z, Z1 , . . . , Zn ) est un vecteur gaussien centr, dmontrer que Z Z est une gaussienne indpendante de (Z1 , . . . , Zn ). Exercice 31 Soit (Xn , n 1) une suite de v.a.r. i.i.d et de carr intgrable. Soit une variable alatoire valeurs dans N , de carr intgrable et indpendante des v.a.r. prcdentes. On note S = X1 + + X . 1. Calculer la moyenne conditionnelle E[S | ] et E (S E[S | ])2 | , la variance conditionnelle. 2. En dduire la valeur de E[S ] et de E (S E[S ])2 . Exercice 32 1. Soit (Xn , n 1) une suite de v.a.r. i.i.d. telle que E[|X1 |] < . Montrer que p.s. E [X1 | X1 + X2 ] = E [X2 | X1 + X2 ] = [X1 + X2 ]/2. 2. On note Sn =
n i=1

Xi . En dduire que p.s. E [X1 | (Sn , Sn+1 , . . .)] = Sn /n.

Exercice 33 Soit X0 une variable alatoire gaussienne centre de variance 2 et (Yj , j 0) une 0 suite innie, indpendante de X0 , de variables alatoires relles gaussiennes centres indpendantes de variances gales : Var(Yj ) = 2 , si j 0, pour des rels 0 et positifs donns. Soit (Xj , j 0) la suite des variables alatoires relles dnies par rcurrence sur j partir de X0 par la formule, si j 0 : Xj+1 = aXj + Yj , pour un rel x a tel que |a| < 1. 1. tablir que pour tout n 1 la variable alatoire relle Xn est une variable alatoire gaussienne centre. Montrer quelle est indpendante de (Yn , Yn+1 , . . .). 2. tablir une relation de rcurrence entre les variances 2 = Var(Xj ). quelle condition j ncessaire et sufsante sur 2 , 2 et a les variables alatoires ont elles la mme variance. 0 On suppose dans la suite que cette condition est vrie.

Ch.3 Esprance conditionnelle

59

3. Exprimer Xn+k laide de Xn et de Yn , Yn+1 , . . ., pour n 0 et k > 0. En dduire les valeurs des covariances Cov(Xn , Xn+k ) en fonction des paramtres initiaux. 4. Trouver 0 , . . . , n t.q. Xn+k
n i=0

i Xi soit indpendante de (X0 , . . . , Xn ).

5. Quelle est la meilleure approximation linaire dans L2 de Xn+k en fonction de X0 , . . . , Xn , n 0, k > 0 ? Exercice 34 Soit X une variable alatoire valeurs dans Rd dnie sur un espace de probabilit (, A, P). On suppose que X est borne. Soit B une sous tribu de A et une fonction convexe de Rd dans R. 1. On suppose que est C1 . Montrer que (E(X|B)) + En dduire lingalit de Jensen, (E(X|B)) E((X)|B)). 2. Retrouver lingalit de Jensen sans faire dhypothse de rgularit sur la fonction mais en utilisant le fait que toute fonction convexe est lenveloppe suprieure dune famille dnombrable de fonctions afnes (i.e. il existe une famille dnombrable (An , n 1) de fonctions afnes telles que pour tout x Rd , (x) = supn1 An (x)). Exercice 35 Soit X et Y deux variables alatoires relles t.q. Y est (X)-mesurable. On note B(R) la tribu borlienne de R. 1. Montrer que C = {X-1 (B), B B(R)} est une tribu. En dduire que C = (X). 2. Montrer que pour tout a < b R, il existe Ba;b B(R) t.q. {a < Y b} = X-1 (Ba;b ) = {X Ba;b }. 3. Soit Yn =
p pZ 2n

(E(X|B))(X E(X|B)) (X).

1f

p p+1 2n <Y 2n

g . Montrer que Yn = fn (X) pour


pZ

fn (x) =

p (x). 1B n n 2n 2p ; p2+1
1 2n0

4. Montrer que n n0 , supxR |fn (x) fn0 (x)| converge uniformment vers une fonction f.

. En dduire que la fonction fn

5. Quelle est la limite de (Yn )n ? Conclure que Y = f(X). Il est facile de vrier que les fonctions fn sont mesurables au sens o B B(R), f-1 (B) B(R). Cela implique que leur limite f est galement mesurable.

Chapitre 4 Martingales temps discrets


4.1 Introduction la notion de martingale
Soit (, A, P) un espace muni dune tribu et dune probabilit. On se donne une suite croissante de sous-tribus de A, (Fn , n 0). On dit alors dans cette situation, que (Fn , n 0) est une ltration sur (, A, P). Soit (Xn , n 0) une suite de variables alatoires. On dit que (Xn , n 0) est adapte la ltration (Fn , n 0) si pour tout n, la variable alatoire Xn est Fn -mesurable. Dnition 4.1.1 Soit (, A, P) un espace et (Fn , n 0) une ltration sur cet espace. Une suite (Mn , n 0) de variables alatoires relles est une Fn -martingale si : (Mn , n 0) est Fn -adapt, et, pour tout n 0, E (|Mn |) < +, pour tout n 0 : E (Mn+1 |Fn ) = Mn .

(4.1)

Remarque 4.1.2 Si (Mn , n 0) est une Fn -martingale, alors pour tout n 0, Mn est Fn 0 mesurable et donc Fn = (M0 , . . . , Mn ) Fn . On en dduit, grce aux proprits 6 et 3 de lesprance conditionnelle donnes page 53, que :
0 0 0 Mn = E Mn |Fn E E (Mn+1 |Fn ) |Fn = E Mn+1 |Fn . 0 On voit donc que (Mn , n 0) est, aussi, une Fn -martingale.

Remarque 4.1.3 Cette dnition signie que la meilleure prvision de Mn+1 compte tenu de linformation disponible linstant n (i.e. Fn ) est donne par Mn . Remarque 4.1.4 Notez que (4.1) est quivalent dire que pour tout p 0 : E(Mn+p |Fn ) = Mn . En effet, en utilisant le fait que la suite des tribus Fn est croissante on a : E(Mn+2 |Fn ) = E (E (Mn+2 |Fn+1 ) |Fn ) = E (Mn+1 |Fn ) = Mn . On gnralise ce rsultat, sans difcults, au cas p > 2 par rcurrence. Remarque 4.1.5 Si (Mn , n 0) est une martingale alors : E (Mn+1 ) = E (E (Mn+1 |Fn )) = E (Mn ) . Lesprance dune martingale est donc constante au cours du temps. 61

62

Cours de Processus Alatoires

4.2 Exemples
15

10

-5

20

40

60

80

100

F IG . 4.1 Trajectoire de la marche alatoire symtrique Soit (Xn , n 1) une suite de variables alatoires indpendantes de mme loi. On pose S0 = 0 Sn = X1 + + Xn si n 1 On dit que (Sn , n 0) est une marche alatoire. On note F0 = {, } et Fn = (X1 , . . . , Xn ) pour n 1. On peut remarquer que Fn = (S0 , . . . , Sn ). On a alors : Proposition 4.2.1 Si E(|X1 |) < + et E(X1 ) = 0, (Sn , n 0) est une Fn -martingale. Dmonstration : Sn est borne puisque elle prend un nombre ni de valeurs, donc E(|Sn |) < +. De plus, on a : E(Sn+1 |Fn ) = E(Sn + Xn+1 |Fn ) = E(Sn |Fn ) + E(Xn+1 |Fn ). Mais Xn+1 est par construction indpendante de Fn , donc E(Xn+1 |Fn ) = E(Xn+1 ) = 0. De plus Sn est Fn -mesurable (puisque cest une fonction de (X1 , . . . , Xn )), donc E(Sn |Fn ) = Sn . On obtient donc : E(Sn+1 |Fn ) = Sn .

Proposition 4.2.2 Si E(X2 ) < + et E(X1 ) = 0, alors : 1 (Vn = S2 nE(X2 ), n 0), n 1 est une Fn -martingale.

Ch.4 Martingales temps discrets

63

Dmonstration : Vn prennant un nombre ni de valeurs, E(|Vn |) < +. Commenons par calculer E (Sn+1 Sn )2 |Fn , en utilisant le fait que Sn est Fn mesurable on obtient : E (Sn+1 Sn )2 |Fn = E S2 +1 2Sn Sn+1 + S2 |Fn n n = E(S2 +1 |Fn ) 2Sn E(Sn+1 |Fn ) + S2 , n n

mais comme E(Sn+1 |Fn ) = Sn (Sn est une martingale), on obtient : E (Sn+1 Sn )2 |Fn = E S2 +1 |Fn S2 . n n De plus : E (Sn+1 Sn )2 |Fn = E(X2 +1 |Fn ), n et Xn+1 est indpendante de Fn donc : E S2 +1 |Fn S2 = E (Sn+1 Sn )2 |Fn = E(X2 +1 ) = E(X2 ). n n n 1 Soit encore : E S2 +1 (n + 1)E(X2 )|Fn = S2 nE(X2 ). n 1 n 1

Proposition 4.2.3 Soit un rel tel que : () = log E eX1 < +. Alors : (Z = eSn -n() , n 0), n est une Fn -martingale. Dmonstration : Comme Sn est Fn -mesurable, on a : E eSn+1 |Fn = E eSn eXn+1 |Fn = eSn E eXn+1 |Fn . Mais Xn+1 est indpendant de Fn donc : E eXn+1 |Fn = E eXn+1 = E eX1 = e() . Do : E eSn+1 |Fn = eSn e() , puis le rsultat.

64

Cours de Processus Alatoires

4.3 Un exemple gnrique de martingale


Proposition 4.3.1 Soit (Mn , n 0) une Fn -martingale. Soit (Hn , n 0) un processus tel que Hn est Fn -mesurable et born. On se donne une variable alatoire G0 intgrable et F0 mesurable . Et pour n 1, on pose :
n-1

Gn = G0 +
k=0

Hk (Mk+1 Mk ) ,

ou, de faon quivalente, pour n 0, Gn+1 Gn = Hn (Mn+1 Mn ) . Alors (Gn , n 0) est une Fn -martingale. Dmonstration : Il suft de remarquer que Gn est Fn -mesurable que E(|Gn |) < + et que : E (Gn+1 Gn |Fn ) = Hn E (Mn+1 Mn |Fn ) = 0.

Exemple : gain dune stratgie dans un jeu de hasard quilibr On note (Hn , n 0) une suite de quantit que lon va parier sur un tirage qui rapporte Xn+1 . On suppose que les Hn scrivent sous la forme Hn = f(n, X1 , . . . , Xn ) (en particulier H0 est dterministe) et que les Hn sont des variables alatoires bornes. Si lon note Gn le gain cumul linstant n , on a : Gn+1 Gn = Hn Xn+1 = Hn (Sn+1 Sn ). On voit donc que si la suite des (Xn , n 1) est une suite I.I.D. de variables alatoires intgrables avec E(X1 ) = 0, (Gn , n 0) est une martingale, daprs le rsultat prcdent appliqu avec Mn = Sn = X1 + + Xn . Lesprance dune martingale tant constante on en dduit que : Le gain moyen au bout dun nombre ni de tirages dans un jeu quilibr est nul. E(Gn ) = E(G0 ). Il est, en particulier, exclu de gagner en moyenne dans un jeu de pile ou face quilibr. Il est aussi impossible (encore plus !) de gagner coup sr sans prendre de risque (i.e. P (Gn G0 ) = 1 et P(Gn > G0 ) > 0) dans les mme conditions. Il existe cependant des temps alatoires raisonnables nis tels que P(S > 0) = 1. Nous verrons, cependant, quil faut accepter de ne pas borner ses pertes pour arriver un tel rsultat.

Ch.4 Martingales temps discrets

65

4.4 Notion de temps darrt


Dnition 4.4.1 Soit (Fn , n 0) une ltration (i.e. une suite croissante de tribus). On dit que , une variable alatoire prenant ses valeurs dans N {+}, est un Fn -temps darrt si, pour tout n N : { n} Fn . Remarque 4.4.2 Cela signie que linstant n, on sait si n ou pas. Soit (Xn , n 0) un processus adapt la ltration (Fn , n 0) (i.e. pour tout n, Xn est Fn mesurable), posons : = inf {n 0, Xn [a, b]} , alors est un Fn -temps darrt. On dit que est le temps dentre du processus (Xn , n 0) dans lintervalle [a, b]. Par contre , le temps ralisant le maximum dun processus : = ArgMax {(Xn ), n 0} , et , le dernier temps o un processus est dans un ensemble : = sup {n 0, Xn [a, b]} , ne sont gnralement pas des temps darrt. Nous allons voir que la notion de martingale se marie bien avec celle de temps darrt. Dnition 4.4.3 On note xy = inf {x, y}. Soit (Mn , n 0) un processus adapt la ltration (Fn , n 0) et un temps darrt par rapport la mme ltration. On dnit alors un nouveau processus par : N n = M  ^n , Ceci signie que Nn () = Mn () si () n et Nn = M si n1 . On dit que N est le processus M arrt au temps . Proposition 4.4.4 Si (Mn , n 0) est une martingale par rapport (Fn , n 0) et si est un temps darrt par rapport la mme ltration, alors (Nn , n 0) est encore une Fn martingale. Dmonstration : On a : Nn+1 Nn = 1{ > n} (Mn+1 Mn ) . De plus Hn = 1{ > n} = 1 1{ n} est Fn -mesurable. (Nn , n 0) apparat donc comme une transforme de la martingale M au sens de la proposition 4.3.1. Ce qui permet de conclure. On obtient alors, sans difcults, le rsultat important suivant connu sous le nom de thorme darrt. Proposition 4.4.5 Si est un temps darrt born ( C, presque srement avec C rel positif. Cette proprit est essentielle) par rapport une ltration (Fn , n 0) et si (Mn , n 0) est une martingale par rapport la mme ltration alors : E (M ) = E(M0 ).
1

On notera que le fait que puisse tre inni ne pose pas de problmes dans cette dnition.

66

Cours de Processus Alatoires

Dmonstration : Il suft de remarquer quil existe un entier K tel que, presque srement, K et donc : NK = M^K = M . Mais comme (Nn , n 1) est une martingale on a : E(NK ) = E(N0 ), ce qui se rcrit E(M ) = E(M0 ). On voit donc que lgalit E(Mn ) = E(M0 ) se gnralise certains temps alatoires (les temps darrts borns). Les deux hypothses : 1. temps darrt, 2. born, sont cruciales. videmment, si = ArgMax {Mn , n N}, E(M ) > E(M0 ) sauf dans des cas triviaux. On voit donc que 1 doit gurer dans les hypothse du thorme. Pour justier 2 nous allons prouver le rsultat suivant. Proposition 4.4.6 Soit (Xn , n 1) une suite de variables alatoires indpendantes valant 1 avec probabilit 1/2. On pose S0 = 0 et pour n 1 : Sn = X1 + . . . + Xn . Pour un entier strictement positif non nul a, on introduit : = inf {n 0, Sn = a} , (avec la convention que = +, si lensemble prcdent est vide). Alors est un temps darrt vriant P ( < +) = 1 (on dit que est ni presque srement) et E(S ) = a > 0. On voit donc que lon ne peut pas appliquer le thorme darrt la martingale (Sn , n 1) et au temps darrt . Dmonstration : Remarquons que :
c

{ n} = {S1 < a, . . . , Sn < a} Fn .

{ n} est donc dans Fn et est un temps darrt. Montrer que P ( < +) = 1 est plus dlicat. Nous allons utiliser le thorme darrt pour la martingale : (eSn -n() , n 0), avec : () = log E(eX1 ).

Lorsque = 0, on a E(eX1 ) = e + e- /2 = cosh() > 1 et donc () > 0. nest pas un temps darrt born mais N, pour N un entier x, est born et reste un temps darrt. En effet, { N n} est gal { n} si N > n et si N n et il sagit dans les deux cas densembles de Fn . En utilisant le thorme darrt on obtient : E eS^N -(^N)() = E e0 = 1. Nous allons maintenant chercher faire tendre N vers +. Que se passe til ?

Ch.4 Martingales temps discrets

67

Nous avons vu que () 0 et si lon suppose de plus que > 0, comme S^N a, on voit que lon a : eS^N -(^N)() eS^N ea . De plus lorsque N tends vers +, on a N qui tends vers (cest clair si lon spare les cas < + et = +). On a donc, presque srement :
N!+1

lim eS^N -(^N)() = 1{ < +} eS -() + 1{ = +} 0.

Le thorme de Lebesgue (voir 1.3.2 page 11) sapplique et prouve que : E 1{ < +} eS -() = 1. Mais comme, sur lvnement { < +}, S = a, on en dduit que, pour tout > 0 : E 1{ < +} e-() = e-a . Il ne reste plus qua faire tendre vers 0 en dcroissant par valeurs positives et utiliser le thorme de convergence monotone (thorme 1.3.1 page 10) pour, en dduire, que : P ( < +) = 1.

Remarque 4.4.7 On dduit de ce qui prcde que, pour tout > 0 : E e-() = ea . On peut montrer que cette galit suft identier la loi de . Remarque 4.4.8 On a vu que, dans le jeu de pile ou face quilibr, il nexiste pas de stratgie en nombre ni de coups permettant de gagner en moyenne. La proposition prcdente permet dafrmer que si on joue sufsamment longtemps 1F pile ou face on nit par gagner coup sr 1F. Quelle est la limitation de cette stratgie ? Comme n est un temps darrt born et (Sn , n 0) une martingale on a : E (Sn^ ) = E(S0 ) = 0. Sous lhypothse E supn |Sn | < +, on peut utiliser le thorme de Lebesgue et en dduire que E(S ) = 0. Or ceci est clairement impossible, puisque par construction E(S ) = a > 0. Donc E supn |Sn | = +. Mais, comme Sn a pour n , on peut aussi afrmer que E supn (Sn )- = + (x- dsignant la partie ngative de x). On voit que dans cette stratgie, avant de gagner 1F, on doit tre prt assumer une perte dont lesprance est innie. En particulier on doit tre prt assumer une perte non borne.

4.5 Thorme de convergence des martingales


On cherche voir sous quelles conditions une suite (Mn , n 1) converge lorsque n tends vers +.

68

Cours de Processus Alatoires

Thorme 4.5.1 Supposons que (Mn , n 0) soit une martingale par rapport (Fn , n 0) et que de plus : sup E M2 < +. n
n0

On dit que (Mn , n 0) est borne en moyenne quadratique (ou dans L2 ). Sous cette hypothse il existe une variable alatoire M1 de L2 telle que :
n!+1

lim Mn = M1 ,

au sens de la convergence en moyenne quadratique et presque sre. Cela signie que : convergence en moyenne quadratique : limn!+1 E |Mn M1 |2 = 0. convergence presque sre : P (limn!+1 Mn = M1 ) = 1. Dmonstration : Rappel : Nous avons dj vu que : L2 = X v.a. telle que |X|2 2 = E(X2 ) < + , L est un espace de Hilbert. En particulier, il est complet. Ceci signie que si : Xn+p Xn
L2

peut tre rendu petit pour n grand indpendemment de p 0 (on dit alors que (Xn , n 1) est une suite de Cauchy), alors il existe X1 variable alatoire de L2 telle que :
n!+1

lim Xn = X1 dans L2 .

Nous allons commencer par montrer que la suite (Mn , n 1) est une suite de Cauchy. Remarquons que : E (Mn+p Mn )2 = E M2 +p 2Mn Mn+p + M2 n n = E M2 +p + E M2 2E (E (Mn Mn+p |Fn )) , n n mais : Donc : E (E (Mn Mn+p |Fn )) = E (Mn E (Mn+p |Fn )) = E M2 . n E (Mn+p Mn )2 = E M2 +p E M2 . n n (4.2)

On dduit de cette dernire galit que : 1. E M2 +p E M2 0, donc E(M2 ) est croissante. Comme elle est borne, par n n n hypothses, E(M2 ) converge vers une valeur . n 2. on a : sup E (Mn+p Mn )2 = sup E M2 +p E M2 . n n
p0 p0

La suite E(M2 ) tant convergente on en dduit que (Mn , n 1) est une suite de Cauchy n dans L2 . Elle converge donc vers une variable alatoire M1 dans L2 . La convergence presque sre est plus dlicate prouver et nous ladmettrons.

Ch.4 Martingales temps discrets

69

Exemple Soit (Un , n 1) une suite de variables alatoires indpendantes suivant une loi uniforme sur [0, 1]. Soit f une fonction borne telle que E(f(U1 )) = 0 et (n , n 1) une suite de rels telle que n1 2 < + alors la srie suivante : n n f(Un ),
n1

existe au sens de la convergence dans L2 et presque sre.

4.6 Convergence de Martingales et algorithmes stochastiques


Le but de cette section est de montrer, dans un cas simple, comment lon peut utiliser le rsultat de convergence des martingales cit plus haut pour construire des procdures dapproximation stochastique. Cadre dutilisation Nous allons supposer que lon cherche trouver un zro dune fonction f(x) de Rn dans R. On supposera de plus que la fonction f est difcile calculer, mais quelle se reprsente sous la forme : f(x) = E (F(x, U)) , F tant une fonction aisment calculable et U une variable alatoire de loi donne, facile simuler. Un exemple typique o ce genre dhypothse est pertinente est lorsque lon cherche valuer un quantile dune loi connue. Plus prcisment, on note f(x) la fonction de rpartition dune loi U donne par : f(x) = P (U x) , et, pour une probabilit proche de 1, on cherche identier x tel que : P (U x ) = . On dit, dans ce cas, que x est le quantile dordre de U. On voit que dans ce cas, on cherche trouver un zro de f(x) = P((U x) . Pour xer les ides supposons que U suive une loi gaussienne. La fonction de rpartition de U nest pas connue explicitement, mais on sait simuler facilement une variable alatoire selon la loi de U. De plus P (U x) = E 1{U x} , et lon peut donc choisir F(x, u) = 1{u x} . Lalgorithme de Robbins et Monro Lorsque la fonction f est croissante, nous allons voir que lon peut construire un algorithme nutilisant que la fonction F convergent vers lunique zros de f. Cet algorithme porte le nom dalgorithme de Robbins et Monro et se prsente de la faon suivante. On choisit une valeur initiale X0 quelconque, puis lon dnit itrativement Xn en posant Xn+1 = Xn n F(Xn , Un+1 ). Nous allons prouver que sous certaines hypothses sur F et cet algorithme est convergent. Les hypothses que nous ferons sur les fonctions F et f seront les suivantes :

70

Cours de Processus Alatoires

F est uniformment borne en x, u. il existe x Rd tel que f(x).(x x ) |x x |2 . Remarque 4.6.1 Notez que la premire hypothse implique que f est uniformment borne en x. Lorsque f est suppose de plus continue, la deuxime hypothse implique que x est lunique zro de f. Pour se convaincre de cette deuxime proprit, considrons un vecteur arbitraire de Rn et un rel positif. On a alors : f(x + v). v
2

|v|2 .

On en dduit que f(x + v).v |v|2 et en passant la limite lorsque tend vers 0 que f(x ).v 0. Cette relation tant vrie pour tout vecteur v, on en dduit en changeant le signe de v que f(x ).v = 0. Cette dernire galit tant vrie pour tout v, implique que f(x ) = 0. Lunicit du zro de f est claire puisque, si x = x on a f(x).(x x ) c |x x |2 > 0. Ce qui interdit f(x) dtre nul. Notez que en dimension 1, la deuxime condition signie que f(x) c(x x ) lorsque x > x et que f(x) c(x x ) lorsque x < x . Nous allons maintenant noncer un rsultat de convergence pour lalgorithme suggr au dbut de ce paragraphe. Thorme 4.6.1 Soit f une fonction de Rn dans R qui peut se mettre sous la forme f(x) = E (F(x, U)) , U tant une variable alatoire de loi connue prenant ses valeurs dans Rp et F une fonction de Rn Rp dans Rn . On suppose que : F est une fonction borne (|F(x, u)| K pour tout x et u), f(x).(x x ) c|x x |2 , c tant une constante strictement positive, (n , n 0) est une suite de rels positif qui vrient n0 n = + et n0 2 < n +. On dnit une suite de variables alatoires (Xn , n 0) en posant pour n 0 : Xn+1 = Xn n F(Xn , Un+1 ), X0 = x, x tant une valeur dterministe arbitraire et (Un , n 1) une suite de variables alatoires indpendantes tires selon la loi de U. Alors, limn!+1 Xn = x presque srement et dans L2 . Avant daborder la dmonstration de ce thorme nous rappelons un rsultat classique sur les suites de nombres rels connue sous le nom de lemme de Kronecker. Lemme 4.6.2 Soit (An , 1) une suite de nombres rels qui croissent vers +. Soit Sn = n=1 k la somme partielle dune srie que lon suppose (simplement) converk gente. Alors n 1 lim Ak k = 0. n!+1 An k=1

Ch.4 Martingales temps discrets

71

Dmonstration : Par convention on pose A0 = S0 = 0. La srie Sn tant convergente, on peut poser Sn = S1 + n avec limn!+1 n = 0. Avec ces notations, on a
n n n n

Ak
k=1

=
k=1

Ak (Sk Sk-1 ) =
k=1 n

Ak (k k-1 ) = An n
k=1 n

(Ak Ak-1 ) k-1 .

Do : 1 An

Ak
k=1

= n

1 An

(Ak Ak-1 ) k-1 .


k=1

Le premier terme tend clairement vers 0. Pour le deuxime, on se donne un N tel que pour k N, |k | . On a alors : 1 An
n

> 0, et lon choisit

(Ak Ak-1 ) k-1


k=1

1 An

(Ak Ak-1 ) |k-1 | +


k=1

An

(Ak Ak-1 ) .
k=N+1

On a donc, pour n N 1 An
n

(Ak Ak-1 ) k-1


k=1

CN + . An

Ce qui permet de conclure en remarquant que limn!+1 An = +.

Dmonstration : On peut se ramener sans perte de gnralit au cas x = 0 par un translation. Nous ne traiterons donc que ce cas. Dautre part, vu les hypothses sur n , il est clair que n tend vers 0, lorsque n tend vers +. Nous supposerons donc, dans la suite, toujours sans perte de gnralit que, pour tout n 0, n 1/(2c) (il suft dtudier lalgorithme partir dun rang pour lequel lingalit est vrie). Nous allons commencer par montrer que Xn tends vers 0 dans L2 , cest dire que limn!+1 E(|Xn |2 ) = 0. Pour cela notons F(x, u) = F(x, u) f(x). On a alors E F(x, U) = 0. De plus : |Xn+1 |2 = |Xn n F(Xn , Un+1 )|2 = |Xn |2 + 2 |F(Xn , Un+1 )|2 2n Xn .f(Xn ) 2n Xn .F(Xn , Un+1 ) n |Xn |2 + 2 K2 2cn |Xn |2 2n Xn .F(Xn , Un+1 ). n (4.3)

K tant un majorant de F. On prend alors lesprance des 2 membres de la prcdente ingalit pour obtenir : E |Xn+1 |2 (1 2cn )E |Xn |2 + 2 K2 2n E Xn .F(Xn , Un+1 ) . n Mais Xn est Fn = (U1 , . . . , Un ) mesurable et Un+1 est indpendant de Fn par construction de la suite (Un , n 1), on a donc (voir le lemme 3.2.6) : E Xn .F(Xn , Un+1 )|Fn = (Xn ), avec (x) = E(x.F(x, Un+1 )) = x.E(F(x, Un+1 )) = 0. On a donc : E Xn .F(Xn , Un+1 ) = E E Xn .F(Xn , Un+1 )|Fn = 0. (4.4)

72

Cours de Processus Alatoires

En notant an = E(|Xn |2 ), on vient dobtenir an+1 an (1 2cn ) + K2 2 . n En posant, A1 = 1 et : An =


i=0 n-1

1 , 1 2ci

on obtient : An+1 an+1 An an + K2 2 An+1 . n On en dduit en sommant entre 0 et n 1 que : E(|X0 |2 ) 1 an + An An


n

K2 2 -1 Ak . k
k=1

Pour montrer que an tends vers 0, on applique alors le lemme de Kronecker. Dune part n 2 k=1 k-1 < +. Dautre part, on note que n 1/(2c) ( partir dun certain rang) ce qui implique que An est croissante et lon a log(1 + x) x pour tout x rel, do : An = ePn
i=1 log(1-2c i )

e2c

Pn

i=1

Comme, n1 n = +, on obtient limn!+1 An = +, et lon est en mesure dappliquer le lemme de Kronecker pour prouver que limn!+1 E(|Xn |2 ) = 0. Pour montrer la convergence presque sre, nous allons utiliser le thorme 4.5.1 qui permet dafrmer quune martingale borne dans L2 est convergente. Pour cela on commence par rcrire linquation (4.3) sous la forme : |Xn+1 |2 |Xn |2 + 2 K2 2cn |Xn |2 + Mn+1 Mn , n o lon a dnit la suite (Mn , n 0) par M0 = 0 et Mn+1 Mn = 2n Xn .F(Xn , Un+1 ). Il est facile de vrier que (Mn , n 0) est une martingale puisque E (Mn+1 Mn |Fn ) = 2n E Xn .F(Xn , Un+1 ) = 0, vue lgalit (4.4). Dautre part, en sommant lingalit (4.5) entre 0 et n 1, on obtient : |Xn |2 1 |X0 |2 + An An
n

(4.5)

Ak (K2 2 -1 + Mk Mk-1 ). k
k=1

Si lon est en mesure de prouver que (Mn , n 0) est une suite convergente, la srie de terme gnral K2 2 -1 + Mk Mk-1 sera elle aussi convergente et le lemme de Kronecker permettra k de conclure. Pour terminer la dmonstration, il nous reste donc dmontrer que Mn converge lorsque n tends vers linni. Pour montrer ceci, nous utilisons le thorme 4.5.1. On sait dj que (Mn , n 0) est une martingale, il suft donc de vrier que sup E M2 < +. n
n0

Ch.4 Martingales temps discrets

73

En utilisant lquation (4.2), on obtient : E M2 +1 E M2 = E (Mn+1 Mn )2 n n = 42 E n 42 n Xn .F(Xn , Un+1 ) E(|Xn |2 )


2

E(F(Xn , Un+1 )2 ).

Mais F est borne donc f et F aussi et nous venons de voir que E(|Xn |2 ) tends vers 0 (et reste donc borne). On a donc : E M2 +1 E M2 C2 . n n n En sommant cette ingalit entre 0 et n 1, on obtient :
n-1

E M

2 n

E M

2 0

k=0

2 . k

La srie k0 2 tant convergente, on en dduit que E M2 reste born. Le thorme 4.5.1 n k permet alors de conclure la convergence presque sre de Mn et le lemme de Kronecker conduit la convergence presque sre de Xn vers 0. Remarque 4.6.3 Lefcacit de lalgorithme est lie au choix de la suite (n , n 0). Ce choix est souvent dlicat. On sen convaincra en utilisant pour des diverses valeurs de b et c, le programme suivant. Un programme Scilab pour le calcul dun fractile
// fractile a calculer alpha=0.2;// 20 %

// tirages aleatoires communs aux trois algorithmes n=1000; u=rand(1,n); // algorithme de Robbins et Monro // choix de gamma_n c=1.0;b=1.0; Gamma=c*1../(1+b*[1:n]); // algorithme y=1/2; x_rm=zeros(1,n); for i=1:n y=y-Gamma(i)*((u(i)<=y)-alpha); x_rm(i)=y; end // moyenne des tirages Robbins Monro z=cumsum(x_rm)./[1:n]; // methode empirique classique w=zeros(1,n); ww=[]; for i=1:n

74

Cours de Processus Alatoires

ww=[ww,u(i)]; xx=sort(ww); h=xx(ceil(i*(1-alpha))); w(i)=h; end; xbasc(); // algorithme de Robbins et Monro plot2d([1:n],x_rm,1,011, ,[0,-.2,n,1],[0,4,0,6]); // moyenne des tirages Robbins Monro plot2d([1:n],z,2,010, ,[0,-.2,n,1],[0,4,0,3]); // methode empirique plot2d([1:n],w,6,010, ,[0,-.2,n,1],[0,4,0,3]); // resultat exact plot2d([1:n],alpha*ones(1:n),3,010, ,[0,-.2,n,1],[0,4,0,3]);

Ch.4 Martingales temps discrets

75

4.7 Travail dirig : Temps de sortie dune marche alatoire

18

a
0

-18 0 20 40

60

80

100

F IG . 4.2 Temps de sortie de [a, b] par une marche alatoire Soient (Xi , i 1) des variables alatoires indpendantes de mme loi, telles que P[Xi = 1] = p et P[Xi = 1] = q = 1 p. On suppose p ]0, 1[. On note Sn = S0 + X1 + + Xn . La suite Sn modlise la richesse dun joueur un jeu de pile ou face avec une pice biaise. S0 = x Z est la richesse initiale du joueur. Dans les calculs on notera Px pour P an de rappeler que lon part de la condition initiale S0 = x.

Le cas p = q = 1/2.
1. Montrer que (Sn , n 0) est une Fn -martingale o Fn = (X1 , , Xn ). 2. Pour a < b Z, on note a;b = inf{n 0; Sn b ou Sn a}. Que reprsente a;b ? Montrer quil sagit dun temps darrt. 3. Montrer en utilisant le thorme de la limite centrale que a;b est ni p.s. Montrer quil nest pas born si a < x < b 1 ou si a + 1 < x < b. 4. En utilisant le thorme darrt, montrer que, pour x [a, b] : Ex [Sa;b ] = x. 5. On suppose x ]a, b[. Calculer Px [Sa;b = a]. 6. Trouver la suite (bn , n 0) pour que ((Sn x)2 bn , n 0) soit une Fn -martingale. 7. Calculer Ex [a;b ].

76

Cours de Processus Alatoires

8. Utiliser les martingales exponentielles pour calculer eat Ex s-a;b 1{S o s = (et + e-t )/2 et t R. 9. Exprimer et en fonction de s. En dduire Ex s-a;b 1{S 10. En dduire la fonction gnratrice de a;b . 11. On note b = inf{n 0; Sn b}. Vrier que (-n;b , n 0) converge en croissant vers b . En dduire que P[b < +] = lim P[S-n;b = b] = 1.
n!1 a;b a;b bt -a;b 1{S , = a} + e Ex s a;b = b}

= a} .

12. Calculer E[b ]. Calculer la fonction gnratrice de b . Peut-on appliquer le thorme darrt Sb ? En dduire que E[supnb |Sn |] = +.

Le cas p = q.
On reprend les mmes notations que ci-dessus. 1. Montrer que ((q/p)Sn , n 0) est une Fn -martingale. 2. Montrer en utilisant la loi forte des grands nombres que a;b est ni p.s. Montrer quil nest pas born si a < x < b 1 ou si a + 1 < x < b. 3. En utilisant le thorme darrt, montrer que, pour x [a, b] : Ex [(q/p)Sa;b ] = (q/p)x . 4. On suppose x ]a, b[. Calculer Px [Sa;b = a]. Que se passe-t-il quand p 1/2 (on cherchera une convergence en loi) ? 5. Trouver une suite dterministe (cn , n 0) telle que (Sn cn , n 0) est une Fn martingale. En dduire Ex [a;b ]. 6. Utiliser les martingales exponentielles pour calculer eat Ex s-a;b 1{S o s = p et +q e-t . 7. Exprimer et en fonction de s. En dduire Ex s-a;b 1{S = a} . 8. En deduire la fonction gnratrice de a;b . Que se passe-t-il quand p 1/2 ?
a;b a;b bt -a;b 1{S , = a} + e Ex s a;b = b}

9. Montrer que b nest pas toujours ni p.s. Calculer Px [b < +]. 10. Calculer la fonction gnratrice de b . Que se passe-t-il quand p 1/2 ? Peut-on appliquer le thorme darrt Sb ?

Ch.4 Martingales temps discrets

77

4.8 Exercices
Exercice 36 Soit un temps darrt par rapport une ltration (Fn )0nN . On note F lensemble des vnements A tels que A { = n} Fn , pour tout n {0, . . . , N}. 1. Montrer que F est une sous-tribu de FN . F est souvent appele tribu des vnements antrieurs . 2. Montrer que la variable alatoire est F -mesurable. 3. Soit X une variable alatoire relle. Montrer lgalit :
N

E(X|F ) =
j=0

1{ = j} E(X|Fj )

4. Soit un temps darrt tel que . Montrer que F F . 5. Sous les mmes hypothses, montrer que si (Mn ) est une martingale, on a M = E(M |F ). (On pourra traiter le cas = N dabord.)

Chapitre 5 Chanes de Markov temps discret


5.1 Chane de Markov
Dnition 5.1.1 Soit E un espace ni ou dnombrable. On dit que : (P(x, y), x E, y E) , est une matrice de transition dune chane de Markov si : P(x, y) 0 pout tout x et y dans E, yE P(x, y) = 1. Pour tout x, on peut dnir une probabilit sur E, en posant : P(x, A) =
yA

P(x, y).

Dnition 5.1.2 On dit quun processus (Xn , n 0) est une chane de Markov sur un espace E de probabilit de transition P si lon a, pour tout x0 ,. . .,xn ,xn+1 : P (Xn+1 = xn+1 |Xn = xn , . . . , X0 = x0 ) = P (Xn+1 = xn+1 |Xn = xn ) = P(xn , xn+1 ). Un exemple gnrique de chane de Markov Soit (Un , n 1) une suite de variables alatoires indpendantes sur un espace F, ayant toutes la mme loi. Soit H une application de E F dans E, alors si lon pose X0 = x0 un point x et si lon dnit Xn par la formule de rcurrence : Xn+1 = H(Xn , Un+1 ), alors, la suite (Xn , n 0) est une chane de Markov dont la matrice de transition est donne par : P(x, y) = P (H(x, U1 ) = y) .
Dmonstration : P (Xn+1 = xn+1 , Xn = xn , . . . , X0 = x0 ) = P (H(Xn , Un+1 ) = xn+1 , Xn = xn , . . . , X0 = x0 ) = P (H(xn , Un+1 ) = xn+1 , Xn = xn , . . . , X0 = x0 ) . Mais H(xn , Un+1 ) est indpendante du vecteur (U1 , . . . , Un ) et X0 , . . . , Xn scrivent comme des fonctions de (U1 , . . . , Un ). Donc H(xn , Un+1 ) est indpendante du vecteur X0 , . . . , Xn . On en dduit que : P (Xn+1 = xn+1 , Xn = xn , . . . , X0 = x0 ) = P (H(xn , Un+1 ) = xn+1 ) P (Xn = xn , . . . , X0 = x0 ) .

79

80

Cours de Processus Alatoires

Par dnition du conditionnement par un ensemble, on a : P (Xn+1 = xn+1 |Xn = xn , . . . , X0 = x0 ) = P (H(xn , Un+1 ) = xn+1 ) = P(xn , xn+1 ).

Voici quelques exemples construit partir de ce rsultat. Nombre de piles conscutifs dans un jeu de pile ou face Soit (Un , n 1) une suite de variables alatoires valant 1 avec pobabilit p et 1 avec probabilit 1 p, p tant un nombre rel de lintervalle [0, 1]. Appelons Nn le nombre de 1 conscutifs avant le n-ime tirage. Par convention N0 = 0 et Nn = 0 si le m-ime tirage est 0. Il est, alors, facile de vrier que pour n0: Nn+1 = (Nn + 1) 1{U
n+1

= 1} .

(Nn , n 0) est donc une chane de Markov de probabilit de transition : P(n, n + 1) = p, n 0, P(n, 0) = 1 p, n 0, P(x, y) = 0, sinon. Modle de Cox-Ross-Rubinstein Soit (Vn , n 1) une suite de variables alatoires indpendantes telle que P(Vn = u) = p et P(Vn = d) = 1 p, p tant un rel compris entre 0 et 1, u et v deux rels positifs. Posons X0 = x et dnissons par rcurrence Xn par : Xn+1 = Xn Vn+1 . (Xn , n 0) est une chaine de Markov de matrice de transition P donne par : P(x, xu) = p, x R, P(x, xd) = 1 p, x R, P(x, y) = 0, sinon. Cest le modle discret le plus couramment utilis en nance. Il porte le nom de modle de Cox-Ross-Rubinstein. Marches alatoires Soit (Xn , n 1) une suite de variables alatoires relles indpendantes suivant toutes la mme loi, alors si S0 = 0 et : Sn = X1 + + Xn , (Sn , n 0) est une chane de Markov de matrice de transition done par : P(x, y) = P(X1 = y x). Les calculs des lois lies aux chanes de Markov sont, souvent, facile expliciter.

Ch.5 Chanes de Markov temps discret

81

Gestion de stock On dcrit la demande des clients par une suite de variables alatoires indpendantes de mme loi (Dn , n 1). On se donne 2 nombres s et S tels que 0 s S qui reprsentent respectivement un niveau de stock maximum et minimum. On procde alors de la faon suivante : A linstant n, si le stock Xn est infrieur s on la porte S (instantanment ! mais on raner le modle pour amliorer ce point), On retranche la demande linstant n + 1, Dn+1 au nouveau stock (si cest possible). Cela donne : (Xn Dn+1 )+ si s < Xn S Xn = (S Dn+1 )+ si Xn s. On suppose que la suite dcrivant la demande (Dn , n 1) est une suite de varaibles alatoires indpendantes suivant toutes la mme loi. La suite (Xn , n 0) est, sous cette hypothse, une chane de Markov. Voici quelques questions auquelles on souhaiterait pouvoir rpondre : 1 que vaut n n 0 Xj la moyenne empirique du stock, i= que vaut P(Xj = a), la loi du stock, comment valuer les demandes non satisfaites. Processus de vie et de mort On considre (i , i 1, n 0) une suite doublement indexe de variables alatoires indpendantes de mme loi, valeurs dans les entiers positifs. On note (z) sa fonction gnratrice de Laplace donne par : (z) = E(z ), pour 0 z 1. On construit alors le processus (Xn , n 0) de la faon suivante, on pose X0 = 1 puis :
Xn

(n)

Xn+1 =
i=1

(n+1)

avec la convention que, si Xn = 0 la somme vaut 0. Linterprtation intuitive, qui justie le nom du processus, est que chaque individu donne naissance un nombre denfants qui suit la loi de puis disparait. (n) Si lon note (n) = (i , i 1), Xn+1 peut scrire sous la forme : Xn+1 = (Xn , (n+1) ), o (x, ) = x=1 i . La suite ((n) , n 1) tant une suite de variables alatoires ( valeurs i dans un espace de suite !) de mme loi. On en dduit que (Xn , n 0) est une chane de Markov et que sa matrice de transition P est donne par :
x

P(x, y) = P
i=1

i = y .

Nous allons voir que lon est capable dvaluer la probabilit dextinction de la population que lon notera p. Pour cela, notons que : E zXn+1 |Fn = E z
PXn
i=1 i

(n+1)

|Fn

Comme Xn est Fn -mesurable et (n+1) est indpendante de Fn , en utilisant le lemme 3.2.6 page 54 on obtient : E zXn+1 |Fn = E(z )Xn = (z)Xn .

82

Cours de Processus Alatoires

En prenant lesprance des deux membres de cette galit on obtient : E zXn+1 = E (z)Xn . Appellons n (z) la fonction gnratrice de Laplace de Zn : n (z) = E zXn , on peut rcrire la dernire quation sous la forme : n+1 (z) = n ((z)) , Comme 0 (z) = z, on en dduit que : n (z) = ((. . . (z))) = n (z), puis que : n+1 (z) = (n (z)) . Dautre part la probabilit dextinction p est donne par : p = P ( il exite un instant n tel que Xn = 0) , Comme la famille dvenements {Xn = 0} est croissante on en dduit que : p = lim P (Xn = 0) .
n!+1

(5.1)

Remarquons, dautre part, que : P (Xn = 0) = E(0Xn ) = n (0). On peut alors utiliser lquation (5.1) et la continuit de pour prouver que : p = (p). Le problme probabiliste de calcul de la probabilit dextinction de la population se ramne simplement au problme de ltude de la fonction . On peut dduire des proprits de (exercice) que : si E() 1 alors p = 1, si E() > 1, il existe une unique solution lquation () = avec < 1 et lon a p = . On voit donc que : si E() 1, la population disparat forcment au bout dun temps ni, si E() > 1, la population peut survivre indniment.

5.2 Calcul de lois


Proposition 5.2.1 Soit (Xn , n 0) une chane de Markov sur un espace E de matrice de transition P et de loi initiale (la loi initiale est donne par la loi de X0 , i.e. par la famille de nombres (x) = P(X0 = x)). La loi du vecteur (X0 , . . . , Xn ) se calcule par la formule : P (X0 = x0 , . . . , Xn = xn ) = (x0 )P(x0 , x1 ) P(xn-1 , xn ).

Ch.5 Chanes de Markov temps discret

83

Dmonstration : Par dnition de la probabilit conditionnelle, on a : P(X0 = x0 , . . . , Xn = xn , Xn+1 = xn+1 ) = P (Xn+1 = xn+1 |X0 = x0 , . . . , Xn = xn ) P (X0 = x0 , . . . , Xn = xn ) . Comme (Xn , n 0) est une chane de Markov on en dduit que : P (X0 = x0 , . . . , Xn = xn , Xn+1 = xn+1 ) = P (X0 = x0 , . . . , Xn = xn ) P(xn , xn+1 ), puis par rcurrence que : P (X0 = x0 , . . . , Xn = xn , Xn+1 = xn+1 ) = P(X0 = x0 )P(x0 , x1 ) P(xn , xn+1 ).

Remarque 5.2.2 Notez que la loi du vecteur (X0 , . . . , Xn ) ne dpend que de P, la matrice de transition, et , la loi initiale. On dduit de ce rsultat une expression pour la loi de Xn . Introduisons les notations suivantes : (Pf)(x) = yE P(x, y)f(y), pour f une fonction de E dans R, (P)(y) = xE (x)P(x, y), pour une loi de probabilit sur E, (PQ)(x, y) = zE P(x, z)Q(z, y), pour P et Q deux matrices de transition. Pn est dnie par rcurrence par : Pn+1 (x, y) =
zE

P(x, z)Pn (z, y).

Noter que Pf est une fonction sur E, PQ une matrice de transition et P une loi de probabilit sur E. Proposition 5.2.3 Soit (Xn , n 0) un chane de Markov de matrice de transition P et de loi initiale . Alors : P (Xn = xn ) =
x0 E;x1 E;:::;xn-1 E

(x0 )P(x0 , x1 ) P(xn-1 , xn ).

soit, avec les notations prcdentes : P (Xn = xn ) = (Pn )(xn ), Remarque 5.2.4 On voit donc que le calcul de la loi de Xn se ramne un calcul matriciel.
Dmonstration : La dmonstration est une application directe de la formule donnant la loi marginale dune des coordonnes dun vecteur.

84

Cours de Processus Alatoires

5.3 Exemple dutilisation des chanes de Markov


Combien de piles conscutifs voit-on dans 100 tirages pile ou face Soit (Xn , n 1) une suite de variables alatoires indpendantes valant 1 (ou pile) avec probabilit p, 0 (ou face) avec probabilit 1 p (0 p 1). Nous avons vu que le nombre de piles conscutifs avant linstant n, dnit par N0 = 0 et : Nn+1 = (Nn + 1) 1{X = 1} .
n+1

est une chane de Markov. Dnissons maintenant l , pour un entier l x, par : l = inf {n , Nn = l} . l est ainsi le premier instant o lon voit une suite de l-piles conscutifs. Introduisons Nl (le n processus arrt linstant l ) par : Nl = Nn^l . n Notons que lvnement Nl = l correspond : n Jai vu au moins l 1 conscutifs dans les n premiers tirages. Dautre part (Nl , n 0) reste une chane de Markov issue de 0 puisque : n Nl +1 = Nl + 1 1 n n Xn+1 = 1, Nl < l n + l1 Nl = l n .

Notons (P(x, y), x, y {0, . . . , l}) sa matrice de transition, alors : P Nl = l = Pn (0, l) . n Pour valuer cette probabilit il nous reste expliciter P et calculer sa puissance pour diverses valeurs de l (mieux vaut alors utiliser une logiciel du genre MathLab (payant) ou Scilab (gratuit http://www-rocq.inria.fr/scilab/ !). Les seuls lments non nul de la matrice P sont donns par : P(x, x + 1) = p si x < l, P(x, 0) = 1 p si x < l, P(l, l) = 1. P sexprimer donc sous forme matricielle par : 1p p 0 1p 0 p ... ... ... P= 1p 0 0 1p 0 0 0 0 0

... 0 0 ... 0 0 ... ... ... . ... p 0 ... 0 p ... 0 1

Voici une procdure Scilab qui calcule P, sa puissance 100 et enn P100 (0, l). function [Pro]= proba(l,p) P=[p*diag(ones(l,1));zeros(1,l-1),1]; P=[[(1-p)*ones(l,1);0],P]; P100=P^100; Pro = P100(1,l+1)

Ch.5 Chanes de Markov temps discret

85

On peut alors obtenir sans difcults la fonction de rpartition ou la loi du nombre maximal de 1 conscutifs dans un squence alatoire de 100 0 ou 1 indpendants avec p = 1/2. Pour la loi, aprs avoir tap : for l=2:10; write(%io(2),string(l)+ +string(proba(l,1/2)proba(l+1,1/2))); end; on obtient :

0.32

0.24

0.16

0.08

0.00 0 1 2 3 4 5 6 7 8 9 10 11 12

F IG . 5.1 Histogramme de la loi du nombre maximum de F conscutifs aprs 100 tirages et pour la fonction de rpartition :

1.00

0.75

0.50

0.25

0.00 0 1 2 3 4 5 6 7 8 9 10 11 12

F IG . 5.2 Probabilit davoir au moins n F conscutifs aprs 100 tirages

86

Cours de Processus Alatoires

On est donc peu prs sr (on se trompe 2 fois sur 10, quand mme !) de voir 5 piles conscutifs dans une squence 100 tirages pile ou face, pour une pice quiibre. Le fait de ne pas voir 5 1 conscutifs doit tre considr comme louche et peut servir de test pour savoir si une suite vraiment t tire au hasard. Il est en effet trs rare quune personne tentant dimiter une suite au hasard ait lide de mettre 5 1 la suite. Ca marche plutt bien (exercice essayer avec lun de vos camarades, qui ne suit pas le cours de processus bien sr !).

5.4 Chanes de Markov et esprance conditionnelle


Dnition 5.4.1 Soit une probabilit sur E, un ensemble ni et P une matrice de transition sur E on dit que (Xn , n 0) est une chane de Markov par rapport un ltration (Fn , n 0), si cest un processus adapt cette ltration tel que pour toute fonction f de E dans R, on a : E (f(Xn+1 )|Fn ) = (Pf)(Xn ), o (Pf)(x) =
yE

P(x, y)f(y). Notons que cette dniton est quivalente : P (Xn+1 A|Fn ) = P(Xn , A). P(x, y). Remarquons que si A est rduit un point, on a alors : P (Xn+1 = y|Fn ) = P(Xn , y).

Remarque 5.4.2 avec P(x, A) =

yA

Notons aussi, quun processus de Markov par rapport une ltration (Fn , n 0) donne lest aussi par rapport la ltration naturelle dnie par :
0 Fn = (X0 , . . . , Xn ) . 0 En effet, comme (Xn , n 0) est adpat (Fn , n 0) on a pour tout n, Fn Fn et donc : 0 0 0 E f(Xn+1 )|Fn = E E (f(Xn+1 )|Fn ) |Fn = E (Pf)(Xn )|Fn = (Pf)(Xn ).

Bien sr si (Xn , n 0) est une chane de Markov par rapport une ltration donne cest aussi un processus de Markov au sens lmentaire. Proposition 5.4.3 Soit (Xn , n 0) est une chane de Markov par rapport la ltration (Fn , n 0), alors : P (Xn+1 = xn+1 |Xn = xn , . . . , X0 = x0 ) = P(xn , xn+1 ).
Dmonstration : P (Xn+1 = xn+1 , Xn = xn , . . . , X0 = x0 ) = E E 1{X 1 |Fn n+1 = xn+1 } {Xn = xn , . . . , X0 = x0 } = E 1{X = x , . . . , X = x } E 1{X =x } |Fn
n n 0 0 n+1 n+1

= E 1{X = x , . . . , X = x } P(Xn , xn+1 ) n n 0 0 = E 1{X = x , . . . , X = x } P(xn , xn+1 ) n n 0 0 = P(xn , xn+1 )P (Xn = xn , . . . , X0 = x0 ) . La dernire galit donne le rsultat souhait par dnition de la probabilit conditionnelle lmentaire.

Ch.5 Chanes de Markov temps discret

87

Remarque 5.4.4 On peut montrer quun processus de Markov au sens lmentaire est un processus de Markov par rapport sa ltration naturelle. Nous dmontrons pas ce rsultat qui pourra tre trait en exercice par les lves motivs par les aspects mathmatiques. Ces deux rsultats montrent que lquivalence des deux dnitions de processus de Markov 0 0 lorsque lon se restreint la ltration naturelle, i.e. (Fn , n 0) avec Fn = (X0 , . . . , Xn ). Lintrt de la dnition abstraite est de permettre de prendre en compte un ltration (Fn , n 0 0) contenant plus dinformation que la ltration naturelle (donc telle que Fn Fn ). Calcul algorithmique de E (f(XN )) Nous allons donner une illustration de lintret de nouveau formalisme pour les chanes de Markov. Soit (Xn , n 0) est une chane de Markov de matrice de transition P, partant de x0 en 0. On a : E (f(XN )) = (PN f)(x0 ). On peut alors calculer E (f(XN )) itrativement en posant, pour n dcroissant partir de N : u(n, x) = [Pu(n + 1, .)] (x) = u(N, x) = f(x), puis :
yE

P(x, y)u(n + 1, y),

(5.2)

E (f(Xn )) = (PN f)(x0 ) = u(0, x0 ).

Notez que lequation (5.2) dcrit un alogrithme (rcursif) permettant dvaluer E (f(Xn )) qui explicite le fait que la loi de Xn est donne par (Pn (x0 , y), y E). Pour ce convaincre de ce rsultat nous allons montrer que la processus (u(n, Xn ), n 0) est une martingale. Pour cela, calculons E (u(n + 1, Xn+1 )|Fn ) : E (u(n + 1, Xn+1 )|Fn ) = E (f(Xn+1 )|Fn ) , si (x) = u(n + 1, x), on a donc : E (u(n + 1, Xn+1 )|Fn ) = (P)(Xn ) =
yE

P(x, y)u(n + 1, y)
x=Xn

Mais on a, par dnition de u : P(x, y)u(n + 1, y) = u(n, x),


yE

donc : E (u(n + 1, Xn+1 )|Fn ) = u(n, Xn ). Ce qui prouve que (u(n, Xn ), n 0) est une martingale. On en dduit que son exprance est constante, soit : E (u(0, X0 )) = E (u(n, Xn )) . Mais u(n, x) = f(x) et X0 = x0 et la prcdente galit se rcrit : u(0, x0 ) = E (f(Xn )) . Exemples : Soit (Sn , n 1) la marche alatoire symtrique et supposons que lon cherche calculer, pour f une fonction donne : E(f(SN )).

88

Cours de Processus Alatoires

Le thorme prcdent, nous dit que, cette quantit est gale u(0, 0), et que u se calcule laide de lquation : u(N, x) = f(x), u(n, x) = 1 u(n + 1, x 1) + 1 u(n + 1, x + 1). 2 2 Notez que ces deux quations permettent dcrire un programme (inefcace car de complexit exponentielle) calculant v(n, x).
double function u(int n,double x) { if(n==N) then return f(x); return 0.5 * (u(n+1,x-1)+u(n+1,x+1)); }

Il est cependant possible dcrire un version fcace de ce programme en utilisant le fait que linstant n il nest ncessaire de calculer u quen x n, x n + 1, , x + n 1, x + n. Exemples : Imaginons que lon cherche calculer le prix dun put amricain dans le modle de Cox Ross. Cela signie que, a, b sont des rels positifs, p est un nombre rel entre 0 et 1, que la matrice de transition de la chane Sn scrit P(x, x(1 + a)) = p, P(x, x(1 + b)) = 1 p, et que lon cherche calculer : E ((K SN )+ ) . Le thorme prcdent nous dit que, E ((K SN )+ ) = u(0, S0 ) si v est lunique solution de : v(N, x) = (K x)+ , v(n, x) = pu(n + 1, x(1 + a)) + (1 p)u(n + 1, x(1 + b)).

5.4.1 Solution dun problme darrt optimal


On se propose de calculer : Vn =


sup E ((X )|Fn ) , Fn -temps darrt;nN

Lorsque (Xn , n 0) est une chane de Markov. Ce rsultat est directement reli des algorithmes de calcul de prix doption amricaine en nance et dautres problmes appliqus. Commenons par noncer le rsultat essentiel de cette partie. Thorme 5.4.1 Soit (Xn , n 0) une chane de Markov issue du point x0 en 0, de matrice de transition P(x, y) sur un espace dtat ni E, par rapport une ltration (Fn , n 0). Soit (x) une fonction dnie pour x E. On cherche calculer :


sup E ((X )) . Fn -temps darrt;N

Soit u la solution unique de : u(N, x) = (N, x), u(n, x) = max ({Pu(n + 1, .)} (x), (x)) = max P(x, y)u(n + 1, y), (x)
yE

xE (5.3) n < N, x E.

Ch.5 Chanes de Markov temps discret

89

Alors


E ((X )) = u(0, x0 ). sup Fn -t.a.;0N

De plus le temps darrt : 0 = inf {k 0, u(k, Xk ) = (Xk )} , est un temps darrt optimal i.e. qui vrie


sup E ((X )) = E ((X0 )) . Fn -t.a.;0N

Dmonstration : On a, bien sr, vu la dnition de u : u(n, x) {Pu(n + 1, .)} (x). De plus, par dnition dune chane de Markov : {Pu(n + 1, .)} (Xn ) = E (u(n + 1, Xn+1 )|Fn ) . On a donc : u(n + 1, Xn+1 ) u(n, Xn ) u(n + 1, Xn+1 ) E (u(n + 1, Xn+1 )|Fn ) . Posons : Yn = u(n, Xn ) E (u(n, Xn )|Fn-1 ) et Mn = u(0, x0 ) + Y1 + + Yn , pour n 0. Mn est une Fn martingale, en effet : E(Mn+1 Mn |Fn ) = E(Yn+1 |Fn ) = E (u(n + 1, Xn+1 ) E (u(n + 1, Xn+1 )|Fn ) |Fn ) = 0. De plus, comme u(n + 1, Xn+1 ) u(n, Xn ) Yn+1 et u(0, x0 ) = M0 , il est immdiat den dduire par rccurence que, pour tout n 0 : u(n, Xn ) Mn . Maintenant si est un temps darrt tel que N, on a : u(, X ) M . Alors, en utilisant le fait que (Mn , n 0) est une martingale, et en utilisant le thorme darrt on obtient : E (M ) = E(M0 ) = u(0, x0 ). On en dduit donc que : E (u(, X )) E (M ) = u(0, x0 ). On vient donc de prouver que E (u(, X )) u(0, x0 ). Comme, de plus, u(n, x) (x), on a pour tout temps darrt infrieur N : E ((X )) u(0, x0 ).

90

Cours de Processus Alatoires

Donc : E ((X )) u(0, x0 ). t.a. Pour nir la dmonstration du rsultat annonc, il suft de trouver un temps darrt 0 infrieur N tel que : E ((X0 )) = u(0, x0 ). sup
nN;

Pour cela posons :l 0 = inf {p 0, u(p, Xp ) = (Xp )} . On peut dmontrer (exercice) que 0 est un temps darrt. Dautre part on a 0 N puisque u(N, x) = (N, x). Sur lvnement {p < 0 } on a u(p, Xp ) = (Xp ), et donc : u(p, Xp ) = {Pu(p + 1, .)} (Xp ) = E (u(p + 1, Xp+1 )|Fp ) . Ceci implique que, sur lvnement {p < 0 } : u(p + 1, Xp+1 ) u(p, Xp ) = Yp+1 . En sommant ces galits entre p = 0 et 0 1 on obtient : u(0 , X0 ) = M0 . On voit donc, en utilisant le thorme darrt, que : E (u(0 , X0 )) = E (M0 ) = E (M0 ) = u(0, x0 ). Comme, par dnition de 0 , lon a u(0 , X0 ) = (X0 ), on en dduit que : E ((X0 )) = u(0, x0 ). Ceci prouve donc que :
N;

sup E ((X )) = u(0, x0 ). t.a.

Exemples : Soit (Sn , n 1) la marche alatoire symtrique et supposons que lon cherche calculer, pour f une fonction donne :
N;

sup f(S ). t.a.

Le thorme prcdent, nous dit que, cette quantit est gale u(0, 0), et que u se calcule laide de lquation : u(N, x) = f(x), u(n, x) = max 1 u(n + 1, x 1) + 1 u(n + 1, x + 1), f(x) . 2 2 Une fois que u a t calcule on peut expliciter le temps darrt optimal par 0 = inf {n 0, u(n, Sn ) = f(Sn )} .

Ch.5 Chanes de Markov temps discret

91

Exemples : Imaginons que lon cherche calculer le prix dun put amricain dans le modle de Cox Ross. Cela signie que, a, b, r sont des rels positifs, p est un nombre rel entre 0 et 1, que la matrice de transition de la chane Sn scrit P(x, x(1 + a)) = p, P(x, x(1 + b)) = 1 p, et que lon cherche calculer : V0 =


sup E ((K S )+ ) . t.a.;N

Le thorme prcdent nous dit que, V0 = u(0, S0 ) avec v solution de : v(N, x) = (K x)+ , v(n, x) = max (pu(n + 1, x(1 + a)) + (1 p)u(n + 1, x(1 + b)), f(x)) .

92

Cours de Processus Alatoires

5.5 Exercices
Exercice 37 On considre lespace deux tats E = {a, b}. La matrice markovienne la plus gnrale scrit 1 P= . 1 1. Condition pour que la chane de Markov ne soit pas priodique. 2. Condition pour que la chane de Markov soit irrductible. 3. On suppose que la chane est irrductible. Calculer la probabilit invariante. 4. On suppose que la chane de Markov associe P est irrductible. Montrer que les puissances de P scrivent 1p p p p Pn = + n . 1p p 1 + p 1 p o on dterminera p et . 5. On suppose que la chane de Markov est apriodique et irrductible. En dduire que limn!1 0 Pn est indpendant de la loi initiale 0 . Exercice 38 Soit (X2n+1 , n 0) une suite de v.a.r. i.i.d telles que P[X1 = 1] = P[X1 = 1] = 1/2. On dnit pour tout n 1, X2n = X2n-1 X2n+1 . 1. Vrier que les v.a.r. X2n , n 1 sont i.i.d. Donner leur loi. 2. Montrer que Xn et Xn+1 sont indpendantes. 3. Dduire de 1 et 2 que les v.a.r. Xn , n 1 sont indpendantes deux deux. 4. Calculer P[Xm+n = j | Xm = i] pour tout n 1 , i, j = 1. En dduire que les quations de Chapman-Kolmogorov sont satisfaites. 5. Calculer P[X2n+1 = 1 | X2n = 1, X2n-1 = 1]. En dduire que X nest pas une chane de Markov. 6. Montrer en revanche que (Zn = (Xn , Xn+1 ), n 1) est une chane de Markov non homogne valeurs dans {1, 1}2 . On dterminera la matrice de transition en distinguant suivant que n est pair ou impair. Exercice 39 Soit X une chane de Markov espace dtat dnombrable. Soit n 1. On note pi;j (n) = P[Xn = j | X0 = i], la probabilit de transition de ltat i ltat j en n tapes. Par convention on pose pi;i (0) = 1 et pi;j (0) = 0. On note li;j (n) = P[Xn = j; Xk = i, 1 k < n | X0 = i], la probabilit partant de ltat i datteindre ltat j en n tapes, sans repasser par ltat i. On note galement pour i = j, fi;j (n) = P[Xn = j; Xk = j, 1 k < n | X0 = i], la probabilit partant de ltat i datteindre pour la premire fois ltat j en n tapes. On introduit les fonctions suivantes dnies sur [1, 1] : Pi;j (s) =
n0

pi;j (n)sn li;j (n)sn


n1

Li;j (s) = Fi;j (s) =


n1

fi;j (n)sn .

Ch.5 Chanes de Markov temps discret

93

1. Montrer que pour tout i = j, Pi;j (s) =Pi;i (s)Li;j (s) Pi;j (s) =Pj;j (s)Fi;j (s) 2. On dni le premier temps datteinte de j par = inf {k; Xk = j} et le dernier temps de passage par n = [n supkn {Xk = i}]1{Xn = j}. Montrer que les variables alatoires n ne sont pas des temps darrt. Dduire du 1 que si Pi;i = Pj;j , alors on a P[ = k] = P[n = k] pour tout n k. Donc de manire image le premier temps de passage et le dernier temps de passage ont mme loi. 3. Donner un exemple de chane de Markov espace dtat dnombrable vriant Pj;j = Pi;i pour tout i et j. Exercice 40 On considre une marche alatoire symtrique S0 = 0 et Sn = X1 + + Xn , o les v.a.r. (Xn , n 1) sont i.i.d. et P[X1 = 1] = P[X1 = 1] = 1/2. On considre la famille de variables alatoires Yn = sup {k n; S2k = 0} , n 1.

On dsire valuer la valeur P[Yn = k] pour k n. Dans le jeu de pile ou face, la v.a.r. Yn est le dernier instant o les deux joueurs sont galit. 1. Calculer P[Sm = b]. 2. On admet la formule suivante : P[S1 = 0; . . . ; Sm = 0; Sm = b] = |b| P[Sm = b]. m

Calculer P[S1 = 0; . . . ; S2n = 0]. On pourra utiliser le fait que 2k 1 1 = . (n + k)(n k) nk1 n+k1 3. En dduire que P[S1 = 0; . . . ; S2n = 0] = P[S2n = 0]. 4. En utilisant le rsultat prcdent montrer que P[Yn = k] = P[S2k = 0]P[S2n-2k = 0]. Remarquer que contrairement lintuition la loi du dernier zro avant 2n est symtrique par rapport n. 5. Soit 0 < y < x < 1. En utilisant la formule de Stirling (n! nn+1=2 e-n 2 pour n grand), montrer que pour n grand P[ny Yn nx] 1
x y

1 u(1 u)

du.

6. En dduire que la suite (Yn /n, n 1) converge en loi. 7. Montrer que asymptotiquement, avec probabilit 1/2, 2+ 2 2 2 ,1 . Yn /n 0, 4 4

94

Cours de Processus Alatoires

Exercice 41 1. Soit Y une chane de Markov espace dtat discret. On suppose que Pj [Yn = j inniment souvent] = 0. On note = sup {n; Yn = j}. Montrer que
n0

Pj [ = n] = 1. En dduire que 1 . n1 Pj [Yn = j]

Pj [Yn = j n 1] =

1+

On considre maintenant (Xn , n 1) une suite de v.a.r. i.i.d. telles que P[Xn = 1] = p, P[Xn = 1] = q = 1 p.

On dnit S0 = 0, Sn = X1 + + Xn . Vrier que (Sn , n 0) est une chane de Markov homogne valeurs dans Z. On suppose p = 1/2. 2. valuer P[Sn = 0]. 3. crire la fonction f(x) = [1 x]-1=2 sous forme dune srie entire. 4. En dduire que P[Sn = 0 n 1] = |p q|. Exercice 42 Soit (Xn , n 0) une chane de Markov homogne espace dtat dnombrable E. On note Ty = inf{n 1; Xn = y}. Si x et y sont deux tats distincts, on note xy = P[Ty < | X0 = x]. 1. Montrer que xy > 0 n 1 tel que P[Xn = y | X0 = x] > 0. On suppose xy > 0. Soit n0 = inf{n; P[Xn = y | X0 = x] > 0}. 2. Montrer quil existe des tats x1 , x2 , . . . , xn0 -1 tels que p(x, x1 )p(x1 , x2 ) p(xn0 -1 , y) > 0, o p(x, z) = P[X1 = z | X0 = x]. Montrer que ces tats sont distincts. 3. Si E est ni et de cardinal d. Montrer alors que n0 d1 et P[Ty d1 | X0 = x] > 0.

Ch.5 Chanes de Markov temps discret

95

5.6 Travail dirig : Modlisation de lvolution dune population


On dsire tudier le modle de population suivant. linstant n, la population comporte Zn (n) individus. Chaque individu i donne naissance i enfant(s) la gnration suivante et meurt. Ainsi la population linstant n + 1 comporte
Zn

Zn+1 =
i=1

(n)

individus. Si Zn = 0, alors la population est dnitivement teinte et Zn+1 = 0. On fait les (n) hypothses suivantes. La suite (i , i 1, n 1) est une suite de variables alatoires discrtes indpendantes et de mme loi, caractrise par la fonction gnratrice : z [0, 1],
1

G(z) =
k=0

pk zk
(n)

pk = P[i

(n)

= k],

k N.
(n)

On suppose que 0 < p0 < 1, Vari = 2 < et on pose m = E[i ]. On rappelle que la fonction G est sous ces hypothses de classe C2 sur [0, 1]. On suppose galement que la population comporte un seul individu linstant n = 0 (i.e. Z0 = 1). 1. Vrier que 0 est un tat absorbant pour la suite (Zn , n 0), cest--dire montrer que {Zn = 0} {Zn+k = 0} pour tout k 0. 2. Montrer que Z = (Zn , n 0) est une chane de Markov sur un espace E que lon prcisera. On ne calculera pas la matrice de transition. 3. On note T = inf{n 0, Zn = 0} avec la convention inf = +. T est le temps dextinction de la population. Montrer que T est un temps darrt. 4. Montrer que la suite (Wn = m-n Zn , n 0) est une martingale. 5. Calculer E[Zn ]. 6. Montrer que E[Zn ] P[Zn = 0]. En dduire que si m < 1, alors presque srement Zn = 0 pour n assez grand (cela revient montrer que P[T < +] = 1).

7. Vrier que G (1) = m. 8. On dnit G1 = G et pour n 1, Gn+1 (z) = Gn (G(z)) pour z [0, 1]. Montrer que pour z [0, 1], E[zZn ] = Gn (z). 9. Soit q [0, 1] tel que G(q) = q. Montrer que (qZn , n 0) est une martingale. On suppose dans toutes les questions suivantes que m > 1. 10. Montrer que G est convexe sur [0, 1]. Tracer lallure de la fonction G(z) pour z [0, 1]. Vrier quil existe un unique rel ]0, 1[, tel que = G().

96

Cours de Processus Alatoires

La martingale (Zn , n 0) On rappelle le thorme suivant du cours : Si (Yn , n 0) 2 est une martingale telle que supn0 E[Yn ] est ni, alors il existe une variable alatoire Y 2 telle que E[Y ] < , et limn!1 E[(Yn Y)2 ] = 0, limn!1 E[|Yn Y|] = 0 et (Yn , n 0) converge presque srement vers Y. 11. Vrier que (Xn = Zn , n 0) est une martingale borne par 1 qui converge dans L2 , dans L1 et presque srement vers une variable alatoire X valeurs dans [0, 1]. 12. Montrer que si H est une variable alatoire relle valeurs dans [0, 1] alors, P[H ]0, 1[ ] > 0 E[H2 ] < E[H]. 13. Calculer E[X]. 14. Vrier que pour z [0, ], |G(z) | |z | o < 1. En dduire E[X2 ]. 15. En dduire la valeur de P[X ]0, 1[ ]. 16. Dduire de la question prcdente la valeur de P[T < +]. 17. Calculer E[Z2 +1 | Zn ]. En dduire que pour m = 1, n VarZn = 2 mn-1 mn 1 . m1

18. Vrier que (Wn , n 0) converge presque srement vers une variable alatoire positive W. 19. Montrer que Gn+1 (z) = G(Gn (z)) pour z [0, 1]. En dduire que E[e-tZn+1 ] = G(E[e-tZn ]). 20. Montrer que la transforme de Laplace de W dnie pour t 0 par (t) = E e-tW , est solution de (mt) = G((t)) t 0. 21. Montrer que est dcroissante, continue et que limt!1 (t) = P[W = 0]. Calculer E[W] et montrer que P[W = 0] = .

22. En utilisant les rsultats prcdents, montrer que presque srement Zn = 0 pour n assez grand ou bien limn!1 m-n Zn existe et est non triviale cest--dire quelle est diffrente de 0 ou +.

Ch.5 Chanes de Markov temps discret

97

5.7 Travail dirig : Algorithme de Hastings-Metropolis


Le but est de simuler des lois compliques laide de chanes de Markov simples. Soit (Xn , n 0) une chane de Markov de noyau de transition P sur un espace dtat au plus dnombrable E. On suppose dans un premier temps quil existe > 0 et c une mesure de probabilit sur E telle que pour tout (x, y) E2 , P(x, y) c(y). 1) Montrer que si , sont deux mesures de probabilits sur E, alors |P P| (1 ) | |, o || = xE |(x)| est la norme en variation de la mesure . On rappelle que P(z) = xE (x)P(x, z). 2) En dduire quil existe une unique mesure de probabilit sur E telle que P = . On dit que est la mesure invariante de la chane de Markov. 3) Que se passe-t-il si X0 a pour loi ? 4) Montrer que quelle que soit la loi initiale de X0 , (Xn , n 0) converge en loi vers la mesure invariante. (On dmontre en fait que la convergence pour la norme en variation implique la convergence en loi.) Donner une majoration de la vitesse de convergence. 5) Montrer que le rsultat reste inchang si lon suppose seulement que pour tout (x, y) 2 E , Pl (x, y) c(y), o l 1. (5.5) On cherche simuler une loi , > 0, sur E ni de la forme (x) = C eH(x)

(5.4)

x E,

o H est une fonction positive connue et C est la constante de normalisation. Dans le cadre de la mcanique statistique H reprsente lnergie du systme dans la conguration x. En gnral la constante de normalisation (appele fonction de partition) est mal connue. On ne peut donc pas simuler directement une variable alatoire de loi . On suppose donn P un noyau de transition dune chane de Markov sur E vriant 5.4 tel que P(x, y) = P(y, x), pour tout (x, y) E2 . On choisit une suite a(x, y) ]0, 1] o (x, y) E2 . Soit (Yn;x , n 1, x E) et (Zn;x;y , n 1, (x, y) E2 ) des suites de variables alatoires indpendantes. Leurs lois sont caractrises par P[Yn;x = y] = P(x, y) et P[Zn;x;y = 1] = 1 P[Zn;x;y = 0] = a(x, y). On construit la suite de variable alatoire (Xn , n 0) de la manire suivante. X0 = x0 , et pour n 1, on pose Xn = x si Yn;Xn-1 = x et si Zn;Xn-1 ;x = 1 ; sinon Xn = Xn-1 . 6) Montrer que (Xn , n 0) est une chane de Markov dont on donnera le noyau de transition Q. 7) Montrer que Q vrie 5.4. 8) Montrer que sil existe une mesure de probabilit sur E telle que pour tout (x, y) E2 , (x)Q(x, y) = (y)Q(y, x), alors est la mesure invariante. 9) Quelle valeur peut-on donner (a(x, y), (x, y) E2 ) pour que la mesure invariante soit . Donner une mthode pour simuler une variable alatoire de loi . 10) Que se passe-t-il quand ? 11) Proposer intuitivement une mthode pour obtenir un minimum de H en utilisant un algorithme de Hastings-Mtropolis. On parle alors dalgorithme de recuit-simul.

98

Cours de Processus Alatoires

5.8 Travail dirig : Rcurrence de la marche alatoire simple


On considre un processus de Markov homogne en temps X espace dtat dnombrable, issu de X0 = j sous Pj . On dnit les v.a.r. Un = 1 0 si Xn = j sinon.

Soit B B {0, 1}N et (s1 , . . . , sn-1 ) {0, 1}n-1 . 1) Montrer que Pj [(Un+1 , . . .) B | Un = 1, Un-1 = sn-1 , . . . , U1 = s1 ] = Pj [(U1 , . . .) B]. On dit que U est un processus de renouvellement. 2) On note Fn = {Un = 1, Un+k = 0, k 1} et F0 = {Uk = 0, 1 Pj [Xn = j inniment souvent] =
n0

k 1}. Montrer que

Pj [Fn ].

3) Montrer que Pj [Fn ] = Pj [F0 ]Pj [Un = 1]. 4) On note G = n1 {Xn = j}. Dduire de 2) et 3) que Pj [G] < 1 5) Dduire de 2) et 3) que Pj [G] = 1 Pj [Xn = j inniment souvent] = 1 = . n1 Pj [Xn = j] Pj [Xn = j inniment souvent] = 0 < . n1 Pj [Xn = j]

En dduire que Pj [Xn = j inniment souvent] = 1 n1 Pj [Xn = j] = + (on dit que ltat j est rcurrent) et que Pj [Xn = j inniment souvent] = 0 n1 Pj [Xn = j] < + (on dit que ltat j est transient). 6) Soit la marche alatoire symtrique sur Z : S0 = 0, Sn = Y1 + + Yn , o les v.a.r. (Yn , n 1) sont i.i.d. et P[Y1 = 1] = P[Y1 = 1] = 1/2. Calculer P[S2n = 0]. En utilisant la formule de Stirling (n! 2nn+1=2 e-n pour n grand) les questions 5) et 4), montrer que P[Sn = 0 inniment souvent] = 1. 7) On considre la marche alatoire symtrique sur Z2 : S0 = 0, Sn = X1 + + Xn , o les v.a.r. (Xn , n 1) sont i.i.d. et P[X1 = (0, 1)] = P[X1 = (0, 1)] = P[X1 = (1, 0)] = P[X1 = (1, 0)] = 1/4. Calculer P[S2n = 0]. En utilisant la mme mthode que pour la question 1, montrer que 0 est rcurrent pour la chane de Markov S. On pourra utiliser que (1 + x)n (1 + x)n = (1 + x)2n pour n!)2 calculer n=0 [k!((n-k)!]2 . k 8) On considre la marche alatoire symtrique sur Z3 . Montrer que 0 est transient. On utilisera que pour n 4 : n! 3n i!j!k!
2

i+j+k=n

n! 3n i!j!k! i+j+k=n

i+j+k=n

max

n! 3n i!j!k!

n! . 3n ([n/3]!)3

9) En dduire que la marche alatoire symtrique en dimension d 3 est transiente.

Ch.5 Chanes de Markov temps discret

99

Remarque
Plus gnralement, il existe un critre du Chung et Fuchs (cf Feller tome II p.614) sur la fonction gnratrice qui dtermine si la marche alatoire est rcurrente ou transiente.

Chapitre 6 Proprit de Markov forte


6.1 Proprit de Markov gnrale
Soit P la matrice dune chane de Markov sur un espace ni E, nous noterons : Ex (f(X0 , X1 , . . . , Xn )) = E (f(Xx , Xx , . . . , Xx )) , 0 1 n o (Xx , n 0) est une chane de Markov de matrice de transition P partant de x linstant 0 n (i.e. P(Xx = x) = 1) 1 . 0 Plus gnralement, on peut dnir Ex pour toute fonction (positive ou borne) de la trajectoire par : Ex (f(Xk , k 0)) = E (f(Xx , k 0)) . k On peut alors tendre la proprit de Markov de la faon suivante. Proposition 6.1.1 Soit (Xn , n 0) une chane de Markov de matrice de transition P par rapport une ltration (Fn , n 0), alors : E (f(Xk+n , k 0)|Fn ) = (Xn ) avec : (x) = Ex (f(Xk , k 0)) . On crit souvent cette relation sous la forme : E (f(Xk+n , k 0)|Fn ) = EXn (f(Xk , k 0)) .
Dmonstration : Nous ne donnerons la dmonstration de ce rsultat que dans un cas trs particulier. La gnralisation nest pas trs difcile mais repose sur des arguments techniques particulirement indigestes. Nous supposerons f de la forme : f(Xp , p 0) = f(X1 ), avec un abus vident de langage. On a, alors, grace la dnition de la proprit de Markov : E (f(Xn+1 )|Fn ) = (Pf)(Xn ).
Notez que cette dnition ne dpend pas du choix de la suite Xx mais uniquement de sa loi qui est dtermine par P et le point initial x.
1

101

102

Cours de Processus Alatoires

De plus : Ex (f(X1 )) =
yE

P(x, y)f(y) = (Pf)(x),

puisque la loi de X1 , pour une chane de Markov de probabilit de transition P issue de x en 0 est donne par (P(x, y), y E). Le rsultat est donc clair pour ce type de fonction.

Nous allons maintenant aborder la notion de proprit de Markov forte. Il sagit dtendre la proprit que nous venons dnoncer non plus des temps xe n mais des temps darrt nis.

6.2 Introduction la proprit de Markov forte


Nous allons commencer par illustrer cette proprit importante dans le cas dune suite de variables alatoires indpendantes de mme loi (Un , n 1). Nous noterons (Fn , n 1) la ltration dnit par : Fn = (U1 , . . . , Un ) , i.e. la ltration naturelle de la suite. Soit S une temps darrt par rapport la ltration (Fn , n 1). Cela signie que pour tout entier n, {S n} est un ensemble de Fn ou de faon quivalente que {S = n} est un ensemble de Fn . Nous supposerons, de plus, que P (S < +) = 1. Notre but est didentier la loi de la suite (US+1 , . . . , US+n ). Pour cela nous devons calculer, pour toute fonction positive : E (f(US+1 , . . . , US+n )) . Or, nous avons : E (f(US+1 , . . . , US+n )) = E = 1{S = k} f(US+1 , . . . , US+n ) k1 E 1{S = k} f(Uk+1 , . . . , Uk+n ) .
k1

On note alors que {S = k} est dans Fk et que f(Uk+1 , . . . , Uk+n ) est une variable alatoire indpendante de Fk et lon en dduit que : E (f(US+1 , . . . , US+n )) = =
k1

P(S = k)E (f(Uk+1 , . . . , Uk+n )) , P(S = k) E (f(U1 , . . . , Un )) ,

k1

= E (f(U1 , . . . , Un )) . Ceci prouve que (US+1 , . . . , US+n ) a la mme loi que (U1 , . . . , Un ) et lon peut en dduire que la suite (US+k , k 1) a la mme loi que (Uk , k 1), cest dire est une suite de variables alatoires indpendantes de mme loi.

6.3 Tribu des vnements antrieurs un temps darrt


Dnition 6.3.1 Soit (Fn , n 0) une ltration, S un temps darrt par rapport cette ltration on note FS la tribu des vnements antrieur S dnie par : FS = {A A, pour tout n, A {S = n} Fn } .

Ch.6 Proprit de Markov forte

103

Remarque 6.3.2 On dmontre sans difcult que S et XS sont des variables alatoires FS mesurable, si (Xn , n 0) est un pocessus adapt. De mme {T S}, {XS A} sont dans FS , mais {XS+1 A} nest pas dans FS et plus gnralement {Xt A}, sauf si S t ? Remarque 6.3.3 Soit S un temps darrt ni alors : E(X|FS ) =
n0

1{S = n} E(X|Fn ).

(6.1)

Ceci se prouve sans difcult en posant : X=


n0

1{S = n} E(X|Fn ),

et en remarquant que si A est un lment de FS , on a : E(X1A ) =


n0

E 1fS=ngA E(X|Fn ) .

Comme {S = n} A est un lment de Fn , on en dduit que : E(X1A ) =


n0

E E(X1fS=ngA |Fn ) =
n0

E X1fS=ngA = E(X1A ).

Le thorme 3.2.1, dnissant lesprance conditionnelle permet alors dafrmer que : X = E (X|FS ) . Retour au cas dune suite indpendante Revenons au cas dune suite (Un , n 1) de variables alatoires indpendantes de mme loi. Nous notons dans ce cas Fn = (U1 , . . . , Un ) et nous supposons que S est un temps darrt, ni presque srement, par rapport cette tribu. Nous cherchons, tout dabord, a calculer : E (f(US+1 , . . . , US+n )|FS ) . Pour cela nous allons utiliser lquation 6.1 : E (f(US+1 , . . . , US+p )|FS ) = =
n0

E 1{S = n} f(US+1 , . . . , US+p )|Fn E 1{S = n} f(Un+1 , . . . , Un+p )|Fn .

n0

Comme (Un+1 , . . . , Un+p ) est indpendante de Fn et {S = n} est dans Fn on en dduit que : E (f(US+1 , . . . , US+p )|FS ) = =
n0

1{S = n} E (f(Un+1 , . . . , Un+p )) 1{S = n} E (f(U1 , . . . , Up ))

n0

= E (f(U1 , . . . , Up )) . En prenant lesprance des deux membres on retrouve le fait dj tabli que la loi de (US+k , k 1) est identique celle de (Uk , k 1). Nous allons voir que ce rsultat implique de plus que (US+k , k 1) est une suite indpendante de la tribu FS . Pour se convaincre de ceci, il suft de noter le rsultat suivant.

104

Cours de Processus Alatoires

Proposition 6.3.4 Soit X une variable alatoire et B une tribu. Supposons que pour toute fonction positive ou borne f on a : E(f(X)|B) = une constante = E (f(X)) . Alors X est indpendante de B.
Dmonstration : Soit Z une variable alatoire B-mesurable et g une fonction borne, alors : E (f(X)g(Z)) = E (E (f(X)g(Z)|B)) = E (g(Z)E (f(X)|B)) . Mais E (f(X)|B) = C et en prenant lesprance des deux membres on a forcment C = E (f(X)). On obtient donc : E (f(X)g(Z)) = E (g(Z)) E (f(X)) . X est donc indpendante de toute variable alatoire Z B-mesurable. Elle est donc, par dnition, indpendante de B.

Or, nous avons vu que, pour toute fonction f et pour tout p : E (f(US+1 , . . . , US+p )|FS ) = E (f(U1 , . . . , Up )) , On dduit, du rsultat prcdent que, pour tout p, (US+1 , . . . , US+p ) est indpendant de FS , puis par un argument technique que (US+k , k 1) est indpendante de FS . Un exemple dutilisation : jeu de pile ou face. Soit (Un , n 1) une suite de variables alatoires indpendantes telles que P(U1 = 1) = p et P(U1 = 0) = 1 p. Soit 1 le temps de premire apparition de pile : 1 = inf {n 1, Un = 1} . Il est bien connu que la loi de 1 est une loi gomtrique de paramtre p, i.e. : P (1 = k) = p(1 p)k-1 , k 1. De mme 2 le temps de premire apparition de face : 2 = inf {n 1, Un = 0} , suit une loi gomtrique de paramtre 1 p : P (2 = k) = (1 p)pk-1 , k 1. Quelle est la loi de linstant de premire apparition de la squence 10, 10 ? Pour rpondre cette question il suft de remarquer que 01 est la somme du temps datteinte de 1, 1 et du temps datteinte de 0 pour la suite (U1 +k , k 1), 2 . Cette suite est indpendante de F1 donc de 1 et a mme loi que (Uk , k 1). On obtient donc, sans aucun calcul, que : 10 = 1 + 2 , 1 suivant une loi gomtrique de paramtre p et 2 tant indpendante de 1 suivant une loi gomtrique de paramtre 1 p.

Ch.6 Proprit de Markov forte

105

6.4 Proprit de Markov forte : premire approche


Nous allons gnraliser les ides prcdentes au cas des chanes de Markov. Proposition 6.4.1 Soit (Xn , n 1) une chane de Markov par rapport une ltration (Fn , n 0) de matrice de transition P, soit S un temps darrt par rapport la mme ltration, ni presque srement. Alors pour toute fonction f borne : E (f(XS+k , k 0)|FS ) = EXS (f(Xk , k 0)) . et en particulier : (XS+n , n 0) est une chane de Markov de matrice de transition P. Si XS est une variable alatoire constante, (XS+n , n 0) est indpendante de la tribu FS .
Dmonstration : Nous allons procder comme dans le cas prcdent et valuer lesprance conditionnelle E (f(XS , XS+1 , . . . , XS+n |FS ) pour cela notons que : E (f(XS , XS+1 , . . . , XS+p )|FS ) = = = =
n0 n0

1{S = n} E (f(XS , XS+1 , . . . , XS+p )|Fn ) ,

E 1{S = n} f(Xn , Xn+1 , . . . , Xn+p )|Fn , n0 1{S = n} E (f(Xn , Xn+1 , . . . , Xn+p )|Fn ) ,
n0

1{S = n} EXn (f(X0 , X1 , . . . , Xp )) .

La dernire, galit sobtient en utilisant la proprit de Markov tendue des fonctions gnrales (voir proposition 6.1.1). On peut rcrire la dernire galit sous la forme : E (f(XS , XS+1 , . . . , XS+p |FS ) = EXS (f(X0 , X1 , . . . , Xp )) . Par un argument technique on tend le rsultat aux fonctionx f de toute la trajectoire du processus : E (f(XS+k , k 0)|FS ) = EXS (f(Xk , k 0)) . En prenant lesprance des deux membres, on en dduit que la loi de (XS+k , k 0) est celle dune chane de Markov de probabilit de transition P issue de XS linstant 0. Dans le cas o XS est une constante, lesprance conditionnelle se rduit une constante et le lemme 6.3.4 permet alors dafrmer que (XS+k , k 0) est indpendante de FS .

Application : temps datteinte dune marche alatoire Soit (Uk , k 1) une suite de variables alatoires indpendantes de mme loi, telle que P(U1 = 1) = 1/2. Soit a le temps datteinte du niveau a : a = inf {n 0, Sn = a} , pour a un entier strictement positif. Comme S1 = 1, la suite (S1 +k , k 0) est indpendante de F1 et la loi de cette suite est celle dune marche alatoire partant de 1 linstant 0. De plus 2 est la somme de 1 et de 1 le temps datteinte de 1 pour la marche alatoire issue de 0 en 0, (S1 +k 1, k 0). On en dduit donc, sans aucun calcul que : 2 = 1 + 1 , 1 et 1 tant deux variables alatoires indpendantes, la loi de 1 tant identique celle de 1 . On gnralise sans difcult cette relation pour a entier arbitraire. a = 1 + 2 + + a , 1 1 1

106

Cours de Processus Alatoires

les (1 , . . . , a ) tant indpendants, suivant tous la mme loi que 1 . On pourra montrer, en 1 1 exercice, que (a , a 0) est une marche alatoire.

Ch.6 Proprit de Markov forte

107

6.5 Exercices
Exercice 43 Un petit restaurateur qui ne possde que trois tables, remarque que si son restaurant est vide alors la loi darrive du premier client est une loi exponentielle de paramtre 1. Le temps de service dun client est une loi exponentielle de paramtre 1. Mais ds quun client est install, sa prsence attire dautre clients, et une voire deux tables en mme temps, sil en reste deux, peuvent se remplir. Les temps darrive suivent toujours des lois exponentielles de paramtre 1. Enn si toutes les tables sont occupes, le restaurateur presse le service et une ou deux tables en mme temps peuvent se librer suivant des temps exponentiels de paramtre 1. On modlise lvolution du nombre de tables occupes laide dune chane de Markov X temps continu sur lespace dtat E = {0, 1, 2, 3}. On note Pt le semi-groupe de transition du processus X et G le gnrateur innitsimal (Pt = etG ). 1. Montrer que G scrit 1 1 0 0 1 3 1 1 . G= 0 1 2 1 0 1 1 2 2. On note T = inf {t 0; Xt = X0 }, le premier instant o la chane change dtat. Calculer E[T | X0 = i] pour i {0, 1, 2, 3}. 3. On note R = inf {t 0; Xt = 3}, le premier instant o les trois tables sont occupes. On dsire estimer E[R | X0 = 0], le temps moyen pour que le restaurant initialement vide ait ses trois tables occupes. On note bi = E[R | X0 = i]. Montrer que b3 = 0 et que pour tout i {0, 1, 2} bj P[XT = j | X0 = i]. bi = E[T | X0 = i] +
j= i

4. En dduire la valeur de b0 . 5. Montrer que G = Q-1 DQ, o D est une matrice diagonale. 6. Calculer le semi-groupe de transition Pt = etG . 7. Calculer limt!1 Pt . 8. En dduire la probabilit invariante 0 . 9. Quel est la limite quand t du taux moyen de remplissage du restaurant ? Exercice 44 On note G le gnrateur innitsimal dune chane de Markov X temps continu sur un espace dtat dnombrable E. On peut considrer G comme une matrice G = (g(x, y), (x, y) E2 ). On note Pt le semi-groupe de transition du processus X (Pt = etG ). On rappelle que si f est une fonction mesurable positive dnie sur E, Pt f(x) = yE f(y)pt (x, y) o pt (x, y) = P [Xt = y | X0 = x] . On suppose que ||G|| = supxE yE |g(x, y)| < . 1. Montrer que ||Gn || ||G||n et que etG et jjGjj . En dduire que Pt = I + tG + tt , o limt!0 ||t || = 0. 2. Faire un dveloppement de pt (x, y) lordre o(t). 3. Montrer que pour tout (x, y) E2 tel que x = y, alors g(x, y) 0. Montrer que pour tout x E, g(x, y) = 0.
yE

108

Cours de Processus Alatoires

4. Soit une probabilit sur E. Lexpression Pt = signie que xE (x)pt (x, y) = (y) pour tout y E. De mme G = 0 signie que xE (x)g(x, y) = 0. Montrer que Pt = , t 0 G = 0. Si lune des conditions ci-dessus est vrie, on dit que est la probabilit invariante du processus. Exercice 45 On modlise lvolution dune population, en fait du cardinal de la population, laide dune chane de Markov X temps continu sur N de la manire suivante. n h + o(h) si m = 1 P [Xt+h = n + m | Xt = n] = n h + o(h) si m = 1 o(h) si |m| > 1 On suppose 0 0, 0 = 0 et pour tout n 1, n > 0, n > 0. 1. Interprter les valeurs n et n . 2. Dterminer le gnrateur innitsimal G de la chane de Markov (Pt = etG ). 3. Donner la loi de T (t) = inf {s t; Xs = Xt } conditionnellement X(t) = n. 4. Calculer P XT (t) = n + m | Xt = n . 5. En utilisant la question 4. de lexercice 2, donner une condition sufsante pour lexistence dune probabilit invariante . Calculer alors cette probabilit. 6. On considre le modle suivant pour lvolution de la population. t x, deux phnomnes sont en concurrence. Soit un immigrant arrive ( un temps exponentiel de paramtre ), soit un membre de la population meurt ( un temps exponentiel de paramtre ). Calculer P XT (t) = n + m | Xt = n . En dduire les valeurs de n et n . 7. Montrer que la probabilit invariante est une loi de Poisson de paramtre = /. 8. On suppose que X0 est distribu suivant la probabilit invariante . Calculer le nombre moyen de personnes dans la population linstant t > 0. Exercice 46 On reprend les rsultats et les notations de lexercice 2. On note G= ,

o 0, 0, le gnrateur innitsimal le plus gnral sur lespace deux tats E = {a, b}. 1. Sous quelles conditions la chane de Markov temps continu associ G est-elle constante (et donc dterministe) ? 2. On suppose + > 0. crire G = Q-1 DQ o D est une matrice diagonale. Montrer que 1 + h(t) (1 h(t)) Pt = , + (1 h(t)) + h(t) o h est une fonction que lon calculera explicitement. 3. Calculer P [Xt = b | X2t = a, X0 = a]. 4. Calculer la probabilit invariante (Pt = ). 5. Calculer la limite de Pt quand t tend vers . 6. En dduire que Xt converge en loi quand t tend vers . Donner la loi limite. 7. On note 1 P= , 1 o [0, 1]. Montrer quil existe un semi-groupe de transition continu en temps (Pt , t 0) tel que P1 = P si et seulement si 1 > 1/2. On distinguera le cas = 1. 8. Montrer qualors le semi groupe (Pt , t 0) est unique et le calculer laide de .

Ch.6 Proprit de Markov forte

109

6.6 Contrle : Loi du supremum dune marche alatoire


Le but de ce problme est dtudier la loi du maximun global de certaines marches alatoires sur Z. On montrera que sous certaines hypothses, la loi du maximun est (presque) une loi gomtrique. Soit (Xi , i 1), une suite de variables alatoires indpendantes, de mme loi valeurs dans Z telles que P(Xi = 1) = p > 0 et P(Xi {1, 0, 1, 2, . . .}) = 1 (donc on a P(Xi 2) = 0). On suppose de plus que les variables alatoires Xi sont intgrables (E[|Xi |] < ) et que E[Xi ] = m < 0. On pose S0 = 0 et pour n 1, Sn = n 1 Xi . Le maximun global de la i= marche alatoire (Sn , n 0) est S = supn0 Sn . Remarques prliminaires 1. Rappeler en quel sens la suite +).
Sn n

, n 1 converge et donner sa limite. En dduire P(S <

2. On pose () = E eXi pour 0. Expliquer pourquoi () est bien dnie et est une fonction continue. 3. Montrer que Mn = ()-n eSn , n 1 est une martingale. 4. On admet que est de classe C1 sur ]0, +[, et que les drives dordre k de sont dk donnes par () = E Xk eXi . En dduire que est convexe. Tracer lallure du i dk graphe de . En dduire quil existe un unique 0 ]0, [ tel que (0 ) = 1. 5. Vrier que (0 ) > 0. Changement de probabilit 1. On pose pk = e0 k P(Xi = k). Vrier que
kZ

pk = 1.

2. Soit (Yi , i 1) une suite de variables alatoires indpendantes et de mme loi valeurs n dans Z telles que pour k Z, P(Yi = k) = pk . On pose Z0 = 0 et Zn = i=1 Yi pour n 1. Montrer que pour toute fonction f borne ou positive (mesurable), on a E f(Yi ) e-0 Yi = E [f(Xi )]. En dduire que pour tout u1 , . . . , un R, on a E ei
Pn
k=1 uk Yk -0 Zn

= E ei

Pn

k=1 uk Xk

On admet que cela implique que pour toute fonction borne ou positive (mesurable) f, on a E f(Y1 , . . . , Yn ) e-0 Zn = E [f(X1 , . . . , Xn )]. 3. Vrier que pour toute fonction f borne ou positive, on a E [f(Yi )] = E f(Xi ) e0 Xi . En dduire que Yi est intgrable et, en utilisant la question 5, que E[Yi ] > 0. Temps darrt et martingale 1. Montrer que Nn = e-0 Zn , n 1 est une martingale. On prcisera la ltration. 2. On introduit les premiers temps datteinte du niveau k 0 pour les marches (Sn , n 0) et (Zn , n 0) : k = inf {n 0; Sn k} et k = inf {n 0; Zn k} .

Par convention, on pose inf = . Montrer que k et k sont des temps darrt par rapport des ltrations que lon prcisera.

110

Cours de Processus Alatoires

3. Quel est le comportement asymptotique de la suite (Zn , n 0) quand n ? En dduire P(k < ). 4. Si k () = i, que vaut Zi () ? 5. En utilisant la remarque 5.3.3. du polycopi, calculer E 1k n e-0 Zn | Fk . 6. Dduire des questions prcdentes que P(k n) = E 1k n e-0 Zn . 7. Montrer que P(k n) = e-0 k P(k n). En dduire P(k < ). 8. Montrer que S + 1 est une variable alatoire gomtrique : P(S + 1 = k) = (1 )k-1 pour k N . On explicitera .

Le cas particulier de la marche alatoire simple On suppose dornavant que P(Xi = 1) = p et P(Xi = 1) = q = 1 p avec 1 > q > p > 0. On dsire calculer la probabilit pour que la marche alatoire (Sn , n 0) ne revienne jamais en 0.
p 1. Calculer e-0 , et vrier que e-0 = q .

2. Montrer, en utilisant la proprit de Markov, que P(Sn < 0; n 1) = qP(S = 0). 3. Dduire des questions prcdentes la valeur de P(Sn < 0; n 1). 4. Rappeler la valeur de P(Sn < 0; n 1) quand p = q = 1/2 (vu en cours ou en travail dirig). En dduire la valeur de P(Sn < 0; n 1) pour p = 1 q ]0, 1[.

Chapitre 7 Options europennes dans le modle de Cox-Ross-Rubinstein


Une option est un produit nancier qui donne le droit son acheteur deffectuer une opration portant sur un sous-jacent (qui peut tre une action, une obligation, une cargaison de ptrole) avant une date appele date dchance. Exemples : Le dtenteur dune option europnne dachat (Call en anglais) dchance T = 6 mois qui porte sur une action France Telecom pour un prix dexercice (Strike en anglais) de K = 50 euros pourra acheter dans 6 mois une action France Telecom au prix de 50 euros. Bien entendu, il neffectuera cette opration que si elle lui est protable i.e. si ST K o (St )t dsigne le cours de laction France Telecom linstant t ; en revendant laction sur le march, il ralisera alors le prot (ST K). Dans le cas o ST < K, il nexercera pas loption puisquil peut acheter laction sur le march au cours ST . On fait la synthse des deux cas en remarquant que le prot retir de loption par lacheteur est h = (St K)+ . Cest le vendeur de loption qui lui fournit la richesse h en T . Bien entendu, en contrepartie, il va demander lacheteur de verser une prime P linstant initial t = 0. La question du pricing de loption cest--dire du calcul de la prime P est intimement lie celle de la couverture cest--dire de la gestion du risque induit par la ncessit de fournir la richesse h lacheteur en T . Comme nous allons le voir il sagit pour le vendeur dinvestir la richesse P linstant initial et de la grer au mieux jusqu lchance pour tre en mesure de fournir h. De faon symtrique, une option europenne de vente (Put en anglais) dchance T , de prix dexercice K portant sur le sous-jacent (St )t donne le droit son dtenteur de vendre une unit du sous-jacent au prix K lchance T . Elle lui rapporte donc h = (K ST )+ . Bien sr, linstant initial il y a beaucoup de scenarii dvolution possibles pour le cours de lactif sous-jacent. Il est donc naturel de modliser (St )t[0;T ] comme un processus alatoire valeurs dans R i.e. comme une famille de variables alatoires positives. Le modle le plus + classique est celui de Black-Scholes St = S0 exp(Bt + t) o Bt est un mouvement brownien. Ici, nous nous placerons dans le modle plus simple de Cox-Ross-Rubinstein qui peut tre vu comme une approximation en temps discret du modle de Black-Scholes pour traiter le problme du pricing et de la couverture (hedging en anglais). 111

112

Cours de Processus Alatoires

Enn nous nous intresserons seulement aux options europennes qui ne peuvent tre exerces qu lchance. Dautres options, appeles amricaines, peuvent tre exerces par lacheteur tout instant jusqu lchance. Elles offrent plus de droits et dterminer leur prix et leur couverture est plus compliqu que dans le cas europen.

7.1 Le modle
7.1.1 description
Le modle comporte N priodes de temps. On considre quil est possible de placer ou demprunter de largent au taux dintrt discret r quil est naturel de supposer positif dun point de vue nancier.Le montant obtenu (resp. rembourser) linstant n en plaant (resp. empruntant) un euro linstant initial est S0 = (1 + r)n . n On se donne galement un sous-jacent risqu (celui sur lequel vont porter les options) et pour 0 n N, on note Sn la valeur de cet actif risqu linstant n. Lvolution de cet actif dpend de deux paramtres b > a > 1 : entre linstant n et linstant n + 1 laugmentation relative du cours peut prendre la valeur b (hypothse haute : march haussier) Sn+1 Sn = bSn ou bien la valeur a (hypothse basse : march baissier) Sn+1 Sn = aSn . On suppose que tous les scenarii dvolution possibles entre linstant initial et linstant terminal se produisent avec probabilit strictement positive. On formalise cette dynamique de la manire suivante. On se donne sur un espace de probabilit (, A, P) des variables alatoires T1 , . . . , TN valeurs dans {1 + a, 1 + b} t.q. (x1 , . . . , xN ) {1 + a, 1 + b}N , P(T1 = x1 , . . . , TN = xN ) > 0. (7.1) La valeur initiale S0 > 0 de lactif risqu est suppose dterministe (cest la valeur connue sur le march du sous-jacent que lon modlise). Ensuite Sn sobtient par la relation de rcurrence 0 n N 1, Sn+1 = Sn Tn+1 . On en dduit facilement que
n

0 n N, Sn = S0 T1 . . . Tn = S0
m=1

Tm .

On introduit la ltration (Fn )0nN dnie par Fn = {, } si n = 0 (T1 , . . . , Tn ) sinon.

Notons que 0 n N, Fn = (S0 , . . . , Sn ). Une option europenne est modlise par une variable alatoire h FN -mesurable positive qui reprsente le prot obtenu linstant N par son dtenteur en lexerant. Exemples : Pour Put europen standard (vanilla) de prix dexercice K, h = (K SN )+ . Pour un Call europen sur-moyenne, h = ( N1 1 N=0 Sn K)+ . n + Pour un Call sur maximum avec Strike ottant, h = max0nN Sn SN . Comme h est (T1 , . . . , TN ) mesurable, dans lesprit de la Proposition 3.1.2, f : {1 + a, 1 + b}N R+ t.q. h = f(T1 , . . . , TN ). Dans lexemple du Put europen standard f(x1 , . . . , xn ) = (K S0
N n=1

(7.2) xi )+ .

Ch.7 Options europennes dans le modle de Cox-Ross-Rubinstein

113

7.1.2 liens entre les paramtres r, a et b


Une hypothse de modlisation trs naturelle consiste supposer lAbsence dOpportunits dArbitrage. Dun point de vue intuitif, cette hypothse signie quil nest pas possible de faire du prot sans prendre de risque. Elle se traduit de la manire suivante dun point de vue mathmatique : partant dune richesse nulle V0 = 0 linstant initial, il nest pas possible de faire des investissements en actif sans risque (placement la banque au taux r) et en actif risqu qui permettent sans jamais injecter dargent dobtenir une richesse VN linstant terminal qui vrie P(VN 0) = 1 et P(VN > 0) > 0. Une consquence facile de cette proprit dAbsence dOpportunits dArbitrage est que deux actifs nanciers qui ont la mme valeur en N doivent avoir la mme valeur linstant initial. Sinon acheter le moins cher en vendant le plus cher et placer la diffrence en actif sans risque permet de raliser un arbitrage. En effet, linstant nal N, le prot tir de lactif achet compense exactement la somme verser lacheteur de lactif vendu. Et partant dune richesse initiale nulle, on dispose de la somme place en actif sans risque. Mme si elle se produit parfois sur le march, la situation o les deux actifs ont des valeurs initiales diffrentes est trs instable. En effet, les agents qui dclent cet arbitrage vont essayer den proter en achetant lactif le moins cher et en vendant le plus cher, ce qui par la loi de loffre et de la demande, va entraner le retour la situation stable o les deux prix sont gaux. Exemple : A la diffrence dune option o la prime est verse par lacheteur linstant initial en change de la richesse h en N, dans un contrat terme on convient linstant initial du montant qui sera vers en N en change dun actif (lactif est remis en N). On peut dterminer par A.O.A., le montant M verser terme en change dune unit dactif risqu. En effet, le montant verser linstant initial en change dune unit dactif risqu en N est S0 . Et la valeur linstant initial de M euros linstant N est M/S0 = M/(1 + r)N . On N doit donc avoir M/(1 + r)N = S0 soit M = S0 (1 + r)N . Dans le modle de Cox-Ross-Rubinstein, il est facile de vrier que a<r<b (7.3)

est une condition ncessaire pour quil y ait Absence dOpportunits dArbitrage. Rappelons que lon a suppos 1 < a < b. Si r a alors il suft dacheter une unit dactif risqu linstant initial en empruntant le montant correspondant la banque pour raliser un arbitrage. En effet, partant de V0 = 0, on disposera en N, aprs remboursement de la somme emprunte, de la richesse
N

VN = SN S0 (1 + r) = S0
n=1

Tn (1 + r)N

S0 ((1 + a)N (1 + r)N ) 0.

Et lhypothse (7.1) implique que P VN = S0 ((1 + b)N (1 + r)N ) > 0. Si r b, alors on va emprunter une unit dactif risqu linstant initial, la vendre et placer la somme reue S0 la banque. La possibilit de vendre une unit dactif quon ne possde pas peut sembler tonnante mais elle existe sur les marchs nanciers : cela sappelle de la vente dcouvert. Bien sr en N, il faut rembourser SN et on dispose encore de VN = S0 (1 + r)N SN S0 ((1 + r)N (1 + b)N ) 0. Le fait que P(VN > 0) > 0 dcoule nouveau de (7.1).

114

Cours de Processus Alatoires

Nous supposerons donc dsormais que lhypothse (7.3) est vrie. Lhypothse dAbsence dOpportunits dArbitrage a une consquence trs importante pour traiter le problme du pricing et de la couverture de loption europenne dnie par h : Supposons que le vendeur de loption h sache constituer un portefeuille qui comporte de lactif sans risque (placement la banque) et de lactif risqu sans ajouter ni enlever dargent lors des ventuelles modications de la composition du portefeuille aprs linstant initial et dont la valeur terminale est VN = h. Alors, comme le portefeuille et loption ont mme valeur linstant terminal, par Absence dOpportunits dArbitrage, la prime de loption est gale la valeur initiale du portefeuille. En outre, le vendeur est en mesure de couvrir le risque li loption : en investissant la prime pour grer le portefeuille, il sera en mesure de fournir la richesse h lacheteur linstant N. Dans le paragraphe suivant, nous verrons comment constituer un tel portefeuille dans le cas trs simpli o il y a une seule priode de temps : N = 1. Nous arborderons ensuite le cas gnral.

7.1.3 le cas dune seule priode de temps : N = 1


Daprs (7.2), il existe f : {1 + a, 1 + b} R+ t.q. le prot de lacheteur de loption est h = f(T1 ). On souhaite trouver des quantits 0 et investir respectivement en actif sans risque et en actif risqu linstant initial de faon ce que la valeur V1 = 0 S0 + S1 du portefeuille 1 correspondant soit gale h = f(T1 ) linstant 1. Compte tenu de (7.1), on obtient 0 (1 + r) + S0 (1 + a) = f(1 + a) 0 (1 + r) + S0 (1 + b) = f(1 + b). Ce systme admet pour unique solution =
f(1+b)-f(1+a) S0 (b-a) 1 1+r

0 =

f(1 + a)

f(1+b)-f(1+a) (b-a)

(1 + a) =

(1+b)f(1+a)-(1+a)f(1+b) . (1+r)(b-a)

Suivant lhypothse dAbsence dOpportunits dArbitrage, la valeur de loption linstant initial doit tre gale la valeur initiale du portefeuille V0 = 0 + S0 = = 1 1+r (1 + b)f(1 + a) (1 + a)f(1 + b) f(1 + b) f(1 + a) + (1 + r)(b a) (b a) ra br f(1 + a) + f(1 + b) . ba ba

Du fait de lingalit a < r < b qui est une consquence de lAbsence dOpportunits dArbitrage, on peut dnir P probabilit t.q. P (T1 = 1 + a) = (b r)/(b a) et P (T1 = 1 + b) = (r a)/(b a). Alors si on note E lesprance associe, on a V0 = 1 E (f(T1 )) = E 1+r h 1+r .

Ainsi la valeur de loption est lesprance sous la probabilit P du prot h de lacheteur actualis (prsence du facteur 1/(1 + r)).

Ch.7 Options europennes dans le modle de Cox-Ross-Rubinstein

115

Remarque 7.1.1 En gnral le prix nest pas gal lesprance du prot (ou payoff) actualis sous la probabilit de dpart. Lapproche nest pas une approche de type assurance. On peut supposer (en premire approximation) que les remboursements (Xi )1in effectus par un assureur automobile ses n (n grand) clients sont des variables indpendantes et identiquement distribues. Pour dterminer la prime quil demande ses clients, lassureur tient compte de la loi forte des grands nombres qui 1 indique que n n 1 Xi est proche de E(X1 ) (esprance sous la probabilit de dpart cette fois) : i= il demande donc une prime gale E(X1 ) plus une marge qui sert la fois le rmunrer et le prmunir contre les uctuations de la somme totale rembourser n 1 Xi autour de nE(X1 ) i= (le thorme de la limite centrale donne le comportement de ces uctuations). En revanche, dans le cas des marchs nanciers, seul un des scenarii dvolution possibles se ralise (il y a deux alternatives dans le cas particulier du modle de Cox-Ross-Rubinstein une priode de temps : T1 = 1 + a et T1 = 1 + b) et le vendeur de loption ne peut pas jouer sur la loi forte des grands nombres. Cest lexistence du portefeuille de rplication qui permet de donner un prix loption. Et le fait que la valeur initiale de ce portefeuille et donc de loption scrit comme esprance sous P du prot h actualis est une consquence des calculs mens pour dterminer le portefeuille et non de la loi forte des grands nombres. Remarque 7.1.2 On a E (S1 ) = S0 E (T1 ) = S0 (1 + a) ra br + (1 + b) ba ba = S0 (1 + r).

Ainsi, sous la probabilit P , lactif risqu rapporte autant en moyenne que lactif sans risque. En ce sens, il devient indiffrent (ou neutre) dinvestir en actif sans risque ou en actif risqu. Cest pourquoi P est appele probabilit risque-neutre.

7.2 Portefeuilles, arbitrages


Pour traiter le cas gnral N 1, il faut introduire la notion de stratgie autonance de gestion de portefeuille.

7.2.1 portefeuille
Dnition 7.2.1 Une stratgie de gestion de portefeuille est la donne dune suite ((0 , n ))1nN Fn-1 -adapte o 0 et n reprsentent respectivement la quantit dactif n n sans risque et la quantit dactif risqu dtenues sur la priode [n 1, n]. Il est naturel de supposer que (0 , n ) est Fn-1 -mesurable car cest au vu de linformation n Fn-1 disponible linstant n 1 que linvestisseur choisit la composition de son portefeuille sur la priode [n 1, n]. La valeur du portefeuille linstant n est Vn = 0 + 1 S0 si n = 0 1 0 n (1 + r)n + n Sn si 1 n N

On dnit galement la valeur actualise de lactif risqu Sn Sn Sn = 0 = Sn (1 + r)n

116

Cours de Processus Alatoires

et du portefeuille Vn = V0 = 0 + 1 S0 si n = 0 1 (1 + r)-n Vn = 0 + n Sn si 1 n N n

Une notion trs importante en vue de dnir et de caractriser les arbitrages est celle de statgie autonance. Dnition 7.2.2 Une stratgie est dite autonance si on najoute pas et on nenlve pas dargent du portefeuille aprs linstant initial. Autrement dit, aux instants 1 n N 1, les modications de la composition du portefeuille se font valeur constante : 1 n N 1, 0 (1 + r)n + n Sn = 0 +1 (1 + r)n + n+1 Sn . n n La stratgie est autonance si et seulement si lvolution de la valeur du portefeuille provient uniquement de lvolution de lactif sans risque et de lactif risqu entre les instants de discrtisation successifs : Proposition 7.2.3 Il y a quivalence entre i) La stratgie est autonance. ii) 1 n N, Vn = V0 + n 1 (0 S0 + j Sj ), j j j= 0 o pour 1 j N, on note (Sj , Sj ) = (S0 S0-1 , Sj Sj-1 ). j j n iii) 1 n N, Vn = V0 + j=1 j Sj , o pour 1 j N, Sj = Sj Sj-1 .
Dmonstration : Nous allons montrer lquivalence de i) et iii). Lquivalence de i) et ii) dcoule des mmes ides. Pour 1 j N, Vj = 0 + j Sj = 0 + j Sj-1 + j Sj . (7.4) j j Lorsque 2 j N, la condition dautonancement linstant j 1 scrit aprs division par (1 + r)j-1 , 0 + j Sj-1 = 0-1 + j-1 Sj-1 = Vj-1 . j j Avec (7.4), on en dduit que lautonancement est quivalent 1 j N, Vj Vj-1 = j Sj . Et cette famille dgalits implique iii) par sommation. Elle sen dduit en crivant lgalit de iii) aux instants n et n 1 et en effectuant la diffrence.

7.2.2 Absence dOpportunits dArbitrage


Nous allons donner une dnition mathmatique de lAbsence dOpportunits dArbitrage. Pour cela, il faut commencer par dnir une stratgie darbitrage Dnition 7.2.4 On appelle stratgie darbitrage une stratgie autonance de valeur initiale nulle : V0 = 0 et de valeur nale positive non nulle : VN 0 p.s. et P(VN > 0) > 0. On dit quil y a Absence dOpportunits dArbitrage sil nexiste pas de stratgie darbitrage. Dans ce cas, le march est dit viable.

Ch.7 Options europennes dans le modle de Cox-Ross-Rubinstein

117

Nous avons dj vu que a < r < b est une condition ncessaire pour quil y ait Absence dOpportunits dArbitrage. Cest en fait galement une condition sufsante : Proposition 7.2.5 Il y a Absence dOpportunits dArbitrage ssi a < r < b. Pour dmontrer la condition sufsante, nous supposons a < r < b et nous introduisons P probabilit t.q sous P , les variables T1 , . . . , TN sont i.i.d. avec P (Tj = 1 + a) = br ra et P (Tj = 1 + b) = . ba ba

Notons que cette dnition gnralise celle donn dans le cas dune seule priode de temps. Lemme 7.2.6 Sous P , la valeur actualise (Sn )0nN de lactif risqu est une Fn -martingale. pour toute stratgie autonance , la valeur actualise (Vn )0nN du portefeuille associ est une Fn -martingale. En admettant (provisoirement) le lemme, il est facile de dmontrer la proposition. Soit une stratgie autonance de valeur initiale nulle : V0 = 0 et de valeur terminale positive : P(Vn 0) = 1. Comme VN est FN = (T1 , . . . , TN )-mesurable, vN : {1 + a, 1 + b}N R t.q. VN = vN (T1 , . . . , TN ). Daprs lhypothse (7.1), tous les scenarii dvolution de lactif risqu ont une probabilit strictement positive : (x1 , . . . , xN ) {1 + a, 1 + b}N , P(T1 = x1 , . . . , TN = xN ) > 0. Avec P(VN 0) = 1, on en dduit que la fonction vN est valeurs dans R+ . Le fait que (Vn )n soit une martingale sous la probabilit P entrane que E (VN ) = V0 = 0. En multipliant par (1 + r)N , on en dduit que 0 = E (vN (T1 , . . . , TN )) =
(x1 ;:::;xN )f1+a;1+bgN

vN (x1 , . . . , xN )P (T1 = x1 ) . . . P (TN = xN ).

Cette dernire somme est constitue de termes positifs vN (x1 , . . . , xN ) multiplis par des termes strictement positifs P (T1 = x1 ) . . . P (TN = xN ). Comme elle est nulle, la fonction vN est ncessairement identiquement nulle. Do P(VN = 0) = 1 et il nexiste pas de stratgie darbitrage. Il reste dmontrer le lemme pour achever la preuve de la proposition :
Dmonstration : La suite (Sn )0nN est Fn -adapt. En outre chaque variable Sn est intgrable sous comme produit de variables alatoires indpendantes intgrables. P Sn Soit 0 n N 1. On a Sn+1 = 1+r Tn+1 . La variable Sn est Fn -mesurable. Sous P , Tn+1 est indpendante de (T1 , . . . , Tn ) et donc de Fn = (T1 , . . . , Tn ). En utilisant les proprits 4 et 6 de lesprance conditionnelle, on en dduit que E (Sn+1 |Fn ) = Sn E (Tn+1 ) 1+r Sn br ra = (1 + a) + (1 + b) 1+r ba ba n S = (1 + r) = Sn . 1+r

Ainsi (Sn )0nN est une Fn -martingale sous P .

118

Cours de Processus Alatoires

Soit maintenant une stratgie autonance. Il est facile de vrier que la suite (Vn )0nN est Fn -adapte. Soit 0 n N 1. Comme la stratgie est autonance, daprs la proposition 7.2.3, Vn+1 = Vn + n+1 Sn+1 . (7.5)

La quantit n+1 dactif risqu dtenu dans le portefeuille sur la priode [n, n + 1] est Fn = (T1 , . . . , Tn )-mesurable. Donc dans lesprit de la proposition 3.1.2, il existe une fonction fn : {1 + a, 1 + b}n R t.q. n+1 = fn (T1 , . . . , Tn ). Cela implique en particulier que la variable alatoire n+1 est borne. En prenant lesprance conditionnelle sachant Fn dans (7.5) et en utilisant notamment la proprit 4 de lesprance conditionnelle on en dduit E(Vn+1 |Fn ) = Vn + n (E(Sn+1 |Fn ) Sn ) = Vn . En fait (Vn )0nN est une transforme de martingales au sens de la proposition 4.3.1 et nous venons de redmontrer cette proposition dans un cas particulier.

Remarque 7.2.7 Daprs le lemme 7.2.6, sous P , la valeur actualise de lactif risqu est une martingale. Cest pourquoi on dit que P est une probabilit martingale. La constance de lesprance de cette martingale scrit 1 n N, E (Sn ) = (1 + r)n S0 , cest dire que sous P , lactif risqu rapporte en moyenne autant que lactif sans risque. En ce sens, il est indiffrent (ou neutre) dinvestir en actif sans risque ou en actif risqu. Cest pourquoi on dit galement que P est une probabilit risque-neutre. Remarque 7.2.8 On peut lgitimement se demander comment construire P . Il suft en fait de se placer sur lespace = {1 + a, 1 + b}N muni de la tribu discrte F = P(). Pour = (x1 , . . . , xN ) , on pose Tn () = xn pour 1 n N b-r Na r-a N-Na P() = b-a o Na = #{i : xi = 1 + a} b-a Alors il est facile (exercice) de vrier que sous P , les variables T1 , . . . , TN sont i.i.d. de loi donne plus haut.

7.3 Pricing des options europennes


On rappelle que lon se place du point de vue du vendeur dune option europenne dnie par une variable alatoire h positive FN -mesurable : on souhaite dterminer le prix et la couverture de cette option sous lhypothse dAbsence dOpportunits dArbitrage : a < r < b.

Ch.7 Options europennes dans le modle de Cox-Ross-Rubinstein

119

Supposons quil existe une stratgie de portefeuille autonance qui rplique loption au sens o la valeur terminale du portefeuille est gale au prot obtenu par lacheteur de loption : VN = h. Alors comme loption et le portefeuille ont mme valeur linstant terminal et comme on ne fait ni ajout ni retrait dargent au cours de la gestion du portefeuille entre linstant initial et linstant nal, il est naturel de dnir la valeur de loption un instant n antrieur comme la valeur Vn du portefeuille cet instant. Daprs le Lemme 7.2.6, sous la probabilit P introduite dans le paragraphe qui pr cde, la valeur actualise du portefeuille (Vn )0nN est une Fn -martingale. Donc la valeur de loption linstant n est alors Vn = (1 + r)n Vn = (1 + r)n E (VN |Fn ) = (1 + r)n-N E (h|Fn ). Nous allons montrer que lon peut construire une telle stratgie : Thorme 7.3.1 On suppose a < r < b. Alors il existe une stratgie autonance qui permet de rpliquer loption i.e. t.q. VN = h. Et pour 0 n N, la valeur de loption linstant n est Vn = (1 + r)n-N E (h|Fn ).
Dmonstration : On note Vn = E ((1+r)-N h|Fn ) la valeur actualise prsume de loption linstant n est une Fn -martingale sous la probabilit P . n. La suite V On cherche pour 1 n N une quantit n Fn-1 -mesurable t.q. Vn = Vn-1 + n Sn . Comme la variable alatoire Vn = E (h|(1 + r)N )|Fn ) est Fn = (T1 , . . . , Tn )-mesurable, n : {1 + a, 1 + b}n R+ t.q. Vn = vn (T1 , . . . , Tn ). v Pour n = 0, cela signie que v0 est une constante. Pour 1 n N, lgalit Vn-1 = E (Vn |Fn-1 ) se rcrit vn-1 (T1 , . . . , Tn-1 ) = E ( n (T1 , . . . , Tn )|Fn-1 ). v La variable (T1 , . . . , Tn-1 ) est Fn-1 mesurable. En outre sous P , Tn est indpendante de Fn-1 = (T1 , . . . , Tn-1 ). Donc daprs le Lemme 3.2.6, vn-1 (T1 , . . . , Tn-1 ) = br ra vn (T1 , . . . , Tn-1 , 1 + a) + vn (T1 , . . . , Tn-1 , 1 + b). ba ba (7.7) (7.6)

Compte tenu des deux alternatives Tn = 1 + a et Tn = 1 + b, lquation (7.6) est quivalente au systme de deux quations une seule inconnue n : vn (T1 , . . . , Tn-1 , 1 + a) = vn-1 (T1 , . . . , Tn-1 ) + n vn (T1 , . . . , Tn-1 , 1 + b) = vn-1 (T1 , . . . , Tn-1 ) + n
1+a 1+r 1+b 1+r

1 1

Sn-1 Sn-1 .

Si ce systme admet une solution, alors en faisant la diffrence entre la seconde et la premire quation, on obtient quelle est gale n = (1 + r) vn (T1 , . . . , Tn-1 , 1 + b) vn (T1 , . . . , Tn-1 , 1 + a) . (b a)Sn-1

La relation (7.7) est prcisment la relation de compatibilit qui assure que cette valeur trouve pour n est bien solution des deux quations.

120

Cours de Processus Alatoires

On a donc trouv une suite (n )1nN Fn-1 -adapte t.q. pour 1 n N, lgalit (7.6) est vrie. On pose 0 = Vn-1 n Sn-1 pour 1 n N. La stratgie de portefeuille n 0 = ((n , n ))1nN est telle que
 V0 = 0 + 1 S0 = V0 = V0 1 1 n N, Vn = 0 + n Sn = 0 + n Sn-1 + n Sn = Vn-1 + n Sn = Vn . n n

En particulier VN = (1 + r)N VN = h et (7.6) se rcrit 1 n N, Vn = Vn-1 + n Sn . Ainsi la stratgie rplique loption et elle est autonance daprs la proposition 7.2.3.

Exercice 47 On se place dans le modle de Cox-Ross-Rubinstein N priodes avec 1 < a < r < b. On sintresse une option europenne standard dchance N et de fonction de payoff g : R R+ i.e. t.q. le prot ralis par lacheteur linstant n est h = g(Sn ). 1. Pour quelle probabilit P , la valeur de loption linstant n est-elle Vn = E ((1 + r)n-N h(SN )|Fn )? 2. Montrer que Vn = C(n, Sn ) pour une fonction C(n, x) que lon prcisera. Que peut-on dire de x C(n, x) si g est croissante ?
1 3. Montrer que C(n, Sn ) = 1+r E (C(n + 1, Sn+1 )|Fn ). En dduire une relation de rcurrence descendante qui permet de calculer C(n, x) en fonction de C(n + 1, .).

4. Montrer que la quantit dactif risqu dtenir sur la priode [n 1, n] pour couvrir loption est donne par n = C(n, Sn-1 (1 + b)) C(n, Sn-1 (1 + a)) . Sn-1 (b a)

Que peut-on dire de cette quantit si g est croissante ? 5. On suppose dans cette question que pour un certain c > 0, la fonction x cx g(x) est positive et croissante. Montrer qualors n c. 6. En dduire des bornes pour le ratio de couverture n dans le cas du Call.

Chapitre 8 Mouvement brownien et martingales


8.1 Gnralits sur les processus temps continu
Comme dans le cas discret, on introduit la notion de ltration qui repsente linformation disponible. Dnition 8.1.1 Soit (, A) un espace muni dune tribu, on appelle ltration une suite croissante de sous tribus de A, (Ft , t 0). Un processus (Xt , t 0) est un processus adapt une ltration (Ft , t 0), si pour tout t 0, Xt est Ft -mesurable. Remarque 8.1.2 La ltration naturelle associe un processus (Xt 0) est par dnition la famille de sous tribus : Ft = (Xs , s t) , o Ft est la plus petite tribu rendant mesurable les applications Xs (), pour s t. Comme dans le cas discret, on dnit la notion de temps darrt. Dnition 8.1.3 Soit (Ft , t 0) une ltration, soit une variable alatoire positive valeurs dans R+ {+}. On dit que est un temps darrt si pour tout t : { t} Ft . Remarque 8.1.4 Il est facile de vrier que si S et T sont deux temps darrt, alors S T = inf(S, T ) est encore un temps darrt. En particulier, si t R+ , S t est un temps darrt. Martingales temps continu On peut tendre la notion de martingale au cas des processus temps continu. Dnition 8.1.5 Soit (Ft , t 0) une ltration sur un espace (, A, P) et (Mt , t 0) un processus adapt cette ltration. On dit que (Mt , t 0) est une martingale par rapport la ltration (Ft , t 0), si pour tout t R+ , E(|Mt |) < + et si pour tout s t : E (Mt |Fs ) = Ms . Remarque 8.1.6 Dans le cas discret la dnition afrme que : E (Mn+1 |Fn ) = Mn , et nous avons vu que lon peut en dduire que si p n : E (Mp |Fn ) = Mn . La dnition prcdente gnralise donc celle du cas discret. 121

122

Cours de Processus Alatoires

Thorme darrt pour les martingales continues Si (Mt , t 0) est une martingale continue (i.e. les trajectoires t Mt () sont continues, sauf pour un ensemble de de probabilit nulle pour P), on peut tendre lgalit : E(Mt ) = E(M0 ), qui dcoule de la dnition en prennant lesprance des deux membres a priori vraie pour un temps xe t un temps darrt born. Ce rsultat porte le nom de thorme darrt. Thorme 8.1.1 Soit T un temps darrt par rapport une ltration (Ft , t 0). Soit (Mt , t 0) une martingale continue par rapport la mme ltration. Si T k < +, k tant une constante relle, alors on a : E(MT ) = E(M0 ).

8.2 Extensions de la dnition du mouvement brownien


Nous commencons par dnir le mouvement brownien par rapport une ltration donne. Dnition 8.2.1 On dit que (Xt , t 0) est un mouvement brownien (standard) par rapport une ltration (Ft , t 0), si (Xt , t 0) est un processus continu adapt cette ltration, nul en 0 et si les accroissements Xt+h Xt sont indpendants de Ft et de loi gaussienne centre de variance h. Remarque 8.2.2 Noter que cette dnition implique que (Xt , t 0) est un mouvement brownien au sens classique (puisque (Xs , s t) Ft ). De cette dnition on peut dduire les proprits suivantes. Proposition 8.2.3 Si (Xt , t 0) est un mouvement brownien par rapport (Ft , t 0) alors : (Xt , t 0) est un mouvement brownien par rapport (Ft , t 0), si c > 0, ( 1 Xc2 t , t 0) est un mouvement brownien par rapport (Fc2 t , t 0), c si s 0, (Xt+s Xs , t 0) est un mouvement brownien par rapport (Ft+s , t 0), de plus ce processus est indpendant de Fs .

8.3 Exemples de martingales browniennes


Proposition 8.3.1 Soit (Xt , t 0) un mouvement brownien standard, alors si Ft = (Xs , s t) : (Xt , t 0) est une martingale par rapport (Ft , t 0), (X2 t, t 0) est une martingale par rapport (Ft , t 0), t (eXt 2 t 2

, t 0) est une martingale par rapport (Ft , t 0).

Dmonstration : Notons que si s t, on a, comme Xt Xs est indpendante de la tribu Fs : E (Xt Xs |Fs ) = E(Xt Xs ). Mais E(Xt Xs ) = E(Xt ) E(Xs ) = 0 0 = 0, donc : E (Xt Xs |Fs ) = 0. Xs tant Fs -mesurable on en dduit que E(Xs |Fs ) = Xs puis que : E (Xt |Fs ) = Xs .

Ch.8 Mouvement brownien et martingales

123

Ceci prouve le premier point. Pour dmontrer la deuxime proprit remarquons que : E (Xt Xs )2 |Fs = E(X2 |Fs ) 2Xs E(Xt |Fs ) + X2 . t s Comme Xs est une martingale, on a E(Xt |Fs ) = Xs et donc : E (Xt Xs )2 |Fs = E(X2 |Fs ) X2 . t s Notons, de plus, que comme Xt Xs est indpendant de Fs , on a : E (Xt Xs )2 |Fs = E (Xt Xs )2 . Mais Xt Xs suit la mme loi que Xt-s X0 = Xt-s , cest dire une loi gaussienne centre de variance t s, on a donc : E (Xt Xs )2 |Fs = t s. Donc il vient : ou encore : E(X2 |Fs ) X2 = E (Xt Xs )2 = t s, t s E(X2 t|Fs ) = X2 s. t s

Ce qui prouve la deuxime proprit. Pour prouver la troisime proprit notons, en utilisant lindpendance des accroissements, que : E e(Xt -Xs ) |Fs = E e(Xt -Xs ) . Mais la loi de Xt Xs est celle dune gaussienne centre de variance t s (dont on peut calculer la transforme de Laplace) donc : E e(Xt -Xs ) = e On a donc : E e(Xt -Xs ) |Fs = e
2 (t-s) 2 .

2 (t-s) 2 .

La variable alatoire Xs tant Fs -mesurable on obtient donc : E eXt 2 t 2 |Fs

= eXs -

2 s 2 .

8.4 Exemples dutilisation de la proprit de martingale


Temps de sortie dune bande Soit (Xt , t 0) un mouvement brownien. On pose : T = inf {t 0, Xt [a, b]} , avec a < 0 et b > 0. On peut montrer (par exemple, en utilisant une technique de martingale quasi identique celle utilise pour la marche alatoire symtrique, voir plus bas) que T < + presque srement. De plus la continuit des trajectoires de (Xt , t 0) implique que soit XT = a, soit XT = b.

124

Cours de Processus Alatoires

Comme T n est encore un temps darrt et quil est born, on peut appliquer le thorme darrt pour afrmer que : E(XT ^n ) = 0. On peut alors faire tendre n vers linni et appliquer le thorme de Lebesgue, puisque supn1 |XT ^n | (|a| + |b|). On obtient alors : E(XT ) = 0. En tenant compte du fait que soit XT = a, soit XT = b, on obtient : aP(XT = a) + bP(XT = b) = 0. Mais comme P(XT = a) + P(XT = b) = 1, on obtient : P(XT = a) = Esprance du temps de sortie gale de (X2 t, t 0) : t Soit encore : E X2 ^n = E (T n) . T On peut passer la limite lorsque n tend vers +, en utilisant le thorme de convergence domine gauche et le thorme de convergence monotone droite. On obtient alors : E(X2 ) = E(T ). T Ceci permet dvaluer la valeur de E(T ) : E(T ) = |a|2 |b| |b|2 |a| + = |a||b|. |a| + |b| |a| + |b| Soit un rel positif, considrons la martin2 t 2

|b| . |a| + |b|

On a, de plus, pour tout n, en utilisant la proprit de martinE X2 ^n T n = 0. T

Le mouvement brownien atteint tout niveau gale (Mt , t 0) avec : Posons, pour a un rel strictement positif :

Mt = eXt -

Ta = inf {t > 0, Xt = a} . On montre (exercice) que Ta est un temps darrt. Noter que Ta nest pas, a priori, presque srement ni. Nous allons appliquer le thorme darrt au temps darrt Ta n qui est born par n. On obtient : 2 E eXTa ^n - 2 Ta ^n = 1. Faisons tendre n vers +. En utilisant le fait que et a sont positifs, on obtient que presque srement : 2 2 lim eXTa ^n - 2 Ta ^n = 1{T < +} eXTa - 2 Ta .
n!+1 a

Ch.8 Mouvement brownien et martingales

125

Comme, de plus : eXTa ^n 2 T 2 a

^n ea ,

on peut appliquer le thorme de Lebesgue pour obtenir : E 1{T < +} eXTa a Comme XTa = a lorque Ta < +, on obtient : E 1{T < +} eaa
2 T 2 a 2 T 2 a

= 1.

= 1.

Faisons, maintenant, tendre vers 0 en dcroissant par valeurs positives, le thorme de convergence monotone permet dafrmer que : P(Ta < +) = 1. Ta est donc un temps darrt presque srement ni. On peut, de plus, calculer explicitement sa loi. Pour cela il suft de noter, que comme nous savons que P(Ta < +) = 1, on a : E e2 T 2 a

= e-a .

Cette galit caractrise la loi de Ta et lon peut en dduire, par transformation de Laplace inverse, que la loi de Ta admet une densit donne par : a 2t3 e- 2t .
a2

Exercice 48 Donner (sans calcul) la loi de T-a , pour a > 0.

8.5 Proprit de Markov forte du mouvement brownien


Nous avons vu que, si s est un rel positif et si (Xt , t 0) est un mouvement brownien, alors (Xt+s Xs , t 0) est un nouveau mouvement brownien indpendant de Fs . La proprit de Markov forte du mouvement brownien afrme que ce rsultat peut se gnraliser en remplacant s par un temps darrt ni arbitraire. Thorme 8.5.1 Soit (Xt , t 0) un mouvement brownien par rapport une ltration (Ft , t 0). Soit S un temps darrt, ni presque srement, par rapport cette ltration ; Alors, le processus : (XS+t XS , t 0), est un mouvement brownien par rapport la ltration (FS+t , t 0). De plus, ce mouvement brownien est indpendant de la tribu FS . Nous admettrons ce rsultat.

126

Cours de Processus Alatoires

Application de ce rsultat Soit (Xt , t 0) un mouvement brownien et Ta = inf {t > 0, Xt = a} pour un a > 0. Nous avons vu que Ta < + presque srement. On peut donc afrmer que (Xt , t 0), avec : Xt = XTa +t XTa = XTa +t a, est un nouveau mouvement brownien indpendant de FTa . Considrons b > a > 0, on a : Tb = Ta + inf {t > 0, XTa +t = b} . Ou encore : Tb = Ta + inf t > 0, Xt = b a . On en dduit que : la loi de Tb Ta est identique celle de Tb-a , Tb Ta est indpendant de la tribu FTa . (Ta , a 0) est donc un processus accroissements indpendants et stationnaires ! Il ne peut tre continu, sinon ce serait un mouvement brownien et ceci lui interdirait dtre croissant ! Nous venons donc didentier un exemple de processus accroissement indpendant et stationnaire non continu. Loi du maximum du mouvement brownien Soit (Bt , t 0) un mouvement brownien, on note St pour : St = sup (s t, Bs ) . Calculons : P (St a, Bt a) , On a : P (St a, Bt a) = P (Ta t, Bt a) . Mais si Bt = BTa +t a, on obtient : P (Ta t, Bt a) = P Ta t, Bt-Ta 0 = E 1{T t} P(Bt-Ta 0|FTa ) . a Comme Ta est FTa -mesurable et (Bt , t 0) est indpendant de FTa , on a : P(Bt-Ta 0|FTa ) = P Bt-s 0 De mme, on prouve que : P(Bt-Ta 0|FTa ) = P Bt-s 0 Do : P (Ta t, Bt a) = P Ta t, Bt-Ta 0 = P (Ta t, Bt a) . Que lon peut rcrire sous la forme : P (St a, Bt a) = P (St a, Bt a) . Mais : P (St a, Bt a) = P (Bt a) , Donc, en remarquant que P (St a, Bt = a) = 0, on : P (St a) = P (St a, Bt a) + P (St a, Bt a) = 2P (Bt a) = P (|Bt | a) . St et |Bt | ont donc mme loi.
s=Ta s=Ta

= 1/2.

= 1/2 = P(Bt-Ta 0|FTa )

Ch.8 Mouvement brownien et martingales

127

8.6 Exercices
Soit B = (Bt , t 0) un mouvement brownien dans R. On note (Fs , s 0) o Fs = (Bu , u s), la ltration engendre par le mouvement brownien. Exercice 49 Calculer : a) E[Bs Bt ] b) E eBt | Fs c) E[Bn ], t n 1.

On pourra utiliser un dveloppement en srie entire de lexponentielle pour calculer c) aprs avoir dmontrer que E e jBt j < . Calculer, en utilisant le fait que (Bt , Bt+h , Bt+h+s ) est un vecteur gaussien, la loi conditionnelle de Bt+h sachant (Bt , Bt+h+s ). Comparer pour f une fonction positive mesurable E[f(Bt+h ) | Bt , Bt+h+s ]
2

et

dz f(z)ph (Bt , z)ps (z, Bt+h+s )/ph+s (Bt , Bt+h+s ).

1 o pu (x, y) = 2u e-(x-y) =2u . Interprter. Calculer P[B2 > 0, B1 > 0]. Les vnements {B2 > 0} et {B1 > 0} sont-ils indpendants ?

Exercice 50 Soit a > 0. On note le temps darrt T = inf {t 0; Bt = a} le premier instant o le mouvement brownien B atteint a. On rappelle que (BT +s BT , s 0) est un mouvement brownien issu de 0 indpendant de T . 1. Montrer, en utilisant la proprit forte de Markov linstant T que 1 P [T < t] . 2 2. On note St = sup {Bu ; u t}. Calculer P[St > a, Bt a]. De la mme manire calculer P[Bt > a] = P[St > a, Bt > a]. 3. Calculer P[St > a]. En dduire que St et |Bt | ont mme loi sous P. Les deux processus (St , t 0) et (|Bt |, t 0) ont-ils mme loi ? 4. Calculer laide dune intgration par partie la densit de la loi de T sous P. Calculer E[T ]. Conclusion. P [T < t, Bt BT 0] =
1 Exercice 51 On note Xt = 1-t e-Bt =2(1-t) pour t [0, 1). 1. Soit 0 < t + s < 1. Calculer E[Xt+s | Ft ]. En dduire que (Xt , t < 1) est une martingale. 2. En dduire E[Xt ] pour tout t < 1. 3. Montrer que p.s. limt!1 Xt = 0. 4. Pourquoi ne peut-on pas appliquer le thorme darrt ?
2

Exercice 52 1. Montrer que P-p.s.


n!1

lim Bn /n = 0.

2. On rappelle que, t x, sous P, St = supst Bs a mme loi que |Bt |. On considre Mn = sup{|Bt Bn |; n t n + 1}. Majorer P[Mn 2 ln n]. En dduire que P-p.s. limn!1 Mn /n = 0. 3. Montrer que P-p.s. lim Bt /t = 0.
t!1

4. On note Z0 = 0 et Zt = tB1=t . Montrer que le vecteur (Zt1 , Zt2 Zt1 , . . . , Ztn Ztn-1 ), o 0 t1 < < tn , est un vecteur gaussien dont on dterminera les caractristiques. En dduire que (Zt , t 0) est un mouvement brownien.

128

Cours de Processus Alatoires

Exercice 53 On dsire valuer P[s [1, t], Bs = 0]. 1. On rappelle que, t x, sous P, St = supst Bs a mme loi que |Bt |. Soit t > 1. En dduire en utilisant la proprit de Markov linstant 1, que 1{B1 0}P[s [1, t], tel que Bs = 0 | B1 ] = 1{B1 0}P[|Bt-1 | B1 | B1 ], o (Bt , t 0) est un mouvement brownien indpendant de (Bt , t 0). 2. Montrer que P[s [1, t], tel que Bs = 0] =
1 2 1 2 2 dz e-(z +y )=2 dy. 0 z= t-1

3. Utiliser les coordonnes polaires pour calculer P[s [1, t], Bs = 0] Exercice 54 Bn = 0. n!1 n 2. Montrer, en utilisant le thorme de la limite centrale, que pour tout a > 0, 1. Montrer que lim P (n 1, Bn [a, a]) = 0. 3. On dnit a comme le premier temps de sortie de [a, a] pour le mouvement brownien : a = inf {t > 0; |Bt | > a} . Montrer que a est un temps darrt. 4. Dduire des questions prcdentes que a est ni p.s. Quelles valeurs peut prendre Ba ? 5. Montrer en utilisant la martingale eBt ea E 1Ba =a ee-a E 1Ba =a e6. En dduire que pour tout > 0, E e7. Montrer que P(a < 1) E eEn dduire que P(a < 1) 2 ea2 2 2  2 a 2  2 a 2  2 a 2 t 2

, t 0 que
2  2 a

+ e-a E 1Ba =-a e+ ea E 1Ba =-a e-

=1 =1

2  2 a

a

2 . + e-a
2 2

2  2 a

8. Soit (Xk , k 1) une suite de variables alatoires indpendantes et de mme loi : celle de supt[0;1] |Bt |. En utilisant le paragraphe prcdent majorer P(Xk 4 ln k).
9. En dduire que E k1 1Xk 4 ln k est nie. Montrer que p.s. il existe k0 (alatoire) tel que pour tout k k0 , Xk 4 ln k. Bt = 0. 10. Dduire des questions prcdentes que lim t!1 t

Ch.8 Mouvement brownien et martingales

129

8.7 Travail dirig : Principe de rexion


1.5

0.5

-0.5

-1 0 0.2 0.4 0.6 0.8 1

F IG . 8.1 Principe de rexion Soit B = (Bt , t 0) un mouvement brownien standard valeurs dans R issu de 0 sous la probabilit P. On note St = sup{Bu ; u [0, t]}. La loi de St On a P[St a] = P[St a, Bt a] + P[St > a, Bt < a] = P[Bt a] + P[St > a, Bt < a]. On note Ta = inf{t 0; Bt = a}. 1. Montrer, en utilisant la proprit de Markov forte que P[St a, Bt < a] = 1 P[Ta t]. 2 2. Vrier que P[St a] = P[Ta t]. 3. En dduire que t x St et |Bt | ont mme loi. Les deux processus |B| et S = (St , t 0) ont-ils mme loi ? 4. Donner un quivalent de P[Bs 1; s t] quand t . 5. Montrer que le processus Xt = Bt si t Ta Xt = 2a Bt si t > Ta , est un mouvement brownien. 6. Pour a b et b > 0, montrer que P[St > b, Bt < a] = P[Bt < a 2b]. 7. En dduire la loi du couple (St , Bt ). 8. Calculer et reconnatre la loi de St Bt t x. 9. Calculer et reconnatre la loi de 2St Bt t x.

130

Cours de Processus Alatoires

10. Montrer que Ta et a2 T1 ont mme loi. 11. Montrer que T1 a mme loi que jB1 j2 . 1 12. Calculer la densit de la loi de Ta . 13. Calculer la transforme de Laplace de Ta (E[e-Ta ] pour 0) en utilisant la densit de Ta ou les martingales browniennes exponentielles.

Bibliographie
[AS70] M. Abramowitz et I.A. Stegun, editeurs. Handbook of Mathematical Functions. Dover, 9th edition, 1970. [Bou86] N. Bouleau. Probabilits de lIngnieur. Hermann, 1986. [Bou88] N. Bouleau. Processus Stochastiques et Applications. Hermann, 1988. [Bre68] Breiman, L. Probability. Addison-Wesley, 1968. [DCD82] D. Dacunha-Castelle et M. Duo. Probabilits et statistiques, tome 1, Problmes temps xe. Masson, 1982. [DCD83] D. Dacunha-Castelle et M. Duo. Probabilits et statistiques, tome 2, Problmes temps mobile. Masson, 1983. [Fel66] Feller, W. An introduction to probability theory and its applications. Vol. II. New York-London-Sydney, 1966. [Fel68] Feller, W. An introduction to probability theory and its applications. I. New YorkLondon-Sydney, 1968. [Gar88] T. Gard. Introduction to Stochastic Differential Equation. Marcel Dekker, 1988. [GS80] I.I. Gihman et A.V. Skorohod. Introduction la Thorie des Processus Alatoires. Mir, 1980. [Knu81] D.E. Knuth. The Art of Computer programming, Vol. 2, Seminumerical Algorithms. Addison-Wesley, 1981. [KS88] I. Karatzas et S.E. Shreve. Brownian Motion and Stochastic Calculus. Springer-Verlag, New-York, 1988. [LE90] P. LEcuyer. Random numbers for simulation. Communications of the ACM, 33, 10 1990. [Nev72] J. Neveu. Martingales temps discret. Masson, 1972. [RW87] L.C.G. Rogers et D. Williams. Diffusions, Markov Processes and Martingales, Tome 2, It Calculus. John Wiley and Sons, New York, 1987. [RY90] A. Revuz et M. Yor. Continuous Martingale Calculus. Springer-Verlag, 1990. [Wil91] D. Williams. Probability with martingale. Cambridge Mathematical textbooks. Cambridge University Press, 1991.

131

Index
Convergence en loi, 20 convergence domine esprance, 131 intgration, 142 srie, 140 Esprance conditionnelle, 51 Proprits, 53 Fonction caractristique, 14 Fonction de rpartition, 14 Gaussienne, 14 simulation, 18 Loi forte des grands nombres, 18 Thorme de convergence monotone, 12 de Lebesgue, 13 Tribu, 9 Variables alatoires, 9 Variance, 15

132

You might also like