Professional Documents
Culture Documents
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
4 Martingales temps discrets 4.1 Introduction la notion de martingale . . . . . . . . . . 4.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Un exemple gnrique de martingale . . . . . . . . . . . 4.4 Notion de temps darrt . . . . . . . . . . . . . . . . . . 4.5 Thorme de convergence des martingales . . . . . . . . 4.6 Convergence de Martingales et algorithmes stochastiques 4.7 Travail dirig : Temps de sortie dune marche alatoire . 4.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . 3
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
5 Chanes de Markov temps discret 5.1 Chane de Markov . . . . . . . . . . . . . . . . . . . . . . . 5.2 Calcul de lois . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Exemple dutilisation des chanes de Markov . . . . . . . . 5.4 Chanes de Markov et esprance conditionnelle . . . . . . . 5.4.1 Solution dun problme darrt optimal . . . . . . . 5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Travail dirig : Modlisation de lvolution dune population 5.7 Travail dirig : Algorithme de Hastings-Metropolis . . . . . 5.8 Travail dirig : Rcurrence de la marche alatoire simple . . 6 Proprit de Markov forte 6.1 Proprit de Markov gnrale . . . . . . . . . . . . 6.2 Introduction la proprit de Markov forte . . . . . 6.3 Tribu des vnements antrieurs un temps darrt 6.4 Proprit de Markov forte : premire approche . . . 6.5 Exercices . . . . . . . . . . . . . . . . . . . . . . 6.6 Contrle : Loi du supremum dune marche alatoire
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
79 79 82 84 86 88 92 95 97 98 101 101 102 102 105 107 109 111 112 112 113 114 115 115 116 118 121 121 122 122 123 125 127 129
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
7 Options europennes dans le modle de Cox-Ross-Rubinstein 7.1 Le modle . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 description . . . . . . . . . . . . . . . . . . . . . 7.1.2 liens entre les paramtres r, a et b . . . . . . . . . 7.1.3 le cas dune seule priode de temps : N = 1 . . . . 7.2 Portefeuilles, arbitrages . . . . . . . . . . . . . . . . . . . 7.2.1 portefeuille . . . . . . . . . . . . . . . . . . . . . 7.2.2 Absence dOpportunits dArbitrage . . . . . . . . 7.3 Pricing des options europennes . . . . . . . . . . . . . . 8 Mouvement brownien et martingales 8.1 Gnralits sur les processus temps continu . . . 8.2 Extensions de la dnition du mouvement brownien 8.3 Exemples de martingales browniennes . . . . . . . 8.4 Exemples dutilisation de la proprit de martingale 8.5 Proprit de Markov forte du mouvement brownien 8.6 Exercices . . . . . . . . . . . . . . . . . . . . . . 8.7 Travail dirig : Principe de rexion . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
13 13 25 25 26 50 62 75 85 85
Projection orthogonale sur HB . . . . . . . . . . . . . . . . . . . . . . . . . . Trajectoire de la marche alatoire symtrique . . . . . . . . . . . . . . . . . . Temps de sortie de [a, b] par une marche alatoire . . . . . . . . . . . . . . . . Histogramme de la loi du nombre maximum de F conscutifs aprs 100 tirages Probabilit davoir au moins n F conscutifs aprs 100 tirages . . . . . . . . .
La notion de tribu permet de prciser la dnition dune variable alatoire. Dnition 1.1.4 Une application X de dans R est une variable alatoire mesurable par rapport la tribu A, si pour tout B B(R) : { , X() B} = {X B} A. On dit alors que X est une variable alatoire A-mesurable. 7
Dnition 1.1.5 Une probabilit P sur (, A) est une mesure positive de masse totale 1 dnie sur A. Cela signie que : pour tout A A, P(A) [0, 1] est dni, P() = 1, si pour tout entier i 1, Ai A et la famille des Ai est disjointe, alors : P(i1 Ai ) =
i0
P(Ai ).
Le triplet (, A, P) sappelle espace de probabilit. On voit que pour une variable alatoire A-mesurable on peut dnir P(X A) pour tout A, borlien de R. Remarque 1.1.6 En choisissant Ai = pour i n + 1, on obtient que si A1 , . . . , An sont disjoints P(n 1 Ai ) = n 1 P(Ai ). i= i= Dnition 1.1.7 On dit quune proprit est vraie presque srement, si cette proprit est vrie avec probabilit 1. On dit ainsi quune suite (Xn , n 1) converge presque srement si : P
n!+1
lim Xn existe
= 1.
E(X) :=
i=1
xi P(X = xi ).
On tend lesprance a toute variable alatoire X positive en approchant X par la suite croissante (Xn , n 1) donne par
n2n -1
Xn =
k=0
k 1 2n
k+1 k X< n n 2 2
+ n1{X n} .
Notez que pour un n x on sait donner une valeur E(Xn ) (car Xn prend un nombre ni de valeurs) n2n k k+1 k E(Xn ) = P X< n + nP(X n). n n 2 2 2 k=0 On dnit alors lesprance E(X) par E(X) = lim E(Xn ).
n!1
La limite existe forcment comme limite croissante de nombres rels positifs. Elle peut tre gale +. Dans tous les cas elle dnit lesprance de la variable alatoire positive X. Notez que si P(X = +) > 0, on a par construction pour tout n E(X) nP(X n) nP(X = +). On a donc E(X) = +. Par contrapose, on voit quune variable alatoire positive desprance nie est nie avec probabilit 1. Autrement dit E(X) < + implique P(X < +) = 1. (1.1)
Exercice 1 Vrier partir de la construction de lesprance que, si 0 X Y on a E(X) E(Y). Cas des variables alatoire de signe quelconque Si X est une v.a. relle de signe quelconque, on dit quelle est intgrable si E(|X|) < (E(|X|) est toujours dnie daprs ce qui prcde). Notez que 1.1 implique que |X| est nie presque srement. Comme X1X0 |X| et (X)1X<0 |X| On a, par croissance de lesprance, E(X1X0 ) E(|X|) < + et E((X)1X<0 ) E(|X|) < +. On peut donc dnir lesprance par la diffrence de deux nombres rels (nis !) E(X) = E(X1X0 ) E((X)1X<0 ). On admet les proprits suivantes de lesprance.
1. Linarit. Soient X et Y deux v.a. intgrables, soient , R. Alors la v.a. X + Y est intgrable, et on a E[X + Y] = E[X] + E[Y]. 2. E(1A ) = P(A). 3. Positivit. Soit X une v.a. relle positive p.s., cest--dire telle que P(X 0) = 1, alors on a E(X) [0, ]. En particulier E(X) 0. 4. Soient X et Y deux v.a. relles intgrables telles que X Y p.s., cest--dire telles que P(X Y) = 1, alors on a E(X) E(Y).
10
lim E(Xn ) = E
n!1
lim Xn .
Cette galit bien que naturelle ne va pas de soi et est en gnral fausse, mme si on peut la justier dans de nombreux cas. Lesprance dune variable alatoire positive X a t construite comme la limite des esprances de variables alatoires Xn qui convergent vers X en croissant. Cest pourquoi le thorme suivant que nous admettrons est naturel.
Thorme 1.3.1 (Thorme de convergence monotone) Si (Xn , n 1) est une suite de variables alatoires croissantes positives, i.e. 0 Xn Xn+1 , on peut afrmer que : E( lim Xn ) = lim E(Xn ).
n!+1 n!+1
Noter que lon nimpose ni lintgrabilit des Xn ni celle de limn!+1 Xn , ce qui rend ce thorme trs pratique : rien ninterdit aux limites droite et gauche de lgalit de prendre la valeur +. Si lune vaut + cela implique que lautre vaut aussi +. Remarque 1.3.1 Une application directe de ce dernier rsultat montre que lon a toujours : E(|Xn |) = E
n0 n0
|Xn | .
n0
< +.
La variable alatoire n0 |Xn | est donc nie presque srement et la srie n0 Xn est donc forcment (absolument) convergente. En particulier, Xn tends presque srement vers 0. On dmontrerait de faon identique que si, pour un entier p plus grand que 1 E(|Xn |p ) < +,
n0
alors limn!+1 Xn = 0. Ce rsultat (trs facile obtenir !) est lun des rares moyens qui permet de prouver la convergence presque sre. Le rsultat le plus important pour passer la limite dans les esprances est le
11
Thorme 1.3.2 (Thorme de convergence domine (ou de Lebesgue)) On suppose que la suite (Xn , n 1) vrie convergence presque sre : P domination : pour tout n, ^ ^ |Xn | X, avec E(X) < +. On peut alors afrmer que limn!+1 Xn est intgrable et que : E( lim Xn ) = lim E(Xn ).
n!+1 n!+1 n!+1
lim Xn existe
= 1.
Nous allons montrer que le thorme de convergence domine dcoule du thorme de convergence monotone. Pour cela nous allons commencer par tablir le Thorme 1.3.3 (Lemme de Fatou) Soit (Xn )nN une suite de v.a. positives p.s. On a : E
n!1 kn
lim inf Xk
Dmonstration : On pose Yn = infkn Xk . La suite (Yn ) est une suite croissante de variables positives. Par le thorme de convergence monotone, E(lim Yn ) = lim E(Yn ).
n n
Pour k n, Yn Xk et par croissance de lesprance, E(Xk ) E(Yn ). Donc infkn E(Xk ) E(Yn ). En passant la limite n + dans cette ingalit, on obtient lim inf E(Xk ) lim E(Yn ) = E(lim Yn ).
n kn n n
On peut alors dmontrer le thorme de convergence domine : ^ Dmonstration : On note X = limn Xn . Par passage la limite dans lingalit de domination |Xn | X, ^ ^ on obtient que |X| X, ce qui assure lintgrabilit de X. On a galement |X Xn | |X| + |Xn | 2X. ^ |X Xn | sont positives. Le lemme de Fatou implique alors Ainsi les variables Yn = 2X E ingalit qui se rcrit ^ 2E(X) E lim sup |X Xk |
n kn n!1 kn
Comme par convergence de Xn vers X, supkn |X Xk | converge presque srement vers 0 lorsque n +, on en dduit que lim sup E(|X Xk |) 0
n kn
12
et donc que limn E(|X Xn |) = 0. On conclut en utilisant lingalit |E(X) E(Xn )| E(|X Xn |) qui sobtient par linarit et croissance de lesprance.
f(x)p(x)dx.
Remarque 1.4.2 Notons que la loi dune variable alatoire est caractrise par : sa fonction de rpartition : u R FX (u) = P (X u) , ou sa fonction caractristique : u R X (u) = E eiuX . Si X admet la densit p, FX (u) =
-1
u
p(x)dx et X (u) =
eiux p(x)dx.
Exemple de loi : la loi gaussienne Un exemple de loi densit sur R trs utile est la loi gaussienne. On dit que G suit une loi gaussienne centre rduite si pour toute fonction f borne : E (f(G)) = La fonction caractristique de cette loi vaut : E eiuG = eu2 2 x2 dx f(x)e- 2 . 2 R
N(x) =
-1
e-
u2 2
du . 2
13
0.5
0.0 -5 -4 -3 -2 -1 0 1 2 3 4 5
0 -5 -4 -3 -2 -1 0 1 2 3 4 5
On dit que X suit une loi gaussienne de moyenne m et dcart-type (ou de variance1 2 ) si, pour toute fonction positive : E (f(X)) =
+1 -1
f(x)e-
(x-m)2
22
dx . 2
On vrie que E(X) = m et Var(X) = 2 et lon dit que X suit la loi N (m, 2 ). Notons que si X suit une loi gaussienne de moyenne m et de variance 2 , alors G = (X m)/ est une gaussienne de moyenne 0 et de variance 1 (on dit aussi centre rduite). On voit donc que lon peut toujours crire une gaussienne (m, 2 ) sous la forme X = m + G, G tant une gaussienne centre rduite. Cette remarque est souvent utile pour simplier certains calculs. Il est facile dexpliciter la fonction caractristique dune gaussienne (m, 2 ) en effet : E eiuX = E eiu(m+G) = eium E eiuG = eium e(u)2
2 u2 = eiuE(X) e- 2 Var(X) .
La densit dun vecteur alatoire permet de calculer la densit de chacune de ses composantes grce la formule des densits marginales : Proposition 1.5.2 Si le vecteur alatoire X = (X1 , . . . , Xd ) possde la densit p(x1 , . . . , xd ) alors pour tout 1 i d, Xi possde la densit pi (xi ) obtenue partir de p en intgrant sur les autres variables : pi (xi ) =
1
Rd-1
La variance dune variable alatoire est donne par : Var(X) = E(X2 ) E(X)2 = E (X E(X))
2
14
La fonction de rpartition dun vecteur est rarement utilise, mais on peut dnir la fonction caractristique dun vecteur par, pour tout u = (u1 , . . . , ud ) vecteur de Rd : X (u) = E eiu:X =
Rn
eiu:x p(x)dx,
avec u.x = u1 x1 + + ud xd et dx = dx1 . . . dxd . La fonction caractristique caractrise la loi du vecteur X : on peut montrer que si X et Y sont deux vecteurs valeurs dans Rd tels que pour tout u Rd : E eiu:X = E eiu:Y , alors la loi de X est identique celle de Y et donc pour toute fonction relle positive ou borne f sur Rd : E (f(X)) = E (f(Y)) . La notion dindpendance est centrale en probabilit. Cest la faon naturelle de spcier un modle dvolution. Commenons par dnir lindpendance de deux variables alatoires. Dnition 1.5.3 On dit que deux variables alatoires relles X et Y sont indpendantes, si lon a lune des deux proprits quivalentes suivantes pour tout A et B ensemble (de la tribu borlienne pour les amateurs !) P (X A, Y B) = P (X A) P (Y B) , Pour tout f et g fonctions bornes (et mesurable pour les mmes amateurs) de R dans R E (f(X)g(Y)) = E (f(X)) E (g(Y)) . On peut gnraliser cette dnition n variables alatoires. Dnition 1.5.4 On dit que n variables alatoires relles (X1 , . . . , Xn ) sont indpendantes, si lon a lune des deux proprits quivalentes suivantes pour tout ensemble A1 , . . . , An P (X1 A, . . . , Xn An ) = P (X1 A) . . . P (Xn An ) , Pour tout (fk , 1 k n) fonctions bornes de R dans R E (f1 (X1 ) . . . fn (Xn )) = E (f1 (X1 )) . . . E (fn (Xn )) . Dnition 1.5.5 On dit que (Xn , n 0) est une suite de variables alatoires indpendantes si, tout vecteur de longueur ni est constitu de variables alatoires indpendantes. On peut caractriser lindpendance dun vecteur alatoire sur la densit de la loi. Le rsultat est exprim pour un couple de variables alatoires mais stend sans difcult au cas vectoriel. Proposition 1.5.6 Un couple (X, Y) de variables alatoires relles admettant une loi de densit p(x, y), est un couple de variables alatoires indpendantes si et seulement si, on peut mettre p sous la forme p(x, y) = p1 (x)p2 (y), p1 et p2 tant deux densits de loi valeurs relles. En outre, X admet alors la densit p1 et Y la densit p2 .
15
Dmonstration : Supposons dabord que p(x, y) = p1 (x)p2 (y). Soit f et g deux fonctions bornes E (f(X)g(Y)) = f(x)g(y)p(x, y)dxdy = f(x)g(y)p1 (x)p2 (y)dxdy.
R2
R2
f(x)p1 (x)dx
R
g(y)p2 (y)dy.
f(x)p1 (x)dx,
et de mme E (g(Y)) =
R
g(y)p2 (y)dy.
On a nalement E (f(X)g(Y)) = E(f(X))E(g(Y)). X et Y sont donc indpendantes. Rciproquement supposons que X et Y soient indpendantes. Commenons par construire p1 et p2 . Pour cela, notons que, en toute gnralit, on a E(f(X)) = f(x)p(x, y)dxdy =
R
R2
f(x)
R
Ce qui prouve que la loi de X admet une densit donne par p1 (x) =
R
p(x, y)dy.
p(x, y)dx.
Pour simplier la preuve, on supposera que p, p1 et p2 sont des fonctions continues. On a P (X [x, x + ], Y [y, y + ]) = P (X [x, x + ]) P (Y [y, y + ]) . Donc :
x+ x y+ y 2 x+ x y+ y
p(u, v)dudv =
p1 (u)du
p2 (v)dv.
16
Simulation dune gaussienne centre rduite Nous allons voir comment lon peut simuler des variables alatoires suivant la loi gaussienne centre rduite. Pour cela, appelons G1 , G2 deux gaussiennes centres rduites indpendantes et notons R le rayon polaire : R = r(G1 , G2 ) = G2 + G2 , 1 2
et = (G1 , G2 ), langle polaire (il est plus prudent de ne pas expliciter la formule de langle polaire !). Soit f une fonction positive, on a : E (f(R, ) =
x f( (x, y), (x, y))er 2 +y2 2
R2
1 dxdy. 2
f(r, )e- 2
r2
1 rdrd. 2
Ceci permet didentier la loi du couple (R, ) comme tant la loi de densit : 1{r > 0} re-r
2 =2
1{ [0, 2[} 2
On en dduit que les deux variables alatoires R et sont indpendantes. suit une loi uniforme sur [0, 2[ et un changement de variable simple (exercice) montre que R2 suit une loi exponentielle de paramtre 1/2. On en dduit que : 2 , U1 = e-R =2 et U2 = 2 sont deux variables alatoires indpendantes suivant des lois uniformes sur [0, 1]. Il est facile dexprimer G1 et G2 laide de U1 et U2 : G1 = G2 = 2 log(U1 ) cos(2U2 ) 2 log(U1 ) sin(2U2 ).
Ceci conduit la mthode classique de simulation dune variable alatoire gaussienne : tirer U1 et U2 indpendantes selon une loi uniforme sur [0, 1], renvoyer 2 log(U1 ) sin(2U2 ).
17
Remarque 1.6.1 La condition que E(|X|) < + est videmment essentielle. On vrie, par exemple, que si (Xi , i 1) est une suite de variables alatoires indpendantes suivant une loi de Cauchy standard, cest dire de densit donne par : 1 , (1 + x2 ) alors la loi de (X1 + + Xn )/n est gale celle de X1 (on pourra dmontrer ce rsultat en exercice, en admettant que la fonction caractristique de la loi de Cauchy est donne par E(eiuX1 ) = e-juj ). On peut alors en dduire que (X1 + + Xn )/n ne peut converger vers une constante. Application On considre un modle dvolution du cours dune action en temps discret. Entre linstant n et linstant n + 1, on suppose le cours peut soit monter en tant multipli par un facteur > 1 soit baisser en tant multipli par un facteur ]0, 1[ mais que sa moyenne reste constante. Pour formaliser cette ide, on se donne une suite (Ti , i 1) de variables alatoires i.i.d. valeurs dans {, } desprance E(Ti ) = 1. Un rapide calcul montre que P(Ti = ) = p = Le cours de laction linstant n est
n
et P(Ti = ) = p = 1 p .
Sn = T1 T2 . . . Tn =
i=1
Ti .
Les variables ln(Ti ) valeurs dans {ln(), ln()} sont intgrables. Comme pour tout x > 0 diffrent de 1, ln(x) < 1 x, E(ln(Ti )) = p ln() + p ln() < p (1 ) + p (1 ) = 1 E(Ti ) = 0.
1 En appliquant la loi forte des grands nombres, on obtient que n n 1 ln(Ti ) converge presque i= srement vers E(ln(T1 )) < 0 lorsque n +. Donc n 1 ln(Ti ) = ln(Sn ) tend presque i= srement vers . Par composition avec la fonction exponentielle, on conclut que Sn converge presque srement vers 0. Mais par indpendance des Ti , E(Sn ) = n 1 E(Ti ) = 1. On a donc i=
Cet exemple naturel montre que lesprance de la limite nest pas toujours gale la limite des esprances. Il ne faut toutefois pas se dcourager lorsque lon doit calculer lesprance dune limite. Les thormes de convergence monotone et surtout de convergence domine permettent de conclure dans bien des cas. Lexemple illustre simplement la ncessit de vrier lhypothse de positivit et de croissance pour appliquer le thorme de convergence monotone et lhypothse de domination pour appliquer celui de convergence domine. Ici la suite Sn nest pas croissante, ce qui explique que le thorme de convergence monotone ne sapplique pas. Et comme la conclusion du thorme de convergence domine est inrme, on en dduit que lhypothse de domination nest pas vrie : E(supn Sn ) = +. Enn on peut noter que lingalit donne par le Lemme de Fatou est stricte.
18
On peut montrer le rsultat, important mais dlicat prouver, suivant. Proposition 1.7.2 (Xn , n 1) converge en loi vers une variable alatoire X si et seulement si, pour tout rel u : lim E eiuXn = E eiuX .
n!+1
Nous pouvons maintenant rappeler lun des rsultats fondamentaux du cours de probabilit de 1re anne : le thorme de la limite centrale. Thorme 1.7.1 Soit (Xn , n 1) une suite de variables alatoires indpendantes suivant toutes la mme loi quune variable alatoire X. On suppose que E(X2 ) < +. On note 2 la variance de X, alors : n 1 (X1 + + Xn ) E (X) n converge en loi vers G,
G tant une variable alatoire suivant une loi gaussienne centre rduite.
Dmonstration : Quitte retrancher E(X) X, on se ramne au cas o X est une variable alatoire de moyenne nulle. Notons alors : n (u) = E e
X ++X iu 1 n n
En utilisant le fait que les Xn sont indpendantes et de mme loi, on obtient : n (u) = E e
X iu n
.
X iu n
Puis, en faisant un dveloppement de Taylor lordre 2 en 0 de u E e remarque 1.7.3 pour un argument prcis) : E e avec limn!+1
n
X iu n
, on obtient (voir la
u2 1 u 1 = 1 + E(X) E(X2 ) + n n n 2
n.
=1
1 2 2 1 u + 2n n
n.
Donc :
n!+1
n!+1
1 2 2 1 u + 2n n
n n
= e-
2 u2 2
Ceci prouve le rsultat annonc grce la proposition 1.7.2. Remarque 1.7.3 Pour justier en dtail le dveloppement limit, il faut vrier que la fonction (u) dnie par : (u) = E eiuX ,
19
est 2 fois diffrentiable, les drives secondes partielles tant continues. Pour ceci, on commence par prouver que, comme E(|X|) < +, on a : (u) = E iXeiuX . Puis, comme E(|X|2 ) < +, on a dduit que : (u) = E X2 eiuX , et lon peut aussi prouver que (u) est continue en utilisant le thorme de convergence domine.
1 Notons n = n (X1 + + Xn ) E (X). Considrons la fonction f(x) = 1{x [a, b]} . Cette fonction nest pas continue aux points a et b. Mais comme P(G = a) = P(G = b) = 0, on peut tendre (exercice difcile) le rsultat du thorme prcdent pour obtenir, que pour tout a<b: b x2 dx lim P a n b = e- 2 . n!+1 n n 2 a On prend, alors, b = a et on choisit a de faon avoir :
x2 dx e- 2 = p proche de 1. 2 -a
Les valeurs classiques de p sont p = 0.95 (qui correspond a = 1.96) et p = 0.99 (a = 2.6). Dans les applications pratiques on oublie le passage la limite pour afrmer que P | n | 1.96 n est de lordre de 0.95. On a donc avec une probabilit proche de 0.95 que : E (X) 1 1 (X1 + + Xn ) 1.96 , (X1 + + Xn ) + 1.96 n n n n
Application la mthode de Monte-Carlo On cherche calculer E(X). On suppose que E(X2 ) < + et que, de plus, lon sait simuler une suite de variables alatoires (Xn , n 1) (cela signie que lon peut considrer les variables alatoires comme indpendantes et tires selon la loi de X). lissue de n tirages on va estimer la moyenne m par la moyenne empirique m dnie par : 1 m = (X1 + + Xn ) . n Quelle est la prcision de cette estimation ? Le thorme de la limite centrale nous dit que : P m [m 1.96 , m + 1.96 ] n n 0.95.
Lcart-type nest videmment pas explicitement connu lorsque lon utilise une mthode de Monte-Carlo et lon doit donc trouver une mthode destimation pour . La mthode habituellement utilise est la suivante, on pose : n 2 = 1 n1
n
(Xi m)2 =
i=1
1 n1
X2 i
i=1
n m2 . n1
20
n On peut alors montrer (exercice facile) que E(2 )2 (on dit que lon a affaire un estimateur 2 n sans biais de ) et que, presque srement, limn!+1 2 = 2 (on dit que lestimateur est convergent). Dans la pratique, au cours de la simulation, en plus de stocker la somme des Xi on stocke galement la somme i X2 de leurs carrs (cela ne cote pratiquement rien de plus) pour cali n culer 2 laide de sa seconde expression ci-dessus. On remplace par n dans les extrmits de lintervalle et lon afrme que (bien que lon ait rajout une autre source derreur) : n n P m [m 1.96 , m + 1.96 ] n n 0.95.
Exercice 2 Implementer la mthode de Monte-Carlo qui vous est suggre avec G une gaussienne centre rduite et X = 1{G } pour = 0, 1, 2, . . . , 5. Comment volue lerreur relative de la mthode ? Exercice 3 Calculer par simulation (ou au moins essayer !) E eG pour = 1, 2, 5. Prciser chaque fois lintervalle de conance. Que constatez vous ? Comment interprter ce rsultat.
Proposition 1.8.2 La convergence p.s. entrane la convergence en probabilit. Dmonstration : Soit (Xn , n N ) une suite de v.a qui converge p.s. vers X. La suite de v.a. discrtes positives (1jXn -Xj>" )nN converge p.s. vers 0. De plus elle est uniformment borne par 1. Par le thorme de convergence domine, on en dduit que :
n!1
Proposition 1.8.3 De toute suite qui converge en probabilit, on peut extraire une sous-suite qui converge presque srement. Dmonstration : Soit (Xn )nN une suite de v.a. qui converge en probabilit vers X. On dnit la sous-suite de manire suivante : (1) = 1 et (n + 1) = inf p > (n) tel que P(|Xp X| > 1 1 ) 2 n n .
La suite (Xn ) converge en probabilit, cela assure que la sous-suite (n) est bien dnie. On en dduit, par convergence monotone, que E
n1
1|X(n) -X|> 1
1 < . n2 n1
21
1 dpend de ). Donc, partir dun certain rang, X(n) X < n . En particulier, cela implique que p.s. limn!1 X(n) = X. Donc la sous-suite (X(n) ) converge p.s. vers X.
Cela implique que p.s. n1 1|X(n) -X|> 1 < . Les termes dune srie convergente tendent n vers 0. Donc p.s. limn!1 1|X(n) -X|> 1 = 0. Comme la fonction indicatrice ne prend que deux n valeurs 0 ou 1, cela entrane que p.s. 1|X(n) -X|> 1 () est nul partir dun certain rang n0 (qui
n
Proposition 1.8.4 La convergence en probabilit implique la convergence en loi. Remarque 1.8.5 En fait, on a le rsultat plus fort du Paul Lvy : soit (Xn , n N ) une suite de v.a. relle (vectorielle valeurs dans Rd ). Si Xn converge vers une fonction continue en 0, alors est la fonction caractristique dune v.a. vectorielle X et la suite (Xn , n N ) converge en loi vers X. Remarque 1.8.6 Il existe un rsultat similaire pour les tranformes de Laplace. Proposition 1.8.7 Soit (Xn , n N ) une suite de v.a. qui converge en loi vers la loi dune v.a X. Soit f une fonction valeurs relles, mesurable borne. Soit A lensemble des points de discontinuit de f (A B(Rd )). Si P(X A) = 0, alors
n!1
Remarque 1.8.8 On peut galement montrer que la suite (Xn , n N ) converge en loi vers X si et seulement si la suite de fonctions de rpartition FXn (x) converge presque partout vers la fonction de rpartition de X.
22
du 2 -1 (1 + u )
2. Vrier que F est une bijection de R dans ]0, 1[. On note F-1 son inverse et lon considre une variable alatoire U de loi uniforme sur [0, 1]. Quelle est la probabilit que U vaille 0 ou 1 ? Montrer que F-1 (U) suit la mme loi que X. En dduire une mthode de simulation selon la loi de Cauchy.
La fonction F est dnie sur R et prend ses valeurs dans ]0, 1[, de plus elle est strictement croissante puisque sa drive est la densit de probabilit de X qui est strictement positive. F est donc bien une bijection de R dans ]0, 1[. Lensemble {0, 1} est un ensemble de mesure nulle pour la mesure de Lebesgue, et donc : P(U = 0) = 0 P(U = 1) = 0 De ce qui prcde, F-1 (U) est bien dnie. On va montrer que X et F-1 (U) ont mme fonction de rpartition (elles auront donc mme loi). La fonction de rpartition de F-1 (U) est pour tout x rel : P(F-1 (U x) = P(U F(x)), puisque F est une bijection croissante de R dans ]0, 1[. On a donc P(U F(x)) =
F(x) 0
du = F(x).
F-1 (U) et X ont donc mme loi. Pour simuler la loi de Cauchy il suft de simuler une variable alatoire de loi uniforme sur [0, 1] et dappliquer la fonction F-1 (x) = tan x 1 . Les probabilits de 2 tirer 0 ou 1 tant nulle, il ny a pas de problme.
3. Soit V une variable alatoire qui vaut 1 ou 1 avec probabilit 1/2 et Z une variable alatoire qui suit une loi exponentielle de paramtre 1. Quelle est la loi de VZ ? Calculer sa fonction caractristique. En dduire, en utilisant la formule dinversion de la transformation de Fourrier, que : +1 dx = e-juj . eiux (1 + x2 ) -1
23
Calculons la loi de VZ. On a pour toute f fonction borne E(f(VZ)) = E(f(Z)1{V = 1} ) + E(f(Z)1{V = 1} ) +1 +1 = 1 0 f(u)e-u du + 1 0 f(u)e-u du 2 2 +1 = 1 -1 f(u)(1fu<0g eu + 1fu>0g e-u )du 2 Do VZ suit la loi 1 -juj e du. 2 La fonction caractristique de VZ est alors pour tout u rel :
+1 1 iux-jxj dx -1 2 e
= = =
-1 2 e
1 iux+x
dx
On en dduit donc en utilisant linversion de la transformation de Fourrier que +1 eiux 1 -juj do la fonction caractristique de la loi de Cauchy r-1 1+x2 dx = 2 2 e duite : eiux dx = e-juj (1 + x2 ) -1
+1
4. Soient X et Y deux variables alatoires indpendantes suivant des lois de Cauchy de paramtres respectifs a et b. Calculer la loi de X + Y.
Si les variables alatoires X et Y sont indpendantes, on peut calculer la fonction caractristique X+Y de X + Y pour tout u rel, par : X+Y (u) = = = = E(eiu(X+Y ) ) E(eiuX eiuY ) E(eiuX )E(eiuY ) X (u)Y (u)
Or, pour tout rel u la fonction caractristique dune variable alatoire de loi de Cauchy de paramtre est e-jjjuj avec la question prcdente. Do, X+Y (u) = e-(jaj+jbj)juj . X + Y suit une loi de Cauchy de paramtre |a| + |b|.
5. Soit (Yn , n 1), une suite de variables alatoires relles convergeant presque srement vers une variable alatoire Z. Montrer, en utilisant le thorme de Lebesgue, que lon a, pour tout > 0 lim P (|Y2n Yn | ) = 0.
n!+1
Soit un rel strictement positif. On considre la variable alatoire Un = 1jY2n -Yn j" . On peut crire pour tout entier n, |Y2n Yn | = |Y2n Z + Z Yn | |Y2n Z| + |Z Yn |. Or, on sait que la suite (Yn , n 1) converge vers Z presque srement. On en dduit que la suite (|Y2n Yn |, n 1) converge presque srement vers 0 et donc quil existe un rang N avec N entier naturel dpendant de tel que pour tout n > N on a Un = 0 presque srement.
24
Ainsi, (Un , n 1) converge presque srement vers 0. De plus, pour tout entier naturel n on a Un 1 avec 1 qui est une variable alatoire dsprance nie gale 1. On peut donc appliquer le thorme de convergence de Lebesgue :
n!+1
Do :
n!+1
lim P(|Y2n Yn | ) = 0.
6. Soit (Xn , n 1) une suite de variables alatoires indpendantes suivant une loi de Cauchy de paramtre 1. On considre la suite Yn = X1 + X2 + + Xn . n
Calculer la loi de Y2n Yn . La suite des Yn converge telle en loi ? presque srement ?
Pour tout entier n > 0, Y2n Yn = (X1 + + Xn ) + (Xn+1 + + X2n ) . 2n
Comme X1 , X2 , . . . , Xn , Xn+1 , . . . , X2n sont des variables alatoires indpendantes suivant des lois de Cauchy, on peut faire comme dans la question 3 et montrer que pour tout entier n : la loi de Y2n Yn qui est une loi de Cauchy de paramtre 1. De la mme manire on peut dire que pour tout n, Yn suit une loi de Cauchy de paramtre 1. Yn converge donc en loi vers une une loi de Cauchy de paramtre 1. Si Yn convergeait presque srement vers une variable alatoire Z, alors avec la question 5) on aurait lim P(|Y2n Yn | 1) = 0,
n!+1
or Y2n Yn suit une loi de Cauchy de paramtre 1 et donc pour tout entier naturel n, P(|Y2n Yn | 1) =
jxj1
dx , (1 + x2 )
est indpendant de n et est strictement positif. Il y a alors une contradiction et donc : Yn ne converge pas presque srement.
|x|dx . (1 + x2 )
25
E( |Xi |) < +. La loi des grands nombres permet alors dafrmer que (Zn , n 1) converge presque srement vers
R (1+x2 ) .
jxjdx
On commence voir pour 3000 tirages de Y40000 et de Y40000 Y20000 que Yn (gure 1.3) et Y2n Yn (gure 1.4) suivent une loi de Cauchy de paramtre 1 :
F IG . 1.3 Loi de Yn
26
F IG . 1.5 Loi de Zn
27
Exercice 2
Soient f et g deux fonctions de R dans R+ telles que f(x) et g(x) soient les densits de lois de variables alatoires valeurs dans R. On suppose de plus que, pour tout x R f(x) kg(x). Soient (Y1 , Y2 , , Yn , ) une suite de variables alatoires indpendantes suivant la loi de densit g(x) et (U1 , U2 , , Un , ) une suite de variables alatoires indpendantes suivant une loi uniforme sur [0, 1] indpendante de la suite des Yi . On pose N = inf{n 1, kUn g(Yn ) < f(Yn )}. 1. Dmontrer que N est ni presque srement et suit une loi gomtrique. Quelle est sa moyenne ?
Commenons par remarquer que p = P(kUn g(Yn ) < f(Yn )) ne dpend pas de n (cette probabilit sexprime en fonction de la loi du couple (Yn , Un ) qui ne dpend pas de n). De plus en utilisant lindpendance de Yn et Un , on peut aussi crire p sous la forme p=
1 0
1fkug(x)<f(x)g g(x)dudx.
Commenons par montrer que p est non nul. Pour cela, remarquons que si A = {x R, g(x) = 0}, on a p= Do p=
R=A
1 0
R=A
f(x) kg(x)
du g(x)dx =
R=A
En tenant compte de lingalit f(x) kg(x), on obtient pour tout x de A, f(x) = 0. x 1 Do p = R f(k ) dx. On en dduit, comme f est une densit, que p = k . p est en particulier strictement positif. Pour tout entier non nul n, on a (en utilisant les proprits dindpendance) P(N n) = P(k, 1 k < n, kUk g(Yk ) f(Yk ))
n
=
k=1
Comme p > 0 on obtient (par - additivit de la probabilit P ... ou par convergence monotone, ... ou par convergence domin) : P(N = +) = lim P(N n) = 0.
n!+1
N est donc ni presque srement. Pour tout n entier naturel non nul, on a (par indpendance) P(N = n) = P(l, 1 l < n, kUl g(Yl ) f(Yl ), kUn g(Yn ) < f(Yn ))
n
=
l=1
Do
28
P(N = n) = p (1 p)n-1
1 N suit bien une loi gomtrique de paramtre p = k . La moyenne de N est donne par
E(N) =
n1
np(1 p)n-1 ,
=k
Yi 1{N = i} .
Calculer pour n x et f borne E 1{N = n} f(X) . En dduire la loi de X. Quelle est la loi du couple (N, X) ?
Soit n un entier naturel et h une fonction relle borne. On a E(1fN=ng h(X)) = E(1{1 l < n, kU g(Y ) l l Do par indpendance entre les tirages, on a E(1fN=ng h(X)) = (1 p)n-1 E(1{kU g(Y ) < f(Y )} h(Yn )). n n n Et par le mme raisonnement que dans la question 1) on obtient : E(1{kU g(Y ) < f(Y )} h(Yn )) = p n n n Donc : E(1fN=ng h(X)) = (1 p)n-1 p
R h(y)f(y)dy.
h(y)f(y)dy.
R
Cette relation permet didentier la loi du couple X, N et prouve en particulier que X et N sont des variables alatoires indpendantes. Pour identier la loi de X, il suft de remarquer que toute fonction relle borne h, E(h(X)) =
n1
E(1N=n h(X)) =
R h(y)f(y)dy.
h(y)f(y)dy
R
n1
p(1 p)n-1 ,
do E(h(X)) =
3. En dduire comment on peut simuler une variable alatoire de loi f(x)dx si on sait simuler une variable alatoire de loi g(x)dx.
29
On a vu que X suit une loi de densit f. Il suft donc de simuler les suites (Un , n 1) et (Yn , n 1) de manire indpendante jusqu N (qui est une variable alatoire) : YN donne alors un tirage dune variable alatoire de loi f(x)dx. On peut remarquer quil faut trouver un densit g telle quil existe un k permettant dassurer que f(x) kg(x) pour tout x. Cest souvent possible, quitte prendre k grand. Cependant plus k est grand, plus lesprance de N, E(N) = k est grande et plus la simulation sera infcace. Il est donc conseill de choix g de faon avoir k aussi proche de 1 que possible.
1.10 Exercices
Exercice 4 Soit (Xi )iN une suite de variables alatoires indpendantes, les Xi suivant une loi de moyenne m et de variance 2 . 1. Calculez lestimation de P X1 ++Xn m en fonction de la variance que lon n obtient en appliquant lingalit de Bienaym-Tchebychev. En dduire un intervalle de conance 5% prs, par excs, de la moyenne lissue de n tirages. 2. Appliquer le thorme de la limite centrale et en dduire un intervalle de conance pour lestimation de la moyenne 5% prs. 3. On suppose que () = E eX < + pour un R. Calculer () si X suit une loi gaussienne centre de variance 2 (suppose connue). 4. On suppose que la loi de X est symtrique, ce qui signie que : E (f(X)) = E (f(X)) , pour toute fonction borlienne positive (ou borne) f. Dmontrer que dans ce cas pour tout > 0 : 2 P (|X| ) E e X e 5. Dmontrer que pour tout > 0 : P 6. En dduire que P X1 + + Xn m n X1 + + Xn m n (u) = sup
R+
2 E e n (X1 -m) e a
( )
2 e -n
o : .
u log E e
(X1 -m)
7. Calculer (u) pour une gaussienne de moyenne m et de variance 2 . Dduire pour cette loi un intervalle de conance 5% de la moyenne. Comparer avec les rsultats obtenus en 1 et en 2. Exercice 5 Soit X et Y deux variables alatoires gaussiennes centres de variance 1 indpen2 2 dantes. Trouver la loi du couple X-2Y , X+2Y . En dduire la fonction caractristique de X -Y . 2 Exercice 6 Soit (Un , n 1) une suite de variables alatoires relles indpendantes identiquement distribues. On pose : Yn = sup Uk et Zn = inf Uk .
1kn 1kn
30
1. On suppose la loi des Ui uniforme sur [0, 1]. Calculer la loi de Yn et de Zn . Quel est le comportement presque sr de Yn et Zn ? 2. Dterminer la loi du couple (Yn , Zn ). On commencera par calculer P (Yn x, Zn y) . 3. Quelle est la limite en loi du couple ((n 2)(1 Yn ), (n 2)Zn ) ? 4. Si les Ui suivent des lois exponentielles de paramtre 1, quelle est la loi de Yn et celle Zn . Quel est le comportement presque sr de ces variables lorsque n tend vers +. 5. On suppose que les Ui suivent des lois uniformes sur [0, ], tant un paramtre que lon cherche estimer. On va estimer par n = Yn . Calculer la moyenne de n et en dduire un estimateur sans biais de . Calculer la variance de lestimateur. Exercice 7 Soit (Xn , n 0) une suite de variables alatoires indpendantes qui ont toutes pour loi une loi exponentielle de paramtre . 1. On pose Sn = X0 + + Xn . Calculer la loi de Sn . 2. Soit T = inf{n 0, Sn > 1}. Dmontrer que presque srement T < +. 3. Calculer la loi de T et lidentier comme une loi de Poisson. 4. Proposer une mthode de simulation de la loi de Poisson, en prenant soin dutiliser au maximum des fonctions lmentaires (addition, multiplication). Exercice 8 Soit X = (X1 , . . . , Xn ) un vecteur centr, de matrice de covariance K. Calculer la variance de n 1 ui Xi . Dmontrer que si il existe un vecteur u = tel que Ku = 0, alors la loi i= de X est porte par un sous espace vectoriel strict de Rn . Exercice 9 Soit X une variable alatoire normale centre rduite. 1. Calculer la loi de X3 . 2. Soit Z la variable alatoire dnie par, si a > 0 : Z= X X si |X| < a si |X| a
Calculer la loi de Z. Le couple (X, Z) est-il gaussien ? 3. Donner un exemple de couple de variables alatoires (X, Z) centres, telles que E(XZ) = 0, X et Z suivent des lois gaussiennes et telles que X et Z ne sont pas indpendantes. Exercice 10 Soit ((Xi , Yi ), i 1) une suite de variables alatoires indpendantes valeurs dans R2 suivant toutes la mme loi. On suppose de plus que E(X1 ) = E(Y1 ) = 0, que E(X2 ) < + 1 2 et E(Y1 ) < +. 1. Quelle est la loi limite de (X1 + + Xn )/ n, de (Y1 + + Yn )/ n ? 2. Quelle est la loi limite du couple (X1 + + Xn )/ n, (Y1 + + Yn )/ n ? 3. A quelle condition la loi limite est elle celle dun couple de variables alatoires indpendantes ? 4. On suppose que le couple des (Xi , Yi ) suit la loi suivante : avec probabilit 1/4 le couple vaut soit (cos(), sin()), soit ( sin(), cos()), soit ( cos(), sin()), soit (sin(), cos()). A quelle condition sur , les Xi et les Yi sont elles indpendantes ? Montrer que, cependant, quelle que soit la valeur de , la loi limite est celle dun couple de variables alatoires indpendantes dont on donnera la loi.
31
Exercice 11 On se donne 2n (n 2) variables alatoires relles gaussiennes indpendantes X1 , . . . , Xn , Y1 , . . . , Yn telles que, pour 1 i n : E (Xi ) = , E (Yi ) = , et : Var(Xi ) = Var(Yi ) = 2 ,
1. Trouver la loi du vecteur alatoire (Ln , Mn ). 2. Exprimer lorsque = , la fonction dnie, pour a 0 par : f(a) = P |Ln Mn | > a/ n , laide de N(x) = 3. On pose : S2 = n
2 n 2 n
e-u -1 1 n1
2 n
2 =2
du/ 2. (Xi Ln )2
2 n 2 Tn =
i=1
1 n1
(Yi Mn )2
i=1
Montrer que S , T et (S + T )/2 sont des estimateurs sans biais de 2 . Lequel vous parait il prfrable ? 4. En dduire que lorsque = , la variable alatoire : L n Mn n , 2 S2 + Tn n suit une loi de Student de paramtre n 1. 5. Que se passe til lorsque = et que n tend vers +. Proposer un test de lhypothse = contre lalternative = . 6. Soit deux groupes de 21 lves. On constate que la moyenne empirique est de 13.8 et la variance empirique de 2.4 pour le premier groupe et de 13 et 3.1 pour le deuxime groupe. Lcart entre les deux groupes vous parait elle signicative ? (Student = 0.93) Exercice 12 On considre le modle de transmission suivant : un signal dterministe sn est bruit par une variable alatoire Bn . On pose Xn = sn + Bn o Xn est lobservation effective (bruite). et sont des paramtres xs mais inconnus. On cherche en particulier une mthode destimation de . On suppose que les (Bk )1kn suivent des lois gaussiennes centres rduites et sont indpendantes. 1. Trouver la loi du vecteur (X1 , . . . , Xn ). 2. On note x = (x1 , . . . , xn ) un point de Rn . Trouver la valeur (x) qui maximise cette ^ densit. Calculer : E (^ (X1 , . . . , Xn )) et Var (^ (X1 , . . . , Xn )) . A quelle condition estil un estimateur convergent en moyenne quadratique. ^
Var (u.X) =
i=1 j=1
ui uj Cov (Xi , Xj ),
avec Cov (Y, Z) = E(YZ) E(Y)E(Z) = E {(Y E(Y))(Z E(Z))}. Notons , avec ij = Cov (Xi , Xj ), la matrice de variance covariance du vecteur X et m, avec mi = E(Xi ), son vecteur moyenne. On voit donc que : E eiu:X = eiE(u:X)- 2 Var(u:X) = eiu:m- 2 u: u . On constate que la fonction caractristique (et donc la loi) ne dpend que du couple (m, ). On dit dans ce cas que X suit la loi N (m, ). Exemples : Si G1 , . . . , Gd sont des variables gaussiennes centres rduites indpendantes alors G = (G1 , . . . , Gd ) est un vecteur gaussien centr de matrice de variance covariance gale la matrice identit de Rd . En effet pour u Rd , par indpendance, la fonction caractristique de u.G est u:G (v) = E(e
iv(u:G) d d
1 1
)=
j=1
E(e
ivuj Gj
)=
j=1
e-
(vuj )2
2
= e- 2 u:u ,
v2
ce qui implique que cette variable alatoire suit la loi gaussienne centre de variance u.u. Remarque 2.1.2 Il ne suft pas que X1 et X2 soient des variables gaussiennes relles pour que (X1 , X2 ) soit un vecteur gaussien. Ce rsultat est vrai dans le cas particulier o X1 et X2 sont indpendantes mais pas en toute gnralit. Notons que la matrice de variance covariance de nimporte quel vecteur X est une matrice symtrique positive (i.e. u.u 0 pour tout vecteur u de Rd ) : en effet, u.u = Var(u.X) 0. Dautre part, on peut construire (ou simuler) un vecteur gaussien de vecteur moyenne m et de 33
34
matrice de covariance donnes si et seulement si la matrice est symtrique positive. Nous prouvons ce rsultat dans le paragraphe consacr la simulation dun vecteur gaussien . Notons, de plus, que peut tre dgnre (i.e. il existe u0 = tel que u0 = 0) et dans ce cas X prend ses valeurs dans un sous espace afne strict de Rd . Stabilit du caractre gaussien par transformation linaire Si X est un vecteur alatoire valeurs Rd et Y = a + MX pour un vecteur (constant) a Rn et une matrice M de taille n d, alors toute combinaison linaire des coordonnes de Y est combinaison linaire des coordonnes de X une constante prs : pour v Rn , v.Y = v.a + (Mt v).X. Donc si X est gaussien, Y lest aussi. Exercice 13 Vrier que E(Y) = a + M.E(X) et que la matrice de variance covariance de Y sexprime en fonction de celle de X par la relation = MMt . Exemples : Si X = (X1 , . . . , Xd ) est un vecteur gaussien valeurs Rd alors pour k d, le vecteur (X1 , . . . , Xk ) est gaussien (de mme que tout vecteur obtenu partir de X en enlevant 1 certaines coordonnes). La moyenne empirique d d=1 Xi est une gaussienne relle. i Simulation dun vecteur gaussien Supposons que lon cherche simuler un vecteur gaussien dont on connat le vecteur moyenne m et la matrice de variance-covariance . La matrice est symtrique positive. Il existe donc une racine carre A telle que : AAt = . Voir lexercice 14 pour une preuve. Daprs ce qui prcde, si G = (G1 , . . . , Gd ) est un vecteur de variables alatoires gaussiennes centres rduites indpendantes alors m + AG suit la loi N (m, ). On dbouche donc sur lalgorithme suivant pour simuler un vecteur gaussien m, : Simulation dun vecteur gaussien : Calculer une racine carre A de , tirer un vecteur de gaussiennes centres rduites indpendantes G = (G1 , . . . , Gd ), retourner le vecteur m + AG. Exercice 14 Algorithme de Cholevsky En supposant que est A est une matrice triangulaire suprieure, rsoudre itrativement lquation AAt = . Programmer la mthode ainsi identie. Vecteurs gaussiens et indpendance Si les coordonnes du vecteur alatoire X = (X1 , . . . , Xd ) sont indpendantes et de carr intgrable, alors sa matrice de variance covariance est diagonale. En effet pour i = j, E(Xi Xj ) = E(Xi )E(Xj ) i.e. Cov (Xi , Xj ) = 0. Dans le cas o X est un vecteur gaussien, le caractre diagonal de la matrice de covariance savre une condition sufsante dindpendance : Proposition 2.1.3 Les coordonnes dun vecteur gaussien X = (X1 , . . . , Xd ) sont indpendantes si et seulement si sa matrice de variance covariance est diagonale.
Dmonstration : Nous avons dj dmontr la condition ncessaire. Supposons que la matrice de variance covariance est diagonale et notons m le vecteur esprance de X. Si Y1 , . . . , Yd sont des variables gaussiennes indpendantes desprance et variance respectives m1 , 11 , . . . , md , dd alors le vecteur
35
Y = (Y1 , . . . , Yd ) suit la loi N (m, ). Donc X et Y ont mme loi et les coordonnes Xi sont des variables indpendantes.
Exercice 15 Soit Y1 , . . . , Yn des vecteurs alatoires valeurs respectivement dans Rd1 , . . . , Rdn t.q. le vecteur Y = (Y1 , . . . , Yn ) est gaussien (cela implique en particulier que les Yi sont des vecteurs gaussiens). Montrer que les vecteurs Y1 , . . . , Yn sont indpendants si et seulement si la matrice de variance covariance de Y est diagonale par blocs au sens o :
n
(j, k) /
[d1 + . . . + di-1 + 1, d1 + . . . + di ]2 , jk = 0.
i=1
Dnition 2.1.4 On dit que (Xn , n 1) suite de variables alatoires valeurs dans Rd converge en loi vers X variable alatoire valeurs dans Rd si, pour toute fonction continue et borne f : Rd R, lim E (f(Xn )) = E (f(X)) .
n!+1
On peut tendre au cas vectoriel le critre de convergence utilisant la fonction caractristique. Thorme 2.1.1 Soit (Xn , n 1) une suite de variables alatoires valeurs dans Rd . Cette suite converge en loi vers X si et seulement si, pour tout u = (u1 , . . . , ud ), on a :
n!+1
Ce rsultat est dlicat obtenir et nous ladmettrons. Nous allons voir quil permet de dmontrer simplement une gnralisation du thorme de la limite centrale. Thorme 2.1.2 (de la limite centrale multidimensionnel) Soit (Xn , n 1) une suite de variables alatoires valeurs dans Rd indpendantes suivant toutes la mme loi que X. On suppose que E |X|2 < + (o |x| dsigne la norme euclidienne dun vecteur de Rd ). On note m le vecteur des esprances de X, mi = E(Xi ) pour i = 1, . . . , d. et le matrice de variancecovariance du vecteur X, ij = Cov (Xi , Xj ). Alors : n 1 (X1 + + Xn ) m n
lim E ei
= E eiu G = e- 2 u: u .
36
lim E eiu:
= e- 2 u: u .
Comme u Rd est arbitraire, on conclut en utilisant la caractrisation de la convergence en loi des vecteurs alatoires dans Rd par les fonctions caractristiques.
Stabilit des vecteurs gaussiens par convergence en loi Le rsultat suivant qui assure que toute limite en loi ( fortiori presque sre, en probabilit, dans L1 ou dans L2 puisque ces convergences impliquent la convergence en loi) de variables gaussiennes relles est gaussienne, est trs utile pour obtenir le caractre gaussien de variables obtenues par un procd de passage la limite. Proposition 2.1.5 Soit (Xn )n une suite de variables gaussiennes relles qui converge en loi vers X. Alors X est gaussienne.
Dmonstration : Supposons dans un premier temps que Xn converge vers X dans L2 i.e. que E((Xn X)2 ) 0. Comme (E(Xn ) E(X))2 E((Xn X)2 ), E(Xn ) E(X). Par lingalit de Cauchy-Schwarz, E(Xn X) E(X2 ) E(X2 ). n Donc E((Xn X)2 ) = E(X2 ) 2E(Xn X) + E(X2 ) ( E(X2 ) E(X2 ))2 . n n Ainsi E(X2 ) E(X2 ) et Var(Xn ) Var(X). n
u u On en dduit que pour u R, E(eiuXn ) = eiuE(Xn )- 2 Var(Xn ) eiuE(X)- 2 Var(X) . La convergence dans L2 de Xn vers X entrane la convergence en loi de Xn vers X et donc daprs les thormes 1.7.2 et 2.1.1, la convergence de E(eiuXn ) vers E(eiuX ). On conclut donc que 2 2
u R, E(eiuX ) = eiuE(X)-
u2 Var(X) 2 ,
la suite eiuE(Xn ) converge vers une limite (u) avec |(u)| = 1. Montrons par labsurde que lon peux extraire de la suite (E(Xn ))n une sous-suite (E(Xnk ))k qui converge vers une limite nie m R. Supposons quau contraire |E(Xn )| +. Soit une fonction C1 support compact sur R. Par convergence domine (u)(u)du = lim
R
n!+1 R
ce qui implique que X est gaussienne. Traitons maintenant le cas plus dlicat o lon suppose seulement la convergence en loi de la suite Xn vers X. Comme la fonction caractristique X (u) = E(eiuX ) est continue (consquence du thorme de convergence domine) et vrie X (0) = 1, il existe v > 0 t.q. |X (v)| = 0. La convergence en loi 2 de Xn vers X entrane celle de E(eivXn )E(e-ivXn ) = e-v Var(Xn ) vers E(eivX )E(e-ivX ) = |X (v)|2 . On en dduit que la suite (Var(Xn ))n converge vers une limite 2 R+ . u2 Comme pour tout u R, E(eiuXn ) = eiuE(Xn )- 2 Var(Xn ) converge vers E(eiuX ), pour tout u R
eiuE(Xn ) (u)du.
i E(Xn )
1
eiuE(Xn ) (u)du.
R
jE(Xn )j |
R |
(u)(u)du = 0.
37
Ainsi la distribution associe la fonction localement intgrable est nulle i.e. 0, ce qui contredit || 1. Donc il existe une sous-suite (E(Xnk ))k qui converge vers une limite m R. On conclut que u R, E(eiuX ) = lim E(eiuXnk ) = lim eiuE(Xnk )k k
u2 Var(X ) nk 2
= eium-
u2 2 2 .
Corollaire 2.1.6 Soit (Xn )n une suite de vecteurs gaussiens valeurs Rd qui converge en loi vers un vecteur X. Alors X est gaussien.
Dmonstration : Comme pour u Rd , lapplication x Rd u.x R est continue, la convergence en loi de Xn vers X entrane celle de u.Xn vers u.X. Les variables u.Xn tant gaussiennes, on en dduit avec la proposition 2.1.5 que u.X est une variable gaussienne. Comme u Rd est arbitraire, X est un vecteur gaussien.
38
Thorme 2.2.1 Si (Xt , t 0) est un processus continu accroissements indpendants et stationnaires alors il existe deux constantes relles r et t.q. t 0, Xt X0 = rt + Bt avec (Bt , t 0) un mouvement brownien.
Dmonstration : La dmonstration du caractre gaussien de Xt X0 est dlicate. Elle repose sur des variantes du thorme de la limite centrale. Nous admettrons ce rsultat. Par contre, il est trs facile de calculer la moyenne et la variance de Xt X0 . En effet : Xt+s X0 = (Xt+s Xt ) + (Xt X0 ) . La loi de (Xt+s Xt ) est identique celle de (Xs X0 ) par hypothse. Comme nous avons admis quil sagissait dune variable alatoire gaussienne, cette variable alatoire a une esprance et une variance nie ainsi que (Xt X0 ). Donc : E (Xt+s X0 ) = E (Xt+s Xt ) + E (Xt X0 ) = E (Xs X0 ) + E (Xt X0 ) . Si lon note (t) = E (Xt X0 ), on a donc lquation fonctionnelle : (t + s) = (t) + (s). On en dduit que pour k, n N , (k/n) = k(1/n). Si on pose r = (1), le choix k = n permet de vrier que k, n N , (k/n) = rk/n. On conclut alors, sans presque aucune hypothse de rgularit sur , que (t) = rt. De mme, pour la variance, comme Xt+s Xt et Xt X0 sont deux variables alatoires indpendantes, on a : Var (Xt+s X0 ) = Var (Xt+s Xt ) + Var (Xt X0 ) = Var (Xs X0 ) + Var (Xt X0 ) . Le mme argument permet alors dafrmer que Var (Xt X0 ) = 2 t. On vrie ensuite facilement que 1 Bt = (Xt X0 rt) est un mouvement brownien.
Remarque 2.2.5 Si on souhaite modliser le cours (St )t0 dune action par un processus continu strictement positif accoissements relatifs St Su St = 1, u t Su Su indpendants et stationnaires alors Xt = ln(St ) est un processus continu accroissements indpendants et stationnaires. Dans ces conditions, daprs le thorme 2.2.1, il existe deux constantes relles r et et un mouvement brownien (Bt , t 0) t.q. t 0, St = S0 exp(Bt + rt). Ce modle dactif est appel modle de Black-Scholes. Exercice 16 Montrer que pour tout R, E(eBt ) = e E(Bn ) = t
2 t 2
. En dduire que
39
est un vecteur gaussien puisque il scrit linairement partir du vecteur de gaussiennes indpendantes : (Bs , B t+s Bs , Bt B t+s ).
2 2
Lindpendance de ces trois variables alatoires est une consquence de la dnition : les accroissements du brownien sont indpendants. On cherche dterminer et de faon ce que la variable alatoire Z ; : Z
;
= B t+s Bs Bt ,
2
soit indpendante du couple (Bs , Bt ). Pour cela, il convient de noter que le vecteur (Z ; , Bs , Bt ) est un vecteur gaussien (comme combinaison linaire de variables alatoires gaussiennes indpendantes) centr (puisque E(Bt ) = E(B t+s ) = E(Bs ) = 0 et donc E(Z ; ) = 0). 2 Ce vecteur tant gaussien, daprs lexercice 15, Z ; sera indpendante du couple (Bs , Bt ) si et seulement si : Cov (Z ; , Bs ) = 0 et Cov (Z ; , Bt ) = 0. On obtient, sans difcults, que : Cov (Z
;
On voit donc quil faut savoir calculer, pour un mouvement brownien standard E(Bu Bv ) si u v. Pour cela remarquons que : E(Bu Bv ) = E(B2 + Bu (Bv Bu )) = E(B2 ) + E(Bu (Bv Bu )). u u Mais, Bu et Bv Bu sont indpendantes et E(Bu ) = 0 donc : E(Bu (Bv Bu )) = 0. De plus, Bu suit une loi gaussienne centre de variance u donc E(B2 ) = u. On voit donc que, u si u v : E(Bu Bv ) = u. Plus gnralement, cela implique que pour tout t et pour tout s : E(Bt Bs ) = t s = inf(s, t). Ce rsultat intermdiaire tant tabli, on obtient : Cov (Z
;
40
et : Cov (Z
;
2
1 (Bs + Bt ) . 2 2 Z est par construction une variable alatoire indpendante du couple (Bs , Bt ). De plus elle suit une loi gaussienne puisque elle sexprime linairement en fonction du vecteur gaussien (Bs , B t+s , Bt ). Pour identier la loi de Z il suft de calculer sa moyenne et sa variance. On 2 obtient facilement que E(Z) = 0 puis que : Z = B t+s Var(Z) = E(Z ) = E En dveloppant le carr, on obtient : Var(Z) = t+s t s t+s s 1 + + s + = (t s). 2 4 4 2 2 4 1 t s Gs;t , 2
2
, Bs ) = Cov (Z
B t+s
2
1 (Bs + Bt ) 2
Gs;t tant une gaussienne centre rduite indpendante du couple (Bs , Bt ). Remarque 2.3.1 On peut montrer que Gs;t est en fait indpendante de Bu pour tout u s ou t. On peut rsumer le rsultat qui vient dtre tabli de la faon suivante : 1 B t+s = 1 (Bs + Bt ) + 2 t s Gs;t 2 2 Gs;t tant indpendante de Bu pour tout u s ou t.
(2.1)
Cela suggre la procdure de simulation (ou de construction) suivante de la trajectoire (Bs , 0 s 1) partir dune suite (Gj )j1 de variables gaussiennes centres rduites indpendantes : 1. Poser B1 = G1 ,
1 2. utiliser (2.1), avec s = 0 et t = 1 pour poser B1=2 = 2 (B1 + G2 ), 1 3. utiliser (2.1), avec s = 0 et t = 1/2 pour poser B1=4 = 2 (B1=2 + 1 2
G2 ),
1 2
G4 ),
5. etc ... Il est facile dcrire un programme C qui fait ce travail. double gaussienne() // renvoit une gaussienne centre rduite { return ... } void Pont(s,x,t,y)
41
{ double z; if(|t-s|<epsilon) { tracer la droite de (s,x) (t,y); return; } z = (x+y)/2 + sqrt(t-s)/2 * gaussienne(); Pont(s,x,(s+t)/2,z); Pont((s+t)/2,z,t,y); } void main(void) { Pont(0,0,1,gaussienne()); }
lim
i=0
Btn+1 Btn i i
= T.
Var
i=0
Btn+1 Btn i i
n-1
=
i=0
Var
Btn+1 Btn i i
=E
Btn+1 Btn i i
Btn+1 Btn i i
La loi de Btn+1 Btn est celle dune gaussienne centre de variance tn 1 tn = T/n, donc si G est une i i+ i i gaussienne centre rduite, on a : Var Btn+1 Btn i i
2
42
De plus :
n-1
E
i=0
Btn+1 Btn i i
n-1
=
i=0
Btn+1 Btn i i
=n
T = T. n
Finalement on obtient : E
n-1 i=0
Btn+1 Btn i i
2 2 = T (E(G4 ) 1) = 2T . n n
Remarque 2.4.2 Ceci implique que (Bt , t 0) ne peut tre lischitzienne sur lintervalle [0, T ]. En effet la convergence L2 implique la convergence presque sre pour une sous suite et, de plus, si |Bt Bs | K |t s|, on a :
n-1 i=0
Btn+1 Btn i i
n-1
i=0
K2 T K2 T 2 n!+1 0. n2 n
Ceci prouve que la trajectoire ne peut tre lipschitzienne sur lintervalle [0, T ].
On peut de plus prouver le rsultat suivant. Thorme 2.5.2 Soit (Bt , t 0) un processus gaussien centr continu t.q. s, t 0, Cov (Bs Bt ) = min(s, t). Alors (Bt , t 0) est un mouvement brownien.
Dmonstration : Le point (iv) de la dnition 2.2.3 est vri. Comme E(B0 ) = 0 (processus centr) et Var(B0 ) = min(0, 0) = 0, B0 est nul avec probabilit 1 et le point (i) est vri.
43
Pour les points (ii) et (iii) on se donne 0 = t0 t1 . . . tn . Pour 1 i n, Var(Bti Bti-1 ) = Var(Bti )2Cov (Bti , Bti-1 )+Var(Bti-1 ) = ti 2 min(ti , ti-1 )+ti-1 = ti ti-1 . Et pour 1 i < j n, Cov (Bti Bti-1 Btj Btj-1 ) = Cov (Bti , Btj ) Cov (Bti , Btj-1 ) Cov (Bti-1 , Btj ) + Cov (Bti-1 , Btj-1 ) = min(ti , tj ) min(ti , tj-1 ) min(ti-1 , tj ) + min(ti-1 , tj-1 ) = ti ti ti-1 + ti-1 = 0. Comme (Bt ) est un processus gaussien, on conclut que les variables Bt1 , Bt2 Bt1 , . . . , Btn Btn-1 sont des gaussiennes centres indpendantes de variances respectives t1 , t2 t1 , . . . , tn tn-1 .
Exercice 17 Montrer que si (Bt , t 0) est un mouvement brownien alors : (Bt , t 0) ( 1 Bc2 t , t 0) o c = 0, c (Bt0 +t Bt0 , t 0) o t0 0 T 1 sont des mouvements browniens. En dduire que Loi( 0 Bs ds) = Loi(T 3=2 0 Bs ds). Une application du caractre gaussien du mouvement brownien Quelle est la loi de T Bs ds si (Bt , t 0) est un mouvement brownien ? 0 Comme (Bt , t 0) est un processus continu, on a, au sens dune limite presque sre : T lim n!+1 n
n-1 i=0 T
B tn = i
Bs ds,
si tn = iT (approximation dune intgrale par une somme de Rieman). i n Comme le processus (Bt , t 0) est un processus gaussien les variables alatoires T n-1 T n i=0 Bti sont des gaussiennes centres. Avec la proposition 2.1.5, on en dduit que 0 Bs ds n T T est une gaussienne. Comme E( 0 Bs ds) = 0 E(Bs )ds = 0, pour identier sa loi il nous reste calculer sa variance :
T T 2
Var
0
Bs ds
= E
0 T
Bs ds
T 0
= E
T 0 T 0
Bs Bs dsds
=
0
E (Bs Bs ) dsds .
Var
0
Bs ds
T3 . 3
T 0
44
2.6 Exercices
Exercice 19 Soit X et Y des variables gaussiennes relles indpendantes. Donner une condition ncessaire et sufsante pour que les variables X + Y et X Y soient indpendantes. Exercice 20 Soit X une variable gaussienne centre rduite et une variable vriant P( = 1) = P( = 1) = 1/2 indpendantes. 1. Quelle est la loi de Y = X ? 2. Donner la matrice de covariance du vecteur (X, Y). 3. Comparer E(X2 Y 2 ) E(X2 )E(Y 2 ). Les variables X et Y sont-elles indpendantes ? 4. Que peut-on conclure sur le couple (X, Y) ? Exercice 21 Soit X1 , . . . , Xn des variables gaussiennes centres rduites indpendantes. On 1 1 note Mn = n n 1 Xi et Vn = n-1 n 1 (Xi Mn )2 la moyenne et la variance empirique. i= i= 1. Montrer que Mn est indpendante du vecteur (X1 Mn , X2 Mn , . . . , Xn Mn ). 2. Conclure que Mn et Vn sont indpendantes. Exercice 22 Dans toute la suite on suppose que (Bt , t 0) est un mouvement brownien standard. 1. Calculer E(|Bt |). 2. Calculer E(B2 B2 ). t s Exercice 23 Soient f1 ,f2 deux fonctions continues sur [0, 1]. On note Xj = 1. Montrer que presque srement Xj = lim 1 n!1 n
n-1 1 0
Bs fj (s)ds.
Bk=n fj (k/n).
k=0
2. En dduire que (X1 , X2 ) est un vecteur gaussien. 3. Calculer la moyenne et la matrice de variance covariance de ce vecteur. Exercice 24 Lemme de Borel-Cantelli 1. Soit (Xk , k 1), une suite de variables alatoires relles, montrer que lon a toujours : E
k1
|Xk |
=
k1
E (|Xk |) .
2. En dduire que si E
k1
3. On considre une suite dvnements (Ak , k 1). Montrez, en posant Xk = 1Ak que si k1 P(Ak ) < + alors, presque srement, il existe un rang N() (dpendant du hasard) tel que si k N() alors Ak . Ce rsultat, trs utile pour prouver des convergences, est connu sous le nom de Lemme de Borel-Cantelli. Il sera utilis dans lexercice suivant.
45
Exercice 25 1. On note Zt = tB1=t . Montrer que le vecteur (Zt1 , Zt2 Zt1 , . . . , Ztn Ztn-1 ), o 0 < t1 < < tn , est un vecteur gaussien dont on dterminera les caractristiques. En admettant que limt!0 Zt = 0, montrer que (Zt , t 0) est un mouvement brownien. Le reste de cet exercice consiste a prouver que limt!0 Zt = 0. 2. Montrer que presque srement limn!1 Bn /n = 0. 3. On considre Mn = sup{|Bt Bn |; n t n + 1}. Montrer que (Mn , n 0) est une suite de variables alatoires indpendantes de mme loi. On admettra dans la suite de cet exercice que E(|M1 |) < +. 4. Montrer que, pour tout >0 P (M1 n)
n1
P (Mn n) =
n1
E(|M1 |).
En utilisant le fait que E(|M1 |) < + et le lemme de Borel-Cantelli en dduire que, presque srement, limn!+1 Mn /n = 0. 5. Montrez que pour n t < n + 1, on a Bt Bn |Bn | Mn + . t n n(n + 1) n En dduire que presque srement
t!1
lim Bt /t = 0.
Exercice 26 Soit 0 a < b < xs. Soit une subdivision nie de [a, b] : = (t0 , . . . , tn ) o a = t0 < < tn = b. Le pas () de la subdivision est () = sup{ti+1 ti , 0 i < n}. Enn on note X = tend vers zro.
n i=1
1. Montrer que la suite (Xk , k 1) converge dans L2 (P) vers b a. 2. Montrer quil existe une sous-suite (kl , l 1) telle que la suite (Xkl , l 1) converge presque srement vers b a (On utilisera le lemme de Borel-Cantelli). 3. Soit > 0. Dduire de la question prcdente que presque srement sup |Bs Bt | (s t) 2 +"
1
(s;t)[a;b]2 ; s=t
= .
Donner une interprtation intuitive en terme de rgularit dune trajectoire dun mouvement brownien ?
46
Nj =
i=1
1Xi =xj
et
Tn =
j= 1
1. Dterminer la loi de Nj . Le cas dune pice : k = 2 1. Dterminer la loi du couple (N1 , N2 ). 2. Dterminer le comportement de la suite (N1 /n, n 1).
-np 3. Dterminer le comportement de la suite ( N1n 1 , n 1).
La loi du 2 1. Soit (Xn , n 1) une suite de variables alatoires vectorielles qui converge en loi vers X. Soit f une fonction continue. Dterminer le comportement de la suite (f(Xn ), n 1). 2. Calculer Tn . Comportement de (Tn , n 1). 3. Donner la densit de la loi limite. Identier la loi limite comme une loi Gamma : (1/2, d/2) avec d = 1. Rappeler sa fonction caractristique. On parle galement de loi du 2 d degrs de libert. Ces lois sont tabules. 4. En dduire un test pour dterminer si une pice est non-biaise. Le cas gnral 1. Donner la loi de la somme de deux 2 indpendants k1 et k2 degrs de libert. En dduire la loi de k=1 X2 , o X1 , , Xk sont k gaussiennes indpendantes N (0, 1). On j j pose N1 np1 Nk npk Zn = , , . np1 npk 2. Donner la limite en loi, Z, de (Zn , n 1) quand n . Dterminer la matrice de variance-covariance . 3. Calculer k=1 pj Zn (j). En dduire que est de rang strictement infrieur k. j 4. Montrer que 2 = . Montrer que est de rang k 1. On pourra considrer les vecteurs ek et ek o ek (1) = pk , ek (k) = p1 et ek (i) = 0 si i {1; k} pour k 2. En dduire quil existe une matrice unitaire U telle que Ut U est diagonale. 5. Donner la loi de Ut Z. En dduire la loi de
k j=1
Z(j)2 .
6. Donner la limite de (Tn , n > 1). En dduire un test pour savoir si un d est non-biais.
47
Exemples numriques 1. On considre les naissances aux U.S.A. On souhaite savoir si les naissances sont quirparties sur les jours de la semaine. Les nombres moyens de naissances par jours de semaine pour 1997 sont les suivants (source NVSR 1999) : NLundi = 10861, NMardi = 12104, NMercredi = 11723, NJeudi = 11631, NVendredi = 11640, NSamedi = 8670 et NDimanche = 7778. On obtient Tn = 1639. On lit dans la table du 2 6 degrs de libert que P(2 (6) > 23) = 0, 1%. On rejette donc lhypothse des naissances uniformes sur les jours de la semaine au niveau 0,1%. 2. Weldon a effectu n = 26306 lancers de 12 ds six faces. On note Xi le nombre de faces indiquant 5 ou 6 lors du i-ime lancer. Les frquences empiriques observes sont Nj ^ notes fj = , o Nj est le nombre de fois o lon a observ j faces 5 et 6 sur les 12 n ds lancs : Nj = n 1 1Xi =j . Les rsultats obtenus sont : Si les ds sont non biaiss, i= ^ f0 = 0, 007033 ^ f4 = 0, 232418 ^ f8 = 0, 015320 ^ f12 = 0, 000000 ^ f1 = 0, 043678 ^ f5 = 0, 197445 ^ f9 = 0, 003991 ^ f2 = 0, 124116 ^ f6 = 0, 116589 ^ f10 = 0, 000532 ^ f3 = 0, 208127 ^ f7 = 0, 050597 ^ f11 = 0, 000152
la probabilit dobserver les faces 5 ou 6 dans un lancer de d est 1/3. Les variables alatoires (Xi , 1 i n) suivent donc une loi binomiale de paramtre (12, 1/3). Les frquences thoriques sont : f0 = 0, 007707 f4 = 0, 238446 f8 = 0, 014903 f12 = 0, 000002 f1 = 0, 046244 f5 = 0, 190757 f9 = 0, 003312 f2 = 0, 127171 f6 = 0, 111275 f10 = 0, 000497 f3 = 0, 211952 f7 = 0, 047689 f11 = 0, 000045
Calculer Tn , et en dduire que lon rejette lhypothse des ds non biaiss. Les donnes sont issues du livre de Feller Tome 1 : An introduction to probability theory and its applications, page 149.
50
Proposition 3.1.2 Soit X et Y deux variables alatoires relles. Alors Y est (X)-mesurable si et seulement si il existe une fonction1 f de R dans R, telle que : P (Y = f(X)) = 1. Remarque 3.1.3 Si Y est (X)-mesurable et, si lon connat la valeur de X, on peut en dduire la valeur de Y.
Z est, ainsi, la variable alatoire la plus proche de X au sens de la norme de lespace de Hilbert HA , cest dire de la norme E(X2 ). Z est lesprance conditionnelle de X sachant B que lon note : E (X|B) .
X
HB
51
La dnition implique que pour tout rel , et pour toute variable alatoire Y de HB on a : E (X Z)2 E (X Z Y)2 . On voit donc que = 0 ralise le minimum de la fonction : f() = 2 E(Y 2 ) + E (X Z)2 2E ((X Z)Y) . On en dduit en crivant f (0) = 0 que : E ((X Z)Y) = 0. Rciproquement, si Z, tel que E(Z2 ) < + vrie E (ZY) = E (XY) , pour tout Y de HB , alors on peut prouver, en utilisant le thorme de Pythagore que Z minimise la distance X dans HB . On obtient donc le rsultat suivant : Proposition 3.2.2 Il existe une unique2 variable alatoire B-mesurable telle que E(Z2 ) < +, vriant pout toute variable alatoire Y, B-mesurable et telle que E(Y 2 ) < + : E(XY) = E(ZY). Cette variable alatoire Z est la meilleure approximation, au sens de la norme parmi les variables alatoires B-mesurables de carr intgrable. E(X2 ), de X
Cette dnition ne permet pas de traiter le cas de variables alatoires seulement intgrables (i.e. telle que E(|X|) < +). Lextension au cas intgrable, pour lessentiel identique au cas de carr intgrable, est plus technique et nous admettrons donc le rsultat suivant. Thorme 3.2.1 Soit X une variable alatoire relle telle que E(|X|) < +, alors il existe une unique variable alatoire B-mesurable Z telle que E(|Z|) < + vriant pour toute variable alatoire Y B-mesurable et borne : E(XY) = E(ZY). On note la variable alatoire Z sous la forme : E (X|B) . Cest lesprance conditionnelle de X sachant B. Remarque 3.2.3 Evidemment pour une variable alatoire de carr intgrable, les deux dnitions concident. Remarque 3.2.4 Lorsque la tribu B est celle engendre par une variable alatoire X (B = (X)), on note : E(Y|X) := E(Y|(X)). Noter que comme toute variable alatoire (X)-mesurable est de la forme f(X), f tant une fonction (voir la proposition 3.1.2), on a : E(Y|X) = f(X). E(Y|X) est ainsi la meilleure approximation de Y par une fonction de X.
unique au sens des variables alatoires : deux variables alatoires sont considres comme gales lorsque elle sont gales avec probabilit 1
2
52
Exercice 27 Soit B1 , . . . , Bn une partition de et B = runion nie Bik . Soit Y une variable B-mesurable. Pour 1 i n, on note i un lment de Bi et yi = Y(i ). Lensemble {Y = yi } contient i et appartient B daprs lhypothse sur Y. En utilisant la dnition de B, on en dduit que {Y = yi } contient Bi . Ainsi Y = n 1 1Bi yi . Inversement si Y i= est de cette forme, alors il est facile de vrier que Y est B-mesurable. En utilisant cette caractrisation des variables alatoires B-mesurables, vrier que pour toute variable alatoire relle X intgrable sur (, A), E(X|B) =
i:P(Bi )>0
1Bi
E(X1Bi ) . P(Bi )
53
Proprits de lesprance conditionnelle On peut dmontrer (exercice sans difcults) les proprits suivantes de lesprance conditionnelle quil faut imprativement connatre. Dans ce qui suit toutes les variables alatoires considres sont supposes intgrables.
1. Linarit : E(X + Y|B) = E(X|B) + E(Y|B). 2. Positivit : Si X 0, alors E(X|B) 0. Si X Y, alors E(X|B) E(Y|B). 3. Si X est intgrable et B-mesurable alors : E (X|B) = X. 4. Si Z est une variable alatoire B-mesurable et borne : E(ZX|B) = ZE(X|B). 5. E (E (X|B)) = E(X). Soit C une sous tribu de B alors : E (E(X|B)|C) = E(X|C). 6. Si X est indpendante de la tribu B (cest dire indpendante de toutes la variables alatoires B-mesurables) : E (X|B) = E(X). 7. Contraction pour la norme L2 : E |E(X|B)|2 E(|X|2 ).
Remarque 3.2.5 On dduit de la proprit 2 : |E(X|B)| E (|X||B) , et (contraction pour la norme L1 ) : E (|E(X|B)|) E(|X|).
54
Le rsultat suivant est trs utilis dans les calculs. Lemme 3.2.6 Soit B une sous-tribu de A et X, Y deux variables alatoires relles t.q. X est indpendante de B (i.e. de toutes les variables B-mesurables) et Y est B-mesurable. Soit, en outre, f une fonction mesurable borne de R2 dans R, alors : E(f(X, Y)|B) = (Y), avec : (y) = E(f(X, y)). En particulier, lorsque X et Y sont indpendantes, X est indpendante de (Y) et E(f(X, Y)|Y) = (Y) o est dnie dans lnonc du lemme. Dmonstration : Nous donnerons une dmonstration dans le cas particulier o B = (Y) et o X et Y ont des lois admettant des densits notes respectivement pX (x) et pY (y). Cette hypothse technique simplie la dmonstration mais nest pas ncessaire. (Y) tant une variable alatoire (Y)-mesurable, il suft de vrier que pour toute variable alatoire Z borne (Y)-mesurable borne, donc de la forme h(Y), on a : E((Y)h(Y)) = E(f(X, Y)h(Y)). Pour cela on va expliciter E((Y)h(Y)). On a : E((Y)h(Y)) =
R
(y)h(y)pY (y)dy,
E((Y)h(Y)) =
En utilisant le thorme de Fubini, on obtient : E((Y)h(Y)) = f(x, y)h(y)pX (x)pY (y)dy = E(f(X, Y)h(Y)).
R2
Remarque 3.3.1 Rappellons que daprs la proposition 2.1.3, les coordonnes dun vecteur gaussien sont indpendantes si et seulement si sa matrice de variance-covariance est diagonale.
55
Proposition 3.3.2 Soit (X, Y) un couple qui forme un vecteur gaussien centr. On notera 2 la 1 variance de X, 2 la variance de Y (que lon supposera strictement positive) et le coefcient 2 de corrlation3 de X et de Y : Cov (X, Y) = . Var(X)Var(Y) Alors : E(X|Y) = de plus : X = E(X|Y) + Z, Z tant une variable alatoire gaussienne centre indpendante de Y et de variance : Var(Z) = (1 2 )2 . 1 Remarque 3.3.3 Dans ce cas, trs particulier, la meilleure approximation de X par une fonction linaire de Y donne la meilleure approximation de X parmi toutes les fonctions de Y.
Dmonstration : Cherchons R t.q. la variable Z = X Y soit indpendante de Y. Comme le couple (Z, Y) est obtenu par transformation linaire partir du couple gaussien centr (X, Y), il est gaussien centr. Donc Z est indpendant de Y ssi E(ZY) = 0 soit E(XY) = E(Y 2 ). Posons : 0 = Cov (X, Y) 1 = Var(Y) 2 Z = X 0 Y, Z est donc indpendant de Y. Calculons maintenant E(X|Y), on a (par linarit) : E(X|Y) = E(Z|Y) + 0 E(Y|Y). Mais E(Y|Y) = Y (Y est bien sr (Y)-mesurable) et E(Z|Y) = E(Z) (puisque Z est indpendant de Y par construction). De plus E(Z) = E(X) 0 E(Y) = 0, donc : E(X|Y) = 0 Y = 1 Y. 2
De plus, le couple (X, Y) formant un vecteur gaussien, comme Z = X 0 Y, Z suit une loi gaussienne centre de variance donne par : Var(Z) = Var(X) + 2 Var(Y) 20 Cov (X, Y) = Var(X) 1 2 . 0
56
^ Pourquoi dit-on que est le meilleur estimateur de ? O lon dispose de plusieurs mesures. On rpte n fois la mesure de la mme rsistance. chaque mesure i lappareil de mesure produit une erreur Ei . On suppose que les variables alatoires Ei , 1 i n sont indpendantes et de mme loi N (0, 2 ). On suppose de plus que e les erreurs sont indpendantes de la valeur de la rsistance mesure. 1. Quelle est la loi du vecteur (, E1 , . . . , En ) ? 2. On note Xi = + Ei le rsultat de la mesure i. Pour calculer la loi de sachant X = (X1 , . . . , Xn )t , on applique la mme mthode que prcdemment. On cherche Rn tel que la variable Z dnie par = t X + Z, soit indpendante de X. Montrer que cette condition se traduit par t = Cov (, Xt ) (VarX)-1 . o VarX dsigne la matrice de variance covariance de X. 3. Montrer que VarX = 2 1n + 2 In , o 1n est la matrice de taille n n forme de 1 et In e est la matrice identit de Rn . 2 1 1n est linverse de VarX. 4. Montrer que 2 In 2 2 e e (n + 2 ) e 5. Montrer que t 6. Montrer que E[Z] = 2 (1, . . . , 1). n2 + 2 e 2 m n2 + 2 e et VarZ 2 2 e . n2 + 2 e
1 n n i=1
Xi des
57
2 2 e = . 2 n + 2 e
Quel est lintrt de faire plusieurs mesures ? ^ 9. Montrer que Xn et n convergent presque srement quand n . Quelle est la limite. On parle destimateurs convergents. ^ 10. Calculer la loi de n(Xn ) et la loi de n(n ). Comparer les erreurs quadratiques moyennes de ces deux estimateurs. Conclusion. ^ 11. Donner la loi asymptotique de n(Xn ) et de n(n ). Que se passe-t-il si lon dispose dun grand nombre de mesures ?
58
3.5 Exercices
Exercice 28 Soit (Bt )t0 un mouvement brownien et 0 < s t. 1. Calculer E(Bt |Bs ) et E(Bs |Bt ). 2. Dterminer E(B2 |Bs ) et E(eBt |Bs ) o R t Exercice 29 Soit A, B deux sous-ensembles mesurables de (, A, P). Calculer : E [1A | 1B ] . Exercice 30 Soit (Z, Z1 , . . . , Zn ) un vecteur centr de carr intgrable. 1. Montrer que si Z = n 0 Zi est tel que, pour tout i :
i=1 i
i Zi )2 .
2. Si on suppose de plus que (Z, Z1 , . . . , Zn ) est un vecteur gaussien centr, dmontrer que Z Z est une gaussienne indpendante de (Z1 , . . . , Zn ). Exercice 31 Soit (Xn , n 1) une suite de v.a.r. i.i.d et de carr intgrable. Soit une variable alatoire valeurs dans N , de carr intgrable et indpendante des v.a.r. prcdentes. On note S = X1 + + X . 1. Calculer la moyenne conditionnelle E[S | ] et E (S E[S | ])2 | , la variance conditionnelle. 2. En dduire la valeur de E[S ] et de E (S E[S ])2 . Exercice 32 1. Soit (Xn , n 1) une suite de v.a.r. i.i.d. telle que E[|X1 |] < . Montrer que p.s. E [X1 | X1 + X2 ] = E [X2 | X1 + X2 ] = [X1 + X2 ]/2. 2. On note Sn =
n i=1
Exercice 33 Soit X0 une variable alatoire gaussienne centre de variance 2 et (Yj , j 0) une 0 suite innie, indpendante de X0 , de variables alatoires relles gaussiennes centres indpendantes de variances gales : Var(Yj ) = 2 , si j 0, pour des rels 0 et positifs donns. Soit (Xj , j 0) la suite des variables alatoires relles dnies par rcurrence sur j partir de X0 par la formule, si j 0 : Xj+1 = aXj + Yj , pour un rel x a tel que |a| < 1. 1. tablir que pour tout n 1 la variable alatoire relle Xn est une variable alatoire gaussienne centre. Montrer quelle est indpendante de (Yn , Yn+1 , . . .). 2. tablir une relation de rcurrence entre les variances 2 = Var(Xj ). quelle condition j ncessaire et sufsante sur 2 , 2 et a les variables alatoires ont elles la mme variance. 0 On suppose dans la suite que cette condition est vrie.
59
3. Exprimer Xn+k laide de Xn et de Yn , Yn+1 , . . ., pour n 0 et k > 0. En dduire les valeurs des covariances Cov(Xn , Xn+k ) en fonction des paramtres initiaux. 4. Trouver 0 , . . . , n t.q. Xn+k
n i=0
5. Quelle est la meilleure approximation linaire dans L2 de Xn+k en fonction de X0 , . . . , Xn , n 0, k > 0 ? Exercice 34 Soit X une variable alatoire valeurs dans Rd dnie sur un espace de probabilit (, A, P). On suppose que X est borne. Soit B une sous tribu de A et une fonction convexe de Rd dans R. 1. On suppose que est C1 . Montrer que (E(X|B)) + En dduire lingalit de Jensen, (E(X|B)) E((X)|B)). 2. Retrouver lingalit de Jensen sans faire dhypothse de rgularit sur la fonction mais en utilisant le fait que toute fonction convexe est lenveloppe suprieure dune famille dnombrable de fonctions afnes (i.e. il existe une famille dnombrable (An , n 1) de fonctions afnes telles que pour tout x Rd , (x) = supn1 An (x)). Exercice 35 Soit X et Y deux variables alatoires relles t.q. Y est (X)-mesurable. On note B(R) la tribu borlienne de R. 1. Montrer que C = {X-1 (B), B B(R)} est une tribu. En dduire que C = (X). 2. Montrer que pour tout a < b R, il existe Ba;b B(R) t.q. {a < Y b} = X-1 (Ba;b ) = {X Ba;b }. 3. Soit Yn =
p pZ 2n
1f
p p+1 2n <Y 2n
fn (x) =
p (x). 1B n n 2n 2p ; p2+1
1 2n0
4. Montrer que n n0 , supxR |fn (x) fn0 (x)| converge uniformment vers une fonction f.
5. Quelle est la limite de (Yn )n ? Conclure que Y = f(X). Il est facile de vrier que les fonctions fn sont mesurables au sens o B B(R), f-1 (B) B(R). Cela implique que leur limite f est galement mesurable.
(4.1)
Remarque 4.1.2 Si (Mn , n 0) est une Fn -martingale, alors pour tout n 0, Mn est Fn 0 mesurable et donc Fn = (M0 , . . . , Mn ) Fn . On en dduit, grce aux proprits 6 et 3 de lesprance conditionnelle donnes page 53, que :
0 0 0 Mn = E Mn |Fn E E (Mn+1 |Fn ) |Fn = E Mn+1 |Fn . 0 On voit donc que (Mn , n 0) est, aussi, une Fn -martingale.
Remarque 4.1.3 Cette dnition signie que la meilleure prvision de Mn+1 compte tenu de linformation disponible linstant n (i.e. Fn ) est donne par Mn . Remarque 4.1.4 Notez que (4.1) est quivalent dire que pour tout p 0 : E(Mn+p |Fn ) = Mn . En effet, en utilisant le fait que la suite des tribus Fn est croissante on a : E(Mn+2 |Fn ) = E (E (Mn+2 |Fn+1 ) |Fn ) = E (Mn+1 |Fn ) = Mn . On gnralise ce rsultat, sans difcults, au cas p > 2 par rcurrence. Remarque 4.1.5 Si (Mn , n 0) est une martingale alors : E (Mn+1 ) = E (E (Mn+1 |Fn )) = E (Mn ) . Lesprance dune martingale est donc constante au cours du temps. 61
62
4.2 Exemples
15
10
-5
20
40
60
80
100
F IG . 4.1 Trajectoire de la marche alatoire symtrique Soit (Xn , n 1) une suite de variables alatoires indpendantes de mme loi. On pose S0 = 0 Sn = X1 + + Xn si n 1 On dit que (Sn , n 0) est une marche alatoire. On note F0 = {, } et Fn = (X1 , . . . , Xn ) pour n 1. On peut remarquer que Fn = (S0 , . . . , Sn ). On a alors : Proposition 4.2.1 Si E(|X1 |) < + et E(X1 ) = 0, (Sn , n 0) est une Fn -martingale. Dmonstration : Sn est borne puisque elle prend un nombre ni de valeurs, donc E(|Sn |) < +. De plus, on a : E(Sn+1 |Fn ) = E(Sn + Xn+1 |Fn ) = E(Sn |Fn ) + E(Xn+1 |Fn ). Mais Xn+1 est par construction indpendante de Fn , donc E(Xn+1 |Fn ) = E(Xn+1 ) = 0. De plus Sn est Fn -mesurable (puisque cest une fonction de (X1 , . . . , Xn )), donc E(Sn |Fn ) = Sn . On obtient donc : E(Sn+1 |Fn ) = Sn .
Proposition 4.2.2 Si E(X2 ) < + et E(X1 ) = 0, alors : 1 (Vn = S2 nE(X2 ), n 0), n 1 est une Fn -martingale.
63
Dmonstration : Vn prennant un nombre ni de valeurs, E(|Vn |) < +. Commenons par calculer E (Sn+1 Sn )2 |Fn , en utilisant le fait que Sn est Fn mesurable on obtient : E (Sn+1 Sn )2 |Fn = E S2 +1 2Sn Sn+1 + S2 |Fn n n = E(S2 +1 |Fn ) 2Sn E(Sn+1 |Fn ) + S2 , n n
mais comme E(Sn+1 |Fn ) = Sn (Sn est une martingale), on obtient : E (Sn+1 Sn )2 |Fn = E S2 +1 |Fn S2 . n n De plus : E (Sn+1 Sn )2 |Fn = E(X2 +1 |Fn ), n et Xn+1 est indpendante de Fn donc : E S2 +1 |Fn S2 = E (Sn+1 Sn )2 |Fn = E(X2 +1 ) = E(X2 ). n n n 1 Soit encore : E S2 +1 (n + 1)E(X2 )|Fn = S2 nE(X2 ). n 1 n 1
Proposition 4.2.3 Soit un rel tel que : () = log E eX1 < +. Alors : (Z = eSn -n() , n 0), n est une Fn -martingale. Dmonstration : Comme Sn est Fn -mesurable, on a : E eSn+1 |Fn = E eSn eXn+1 |Fn = eSn E eXn+1 |Fn . Mais Xn+1 est indpendant de Fn donc : E eXn+1 |Fn = E eXn+1 = E eX1 = e() . Do : E eSn+1 |Fn = eSn e() , puis le rsultat.
64
Gn = G0 +
k=0
Hk (Mk+1 Mk ) ,
ou, de faon quivalente, pour n 0, Gn+1 Gn = Hn (Mn+1 Mn ) . Alors (Gn , n 0) est une Fn -martingale. Dmonstration : Il suft de remarquer que Gn est Fn -mesurable que E(|Gn |) < + et que : E (Gn+1 Gn |Fn ) = Hn E (Mn+1 Mn |Fn ) = 0.
Exemple : gain dune stratgie dans un jeu de hasard quilibr On note (Hn , n 0) une suite de quantit que lon va parier sur un tirage qui rapporte Xn+1 . On suppose que les Hn scrivent sous la forme Hn = f(n, X1 , . . . , Xn ) (en particulier H0 est dterministe) et que les Hn sont des variables alatoires bornes. Si lon note Gn le gain cumul linstant n , on a : Gn+1 Gn = Hn Xn+1 = Hn (Sn+1 Sn ). On voit donc que si la suite des (Xn , n 1) est une suite I.I.D. de variables alatoires intgrables avec E(X1 ) = 0, (Gn , n 0) est une martingale, daprs le rsultat prcdent appliqu avec Mn = Sn = X1 + + Xn . Lesprance dune martingale tant constante on en dduit que : Le gain moyen au bout dun nombre ni de tirages dans un jeu quilibr est nul. E(Gn ) = E(G0 ). Il est, en particulier, exclu de gagner en moyenne dans un jeu de pile ou face quilibr. Il est aussi impossible (encore plus !) de gagner coup sr sans prendre de risque (i.e. P (Gn G0 ) = 1 et P(Gn > G0 ) > 0) dans les mme conditions. Il existe cependant des temps alatoires raisonnables nis tels que P(S > 0) = 1. Nous verrons, cependant, quil faut accepter de ne pas borner ses pertes pour arriver un tel rsultat.
65
On notera que le fait que puisse tre inni ne pose pas de problmes dans cette dnition.
66
Dmonstration : Il suft de remarquer quil existe un entier K tel que, presque srement, K et donc : NK = M^K = M . Mais comme (Nn , n 1) est une martingale on a : E(NK ) = E(N0 ), ce qui se rcrit E(M ) = E(M0 ). On voit donc que lgalit E(Mn ) = E(M0 ) se gnralise certains temps alatoires (les temps darrts borns). Les deux hypothses : 1. temps darrt, 2. born, sont cruciales. videmment, si = ArgMax {Mn , n N}, E(M ) > E(M0 ) sauf dans des cas triviaux. On voit donc que 1 doit gurer dans les hypothse du thorme. Pour justier 2 nous allons prouver le rsultat suivant. Proposition 4.4.6 Soit (Xn , n 1) une suite de variables alatoires indpendantes valant 1 avec probabilit 1/2. On pose S0 = 0 et pour n 1 : Sn = X1 + . . . + Xn . Pour un entier strictement positif non nul a, on introduit : = inf {n 0, Sn = a} , (avec la convention que = +, si lensemble prcdent est vide). Alors est un temps darrt vriant P ( < +) = 1 (on dit que est ni presque srement) et E(S ) = a > 0. On voit donc que lon ne peut pas appliquer le thorme darrt la martingale (Sn , n 1) et au temps darrt . Dmonstration : Remarquons que :
c
{ n} est donc dans Fn et est un temps darrt. Montrer que P ( < +) = 1 est plus dlicat. Nous allons utiliser le thorme darrt pour la martingale : (eSn -n() , n 0), avec : () = log E(eX1 ).
Lorsque = 0, on a E(eX1 ) = e + e- /2 = cosh() > 1 et donc () > 0. nest pas un temps darrt born mais N, pour N un entier x, est born et reste un temps darrt. En effet, { N n} est gal { n} si N > n et si N n et il sagit dans les deux cas densembles de Fn . En utilisant le thorme darrt on obtient : E eS^N -(^N)() = E e0 = 1. Nous allons maintenant chercher faire tendre N vers +. Que se passe til ?
67
Nous avons vu que () 0 et si lon suppose de plus que > 0, comme S^N a, on voit que lon a : eS^N -(^N)() eS^N ea . De plus lorsque N tends vers +, on a N qui tends vers (cest clair si lon spare les cas < + et = +). On a donc, presque srement :
N!+1
Le thorme de Lebesgue (voir 1.3.2 page 11) sapplique et prouve que : E 1{ < +} eS -() = 1. Mais comme, sur lvnement { < +}, S = a, on en dduit que, pour tout > 0 : E 1{ < +} e-() = e-a . Il ne reste plus qua faire tendre vers 0 en dcroissant par valeurs positives et utiliser le thorme de convergence monotone (thorme 1.3.1 page 10) pour, en dduire, que : P ( < +) = 1.
Remarque 4.4.7 On dduit de ce qui prcde que, pour tout > 0 : E e-() = ea . On peut montrer que cette galit suft identier la loi de . Remarque 4.4.8 On a vu que, dans le jeu de pile ou face quilibr, il nexiste pas de stratgie en nombre ni de coups permettant de gagner en moyenne. La proposition prcdente permet dafrmer que si on joue sufsamment longtemps 1F pile ou face on nit par gagner coup sr 1F. Quelle est la limitation de cette stratgie ? Comme n est un temps darrt born et (Sn , n 0) une martingale on a : E (Sn^ ) = E(S0 ) = 0. Sous lhypothse E supn |Sn | < +, on peut utiliser le thorme de Lebesgue et en dduire que E(S ) = 0. Or ceci est clairement impossible, puisque par construction E(S ) = a > 0. Donc E supn |Sn | = +. Mais, comme Sn a pour n , on peut aussi afrmer que E supn (Sn )- = + (x- dsignant la partie ngative de x). On voit que dans cette stratgie, avant de gagner 1F, on doit tre prt assumer une perte dont lesprance est innie. En particulier on doit tre prt assumer une perte non borne.
68
Thorme 4.5.1 Supposons que (Mn , n 0) soit une martingale par rapport (Fn , n 0) et que de plus : sup E M2 < +. n
n0
On dit que (Mn , n 0) est borne en moyenne quadratique (ou dans L2 ). Sous cette hypothse il existe une variable alatoire M1 de L2 telle que :
n!+1
lim Mn = M1 ,
au sens de la convergence en moyenne quadratique et presque sre. Cela signie que : convergence en moyenne quadratique : limn!+1 E |Mn M1 |2 = 0. convergence presque sre : P (limn!+1 Mn = M1 ) = 1. Dmonstration : Rappel : Nous avons dj vu que : L2 = X v.a. telle que |X|2 2 = E(X2 ) < + , L est un espace de Hilbert. En particulier, il est complet. Ceci signie que si : Xn+p Xn
L2
peut tre rendu petit pour n grand indpendemment de p 0 (on dit alors que (Xn , n 1) est une suite de Cauchy), alors il existe X1 variable alatoire de L2 telle que :
n!+1
lim Xn = X1 dans L2 .
Nous allons commencer par montrer que la suite (Mn , n 1) est une suite de Cauchy. Remarquons que : E (Mn+p Mn )2 = E M2 +p 2Mn Mn+p + M2 n n = E M2 +p + E M2 2E (E (Mn Mn+p |Fn )) , n n mais : Donc : E (E (Mn Mn+p |Fn )) = E (Mn E (Mn+p |Fn )) = E M2 . n E (Mn+p Mn )2 = E M2 +p E M2 . n n (4.2)
On dduit de cette dernire galit que : 1. E M2 +p E M2 0, donc E(M2 ) est croissante. Comme elle est borne, par n n n hypothses, E(M2 ) converge vers une valeur . n 2. on a : sup E (Mn+p Mn )2 = sup E M2 +p E M2 . n n
p0 p0
La suite E(M2 ) tant convergente on en dduit que (Mn , n 1) est une suite de Cauchy n dans L2 . Elle converge donc vers une variable alatoire M1 dans L2 . La convergence presque sre est plus dlicate prouver et nous ladmettrons.
69
Exemple Soit (Un , n 1) une suite de variables alatoires indpendantes suivant une loi uniforme sur [0, 1]. Soit f une fonction borne telle que E(f(U1 )) = 0 et (n , n 1) une suite de rels telle que n1 2 < + alors la srie suivante : n n f(Un ),
n1
70
F est uniformment borne en x, u. il existe x Rd tel que f(x).(x x ) |x x |2 . Remarque 4.6.1 Notez que la premire hypothse implique que f est uniformment borne en x. Lorsque f est suppose de plus continue, la deuxime hypothse implique que x est lunique zro de f. Pour se convaincre de cette deuxime proprit, considrons un vecteur arbitraire de Rn et un rel positif. On a alors : f(x + v). v
2
|v|2 .
On en dduit que f(x + v).v |v|2 et en passant la limite lorsque tend vers 0 que f(x ).v 0. Cette relation tant vrie pour tout vecteur v, on en dduit en changeant le signe de v que f(x ).v = 0. Cette dernire galit tant vrie pour tout v, implique que f(x ) = 0. Lunicit du zro de f est claire puisque, si x = x on a f(x).(x x ) c |x x |2 > 0. Ce qui interdit f(x) dtre nul. Notez que en dimension 1, la deuxime condition signie que f(x) c(x x ) lorsque x > x et que f(x) c(x x ) lorsque x < x . Nous allons maintenant noncer un rsultat de convergence pour lalgorithme suggr au dbut de ce paragraphe. Thorme 4.6.1 Soit f une fonction de Rn dans R qui peut se mettre sous la forme f(x) = E (F(x, U)) , U tant une variable alatoire de loi connue prenant ses valeurs dans Rp et F une fonction de Rn Rp dans Rn . On suppose que : F est une fonction borne (|F(x, u)| K pour tout x et u), f(x).(x x ) c|x x |2 , c tant une constante strictement positive, (n , n 0) est une suite de rels positif qui vrient n0 n = + et n0 2 < n +. On dnit une suite de variables alatoires (Xn , n 0) en posant pour n 0 : Xn+1 = Xn n F(Xn , Un+1 ), X0 = x, x tant une valeur dterministe arbitraire et (Un , n 1) une suite de variables alatoires indpendantes tires selon la loi de U. Alors, limn!+1 Xn = x presque srement et dans L2 . Avant daborder la dmonstration de ce thorme nous rappelons un rsultat classique sur les suites de nombres rels connue sous le nom de lemme de Kronecker. Lemme 4.6.2 Soit (An , 1) une suite de nombres rels qui croissent vers +. Soit Sn = n=1 k la somme partielle dune srie que lon suppose (simplement) converk gente. Alors n 1 lim Ak k = 0. n!+1 An k=1
71
Dmonstration : Par convention on pose A0 = S0 = 0. La srie Sn tant convergente, on peut poser Sn = S1 + n avec limn!+1 n = 0. Avec ces notations, on a
n n n n
Ak
k=1
=
k=1
Ak (Sk Sk-1 ) =
k=1 n
Ak (k k-1 ) = An n
k=1 n
Do : 1 An
Ak
k=1
= n
1 An
Le premier terme tend clairement vers 0. Pour le deuxime, on se donne un N tel que pour k N, |k | . On a alors : 1 An
n
1 An
An
(Ak Ak-1 ) .
k=N+1
On a donc, pour n N 1 An
n
CN + . An
Dmonstration : On peut se ramener sans perte de gnralit au cas x = 0 par un translation. Nous ne traiterons donc que ce cas. Dautre part, vu les hypothses sur n , il est clair que n tend vers 0, lorsque n tend vers +. Nous supposerons donc, dans la suite, toujours sans perte de gnralit que, pour tout n 0, n 1/(2c) (il suft dtudier lalgorithme partir dun rang pour lequel lingalit est vrie). Nous allons commencer par montrer que Xn tends vers 0 dans L2 , cest dire que limn!+1 E(|Xn |2 ) = 0. Pour cela notons F(x, u) = F(x, u) f(x). On a alors E F(x, U) = 0. De plus : |Xn+1 |2 = |Xn n F(Xn , Un+1 )|2 = |Xn |2 + 2 |F(Xn , Un+1 )|2 2n Xn .f(Xn ) 2n Xn .F(Xn , Un+1 ) n |Xn |2 + 2 K2 2cn |Xn |2 2n Xn .F(Xn , Un+1 ). n (4.3)
K tant un majorant de F. On prend alors lesprance des 2 membres de la prcdente ingalit pour obtenir : E |Xn+1 |2 (1 2cn )E |Xn |2 + 2 K2 2n E Xn .F(Xn , Un+1 ) . n Mais Xn est Fn = (U1 , . . . , Un ) mesurable et Un+1 est indpendant de Fn par construction de la suite (Un , n 1), on a donc (voir le lemme 3.2.6) : E Xn .F(Xn , Un+1 )|Fn = (Xn ), avec (x) = E(x.F(x, Un+1 )) = x.E(F(x, Un+1 )) = 0. On a donc : E Xn .F(Xn , Un+1 ) = E E Xn .F(Xn , Un+1 )|Fn = 0. (4.4)
72
1 , 1 2ci
K2 2 -1 Ak . k
k=1
Pour montrer que an tends vers 0, on applique alors le lemme de Kronecker. Dune part n 2 k=1 k-1 < +. Dautre part, on note que n 1/(2c) ( partir dun certain rang) ce qui implique que An est croissante et lon a log(1 + x) x pour tout x rel, do : An = ePn
i=1 log(1-2c i )
e2c
Pn
i=1
Comme, n1 n = +, on obtient limn!+1 An = +, et lon est en mesure dappliquer le lemme de Kronecker pour prouver que limn!+1 E(|Xn |2 ) = 0. Pour montrer la convergence presque sre, nous allons utiliser le thorme 4.5.1 qui permet dafrmer quune martingale borne dans L2 est convergente. Pour cela on commence par rcrire linquation (4.3) sous la forme : |Xn+1 |2 |Xn |2 + 2 K2 2cn |Xn |2 + Mn+1 Mn , n o lon a dnit la suite (Mn , n 0) par M0 = 0 et Mn+1 Mn = 2n Xn .F(Xn , Un+1 ). Il est facile de vrier que (Mn , n 0) est une martingale puisque E (Mn+1 Mn |Fn ) = 2n E Xn .F(Xn , Un+1 ) = 0, vue lgalit (4.4). Dautre part, en sommant lingalit (4.5) entre 0 et n 1, on obtient : |Xn |2 1 |X0 |2 + An An
n
(4.5)
Ak (K2 2 -1 + Mk Mk-1 ). k
k=1
Si lon est en mesure de prouver que (Mn , n 0) est une suite convergente, la srie de terme gnral K2 2 -1 + Mk Mk-1 sera elle aussi convergente et le lemme de Kronecker permettra k de conclure. Pour terminer la dmonstration, il nous reste donc dmontrer que Mn converge lorsque n tends vers linni. Pour montrer ceci, nous utilisons le thorme 4.5.1. On sait dj que (Mn , n 0) est une martingale, il suft donc de vrier que sup E M2 < +. n
n0
73
E(F(Xn , Un+1 )2 ).
Mais F est borne donc f et F aussi et nous venons de voir que E(|Xn |2 ) tends vers 0 (et reste donc borne). On a donc : E M2 +1 E M2 C2 . n n n En sommant cette ingalit entre 0 et n 1, on obtient :
n-1
E M
2 n
E M
2 0
k=0
2 . k
La srie k0 2 tant convergente, on en dduit que E M2 reste born. Le thorme 4.5.1 n k permet alors de conclure la convergence presque sre de Mn et le lemme de Kronecker conduit la convergence presque sre de Xn vers 0. Remarque 4.6.3 Lefcacit de lalgorithme est lie au choix de la suite (n , n 0). Ce choix est souvent dlicat. On sen convaincra en utilisant pour des diverses valeurs de b et c, le programme suivant. Un programme Scilab pour le calcul dun fractile
// fractile a calculer alpha=0.2;// 20 %
// tirages aleatoires communs aux trois algorithmes n=1000; u=rand(1,n); // algorithme de Robbins et Monro // choix de gamma_n c=1.0;b=1.0; Gamma=c*1../(1+b*[1:n]); // algorithme y=1/2; x_rm=zeros(1,n); for i=1:n y=y-Gamma(i)*((u(i)<=y)-alpha); x_rm(i)=y; end // moyenne des tirages Robbins Monro z=cumsum(x_rm)./[1:n]; // methode empirique classique w=zeros(1,n); ww=[]; for i=1:n
74
ww=[ww,u(i)]; xx=sort(ww); h=xx(ceil(i*(1-alpha))); w(i)=h; end; xbasc(); // algorithme de Robbins et Monro plot2d([1:n],x_rm,1,011, ,[0,-.2,n,1],[0,4,0,6]); // moyenne des tirages Robbins Monro plot2d([1:n],z,2,010, ,[0,-.2,n,1],[0,4,0,3]); // methode empirique plot2d([1:n],w,6,010, ,[0,-.2,n,1],[0,4,0,3]); // resultat exact plot2d([1:n],alpha*ones(1:n),3,010, ,[0,-.2,n,1],[0,4,0,3]);
75
18
a
0
-18 0 20 40
60
80
100
F IG . 4.2 Temps de sortie de [a, b] par une marche alatoire Soient (Xi , i 1) des variables alatoires indpendantes de mme loi, telles que P[Xi = 1] = p et P[Xi = 1] = q = 1 p. On suppose p ]0, 1[. On note Sn = S0 + X1 + + Xn . La suite Sn modlise la richesse dun joueur un jeu de pile ou face avec une pice biaise. S0 = x Z est la richesse initiale du joueur. Dans les calculs on notera Px pour P an de rappeler que lon part de la condition initiale S0 = x.
Le cas p = q = 1/2.
1. Montrer que (Sn , n 0) est une Fn -martingale o Fn = (X1 , , Xn ). 2. Pour a < b Z, on note a;b = inf{n 0; Sn b ou Sn a}. Que reprsente a;b ? Montrer quil sagit dun temps darrt. 3. Montrer en utilisant le thorme de la limite centrale que a;b est ni p.s. Montrer quil nest pas born si a < x < b 1 ou si a + 1 < x < b. 4. En utilisant le thorme darrt, montrer que, pour x [a, b] : Ex [Sa;b ] = x. 5. On suppose x ]a, b[. Calculer Px [Sa;b = a]. 6. Trouver la suite (bn , n 0) pour que ((Sn x)2 bn , n 0) soit une Fn -martingale. 7. Calculer Ex [a;b ].
76
8. Utiliser les martingales exponentielles pour calculer eat Ex s-a;b 1{S o s = (et + e-t )/2 et t R. 9. Exprimer et en fonction de s. En dduire Ex s-a;b 1{S 10. En dduire la fonction gnratrice de a;b . 11. On note b = inf{n 0; Sn b}. Vrier que (-n;b , n 0) converge en croissant vers b . En dduire que P[b < +] = lim P[S-n;b = b] = 1.
n!1 a;b a;b bt -a;b 1{S , = a} + e Ex s a;b = b}
= a} .
12. Calculer E[b ]. Calculer la fonction gnratrice de b . Peut-on appliquer le thorme darrt Sb ? En dduire que E[supnb |Sn |] = +.
Le cas p = q.
On reprend les mmes notations que ci-dessus. 1. Montrer que ((q/p)Sn , n 0) est une Fn -martingale. 2. Montrer en utilisant la loi forte des grands nombres que a;b est ni p.s. Montrer quil nest pas born si a < x < b 1 ou si a + 1 < x < b. 3. En utilisant le thorme darrt, montrer que, pour x [a, b] : Ex [(q/p)Sa;b ] = (q/p)x . 4. On suppose x ]a, b[. Calculer Px [Sa;b = a]. Que se passe-t-il quand p 1/2 (on cherchera une convergence en loi) ? 5. Trouver une suite dterministe (cn , n 0) telle que (Sn cn , n 0) est une Fn martingale. En dduire Ex [a;b ]. 6. Utiliser les martingales exponentielles pour calculer eat Ex s-a;b 1{S o s = p et +q e-t . 7. Exprimer et en fonction de s. En dduire Ex s-a;b 1{S = a} . 8. En deduire la fonction gnratrice de a;b . Que se passe-t-il quand p 1/2 ?
a;b a;b bt -a;b 1{S , = a} + e Ex s a;b = b}
9. Montrer que b nest pas toujours ni p.s. Calculer Px [b < +]. 10. Calculer la fonction gnratrice de b . Que se passe-t-il quand p 1/2 ? Peut-on appliquer le thorme darrt Sb ?
77
4.8 Exercices
Exercice 36 Soit un temps darrt par rapport une ltration (Fn )0nN . On note F lensemble des vnements A tels que A { = n} Fn , pour tout n {0, . . . , N}. 1. Montrer que F est une sous-tribu de FN . F est souvent appele tribu des vnements antrieurs . 2. Montrer que la variable alatoire est F -mesurable. 3. Soit X une variable alatoire relle. Montrer lgalit :
N
E(X|F ) =
j=0
1{ = j} E(X|Fj )
4. Soit un temps darrt tel que . Montrer que F F . 5. Sous les mmes hypothses, montrer que si (Mn ) est une martingale, on a M = E(M |F ). (On pourra traiter le cas = N dabord.)
P(x, y).
Dnition 5.1.2 On dit quun processus (Xn , n 0) est une chane de Markov sur un espace E de probabilit de transition P si lon a, pour tout x0 ,. . .,xn ,xn+1 : P (Xn+1 = xn+1 |Xn = xn , . . . , X0 = x0 ) = P (Xn+1 = xn+1 |Xn = xn ) = P(xn , xn+1 ). Un exemple gnrique de chane de Markov Soit (Un , n 1) une suite de variables alatoires indpendantes sur un espace F, ayant toutes la mme loi. Soit H une application de E F dans E, alors si lon pose X0 = x0 un point x et si lon dnit Xn par la formule de rcurrence : Xn+1 = H(Xn , Un+1 ), alors, la suite (Xn , n 0) est une chane de Markov dont la matrice de transition est donne par : P(x, y) = P (H(x, U1 ) = y) .
Dmonstration : P (Xn+1 = xn+1 , Xn = xn , . . . , X0 = x0 ) = P (H(Xn , Un+1 ) = xn+1 , Xn = xn , . . . , X0 = x0 ) = P (H(xn , Un+1 ) = xn+1 , Xn = xn , . . . , X0 = x0 ) . Mais H(xn , Un+1 ) est indpendante du vecteur (U1 , . . . , Un ) et X0 , . . . , Xn scrivent comme des fonctions de (U1 , . . . , Un ). Donc H(xn , Un+1 ) est indpendante du vecteur X0 , . . . , Xn . On en dduit que : P (Xn+1 = xn+1 , Xn = xn , . . . , X0 = x0 ) = P (H(xn , Un+1 ) = xn+1 ) P (Xn = xn , . . . , X0 = x0 ) .
79
80
Par dnition du conditionnement par un ensemble, on a : P (Xn+1 = xn+1 |Xn = xn , . . . , X0 = x0 ) = P (H(xn , Un+1 ) = xn+1 ) = P(xn , xn+1 ).
Voici quelques exemples construit partir de ce rsultat. Nombre de piles conscutifs dans un jeu de pile ou face Soit (Un , n 1) une suite de variables alatoires valant 1 avec pobabilit p et 1 avec probabilit 1 p, p tant un nombre rel de lintervalle [0, 1]. Appelons Nn le nombre de 1 conscutifs avant le n-ime tirage. Par convention N0 = 0 et Nn = 0 si le m-ime tirage est 0. Il est, alors, facile de vrier que pour n0: Nn+1 = (Nn + 1) 1{U
n+1
= 1} .
(Nn , n 0) est donc une chane de Markov de probabilit de transition : P(n, n + 1) = p, n 0, P(n, 0) = 1 p, n 0, P(x, y) = 0, sinon. Modle de Cox-Ross-Rubinstein Soit (Vn , n 1) une suite de variables alatoires indpendantes telle que P(Vn = u) = p et P(Vn = d) = 1 p, p tant un rel compris entre 0 et 1, u et v deux rels positifs. Posons X0 = x et dnissons par rcurrence Xn par : Xn+1 = Xn Vn+1 . (Xn , n 0) est une chaine de Markov de matrice de transition P donne par : P(x, xu) = p, x R, P(x, xd) = 1 p, x R, P(x, y) = 0, sinon. Cest le modle discret le plus couramment utilis en nance. Il porte le nom de modle de Cox-Ross-Rubinstein. Marches alatoires Soit (Xn , n 1) une suite de variables alatoires relles indpendantes suivant toutes la mme loi, alors si S0 = 0 et : Sn = X1 + + Xn , (Sn , n 0) est une chane de Markov de matrice de transition done par : P(x, y) = P(X1 = y x). Les calculs des lois lies aux chanes de Markov sont, souvent, facile expliciter.
81
Gestion de stock On dcrit la demande des clients par une suite de variables alatoires indpendantes de mme loi (Dn , n 1). On se donne 2 nombres s et S tels que 0 s S qui reprsentent respectivement un niveau de stock maximum et minimum. On procde alors de la faon suivante : A linstant n, si le stock Xn est infrieur s on la porte S (instantanment ! mais on raner le modle pour amliorer ce point), On retranche la demande linstant n + 1, Dn+1 au nouveau stock (si cest possible). Cela donne : (Xn Dn+1 )+ si s < Xn S Xn = (S Dn+1 )+ si Xn s. On suppose que la suite dcrivant la demande (Dn , n 1) est une suite de varaibles alatoires indpendantes suivant toutes la mme loi. La suite (Xn , n 0) est, sous cette hypothse, une chane de Markov. Voici quelques questions auquelles on souhaiterait pouvoir rpondre : 1 que vaut n n 0 Xj la moyenne empirique du stock, i= que vaut P(Xj = a), la loi du stock, comment valuer les demandes non satisfaites. Processus de vie et de mort On considre (i , i 1, n 0) une suite doublement indexe de variables alatoires indpendantes de mme loi, valeurs dans les entiers positifs. On note (z) sa fonction gnratrice de Laplace donne par : (z) = E(z ), pour 0 z 1. On construit alors le processus (Xn , n 0) de la faon suivante, on pose X0 = 1 puis :
Xn
(n)
Xn+1 =
i=1
(n+1)
avec la convention que, si Xn = 0 la somme vaut 0. Linterprtation intuitive, qui justie le nom du processus, est que chaque individu donne naissance un nombre denfants qui suit la loi de puis disparait. (n) Si lon note (n) = (i , i 1), Xn+1 peut scrire sous la forme : Xn+1 = (Xn , (n+1) ), o (x, ) = x=1 i . La suite ((n) , n 1) tant une suite de variables alatoires ( valeurs i dans un espace de suite !) de mme loi. On en dduit que (Xn , n 0) est une chane de Markov et que sa matrice de transition P est donne par :
x
P(x, y) = P
i=1
i = y .
Nous allons voir que lon est capable dvaluer la probabilit dextinction de la population que lon notera p. Pour cela, notons que : E zXn+1 |Fn = E z
PXn
i=1 i
(n+1)
|Fn
Comme Xn est Fn -mesurable et (n+1) est indpendante de Fn , en utilisant le lemme 3.2.6 page 54 on obtient : E zXn+1 |Fn = E(z )Xn = (z)Xn .
82
En prenant lesprance des deux membres de cette galit on obtient : E zXn+1 = E (z)Xn . Appellons n (z) la fonction gnratrice de Laplace de Zn : n (z) = E zXn , on peut rcrire la dernire quation sous la forme : n+1 (z) = n ((z)) , Comme 0 (z) = z, on en dduit que : n (z) = ((. . . (z))) = n (z), puis que : n+1 (z) = (n (z)) . Dautre part la probabilit dextinction p est donne par : p = P ( il exite un instant n tel que Xn = 0) , Comme la famille dvenements {Xn = 0} est croissante on en dduit que : p = lim P (Xn = 0) .
n!+1
(5.1)
Remarquons, dautre part, que : P (Xn = 0) = E(0Xn ) = n (0). On peut alors utiliser lquation (5.1) et la continuit de pour prouver que : p = (p). Le problme probabiliste de calcul de la probabilit dextinction de la population se ramne simplement au problme de ltude de la fonction . On peut dduire des proprits de (exercice) que : si E() 1 alors p = 1, si E() > 1, il existe une unique solution lquation () = avec < 1 et lon a p = . On voit donc que : si E() 1, la population disparat forcment au bout dun temps ni, si E() > 1, la population peut survivre indniment.
83
Dmonstration : Par dnition de la probabilit conditionnelle, on a : P(X0 = x0 , . . . , Xn = xn , Xn+1 = xn+1 ) = P (Xn+1 = xn+1 |X0 = x0 , . . . , Xn = xn ) P (X0 = x0 , . . . , Xn = xn ) . Comme (Xn , n 0) est une chane de Markov on en dduit que : P (X0 = x0 , . . . , Xn = xn , Xn+1 = xn+1 ) = P (X0 = x0 , . . . , Xn = xn ) P(xn , xn+1 ), puis par rcurrence que : P (X0 = x0 , . . . , Xn = xn , Xn+1 = xn+1 ) = P(X0 = x0 )P(x0 , x1 ) P(xn , xn+1 ).
Remarque 5.2.2 Notez que la loi du vecteur (X0 , . . . , Xn ) ne dpend que de P, la matrice de transition, et , la loi initiale. On dduit de ce rsultat une expression pour la loi de Xn . Introduisons les notations suivantes : (Pf)(x) = yE P(x, y)f(y), pour f une fonction de E dans R, (P)(y) = xE (x)P(x, y), pour une loi de probabilit sur E, (PQ)(x, y) = zE P(x, z)Q(z, y), pour P et Q deux matrices de transition. Pn est dnie par rcurrence par : Pn+1 (x, y) =
zE
Noter que Pf est une fonction sur E, PQ une matrice de transition et P une loi de probabilit sur E. Proposition 5.2.3 Soit (Xn , n 0) un chane de Markov de matrice de transition P et de loi initiale . Alors : P (Xn = xn ) =
x0 E;x1 E;:::;xn-1 E
soit, avec les notations prcdentes : P (Xn = xn ) = (Pn )(xn ), Remarque 5.2.4 On voit donc que le calcul de la loi de Xn se ramne un calcul matriciel.
Dmonstration : La dmonstration est une application directe de la formule donnant la loi marginale dune des coordonnes dun vecteur.
84
est une chane de Markov. Dnissons maintenant l , pour un entier l x, par : l = inf {n , Nn = l} . l est ainsi le premier instant o lon voit une suite de l-piles conscutifs. Introduisons Nl (le n processus arrt linstant l ) par : Nl = Nn^l . n Notons que lvnement Nl = l correspond : n Jai vu au moins l 1 conscutifs dans les n premiers tirages. Dautre part (Nl , n 0) reste une chane de Markov issue de 0 puisque : n Nl +1 = Nl + 1 1 n n Xn+1 = 1, Nl < l n + l1 Nl = l n .
Notons (P(x, y), x, y {0, . . . , l}) sa matrice de transition, alors : P Nl = l = Pn (0, l) . n Pour valuer cette probabilit il nous reste expliciter P et calculer sa puissance pour diverses valeurs de l (mieux vaut alors utiliser une logiciel du genre MathLab (payant) ou Scilab (gratuit http://www-rocq.inria.fr/scilab/ !). Les seuls lments non nul de la matrice P sont donns par : P(x, x + 1) = p si x < l, P(x, 0) = 1 p si x < l, P(l, l) = 1. P sexprimer donc sous forme matricielle par : 1p p 0 1p 0 p ... ... ... P= 1p 0 0 1p 0 0 0 0 0
Voici une procdure Scilab qui calcule P, sa puissance 100 et enn P100 (0, l). function [Pro]= proba(l,p) P=[p*diag(ones(l,1));zeros(1,l-1),1]; P=[[(1-p)*ones(l,1);0],P]; P100=P^100; Pro = P100(1,l+1)
85
On peut alors obtenir sans difcults la fonction de rpartition ou la loi du nombre maximal de 1 conscutifs dans un squence alatoire de 100 0 ou 1 indpendants avec p = 1/2. Pour la loi, aprs avoir tap : for l=2:10; write(%io(2),string(l)+ +string(proba(l,1/2)proba(l+1,1/2))); end; on obtient :
0.32
0.24
0.16
0.08
0.00 0 1 2 3 4 5 6 7 8 9 10 11 12
F IG . 5.1 Histogramme de la loi du nombre maximum de F conscutifs aprs 100 tirages et pour la fonction de rpartition :
1.00
0.75
0.50
0.25
0.00 0 1 2 3 4 5 6 7 8 9 10 11 12
86
On est donc peu prs sr (on se trompe 2 fois sur 10, quand mme !) de voir 5 piles conscutifs dans une squence 100 tirages pile ou face, pour une pice quiibre. Le fait de ne pas voir 5 1 conscutifs doit tre considr comme louche et peut servir de test pour savoir si une suite vraiment t tire au hasard. Il est en effet trs rare quune personne tentant dimiter une suite au hasard ait lide de mettre 5 1 la suite. Ca marche plutt bien (exercice essayer avec lun de vos camarades, qui ne suit pas le cours de processus bien sr !).
P(x, y)f(y). Notons que cette dniton est quivalente : P (Xn+1 A|Fn ) = P(Xn , A). P(x, y). Remarquons que si A est rduit un point, on a alors : P (Xn+1 = y|Fn ) = P(Xn , y).
yA
Notons aussi, quun processus de Markov par rapport une ltration (Fn , n 0) donne lest aussi par rapport la ltration naturelle dnie par :
0 Fn = (X0 , . . . , Xn ) . 0 En effet, comme (Xn , n 0) est adpat (Fn , n 0) on a pour tout n, Fn Fn et donc : 0 0 0 E f(Xn+1 )|Fn = E E (f(Xn+1 )|Fn ) |Fn = E (Pf)(Xn )|Fn = (Pf)(Xn ).
Bien sr si (Xn , n 0) est une chane de Markov par rapport une ltration donne cest aussi un processus de Markov au sens lmentaire. Proposition 5.4.3 Soit (Xn , n 0) est une chane de Markov par rapport la ltration (Fn , n 0), alors : P (Xn+1 = xn+1 |Xn = xn , . . . , X0 = x0 ) = P(xn , xn+1 ).
Dmonstration : P (Xn+1 = xn+1 , Xn = xn , . . . , X0 = x0 ) = E E 1{X 1 |Fn n+1 = xn+1 } {Xn = xn , . . . , X0 = x0 } = E 1{X = x , . . . , X = x } E 1{X =x } |Fn
n n 0 0 n+1 n+1
= E 1{X = x , . . . , X = x } P(Xn , xn+1 ) n n 0 0 = E 1{X = x , . . . , X = x } P(xn , xn+1 ) n n 0 0 = P(xn , xn+1 )P (Xn = xn , . . . , X0 = x0 ) . La dernire galit donne le rsultat souhait par dnition de la probabilit conditionnelle lmentaire.
87
Remarque 5.4.4 On peut montrer quun processus de Markov au sens lmentaire est un processus de Markov par rapport sa ltration naturelle. Nous dmontrons pas ce rsultat qui pourra tre trait en exercice par les lves motivs par les aspects mathmatiques. Ces deux rsultats montrent que lquivalence des deux dnitions de processus de Markov 0 0 lorsque lon se restreint la ltration naturelle, i.e. (Fn , n 0) avec Fn = (X0 , . . . , Xn ). Lintrt de la dnition abstraite est de permettre de prendre en compte un ltration (Fn , n 0 0) contenant plus dinformation que la ltration naturelle (donc telle que Fn Fn ). Calcul algorithmique de E (f(XN )) Nous allons donner une illustration de lintret de nouveau formalisme pour les chanes de Markov. Soit (Xn , n 0) est une chane de Markov de matrice de transition P, partant de x0 en 0. On a : E (f(XN )) = (PN f)(x0 ). On peut alors calculer E (f(XN )) itrativement en posant, pour n dcroissant partir de N : u(n, x) = [Pu(n + 1, .)] (x) = u(N, x) = f(x), puis :
yE
(5.2)
Notez que lequation (5.2) dcrit un alogrithme (rcursif) permettant dvaluer E (f(Xn )) qui explicite le fait que la loi de Xn est donne par (Pn (x0 , y), y E). Pour ce convaincre de ce rsultat nous allons montrer que la processus (u(n, Xn ), n 0) est une martingale. Pour cela, calculons E (u(n + 1, Xn+1 )|Fn ) : E (u(n + 1, Xn+1 )|Fn ) = E (f(Xn+1 )|Fn ) , si (x) = u(n + 1, x), on a donc : E (u(n + 1, Xn+1 )|Fn ) = (P)(Xn ) =
yE
P(x, y)u(n + 1, y)
x=Xn
donc : E (u(n + 1, Xn+1 )|Fn ) = u(n, Xn ). Ce qui prouve que (u(n, Xn ), n 0) est une martingale. On en dduit que son exprance est constante, soit : E (u(0, X0 )) = E (u(n, Xn )) . Mais u(n, x) = f(x) et X0 = x0 et la prcdente galit se rcrit : u(0, x0 ) = E (f(Xn )) . Exemples : Soit (Sn , n 1) la marche alatoire symtrique et supposons que lon cherche calculer, pour f une fonction donne : E(f(SN )).
88
Le thorme prcdent, nous dit que, cette quantit est gale u(0, 0), et que u se calcule laide de lquation : u(N, x) = f(x), u(n, x) = 1 u(n + 1, x 1) + 1 u(n + 1, x + 1). 2 2 Notez que ces deux quations permettent dcrire un programme (inefcace car de complexit exponentielle) calculant v(n, x).
double function u(int n,double x) { if(n==N) then return f(x); return 0.5 * (u(n+1,x-1)+u(n+1,x+1)); }
Il est cependant possible dcrire un version fcace de ce programme en utilisant le fait que linstant n il nest ncessaire de calculer u quen x n, x n + 1, , x + n 1, x + n. Exemples : Imaginons que lon cherche calculer le prix dun put amricain dans le modle de Cox Ross. Cela signie que, a, b sont des rels positifs, p est un nombre rel entre 0 et 1, que la matrice de transition de la chane Sn scrit P(x, x(1 + a)) = p, P(x, x(1 + b)) = 1 p, et que lon cherche calculer : E ((K SN )+ ) . Le thorme prcdent nous dit que, E ((K SN )+ ) = u(0, S0 ) si v est lunique solution de : v(N, x) = (K x)+ , v(n, x) = pu(n + 1, x(1 + a)) + (1 p)u(n + 1, x(1 + b)).
Lorsque (Xn , n 0) est une chane de Markov. Ce rsultat est directement reli des algorithmes de calcul de prix doption amricaine en nance et dautres problmes appliqus. Commenons par noncer le rsultat essentiel de cette partie. Thorme 5.4.1 Soit (Xn , n 0) une chane de Markov issue du point x0 en 0, de matrice de transition P(x, y) sur un espace dtat ni E, par rapport une ltration (Fn , n 0). Soit (x) une fonction dnie pour x E. On cherche calculer :
Soit u la solution unique de : u(N, x) = (N, x), u(n, x) = max ({Pu(n + 1, .)} (x), (x)) = max P(x, y)u(n + 1, y), (x)
yE
xE (5.3) n < N, x E.
89
Alors
De plus le temps darrt : 0 = inf {k 0, u(k, Xk ) = (Xk )} , est un temps darrt optimal i.e. qui vrie
Dmonstration : On a, bien sr, vu la dnition de u : u(n, x) {Pu(n + 1, .)} (x). De plus, par dnition dune chane de Markov : {Pu(n + 1, .)} (Xn ) = E (u(n + 1, Xn+1 )|Fn ) . On a donc : u(n + 1, Xn+1 ) u(n, Xn ) u(n + 1, Xn+1 ) E (u(n + 1, Xn+1 )|Fn ) . Posons : Yn = u(n, Xn ) E (u(n, Xn )|Fn-1 ) et Mn = u(0, x0 ) + Y1 + + Yn , pour n 0. Mn est une Fn martingale, en effet : E(Mn+1 Mn |Fn ) = E(Yn+1 |Fn ) = E (u(n + 1, Xn+1 ) E (u(n + 1, Xn+1 )|Fn ) |Fn ) = 0. De plus, comme u(n + 1, Xn+1 ) u(n, Xn ) Yn+1 et u(0, x0 ) = M0 , il est immdiat den dduire par rccurence que, pour tout n 0 : u(n, Xn ) Mn . Maintenant si est un temps darrt tel que N, on a : u(, X ) M . Alors, en utilisant le fait que (Mn , n 0) est une martingale, et en utilisant le thorme darrt on obtient : E (M ) = E(M0 ) = u(0, x0 ). On en dduit donc que : E (u(, X )) E (M ) = u(0, x0 ). On vient donc de prouver que E (u(, X )) u(0, x0 ). Comme, de plus, u(n, x) (x), on a pour tout temps darrt infrieur N : E ((X )) u(0, x0 ).
90
Donc : E ((X )) u(0, x0 ). t.a. Pour nir la dmonstration du rsultat annonc, il suft de trouver un temps darrt 0 infrieur N tel que : E ((X0 )) = u(0, x0 ). sup
nN;
Pour cela posons :l 0 = inf {p 0, u(p, Xp ) = (Xp )} . On peut dmontrer (exercice) que 0 est un temps darrt. Dautre part on a 0 N puisque u(N, x) = (N, x). Sur lvnement {p < 0 } on a u(p, Xp ) = (Xp ), et donc : u(p, Xp ) = {Pu(p + 1, .)} (Xp ) = E (u(p + 1, Xp+1 )|Fp ) . Ceci implique que, sur lvnement {p < 0 } : u(p + 1, Xp+1 ) u(p, Xp ) = Yp+1 . En sommant ces galits entre p = 0 et 0 1 on obtient : u(0 , X0 ) = M0 . On voit donc, en utilisant le thorme darrt, que : E (u(0 , X0 )) = E (M0 ) = E (M0 ) = u(0, x0 ). Comme, par dnition de 0 , lon a u(0 , X0 ) = (X0 ), on en dduit que : E ((X0 )) = u(0, x0 ). Ceci prouve donc que :
N;
Exemples : Soit (Sn , n 1) la marche alatoire symtrique et supposons que lon cherche calculer, pour f une fonction donne :
N;
Le thorme prcdent, nous dit que, cette quantit est gale u(0, 0), et que u se calcule laide de lquation : u(N, x) = f(x), u(n, x) = max 1 u(n + 1, x 1) + 1 u(n + 1, x + 1), f(x) . 2 2 Une fois que u a t calcule on peut expliciter le temps darrt optimal par 0 = inf {n 0, u(n, Sn ) = f(Sn )} .
91
Exemples : Imaginons que lon cherche calculer le prix dun put amricain dans le modle de Cox Ross. Cela signie que, a, b, r sont des rels positifs, p est un nombre rel entre 0 et 1, que la matrice de transition de la chane Sn scrit P(x, x(1 + a)) = p, P(x, x(1 + b)) = 1 p, et que lon cherche calculer : V0 =
Le thorme prcdent nous dit que, V0 = u(0, S0 ) avec v solution de : v(N, x) = (K x)+ , v(n, x) = max (pu(n + 1, x(1 + a)) + (1 p)u(n + 1, x(1 + b)), f(x)) .
92
5.5 Exercices
Exercice 37 On considre lespace deux tats E = {a, b}. La matrice markovienne la plus gnrale scrit 1 P= . 1 1. Condition pour que la chane de Markov ne soit pas priodique. 2. Condition pour que la chane de Markov soit irrductible. 3. On suppose que la chane est irrductible. Calculer la probabilit invariante. 4. On suppose que la chane de Markov associe P est irrductible. Montrer que les puissances de P scrivent 1p p p p Pn = + n . 1p p 1 + p 1 p o on dterminera p et . 5. On suppose que la chane de Markov est apriodique et irrductible. En dduire que limn!1 0 Pn est indpendant de la loi initiale 0 . Exercice 38 Soit (X2n+1 , n 0) une suite de v.a.r. i.i.d telles que P[X1 = 1] = P[X1 = 1] = 1/2. On dnit pour tout n 1, X2n = X2n-1 X2n+1 . 1. Vrier que les v.a.r. X2n , n 1 sont i.i.d. Donner leur loi. 2. Montrer que Xn et Xn+1 sont indpendantes. 3. Dduire de 1 et 2 que les v.a.r. Xn , n 1 sont indpendantes deux deux. 4. Calculer P[Xm+n = j | Xm = i] pour tout n 1 , i, j = 1. En dduire que les quations de Chapman-Kolmogorov sont satisfaites. 5. Calculer P[X2n+1 = 1 | X2n = 1, X2n-1 = 1]. En dduire que X nest pas une chane de Markov. 6. Montrer en revanche que (Zn = (Xn , Xn+1 ), n 1) est une chane de Markov non homogne valeurs dans {1, 1}2 . On dterminera la matrice de transition en distinguant suivant que n est pair ou impair. Exercice 39 Soit X une chane de Markov espace dtat dnombrable. Soit n 1. On note pi;j (n) = P[Xn = j | X0 = i], la probabilit de transition de ltat i ltat j en n tapes. Par convention on pose pi;i (0) = 1 et pi;j (0) = 0. On note li;j (n) = P[Xn = j; Xk = i, 1 k < n | X0 = i], la probabilit partant de ltat i datteindre ltat j en n tapes, sans repasser par ltat i. On note galement pour i = j, fi;j (n) = P[Xn = j; Xk = j, 1 k < n | X0 = i], la probabilit partant de ltat i datteindre pour la premire fois ltat j en n tapes. On introduit les fonctions suivantes dnies sur [1, 1] : Pi;j (s) =
n0
fi;j (n)sn .
93
1. Montrer que pour tout i = j, Pi;j (s) =Pi;i (s)Li;j (s) Pi;j (s) =Pj;j (s)Fi;j (s) 2. On dni le premier temps datteinte de j par = inf {k; Xk = j} et le dernier temps de passage par n = [n supkn {Xk = i}]1{Xn = j}. Montrer que les variables alatoires n ne sont pas des temps darrt. Dduire du 1 que si Pi;i = Pj;j , alors on a P[ = k] = P[n = k] pour tout n k. Donc de manire image le premier temps de passage et le dernier temps de passage ont mme loi. 3. Donner un exemple de chane de Markov espace dtat dnombrable vriant Pj;j = Pi;i pour tout i et j. Exercice 40 On considre une marche alatoire symtrique S0 = 0 et Sn = X1 + + Xn , o les v.a.r. (Xn , n 1) sont i.i.d. et P[X1 = 1] = P[X1 = 1] = 1/2. On considre la famille de variables alatoires Yn = sup {k n; S2k = 0} , n 1.
On dsire valuer la valeur P[Yn = k] pour k n. Dans le jeu de pile ou face, la v.a.r. Yn est le dernier instant o les deux joueurs sont galit. 1. Calculer P[Sm = b]. 2. On admet la formule suivante : P[S1 = 0; . . . ; Sm = 0; Sm = b] = |b| P[Sm = b]. m
Calculer P[S1 = 0; . . . ; S2n = 0]. On pourra utiliser le fait que 2k 1 1 = . (n + k)(n k) nk1 n+k1 3. En dduire que P[S1 = 0; . . . ; S2n = 0] = P[S2n = 0]. 4. En utilisant le rsultat prcdent montrer que P[Yn = k] = P[S2k = 0]P[S2n-2k = 0]. Remarquer que contrairement lintuition la loi du dernier zro avant 2n est symtrique par rapport n. 5. Soit 0 < y < x < 1. En utilisant la formule de Stirling (n! nn+1=2 e-n 2 pour n grand), montrer que pour n grand P[ny Yn nx] 1
x y
1 u(1 u)
du.
6. En dduire que la suite (Yn /n, n 1) converge en loi. 7. Montrer que asymptotiquement, avec probabilit 1/2, 2+ 2 2 2 ,1 . Yn /n 0, 4 4
94
Exercice 41 1. Soit Y une chane de Markov espace dtat discret. On suppose que Pj [Yn = j inniment souvent] = 0. On note = sup {n; Yn = j}. Montrer que
n0
Pj [Yn = j n 1] =
1+
On considre maintenant (Xn , n 1) une suite de v.a.r. i.i.d. telles que P[Xn = 1] = p, P[Xn = 1] = q = 1 p.
On dnit S0 = 0, Sn = X1 + + Xn . Vrier que (Sn , n 0) est une chane de Markov homogne valeurs dans Z. On suppose p = 1/2. 2. valuer P[Sn = 0]. 3. crire la fonction f(x) = [1 x]-1=2 sous forme dune srie entire. 4. En dduire que P[Sn = 0 n 1] = |p q|. Exercice 42 Soit (Xn , n 0) une chane de Markov homogne espace dtat dnombrable E. On note Ty = inf{n 1; Xn = y}. Si x et y sont deux tats distincts, on note xy = P[Ty < | X0 = x]. 1. Montrer que xy > 0 n 1 tel que P[Xn = y | X0 = x] > 0. On suppose xy > 0. Soit n0 = inf{n; P[Xn = y | X0 = x] > 0}. 2. Montrer quil existe des tats x1 , x2 , . . . , xn0 -1 tels que p(x, x1 )p(x1 , x2 ) p(xn0 -1 , y) > 0, o p(x, z) = P[X1 = z | X0 = x]. Montrer que ces tats sont distincts. 3. Si E est ni et de cardinal d. Montrer alors que n0 d1 et P[Ty d1 | X0 = x] > 0.
95
Zn+1 =
i=1
(n)
individus. Si Zn = 0, alors la population est dnitivement teinte et Zn+1 = 0. On fait les (n) hypothses suivantes. La suite (i , i 1, n 1) est une suite de variables alatoires discrtes indpendantes et de mme loi, caractrise par la fonction gnratrice : z [0, 1],
1
G(z) =
k=0
pk zk
(n)
pk = P[i
(n)
= k],
k N.
(n)
On suppose que 0 < p0 < 1, Vari = 2 < et on pose m = E[i ]. On rappelle que la fonction G est sous ces hypothses de classe C2 sur [0, 1]. On suppose galement que la population comporte un seul individu linstant n = 0 (i.e. Z0 = 1). 1. Vrier que 0 est un tat absorbant pour la suite (Zn , n 0), cest--dire montrer que {Zn = 0} {Zn+k = 0} pour tout k 0. 2. Montrer que Z = (Zn , n 0) est une chane de Markov sur un espace E que lon prcisera. On ne calculera pas la matrice de transition. 3. On note T = inf{n 0, Zn = 0} avec la convention inf = +. T est le temps dextinction de la population. Montrer que T est un temps darrt. 4. Montrer que la suite (Wn = m-n Zn , n 0) est une martingale. 5. Calculer E[Zn ]. 6. Montrer que E[Zn ] P[Zn = 0]. En dduire que si m < 1, alors presque srement Zn = 0 pour n assez grand (cela revient montrer que P[T < +] = 1).
7. Vrier que G (1) = m. 8. On dnit G1 = G et pour n 1, Gn+1 (z) = Gn (G(z)) pour z [0, 1]. Montrer que pour z [0, 1], E[zZn ] = Gn (z). 9. Soit q [0, 1] tel que G(q) = q. Montrer que (qZn , n 0) est une martingale. On suppose dans toutes les questions suivantes que m > 1. 10. Montrer que G est convexe sur [0, 1]. Tracer lallure de la fonction G(z) pour z [0, 1]. Vrier quil existe un unique rel ]0, 1[, tel que = G().
96
La martingale (Zn , n 0) On rappelle le thorme suivant du cours : Si (Yn , n 0) 2 est une martingale telle que supn0 E[Yn ] est ni, alors il existe une variable alatoire Y 2 telle que E[Y ] < , et limn!1 E[(Yn Y)2 ] = 0, limn!1 E[|Yn Y|] = 0 et (Yn , n 0) converge presque srement vers Y. 11. Vrier que (Xn = Zn , n 0) est une martingale borne par 1 qui converge dans L2 , dans L1 et presque srement vers une variable alatoire X valeurs dans [0, 1]. 12. Montrer que si H est une variable alatoire relle valeurs dans [0, 1] alors, P[H ]0, 1[ ] > 0 E[H2 ] < E[H]. 13. Calculer E[X]. 14. Vrier que pour z [0, ], |G(z) | |z | o < 1. En dduire E[X2 ]. 15. En dduire la valeur de P[X ]0, 1[ ]. 16. Dduire de la question prcdente la valeur de P[T < +]. 17. Calculer E[Z2 +1 | Zn ]. En dduire que pour m = 1, n VarZn = 2 mn-1 mn 1 . m1
18. Vrier que (Wn , n 0) converge presque srement vers une variable alatoire positive W. 19. Montrer que Gn+1 (z) = G(Gn (z)) pour z [0, 1]. En dduire que E[e-tZn+1 ] = G(E[e-tZn ]). 20. Montrer que la transforme de Laplace de W dnie pour t 0 par (t) = E e-tW , est solution de (mt) = G((t)) t 0. 21. Montrer que est dcroissante, continue et que limt!1 (t) = P[W = 0]. Calculer E[W] et montrer que P[W = 0] = .
22. En utilisant les rsultats prcdents, montrer que presque srement Zn = 0 pour n assez grand ou bien limn!1 m-n Zn existe et est non triviale cest--dire quelle est diffrente de 0 ou +.
97
(5.4)
x E,
o H est une fonction positive connue et C est la constante de normalisation. Dans le cadre de la mcanique statistique H reprsente lnergie du systme dans la conguration x. En gnral la constante de normalisation (appele fonction de partition) est mal connue. On ne peut donc pas simuler directement une variable alatoire de loi . On suppose donn P un noyau de transition dune chane de Markov sur E vriant 5.4 tel que P(x, y) = P(y, x), pour tout (x, y) E2 . On choisit une suite a(x, y) ]0, 1] o (x, y) E2 . Soit (Yn;x , n 1, x E) et (Zn;x;y , n 1, (x, y) E2 ) des suites de variables alatoires indpendantes. Leurs lois sont caractrises par P[Yn;x = y] = P(x, y) et P[Zn;x;y = 1] = 1 P[Zn;x;y = 0] = a(x, y). On construit la suite de variable alatoire (Xn , n 0) de la manire suivante. X0 = x0 , et pour n 1, on pose Xn = x si Yn;Xn-1 = x et si Zn;Xn-1 ;x = 1 ; sinon Xn = Xn-1 . 6) Montrer que (Xn , n 0) est une chane de Markov dont on donnera le noyau de transition Q. 7) Montrer que Q vrie 5.4. 8) Montrer que sil existe une mesure de probabilit sur E telle que pour tout (x, y) E2 , (x)Q(x, y) = (y)Q(y, x), alors est la mesure invariante. 9) Quelle valeur peut-on donner (a(x, y), (x, y) E2 ) pour que la mesure invariante soit . Donner une mthode pour simuler une variable alatoire de loi . 10) Que se passe-t-il quand ? 11) Proposer intuitivement une mthode pour obtenir un minimum de H en utilisant un algorithme de Hastings-Mtropolis. On parle alors dalgorithme de recuit-simul.
98
Soit B B {0, 1}N et (s1 , . . . , sn-1 ) {0, 1}n-1 . 1) Montrer que Pj [(Un+1 , . . .) B | Un = 1, Un-1 = sn-1 , . . . , U1 = s1 ] = Pj [(U1 , . . .) B]. On dit que U est un processus de renouvellement. 2) On note Fn = {Un = 1, Un+k = 0, k 1} et F0 = {Uk = 0, 1 Pj [Xn = j inniment souvent] =
n0
Pj [Fn ].
3) Montrer que Pj [Fn ] = Pj [F0 ]Pj [Un = 1]. 4) On note G = n1 {Xn = j}. Dduire de 2) et 3) que Pj [G] < 1 5) Dduire de 2) et 3) que Pj [G] = 1 Pj [Xn = j inniment souvent] = 1 = . n1 Pj [Xn = j] Pj [Xn = j inniment souvent] = 0 < . n1 Pj [Xn = j]
En dduire que Pj [Xn = j inniment souvent] = 1 n1 Pj [Xn = j] = + (on dit que ltat j est rcurrent) et que Pj [Xn = j inniment souvent] = 0 n1 Pj [Xn = j] < + (on dit que ltat j est transient). 6) Soit la marche alatoire symtrique sur Z : S0 = 0, Sn = Y1 + + Yn , o les v.a.r. (Yn , n 1) sont i.i.d. et P[Y1 = 1] = P[Y1 = 1] = 1/2. Calculer P[S2n = 0]. En utilisant la formule de Stirling (n! 2nn+1=2 e-n pour n grand) les questions 5) et 4), montrer que P[Sn = 0 inniment souvent] = 1. 7) On considre la marche alatoire symtrique sur Z2 : S0 = 0, Sn = X1 + + Xn , o les v.a.r. (Xn , n 1) sont i.i.d. et P[X1 = (0, 1)] = P[X1 = (0, 1)] = P[X1 = (1, 0)] = P[X1 = (1, 0)] = 1/4. Calculer P[S2n = 0]. En utilisant la mme mthode que pour la question 1, montrer que 0 est rcurrent pour la chane de Markov S. On pourra utiliser que (1 + x)n (1 + x)n = (1 + x)2n pour n!)2 calculer n=0 [k!((n-k)!]2 . k 8) On considre la marche alatoire symtrique sur Z3 . Montrer que 0 est transient. On utilisera que pour n 4 : n! 3n i!j!k!
2
i+j+k=n
n! 3n i!j!k! i+j+k=n
i+j+k=n
max
n! 3n i!j!k!
n! . 3n ([n/3]!)3
99
Remarque
Plus gnralement, il existe un critre du Chung et Fuchs (cf Feller tome II p.614) sur la fonction gnratrice qui dtermine si la marche alatoire est rcurrente ou transiente.
101
102
De plus : Ex (f(X1 )) =
yE
puisque la loi de X1 , pour une chane de Markov de probabilit de transition P issue de x en 0 est donne par (P(x, y), y E). Le rsultat est donc clair pour ce type de fonction.
Nous allons maintenant aborder la notion de proprit de Markov forte. Il sagit dtendre la proprit que nous venons dnoncer non plus des temps xe n mais des temps darrt nis.
On note alors que {S = k} est dans Fk et que f(Uk+1 , . . . , Uk+n ) est une variable alatoire indpendante de Fk et lon en dduit que : E (f(US+1 , . . . , US+n )) = =
k1
k1
= E (f(U1 , . . . , Un )) . Ceci prouve que (US+1 , . . . , US+n ) a la mme loi que (U1 , . . . , Un ) et lon peut en dduire que la suite (US+k , k 1) a la mme loi que (Uk , k 1), cest dire est une suite de variables alatoires indpendantes de mme loi.
103
Remarque 6.3.2 On dmontre sans difcult que S et XS sont des variables alatoires FS mesurable, si (Xn , n 0) est un pocessus adapt. De mme {T S}, {XS A} sont dans FS , mais {XS+1 A} nest pas dans FS et plus gnralement {Xt A}, sauf si S t ? Remarque 6.3.3 Soit S un temps darrt ni alors : E(X|FS ) =
n0
1{S = n} E(X|Fn ).
(6.1)
1{S = n} E(X|Fn ),
E 1fS=ngA E(X|Fn ) .
E E(X1fS=ngA |Fn ) =
n0
E X1fS=ngA = E(X1A ).
Le thorme 3.2.1, dnissant lesprance conditionnelle permet alors dafrmer que : X = E (X|FS ) . Retour au cas dune suite indpendante Revenons au cas dune suite (Un , n 1) de variables alatoires indpendantes de mme loi. Nous notons dans ce cas Fn = (U1 , . . . , Un ) et nous supposons que S est un temps darrt, ni presque srement, par rapport cette tribu. Nous cherchons, tout dabord, a calculer : E (f(US+1 , . . . , US+n )|FS ) . Pour cela nous allons utiliser lquation 6.1 : E (f(US+1 , . . . , US+p )|FS ) = =
n0
n0
Comme (Un+1 , . . . , Un+p ) est indpendante de Fn et {S = n} est dans Fn on en dduit que : E (f(US+1 , . . . , US+p )|FS ) = =
n0
n0
= E (f(U1 , . . . , Up )) . En prenant lesprance des deux membres on retrouve le fait dj tabli que la loi de (US+k , k 1) est identique celle de (Uk , k 1). Nous allons voir que ce rsultat implique de plus que (US+k , k 1) est une suite indpendante de la tribu FS . Pour se convaincre de ceci, il suft de noter le rsultat suivant.
104
Proposition 6.3.4 Soit X une variable alatoire et B une tribu. Supposons que pour toute fonction positive ou borne f on a : E(f(X)|B) = une constante = E (f(X)) . Alors X est indpendante de B.
Dmonstration : Soit Z une variable alatoire B-mesurable et g une fonction borne, alors : E (f(X)g(Z)) = E (E (f(X)g(Z)|B)) = E (g(Z)E (f(X)|B)) . Mais E (f(X)|B) = C et en prenant lesprance des deux membres on a forcment C = E (f(X)). On obtient donc : E (f(X)g(Z)) = E (g(Z)) E (f(X)) . X est donc indpendante de toute variable alatoire Z B-mesurable. Elle est donc, par dnition, indpendante de B.
Or, nous avons vu que, pour toute fonction f et pour tout p : E (f(US+1 , . . . , US+p )|FS ) = E (f(U1 , . . . , Up )) , On dduit, du rsultat prcdent que, pour tout p, (US+1 , . . . , US+p ) est indpendant de FS , puis par un argument technique que (US+k , k 1) est indpendante de FS . Un exemple dutilisation : jeu de pile ou face. Soit (Un , n 1) une suite de variables alatoires indpendantes telles que P(U1 = 1) = p et P(U1 = 0) = 1 p. Soit 1 le temps de premire apparition de pile : 1 = inf {n 1, Un = 1} . Il est bien connu que la loi de 1 est une loi gomtrique de paramtre p, i.e. : P (1 = k) = p(1 p)k-1 , k 1. De mme 2 le temps de premire apparition de face : 2 = inf {n 1, Un = 0} , suit une loi gomtrique de paramtre 1 p : P (2 = k) = (1 p)pk-1 , k 1. Quelle est la loi de linstant de premire apparition de la squence 10, 10 ? Pour rpondre cette question il suft de remarquer que 01 est la somme du temps datteinte de 1, 1 et du temps datteinte de 0 pour la suite (U1 +k , k 1), 2 . Cette suite est indpendante de F1 donc de 1 et a mme loi que (Uk , k 1). On obtient donc, sans aucun calcul, que : 10 = 1 + 2 , 1 suivant une loi gomtrique de paramtre p et 2 tant indpendante de 1 suivant une loi gomtrique de paramtre 1 p.
105
E 1{S = n} f(Xn , Xn+1 , . . . , Xn+p )|Fn , n0 1{S = n} E (f(Xn , Xn+1 , . . . , Xn+p )|Fn ) ,
n0
La dernire, galit sobtient en utilisant la proprit de Markov tendue des fonctions gnrales (voir proposition 6.1.1). On peut rcrire la dernire galit sous la forme : E (f(XS , XS+1 , . . . , XS+p |FS ) = EXS (f(X0 , X1 , . . . , Xp )) . Par un argument technique on tend le rsultat aux fonctionx f de toute la trajectoire du processus : E (f(XS+k , k 0)|FS ) = EXS (f(Xk , k 0)) . En prenant lesprance des deux membres, on en dduit que la loi de (XS+k , k 0) est celle dune chane de Markov de probabilit de transition P issue de XS linstant 0. Dans le cas o XS est une constante, lesprance conditionnelle se rduit une constante et le lemme 6.3.4 permet alors dafrmer que (XS+k , k 0) est indpendante de FS .
Application : temps datteinte dune marche alatoire Soit (Uk , k 1) une suite de variables alatoires indpendantes de mme loi, telle que P(U1 = 1) = 1/2. Soit a le temps datteinte du niveau a : a = inf {n 0, Sn = a} , pour a un entier strictement positif. Comme S1 = 1, la suite (S1 +k , k 0) est indpendante de F1 et la loi de cette suite est celle dune marche alatoire partant de 1 linstant 0. De plus 2 est la somme de 1 et de 1 le temps datteinte de 1 pour la marche alatoire issue de 0 en 0, (S1 +k 1, k 0). On en dduit donc, sans aucun calcul que : 2 = 1 + 1 , 1 et 1 tant deux variables alatoires indpendantes, la loi de 1 tant identique celle de 1 . On gnralise sans difcult cette relation pour a entier arbitraire. a = 1 + 2 + + a , 1 1 1
106
les (1 , . . . , a ) tant indpendants, suivant tous la mme loi que 1 . On pourra montrer, en 1 1 exercice, que (a , a 0) est une marche alatoire.
107
6.5 Exercices
Exercice 43 Un petit restaurateur qui ne possde que trois tables, remarque que si son restaurant est vide alors la loi darrive du premier client est une loi exponentielle de paramtre 1. Le temps de service dun client est une loi exponentielle de paramtre 1. Mais ds quun client est install, sa prsence attire dautre clients, et une voire deux tables en mme temps, sil en reste deux, peuvent se remplir. Les temps darrive suivent toujours des lois exponentielles de paramtre 1. Enn si toutes les tables sont occupes, le restaurateur presse le service et une ou deux tables en mme temps peuvent se librer suivant des temps exponentiels de paramtre 1. On modlise lvolution du nombre de tables occupes laide dune chane de Markov X temps continu sur lespace dtat E = {0, 1, 2, 3}. On note Pt le semi-groupe de transition du processus X et G le gnrateur innitsimal (Pt = etG ). 1. Montrer que G scrit 1 1 0 0 1 3 1 1 . G= 0 1 2 1 0 1 1 2 2. On note T = inf {t 0; Xt = X0 }, le premier instant o la chane change dtat. Calculer E[T | X0 = i] pour i {0, 1, 2, 3}. 3. On note R = inf {t 0; Xt = 3}, le premier instant o les trois tables sont occupes. On dsire estimer E[R | X0 = 0], le temps moyen pour que le restaurant initialement vide ait ses trois tables occupes. On note bi = E[R | X0 = i]. Montrer que b3 = 0 et que pour tout i {0, 1, 2} bj P[XT = j | X0 = i]. bi = E[T | X0 = i] +
j= i
4. En dduire la valeur de b0 . 5. Montrer que G = Q-1 DQ, o D est une matrice diagonale. 6. Calculer le semi-groupe de transition Pt = etG . 7. Calculer limt!1 Pt . 8. En dduire la probabilit invariante 0 . 9. Quel est la limite quand t du taux moyen de remplissage du restaurant ? Exercice 44 On note G le gnrateur innitsimal dune chane de Markov X temps continu sur un espace dtat dnombrable E. On peut considrer G comme une matrice G = (g(x, y), (x, y) E2 ). On note Pt le semi-groupe de transition du processus X (Pt = etG ). On rappelle que si f est une fonction mesurable positive dnie sur E, Pt f(x) = yE f(y)pt (x, y) o pt (x, y) = P [Xt = y | X0 = x] . On suppose que ||G|| = supxE yE |g(x, y)| < . 1. Montrer que ||Gn || ||G||n et que etG et jjGjj . En dduire que Pt = I + tG + tt , o limt!0 ||t || = 0. 2. Faire un dveloppement de pt (x, y) lordre o(t). 3. Montrer que pour tout (x, y) E2 tel que x = y, alors g(x, y) 0. Montrer que pour tout x E, g(x, y) = 0.
yE
108
4. Soit une probabilit sur E. Lexpression Pt = signie que xE (x)pt (x, y) = (y) pour tout y E. De mme G = 0 signie que xE (x)g(x, y) = 0. Montrer que Pt = , t 0 G = 0. Si lune des conditions ci-dessus est vrie, on dit que est la probabilit invariante du processus. Exercice 45 On modlise lvolution dune population, en fait du cardinal de la population, laide dune chane de Markov X temps continu sur N de la manire suivante. n h + o(h) si m = 1 P [Xt+h = n + m | Xt = n] = n h + o(h) si m = 1 o(h) si |m| > 1 On suppose 0 0, 0 = 0 et pour tout n 1, n > 0, n > 0. 1. Interprter les valeurs n et n . 2. Dterminer le gnrateur innitsimal G de la chane de Markov (Pt = etG ). 3. Donner la loi de T (t) = inf {s t; Xs = Xt } conditionnellement X(t) = n. 4. Calculer P XT (t) = n + m | Xt = n . 5. En utilisant la question 4. de lexercice 2, donner une condition sufsante pour lexistence dune probabilit invariante . Calculer alors cette probabilit. 6. On considre le modle suivant pour lvolution de la population. t x, deux phnomnes sont en concurrence. Soit un immigrant arrive ( un temps exponentiel de paramtre ), soit un membre de la population meurt ( un temps exponentiel de paramtre ). Calculer P XT (t) = n + m | Xt = n . En dduire les valeurs de n et n . 7. Montrer que la probabilit invariante est une loi de Poisson de paramtre = /. 8. On suppose que X0 est distribu suivant la probabilit invariante . Calculer le nombre moyen de personnes dans la population linstant t > 0. Exercice 46 On reprend les rsultats et les notations de lexercice 2. On note G= ,
o 0, 0, le gnrateur innitsimal le plus gnral sur lespace deux tats E = {a, b}. 1. Sous quelles conditions la chane de Markov temps continu associ G est-elle constante (et donc dterministe) ? 2. On suppose + > 0. crire G = Q-1 DQ o D est une matrice diagonale. Montrer que 1 + h(t) (1 h(t)) Pt = , + (1 h(t)) + h(t) o h est une fonction que lon calculera explicitement. 3. Calculer P [Xt = b | X2t = a, X0 = a]. 4. Calculer la probabilit invariante (Pt = ). 5. Calculer la limite de Pt quand t tend vers . 6. En dduire que Xt converge en loi quand t tend vers . Donner la loi limite. 7. On note 1 P= , 1 o [0, 1]. Montrer quil existe un semi-groupe de transition continu en temps (Pt , t 0) tel que P1 = P si et seulement si 1 > 1/2. On distinguera le cas = 1. 8. Montrer qualors le semi groupe (Pt , t 0) est unique et le calculer laide de .
109
2. On pose () = E eXi pour 0. Expliquer pourquoi () est bien dnie et est une fonction continue. 3. Montrer que Mn = ()-n eSn , n 1 est une martingale. 4. On admet que est de classe C1 sur ]0, +[, et que les drives dordre k de sont dk donnes par () = E Xk eXi . En dduire que est convexe. Tracer lallure du i dk graphe de . En dduire quil existe un unique 0 ]0, [ tel que (0 ) = 1. 5. Vrier que (0 ) > 0. Changement de probabilit 1. On pose pk = e0 k P(Xi = k). Vrier que
kZ
pk = 1.
2. Soit (Yi , i 1) une suite de variables alatoires indpendantes et de mme loi valeurs n dans Z telles que pour k Z, P(Yi = k) = pk . On pose Z0 = 0 et Zn = i=1 Yi pour n 1. Montrer que pour toute fonction f borne ou positive (mesurable), on a E f(Yi ) e-0 Yi = E [f(Xi )]. En dduire que pour tout u1 , . . . , un R, on a E ei
Pn
k=1 uk Yk -0 Zn
= E ei
Pn
k=1 uk Xk
On admet que cela implique que pour toute fonction borne ou positive (mesurable) f, on a E f(Y1 , . . . , Yn ) e-0 Zn = E [f(X1 , . . . , Xn )]. 3. Vrier que pour toute fonction f borne ou positive, on a E [f(Yi )] = E f(Xi ) e0 Xi . En dduire que Yi est intgrable et, en utilisant la question 5, que E[Yi ] > 0. Temps darrt et martingale 1. Montrer que Nn = e-0 Zn , n 1 est une martingale. On prcisera la ltration. 2. On introduit les premiers temps datteinte du niveau k 0 pour les marches (Sn , n 0) et (Zn , n 0) : k = inf {n 0; Sn k} et k = inf {n 0; Zn k} .
Par convention, on pose inf = . Montrer que k et k sont des temps darrt par rapport des ltrations que lon prcisera.
110
3. Quel est le comportement asymptotique de la suite (Zn , n 0) quand n ? En dduire P(k < ). 4. Si k () = i, que vaut Zi () ? 5. En utilisant la remarque 5.3.3. du polycopi, calculer E 1k n e-0 Zn | Fk . 6. Dduire des questions prcdentes que P(k n) = E 1k n e-0 Zn . 7. Montrer que P(k n) = e-0 k P(k n). En dduire P(k < ). 8. Montrer que S + 1 est une variable alatoire gomtrique : P(S + 1 = k) = (1 )k-1 pour k N . On explicitera .
Le cas particulier de la marche alatoire simple On suppose dornavant que P(Xi = 1) = p et P(Xi = 1) = q = 1 p avec 1 > q > p > 0. On dsire calculer la probabilit pour que la marche alatoire (Sn , n 0) ne revienne jamais en 0.
p 1. Calculer e-0 , et vrier que e-0 = q .
2. Montrer, en utilisant la proprit de Markov, que P(Sn < 0; n 1) = qP(S = 0). 3. Dduire des questions prcdentes la valeur de P(Sn < 0; n 1). 4. Rappeler la valeur de P(Sn < 0; n 1) quand p = q = 1/2 (vu en cours ou en travail dirig). En dduire la valeur de P(Sn < 0; n 1) pour p = 1 q ]0, 1[.
112
Enn nous nous intresserons seulement aux options europennes qui ne peuvent tre exerces qu lchance. Dautres options, appeles amricaines, peuvent tre exerces par lacheteur tout instant jusqu lchance. Elles offrent plus de droits et dterminer leur prix et leur couverture est plus compliqu que dans le cas europen.
7.1 Le modle
7.1.1 description
Le modle comporte N priodes de temps. On considre quil est possible de placer ou demprunter de largent au taux dintrt discret r quil est naturel de supposer positif dun point de vue nancier.Le montant obtenu (resp. rembourser) linstant n en plaant (resp. empruntant) un euro linstant initial est S0 = (1 + r)n . n On se donne galement un sous-jacent risqu (celui sur lequel vont porter les options) et pour 0 n N, on note Sn la valeur de cet actif risqu linstant n. Lvolution de cet actif dpend de deux paramtres b > a > 1 : entre linstant n et linstant n + 1 laugmentation relative du cours peut prendre la valeur b (hypothse haute : march haussier) Sn+1 Sn = bSn ou bien la valeur a (hypothse basse : march baissier) Sn+1 Sn = aSn . On suppose que tous les scenarii dvolution possibles entre linstant initial et linstant terminal se produisent avec probabilit strictement positive. On formalise cette dynamique de la manire suivante. On se donne sur un espace de probabilit (, A, P) des variables alatoires T1 , . . . , TN valeurs dans {1 + a, 1 + b} t.q. (x1 , . . . , xN ) {1 + a, 1 + b}N , P(T1 = x1 , . . . , TN = xN ) > 0. (7.1) La valeur initiale S0 > 0 de lactif risqu est suppose dterministe (cest la valeur connue sur le march du sous-jacent que lon modlise). Ensuite Sn sobtient par la relation de rcurrence 0 n N 1, Sn+1 = Sn Tn+1 . On en dduit facilement que
n
0 n N, Sn = S0 T1 . . . Tn = S0
m=1
Tm .
Notons que 0 n N, Fn = (S0 , . . . , Sn ). Une option europenne est modlise par une variable alatoire h FN -mesurable positive qui reprsente le prot obtenu linstant N par son dtenteur en lexerant. Exemples : Pour Put europen standard (vanilla) de prix dexercice K, h = (K SN )+ . Pour un Call europen sur-moyenne, h = ( N1 1 N=0 Sn K)+ . n + Pour un Call sur maximum avec Strike ottant, h = max0nN Sn SN . Comme h est (T1 , . . . , TN ) mesurable, dans lesprit de la Proposition 3.1.2, f : {1 + a, 1 + b}N R+ t.q. h = f(T1 , . . . , TN ). Dans lexemple du Put europen standard f(x1 , . . . , xn ) = (K S0
N n=1
(7.2) xi )+ .
113
est une condition ncessaire pour quil y ait Absence dOpportunits dArbitrage. Rappelons que lon a suppos 1 < a < b. Si r a alors il suft dacheter une unit dactif risqu linstant initial en empruntant le montant correspondant la banque pour raliser un arbitrage. En effet, partant de V0 = 0, on disposera en N, aprs remboursement de la somme emprunte, de la richesse
N
VN = SN S0 (1 + r) = S0
n=1
Tn (1 + r)N
Et lhypothse (7.1) implique que P VN = S0 ((1 + b)N (1 + r)N ) > 0. Si r b, alors on va emprunter une unit dactif risqu linstant initial, la vendre et placer la somme reue S0 la banque. La possibilit de vendre une unit dactif quon ne possde pas peut sembler tonnante mais elle existe sur les marchs nanciers : cela sappelle de la vente dcouvert. Bien sr en N, il faut rembourser SN et on dispose encore de VN = S0 (1 + r)N SN S0 ((1 + r)N (1 + b)N ) 0. Le fait que P(VN > 0) > 0 dcoule nouveau de (7.1).
114
Nous supposerons donc dsormais que lhypothse (7.3) est vrie. Lhypothse dAbsence dOpportunits dArbitrage a une consquence trs importante pour traiter le problme du pricing et de la couverture de loption europenne dnie par h : Supposons que le vendeur de loption h sache constituer un portefeuille qui comporte de lactif sans risque (placement la banque) et de lactif risqu sans ajouter ni enlever dargent lors des ventuelles modications de la composition du portefeuille aprs linstant initial et dont la valeur terminale est VN = h. Alors, comme le portefeuille et loption ont mme valeur linstant terminal, par Absence dOpportunits dArbitrage, la prime de loption est gale la valeur initiale du portefeuille. En outre, le vendeur est en mesure de couvrir le risque li loption : en investissant la prime pour grer le portefeuille, il sera en mesure de fournir la richesse h lacheteur linstant N. Dans le paragraphe suivant, nous verrons comment constituer un tel portefeuille dans le cas trs simpli o il y a une seule priode de temps : N = 1. Nous arborderons ensuite le cas gnral.
0 =
f(1 + a)
f(1+b)-f(1+a) (b-a)
(1 + a) =
(1+b)f(1+a)-(1+a)f(1+b) . (1+r)(b-a)
Suivant lhypothse dAbsence dOpportunits dArbitrage, la valeur de loption linstant initial doit tre gale la valeur initiale du portefeuille V0 = 0 + S0 = = 1 1+r (1 + b)f(1 + a) (1 + a)f(1 + b) f(1 + b) f(1 + a) + (1 + r)(b a) (b a) ra br f(1 + a) + f(1 + b) . ba ba
Du fait de lingalit a < r < b qui est une consquence de lAbsence dOpportunits dArbitrage, on peut dnir P probabilit t.q. P (T1 = 1 + a) = (b r)/(b a) et P (T1 = 1 + b) = (r a)/(b a). Alors si on note E lesprance associe, on a V0 = 1 E (f(T1 )) = E 1+r h 1+r .
Ainsi la valeur de loption est lesprance sous la probabilit P du prot h de lacheteur actualis (prsence du facteur 1/(1 + r)).
115
Remarque 7.1.1 En gnral le prix nest pas gal lesprance du prot (ou payoff) actualis sous la probabilit de dpart. Lapproche nest pas une approche de type assurance. On peut supposer (en premire approximation) que les remboursements (Xi )1in effectus par un assureur automobile ses n (n grand) clients sont des variables indpendantes et identiquement distribues. Pour dterminer la prime quil demande ses clients, lassureur tient compte de la loi forte des grands nombres qui 1 indique que n n 1 Xi est proche de E(X1 ) (esprance sous la probabilit de dpart cette fois) : i= il demande donc une prime gale E(X1 ) plus une marge qui sert la fois le rmunrer et le prmunir contre les uctuations de la somme totale rembourser n 1 Xi autour de nE(X1 ) i= (le thorme de la limite centrale donne le comportement de ces uctuations). En revanche, dans le cas des marchs nanciers, seul un des scenarii dvolution possibles se ralise (il y a deux alternatives dans le cas particulier du modle de Cox-Ross-Rubinstein une priode de temps : T1 = 1 + a et T1 = 1 + b) et le vendeur de loption ne peut pas jouer sur la loi forte des grands nombres. Cest lexistence du portefeuille de rplication qui permet de donner un prix loption. Et le fait que la valeur initiale de ce portefeuille et donc de loption scrit comme esprance sous P du prot h actualis est une consquence des calculs mens pour dterminer le portefeuille et non de la loi forte des grands nombres. Remarque 7.1.2 On a E (S1 ) = S0 E (T1 ) = S0 (1 + a) ra br + (1 + b) ba ba = S0 (1 + r).
Ainsi, sous la probabilit P , lactif risqu rapporte autant en moyenne que lactif sans risque. En ce sens, il devient indiffrent (ou neutre) dinvestir en actif sans risque ou en actif risqu. Cest pourquoi P est appele probabilit risque-neutre.
7.2.1 portefeuille
Dnition 7.2.1 Une stratgie de gestion de portefeuille est la donne dune suite ((0 , n ))1nN Fn-1 -adapte o 0 et n reprsentent respectivement la quantit dactif n n sans risque et la quantit dactif risqu dtenues sur la priode [n 1, n]. Il est naturel de supposer que (0 , n ) est Fn-1 -mesurable car cest au vu de linformation n Fn-1 disponible linstant n 1 que linvestisseur choisit la composition de son portefeuille sur la priode [n 1, n]. La valeur du portefeuille linstant n est Vn = 0 + 1 S0 si n = 0 1 0 n (1 + r)n + n Sn si 1 n N
116
et du portefeuille Vn = V0 = 0 + 1 S0 si n = 0 1 (1 + r)-n Vn = 0 + n Sn si 1 n N n
Une notion trs importante en vue de dnir et de caractriser les arbitrages est celle de statgie autonance. Dnition 7.2.2 Une stratgie est dite autonance si on najoute pas et on nenlve pas dargent du portefeuille aprs linstant initial. Autrement dit, aux instants 1 n N 1, les modications de la composition du portefeuille se font valeur constante : 1 n N 1, 0 (1 + r)n + n Sn = 0 +1 (1 + r)n + n+1 Sn . n n La stratgie est autonance si et seulement si lvolution de la valeur du portefeuille provient uniquement de lvolution de lactif sans risque et de lactif risqu entre les instants de discrtisation successifs : Proposition 7.2.3 Il y a quivalence entre i) La stratgie est autonance. ii) 1 n N, Vn = V0 + n 1 (0 S0 + j Sj ), j j j= 0 o pour 1 j N, on note (Sj , Sj ) = (S0 S0-1 , Sj Sj-1 ). j j n iii) 1 n N, Vn = V0 + j=1 j Sj , o pour 1 j N, Sj = Sj Sj-1 .
Dmonstration : Nous allons montrer lquivalence de i) et iii). Lquivalence de i) et ii) dcoule des mmes ides. Pour 1 j N, Vj = 0 + j Sj = 0 + j Sj-1 + j Sj . (7.4) j j Lorsque 2 j N, la condition dautonancement linstant j 1 scrit aprs division par (1 + r)j-1 , 0 + j Sj-1 = 0-1 + j-1 Sj-1 = Vj-1 . j j Avec (7.4), on en dduit que lautonancement est quivalent 1 j N, Vj Vj-1 = j Sj . Et cette famille dgalits implique iii) par sommation. Elle sen dduit en crivant lgalit de iii) aux instants n et n 1 et en effectuant la diffrence.
117
Nous avons dj vu que a < r < b est une condition ncessaire pour quil y ait Absence dOpportunits dArbitrage. Cest en fait galement une condition sufsante : Proposition 7.2.5 Il y a Absence dOpportunits dArbitrage ssi a < r < b. Pour dmontrer la condition sufsante, nous supposons a < r < b et nous introduisons P probabilit t.q sous P , les variables T1 , . . . , TN sont i.i.d. avec P (Tj = 1 + a) = br ra et P (Tj = 1 + b) = . ba ba
Notons que cette dnition gnralise celle donn dans le cas dune seule priode de temps. Lemme 7.2.6 Sous P , la valeur actualise (Sn )0nN de lactif risqu est une Fn -martingale. pour toute stratgie autonance , la valeur actualise (Vn )0nN du portefeuille associ est une Fn -martingale. En admettant (provisoirement) le lemme, il est facile de dmontrer la proposition. Soit une stratgie autonance de valeur initiale nulle : V0 = 0 et de valeur terminale positive : P(Vn 0) = 1. Comme VN est FN = (T1 , . . . , TN )-mesurable, vN : {1 + a, 1 + b}N R t.q. VN = vN (T1 , . . . , TN ). Daprs lhypothse (7.1), tous les scenarii dvolution de lactif risqu ont une probabilit strictement positive : (x1 , . . . , xN ) {1 + a, 1 + b}N , P(T1 = x1 , . . . , TN = xN ) > 0. Avec P(VN 0) = 1, on en dduit que la fonction vN est valeurs dans R+ . Le fait que (Vn )n soit une martingale sous la probabilit P entrane que E (VN ) = V0 = 0. En multipliant par (1 + r)N , on en dduit que 0 = E (vN (T1 , . . . , TN )) =
(x1 ;:::;xN )f1+a;1+bgN
Cette dernire somme est constitue de termes positifs vN (x1 , . . . , xN ) multiplis par des termes strictement positifs P (T1 = x1 ) . . . P (TN = xN ). Comme elle est nulle, la fonction vN est ncessairement identiquement nulle. Do P(VN = 0) = 1 et il nexiste pas de stratgie darbitrage. Il reste dmontrer le lemme pour achever la preuve de la proposition :
Dmonstration : La suite (Sn )0nN est Fn -adapt. En outre chaque variable Sn est intgrable sous comme produit de variables alatoires indpendantes intgrables. P Sn Soit 0 n N 1. On a Sn+1 = 1+r Tn+1 . La variable Sn est Fn -mesurable. Sous P , Tn+1 est indpendante de (T1 , . . . , Tn ) et donc de Fn = (T1 , . . . , Tn ). En utilisant les proprits 4 et 6 de lesprance conditionnelle, on en dduit que E (Sn+1 |Fn ) = Sn E (Tn+1 ) 1+r Sn br ra = (1 + a) + (1 + b) 1+r ba ba n S = (1 + r) = Sn . 1+r
118
Soit maintenant une stratgie autonance. Il est facile de vrier que la suite (Vn )0nN est Fn -adapte. Soit 0 n N 1. Comme la stratgie est autonance, daprs la proposition 7.2.3, Vn+1 = Vn + n+1 Sn+1 . (7.5)
La quantit n+1 dactif risqu dtenu dans le portefeuille sur la priode [n, n + 1] est Fn = (T1 , . . . , Tn )-mesurable. Donc dans lesprit de la proposition 3.1.2, il existe une fonction fn : {1 + a, 1 + b}n R t.q. n+1 = fn (T1 , . . . , Tn ). Cela implique en particulier que la variable alatoire n+1 est borne. En prenant lesprance conditionnelle sachant Fn dans (7.5) et en utilisant notamment la proprit 4 de lesprance conditionnelle on en dduit E(Vn+1 |Fn ) = Vn + n (E(Sn+1 |Fn ) Sn ) = Vn . En fait (Vn )0nN est une transforme de martingales au sens de la proposition 4.3.1 et nous venons de redmontrer cette proposition dans un cas particulier.
Remarque 7.2.7 Daprs le lemme 7.2.6, sous P , la valeur actualise de lactif risqu est une martingale. Cest pourquoi on dit que P est une probabilit martingale. La constance de lesprance de cette martingale scrit 1 n N, E (Sn ) = (1 + r)n S0 , cest dire que sous P , lactif risqu rapporte en moyenne autant que lactif sans risque. En ce sens, il est indiffrent (ou neutre) dinvestir en actif sans risque ou en actif risqu. Cest pourquoi on dit galement que P est une probabilit risque-neutre. Remarque 7.2.8 On peut lgitimement se demander comment construire P . Il suft en fait de se placer sur lespace = {1 + a, 1 + b}N muni de la tribu discrte F = P(). Pour = (x1 , . . . , xN ) , on pose Tn () = xn pour 1 n N b-r Na r-a N-Na P() = b-a o Na = #{i : xi = 1 + a} b-a Alors il est facile (exercice) de vrier que sous P , les variables T1 , . . . , TN sont i.i.d. de loi donne plus haut.
119
Supposons quil existe une stratgie de portefeuille autonance qui rplique loption au sens o la valeur terminale du portefeuille est gale au prot obtenu par lacheteur de loption : VN = h. Alors comme loption et le portefeuille ont mme valeur linstant terminal et comme on ne fait ni ajout ni retrait dargent au cours de la gestion du portefeuille entre linstant initial et linstant nal, il est naturel de dnir la valeur de loption un instant n antrieur comme la valeur Vn du portefeuille cet instant. Daprs le Lemme 7.2.6, sous la probabilit P introduite dans le paragraphe qui pr cde, la valeur actualise du portefeuille (Vn )0nN est une Fn -martingale. Donc la valeur de loption linstant n est alors Vn = (1 + r)n Vn = (1 + r)n E (VN |Fn ) = (1 + r)n-N E (h|Fn ). Nous allons montrer que lon peut construire une telle stratgie : Thorme 7.3.1 On suppose a < r < b. Alors il existe une stratgie autonance qui permet de rpliquer loption i.e. t.q. VN = h. Et pour 0 n N, la valeur de loption linstant n est Vn = (1 + r)n-N E (h|Fn ).
Dmonstration : On note Vn = E ((1+r)-N h|Fn ) la valeur actualise prsume de loption linstant n est une Fn -martingale sous la probabilit P . n. La suite V On cherche pour 1 n N une quantit n Fn-1 -mesurable t.q. Vn = Vn-1 + n Sn . Comme la variable alatoire Vn = E (h|(1 + r)N )|Fn ) est Fn = (T1 , . . . , Tn )-mesurable, n : {1 + a, 1 + b}n R+ t.q. Vn = vn (T1 , . . . , Tn ). v Pour n = 0, cela signie que v0 est une constante. Pour 1 n N, lgalit Vn-1 = E (Vn |Fn-1 ) se rcrit vn-1 (T1 , . . . , Tn-1 ) = E ( n (T1 , . . . , Tn )|Fn-1 ). v La variable (T1 , . . . , Tn-1 ) est Fn-1 mesurable. En outre sous P , Tn est indpendante de Fn-1 = (T1 , . . . , Tn-1 ). Donc daprs le Lemme 3.2.6, vn-1 (T1 , . . . , Tn-1 ) = br ra vn (T1 , . . . , Tn-1 , 1 + a) + vn (T1 , . . . , Tn-1 , 1 + b). ba ba (7.7) (7.6)
Compte tenu des deux alternatives Tn = 1 + a et Tn = 1 + b, lquation (7.6) est quivalente au systme de deux quations une seule inconnue n : vn (T1 , . . . , Tn-1 , 1 + a) = vn-1 (T1 , . . . , Tn-1 ) + n vn (T1 , . . . , Tn-1 , 1 + b) = vn-1 (T1 , . . . , Tn-1 ) + n
1+a 1+r 1+b 1+r
1 1
Sn-1 Sn-1 .
Si ce systme admet une solution, alors en faisant la diffrence entre la seconde et la premire quation, on obtient quelle est gale n = (1 + r) vn (T1 , . . . , Tn-1 , 1 + b) vn (T1 , . . . , Tn-1 , 1 + a) . (b a)Sn-1
La relation (7.7) est prcisment la relation de compatibilit qui assure que cette valeur trouve pour n est bien solution des deux quations.
120
On a donc trouv une suite (n )1nN Fn-1 -adapte t.q. pour 1 n N, lgalit (7.6) est vrie. On pose 0 = Vn-1 n Sn-1 pour 1 n N. La stratgie de portefeuille n 0 = ((n , n ))1nN est telle que
V0 = 0 + 1 S0 = V0 = V0 1 1 n N, Vn = 0 + n Sn = 0 + n Sn-1 + n Sn = Vn-1 + n Sn = Vn . n n
En particulier VN = (1 + r)N VN = h et (7.6) se rcrit 1 n N, Vn = Vn-1 + n Sn . Ainsi la stratgie rplique loption et elle est autonance daprs la proposition 7.2.3.
Exercice 47 On se place dans le modle de Cox-Ross-Rubinstein N priodes avec 1 < a < r < b. On sintresse une option europenne standard dchance N et de fonction de payoff g : R R+ i.e. t.q. le prot ralis par lacheteur linstant n est h = g(Sn ). 1. Pour quelle probabilit P , la valeur de loption linstant n est-elle Vn = E ((1 + r)n-N h(SN )|Fn )? 2. Montrer que Vn = C(n, Sn ) pour une fonction C(n, x) que lon prcisera. Que peut-on dire de x C(n, x) si g est croissante ?
1 3. Montrer que C(n, Sn ) = 1+r E (C(n + 1, Sn+1 )|Fn ). En dduire une relation de rcurrence descendante qui permet de calculer C(n, x) en fonction de C(n + 1, .).
4. Montrer que la quantit dactif risqu dtenir sur la priode [n 1, n] pour couvrir loption est donne par n = C(n, Sn-1 (1 + b)) C(n, Sn-1 (1 + a)) . Sn-1 (b a)
Que peut-on dire de cette quantit si g est croissante ? 5. On suppose dans cette question que pour un certain c > 0, la fonction x cx g(x) est positive et croissante. Montrer qualors n c. 6. En dduire des bornes pour le ratio de couverture n dans le cas du Call.
122
Thorme darrt pour les martingales continues Si (Mt , t 0) est une martingale continue (i.e. les trajectoires t Mt () sont continues, sauf pour un ensemble de de probabilit nulle pour P), on peut tendre lgalit : E(Mt ) = E(M0 ), qui dcoule de la dnition en prennant lesprance des deux membres a priori vraie pour un temps xe t un temps darrt born. Ce rsultat porte le nom de thorme darrt. Thorme 8.1.1 Soit T un temps darrt par rapport une ltration (Ft , t 0). Soit (Mt , t 0) une martingale continue par rapport la mme ltration. Si T k < +, k tant une constante relle, alors on a : E(MT ) = E(M0 ).
Dmonstration : Notons que si s t, on a, comme Xt Xs est indpendante de la tribu Fs : E (Xt Xs |Fs ) = E(Xt Xs ). Mais E(Xt Xs ) = E(Xt ) E(Xs ) = 0 0 = 0, donc : E (Xt Xs |Fs ) = 0. Xs tant Fs -mesurable on en dduit que E(Xs |Fs ) = Xs puis que : E (Xt |Fs ) = Xs .
123
Ceci prouve le premier point. Pour dmontrer la deuxime proprit remarquons que : E (Xt Xs )2 |Fs = E(X2 |Fs ) 2Xs E(Xt |Fs ) + X2 . t s Comme Xs est une martingale, on a E(Xt |Fs ) = Xs et donc : E (Xt Xs )2 |Fs = E(X2 |Fs ) X2 . t s Notons, de plus, que comme Xt Xs est indpendant de Fs , on a : E (Xt Xs )2 |Fs = E (Xt Xs )2 . Mais Xt Xs suit la mme loi que Xt-s X0 = Xt-s , cest dire une loi gaussienne centre de variance t s, on a donc : E (Xt Xs )2 |Fs = t s. Donc il vient : ou encore : E(X2 |Fs ) X2 = E (Xt Xs )2 = t s, t s E(X2 t|Fs ) = X2 s. t s
Ce qui prouve la deuxime proprit. Pour prouver la troisime proprit notons, en utilisant lindpendance des accroissements, que : E e(Xt -Xs ) |Fs = E e(Xt -Xs ) . Mais la loi de Xt Xs est celle dune gaussienne centre de variance t s (dont on peut calculer la transforme de Laplace) donc : E e(Xt -Xs ) = e On a donc : E e(Xt -Xs ) |Fs = e
2 (t-s) 2 .
2 (t-s) 2 .
= eXs -
2 s 2 .
124
Comme T n est encore un temps darrt et quil est born, on peut appliquer le thorme darrt pour afrmer que : E(XT ^n ) = 0. On peut alors faire tendre n vers linni et appliquer le thorme de Lebesgue, puisque supn1 |XT ^n | (|a| + |b|). On obtient alors : E(XT ) = 0. En tenant compte du fait que soit XT = a, soit XT = b, on obtient : aP(XT = a) + bP(XT = b) = 0. Mais comme P(XT = a) + P(XT = b) = 1, on obtient : P(XT = a) = Esprance du temps de sortie gale de (X2 t, t 0) : t Soit encore : E X2 ^n = E (T n) . T On peut passer la limite lorsque n tend vers +, en utilisant le thorme de convergence domine gauche et le thorme de convergence monotone droite. On obtient alors : E(X2 ) = E(T ). T Ceci permet dvaluer la valeur de E(T ) : E(T ) = |a|2 |b| |b|2 |a| + = |a||b|. |a| + |b| |a| + |b| Soit un rel positif, considrons la martin2 t 2
Le mouvement brownien atteint tout niveau gale (Mt , t 0) avec : Posons, pour a un rel strictement positif :
Mt = eXt -
Ta = inf {t > 0, Xt = a} . On montre (exercice) que Ta est un temps darrt. Noter que Ta nest pas, a priori, presque srement ni. Nous allons appliquer le thorme darrt au temps darrt Ta n qui est born par n. On obtient : 2 E eXTa ^n - 2 Ta ^n = 1. Faisons tendre n vers +. En utilisant le fait que et a sont positifs, on obtient que presque srement : 2 2 lim eXTa ^n - 2 Ta ^n = 1{T < +} eXTa - 2 Ta .
n!+1 a
125
^n ea ,
on peut appliquer le thorme de Lebesgue pour obtenir : E 1{T < +} eXTa a Comme XTa = a lorque Ta < +, on obtient : E 1{T < +} eaa
2 T 2 a 2 T 2 a
= 1.
= 1.
Faisons, maintenant, tendre vers 0 en dcroissant par valeurs positives, le thorme de convergence monotone permet dafrmer que : P(Ta < +) = 1. Ta est donc un temps darrt presque srement ni. On peut, de plus, calculer explicitement sa loi. Pour cela il suft de noter, que comme nous savons que P(Ta < +) = 1, on a : E e2 T 2 a
= e-a .
Cette galit caractrise la loi de Ta et lon peut en dduire, par transformation de Laplace inverse, que la loi de Ta admet une densit donne par : a 2t3 e- 2t .
a2
126
Application de ce rsultat Soit (Xt , t 0) un mouvement brownien et Ta = inf {t > 0, Xt = a} pour un a > 0. Nous avons vu que Ta < + presque srement. On peut donc afrmer que (Xt , t 0), avec : Xt = XTa +t XTa = XTa +t a, est un nouveau mouvement brownien indpendant de FTa . Considrons b > a > 0, on a : Tb = Ta + inf {t > 0, XTa +t = b} . Ou encore : Tb = Ta + inf t > 0, Xt = b a . On en dduit que : la loi de Tb Ta est identique celle de Tb-a , Tb Ta est indpendant de la tribu FTa . (Ta , a 0) est donc un processus accroissements indpendants et stationnaires ! Il ne peut tre continu, sinon ce serait un mouvement brownien et ceci lui interdirait dtre croissant ! Nous venons donc didentier un exemple de processus accroissement indpendant et stationnaire non continu. Loi du maximum du mouvement brownien Soit (Bt , t 0) un mouvement brownien, on note St pour : St = sup (s t, Bs ) . Calculons : P (St a, Bt a) , On a : P (St a, Bt a) = P (Ta t, Bt a) . Mais si Bt = BTa +t a, on obtient : P (Ta t, Bt a) = P Ta t, Bt-Ta 0 = E 1{T t} P(Bt-Ta 0|FTa ) . a Comme Ta est FTa -mesurable et (Bt , t 0) est indpendant de FTa , on a : P(Bt-Ta 0|FTa ) = P Bt-s 0 De mme, on prouve que : P(Bt-Ta 0|FTa ) = P Bt-s 0 Do : P (Ta t, Bt a) = P Ta t, Bt-Ta 0 = P (Ta t, Bt a) . Que lon peut rcrire sous la forme : P (St a, Bt a) = P (St a, Bt a) . Mais : P (St a, Bt a) = P (Bt a) , Donc, en remarquant que P (St a, Bt = a) = 0, on : P (St a) = P (St a, Bt a) + P (St a, Bt a) = 2P (Bt a) = P (|Bt | a) . St et |Bt | ont donc mme loi.
s=Ta s=Ta
= 1/2.
127
8.6 Exercices
Soit B = (Bt , t 0) un mouvement brownien dans R. On note (Fs , s 0) o Fs = (Bu , u s), la ltration engendre par le mouvement brownien. Exercice 49 Calculer : a) E[Bs Bt ] b) E eBt | Fs c) E[Bn ], t n 1.
On pourra utiliser un dveloppement en srie entire de lexponentielle pour calculer c) aprs avoir dmontrer que E e jBt j < . Calculer, en utilisant le fait que (Bt , Bt+h , Bt+h+s ) est un vecteur gaussien, la loi conditionnelle de Bt+h sachant (Bt , Bt+h+s ). Comparer pour f une fonction positive mesurable E[f(Bt+h ) | Bt , Bt+h+s ]
2
et
1 o pu (x, y) = 2u e-(x-y) =2u . Interprter. Calculer P[B2 > 0, B1 > 0]. Les vnements {B2 > 0} et {B1 > 0} sont-ils indpendants ?
Exercice 50 Soit a > 0. On note le temps darrt T = inf {t 0; Bt = a} le premier instant o le mouvement brownien B atteint a. On rappelle que (BT +s BT , s 0) est un mouvement brownien issu de 0 indpendant de T . 1. Montrer, en utilisant la proprit forte de Markov linstant T que 1 P [T < t] . 2 2. On note St = sup {Bu ; u t}. Calculer P[St > a, Bt a]. De la mme manire calculer P[Bt > a] = P[St > a, Bt > a]. 3. Calculer P[St > a]. En dduire que St et |Bt | ont mme loi sous P. Les deux processus (St , t 0) et (|Bt |, t 0) ont-ils mme loi ? 4. Calculer laide dune intgration par partie la densit de la loi de T sous P. Calculer E[T ]. Conclusion. P [T < t, Bt BT 0] =
1 Exercice 51 On note Xt = 1-t e-Bt =2(1-t) pour t [0, 1). 1. Soit 0 < t + s < 1. Calculer E[Xt+s | Ft ]. En dduire que (Xt , t < 1) est une martingale. 2. En dduire E[Xt ] pour tout t < 1. 3. Montrer que p.s. limt!1 Xt = 0. 4. Pourquoi ne peut-on pas appliquer le thorme darrt ?
2
lim Bn /n = 0.
2. On rappelle que, t x, sous P, St = supst Bs a mme loi que |Bt |. On considre Mn = sup{|Bt Bn |; n t n + 1}. Majorer P[Mn 2 ln n]. En dduire que P-p.s. limn!1 Mn /n = 0. 3. Montrer que P-p.s. lim Bt /t = 0.
t!1
4. On note Z0 = 0 et Zt = tB1=t . Montrer que le vecteur (Zt1 , Zt2 Zt1 , . . . , Ztn Ztn-1 ), o 0 t1 < < tn , est un vecteur gaussien dont on dterminera les caractristiques. En dduire que (Zt , t 0) est un mouvement brownien.
128
Exercice 53 On dsire valuer P[s [1, t], Bs = 0]. 1. On rappelle que, t x, sous P, St = supst Bs a mme loi que |Bt |. Soit t > 1. En dduire en utilisant la proprit de Markov linstant 1, que 1{B1 0}P[s [1, t], tel que Bs = 0 | B1 ] = 1{B1 0}P[|Bt-1 | B1 | B1 ], o (Bt , t 0) est un mouvement brownien indpendant de (Bt , t 0). 2. Montrer que P[s [1, t], tel que Bs = 0] =
1 2 1 2 2 dz e-(z +y )=2 dy. 0 z= t-1
3. Utiliser les coordonnes polaires pour calculer P[s [1, t], Bs = 0] Exercice 54 Bn = 0. n!1 n 2. Montrer, en utilisant le thorme de la limite centrale, que pour tout a > 0, 1. Montrer que lim P (n 1, Bn [a, a]) = 0. 3. On dnit a comme le premier temps de sortie de [a, a] pour le mouvement brownien : a = inf {t > 0; |Bt | > a} . Montrer que a est un temps darrt. 4. Dduire des questions prcdentes que a est ni p.s. Quelles valeurs peut prendre Ba ? 5. Montrer en utilisant la martingale eBt ea E 1Ba =a ee-a E 1Ba =a e6. En dduire que pour tout > 0, E e7. Montrer que P(a < 1) E eEn dduire que P(a < 1) 2 ea2 2 2 2 a 2 2 a 2 2 a 2 t 2
, t 0 que
2 2 a
=1 =1
2 2 a
a
2 . + e-a
2 2
2 2 a
8. Soit (Xk , k 1) une suite de variables alatoires indpendantes et de mme loi : celle de supt[0;1] |Bt |. En utilisant le paragraphe prcdent majorer P(Xk 4 ln k).
9. En dduire que E k1 1Xk 4 ln k est nie. Montrer que p.s. il existe k0 (alatoire) tel que pour tout k k0 , Xk 4 ln k. Bt = 0. 10. Dduire des questions prcdentes que lim t!1 t
129
0.5
-0.5
F IG . 8.1 Principe de rexion Soit B = (Bt , t 0) un mouvement brownien standard valeurs dans R issu de 0 sous la probabilit P. On note St = sup{Bu ; u [0, t]}. La loi de St On a P[St a] = P[St a, Bt a] + P[St > a, Bt < a] = P[Bt a] + P[St > a, Bt < a]. On note Ta = inf{t 0; Bt = a}. 1. Montrer, en utilisant la proprit de Markov forte que P[St a, Bt < a] = 1 P[Ta t]. 2 2. Vrier que P[St a] = P[Ta t]. 3. En dduire que t x St et |Bt | ont mme loi. Les deux processus |B| et S = (St , t 0) ont-ils mme loi ? 4. Donner un quivalent de P[Bs 1; s t] quand t . 5. Montrer que le processus Xt = Bt si t Ta Xt = 2a Bt si t > Ta , est un mouvement brownien. 6. Pour a b et b > 0, montrer que P[St > b, Bt < a] = P[Bt < a 2b]. 7. En dduire la loi du couple (St , Bt ). 8. Calculer et reconnatre la loi de St Bt t x. 9. Calculer et reconnatre la loi de 2St Bt t x.
130
10. Montrer que Ta et a2 T1 ont mme loi. 11. Montrer que T1 a mme loi que jB1 j2 . 1 12. Calculer la densit de la loi de Ta . 13. Calculer la transforme de Laplace de Ta (E[e-Ta ] pour 0) en utilisant la densit de Ta ou les martingales browniennes exponentielles.
Bibliographie
[AS70] M. Abramowitz et I.A. Stegun, editeurs. Handbook of Mathematical Functions. Dover, 9th edition, 1970. [Bou86] N. Bouleau. Probabilits de lIngnieur. Hermann, 1986. [Bou88] N. Bouleau. Processus Stochastiques et Applications. Hermann, 1988. [Bre68] Breiman, L. Probability. Addison-Wesley, 1968. [DCD82] D. Dacunha-Castelle et M. Duo. Probabilits et statistiques, tome 1, Problmes temps xe. Masson, 1982. [DCD83] D. Dacunha-Castelle et M. Duo. Probabilits et statistiques, tome 2, Problmes temps mobile. Masson, 1983. [Fel66] Feller, W. An introduction to probability theory and its applications. Vol. II. New York-London-Sydney, 1966. [Fel68] Feller, W. An introduction to probability theory and its applications. I. New YorkLondon-Sydney, 1968. [Gar88] T. Gard. Introduction to Stochastic Differential Equation. Marcel Dekker, 1988. [GS80] I.I. Gihman et A.V. Skorohod. Introduction la Thorie des Processus Alatoires. Mir, 1980. [Knu81] D.E. Knuth. The Art of Computer programming, Vol. 2, Seminumerical Algorithms. Addison-Wesley, 1981. [KS88] I. Karatzas et S.E. Shreve. Brownian Motion and Stochastic Calculus. Springer-Verlag, New-York, 1988. [LE90] P. LEcuyer. Random numbers for simulation. Communications of the ACM, 33, 10 1990. [Nev72] J. Neveu. Martingales temps discret. Masson, 1972. [RW87] L.C.G. Rogers et D. Williams. Diffusions, Markov Processes and Martingales, Tome 2, It Calculus. John Wiley and Sons, New York, 1987. [RY90] A. Revuz et M. Yor. Continuous Martingale Calculus. Springer-Verlag, 1990. [Wil91] D. Williams. Probability with martingale. Cambridge Mathematical textbooks. Cambridge University Press, 1991.
131
Index
Convergence en loi, 20 convergence domine esprance, 131 intgration, 142 srie, 140 Esprance conditionnelle, 51 Proprits, 53 Fonction caractristique, 14 Fonction de rpartition, 14 Gaussienne, 14 simulation, 18 Loi forte des grands nombres, 18 Thorme de convergence monotone, 12 de Lebesgue, 13 Tribu, 9 Variables alatoires, 9 Variance, 15
132