Professional Documents
Culture Documents
Indice
Introduzione
iv
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
per variabili aleatorie
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
4 Martingale
4.1 Esempi di martingale e di submartingale . . . . . . . . . . . . . .
4.2 Decomposizione di Doob . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Applicazioni: verso lintegrale stocastico a tempo continuo
4.3 Martingale, submartingale e tempi darresto . . . . . . . . . . . .
4.3.1 Tempo continuo . . . . . . . . . . . . . . . . . . . . . . .
4.4 Alcune propriet`
a dei tempi darresto . . . . . . . . . . . . . . . .
4.5 Caso a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Applicazione: la rovina del giocatore con le martingale . . . . .
4.7 Disuguaglianza di Kolmogorov per submartingale non negative .
4.8 Convergenza di martingale . . . . . . . . . . . . . . . . . . . . . .
4.9 Disuguaglianza di Doob . . . . . . . . . . . . . . . . . . . . . . .
4.10 Estensioni alle martingale a tempo continuo (cenni)*** . . . . .
4.11 Processi misurabili e tempi darresto*** . . . . . . . . . . . . . .
. . .
. . .
***
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
2
7
8
10
12
14
16
20
.
.
.
.
.
.
.
.
.
27
27
30
32
34
37
41
42
42
44
47
. 47
. 49
. 56
. . . . . . .
. . . . . . .
. . . . . . .
di quadrato
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
58
59
63
65
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
68
69
75
79
85
86
87
88
90
92
92
94
95
96
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ii
MPEF 01-07-2009
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
98
98
99
103
104
107
108
109
113
114
119
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
122
122
123
125
126
129
133
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
140
140
140
142
142
144
150
151
151
153
153
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
di Esscher .
. . . . . . . . .
. . . . . . . .
. . . . . . . .
modello CRR
. . . . . . . .
. . . . . . . .
. . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
156
. . . . . . . 156
dimensionali161
. . . . . . . 162
. . . . . . . 162
. . . . . . . 165
. . . . . . . 167
. . . . . . . 170
. . . . . . . 173
. . . . . . . 176
. . . . . . . 179
. . . . . . . 185
. . . . . . . 186
. . . . . . . 187
. . . . . . . 188
9 Propriet`
a del moto browniano
9.1 Trasformazioni del moto browniano . . . . . . . . .
9.2 Propriet`a di Markov forte per il processo di Wiener
9.3 Principio di riflessione . . . . . . . . . . . . . . . .
9.4 Tempi di uscita da una striscia . . . . . . . . . . .
9.5 Integrale stocastico: cenni . . . . . . . . . . . . . . .
9.5.1 Processi elementari . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
191
191
191
193
195
198
198
MPEF 01-07-2009
9.6
9.7
iii
Bibliografia
211
iv
MPEF 01-07-2009
Introduzione
Questi appunti sono una raccolta di vari appunti, scritti durante vari anni di insegnamento di corsi universitari
sui processi aleatori. E questo spiega la ancora non completa coerenza della presentazione degli argomenti.
Nella preparazione delle lezioni ho utilizzato diversi testi e i principali sono il testo di P. Baldi [1] e quello di A.
N. Shiryaev [17]. Ma andrebbero citati anche altri testi, come ad esempio il testo di L. Breiman [6] e i testi di S.
Ross [14] e [15]. Inoltre, in particolare per le parti dedicate agli esempi in finanza, ho utilizzato, rimaneggiandole,
anche alcune parti delle tesi di laurea di due studentesse Valeria Belleudi e Stefania Latella, che ringrazio per
il lavoro svolto. Questo spiega la grande discontinuit`a di stile delle varie parti di questi appunti.
A partire dallanno accademico 2003/04 il corso di Metodi Probabilistici per lEconomia e la Finanza `e
divenuto un corso complementare della laurea triennale in Matematica, di conseguenza si `e posto il problema
di riuscire a presentare argomenti come il valore atteso condizionato e le martingale in modo che uno studente
con un bagaglio minimo di conoscenze in probabilit`a possa ugualmente capire lutilit`a di questi concetti e le
sue applicazioni in finanza. Lo sforzo principale fatto consiste appunto in questo tentativo, ma per ora si tratta
solo di un tentativo preliminare.
Nonostante ci`
o rimangono nel testo alcune note che erano state scritte per studenti con un bagaglio di
conoscenze pi`
u elevato, quelle parti per`
o non sono state ancora riguardate.
Notazioni: I capitoli, o le sezioni, con il segno r contengono richiami di nozioni di base di teoria delle
probabilit`a, mentre i capitoli, o le sezioni, con il segno contengono argomenti di approfondimento.
Programma per lanno accademico 2003/04: I capitoli, le sezioni, singoli teoremi o dimostrazioni con il
segno non sono in programma per lanno accademico 2003/04.
Si ricorda che per la preparazione allesame si richiedono anche alcuni elementi di Matematica Finanziaria
(che corrispondono ai capitoli 4 e 5 del testo di Ross [15]), lenunciato del teorema dellarbitraggio, con
relative applicazioni e lo studio elementare del modello binomiale multiperiodale (Cox, Ross e Rubistein) (che
corrispondono alle sezioni 6.1 e 6.2 del testo di Ross [15] e ai capitoli 1 e 2 del testo di Bjork [4]). Infine si richiede
la trattazione elementare del moto browniano geometrico e la formula di Black e Scholes (che corrispondono al
capitolo 3 e alle sezioni 7.1 e 7.2 del testo di Ross [15]).
Programma per lanno accademico 2004/05: Rispetto allo scorso anno manca la parte sui processi a
tempo continuo. Rimangono validi i richiami dei testi di Bjork [4] e di Ross [15], ma in queste note compaiono
anche alcuni dei temi che prima erano affrontati solo in quei testi.
Programma per lanno accademico 2005/06 e 2006/07: Si tratta di studiare i capitoli 1-6, con lesclusione
delle parti con il segno . Si noti che `e stata aggiunta la sezione 6.3 sugli alberi binomiali. Inoltre, oltre ad
alcune parti di elementi di matematica finanziaria (testo base il Ross) si richiede di studiare lapprossimazione
del modello di Black e Scholes (le note di questa parte sono su un file a parte).
Programma di massima, per lanno accademico 2007/08: Si tratta di studiare i capitoli 1-7, con
lesclusione delle parti con il segno (il capitolo 7 contiene lapprossimazione del modello di Black e Scholes).
Inoltre, sono necessarie alcuni di elementi di base di matematica finanziaria (testo di riferimento il Ross).
Si noti che lappendice sulle variabili Gaussiane multidimensionali `e stata spostata nel Capitolo 2, Sezione 2.5.
ATTENZIONE: I capitoli, le sezioni, singoli teoremi o dimostrazioni con il segno non sono in programma.
Per una versione aggiornata dei capitoli 8, 9, si faccia riferimento agli appunti per il corso di Dottorato Metodi
probabilistici per le equazioni alle derivate parziali (A.A. 2007-08).
Capitolo 1
prima parte `
e basata principalmente sul testo di Shiryaev [17].
termine portafoglio (portfolio) significa nei modelli base la suddivisione tra investimenti e risparmio, con eventuali altre
restrizioni, come ad esempio limiti superiori od inferiori delle quantit`
a investite. In modelli pi`
u complessi pu`
o riguardare anche le
quantit`
a utilizzate in consumo.
2 Il
MPEF 01-07-2009
opzioni
contratti future
warrants
swaps
combinazioni
etc.
Notiamo che lingegneria finanziaria `e spesso pensata come la manipolazione dei derivati per aumentare
il capitale e ridurre il rischio causato dallincertezza della situazione del mercato nel futuro.
1.1
Mercati Finanziari
1 Denaro Si tratta di un meccanismo che permette di commerciare cose/beni che si hanno in modo da
ottenere poi cose/beni che si desiderano. Al momento attuale monete e banconote sono solo una piccola
parte del denaro esistente. La maggior parte dei pagamenti viene effettuata tramite assegni o per via
telematica (bancomat, carte di credito, web-banking, ...). Oltre alla funzione di mezzo di circolazione il
denaro ha un ruolo importante anche come mezzo di valutazione e come mezzo di risparmio.
2 Moneta, Cambio, Numerario Le riserve di moneta di altri paesi, i tassi di cambio, etc. sono
unindicatore importante del benessere di una nazione, del suo sviluppo; inoltre `e spesso un mezzo di
pagamento per il commercio con lestero.
Nellambito della storia dei cambi di valuta spesso si sono avuti accordi internazionali e unioni monetarie.
Ad esempio a Bretton-Woods (New Hampshire, USA) nel 1944 si svolse una famosa conferenza durante
la quale si decise il sistema di credito e di valuta del mondo occidentale, in particolare i tassi di cambio
delle valute coinvolte potevano variare solo del 1% rispetto a quelli ufficiali. In quella occasione fu istituito
la Fondazione Monetaria Internazionale (International Monetary Foundation, IMF). Laccordo rimase in
vigore fino alla crisi petrolifera e alla crisi monetaria del 1973, che coinvolse il dollaro statunitense, il marco
tedesco e lo yen giapponese. Nel 1979 furono poste le basi per lUnione Monetaria Europea (il famoso
Serpentone: venne stipulato un patto secondo il quale le variazioni dei tassi di cambio potevano variare
in una fascia del 2.25%. Per ottenere questo risultato le banche centrali nazionali dovevano intervenire
per assicurare la stabilit`
a dei tassi di cambio. Successivamente si `e arrivati alla moneta unica: a partire
dalla fine del 2001, nei paesi dellUnione Europa circola leuro.
3 Metalli Preziosi Si tratta di oro, argento, platino e altri (iridio, palladio, osmio, rodio, rutenio). Hanno
avuto un ruolo importante nel passato, specialmente nel 19 simo secolo, ma hanno ancora un ruolo ai
nostri giorni nel sistema del credito internazionale e del cambio di valute.
Un po di storia: si pu`
o considerare che let`a delloro sia iniziata nel 1821, anno in cui il governo britannico
proclam`o la convertibilit`
a in oro della sterlina. Poco dopo anche gli Stati Uniti fecero lo stesso con il dollaro
(as good as gold). Lo standard delloro ebbe il suo apice tra il 1880 e il 1914, ma dopo la prima guerra
mondiale non recuper`
o pi`
u il suo status. Le sue tracce si persero definitivamente quando Nixon nellagosto
del 1971 dichiar`
o formalmente la fine della convertibilit`a in oro del dollaro3 .
3 In realt`
a dopo la crisi del 1929, e precisamente nel 1934, il governo degli USA dichiar`
o che unoncia (28, 35 grammi) doro valeva
35 dollari. Cos` rimase formalmente fino al 1971, anche se gi`
a da tempo era chiaro che i dollari in circolazione erano molti di pi`
u
di quelli che si sarebbero potuti convertire in oro con le riserve di questo metallo prezioso in possesso degli USA. La dichiarazione
di Nixon, che va ricordato anche come il presidente che gest` la fine della guerra in Vietnam, ebbe forti ripercussioni su tutta
leconomia mondiale, e port`
o ad una svalutazione del dollaro e ad una conseguente impennata dei prezzi del petrolio, forse anche
maggiore di quella che stiamo vivendo in questo periodo (autunno 2004). La svalutazione del dollaro comport`
o la svalutazione delle
altre monete, in particolare della lira, legata al dollaro dopo che il piano Roosevelt aveva permesso allItalia di riprendersi dopo la
MPEF 01-07-2009
4 Conto bancario Un conto bancario (bank account) `e un titolo (o una security) dello stesso tipo dei
buoni4 , in quanto si riduce allobbligo da parte della banca di pagare certi interessi sulla somma che `e
stata messa sul conto. I conti in banca sono convenienti come misura dei prezzi di varie altre security. Si
distinguono vari tipi di interesse
interesse semplice a tasso
u
r significa che se oggi ho la cifra x0 dopo n anni avr`o la stessa cifra pi`
n r x0 , cio`e x0 1 + n r . Sostanzialmente `e quello che accade se ogni anno gli interessi vengono
ritirati e non rimessi sul conto in banca.
interesse composto Se invece gli interessi venissero messi sul conto si avrebbe la seguente tabella
0
x0
x1 = x0 1 + r
x0
x1 = x0 1 + r
x2 = x1 1 + r
2
x2 = x0 1 + r
k
xk = xk1 1 + r
k
xk = x0 1 + r
n
xn = xn1 1 + r
n
xn = x0 1 + r
dove x0 rappresenta il valore inizialmente (t = 0) depositato, (ovvero allinizio del primo periodo
cio`e per 0 t < 1) x1 rappresenta lammontare dalla fine del primo periodo allinizio (escluso) del
secondo periodo (cio`e per 1 t < 2), mentre xk rappresenta lammontare dalla fine del k simo
periodo alla sua fine (cio`e per k t < k + 1).
interesse composto (m volte in un anno) a tasso (nominale) r significa che gli interessi sono
versati sul conto alla fine di ogni periodo di durata lm sima parte di anno, ovvero alla fine del
primo periodo si avr`
a x0 (1 + r/m), alla fine del secondo periodo si avr`a x0 (1 + r/m)2 , e alla fine
dellh simo periodo si avr`
a x0 (1 + r/m)h . Se non vengono effettuati prelievi la quantit`a di denaro
al tempo t = N + k/m, ovvero dopo N anni e k periodi di un m simo di anno, cio`e dopo N m + k
periodi, si avr`
a sul conto la quantit`a
(m)
xt
(1.1)
seconda guerra mondiale. Anche linflazione era impressionante: dellordine del 17% annuo. La crisi fu tale che furono inventate le
domeniche a piedi: ma non per motivi ecologici (la parola ecologia non era entrata ancora nelluso comune), bens` per cercare di
risparmiare sul consumo del petrolio e di conseguenza di diminuire nel bilancio dello stato la voce dei pagamenti allestero. La fine
della convertibilit`
a del dollaro ebbe come conseguenza una forte instabilit`
a dei prezzi e fu uno dei motivi per cui nacque lesigenza di
avere delle coperture finanziarie contro la grande variabilit`
a dei prezzi. Per dare ancora unidea delle fluttuazioni si tenga presente
che prima del 1971 il dollaro veniva scambiato a 600 lire, mentre nel giro di poco tempo (non so precisare al momento quanto
tempo) il cambio si aggirava attorno al doppio. Comunque per essere pi`
u precisi si pu`
o considerare che loro pass`
o dai 35 dollari
per oncia del periodo 1934 1971 al massimo di 570 dollari per oncia del 1980. Successivamente precipit`
o ai 308 dollari per oncia
del 1984, per poi continuare ad oscillare tra i 300 e i 400 dollari.
Pu`
o essere interessante riportare i 10 punti con cui Nixon diede lannuncio il 15 agosto 1971 (come riportato dai giornali italiani
dellepoca):
1 Sospensione temporanea della convertibilit`
a in oro del dollaro, eccezion fatta per le operazioni che saranno di interesse per gli
Stati Uniti.
2 Gli Stati Uniti chiederanno al Fondo Monetario Internazionale il varo di un nuovo sistema monetario internazionale e terranno
in sospeso la convertibilit`
a in oro fino a quando non si saranno trovati adeguati accordi.
3 Sar`
a introdotta una tassa temporanea del 10% su tutte le importazioni negli Stati Uniti.
4 Saranno congelati per tre mesi prezzi, stipendi, affitti e dividendi.
5 Sar`
a abrogata la sovrattassa del 7% sullacquisto di vetture nuove nazionali o straniere.
6 Saranno anticipate al gennaio 1972 le riduzioni fiscali gi`
a previste per il gennaio 1973.
7 Sar`
a richiesto al Congresso di approvare un piano per lestensione della mano dopera, con la possibilit`
a di riduzione delle tasse
per coloro che seguiranno questa idea.
8 Ricerche e sviluppo tecnologico e industriale saranno stimolati e incoraggiati.
` previsto un risparmio di 4 miliardi e 700 milioni nelle spese federali, comprese alcune limitazioni negli aumenti degli stipendi
9 E
degli impiegati.
` prevista una riduzione del 10% degli aiuti americani allestero.
10 E
4 Si
veda pi`
u avanti una brevissima spiegazione sui buoni.
MPEF 01-07-2009
` interessante notare che alla fine dellanno, cio`e dopo m periodi, si ha a disposizione la cifra di
E
x0 (1 + r/m)m . Si pu`
o quindi definire (e calcolare) il tasso semplice effettivo ref
f (m) equivalente
al tasso r composto su m periodi in un anno come quel valore ref f (m) tale che:
m
m
1
ref
1 + ref
f (m) = 1 + r/m
f (m) = 1 + r/m
interesse composto a tempo continuo5 Nel caso in cui il numero di periodi per anno tende ad
infinito, ovvero nel caso in cui gli interessi vengono pagati con scadenze cos` ravvicinate da poter
essere pensate in tempo continuo appare naturale che al tempo t vada considerato il valore definito
da
(m)
xt := lim xt
m
(m)
(m)
xt =
(m)
lim x
m bmtc/m
m
= lim 1 + r/m
bmtc/m
= ert .
Anche in questo caso si possono definire dei tassi equivalenti: ad esempio, dato il tasso nominale a
tempo continuo rc esiste un tasso (nominale) di interesse annuale r(m)(= r(m, rc ) composto in m
periodi, equivalente al tasso nominale a tempo continuo rc , ovvero tale che
m
x1 = x0 erc = x0 1 + r(m)/m r(m) = m erc /m 1 .
La formula inversa, cio`e la formula che, dato il tasso di interesse r(m) composto in m periodi,
permette di ottenere il valore del tasso r = rc (r(m)) a tempo continuo corrispondente `e ovviamente
r = m log 1 + r(m)/m .
Vale la pena di sottolineare il caso in cui m = 1, che corrisponde al tasso (effettivo) di interesse
semplice r(1) = r (sempre su base annua), in cui le due formule diventano
r = er 1,
r = log 1 + r ,
Infine va ricordata anche la definizione di tasso di sconto q (su base annua), ovvero quella quantit`a
q che permette di calcolare la somma B0 che devo mettere in banca oggi, se voglio ottenere tra un
anno la somma B1 , attraverso la formula
B0 = B1 1 q .
Tenendo conto che B1 = B0 1 + r si ottiene che
1 q 1 + r = 1,
(1.2)
5 In questo paragrafo consideriamo solo il caso in cui il tasso rimane costante per tutto il periodo al quale siamo interessati. Per
il caso in cui il tasso varia nel tempo, in modo deterministico, si veda lappendice a questa sezione.
6 Infatti il valore della funzione s 7 x(m) `
e costante sugli intervalli di tempo del tipo [k/m, (k + 1)/m). Dato t si tratta di trovare
s
k = k(t) per il quale valga che t [k/m, (k + 1)/m), ovvero per il quale k/m t < (k + 1)/m, chiaramente k(t) = bm tc, la parte
intera inferiore di t. Per quel che segue `
e poi utile notare che
0 t bm tc/m =
m t bm tc
< 1/m
m
e che quindi
t = lim bm tc/m.
m
MPEF 01-07-2009
ovvero7
q =
r
,
1 + r
r =
q
1 q
5 Buoni ***(DA RIVEDERE) I buoni (o bond) sono obbligazioni emesse da un governo, o da una
corporazione, da una banca, o da unaltro ente finanziario per aumentare il proprio capitale. I buoni sono
molto popolari in alcuni paesi, in particolare perche impegnano lente che li emette ad uno scadenzario
prefissato in modo deterministico: il compratore paga inizialmente il prezzo (iniziale) del buono, e
linteresse gli viene pagato dallente emittente con scadenze regolari (in cedole), mentre il pagamento
dellintero prestito `e garantito ad una scadenza prefissata (maturit`a). Esistono anche buoni senza cedole
(zero coupon bond), tipicamente con maturit`a breve. Si considera quindi linvestimento in buoni un
investimento senza rischio8 .
Per caratterizzare un buono servono delle caratteristiche numeriche (caso a tempo discreto, con cedole
costanti, emesso al tempo t = 0):
valore facciale (face value) P (T, T )
maturit`
a (maturity date) T
breve termine (short term) da 3 mesi a 1 anno
medio termine (middle term) da 2 a 10 anni
lungo termine (long term) oltre 30 anni
tasso di interesse, o rendimento (nominale???) del buono (coupon yield) rc che permette di
calcolare il valore di ciascuna cedola9 : Ck = rc P (T, T ), per k = 1, 2, ..., T
prezzo iniziale (original price) P (0, T ), che `e il prezzo pagato al tempo t = 0
valore di mercato(market value) P (t, T ), che `e il valore del contratto al tempo t (0, T ) e che
pu`o variare in modo aleatorio (a causa di vari fattori economici: domanda/offerta e viene di solito
modellato come un processo aleatorio)
rc P (T, T )
, che `e il rapporto tra il valore di una
rendimento corrente (current yield) rc (t, T ) =
P (t, T )
cedola rispetto al valore di mercato del buono al tempo t, e che `e importante per comparare i valori
di buoni differenti.
rendimento alla maturit`
a (yield to maturity), su base percentuale (T t, T ), che `e definito10
7E
` interessante notare che se il tasso di sconto viene aumentato di allora il tasso di interesse corrispondente passa dal valore
q
r(
q ) = 1
al valore
q
d
q
1
q +
= r(
q) +
+ o() = r(
q) +
+ o().
r(
q + ) =
1 q
dq 1 q q=
(1 q)2
q
Inoltre va sottolineato che la relazione (1.2) va pensata come una definizione del tasso di sconto. Inoltre in tutta la trattazione
precedente si `
e considerato che il tasso di credito e quello di prestito sono gli stessi, ovvero non abbiamo considerato il segno di x0 .
Ci`
o non `
e vero di solito nella realt`
a: la banca prevede un tasso di interesse se depositate delle somme di denaro (cio`
e se x0 > 0),
mentre prevede un tasso di interesse diverso (e pi`
u elevato) se siete creditori di somme di denaro nei confronti della banca (cio`
e se
x0 > 0). Comunque per semplicit`
a di trattazione, di solito si ammette che i due tassi coincidano.
8 Ovviamente c`
e il rischio di insolvenza (o default risk), dovuto alla possibilit`
a che lente che ha emesso il buono fallisca e non
ottemperi limpegno preso. Ovviamente i buoni emessi dai governi sono in genere meno esposti al rischio di credito rispetto ai buoni
emessi da ditte, ma ovviamente ci sono controesempi clamorosi (si veda il caso dellArgentina).
Questo tipo di rischio `
e di tipo diverso da quello dovuto alle fluttuazioni del mercato: si tratta di rischio di credito, dovuto
allincertezza sulla solidit`
a dellente emittente, e non di un rischio dovuto al fatto che il contratto stesso riguarda quantit`
a aleatorie,
come invece accade nel caso delle azioni o delle opzioni. Il rischio di credito `
e presente quando vengono comperate delle azioni: `
e
possibile che la corporazione che le emette fallisca e, in questo caso, le azioni potrebbero perdere parzialmente o del tutto il loro
valore (si vedano il caso Cirio e Parmalat).
9 Il tasso r va inteso come tasso annuale se le cedole sono staccate alla fine di ogni anno, trimestrale, se vengono staccate alla
c
fine di ogni trimestre, o mensile se vengono staccate alla fine di ogni mese, e cos` via
10 E
` da ricordare che T t va inteso come tempo di vita residuo del buono, o tempo residuo alla maturit`
a e da osservare che nel
caso in cui fosse P (t, T ) = P (T, T ) allora = rc `
e lunica soluzione di
1=
T
t
X
k=1
rc 1
1
+
.
(1 + )k
(1 + )T t
MPEF 01-07-2009
T
t
X
k=1
P (T, T )
rc P (T, T )
+
.
(1 + )k
(1 + )T t
In altre parole (T t, T ) `e definito come il tasso di rendimento interno del flusso dei pagamenti
residui.
Infine va sottolineato che poiche dato P (t, T ) si ricava (T t, T ) e viceversa11 , la descrizione aleatoria
(la modellizzazione) del valore di mercato di un buono pu`o essere fatta a partire dalla struttura
temporale di (T t, T ) invece che di P (t, T ). La descrizione attraverso il valore di mercato P `e
detta diretta, mentre la descrizione attraverso `e detta indiretta.
6 Azioni (Stock o Share) Come gi`
a detto le azioni, come i buoni, sono emesse da compagnie per aumentare
il capitale. Anche se esistono diversi tipi di azioni, i tipi principali sono due: azioni ordinarie (equity
e common stock) e azioni preferenziali (preferred stock). Le differenze sono nel tipo di rischio e nel
pagamento dei dividendi:
chi possiede azioni ordinarie ottiene come dividendi la sua parte dei profitti della compagnia, e il
loro ammontare dipende dal suo successo finanziario, mentre se la ditta fallisce perde tutto il suo
investimento;
chi possiede azioni preferenziali ha minor rischio di perdere tutto, i suoi dividendi sono garantiti, ma
non aumentato con i profitti della compagnia.
Di solito per`
o linvestitore, cio`e colui che compra azioni, ma ci`o vale anche per i bond, `e attratto pi`
u che
dai dividendi, dalla opportunit`
a di fare soldi dalle fluttuazioni dei prezzi delle azioni, ovvero di comprare
a un prezzo basso (prima degli altri) e vendere ad un prezzo alto (sempre prima degli altri12 )
7 Mercati dei derivati (DA RIVEDERE) Questi mercati ebbero grande espansione allinizio degli anni
settanta del ventesimo secolo. Fino al decennio precedente i cambi erano stati stabili e la volatilit`a
del mercato era bassa. La situazione cambi`o radicalmente13 e questo caus`o linteresse verso strumenti
finanziari14 che permettevano di coprirsi contro i rischi di inflazione, i cambi sfavorevoli e la grande
volatilit`a dei mercati finanziari. Nel paragrafo 1.2 vedremo un esempio che illustra il tipo di problemi che
possono essere affrontati con questo tipo di strumenti.
11 Esistono buoni con interessi composti, trimestralmente, mensilmente o anche a tempo continuo, di cui viene dato il tasso
nominale rc annuo. Ovviamente di questo fatto va tenuto conto nel momento in cui si definisce la relazione che lega P (t, T ) e
(T t, T ).
12 Va tenuta presente la legge di mercato, che vale per ogni tipo di merce: se un prezzo `
e basso, la domanda (di comprare)
aumenta, e se la domanda aumenta allora il prezzo sale, mentre, viceversa, se il prezzo `
e alto, lofferta aumenta, e se lofferta
aumenta, allora il prezzo scende.
13 Tra le motivazioni di questi cambiamenti vanno ricordate le seguenti:
i. il passaggio dal cambio fisso al cambio fluttuante, a seguito della crisi monetaria del 1973,
ii. la svalutazione del dollaro rispetto alloro (1971), che invece dal 1934 era sempre stato scambiato a 35 dollari per oncia,
iii. la crisi mondiale del petrolio provocata dalla politica dellOPEC, la comunit`
a economica dei paesi produttori di petrolio, che
divenne il principale price maker del petrolio,
iv. il declino dei mercati azionari (negli USA il declino era stato pi`
u forte che durante la crisi degli anni trenta, la Grande
Depressione)
14 I primi strumenti furono le opzioni (insieme anche ai futures) Tali titoli derivati erano presenti sui mercati non ufficiali (over
the counter), ma il primo mercato ufficiale specializzato in opzioni fu il Chicago Board Option Exchange (CBOE) aperto il 26 aprile
del 1973. Nel primo giorno di apertura furono trattati 911 contratti di opzioni, mentre appena un anno dopo il numero di opzioni
scambiate giornalmente era di 20 000, tre anni pi`
u tardi di 100 000, e 700 000 nel 1987. Per capire le dimensioni del fenomeno va
ricordato che ogni contratto riguardava 100 azioni e quindi gli scambi giornalieri riguardavano opzioni su 70 milioni di azioni, cio`
e
poco pi`
u di un terzo dei 190 milioni di azioni scambiate giornalmente nel New York Stock Exchange (NYSE) nello stesso anno.
Il 1973 va ricordato anche per essere lanno in cui furono pubblicati due articoli fondamentali, uno di Black e Scholes [5] e laltro
di Merton [11], che influenzarono notevolmente i metodi di prezzaggio.
MPEF 01-07-2009
D(t + h) D(t)
= D(t) r(t).
h
ovvero
Con un semplice passaggio al limite per h che tendo a zero16 si ottiene che la condizione (1.3) equivale allesistenza
della derivata di D(t) e al fatto che
d
D(t) = D(t) r(t)
dt
equivale a dire che D(t) `e soluzione di una equazione differenziale (lineare omogenea a coefficienti non costanti)
e pi`
u precisamente del problema di Cauchy
(
x(t)
(1.5)
t0
Z
D(t) = D0 exp
r(s) ds .
di conseguenza, ragionando come nel caso a tempo continuo18 , si ha che il valore attualizzato (al tempo t = 0)
di una cifra D che verr`
a data al tempo t si pu`
o esprimere come
Z t
D exp
r(s) ds
0
` interessante notare che nellottenere lequazione differenziale per D(t) abbiamo ipotizzato implicitamente
E
che i soldi depositati non fossero prelevati per costi o consumi, e che inoltre abbiamo ipotizzato che non venissero
15 La
D(t + h) = D(t) + D(t) r(t) h + o(h) = D(t) 1 + r(t) h + o(h).
16 Si
da cui immediatamente
D(t)
= D exp
0
r(s) ds .
MPEF 01-07-2009
effettuati neanche ulteriori depositi dovuti a entrate (o income) di alcun tipo. Se invece prelievi e ulteriori
depositi fossero ammessi, ovviamente bisognerebbe tenerne conto. E in tale caso, se I(t) rappresenta il totale
delle entrate fino al tempo t, e C(t) il totale dei consumi effettuati fino al tempo t, allora si ha che, sempre
nellintervallo [t, t + h] le entrate totali sono I(t + h) I(t), mentre le uscite sono C(t + h) C(t). Se le funzioni
I(t) e C(t) sono derivabili con derivata i(t) e c(t) rispettivamente, allora19
D(t + h) =D(t) + D(t) r(t) h + I(t + h) I(t) C(t + h) C(t)
D(t) + D(t) r(t) h + i(t) h c(t) h.
Procedendo come nel caso precedente si ottiene che in questo caso D(t) soddisfa unaltra equazione differenziale
(lineare non omogenea a coefficienti non costanti)
d
D(t) = D(t) r(t) + i(t) c(t),
dt
e pi`
u precisamente D(t) `e soluzione del problema di Cauchy
(
x(t)
(1.6)
x(t) = exp
t0
Z t
n R
o
t
(s) ds
x0 +
(s) exp s (u) du ds
(1.7)
t0
x(t0 ) = x0 .
19 Nellequazione per il calcolo di D(t + h) abbiamo trascurato lapporto degli interessi maturati nellintervallo [t, t + h] per via
delle ulteriori entrate e quelli dovuti alla banca per via delle spese effettuate. Del resto nelle ipotesi di regolarit`
a per le funzioni
I(t) e C(t), si ha che
I(t + h) I(t) i(t) h e C(t + h) C(t) c(t) h,
da cui le corrispondenti somme di denaro a credito e a debito dovuti agli interessi maturati sono rispettivamente
I(t + h) I(t) r(t) h i(t) h r(t) h e
C(t + h) C(t) r(t) h c(t) h r(t) h.
Si tratta quindi di infinitesimi dellordine di h2 , e quindi sono trascurabili nei passaggi successivi.
20 Il fatto che (1.7) sia soluzione del problema di Cauchy (1.6), si pu`
o verificare per calcolo diretto.
MPEF 01-07-2009
dx(s)
=
x(s)
t0
(s) ds
t0
m
Z t
(s) ds
d log x(s) = log x(t) log x(t0 ) =
t0
t0
Z
(s) ds
x(t) = x0 exp
t0
xo (t) := exp
(s) ds
t0
10
MPEF 01-07-2009
C(t0 ) xo (t0 ) = x0
Di conseguenza, integrando tra t0 e t si ottiene
Z s
Z t
C(t) C(t0 ) =
(s) exp
(u) du
t0
C(t) = x0 +
t0
Z
(s) exp
t0
(u) du ,
t0
x0 +
Z
(s) exp
t0
ovvero
Z
t0
(u) du
Z
exp
(u) du ,
t0
t0
(u) du x0 +
x(t) = exp
Z t
(s) exp
(u) du ds.
t0
1.2
Si consideri una compagnia italiana, la GPR, che oggi (denotato come tempo t = 0) ha firmato un contratto
con la controparte americana BCG. Il contratto stipulato prevede che esattamente fra sei mesi (denotato come
tempo t = T ) la BCG invii alla ditta italiana 1000 computer, il contratto prevede anche che la ditta italiana
GPR paghi 1000 dollari USA per ogni computer. Diamo anche come informazione21 che il cambio euro/dollaro
`e 0, 80 euro per un dollaro22 .
Il problema di questo contratto, dal punto di vista della ditta italiana, sta nel rischio dovuto al cambio:
nonostante si sappia che deve pagare 1 000 000 $, non si sa quale sar`a il cambio tra sei mesi, di conseguenza
la GPR non sa esattamente quanto dovr`
a pagare in euro per i computer. Ad esempio se dovesse pagare tutto
subito, cio`e al tempo t = 0, allora dovrebbe pagare
1000 1000 $ 0, 80 euro/$ = 800 000 euro.
Se invece tra sei mesi, cio`e al tempo t = T , il cambio fosse, sempre ad esempio, di 0, 85 euro per un dollaro,
allora la ditta GPR dovrebbe pagare
1000 1000 $ 0, 85 euro/$ = 850 000 euro.
Per questo motivo la GPR deve affrontare il problema di come coprirsi contro il rischio dovuto al cambio.
Di seguito diamo alcune strategie naturali:
1 Una strategia nave potrebbe essere quella di comprare oggi i 1 000 000 $ con 800 000 euro, e tenere questi
dollari bloccati. Il vantaggio di questo procedimento sta nel fatto che elimina completamente il rischio del
cambio, ma c`e qualche grave controindicazione: prima di tutto si blocca una ingente somma di denaro
per un periodo abbastanza lungo, in secondo luogo potrebbe anche darsi il caso che al tempo t = 0, la
ditta italiana non possegga affatto il denaro necessario per effettuare questo tipo di operazione.
2 Una soluzione pi`
u sofisticata, e che non richiede alcun esborso di denaro al tempo t = 0, consiste nel
fatto che la GPR vada sul mercato dei contratti forward per 1 000 000 $, con scadenza a sei mesi. Un tale
contratto pu`
o essere stipulato con una banca commerciale e prevede due punti
La banca fornir`
a alla ditta GPR 1 000 000 $, al tempo t = T .
21 Nel
MPEF 01-07-2009
11
12
MPEF 01-07-2009
tratta dellopportunit`
a di comprare qualcosa, se invece si tratta dellopportunit`a di vendere qualcosa si parla
di opzione put. Il prezzo K concordato per lacquisto o la vendita del bene viene detto prezzo di esercizio
(dellopzione) o prezzo di strike. Listante finale t = T viene detto tempo di esercizio (dellopzione) o
tempo di strike. Laggettivo europea si riferisce al fatto che lopzione pu`o essere esercitata solo alla fine
del periodo [0, T ], si parlerebbe invece di opzione americana nel caso in cui lopzione fosse esercitabile in un
istante qualunque dellintervallo di tempo [0, T ].
Il compratore del bene viene detto holder , mentre il venditore writer , inoltre si dice che lholder assume
una posizione lunga (long position), mentre il writer assume la posizione corta (short position).
Pi`
u in generale si considerano quelli che sono detti pagamenti a scadenza (o terminal pay-off ) che
corrispondono allobbligo di corrispondere una quantit`a aleatoria fT , che dipende dal valore del bene sottostante
al tempo T (anche detti plain vanilla), oppure dai valori che il bene sottostante assume durante lintervallo
di tempo [0, T ]. Per questo motivo tali tipi di obbligazioni sono detti anche derivati (o in inglese anche
contingent claim, cio`e affermazioni che dipendono dal valore contingente che assume appunto il sottostante).
1.3
Teorema dellarbitraggio
Supponiamo di avere un mercato in cui si possano verificare solo un numero finito di casi possibili (detti anche
scenari ). In altre parole supponiamo che levento certo sia finito: = {1 , 2 , 3 , ..., m }. Supponiamo
inoltre che si possano fare d + 1 scommesse. Le scommesse sono caratterizzate26 da d + 1 variabili aleatorie
0 , 1 , 2 , . . . , d nel seguente modo: se scommettiamo la quantit`a x sulla scommessa i, con i = 0, 1, 2, ..., d,
e si verifica j , allora ricaveremo27 la somma x i (j ).
Una strategia di scommessa `e un vettore x = (x0 , x1 , ...., xd ), con xi che indica la quantit`a (positiva o
negativa) relativa alla scommessa i esima.
Supponiamo che le strategie di scommessa x = (x0 , x1 , ...., xd ), con xi scommesse, godano della propriet`
a
di linearit`
a , ossia la strategia di scommessa x produce un guadagno28 pari a
d
X
xi i (j ).
i=0
Osservazione 1.1. In molti esempi la scommessa 0 corrisponde al titolo cos` detto non rischioso, come ad
esempio il deposito in banca o un titolo di tipo bond, e che viene poi usato come unit`
a di misura per tutti gli
altri beni. In alcuni casi si distingue rispetto a scommesse fatte in tempi diversi, e quindi per poter confrontare
guadagni ottenuti in tempi diversi, tali guadagni vanno attualizzati, in molte applicazioni la scommessa 0 vale
identicamente 0 (si veda la parte relativa agli esempi)
Come definizione di arbitraggio si utilizza la seguente:
26 Si
noti che se si indica con ri (j) il valore i (j ), per i = 0, 1, 2, ..., d, e j = 1, 2, ..., m, si ottengono m vettori (colonna) r(j)
d + 1-dimensionali
0
1
0
1
0
1
r0 (1)
r0 (2)
r0 (m)
B r1 (1) C
B r1 (2) C
B r1 (m) C
B
C
B
C
B
C
r(2) = B
r(1) = B
C
C r(m) = B
C,
..
..
..
@
A
@
A
@
A
.
.
.
rd (1)
rd (2)
rd (m)
o equivalentemente si ottengono d + 1 vettori (riga)
r0 = r0 (1) r0 (2) r0 (m)
r1 = r1 (1)
r1 (2)
r1 (m)
rd =
rd (1)
rd (2)
rd (m)
27 In vanno considerate incorporate sia la somma ottenuta alla fine del gioco che leventuale somma da intascare alla fine del
j
gioco.
28 Con la notazione della nota precedente il guadagno `
e pari a la prodotto scalare
x r(j) =
d
X
i=0
xi ri (j).
MPEF 01-07-2009
13
Definizione 1.1 (arbitraggio forte). Data una strategia x, si dice che questultima permette un arbitraggio
Pd
forte se a partire da un capitale iniziale nullo (cio`e se i=0 xi = 0) si pu`
o ottenere un guadagno (sempre)
Pd
strettamente positivo (ovvero i=0 xi i (j ) > 0) per ogni j = 1, 2, ..., m.
Tuttavia va detto che c`e unaltra definizione di arbitraggio, che poi utilizzeremo in seguito, con una richiesta
leggermente pi`
u debole:
Definizione 1.2 (arbitraggio debole). Data una strategia x, si dice che questultima permette un arbitraggio
Pd
se a partire da un capitale iniziale nullo (cio`e se i=0 xi = 0) si pu`
o ottenere un guadagno non negativo (ovvero
Pd
x
(
)
0)
per
ogni
j
=
1,
2,
...,
m,
ma
non
identicamente
nullo (ovvero con almeno un j {1, 2, ..., m}
i
i=0 i
Pj d
per il quale i=0 xi i (j ) > 0).
A questo punto possiamo enunciare il risultato principale di questo capitolo.
Teorema 1.1 (Teorema dellarbitraggio). In un mercato con le condizioni precedenti pu`
o verificarsi una delle
seguenti alternative29 :
su , con pj := P(
j ) > 0, per ogni j = 1, 2, ..., m, ovvero caratterizzata dal vettore
(a) esiste una probabilit`
aP
:= (
di probabilit`
ap
p1 , p2 , ...., pm ), con pj > 0, per ogni j = 1, 2, ..., m, e tale che
e i ) = 0,
E(
m
X
j=1
Pd
i=0
xi = 0 e tale che
i=0
r0i =
p
m
X
j=1
d
X
i=0
14
1.3.1
MPEF 01-07-2009
Applicazioni
Esempio 1.1. Come primo esempio di applicazione vediamo il caso delle scommesse sui cavalli30 . In una
gara ippica con n cavalli ci sono ovviamente n scommesse, ciascuna caratterizzata dal dare vincente un cavallo
diverso. Assumiamo per semplicit`
a che questa sia la sola tipologia di scommesse ammissibili. Ovviamente si ha
= {1 , 2 , ..., n } dove j corrisponde alla vincita da parte del cavallo j, e in questo caso si ha anche che il
numero delle scommesse vale n(= d + 1). Le scommesse vengono date in termini dei cos` detti odds, ovvero
si dice che sono date 1 a oi intendendo che se si scommette sul cavallo i si paga immediatamente la cifra 1,
mentre si riceve la cifra oi + 1 se solo se vince il cavallo corrispondente. Per comodit`
a di notazioni conviene
assumere che le scommesse siano indicizzate da 1 ad n invece che da 0 ad n 1, in modo che nella scommessa
i si riceva31 oi + 1 se e solo si verifica il caso i . Con questa convenzione le scommesse si possano esprimere
come
(
oi (= oi + 1 1) se j = i
i (j ) =
1
se j 6= i.
per la quale valga E(
i ) = 0 per ogni i = 1, 2, ..., n diviene
La condizione che esista una probabilit`
aP
E(i ) = oi pi + (1) (1 pi ) = 0
n
X
pj = 1,
j=1
che equivale a
pi = 1 + oi ;
n
X
1
= 1,
1+o
j=1
1
sia strettamente positiva (e sia un numero reale) corrisponde alla ovvia condizione
La condizione che pi = 1+o
i
che la quantit`
a che si riceve in caso di vincita per la scommessa i, sia strettamente positiva, ovvero
oi + 1 > 0.
Esempio
1.2. Continuando il precedente Esempio 1.1 `e interessante mostrare come, se la condizione
Pn
1
=
1 di assenza di opportunit`
a di arbitraggio non `e soddisfatta, ovvero se accade che
j=1 1+oj
O :=
n
X
j=1
1
6= 1,
1 + oj
allora si pu`
o trovare esplicitamente una strategia che permette un arbitraggio, e precisamente se si punta
xi =
1
1
,
1 O 1 + oi
per i = 1, 2, ..., n,
1
,
1 + oi
per i = 1, 2, ..., n,
allora si vince un guadagno certo (1 O). Ovviamente per ottenere che il guadagno sia positivo, il segno di
va scelto in dipendenza del segno di 1 O.
30 Questo
31 Ovvero
esempio `
e tratto dal libro di Ross [15]. Si veda anche lesempio I.5.1 del libro di DallAglio [7].
in caso di vincita si riceve 1 + oi e quindi, tenuto conto del pagamento iniziale di 1, il ricavo totale `
e di oi = (1 + oi ) 1.
MPEF 01-07-2009
15
Infatti se si verifica la vincita del cavallo j, ovvero se si verifica j , allora, tenendo presente che
j (j ) = (1 + oj ) 1 = oj ,
i (j ) = 0 1 = 1, per i 6= j,
xi i (j ) = xj j (j ) +
i=1
1,n
X
xi i (j )
i6=j
X
1
1
oj
1 + oj
1 + o`
`6=j
`6=j
!
n
X 1
X
1
1
= 1
= 1
1 + oj
1 + o`
1 + o`
= xj oj
x` =
`6=j
`=1
= (1 O) .
Osservazione 1.3. Nellesempio precedente quindi accade che un capitale iniziale
n
X
i=1
1
= O
1 + oj
1
(1 + oj ),
1 + oj
16
MPEF 01-07-2009
1.4
B0 > 0 (si
al tempo t=1
B1 = B0 (1 + r)
S0 = s0 > 0
S1 = S0 Z = s0 Z
dove A0 = Ac1 ,
se A0
se A1 ,
32 Ovviamente
al tempo t=0
0 = B0 = 1
B
B0
S0
s0
S0 =
=
B0
B0
al tempo t=1
B1
B1 =
=1
B1
S1
S1
s0 Z
S1 =
=
=
B1
B0 (1 + r)
B0 (1 + r)
i titoli sono due, e poi sono ammesse anche le combinazioni lineari delle due relative scommesse.
a corto (o short selling) significa vendere anche senza possedere lazione. La differenza tra comprare e vendere sar`
a
nel segno della strategia.
33 Vendere
MPEF 01-07-2009
17
s0
s0 Z
.
B0 (1 + r) B0
(Z) = 1 + r,
1 ) = 0 E(
S1 ) = s0 = s0
E
=0 E
E(
B0
B0 (1 + r) B0
e che dia probabilit`
a positiva a tutti gli scenari o gli eventi possibili.
In altre parole, la condizione equivale allesistenza di due numeri p > 0 e q > 0, con p + q = 1, che
= u) e q = P(Z
= d), rispettivamente, e per i quali si abbia
rappresentino p = P(Z
= u) + d P(Z
= d) = 1 + r u P(Z
= u) + d 1 P(Z
= u) = 1 + r u p + d (1 p) = 1 + r
u P(Z
da cui, immediatamente,
p =
1+rd
,
ud
q = 1 p =
u (1 + r)
.
ud
(1.8)
= u) > 0 e q = P(Z
= d) > 0
Infine, la condizione che i due numeri p e q definiscano una probabilit`
a con p = P(Z
`e soddisfatta se e solo se
d < 1 + r < u.
Osservazione 1.5. Nel caso in cui sia composto solo di due eventi elementari, ovvero in cui = {0 , 1 }
e Z(0 ) = d mentre Z(1 ) = u, ovviamente la precedente osservazione permette di individuare univocamente la
probabilit`
a (misura martingala equivalente) sullinsieme delle parti. Nel caso in cui invece la cardinalit`
a di sia
`e univocamente determinata solo sulla strettamente maggiore di due, allora la misura martingala equivalente P
algebra generata da Z, ovvero, con le notazione dellOsservazione 1.4, su F, ma non su -algebre pi`
u grandi. Ad
esempio se = {0 , 1 , 2 , 3 }, e Z(0 ) = Z(2 ) = d e Z(1 ) = Z(3 ) = u, allora A0 = {Z = d} = {0 , 2 }
e A1 = {Z = u} = {1 , 3 }. Se invece si prendesse come -algebra linsieme delle parti, allora ogni misura di
probabilit`
a Q sarebbe determinata da
p0 , p 1 , p 2 , p 3 ,
pi 0,
3
X
pi = 1,
i=0
dove pi = Q({i }). La condizione che Q sia una misura martingala equivalente, diventerebbe
p1 + p3 = p,
p0 + p2 = q = 1 p,
0 p1 , p3 p,
0 p0 , p2 1 p,
18
MPEF 01-07-2009
Dimostriamo ora direttamente (senza far uso del teorema dellarbitraggio) che la condizione precedente,
ovvero d < 1 + r < u, ***`e necessaria e sufficiente per non avere arbitraggi. ***
Teorema 1.2. Per il modello di mercato binomiale uniperiodale la condizione
d < 1 + r < u.
(1.9)
`e necessaria e sufficiente per non avere arbitraggi (in senso debole), ovvero affinche con un capitale iniziale
nullo, non sia possibile non avere (con certezza) perdite, ed avere un guadagno positivo con probabilit`
a positiva.
Prima di iniziare la dimostrazione fissiamo le notazioni: indichiamo una strategia con
= (, )
ovvero B0 `e la quantit`
a di denaro investita nel titolo non rischioso (in banca, o in buoni del tesoro34 ) mentre
S0 `e la quantit`a di denaro investita nel titolo rischioso (lazione), ovvero `e il numero di azioni comprate35 .
Allora il capitale iniziale (o il valore della strategia al tempo t = 0) `e
X0 = B0 + S0 (= + s0
se B0 = 1)
se B0 = 1)
s0 Z
1 = X1 = B1 + S1 = + S1 = +
X
B1
B1
B0 (1 + r)
Dimostrazione.
La condizione (1.9) `
e necessaria 36 affinche non ci siano opportunit`a di arbitraggio:
Mostreremo infatti che, se la condizione (1.9) non `e soddisfatta, allora in ciascuno dei due casi d < u 1 + r e
1 + r d < u esistono strategie (, ) di arbitraggio.
Se fosse
d < u 1 + r,
allora, con capitale iniziale nullo
al tempo t = 0 si potrebbe vendere corto una azione ( = 1) al prezzo s0 , e mettere i soldi ottenuti in banca
0 = X0 = B0 + S0 = B0 s0
( = +
s0
)
B0
al tempo t = 1 si potrebbe comprare lazione al prezzo s0 Z (e che risulta minore di s0 (1 + r), cio`e il valore di
quanto depositato in banca); dopo aver ritirato i soldi in banca, si compra lazione (che si era venduta a corto)
ricavando quindi
(
s0 (1 + r u) 0 se Z = u,
B1 + S1 = s0 (1 + r) s0 Z =
s0 (1 + r d) > 0 se Z = d.
34 Nel caso dei buoni rappresenta il numero di buoni comprati . E
` importante capire che quando `
e negativo significa che
stiamo prendendo in prestito i soldi dalla banca, oppure che stiamo vendendo buoni.
35 E
` anche importante capire che `
e ammessa la vendita a corto, cio`
e si pu`
o vendere oggi un titolo, impegnandosi a fornirlo
domani , pur non avendolo ancora comprato oggi . Ci`
o vale anche per i buoni, ovvero per i titoli non rischiosi e non solo per le
azioni, ovvero per i titoli rischiosi.
36 La dimostrazione formale oscura leggermente il significato:
Se d < u 1 + r, allora conviene vendere lazione oggi e mettere in banca s0 , domani in banca ci sar`
a di sicuro una somma
sufficiente per comprare lazione, e c`
e anche la possibilit`
a (se lazione non cresce troppo) di un guadagno strettamente positivo.
Se 1 + r d < u, allora conviene comprare lazione oggi, prendendo in prestito dalla banca la cifra s0 necessaria, domani
rivendendo lazione di sicuro si otterr`
a una somma sufficiente per restituire i soldi alla banca, e c`
e anche la possibilit`
a (se lazione
cresce abbastanza) di un guadagno strettamente positivo.
MPEF 01-07-2009
19
0
s
1
1+r
se Z = u,
d
>0
1+r
se Z = d.
s0 Z
=
+ S1 = s0
1+r
s0 1
Se invece fosse
1 + r d < u,
allora, con capitale iniziale nullo,
al tempo t = 0 si potrebbe comprare una azione ( = 1) al prezzo s0 , prendendo i soldi in prestito dalla banca
0 = X0 = B0 + S0 = B0 + s0
( =
s0
)
B0
al tempo t = 1 si potrebbe vendere lazione al prezzo s0 Z (e che risulta strettamente maggiore di s0 (1 + r),
cio`e il valore di quanto va restituito in banca); dopo aver venduto lazione si restituiscono i soldi (che si erano
presi in prestito) alla banca, ricavando quindi
(
s0 u (1 + r) > 0
B1 + S1 = s0 (1 + r) + s0 Z =
s0 d (1 + r) 0
se Z = u,
se Z = d.
1
>0
1+r
s0 Z
=
+ S1 = s0 +
d
1+r
s0
1 0
1+r
se Z = u,
se Z = d.
La condizione (1.9) `
e sufficiente affinch
e non ci siano strategie di arbitraggio:
Mostreremo infatti che, se la condizione (1.9) `e soddisfatta, allora non esistono strategie (, ) di arbitraggio.
Dobbiamo cio`e mostrare che, se vale (1.9), allora per ogni (, ) tale che
X0 = B0 + s0 = 0
X1 () = B0 (1 + r) + s0 Z() 0
per ogni
si ha che
X1 () = 0,
per ogni .
Infatti
X0 = B0 + s0 = 0,
B0 = s0 ,
e di conseguenza
(
s0 1 + r u se Z = u,
= B0 (1 + r) + s0 Z() =
s0 1 + r d
se Z = d,
Poiche 1 + r u < 0 mentre 1 + r d > 0, `e impossibile che s0 1 + r u e s0 1 + r d siano entrambi
maggiori o uguali a zero, tranne nel caso in cui siano entrambi uguali a zero, ovvero se s0 = 0. Poiche s0 > 0, ci`o
s0
e quindi X1 () = B0 (1 + r) + s0 Z() = 0.
significa che deve essere = 0. Lo stesso vale per =
B0
X1 ()
20
MPEF 01-07-2009
1.4.1
Siamo sempre nel mercato binomiale uniperiodale della definizione 1.3, ma ora sono ammesse anche scommesse
del tipo contingent claim 37 , ovvero il valore della scommessa dipende dal valore del titolo rischioso:
oggi (al tempo t = 0) pago c e domani (al tempo t = 1) ricevo f1 (S1 ) = f1 (s0 Z) =: (Z).
Il valore attualizzato di questa scommessa `e
2 =
f1 (S1 )
c
f1 (S1 )
c
(Z)
c
.
B1
B0
B0 (1 + r) B0
B0 (1 + r) B0
Il modello binomiale uniperiodale con derivati38 verr`a studiato prima come unapplicazione del teorema
dellarbitraggio (Esempio 1.4) per determinare il prezzo del derivato in modo che non ci siano opportunit`a
di arbitraggio. Successivamente (si veda lesempio 1.5) troveremo di nuovo tale prezzo con un procedimento
collegato con il concetto di strategia di copertura perfetta (si veda la definizione 1.4).
Esempio 1.4 (modello binomiale uniperiodale con contingent claim: il prezzo, sempre con il teorema
dellarbitraggio). Rispetto allEsempio 1.3, abbiamo unaltra scommessa, ma lo spazio `e rimasto lo stesso
di prima, e abbiamo anche la scommessa di prima, quindi la misura martingala equivalente o rimane la stessa
di prima o non esiste.
Il teorema dellarbitraggio assicura lassenza di opportunit`
a di arbitraggio se e solo se la scommessa 2 ha
valore atteso nullo rispetto a tale misura (oltre alla scommessa 1 ). Quindi lunico prezzo che non permette
arbitraggi `e perci`
o quel valore c per il quale si abbia
2) = E
E(
c
f1 (S1 )
B1
B0
=0
c = B0 E
f1 (S1 )
B1
ossia
2) = 0
E(
(Z)
c =0
1+r
c=E
(Z)
1+r
da cui
c=
1
1+r
u (1 + r)
1+rd
+ f1 (s0 d)
f1 (s0 u)
.
ud
ud
(1.10)
Quindi il teorema dellarbitraggio39 ci permette di ottenere il prezzo del contingent claim f1 (S1 ).
Osservazione 1.6. Contingent claim `e uno dei possibili nomi che si pu`
o dare ad un contratto che preveda
che la quantit`
a di denaro (o di beni) che ci si impegna a dare dipenda (sia contingente) dalle circostanze future.
In questo esempio abbiamo supposto che la dipendenza sia stabilita in modo deterministico dallandamento dei
prezzi di un altro bene, che `e detto (bene) sottostante (in questo caso il sottostante, o titolo primario, `e
lazione).
37 Per chiarire meglio il significato delle due parole
CONTINGENT: (aggettivo, formale) contingent on/upon something, depending on something else in the future in order to happen:
Outdoor arrangements are, as ever, contingent on the weather and we have other plans in the event of rain.
Our success is contingent upon your support.
CLAIM: (fra gli altri significati) a right to have something or obtain something from someone:
She has no rightful claim to the title.
Our neighbours have no claim to (= cannot say that they own) that strip of land between our houses.
My ex-wife has no claims on me (= has no right to any of my money).
38 Si veda la successiva osservazione 1.6 per il motivo per cui si parla di derivati.
39 Infatti
(Z)
1+r
, si ottiene che non ci sono opportunit`
a di arbitraggio.
MPEF 01-07-2009
21
Osservazione 1.7. Oltre a derivati che sono funzioni deterministiche del sottostante, sarebbe possibile
considerare anche scommesse (attualizzate) pi`
u generali, ovvero del tipo
() =
c
()
c
()
B1
B0
B0 (1 + r) B0
Se lo spazio degli eventi non contenesse solo due elementi, allora con il teorema dellarbitraggio si
individuerebbe
in modo unico la misura martingala equivalente solo sulla -algebra generata da Z, cio`e su
F = , {Z = d}, {Z = u}, , ma non si individuerebbe in modo unico su tutte le possibili -algebre.
Per capire meglio il significato di questa osservazione riprendiamo il caso esaminato nellOsservazione 1.5
di = {0 , 1 , 2 , 3 }, e la -algebra sia linsieme delle parti di .
La richiesta che Q sia una misura martingala equivalente corrisponde a chiedere che
EQ [0 ] = 0
EQ [1 ] = 0
EQ [ ] = 0
La prima condizione `e ovvia, la seconda condizione (come abbiamo gi`
a visto) corrisponde a
p1 + p3 = p,
p0 + p2 = q = 1 p,
0 p1 , p3 p,
0 p0 , p2 1 p,
ovvero
0 p0 1 p,
0 p1 p,
p2 = 1 p p0 ,
p3 = p p1 ,
(1.11)
c
=0
B0
c
= 0.
B0
(1.12)
Da questa relazione si ottiene quindi che c non `e univocamente determinato dalla richiesta che non ci siano
opportunit`
a di arbitraggio, ossia, mentre nel caso in cui F = {, A0 , A1 , } il suo prezzo `e univocamente
, nel caso
determinato dalla (unica) misura di probabilit`
a martingala equivalente dalla relazione c = B0 E
B1
in esame, in cui F = P(), il prezzo pu`
o variare in un range che dipende, in non solo dai valori che pu`
o
assumere (), ma anche da (p0 , p1 ), senza che ci siano opportunit`
a di arbitraggio. Tuttavia se accade che
(0 ) = (2 )
(1 ) = (3 ),
() = (Z()),
per una opportuna funzione (z), allora invece il suo prezzo `e univocamente determinato.
Vale la pena anche di osservare che potrebbe anche darsi la situazione in cui alcuni contingent claim j (),
j = 1, , ` sono prezzati dal mercato e sia cj il corrispondente prezzo di mercato. In altre parole non abbiamo
il problema di fare il prezzo di questi contingent claim, ma prendiamo per buoni i prezzi di questi contingent
claim. In questo caso le condizioni di assenza di opportunit`
a di arbitraggio
EQ [0 ] = 0
(1.13)
E [1 ] = 0
Q
E [j ] = 0
dove
j () =
(1.14)
j = 1, . . . `
cj
cj
j ()
()
B1 )
B0
B0 (1 + r) B0
(1.15)
22
MPEF 01-07-2009
cj
= 0,
B0
j = 1, `.
(1.16)
Queste relazioni si possono interpretare in questo caso invece come una condizione su (p0 , p1 ). Non solo, esse
ci permettono altre considerazioni:
(i) se ` = 1, allora `e possibile determinare p1 in funzione di p0 (o viceversa);
(ii) se ` = 2, allora `e possibile che siano univocamente determinate sia p0 che p1 ;
(iii) se ` 3, allora `e possibile che nessuna coppia di valori (p0 , p1 ) soddisfi tutte le condizioni (1.16), ovvero
che il sistema (1.13) (1.14) (1.15) di assenza di opportunit`
a di arbitraggio non abbia nessuna soluzione.
Ovviamente nessun problema sorge nella seguente situazione: esiste (ed `e unica) una misura di probabilit`a
rispetto alla quale le variabili aleatorie i hanno valore atteso nullo, per i = 0, 1, , m, e il contingent
P,
claim `e una variabile aleatoria che si pu`
o scrivere come combinazione lineare delle precedenti, ovvero esiste
un vettore di numeri reali (, 1 , , m ) per i quali
() = 0 +
m
X
i i ()
per ogni .
i=1
`e automaticamente soddisfatta.
Questa banale osservazione ha delle interessanti interpretazioni in Finanza come si vede nel seguente esempio.
Il vettore (, 1 , , m ) viene interpretato come una strategia di copertura perfetta, e contemporaneamente
permette, in alcuni casi la determinazione dei prezzi.
Esempio 1.5 (modello binomiale uniperiodale con contingent claim: la strategia di copertura perfetta). Il
prezzo del derivato con contingent claim f1 (S1 ) (che brevemente chiameremo anche opzione) si pu`
o ottenere
anche a partire dal concetto di copertura perfetta (si veda la successiva definizione 1.4).
Sia c il prezzo (ancora da determinare) dellopzione (cio`e il prezzo del derivato con contingent claim
f1 (S1 ) = f (s0 Z) =: (Z)). Si immagini di comprare derivati caratterizzati dal precedente contingent claim
(Z). Nel seguito considereremo solo il caso = 1, che invece corrisponde a vendere lopzione, e quindi
prenderemo il punto di vista del venditore, ma questo non lede la generalit`
a40 . Siano inoltre B0 la quantit`
a di
denaro investita nel titolo non rischioso (B), e S0 la quantit`
a di denaro investita nel titolo rischioso (S). La
coppia := (, ) viene detta strategia di investimento o portfolio41 .
Si suppone inoltre che la strategia sia autofinanziante, cio`e che non ci siano costi di transazione, non ci
siano consumi, e neppure introiti ulteriori.
40 E
` chiaro che supporre = 1 non comporta nessuna perdita in generalit`
a in quanto basterebbe considerare 0 =
e
analogamente 0 =
.
41 Secondo la terminologia del teorema dellarbitraggio 1.1 la strategia sarebbe la terna (, , ), ma come gi`
a osservato si pu`
o
considerare = 1, e quindi solo la parte relativa a (, ) `
e interessante.
MPEF 01-07-2009
23
(1.17)
(1.18)
Questa formulazione corrisponde a chiedere che il prezzo di vendita c sia il capitale iniziale che viene ripartito
nel mercato (B, S), ovvero investito in banca (o nel titolo non rischioso) e nelle azioni (o nel titolo rischioso).
Ovviamente alla fine del periodo, ovvero al tempo t = 1, il valore complessivo si esprime come
(X1, =) f1 (S1 ) + X1 = f1 (S1 ) + B1 + S1 ,
mentre il valore complessivo attualizzato si esprime come
s0 u
f1 (s0 u)
+1+
B0 (1 + r)
B0 (1 + r)
, =) f1 (S1 ) + 1 + S1 =
(X
1
B0 (1 + r)
s0 d
f (s d)
1 0
+1+
B0 (1 + r)
B0 (1 + r)
se
Z=u
se
Z = d.
Definizione 1.4 (copertura perfetta nel modello binomiale uniperiodale). Una strategia di copertura
perfetta `e una strategia (, ) per la quale il capitale finale
f1 (S1 ) + B0 (1 + r) + S1 = 0
o, il che `e lo stesso, che il capitale finale attualizzato
f1 (S1 )
+ 1 + S1 = 0
B0 (1 + r)
(1.19)
ovvero che la strategia (, ) permetta di onorare esattamente il contratto: vendendo lopzione il venditore (cio`e
chi ha la posizione corta) si `e impegnato a fornire al compratore (cio`e chi ha la posizione lunga) la quantit`
a
contingente f (S1 ), e questa strategia (, ) gli permette di ottenere esattamente la quantit`
a di denaro necessaria.
Affermazione: Si supponga che esista e siano unico un valore c che assicura lesistenza di una strategia di
copertura perfetta (, ), a partire da un capitale iniziale nullo (ossia c e (, ) sono tali che valgono le relazioni
(1.18) e (1.19)).
Allora il valore c `e lunico valore del prezzo che assicura che non ci siano opportunit`
a di arbitraggio42 .
Dimostrazione dellaffermazione precedente: si distinguono due casi
se il prezzo dellopzione della strategia fosse c, con c > c, allora vendendo al tempo t = 0 lopzione al
prezzo c, si potrebbe utilizzare c per mettere in atto la strategia (, ) (che permette di ottenere f (S1 ) al tempo
t = 1) e mettere in banca la differenza c c > 0. Al tempo t = 1 il venditore potrebbe ottemperare al contratto,
dando, come dovuto, al compratore f (S1 ), e avere inoltre la quantit`
a di denaro (1 + r)(c c) > 0. Si ha cio`e
un arbitraggio.
Riassumendo
42 Tale valore c prende anche il nome di prezzo di copertura. Il suo interesse sta nel seguente fatto: colui che vende lopzione al
prezzo c di copertura riceve la somma c al tempo t = 0 e la investe nel mercato (B, S) secondo la strategia di copertura perfetta
(, ), ed `
e sicuro in tale modo di ottemperare allimpegno preso, cio`
e di poter fornire al tempo t = 1 il contingent claim f1 (S1 ) al
compratore. Questo `
e interessante anche per il compratore, in quanto sa che il venditore riuscir`
a ad ottenere il contingent claim.
24
MPEF 01-07-2009
bond/banca
totale
cc
S0 B0 = c
t=0
+c
t=1
f (S1 )
S1 + B1 = f (S1 )
se invece il prezzo dellopzione della strategia fosse c, con c < c, allora vendendo al tempo t = 0 il portfolio
(, ) al prezzo c = B0 + S0 > c (impegnandosi a restituire al tempo t = 1 il corrispettivo valore, ossia
B1 + S1 ), comprando al tempo t = 0 lopzione al prezzo c, e infine, sempre al tempo t = 0, mettendo in
banca la differenza c c, al tempo t = 1 si ottempera allimpegno preso prendendo il valore f (S1 ) tramite
lopzione: per tale valore infatti vale f (S1 ) = B1 + S1 . A questo punto al tempo t = 1 in banca `e rimasta la
quantit`
a (1 + r)(c c) > 0 strettamente positiva. Si ha cio`e un arbitraggio.
Riassumendo
opzione strategia = azioni e bond/banca
t=0
t=1
f (S1 )
bond/banca
totale
cc
S0 + B0 = c
S1 B1 = f (S1 )
Rimane da vedere che il prezzo c di copertura dellaffermazione esista e sia unico e che esso coincide con il
prezzo ottenuto precedentemente, attraverso la formula (1.10), ottenuta con il teorema dellarbitraggio. Lidea
alla base del ragionamento sta nella seguente osservazione: affinche si trovi qualcuno disposto a comprare, il
prezzo deve essere tale che il venditore non possa fare un guadagno sicuro, ma anche non si troverebbe nessuno
disposto a vendere se il compratore avesse un guadagno sicuro.43 . Questo `e possibile solo se, sempre a partire
, = 0, indipendentemente dal valore di Z.
da capitale iniziale nullo X0, = 0, c`e una strategia per la quale X
1
, = 0.
In particolare deve valere X0, = 0, cio`e la relazione (1.17), e la condizione di copertura, cio`e X
1
Questultima si traduce nelle due condizioni seguenti:
f1 (s0 u)
s0 u
+1+
=0
B0 (1 + r)
B0 (1 + r)
f1 (s0 d)
s0 d
+1+
=0
B0 (1 + r)
B0 (1 + r)
(1.20)
(1.21)
o equivalentemente
f1 (s0 u)
s0 u
+1+
=0
B0 (1 + r)
B0 (1 + r)
f1 (s0 u)
s0 u
f1 (s0 d)
s0 d
+1+
=
+1+
B0 (1 + r)
B0 (1 + r)
B0 (1 + r)
B0 (1 + r)
(1.22)
(1.23)
B0 (1 + r)
B0 (1 + r)
f1 (s0 u)
s0 u
f1 (s0 d)
s0 d
+
=
+
.
B0 (1 + r)
B0 (1 + r)
B0 (1 + r)
B0 (1 + r)
= (, ) =
(1.24)
(1.25)
43 Va inoltre ricordato che implicitamente abbiamo supposto che il mercato sia liquido, cio`
e che sia possibile trovare sempre
qualcuno disposto a comprare e qualcuno disposto a vendere: se ci fossero opportunit`
a di arbitraggio per il venditore, allora tutti
vorrebbero vendere e non si troverebbe nessuno disposto a comprare, mentre accadrebbe il contrario se ci fossero opportunit`
a di
arbitraggio per il compratore.
.
MPEF 01-07-2009
25
f1 (s0 u) f1 (s0 d)
.
s0 u s0 d
(1.26)
f1 (s0 d) u f1 (s0 u) d
1
B0 (1 + r)
ud
1
f1 (s0 d) u f1 (s0 u) d
B0 (1 + r)
ud
(1.27)
La condizione precedente (1.17) di capitale iniziale nullo, ossia X0, = 0, diviene quindi46 per = 1 (si
pu`
o supporre anche B0 = 1, per semplicit`
a)
B0 + S0 = + s0 = c
= c s0
da cui si pu`
o trovare (in modo nuovo) il valore che deve avere c affinche non ci siano opportunit`
a di arbitraggio:
44 Si osservi che il numero di azioni che permettono una copertura perfetta del titolo derivato, cio`
e il numero , si ottiene attraverso
una sorta di derivata discreta della funzione costo f (x), come funzione del prezzo dellazione sottostante. Inoltre () dipende
linearmente da .
45 Si
osservi che
f1 (s0 u)
s0 u
= , () =
()
B0 (1 + r)
B0 (1 + r)
1 f1 (s0 u) f1 (s0 d)
s0 u
f1 (s0 u)
+
=
B0 (1 + r)
s0
ud
B0 (1 + r)
h
i
1
1 f1 (s0 u) f1 (s0 d)
=
f1 (s0 u)
s0 u
B0 (1 + r)
s0
ud
h f (s u) (u d)
1
f1 (s0 u) u f1 (s0 d) u i
1 0
=
B0 (1 + r)
ud
ud
1
f1 (s0 d) u f1 (s0 u) d
=
B0 (1 + r)
ud
46 Per
che equivale a
B0 + S 0 = + s 0 = c
dove per semplicit`
a = (1) e = (1).
26
MPEF 01-07-2009
c=
1+rd
ud
1
c=
1+r
q = 1 p
[pf
(s0 u) + qf (s0 d)]
s0
c
s0 u
p *
f (s0 u)
HH
s0 d
HH
j
f (s d)
q
0
f (s0 u) f (s0 d)
s0 u s0 d
1
B0
(c s0 )
Figura 1.1: Albero binomiale per il calcolo del prezzo c e della strategia di copertura perfetta: trovati c e , il
valore `e automaticamente determinato.
Osservazione 1.8. La condizione di copertura perfetta `e stata definita attraverso le condizioni (1.18) ed (1.19),
ossia
c = B 0 + S0 ,
f (S1 ) = B1 + S1 .
Da queste relazioni `e immediato verificare che allora, attualizzando i prezzi al tempo t = 0,
c
B0
S0
=
+
,
B0
B0
B0
B1
S1
f (S1 )
=
+
,
B1
B1
B1
da cui immediatamente, facendo la differenza tra la seconda e la prima riga si ottiene
f (S1 )
c
B1
B0
S1
S0
ossia 2 = 0 + 1 .
B1
B0
B1
B0
B1
B0
Abbiamo quindi ritrovato il fatto che trovare la copertura perfetta equivale ad esprimere la scommessa 2 ,
relativa al contingent claim, come una combinazione lineare delle scommesse 0 e 1 . ***
47 Con
c = B0 + s 0 =
Capitolo 2
Come dovrebbe essere noto uno spazio di probabilit`a `e una terna (, F, P), dove
F `e una -algebra, ovvero F `e una famiglia di sottoinsiemi di , cio`e F `e un sottoinsieme di P(), tale
che
F;
se A F, allora Ac F;
se An F, n N, allora nN An F;
(2.1)
(2.2)
(2.3)
A 7 P(A)
(2.4)
(2.5)
nN
La -algebra F rappresenta linformazione disponibile, ovvero gli eventi appartenenti a F sono gli unici
eventi di cui abbiamo la possibilit`
a di sapere se si sono verificati oppure no.
Oltre alla misura di probabilit`
a P, per tutti gli eventi A F con P(A) > 0, si possono definire le probabilit`
a
condizionate 1 allevento A, che rappresentano la valutazione della probabilit`a nel caso in cui si verificasse
levento A:
P(|A) F : [0, 1]
P(E A)
E
7 P(E|A) :=
P(A)
(2.6)
(2.7)
27
28
MPEF 01-07-2009
Esempio 2.1. Qualunque sia , la -algebra banale F = {, } `e una -algebra, e necessariamente P() = 1
e P() = 0.
Esempio 2.2. Qualunque sia , preso un sottoinsieme proprio A di la -algebra F = {, A, Ac , } `e una
-algebra, e necessariamente P() = 1, P() = 0, P(A) = p, P(Ac ) = 1 p, per un p [0, 1].
Esempio 2.3. Qualunque sia , sia {Hm , m = 1, 2, . . . , N } una partizione finita di , cio`e se gli eventi
sono incompatibili:
Hn Hm = per n 6= m, n, m {1, 2, . . . , N }
ed esaustivi:
N
[
Hm = ,
m=1
allora la famiglia M = {A =
mI
Hm = )
pm 0, m = 1, 2, . . . , N,
pm = 1,
m=1
pm ,
per A =
mI
Hm ,
(2.8)
mI
allora la famiglia
F = {A =
Hm , al variare di I N},
mI
Hm = ), `e una -algebra2 .
verifica `
e banale:
=
Hm , ovvero I = N
mN
se A =
Hm , allora Ac =
mI
se An =
[
mIn
Hm
mI c
Hm , n 1, allora
[
n=1
An =
[
mI
Hm , per I =
n=1 In .
MPEF 01-07-2009
29
P(A) =
pm ,
per A =
mI
Hm ,
(2.9)
mI
`e la -algebra5 generata da K.
In particolare quindi la -algebra M, generata dalla partizione {Hm ; m N} come nellEsempio 2.4,
coincide con ({Hm ; m N}), in quanto, come gi`a visto M `e una -algebra, e inoltre ogni -algebra che
contenga {Hm ; m N}, deve necessariamente contenere tutte le unioni del tipo mI Hm .
4 la -algebra generata
S da una collezione di -algebre
Nel caso in cui K = G , dove G sono -algebre, allora si pone
_
[
G :=
G .
In particolare se M = ({Hm ; m N}) e N = {K` ; ` N} , allora
[
M N = ({Hm K` ; m N, ` N}) = E =
Hm K` ; con J N N .
(m,`)J
3 La
se An =
mIn
allora
An =
nN
e quindi P
nN
4 La
Hm con I =
mI
nN
X X
X
X
An = P A =
p` =
pm =
P An ,
`I
nN mIn
nN
verifica `
e banale:
fatto che
T
G:KG
nN
30
MPEF 01-07-2009
5 la -algebra dei Boreliani Nel caso in cui K = A, la famiglia degli aperti di Rk , allora
B(Rk ) := (A)
`e detta -algebra dei boreliani, o -algebra di Borel, ed ogni elemento di I di B(Rk ) `e detto boreliano.
2.2
Variabili aleatorie
7 X() = X1 (), . . . , Xk () ,
MPEF 01-07-2009
31
S
ovvero X 1 (O) = mI Hm M, per I = {m : cm O}.
Viceversa se X `e M-misurabile, cio`e, per ogni aperto O, esiste un I N tale che
[
X 1 (O) =
Hm ,
mI
n mI n
In
Esempio 2.7. Sia X : 7 R; 7 X(), una funzione discreta, ovvero tale che limmagine X() =
{x R, tali che esiste un con X() = x} di X sia un insieme numerabile (finito o infinito), cio`e X() =
{xm , m N}, con xn 6= xm per n 6= m. Allora
X
X() =
xm IHm (),
(2.11)
mN
dove
Hm = X 1 ({xm }) = { tali che X() = xm }.
Si noti che {Hm , m N} forma una partizione numerabile.
Inoltre la funzione X `e una variabile aleatoria F -misurabile, se e solo se
Hm = X 1 ({xm }) F, per ogni m N,
come `e immediato da (2.11), osservando che, come nel caso precedente,
[
X 1 (O) =
Hm .
m:xm O
Infine la variabile aleatoria X si dice semplice o elementare, se linsieme X() `e un insieme finito.
Si pu`o dimostrare che
1 se X `e una variabile aleatoria F-misurabile, allora la controimmagine X 1 (I) F, per ogni boreliano
I B(R),
9
2 la variabile aleatoria X `e F-misurabile, se e solo se ciascuna componente X
Ti `e F-misurabile , per ogni
1
i = 1, . . . , k. In particolare X ({x}) F, per ogni x R, in quanto {x} = n (x 1/n, x + 1/n).
solo la necessit`
a, che `
e immediata: basta prendere O = R R Oi R R.
|
{z
}
|
{z
}
i1 volte
10 La
ki volte
famiglia RX non `
e vuota, in quanto contiene almeno G = P(), linsieme delle parti di .
32
MPEF 01-07-2009
come discende immediatamente dallEsempio 2.6. Di conseguenza se g : R 7 R tale che g(xm ) = cm , per ogni
m N, allora
X
X
X
Z() :=
cm IHm = Z() =
g(xm )IX 1 ({xm }) () =
g(xm )I{xm } X() = g(X()).
m
Terminiamo questa sezione, ricordando che le operazioni di massimo, minimo, somma, prodotto, di due
funzioni misurabili, danno luogo a funzioni misurabili: quindi se X ed Y sono variabili aleatorie F-misurabili,
lo sono anche X Y = max(X, Y ), X Y = min(X, Y ), X + Y , XY . In particolare sono variabili aleatorie
X + := X 0 e X := (X) 0.
2.3
MPEF 01-07-2009
33
sia
F = P(),
linsieme delle parti di , sia la probabilit`
a definita attraverso ***la relazione ***
P( {} ) := p
N
i=1
(1 p)N
N
i=1
dove p `e un numero fissato con la condizione che p (0, 1). Sia infine X la variabile aleatoria definita da
N
X
X() :=
i .
i=1
N
X
N
h=0
hI
ph (1 p)N h
Definizione 2.3 (variabili aleatorie con distribuzione binomiale). Ogni variabile aleatoria X che ******per la
quale
n
X
n h
PX (I) :=
p (1 p)nh
h
h=0
hI
******viene detta una variabile aleatoria binomiale di parametri n e p e si scrive in breve X Bin(n, p).
A volte, invece di definire lo spazio di probabilit`a e la variabile aleatoria X ed infine trovare la distribuzione
di X, si pu`o dare direttamente la distribuzione di X. Questo `e il caso delle variabili aleatorie che vengono
caratterizzate solo attraverso la densit`
a discreta o con densit`a (di probabilit`a).
Definizione 2.4 (variabili aleatorie con densit`a discreta). Si dice che una variabile aleatoria elementare X ha
densit`
a discreta
x1 x2 xm
p1 p2 pm
dove x1 , x2 , xm sono elementi di Rk e p1 , p2 , pm sono numeri reali tali che
pj 0
per ogni j = 1, 2, , m,
m
X
pj = 1,
j=1
12 Levento
che
Ah := {X = h} `
e rappresentato dallinsieme, di cardinalit`
a
=
h.
La
probabilit`
a
di
ciascuno
di
questi
vale
quindi
i
i=1
PN
P() = p
N
i=1
(1 p)N
N
i=1
N
,
h
= ph (1 p)N h
e la probabilit`
a dellinsieme vale
P(X = h) = P(Ah ) =
X
Ah
P() =
X
Ah
N
ph (1 p)N h
34
MPEF 01-07-2009
PX (I) := P(X I) =
pj .
j=1
xj I
Esempio 2.10 (distribuzione gaussiana). Come caso particolare si consideri il caso della variabile aleatoria
unidimensionale con densit`
a
(x)2
1
e 22
f (x) =
2
dove `e un numero reale e `e un numero (strettamente) positivo. Una variabile aleatoria con questa
distribuzione `e detta gaussiana o normale di valore atteso (o valore medio) e varianza 2 . Brevemente si
indica X N (, 2 ). Se = 0 e 2 = 1 si dice che X `e una variabile gaussiana o normale standard.
2.4
Valori attesi
allora si definisce
E[X] =
xm P(Hm ).
mN
Osservazione 2.1. Ogni variabile aleatoria X in (, F, P), non negativa, ammette una successione di variabili
aleatorie Xn , semplici e non negative, tali che
0 Xn () Xn+1 (),
MPEF 01-07-2009
35
n
n2
1
X
m=0
n2
1
X
m
m
I
()
+
nI
()
=
1 m m+1 (X()) + n1[n,) (X()),
(n)
(n)
Hn2n
n [ 2n , 2n )
2n Hm
2
m=0
(2.12)
dove si `e posto
(n)
Hm
= X 1
m m+1
,
2n
2n
(n)
Hn2n = X 1 [n, ) ,
F per 0 m n2n 1,
e, per A F,
IA () = 1
IA () = 0
x [a, b)
1[a,b) (x) = 0
se
se
/ A,
se
se
x
/ [a, b).
` infine interessante notare che, posto bxc la parte intera inferiore14 di x, si pu`
E
o riscrivere nel seguente
modo
b2n X()c
n.
Xn () =
2n
Definizione 2.7 (Valore atteso per variabili nonnegative). Sia X una variabile aleatoria in (, F, P), non
negativa, si definisce
E[X] = lim E[Xn ],
n
dove {Xn ; n N} `e la successione monotona definita come in (2.12) dellOsservazione precedente. Il limite
esiste ed `e monotono, per la propriet`
a di monotonia del valore atteso, sulle variabili aleatorie semplici. Si noti
bene che tale limite pu`
o valere anche +, nel qual caso si dice che la variabile X ha valore atteso infinito.
Arriviamo ora alla definizione generale del valore atteso:
Definizione 2.8 (Valore atteso per variabili generali). Sia X una variabile aleatoria in (, F, P), Siano
X + := X 0 e X := (X) 0, le variabili aleatorie non negative, definite alla fine della sezione precedente.
Si noti che X = X + X e che invece |X| = X + + X . Si definisce allora, se ha senso15
E[X] = E[X + ] E[X ].
13 La monotonia della successione delle variabili aleatorie X `
n e evidente:
se Xn () = m/2n , con m < n2n , allora i soli casi possibili sono
1 se E[X + ] < , E[X ] < , nel qual caso E[X] R e inoltre si ha anche E[|X|] = E[X + ] + E[X ] < ;
2 se E[X + ] < , E[X ] = , nel qual caso E[X] = ;
3 se E[X + ] = , E[X ] < , nel qual caso E[X] = +;
Il caso che rimane escluso `
e quindi il caso in cui E[X + ] = , E[X ] = , del resto si avrebbe la forma indeterminata .
36
MPEF 01-07-2009
si ha
E[X|A] =
X
mN
xm P(Hm |A).
MPEF 01-07-2009
2.5
37
2
In questo caso si usa la notazione Z N (, 2 ). Se = 0 e 2 = 1 allora si dice che Z segue una legge
normale o gaussiana standard.
Caso ndimensionale: iniziamo con il caso di un vettore (colonna) aleatorio
Y1
Y2
Y =
Yk
Yn
a componenti indipendenti e tutte gaussiane standard, ovvero il caso in cui
n
Y
n
Y
1
1 2
exp yi
fYi (yi ) =
fY (y) =
2
2
i=1
i=1
(
)
n
1X 2
1
1
1 0
exp
=
yi =
exp
y
y
.
2 i=1
2
(2)n/2
( 2)n
dove lapice indica loperazione di trasposizione, ovvero y 0 `e il vettore riga (y1 , y2 , , yn ).
` immediato verificare che E(Yi ) = 0, V ar(Yi ) = 1 e che Cov(Yi , Yj ) = 0, per i 6= j.
E
Sia ora A una matrice non singolare e sia m un vettore (colonna). Definiamo ora Z = AY + m e cerchiamo
la sua densit`a. Sappiamo dai risultati generali che se Y ammette densit`a e Z = (Y ) con invertibile e con
derivate continue, allora anche Z ammette densit`a:
1
(z)
1
1
= fY (1 (z))
fZ (z) = fY ( (z)) det
(y)
z
det y
1
y=
(z)
38
MPEF 01-07-2009
(A0 )1 = (A1 )0
(i)
in quanto
A0 z = w z = (A0 )1 w
e inoltre
0
A0 z = w (z 0 A) = w z 0 A = w0 z 0 = w0 A1
z = w0 A1
1
(AA0 )
(ii)
= (A0 )
0
0
z = A1 w.
A1
in quanto
1
(AA0 )
z = w z = AA0 w A1 z = A0 w (A0 )
A1 z = w.
` interessante notare che sia il vettore m che la matrice AA0 = A0 A hanno una interpretazione probabilistica:
E
E(Zi ) = E(
n
X
ai,k Yk ) + mi =
n
X
ai,k E(Yk ) + mi = mi
k=1
k=1
n
X
ai,k Yk
k=1
n
X
aj,h Yh ] =
h=1
n X
n
X
k=1 h=1
e quindi
Cov(Zi , Zj ) =
n
X
k=1
1,n
n X
X
k=1 h6=k
n
X
k=1
Si osservi che se Z = (Z1 , ..., Zn ) `e un vettore gaussiano allora (Z1 ...Zk ) e (Zk+1 , ..., Zn ) sono indipendenti,
se e solo se Cov(Zi , Zh ) = 0 per ogni i = 1, , k e h = k + 1, , n. In tale caso allora `e ovvio che il vettore
(Z1 ...Zk ) `e un vettore gaussiano16
Terminiamo questo paragrafo con il ricordare quanto valgono i momenti di una variabile aleatoria
gaussiana. Sia Z una variabile aleatoria N (0, 2 ). Per quanto visto prima possiamo considerare Z = Y con
Y una variabile aleatoria N (0, 1). Da questa osservazione segue subito che
E[Z k ] = k E[Y k ]
16 Per ottenere lo stesso risultato nel caso generale, ovvero che se Z = (Z , ..., Z ) `
e un
n e un vettore gaussiano allora (Z1 ...Zk ) `
1
vettore gaussiano, si pu`
o procedere nel seguente modo. Innanzitutto basta considerare il caso in cui i valori attesi sono nulli senza
ledere in generalit`
a. Inoltre si pu`
o pensare che Z = AY . Se la matrice A0 = (a0ij ) `
e definita in modo che a0ij = aij qualunque siano
e definito da
i = 1, ...k e j = 1, ...., n, e il vettore aleatorio Z 0 `
Z 0 = A0 Y ,
allora, chiaramente,
Zi0 = (A0 Y )i = Zi = (AY )i ,
per i = 1, ...k.
Se inoltre a0hj per h = k + 1, ...n e j = 1, ...., n sono presi in modo che il vettore (Z10 , , Zk0 ) = (Z1 , , Zk ) sia indipendente dal
0
0 ), ovvero in modo che
vettore (Zk+1
, , Zn
0 = E[Zi Zh0 ] = Cov(Zi , Zh0 ) =
n
X
ai,` a0h,`
`=1
MPEF 01-07-2009
39
e
E[|Z|k ] = ||k E[|Y |k ].
Vale poi la pena di ricordare che
E[Y 2k+1 ] = 0,
E[Y 2k ] = (2k 1)!! = (2k 1)(2k 3) 5 3 1,
mentre17 infine
r
r
2
2
2 k
(2k)!! =
(2k)(2k 2) 4 2 =
2 k!.
E[|Y |
]=
***Prima di dimostrare queste tre uguaglianze si osservi che le ultime due si possono scrivere in modo
sintetico come
r
2
n
E[|Y | ] = C((1)n ) (n 1)!!
.
C(+1) = 1
C(1) =
***
La prima relazione `e banale, per ragioni di simmetria, e permette di ricavare la seconda osservando che
r
2k+1
E[euY ] = e
u2
2
h
X
X
1 u2
1 u2h
=
.
h! 2
h! 2h
h=0
2k+1
h=0
] = 0,
X
X
1 k k
1
u Y ]=
u2h E[Y 2h ]
k!
(2h)!
k=0
h=0
si deve necessariamente avere che i coefficienti delle due serie devono coincidere:
1 1
1
=
E[Y 2h ],
h! 2h
(2h)!
ovvero
(2h)!
2h(2h 1)(2h 2)(2h 3) 3 2 1
=
h!2h
h(h 1) 3 2 1 2h
(2h)!!(2h 1)!!
2h h! (2h 1)!!
= (2h 1)!!.
=
=
h
h!2
2h h!
E[Y 2h ] =
Infine la terza si ricava per integrazione per parti e calcolando a mano che E[|Y |] =
2
.
***Concludiamo questo paragrafo con un lemma che riguarda il comportamento asintotico della funzione di
sopravvivenza di una gaussiana standard e del modulo di una gaussiana standard.
2
y
1 e 2
2
1
1
1
x+
fY (x) P(Y > x) fY (x),
x
x
1
1
1
x+
f|Y | (x) P(|Y | > x) f|Y | (x),
x
x
P(|Y | > x) e
17 Si
x2
2
noti che dalle ultime due relazioni sui momenti si ottiene che
E[|Y |m ] = (m 1)!!C(1)m ,
con C+1 = 1, C1 =
x > 0,
(2.13)
x > 0,
(2.14)
x > 0.
(2.15)
2
.
40
MPEF 01-07-2009
Dimostrazione. La disuguaglianza (2.14) discende immediatamente dalla prima disuguaglianza (2.13), la quale
equivale a
1
x2
x2
1
1
1 1
e 2 P(Y > x) e 2 ,
x+
x
x 2
2
e discende dalla seguente relazione
1
w
w+
1
w2
2
z2
2
dz
1 w2
e 2 ,
w
w > 0.
(2.16)
z2
e
w
Inoltre
1
dz
w
z e
z2
2
dz =
1 w2
e 2 ,
w
w2
d 1 w2
1
e 2 = 1 + 2 e 2
dw w
w
e quindi
1 w2
e 2 =
w
1
1+ 2
z
z2
dz
1
1+ 2
w
Z
z2
2
dz ,
= 2 e
2 e
Z +
2
y 2 x2
1
1 y2
x2
2
e
e 2 dy
dy = 2 e
2
2
x
Z +
Z +
(z+2x)z
x2
1 (y+x)(yx)
1
2
e
e 2 dz
dy = 2 e 2
2
2
x
0
Z +
x2
1 z2
e 2 dz = e 2 .
2
0
x2
2
x2
2
MPEF 01-07-2009
2.6
41
Anche linsieme delle variabili aleatorie X, che sono F-misurabili e quadrato integrabili , cio`e per le quali
E[|X|2 ] < , forma uno spazio vettoriale reale che si indica con L2 (, F, P). Come prima passando alle classi
di equivalenza20 si ottiene lusuale spazio L2 (, F, P), che inoltre `e uno spazio metrico completo e separabile
rispetto alla distanza
d2L2 (X, Y ) = E[|X Y |2 ]
(modulo passare a classi di equivalenza X Y se e solo se E[|X Y |2 ] = 0). Inoltre L2 (, F, P) `e uno spazio
di Hilbert: questo significa che `e possibile introdurre un prodotto scalare
< X1 , X2 >:= E[X1 X2 ],
e definire21 d2L2 (X, Y ) =< X Y, X Y >= E[|X Y |2 ]. Si noti che, per la disuguaglianza di Cauchy,
|E(X1 X2 )| E(|X1 X2 |) E1/2 (|X1 |2 )E1/2 (|X2 |2 ),
e quindi < X1 , X2 > `e finito se E[|Xi |2 ] < , per i = 1, 2.
Ovviamente si ha
L2 (, F, P) L1 (, F, P),
ed analogamente
L2 (, F, P) L1 (, F, P),
Infatti se X `e di quadrato integrabile allora se X `e integrabile:
E[X 2 ] < E[|X|] < ,
come si vede immediatamente, ad esempio, con la disuguaglianza di Cauchy:
1/2
1/2
1/2
E[|X|] = E[1|X|] E[12 ]
E[X 2 ]
= E[X 2 ]
,
18 Ovvero,
in termini analitici,
E[|X|] =
19 Se
20 Se
42
MPEF 01-07-2009
2.6.1
min
ZL2 (,G,P)
E[(X Z)2 ].
(2.17)
In particolare la proiezione sullo spazio generato dalla variabile aleatoria costante 1, 7 1() = 1, cio`e
prendendo G = {, } si ottiene il valore atteso.
Nel caso in cui G = (Y ), tenendo presente che le variabili aleatorie (Y )-misurabili sono le variabili aleatorie
Z = g(Y ), con g boreliana, allora il valore atteso condizionato E[X|(Y )], secondo la precedente definizione
= g(Y ), tale che
(2.17) (si veda anche la successiva Definizione 3.2), `e quella variabile aleatoria X
2
2
E X g(Y )
= min E X g(Y ) ,
g boreliane
dove il minimo va preso rispetto alle funzioni g per le quali E |g(Y )|2 `e finito. In tale caso la media condizionata
viene indicata con E[X|Y ] = g(Y ), invece che con E[X|(Y )].
2.6.2
Regressione lineare
Siano X ed Y due variabili aleatorie di quadrato integrabile. Il problema di trovare la retta di regressione lineare
di X rispetto ad Y corrisponde al problema di trovare il punto di minimo, tra tutte le funzioni affini a + b y
del valore atteso del quadrato della differenza tra X, ovvero trovare e tali che
2
2
E X ( + Y )
= min E X (a + b Y ) .
a,b
a G.
b oppure L2 (, G, P)
b dove P
b = P| , cio`
noti che, per maggiore precisione, si dovrebbe scrivere L2 (, G, P)
e la restrizione di P
G
24 ***Bisogna per`
o fare una precisazione:
se lo spazio L2 (, F , P) viene considerato come spazio di Hilbert, siamo passati alle classi di equivalenza delle variabili aleatorie
F -misurabili e tali che P (X 6= X 0 ) = 0, ossia che differiscono su un insieme di NF , la classe degli insiemi F -misurabili di Pb dove P
b`
probabilit`
a nulla. Invece lo spazio L2 (, G, P), [o meglio L2 (, G, P),
e la misura P ristretta a G,] `
e lo spazio delle classi di
equivalenza delle variabili aleatorie G-misurabili e tali che P (X 6= X 0 ) = 0, ossia che differiscono su un insieme di NG , la classe
degli insiemi G-misurabili di P-probabilit`
a nulla. Quindi il passaggio agli spazi di Hilbert si pu`
o fare soltanto se gli insiemi NF e
NG coincidono. Ci`
o`
e sicuramente vero se NF G.***
25 Sarebbe pi`
u corretto dire quella classe di equivalenza di variabili aleatorie.
MPEF 01-07-2009
43
Si noti che anche qui sia ha la proiezione su un sottospazio di L2 (, F, P). Questa volta per`o si tratta di
un sottospazio di dimensione 2:
V = {Z = a + bY ; a, b R}
La soluzione `e data in analogia con il caso delle proiezioni sui sottospazi vettoriali in Rd . Si denota con
(2.18)
Cov(X, Y )
X Y
)
rappresenta il vettore unitario con direzione parallela ad Y , e invece X,Y
Lanalogia sta nel fatto che Y E(Y
Y
rappresenta il coseno tra langolo formato tra due vettori26 :
X,Y =
Cov(X, Y )
X,Y
X =
Y
Y2
Vedremo nel capitolo sui valori attesi condizionali che, per variabili aleatorie (X, Y ) congiuntamente
gaussiane il valore atteso condizionale E[X|Y ] di X dato Y `e una funzione affine di Y , e che quindi coincide
anche con la retta di regressione.
26 Si
1/2
uv
kuk vk
si ha V ar(X) = kX E(X)k1/2 .
44
MPEF 01-07-2009
2.7
In questo paragrafo vogliamo illustrare come con lapproccio soggettivista, si possa arrivare agli assiomi della
probabilit`a (con la additivit`
a semplice) attraverso una opportuna definizione di valore atteso e di probabilit`a
come prezzo, e attraverso opportune regole di linearit`a e di coerenza.
Daremo due definizioni che sostanzialmente si equivalgono, una con un linguaggio pi`
u neutrale e generale ed
unaltra con un linguaggio pi`
u economico.
Definizione 2.10 (valore atteso). Il valore atteso E(X) di una variabile aleatoria X `e quel valore certo c che
sono disposto a scambiare con il valore aleatorio dato proprio da X, nel senso che per me `e indifferente ricevere
c o X. La probabilit`
a P(A) di un evento A `e definito come il valore atteso della variabile aleatoria indicatrice
di A, ovvero la variabile aleatoria X = IA che vale 1 se si verifica A e vale 0 altrimenti.
La seconda definizione vede X come valore aleatorio che si ottiene come esito di una scommessa, mentre c
come prezzo da pagare per prendere parte alla scommessa (o al gioco).
Definizione 2.11 (valore atteso come prezzo). Il valore atteso di X `e quel valore certo c che si `e disposti
a pagare per effettuare la scommessa in cui si ottiene il valore aleatorio X, con laccordo che si `e disposti
indifferentemente a prendere il ruolo sia dello scommettitore che del banco.
Regola di linearit`
a27 : Siano X ed Y due variabili aleatorie allora
i E(X + Y ) = E(X) + E(Y )
ii E( X + Y ) = E(X) + E(Y ), per ogni e costanti reali
La regola di coerenza seguente `e basata sul fatto alla fine della scommessa ricevo X e pago c e quindi alla
fine ho X c, se ho il ruolo dello scommettitore, mentre ricevo c e pago X se ho il ruolo del banco (broker).
Regola di coerenza: Non `e possibile che X c sia certamente positivo o certamente negativo28 .
La giustificazione della precedente regola di coerenza sta nel fatto che se X c ha segno costante, non
si troverebbe nessuno disposto a prendere il ruolo dello scommettitore, se X c fosse certamente negativo, e
analogamente non si troverebbe nessuno disposto a prendere il ruolo del banco se invece X c fosse certamente
positivo.
A titolo di esempio mostriamo come dalla regola di coerenza si ottenga che se X `e una funzione indicatrice di
un evento A, ovvero X assume solo i valori 0 ed 1 (e allora A = {X = 1}) e, posto per definizione P(A) = E(X),
allora necessariamente deve valere P(A) [0, 1].
La seguente tavola illustra i ricavi possibili se P(A) = p `e il prezzo da pagare per la scommessa in cui si vince
1 se si verifica A (e quindi si ottiene globalmente 1 p), mentre se si verifica Ac non si vince nulla (e quindi si
ottiene p)
27 In realt`
a, per ottenere regola di linearit`
a [i], basterebbe la regola di coerenza (data immediatamente dopo la regola di linearit`
a)
e aggiungere lipotesi che sia sempre possibile trovare qualcuno disposto a scommettere su ciascuna singola scommessa:
se il prezzo di due scommesse insieme fosse maggiore della somma dei prezzi delle due scommesse separatamente, allora converrebbe
accettare (comprare) due singole scommesse e prendere la posizione del banco (vendere) la scommessa relativa alla somma
se invece il prezzo della somma fosse minore della somma dei prezzi, allora converrebbe vendere le due scommesse separatamente
e invece accettare la scommessa. Per capire meglio si veda la seguente tabella: se non ci possono essere arbitraggi, allora
necessariamente deve accadere che c c1 c2 = 0
tipo di scommessa
solo la 1
solo la 2
le precedenti insieme
vincita
X1
X2
X = (X1 + X2 )
X1 + X2 X = 0
pagamento
c1
c2
+c
c1 c2 + c
ricavo
X1 c1
X2 c2
cX
X1 c1 + X2 c2 + c X = c c1 c2
MPEF 01-07-2009
45
evento
Ac
pagamento
vincita
ricavo
1p
1p>0 e
1>p e
0<p
oppure
1<p
oppure
0 > p,
p>0 ,
0>p ,
pagamento
vincita
ricavo
1p
Non potendo essere ne 1 p < 0 ne 1 p > 0, ovvero non potendo essere ne 1 < p ne 1 > p, deve
necessariamente essere p = P() = 1, che `e un altro degli assiomi delle probabilit`a.
Se inoltre ho n scommesse
Snrelative ad n eventi A1 , A2 , ..., An incompatibili (cio`e Ai Aj = per i 6= j)
allora la scommessa su A = i=1 Ai equivale29 alla somma delle singole n scommesse su Ai , in quanto grazie
allincompatibilit`a degli Ai in entrambe le scommesse ricevo 1 se e solo se si verifica uno degli Ai , mentre
altrimenti ottengo 0. Quindi la linearit`
a dei prezzi, pi`
u il fatto implicito che se due scommesse danno luogo alla
stessa vincita, allora devono avere lo stesso prezzo, si ottiene che
n
X
P(A) = P ni=1 Ai
=
P(Ai ),
i=1
Riassumendo abbiamo mostrato come si possano riottenere gli assiomi della probabilit`a (con lesclusione
della additivit`a) con la definizione di valore atteso come prezzo di scommesse aleatorie, con la regola di
coerenza che corrisponde allassenza di opportunit`
a di arbitraggio.
29 Ovvero
se A =
Sn
i=1
Ai e se Ai Aj = per i 6= j, allora
IA =
n
X
i=1
IAi .
46
MPEF 01-07-2009
30 Vale
31 Come
Capitolo 3
Definizioni
e
E[X|A] = E[X|A],
(3.1)
dove
E[X|A] =
E[XIA ]
.
P(A)
e A ],
E[XIA ] = E[XI
(3.2)
Z G misurabile.
(3.3)
Prima di tutto, dobbiamo trovare sotto quali condizioni le pre-definizioni siano ben poste, cio`e, in questo
e per cui valga la (3.1) (o equivalentemente la (3.2)) oppure valga la (3.3), ed in
caso, che esista una variabile X
che senso ne viene individuata una sola. Notiamo che intanto ci sono delle condizioni necessarie da rispettare:
47
48
MPEF 01-07-2009
chiaramente, per la pre-definizione 1, `e necessario che X sia una variabile aleatoria integrabile1 , cio`e E[|X|] < ,
mentre, per la pre-definizione 2, `e necessario richiedere che X sia di quadrato integrabile 2 , cio`e E[|X|2 ] < , ed
inoltre anche la (3.3) va modificata, nel senso che `e necessario richiedere che anche Z sia di quadrato integrabile,
e 0 `e una variabile aleatoria G-misurabile, che differisce da X
e a
oltre che G-misurabile3 . Inoltre `e chiaro che se X
0
e
meno di un insieme di misura nulla, anche X gode della propriet`a (3.2) o (3.3) rispettivamente e quindi non
si individua una sola variabile aleatoria, ma una classe di variabili aleatorie. Queste modifiche in realt`a sono
sufficienti a garantire che le due pre-definizioni diventino due definizioni.
Definizione 3.1 (valore atteso condizionale 1). Sia X una variabile aleatoria integrabile, cio`e X L1 (, F, P).
e G-misurabile, per la quale valga
Sia data una variabile aleatoria (integrabile) X,
A G.
e A ],
E[XIA ] = E[XI
(3.4)
In questo modo si individua univocamente una classe di funzioni che si indica con E[X | G] e che si chiama
e `e una versione di E[X | G].
anche media condizionale (o condizionata) di X data G. Si dice inoltre che X
Definizione 3.2 (valore atteso condizionale 2). Sia X una variabile aleatoria di quadrato integrabile, cio`e
e G misurabile, per la quale
X L2 (, F, P). Sia data una variabile aleatoria (di quadrato integrabile) X,
4
valga
e 2 ], Z
E[(X Z)2 ] E[(X X)
(3.7)
In questo modo si individua univocamente una classe di funzioni che si indica con E[X | G] e che si chiama
e `e una versione di E[X | G].
anche media condizionale (o condizionata) di X data G. Si dice inoltre che X
Rimandiamo la verifica che effettivamente la Definizione 3.1 e la Definizione 3.2 sono ben poste a dopo aver
trattato alcuni esempi, e anticipiamo che, se X `e di quadrato integrabile5 , allora le Definizioni 3.1 e 3.2 sono
1 Linsieme delle variabili aleatorie X, che sono F -misurabili ed integrabili, cio`
e per le quali E[|X|] < , forma uno spazio
vettoriale reale: se E[|Xi |] < , per i = 1, 2, con Xi F -misurabili, allora la variabile aleatoria a1 X1 + a2 X2 `
e ancora F -misurabile
e inoltre
E[|a1 X1 + a2 X2 |] E[|a1 ||X1 | + |a2 ||X2 |] |a1 |E[|X1 |] + |a2 |E[|X2 |] < .
d2L2 (X, Y
b dove P
b = P| , cio`
Si noti che quindi deve essere Z L2 (, G, P)
e la restrizione di P a G.
G
propriet`
a (3.7) `
e equivalente alla propriet`
a
e 2] =
E[(X X)
min
E[(X Z)2 ] ,
4 La
(3.5)
ZL2 (,G,P)
ovvero
e =
d2L2 (X, X)
min
b dL
2
ZL2 (,G,P)
(X, Z).
b e di d2 )
(vedere le note precedenti per la definizione di L2 (, G, P)
L2
5 Si
ricordi che se X `
e di quadrato integrabile allora se X `
e integrabile:
E[X 2 ] < E[|X|] < ,
(3.6)
MPEF 01-07-2009
49
3.2
Esempi
Z() =
cm IHm (),
m=1
dove cm sono costanti reali, e gli insiemi G-misurabili sono le unioni di sottofamiglie numerabili di elementi
e imponendo la condizione6 che
della partizione. Basta quindi calcolare i valori e
cm che caratterizzano X,
e H ] = E[
E[XIHn ] = E[XI
n
e
cm IHm IHn ] = E[e
cn IHn ] = e
cn P[Hn ]
(3.8)
m=1
Quindi
e
cm =
E[XIHm ]
P(Hm )
se P(Hm ) > 0
e = E[X | G] =
X
X E[XIH ]
n
IHn ,
P(Hn )
n1
X E[XIH ]
X
n
IHn +
cm IHm , per cm R}
P(Hn )
n1
m1
X
nI
nI
e H ] = E[X
e
E[XI
n
nI
nI
e A ].
IHn ] = E[XI
50
MPEF 01-07-2009
dove
m1
X P(B Hn )
X
X E[IB IH ]
n
IHn =
IHn =
P(B | Hn )IHn .
P(Hn )
P(Hn )
n1
n1
(3.9)
n1
X E[I IH ()]
X
X E[I IH ()]
n
n
IHn =
IHn =
IHn = 1,
P(Hn )
P(Hn )
n1
n1
inoltre, se B =
`IB
n1
K` , allora
P(B | G)() =
X E[IB IH ()]
X P(B Hn )
X E[IB IH ()]
n
n
IHn =
IHn =
IHn ()
P(Hn )
P(Hn )
P(Hn )
n1
n1
n1
X X P(K` Hn )
X X P(K` Hn )
X
=
IHn () =
IHn () =
P(K` | G)(),
P(Hn )
P(Hn )
n1 `IB
`IB n1
`IB
e da questa relazione immediatamente si ricava che, qualunque sia , lapplicazione B 7 P(B | G)() definisce
una probabilit`a. Anche nel caso in cui non si faccia lipotesi che P(Hn ) > 0 per ogni n N, si pu`o trovare una
versione di P(B | G)() in modo che per ogni la funzione
P( | G)() : F 7 [0, 1]; B 7 P(B | G)()
sia una probabilit`
a:
fissata a piacere una probabilit`
a P0 su F 9 , si definisce
P(K` | G)() =
X P(K` Hn )
n1
X P(K` Hn )
n1
P(Hn )
P(Hn )
IHn () +
P0 (K` )IHn () =
(3.10)
n1
(3.11)
partizione {K` , ` N} `
e pi`
u fine della partizione {Hm , m N} se e solo se per ogni m N esiste un Im N tale che
[
Hm =
K` .
`Im
9 Ad
P
`N
MPEF 01-07-2009
51
e
P(B | G)() :=
P(K` | G)().
(3.12)
`IB
Si vede immediatamente che la parte a destra di (3.12) `e effettivamente una versione di P(B | G), e si vede
facilmente che in questo modo, qualunque sia , P( | G)() definisce una probabilit`a10 .
Inoltre questa probabilit`
a gode della propriet`a che se X `e F-misurabile, cio`e se
X
X=
c` IK` ,
`N
allora
E[X | G]() =
c` P(K` | G)() =
X( 0 )dP(d 0 | G)().
`N
mN
con il solito abuso di notazione (il secondo membro `e un rappresentante della classe di equivalenza E[X | (Y )]).
Quindi posto
(y) =
mN
e indicato con
E[X | {Y = y}] = (y),
cio`e la funzione, che vale E[X | {Y = y}], se y {ym ; m N}, e zero altrimenti, si ha:
E[X | (Y )]() = E[X | {Y = y}]
= (Y ()).
y=Y ()
Ci`
o giustifica il fatto che si usa scrivere
E[X | (Y )] = E[X | Y ],
P
in questo caso `
e come se avessimo definito una successione {p` (); ` N}, con `N p` () = 1 per ogni
(
p` () = P(K` |Hm ) se Hm , con P(Hm ) > 0,
p` () = P0 (K` )
se Hm , con P(Hm ) = 0,
S
e poi avessimo definito, per B = `I ,
X
P(B|G)() =
p` ().
10 Infatti
`I
Cos`, ad esempio,
P( | G)() :=
X
`N
P(K` | G)() =
(
P(|Hm ) = 1
P0 () = 1
52
MPEF 01-07-2009
e ci fa ritrovare il concetto elementare di valore atteso condizionato di una variabile aleatoria discreta X rispetto
a una variabile aleatoria discreta Y .
Analogamente a quanto fatto nellesempio precedente si ottiene che in tale caso, cio`e se anche X `e una
variabile aleatoria discreta a valori in {xn ; n N}, allora
X
E[X | Y ]() =
xn P(X = xn | {Y = y})
nN
y=Y ()
Infine notiamo che `e facile ripetere quanto sopra nel caso in cui al posto di X ci sia una variabile aleatoria
Z = h(X), integrabile, e ottenere che
X
h(xn )P(X = xn | {Y = y})
E[h(X) | Y ]() =
nN
y=Y ()
Nel caso in cui non si abbia che P(Y = ym ) > 0 per ogni m N, si ottiene, fissata una probabilit`
a P0 , come
nellesempio precedente,
X
E[X | (Y )]() =
mN
E0 [X]I{Y =ym } ()
mN
mN
E0 [X]I{ym } (Y ()),
mN
con il solito abuso di notazione (il secondo membro `e un rappresentante della classe di equivalenza E[X | (Y )]).
Quindi posto
(y) =
mN
E0 [X]I{ym } (y),
mN
e indicato con
E[X | {Y = y}] = (y),
cio`e la funzione, che vale E[X | {Y = y}], se y {ym ; m N} e se P({Y = y}) > 0, e vale E0 [X] altrimenti,
si ha:
E[X | Y ]() = E[X | {Y = y}]
= (Y ()).
y=Y ()
Pi`
u in generale si ha anche che posto
h (y) =
mN
E0 [h(X)]I{ym } (y),
mN
si ottiene che
E[h(X) | Y ]() = h (Y ()).
Esempio 3.4. Caso in cui G = (Y ), con Y una variabile aleatoria a valori in Rd , e (X, Y ) ammette densit`
a
di probabilit`
a congiunta fX,Y (x, y). Allora, posto
fX|Y (x|y) = I{z:fY (z)>0} (y)
fX,Y (x, y)
+ I{z:fY (z)=0} (y)f0 (x)
fY (y)
x fX|Y (x|y)y=Y () dx
MPEF 01-07-2009
53
ossia11
Z
e
X()
=
x
R
Z
fX,Y (x, y)
dx
+
x I{z:fY (z)=0} (y)y=Y () f0 (x)dx,
I{z:fY (z)>0} (y)
fY (y)
R
y=Y ()
Cominciamo con il caso in cui fX,Y (x, y) > 0 per ogni (x, y) R Rd , cos` anche fY (y) > 0 per ogni
y Rd , e quindi
e
E[X()I
A]
e
= E[X()I
B (Y )]
Z Z
fX,Y (x, y)
dx IB (y)fY (y) dy
=
x
fY (y)
Rd
R
xIB (y)
Rd
ZR Z
=
fX,Y (x, y)
fY (y) dx dy
fY (y)
Rd
e
= E[X()I
B (Y )]
Z Z
fX,Y (x, y)
dx IB (y)fY (y) dy
=
xI{z:fY (z)>0} (y)
fY (y)
Rd
R
Z Z
+
xI{z:fY (z)=0} (y)f0 (x) dx IB (y)fY (y) dy
Rd
fX,Y (x, y)
xIB (y)I{z:fY (z)>0} (y)
fY (y) dx dy
fY (y)
R Rd
Z Z
+
xIB (y)I{z:fY (z)=0} (y)f0 (x)fY (y) dx dy
d
Z Z R R
fX,Y (x, y)
=
xIB (y)I{z:fY (z)>0} (y)
fY (y) dx dy
fY (y)
d
ZR ZR
=
xIB (y)I{z:fY (z)>0} (y)fX,Y (x, y) dx dy
R
Rd
R
e
In realt`
a per poter scrivere la formula esplicita per X()
`
e necessario prendere f0 (x) in modo che R |x| f0 (x)dx <
R
f
(x,y)
. Inoltre un altro rappresentante per il valore atteso condizionato `
e R x I{z:fY (z)>0} (y) X,Y
dx in quanto
fY (y)
y=Y ()
P I{z:fY (z)=0} (y) y=Y () = 0 = 1. Questultima uguaglianza dipende dal fatto che I{z:fY (z)=0} (y) y=Y () = 0 Y ()
/
R
R
{z : fY (z) = 0 e per il suo complementare si ha P Y () {z : fY (z) = 0} = {z:f (z)=0} fy (z) dz = {z:f (z)=0} 0 dz = 0.
Y
Y
12 Una versione del Teorema di Fubini `
e la seguente: se : Rn1 Rn2 7 R; (x, y) Rn1 Rn2 7 (x, y) R `
e una funzione
boreliana, allora le seguenti condizioni sono equivalenti
Z
Z
Z
Z
Z
|(x, y)|dy dx <
|(x, y)|dx dy <
|(x, y)|dxdy < .
n
11
Rn1
Rn2
Rn2
Rn1
Rn1 R2
Inoltre se vale una delle precedenti condizioni vale, allora tutti i valori dei precedenti integrali coincidono.
Il Teorema di Fubini `
e quindi usato per scambiare lordine degli integrali.
54
MPEF 01-07-2009
Rd
Rd
Rd
R
infatti, se I{z:fY (z)=0} (y) = 1, ovvero se fY (y) = 0 = R fX,Y (x, y) dx , allora linsieme {x : fX,Y (x, y) > 0}
ha misura di Lebesgue nulla, e quindi, per tali y
Z
xIB (y)fX,Y (x, y) dx = 0.
Rd
Si osservi che anche in questo caso, se fX,Y (x, y) > 0 per ogni (x, y), allora
probabilit`a in x, qualunque sia y, e che
Z
fX,Y (x, y)
dx
P(X C | Y ) = E[IC (X) | (Y )] =
fY (y)
C
fX,Y (x,y)
fY (y)
`e una densit`a di
X,Y
Y.
Y2
1,n
X
i,j xi xj } = c exp{
n
n X
X
i,j xi xj }
i=1 j=1
i,j
e
E[Xn | X1 , , Xn1 ] =
n1
X
i=1
i,n
Xi .
n,n
(3.13)
soluzione13 : Si tratta del caso d = n 1 con X = Xn e Y = (X1 , , Xn1 ) e con fX,Y (x, y) > 0. Per
calcolare E[Xn | X1 , , Xn1 ] dobbiamo innanzitutto
fX1 ,...,Xn1 ,Xn (y, x)
fY,X (y, x)
fX,Y (x, y)
=
=
,
fY (y)
fY (y)
fX1 ,...,Xn1 (y)
Abbiamo quindi
n1
1,n1
X
X
f (x1 , , xn1 , xn ) = c exp
i,j xi xj xn
n,j xj
i,j
j=1
n1
X
!
i,n xi
i=1
xn n,n x2n
n1
X
j=1
n1
X i,n
n,j
xj =
xi ,
n,n
i=1 n,n
13 Pur essendo possibile utilizzare la tecnica dellesempio precedente si consiglia lo svolgimento dei calcoli dopo lintroduzione
delle distribuzioni condizionali
MPEF 01-07-2009
55
e quindi che
1,n1
X i,j
f (x1 , , xn1 , xn ) = f (y, xn ) = c exp n,n
xi xj + 2xn m(x1 , . . . , xn1 ) + x2n
n,n
i,j
1,n1
X i,j
xi xj + m2 (y) + 2xn m(y) + x2n m2 (y)
= c exp n,n
n,n
i,j
n
o
2
= c(y) exp n,n m2 (y) + 2xn m(y) + x2n = c(y) exp n,n [xn + m(y)]
Di conseguenza
)
(
2
n
o
fX,Y (x, y)
c(y)
[xn (m(y))]
2
.
=
exp n,n [xn (m(y))] = K(y) exp
fY (y)
fY (y)
2 21n,n
f
(x,y)
Come osservato nel caso generale dellesempio precedente, qualunque sia y, X,Y
deve essere una densit`
a
fY (y)
14
di probabilit`
a: `e quindi chiaro che deve coincidere con la densit`
a di una variabile aleatoria gaussiana
N (m(y), 21n,n ), di media m(y) e di varianza 21n,n . Il valore atteso si calcola quindi come
(
[xn (m(y))]
E[Xn | X1 , , Xn1 ] =
xK(y) exp
2 21n,n
R
= m(y)
,
Z
dx
y=(X1 ,...,Xn1 )
y=(X1 ,...,Xn1 )
14 La
h(x) fX|Y (x|y)y=Y () dx
1
2 21
n,n
.
n,n
15 Ricordiamo che il problema di trovare la retta di regressione lineare di X rispetto ad Y corrisponde al problema di trovare il
e b tali
punto di minimo, tra tutte le funzioni affini a y + b del valore atteso del quadrato della differenza tra X, ovvero trovare a
che
2
2
E X (
a Y + b)
= min E X (a Y + b) .
a,b
Tenendo presente che le variabili aleatorie (Y )-misurabili sono le variabili aleatorie Z = g(Y ), con g boreliana, allora il valore
= g(Y ) tale che
atteso condizionato, secondo la Definizione 3.2, `
e quella variabile aleatoria E[X|Y ] = X
2
E X g(Y )
=
min
g boreliane
2
E X g(Y ) ,
=a
Y + b `
di conseguenza si ha che se E[X|Y ] = X
e una funzione affine, allora coincide anche con la retta di regressione.
56
3.3
MPEF 01-07-2009
Propriet`
a del valore atteso condizionale
Enunciamo ora (senza dimostrarle, per il momento), le propriet`a fondamentali della media condizionale (secondo
la Definizione 3.1).
Siano X e Y variabili aleatorie integrabili in (, F, P) e siano G e H sotto -algebre di F, allora valgono le
seguenti propriet`a:
1. Linearit`
a
E[aX + bY | G] = aE[X | G] + bE[Y | G]
2. Monotonia
MPEF 01-07-2009
57
cio`e
X()dP() =
f ()dP()
ovvero
E[XIA ] = E[f IA ].
b
La derivata di Radon-Nikodym `e definita a meno di insiemi di P-misura
nulla. Infatti se g() `e unaltra
funzione G-misurabile per la quale valga E[XIA ] = E[gIA ] per ogni A G, allora E[f IA ] = E[gIA ] per ogni
A G, ed in particolare per A = { : f () g()} e per A = { : f () < g()}, per cui E[| f g |] = 0. Basta
e la derivata di Radon-Nikodym f o qualunque altra variabile aleatoria che differisca da
quindi prendere come X
e
X al pi`
u in un insieme (G-misurabile) di probabilit`a nulla.
Anche la Definizione 3.2 `e ben posta, per convincersene basta considerare che lo spazio L2 (, F, P), pensato
b `e un suo
come classi di equivalenza, `e uno spazio di Hilbert con la norma k X k2 = E[| X |2 ] ed L2 (, G, P)
sottospazio chiuso. Quindi la classe di equivalenza E[X | G] della Definizione 3.2 `e la proiezione di X su
b ***A questo proposito va per`
L2 (, G, P).
o ricordato quanto gi`a detto in una nota della sezione 2.6.1: per
passare agli spazi di Hilbert bisogna assicurarsi che G contenga gli insiemi F-misurabili e di probabilit`a nulla.
***
Si noti la (3.4) potrebbe essere modificata come
e ],
E[XW ] = E[XW
v.a. W
(3.14)
58
MPEF 01-07-2009
indicatrici. Daltra parte `e facile vedere (confronta le propriet`a di linearit`a e di monotonia, dimostrate nella
sezione successiva) che, posto
X = X + X ,
g
g
g
g
+X
, per la propriet`
+ e X
0, per la propriet`
e =X
si ha X
a di linearit`a, con X
a di monotonia. Inoltre si
ha che
g
g
+ W ] E[X
W ].
E[XWn ] = E[X + Wn ] E[X Wn ] = E[X
n
n
Per la propriet`
a di convergenza monotona dei valori attesi, (se Z 0 allora 0 ZWn ZWn+1 ZW ), si
ha
E[X + Wn ] E[X + W ],
E[X Wn ] E[X W ],
g
g
+ W ] E[X
+ W ],
E[X
n
g
g
W ] E[X
W ],
E[X
n
e ], in quanto
quindi E[XW ] = E[XW
g
g
+ W ] E[X
W ] = E[XW
e n ] E[X
e ]
E[XW ] E[XWn ] = E[XW
3.4
d
e2 + tZ})2 ]
e2 )(Z X
e2 )] = 0
E[(X {(1 t)X
= 2E[(X X
dt
t=0
b
e2 deve valere, qualunque sia W L2 (, G, P)
Quindi posto W = Z X
e2 W ].
E[XW ] = E[X
b otteniamo che se
Considerando che tutte le funzioni indicatrici del tipo IA , con A G, sono in L2 (, G, P),
vale la (3.7) allora vale la (3.4).
e `e la media condizionale di X secondo la Definizione 3.1 (o meglio ne `e un rappresentante), allora lo
2) Se X
`e anche secondo la Definizione 3.2.
e `e di quadrato sommabile (confrontare losservazione alla disuguaglianza di Jensen, propriet`a
Infatti, allora X
7.) e quindi la seguente funzione `e finita per ogni Z di quadrato sommabile
e + tZ})2 ] = E[(X X)
e 2 2t(X X)(Z
e
e + t2 (Z X)
e 2]
(t) := E[(X {(1 t)X
X)
MPEF 01-07-2009
59
Poiche si tratta di una parabola essa ammette un minimo nel punto t, in cui la derivata si annulla:
e
e + 2t E[(Z X)
e 2] = 0
0 (t) = 2E[(X X)(Z
X)]
e 2 ] = 0, da cui, per larbitrariet`a
e e tenendo conto della (3.14), si ottiene 0 (t) = 2t E[(Z X)
Posto W = Z X
e
di Z, segue che t = 0. Quindi X gode della propriet`a che per ogni Z di quadrato sommabile (1) (0), ovvero
la (3.7).
Osservazione 3.1. Si noti lanalogia17 con il problema classico di geometria euclidea del trovare la proiezione
V che gode della propriet`
di un vettore x Rn su un sottospazio vettoriale V Rn come quel vettore x
a di
minimizzare la distanza da V , ovvero
k2 = min kx zk2 ,
kx x
zV
3.5
1. Linearit`
a: E[aX + bY | G] = aE[X | G] + bE[Y | G]
e Y sono rappresentanti di E[X | G] e di E[Y | G], rispettivamente,
La dimostrazione `e ovvia, infatti se X
e
ovvero se E[XIA ] = E[XIA ] e E[Y IA ] = E[Ye IA ] per ogni A G, allora basta verificare che
e + bYe )IA ], e ci`
E[(aX + bY )IA ] = E[(aX
o segue immediatamente da
e A ] + bE[Ye IA ] = E[(aX
e + bYe )IA ].
E[(aX + bY )IA ] = aE[XIA ] + bE[Y IA ] = aE[XI
2. Monotonia:
si vede meglio se si sostituisce kx zk2 con dL2 (X, Z) = E[|X Z|2 ] e < x, z > con E[XZ].
60
MPEF 01-07-2009
e > Ye ) > 0 allora avremmo la contraddizione che, da una parte, come gi`a
***Infatti se fosse P (A) = P (X
detto
e A ] = E[(Y X)IA ] 0,
E[(Ye X)I
mentre dallaltra, si avrebbe
e e
e A ] = E[(Ye X)I
e
E[(Ye X)I
X>Y ] < 0.
3. Formula dei condizionamenti successivi:
e eX
b tali che E[XIA ] = E[XI
e A ] per ogni A G H e E[XIB ] = E[XI
b B ] per ogni
Sia G H e siano X
B H, ed in particolare per ogni A G. Allora
b A ] = E[XI
e A ](= E[XIA ]),
E[XI
per ogni A G
e = E[X
b | G]. La seconda parte deriva dal fatto che per la -algebra banale la media e la media
e quindi X
condizionale coincidono.
4. Fattorizzazione:
MPEF 01-07-2009
61
6. Condizionamento ridondante:
La dimostrazione segue da una leggera variante del Lemma di Dynkin18 E[X | G H] = E[X | G].
***e si basa sul fatto la famiglia A di eventi del tipo C = A B, con A G e B H, formano un sistema
chiuso rispetto allintersezione e generano G H,***per il lemma di Dynkin ***baster`a quindi verificare
e C ] coincidono per C = A B, A G e B H ***
che le due misure (C) := E[XIC ] e (C) := E[XI
E[XIAB ] = E[XIA IB ]
(3.15)
e A ]E[IB ] = E[XI
e A IB ] = E[XI
e AB ].
= E[XIA ]E[IB ] = E[XI
***e che A contiene (essendo ovviamente = ).
Nella dimostrazione abbiamo utilizzato lindipendenza della -algebra (X) G, generata da (X) e G da
H, ossia: per ogni evento F (X) G e per ogni evento H H si ha P(F H) = P(F )P(H). Attenzione,
la sola indipendenza di (X) da H e di G da H non `e sufficiente19 nel passaggio (3.15). ***
7. Disuguaglianza di Jensen20 : se `e una funzione convessa, e (X) `e integrabile, allora (E[X | G])
E[(X) | G].
Per risultati classici di analisi `e linviluppo delle sue tangenti (o sotto tangenti) ovvero esistono una
successione di rette n (x) = n x + n per cui (x) = supn {n (x)}, per ogni x in R. Per le propriet`a 1.
di linearit`a e 2. di monotonia si ha allora che
n (E[X | G]) = n E[X | G] + n = E[n (X) | G] E[(X) | G];
18 Ricordiamo lenunciato del Lemma di Dynkin, che tra laltro `
e la base per molti risultati di unicit`
a,***ed `
e noto anche come
teorema dellunicit`
a della misura.
***
***Lemma [Lemma di Dynkin, Billingsley 1984 [3]] Sia A una famiglia di eventi che genera la -algebra G e che `
e chiusa
rispetto alla intersezione finita.
Se due misure di probabilit`
a e coincidono su A, allora le due misure di probabilit`
a coincidono su G.
Di conseguenza, se e sono due misure non negative e finite che coincidono su A {} (cio`
e con () = ()) allora le due
misure coincidono su G.
(la dimostrazione della affermazione sulle misure non negative riconduce subito al caso delle misure di probabilit`
a, considerando le
misure di probabilit`
a (A) := (A)/() e (A) := (A)/().)***
19 ***Il fatto che la sola indipendenza di (X) da H e di G da H non `
e sufficiente si pu`
o mostrare con il seguente controesempio:
X = IE , G = {, G Gc , }, H = {, H H c , }, con E, G ed H tali che P(E H) = P(E)P(H), P(G H) = P(G)P(H), ma
P(E G H) 6= P(E G)P(H) (ad esempio si prenda = (0, 1) (0, 1), E = (0, 21 ) (0, 1), G = (0, 14 ) (0, 1) ( 14 , 12 ) (0, 21 ) e
H = ( 14 , 34 ) (0, 1)).***
20 Si noti che nel caso particolare in cui G `
e la -algebra banale la disuguaglianza di Jensen per i valori attesi condizionali diviene
lusuale disuguaglianza di Jensen
(E[X]) E[(X)].
Infine va notato che la precedente disuguaglianza di Jensen, nel caso particolare di una variabile aleatoria X semplice, a valori in
{x1 , . . . , xn }, con P({X = xi }) = i si scrive come
(E[X]) = (
n
X
i xi )
i=1
n
X
i (xi ) = E[(X)],
, con i 0,
i=1
n
X
i = 1
i=1
La disuguaglianza interna `
e equivalente alla definizione di funzione convessa. Lo `
e esattamente nel caso n = 2
(x1 + (1 )x2 ) (x1 ) + (1 )(x2 )
Il caso generale si ottiene per induzione su n: Se
(
n
X
i xi )
i=1
allora
(
n+1
X
i=1
n
X
n+1
X
i=1
i = 1, e per ogni xi
i=1
i=1
i xi )
n
X
n+1
X
i=1
i = 1, e per ogni yi
62
MPEF 01-07-2009
Si noti che nella dimostrazione vengono utilizzate solo le propriet`a di linearit`a e di monotonia del valore
atteso condizionato.
8. Convergenza sotto il segno di media condizionale, monotona e dominata
8i) Se {Xn }n1 `e una successione di variabili aleatorie non negative ed integrabili, convergente con
probabilit`a 1 ad X, monotonamente, cio`e la successione {Xn }n1 ha la propriet`a che 0 Xn Xn+1 ,
allora E[Xn | G] % E[X | G], con probabilit`a 1.
Dalla propriet`
a di monotonia si ottiene che se {Xn }n1 `e una successione monotona allora anche la
en = E[Xn | G] `e una successione monotona, ed `e quindi convergente
successione delle medie condizionate X
e
` importante notare che per ogni n esiste un insieme
ad una variabile aleatoria Z, G-misurabile. (E
e
e
An G di probabilit`
a nulla nel cui complementare
S vale Xn Xn+1 , che queste disuguaglianze valgono
contemporaneamente nel complementare di A = n1 An , ed infine che A ha ancora misura nulla).
en IA ] =
Per mostrare che la successione converge ad un rappresentante di E[X | G], basta notare che E[X
E[Xn IA ] E[XIA ], per la convergenza monotona di {Xn } a X (e quindi di {Xn IA } a XIA ), e che
en IA ] E[ZI
e A ], per la convergenza monotona di {X
en } a Z
e (e quindi di {X
en IA } a ZI
e A ). Di conseguenza
E[X
e
E[XIA ] = E[ZIA ], A G.
8ii) Se {Xn }n1 `e una successione di variabili aleatorie integrabili, convergente con probabilit`a 1 ad
X, dominatamente, cio`e | Xn | Y , per una variabile aleatoria Y integrabile, allora si ha che
E[Xn | G] E[X | G], in L1 .
La dimostrazione ( ) relativa alla convergenza dominata si basa sulla seguente osservazione: se Xn X
q.c. e | Xn | Y allora Xn X in L1 (infatti allora | Xn X || Y | + | X | e quindi | Xn X | 0
dominatamente e perci`
o E[| Xn X |] 0). Di conseguenza per le propriet`a di linearit`a e per la
disuguaglianza di Jensen applicata alla funzione (x) =| x | e alla variabile aleatoria Xn X,
| E[Xn | G] E[X | G] |=| E[Xn X | G] | E[|Xn X| | G].
Passando ai valori medi
E[| E[Xn | G] E[X | G] |] = E[| E[Xn X | G] |] E[E[| Xn X || G]] = E[| Xn X |] 0.
Osservazione. Dalla dimostrazione `e chiaro che basta la convergenza Xn X in L1 , per ottenere la
convergenza delle rispettive medie condizionali in L1 . In realt`a, nel caso di convergenza dominata, c`e
anche la convergenza puntuale delle medie condizionali. La dimostrazione di questo fatto `e rimandata a
dopo aver mostrato lesistenza di distribuzioni condizionali regolari.
MPEF 01-07-2009
3.6
63
Probabilit`
a condizionali regolari
Il problema `e il seguente:
` possibile trovare una versione di P(A | G) in modo che lapplicazione
E
P( | G)() : F [0, 1]; A P(A | G)()
sia una probabilit`
a per ogni ?
Ad un primo sguardo superficiale sembrerebbe di s`:
Ovviamente P( | G)()=1. Dalla propriet`
a di monotonia si ha che P(C | G) P[0, 1], per ogni evento
n
C F. Dalla propriet`
a di convergenza monotona, applicata alla successione Xn = k=1 IAk , dove {An } `e
una successione di eventi di F, oppure di una -algebra A F, si ottiene che, comunque scelta una successione
di eventi di A, disgiunti a due a due, vale
[
X
P(
An | G) =
P(An | G)
n1
n1
(3)
Per convincersene basta capire che ci`
o `e vero per Z = IC , e quindi per ogni funzione elementare, cio`e
combinazione lineare di funzioni indicatrici. Quindi (3) vale per ogni v.a. non negativa integrabile, in quanto
limite monotono di funzioni elementari, e quindi per ogni v.a. integrabile in quanto differenza di due v.a. non
negative ed integrabili.
Linteresse per lesistenza di una versione regolare delle probabilit`a condizionali sta anche nel fatto che tutte
le dimostrazioni delle propriet`
a delle medie condizionali sarebbero immediate (in particolare la disuguaglianza di
Jensen e la convergenza monotona e dominata, anche nella versione dellosservazione relativa, con la convergenza
puntuale).
Non sempre, purtroppo, si hanno versioni
-algebra A, qui di seguito viene dimostrato
valori in R, cio`e se C = {X H}, H B(R).
aleatoria d-dimensionale, oppure se X `e una
64
MPEF 01-07-2009
separabile (ovvero uno spazio polacco). In questi casi si ottiene anche una probabilit`a sullo spazio S degli stati
di X e si parla di distribuzione condizionale invece che di probabilit`a condizionale, che invece `e una misura di
probabilit`a su .
Proposizione 3.1. Sia X una variabile aleatoria reale in (,
F, P), sia G una sotto -algebra di F, e sia
A = (X) = A = { , t.c. X() H}, H B(R) . Allora esiste una versione regolare Q(, ) di
P(|G)().
Dimostrazione. Lidea `e molto semplice:
1. Si costruisce una funzione F (, ) : R 7 [0, 1] che, per ogni , F (, ) : R 7 [0, 1] soddisfa tutte le
propriet`a di una funzione di ripartizione, e che `e una versione della probabilit`a condizionale P(X s | G)().
Indicheremo tale funzione con F (s | G)(), per ricordare questa propriet`a.
dimostrazione di 1. Si inizia considerando F (t | G)() := P(X t | G)() per t razionale. Per la propriet`a
della monotonia, possiamo prendere una versione per cui, per ogni t1 t2 razionali, F (t1 | G)() F (t2 | G)(),
in un evento 0 di probabilit`
a 1: in questo caso levento in cui ci`o non si verifica `e ununione numerabile di eventi
di probabilit`a nulla. Per c0 si definisce F (t | G)() = F0 (t), con F0 una fissata funzione di distribuzione,
ad esempio (sempre sui razionali). Su tale evento 0 esiste, per monotonia, il limite di F (t | G)() sia
per t + che per t , sempre per t razionale. Tali limiti sono rispettivamente uguali ai limiti di
F (n | G)() e di F (n | G)(), e, di nuovo a parte un insieme di probabilit`a nulla, coincidono rispettivamente
con 1 = P(X < + | G) e 0 = P(X < | G).(Di nuovo su tale insieme si definisca F (t | G)() = F0 (t) )
Per ogni valore s reale, ma non razionale, si definisce una successione tn s. Per la propriet`a della
convergenza monotona (applicato a 1 I{Xtn } ) si ottiene che il limite di F (tn | G)() esiste ed `e una versione
di P(X s | G)(). In questo modo si `e ottenuta, per ogni una funzione F (s | G)(), definita su tutti i reali,
e che soddisfa tutte le propriet`
a di una funzione di ripartizione, come si pu`o vedere facilmente.
2. Ad ogni `e associata una misura X ( | G)() di probabilit`a, per cui X ((, t] | G)() = F (t | G)(),
per ogni t reale.
Come conseguenza del punto 2., per ogni ***H B(R), la misura ***X (H | G)() `e una versione di P(X H),
oltre ad essere una misura.
La misura X ( | G)() `e detta appunto la distribuzione condizionale di X data G.
3. Per A A, con A = {X H}, si definisce
Q(A, ) := X (H | G)(),
e risulta la versione regolare delle probabilit`
a cercata.
Si faccia attenzione: la distribuzione condizionale X ( | G)(), definita nel punto 2. della dimostrazione
precedente, `e una probabilit`
a su (R, B(R)), mentre Q(, ) `e una misura su (, (X)). Comunque accade che
P({X H} | G)() = X (H | G)(). Inoltre poiche le v.a. (X)misurabili sono le variabili aleatorie del tipo
Z = f (X), con f boreliana, si ha che
E(f (X) | G)() = X (f | G)(),
dove, in generale,
Z
(f ) :=
f (x)d(x).
Per la verit`a esiste una generalizzazione a tutti gli spazi di Borel (S, S), cio`e quegli spazi misurabili (S, S)
per cui esiste un insieme E B(R) e una funzione biunivoca : S E che sia (S, S) (E, B(R)|E ) misurabile,
e la cui inversa sia (E, B(R)|E ) (S, S) misurabile.
MPEF 01-07-2009
65
In particolare quindi il risultato di esistenza della versione regolare `e valido per (S, S) = (Rd , B(Rd )) o
(S, S) = (RN , RN ), che sono spazi di Borel (vedere ad esempio P. Billingsley [3] Convergence of Probability
measures pag. 218 e seguenti).
Prima della dimostrazione va notato che questo fatto permette di applicare il risultato anche al caso in cui
siano coinvolte le variabili aleatorie Xn , n 1, ed X (confrontare di nuovo losservazione alla propriet`a della
convergenza dominata per i valori attesi condizionali).
La dimostrazione `e basata sullosservazione che se Y `e una variabile aleatoria a valori in S, allora X := (Y )
`e una variabile aleatoria reale,e quindi esiste una distribuzione condizionale X ( | G). La distribuzione
condizionale di Y su (S, S) si ottiene, per J S, come
Y (J | G)() = X ((J) | G)()
in quanto la seconda `e una versione di
P({X (J)} | G)() P({1 (X) J} | G)() P({Y J} | G)().
Abbiamo gi`a usato il fatto che ogni funzione (X)misurabile si pu`o esprimere come f (X). Supponiamo
ora che G = (Y ) allora, necessariamente deve accadere che X (H)() sia una funzione di Y (), ovvero che,
per ogni boreliano H, esista una funzione f (H, y), misurabile in y, per cui
1) f (H, Y ()) = X (H)()
2) f (, y) sia una misura di probabilit`
a per ogni y
(questo `e sicuramente vero se y Y (), mentre se y
/ Y () basta definire f (H, y) = (H) per una fissata
misura di probabilit`
a ).
Indicheremo f (H, y) con la notazione pi`
u evocativa di X (H | Y = y) o anche X|Y (H | y). Analogamente
indicheremo con FX (t | Y = y) o con FX|Y (t | y) la funzione di distribuzione condizionale di X data Y , valutata
in Y = y. Ovviamente tale espressione non va confusa con P(X t | {Y = y}), che tra laltro potrebbe non
avere senso nel caso in cui P({Y = y}) = 0.
3.7
Esempi
Esempio 3.7 (caso dominato). Si tratta della generalizzazione dellEsempio 3.4. Siano X ed Y due variabili
aleatorie con legge congiunta assolutamente continua rispetto ad una misura prodotto 1 (dx) 2 (dy) cio`e con
legge congiunta data da
X,Y (dx, dy) = f (x, y)1 (dx) 2 (dy).
` facile vedere che la legge di X `e assolutamente continua rispetto a 1 (dx) e la legge di Y lo `e rispetto a 2 (dy),
E
o meglio
Z
X (dx) =
f (x, y)2 (dy) 1 (dx) = fX (x)1 (dx),
Z
Y (dy) =
f (x, y)1 (dx) 2 (dy) = fY (y)2 (dy).
In questo caso anche la legge condizionale di X data Y `e assolutamente continua rispetto a 1 (dx) e risulta
X|Y (dx|y) =
per Y quasi ogni y.
f (x, y)
1 (dx),
fY (y)
66
MPEF 01-07-2009
Z
(y) =
Z
g(x)X|Y (dx|y) =
g(x)
()
f (x, y)
1 (dx);
fY (y)
Esempio 3.8 (caso non dominato). Siano X ed Y due variabili aleatorie con legge congiunta data da
X,Y (dx, dy) = p f1 (x) dx (x) (dy) + q f2 (x, y) dx dy,
dove p + q = 1, f1 (x) `e una densit`
a di probabilit`
a su R, f2 (x, y) `e una densit`
a di probabilit`
a su R2 , z (dx) `e la
misura concentrata in z (ovvero z (A) = 1 se z A, mentre z (A) = 0 se z
/ A), `e una funzione invertibile,
C 1 e con | 0 (x) | strettamente positiva.
Le distribuzioni marginali sono equivalenti alla misura di Lebesgue, essendo
Z
X (dx) = pf1 (x) + q f2 (x, y)dy dx,
Y (dy) = pf1 (1 (y))
1
|0 (1 (y))|
+q
f2 (x, y)dx dy.
h(y)f1 (1 (y))
Z
h((x))f1 (x)dx + q
Z
h(y)dy
1
|0 (1 (y))|
dy + q
f2 (x, y)dx =
Z
h(y)dy
Z
f2 (x, y)dx =
h(y)Y (dy)
()
g(x)(dx; y)
MPEF 01-07-2009
67
ZZ
E[g(X)h(Y )]
ZZ
g(x)h(y)f1 (x)dx(x) (dy) + q
g(x)h(y)f2 (x, y)dxdy
Z
Z Z
= p g(x)h((x))f1 (x)dx + q
g(x)f2 (x, y)dx h(y)dy
Z Z
Z
1
1
1
h(y)dy + q
g(x)f2 (x, y)dx h(y)dy
= p g( (y))f1 ( (y)) 0 1
| ( (y))|
Z
Z
1
+q
g(x)f2 (x, y)dx h(y)dy,
=
pg(1 (y))f 1 (1 (y)) 0 1
| ( (y))|
= p
mentre invece
Z
E[(Y )h(Y )] = p
(y)h(y)f1 (
(y))
Quindi affinche valga luguaglianza (*), qualunque sia h, `e necessario e sufficiente che
Z
1
+q
g(x)f2 (x, y)dx =
pg(1 (y))f1 (1 (y)) 0 1
| ( (y))|
Z
1
= (y) pf 1 (1 (y)) 0 1
+q
f2 (x, y)dx
| ( (y))|
ovvero che
R
1
+
q
g(x)f
(x,
y)dx
pg(1 (y))f1 (1 (y)) |0 (1
2
(y))|
R
(y) =
.
1
1
pf1 ( (y)) |0 (1 (y))| + q f2 (x, y)dx
Si noti ancora che
g(1 (y)) =
Z
g(x)1 (y) (dx).
1 (dx)
|0 (1 (y))| (y)
Si noti che quindi la legge di X condizionata a Y = y non `e assolutamente continua rispetto alla distribuzione
iniziale di X, che ha invece una densit`
a rispetto alla misura di Lebesgue.
Capitolo 4
Martingale
In questo capitolo introduciamo il concetto di martingala, che in un certo senso si pu`o considerare una
formalizzazione del concetto di gioco equo. Per definire una martingala abbiamo per`o prima bisogno di dare la
seguente definizione.
Definizione 4.1 (Filtrazione). In uno spazio (, F), la famiglia {Ft , t 0} si dice una filtrazione se `e una
famiglia crescente di -algebre di F, cio`e Fs Ft F, per 0 s t. (La definizione ha senso anche nel caso
in cui t = n N, e nel caso in cui t I R, ad esempio t [0, T ]).
La algebra Ft rappresenta linformazione disponibile fino al tempo t, e pi`
u in generale la filtrazione {Ft }
viene detta anche flusso di -algebre, in quanto rappresenta il flusso di informazioni disponibili, al variare
del tempo.
Definizione 4.2 (Martingala). Un processo aleatorio1 (Xt ), definito in uno spazio di probabilit`
a (, F, P), si
dice una martingala rispetto ad una filtrazione {Ft }, con Ft F, se
0) Xt `e Ft -misurabile per ogni t 0. (o pi`
u rapidamente il processo Xt `e adattato ad Ft )
1) Xt `e integrabile per ogni t 0, cio`e E[| Xt |] < + per ogni t 0.
2) E[Xt+s | Ft ] = Xt , per ogni t, s 0
Nel caso in cui t = n N la 2) pu`
o essere sostituita con la richiesta che
E[Xn+1 | Fn ] = Xn , per ogni n N.
Si noti che la propriet`
a 0) `e sovrabbondante in quanto la 2) implica che Xt sia Ft -misurabile.
Ci`o non `e vero nella seguente definizione di submartingala (supermartingala), che in un certo senso si pu`o
considerare una formalizzazione del concetto di gioco favorevole (sfavorevole).
Definizione 4.3 (Submartingala (Supermartingala)). Un processo aleatorio Xt si dice una submartingala
( supermartingala) rispetto ad una filtrazione {Ft } se
0) Xt `e Ft -misurabile per ogni t 0. ( o pi`
u rapidamente il processo Xt `e adattato ad Ft )
1) Xt `e integrabile per ogni t 0, cio`e E[| Xt |] < + per ogni t 0.
2) E[Xt+s | Ft ] Xt (E[Xt+s | Ft ] Xt ), per ogni t, s 0,
1 Il lettore per il momento pu`
o pensare di considerare solo il caso tempo discreto, e sostituire la parola processo con la parola
successione {Xn }n di variabili aleatorie. Inoltre pu`
o limitarsi a considerare il caso di una filtrazione {Fn }n generata dal processo
stesso, ovvero il caso in cui Fn `
e -algebra generata da {X1 , X2 , , Xn }. In altre parole
68
MPEF 01-07-2009
69
4.1
Esempio 4.1. Sia data una variabile aleatoria Y integrabile ed una filtrazione {Ft }. Si definisca Xt := E[Y |
Ft ]. Si dimostra facilmente che Xt `e una martingala:
E[Xt+s | Ft ] =
(per def.)
E[E[Y | Ft+s ] | Ft ] =
(condiz. successivi)
E[Y | Ft ]
Lesempio precedente aiuta a capire il nome di submartingala: sia ora Xt una submartingala, allora, fissato
v = t + s, il processo
Zt := E[Xt+s | Ft ] E[Xv | Ft ],
`e una martingala per t [0, v], quindi la propriet`a 2) per le submartingale diviene
Zt := E[Xv | Ft ] Xt ,
Sn =
n
X
Yk ,
n 1,
k=1
o equivalentemente
Sn =
n
X
Yk ,
n 0,
k=1
2 Attenzione:
ovviamente la filtrazione potrebbe anche essere specificata anche allinizio di una sezione, o di un capitolo.
3 Non `
e necessario che le variabili aleatorie Yn abbiano la stessa distribuzione, basta che siano integrabili e abbiano valore atteso
nullo.
70
MPEF 01-07-2009
P0
k=1
ak =
1k0
ak =
ak = 0).
se n = 0,
se n > 0.
Infatti
E[Sn+1 | Fn ] = E[Sn + Yn+1 | Fn ] = Sn + E[Yn+1 | Fn ] = Sn + E[Yn+1 ] = Sn .
Se le variabili aleatorie Yk non sono a media nulla, basta sostituire Yk , se = E[Y1 ], ed ottenere che
Sen =
n
X
(Yk ) =
k=1
n
X
Yk n = Sn n
k=1
`e una martingala5 .
Infine si osservi che, nel caso in cui > 0, si ottiene che Sn `e una submartingala, mentre, nel caso in cui
< 0, si ottiene che Sn `e una supermartingala.
Esempio 4.3. Se siamo nelle stesse ipotesi del precedente Esempio 4.2 ed inoltre le variabili aleatorie Yk
ammettono momento secondo finito, e quindi varianza 2 , allora Mn := Sn2 n 2 `e una martingala:
2
2
2
Mn+1 Mn = Sn+1
(n + 1) 2 (Sn2 n 2 ) = (Sn2 + 2Yn+1 Sn + Yn+1
) Sn2 2 = 2Yn+1 Sn + Yn+1
2
di conseguenza
FnS
FnY
per n 1,
, per n 1.
5 Sempre nel caso in cui le variabili aleatorie Y non abbiano la stessa legge si dovr1`
a sostituire Yk k , dove k = E[Yk ]. In
k
questo caso
n
n
n
X
X
X
en =
S
(Yk k ) =
Yk
k
k=1
k=1
k=1
6 Di
nuovo la stessa dimostrazione funziona anche nel caso in cui le variabili aleatorie Yk non hanno la stessa legge, purch
e
abbiano momento secondo finito e siano indipendenti. In tale caso
Mn := (Sn
n
X
k=1
k )2
n
X
k2
k=1
`
e una martingala. Si confronti questo risultato con il successivo Teorema di Decomposizione di Doob 4.1.
MPEF 01-07-2009
71
Esempio 4.4. Sia Xt una martingala con E[| Xt | ] < +, per un 1. Allora il processo | Xt | `e una
submartingala: basta applicare la disuguaglianza di Jensen alla funzione |x| , che `e convessa per 1
| Xt | =
(Xt `
e una MG)
| E[Xt+s | Ft ] |
E[| Xt+s | | Ft ].
Questo esempio si generalizza immediatamente al caso di ogni funzione convessa , purche, ovviamente,
E[(Xt )] < +.
(Xt ) =
(Xt `
e una MG)
(E[Xt+s | Ft ])
E[(Xt+s ) | Ft ].
Per ottenere un risultato analogo nel caso in cui Xt sia una submartingala bisogna aggiungere lipotesi che
sia una funzione crescente, in modo che, essendo
Xt
(Xt )
(Xt `
e una subMG)
( `
e crescente)
E[Xt+s | Ft ],
(E[Xt+s | Ft ])
E[(Xt+s ) | Ft ].
Esempio 4.5. Se le variabili aleatorie Wk sono indipendenti identicamente distribuite7 , con E[W1 ] = 1, allora
la successione di variabili aleatorie
Z0 = 1,
Zn :=
n
Y
Wk ,
n 1,
k=1
o equivalentemente
Zn :=
n
Y
Wk ,
n 0,
k=1
Q0
k=1
72
MPEF 01-07-2009
Esempio 4.6 (***Integrale stocastico a tempo discreto***). Sia Sn una martingala rispetto a Fn , nello spazio
e sia n predicibile rispetto a Fn , ovvero sia n misurabile rispetto a Fn1 per ogni n 1. Allora
(, F, P),
l integrale stocastico discreto
n = In () :=
(.S)
n
X
k (Sk Sk1 )
(4.1)
k=1
n
X
k (Sk Sk1 )
k=1
n
X
|k |(|Sk | + |Sk1 |)
k=1
k ||Sk1 |] ck E[|
Sk1 |] < ,
E[|
k ||Sk1 |] E
1/2 [|k |2 ]E
1/2 [|Sk1 |2 ] < .
E[|
n `
(S
e una Fn MG)
n+1 0 = 0
Esempio 4.7. 9 Dato uno spazio (, F) e su di esso una filtrazione {Ft } e due misure di probabilit`
a P e Q, con
P assolutamente continua rispetto a Q (di conseguenza lo sono anche rispetto ad Ft per ogni t). Si definisca10
9 Questo esempio richiede la conoscenza del Teorema di Radon Nikodym, e pu`
o essere tralasciato in una prima lettura. In
alternativa il lettore pu`
o considerare solo il caso a tempo discreto con t = k {1, n}, = Rn , Fk = {A = Hk Rnk , con Hk
B(Rk )}, ed infine P(dx1 dxn ) = p(x1 , , xn )dx1 dxn e Q(dx1 dxn ) = q(x1 , , xn )dx1 dxn con p e q densit`
a di
probabilit`
a. La assoluta continuit`
a di P rispetto a Q diviene allora la condizione
dP
p(x1 , , xn )
(x1 , , xn ) =
.
dQ
q(x1 , , xn )
10 Nel
dove
nk
pk (x1 , , xk ) =
e
pk (x1 , , xk )
,
qk (x1 , , xk )
R
nk
qk (x1 , , xk ) =
sono le densit`
a marginali su Rk di p e q, rispettivamente.
MPEF 01-07-2009
73
pi,j h(j),
per ogni i
n1
X
(P I)f (Xk )
k=0
ovvero che
E[h(Xn+1 ) | Xn , Xn1 , , X0 ] = h(Xn ).
Essendo (Xn , n 0) una catena di Markov si ha12
11 Si ricorda che la successione {X } `
a di transizione (pi,j )i,j
n n e una catena di Markov omogenea con matrice delle probabilit`
significa che vale la propriet`
a di Markov, ovvero: qualunque siano n, j, i, in1 , , i0
74
MPEF 01-07-2009
Mnf
= f (Xn+1 )
n
X
k=0
n1
X
(P I)f (Xk )
k=0
f
Mnf = f (Xn+1 ) (P I)f (Xn ) f (Xn ) = f (Xn+1 ) (P f )(Xn ),
Mn+1
e quindi
f
E[Mn+1
Mnf | FnX ] = E[f (Xn+1 ) (P f )(Xn ) | FnX ] = E[f (Xn+1 ) | FnX ] (P f )(Xn ) = 0.
Per la propriet`
a di Markov P(Xn+1 = j | X = x) = P(Xn+1 = j | Xn = xn ) = pxn ,j , quindi
P(Xn+1 = j | X) = P(Xn+1 = j | Xn ) = pXn ,j
e
f (j)P(Xn+1 = j | X = x) = (P f )(xn ),
e perci`
o
E[f (Xn+1 ) | Xn , Xn1 , , X0 ] = (P f )(Xn ).
MPEF 01-07-2009
4.2
75
Decomposizione di Doob
Tenendo conto dellEsempio 4.4, possiamo affermare che, se sono soddisfatte delle condizioni di integrabilit`a, il
quadrato della martingala Sn dellEsempio 4.2 `e una submartingala. NellEsempio 4.3, si ottiene che Sn2 n `e
una martingala, quindi si pu`
o scrivere come la somma di due processi
Sn2 = (Sn2 n 2 ) + n = Mn + An
dove Mn `e una martingala, ed An = n 2 `e un processo deterministico crescente.
Il seguente teorema generalizza tale esempio a tutte le submartingale.
Teorema 4.1 (Decomposizione di Doob). : Sia (, F, P) uno spazio di probabilit`
a, e sia (Fn )n N una
filtrazione con Fn F. Data una Fn -submartingala Xn a tempo discreto, essa si pu`
o sempre scrivere in modo
unico (a meno di insiemi di misura nulla) come
Xn = X0 + Mn + An ,
dove Mn `e una martingala ed An `e un processo predicibile (cio`e, per ogni n N, An `e Fn1 -misurabile)
crescente in senso lato, con A0 = 0.
Dimostrazione. Se una tale decomposizione esiste necessariamente deve accadere che M0 = 0, ed inoltre, essendo
An = Xn X0 Mn , deve accadere che
An+1 An = Xn+1 X0 Mn+1 (Xn X0 Mn ) = Xn+1 Xn (Mn+1 Mn ).
Essendo An+1 An una v.a. Fn -misurabile, passando alla media condizionale rispetto ad Fn , essa non cambia,
per cui deve necessariamente accadere che
An+1 An = E[Xn+1 Xn (Mn+1 Mn ) | Fn ]
= E[Xn+1 Xn | Fn ] E[Mn+1 Mn | Fn ] =
(Mn `
e una Fn -martingala)
= E[Xn+1 Xn | Fn ] = E[Xn+1 | Fn ] Xn .
Quindi lunico modo per definire13 An+1 , con A0 = 0, `e il seguente
An+1 := An+1 A0 =
n
X
(Ak+1 Ak ) =
k=0
n
X
(E[Xk+1 | Fk ] Xk ).
(4.2)
k=0
` immediato verificare14 che con questa definizione il processo An := Pn (E[X` | F`1 ] X`1 ) `e integrabile,
E
`=1
predicibile e crescente, con A0 = 0.
Si tratta ora solo di verificare che con questa definizione di {An }n0 il processo Mn := Xn X0 An `e una
martingala, con M0 = 0. Ma ovviamente
Mn+1 Mn = Xn+1 X0 An+1 (Xn X0 An ) = Xn+1 Xn (An+1 An ),
per cui, tenendo conto che per definizione An+1 An = E[Xn+1 | Fn ] Xn , e passando alla media
condizionale, si ottiene la tesi.
13 Da cui segue lunicit`
a della decomposizione, in quanto An deve essere definito come in (4.2) e poi si dovr`
a definire
necessariamente Mn := Xn X0 An .
14 Per lintegrabilit`
a basta osservare che
|An |
n1
X
`=1
n
X
E[|X` | | F`1 ] + |X`1 | ,
76
MPEF 01-07-2009
Osservazione 4.4. Ogni processo crescente, integrabile ed adattato `e una submartingala, quindi si pu`
o applicare
il Teorema di Doob e riscriverlo come la somma di un processo predicibile e di una martingala. Pi`
u in generale,
la somma di un processo crescente, integrabile ed adattato e di una martingala `e una submartingala, e quindi,
per il Teorema di Doob, si pu`
o riscrivere ancora come la somma di unaltra martingala e di un processo crescente
che inoltre `e predicibile.
Osservazione 4.5. Si noti che nella dimostrazione del teorema di decomposizione di Doob, il fatto che Xn sia
una submartingala `e servito solo nei seguenti punti:
(i) ha senso calcolare la media condizionata di E[Xn+1 Xn | Fn ], in quanto Xk `e integrabile per ogni k,
(ii) il valore atteso condizionato E[Xn+1 Xn | Fn ] coincide con E[Xn+1 | Fn ] Xn in quanto Xn `e adattato
alla filtrazione {Fn },
(iii) il processo An risulta crescente (in senso lato), in quanto E[Xn+1 | Fn ] Xn 0.
Si vede quindi che il procedimento si applica a qualunque processo che sia integrabile ed Fn -adattato, si
ottiene per`
o una decomposizione nella somma di una martingala e di un processo predicibile (che, in generale,
non `e crescente).
Sarebbe interessante rivedere lEsempio 4.8, sotto questa luce, in fondo applicando il procedimento della
decomposizione di Doob al processo FnX -adattato e integrabile f (Xn ), si ottiene che
f (Xn ) = f (Xn )
n1
X
X
n1
E[f (Xk+1 ) | Fk ] f (Xk ) +
E[f (Xk+1 ) | Fk ] f (Xk )
k=0
= f (Xn )
n1
X
k=0
P f (Xk ) f (Xk ) +
k=0
= f (Xn )
n1
X
n1
X
P f (Xk ) f (Xk )
k=0
P I f (Xk ) +
k=0
n1
X
n1
X
P I f (Xk ) = Mnf +
P I f (Xk )
k=0
n1
X
k=0
P I f (Xk ).
k=0
In effetti il processo
Afn :=
n1
X
P I f (Xk )
k=0
`e un processo
FnX -predicibile,
X
-misurabile.
in quanto chiaramente Afn `e Fn1
Esempio 4.9 (Variazione quadratica predicibile di una martingala). Se Mn `e una martingala di quadrato
integrabile, allora Mn2 `e una submartingala ***(come sappiamo dallEsempio 4.4).***
Se M0 = 0, allora la decomposizione di Doob in questo caso diviene:
Mn2 =
n
X
E[(M 2 )k |Fk1 ] +
k=1
n
X
(M 2 )k E[(M 2 )k |Fk1 ] ,
k=1
2
dove (M 2 )k := Mk2 Mk1
.
Cos`, detto variazione quadratica predicibile, o caratteristica quadratica, il processo predicibile
definito da
< M >n :=
n
X
E[(M 2 )k |Fk1 ] =
k=1
n
X
2
E[Mk2 Mk1
|Fk1 ],
k=1
e definita
mn :=
n
X
(M 2 )k E[(M 2 )k |Fk1 ] ,
k=1
si ha la decomposizione di Doob
Mn2 =< M >n +mn .
(4.3)
MPEF 01-07-2009
77
(4.4)
2
***ossia E[Mk2 Mk1
|Fk1 ] = E[(Mk Mk1 ) |Fk1 ], ***come si vede facilmente15 , e quindi
< M >n :=
n
X
E[(M 2 )k |Fk1 ] =
k=1
n
X
h
i
2
E (Mk Mk1 ) |Fk1 .
(4.5)
k=1
n
X
(Mk ) =
k=1
n
X
(Mk Mk1 )
k=1
viene detto variazione quadratica (opzionale). ***Si noti inoltre che [M ]n , essendo un processo adattato e
crescente `e una submartingala e che [M ]n < M >n `e una martingala, ossia < M >n `e il processo crescente e
predicibile della decomposizione di Doob, relativo alla submartingala [M ]n . ***
Esempio 4.10 (Decomposizione dellintegrale stocastico a tempo discreto). ***Ci mettiamo nelle stesse ipotesi
e notazioni dellEsempio 4.9 precedente: ***Mn `e una martingala di quadrato integrabile ***. Se n `e un
processo predicibile, di quadrato integrabile, per lEsempio 4.6, lintegrale stocastico a tempo discreto
In () :=
n
X
k (Mk Mk1 )
k=1
n
X
n
X
k (Mk Mk1 )
k=1
n
X
h (Mh Mh1 )
h=1
2
k2 (Mk Mk1 ) + 2
k=1
n1
X
n
X
k (Mk Mk1 )
k=1
h (Mh Mh1 ) ,
h=k+1
da cui
" n
#
n1
n
X
X
X
2
2
2
E In () = E
k (Mk Mk1 ) + 2
k (Mk Mk1 )
h (Mh Mh1 )
k=1
n
X
k=1
h
i
2
E k2 (Mk Mk1 ) + 2
k=1
n1
X
h=k+1
n
X
k=1 h=k+1
15 Infatti
2
2
2
2
(M 2 )k = Mk2 Mk1
= (Mk1 + Mk )2 Mk1
= Mk1
+ 2 Mk1 Mk + (Mk )2 Mk1
= 2 Mk1 Mk + (Mk )2 ,
da cui, per la Fk1 -misurabilit`
a di Mk1 ,
E[(M 2 )k |Fk1 ] = E[2 Mk1 Mk |Fk1 ] + E[(Mk )2 |Fk1 ]
= 2 Mk1 E[Mk |Fk1 ] + E[(Mk )2 |Fk1 ],
e quindi, poich
e E[Mk |Fk1 ] = 0, in quanto Mn `
e una martingala,
E[(M 2 )k |Fk1 ] = E[(Mk )2 |Fk1 ].
78
MPEF 01-07-2009
` chiaro che se |k ()| L, allora E I 2 () risulta finita16 .
E
n
Ora si pu`
o vedere direttamente17 che
n
X
E In2 () =
E k2 (< M >k < M >k1 )
k=1
n
X
h
E
k2
(Mk Mk1 )
"
=E
k=1
n
X
#
k2
(Mk Mk1 )
k=1
tuttavia si pu`
o procedere anche in un altro modo.
Come visto, se k `e limitato, allora In () `e una martingala di quadrato integrabile. Per le formule (4.3) e
(4.5) dellEsempio precedente, applicate alla martingala In (), si ha
In2 () =< I() >n +Mn ,
con
< I() >n :=
n
X
2
E[Ik2 () Ik1
()|Fk1 ] =
k=1
n
X
h
i
2
E (Ik () Ik1 ()) |Fk1 ,
k=1
n
X
k=1
In altre parole
Mn := In2 () < I() >n
n
X
= In2 ()
k2 (< M >k < M >k1 )
k=1
16 Se
|k ()| L, ed Mn `
e quadrato integrabile, allora
h
i
h
i
E k2 (Mk Mk1 )2 L2 E (Mk Mk1 )2 <
Si osservi che
h
i
h h
ii
h
h
ii
E k2 (Mk Mk1 )2 = E E k2 (Mk Mk1 )2 |Fk1 = E k2 E (Mk Mk1 )2 |Fk1
=E k2 (< M >k < M >k1 ) ,
MPEF 01-07-2009
79
Esercizio 4.1. ****Si supponga che, nel precedente Esempio 4.10, k goda della propriet`
a che
" n
#
X
E
k2 (< M >k < M >k1 ) < ,
k=1
In() `e una
martingala
E In2 () <
che
Pn
< I 2 () >n = k=1 k2 (< M >k < M >k1 ).
Pn
2
Si noti che di conseguenza E In2 () = E
k=1 k (< M >k < M >k1 ) < .
(L)
soluzione: Si definisca k
e di conseguenza anche E[|k |Mk Mk1 |] < . Ricordando losservazione (i) dellEsempio 4.6 sullintegrale
stocastico a tempo discreto possiamo allora affermare che In () `e una martingala.
Per la disuguaglianza di Cauchy, si deduce che anche i prodotti k (Mk Mk1 ) j (Mj Mj1 ) sono integrabili,
e quindi che la martingala In () `e di quadrato integrabile. La parte rimanente, ed in particolare leguaglianza
E [k (Mk Mk1 ) h (Mh Mh1 )] = 0, per k 6= h, si dimostra esattamente con lo stesso procedimento usato
nellEsempio 4.10, nel caso in cui k `e limitato (si veda la nota 17).
4.2.1
Questa sezione richiede la conoscenza dei processi a tempo continuo. Se il lettore non `e familiare con tali processi
pu`o tranquillamente saltare questa parte e rimandarne la lettura.
Esempio 4.11 (Primi passi verso lintegrale stocastico a tempo continuo). Sia (Xt )t[0,T ] una Gt -martingala
di quadrato integrabile.
Sia inoltre (f (s))s[0,T ] un processo elementare Gt -predicibile, di quadrato integrabile, ovvero un processo
definito da
N
X
f (s, ) :=
Hk ()I(tk1 ,tk ] (s),
k=1
per una partizione {tk , k = 0, , N } di (0, T ], con 0 = t0 < t1 < < tN = T , dove Hk sono variabili aleatorie
Gtk1 -misurabili e di quadrato integrabile.
Si definiscano
Z
f (s, )dX(s, ) :=
N
X
k=1
Hk () Xtk Xtk1 ,
(4.6)
80
MPEF 01-07-2009
e, nel caso = 0 e = t
ItX (f )() :=
f (s, )dX(s, ) =
0
n
X
N
X
Hk () Xtk t Xtk1 t ,
(4.7)
k=1
Hk () Xtk Xtk1 + Hn+1 () Xt Xtn
(4.8)
k=1
f (s)dX(s).
0
Si ha che il processo (ItX (f ))t[0,T ] `e una martingala. Si osservi che, dalla (4.8), si deduce immediatamente
che ItX (f ) ha traiettorie continue, se (Xt )t ha traiettorie continue). Se inoltre, se le variabili Hk sono limitate,
allora il processo (ItX (f ))t[0,T ] `e di quadrato integrabile. ***Inoltre, il processo definito da
Mft
:=
2
ItX (f )
n
X
!
Hk2 ()E[(Xtk
Xtk1 ) |Gtk1 ] +
2
Hn+1
()E[(Xt
Xtn ) |Gtn ] ,
k=1
(4.9)
`e una Gt -martingala, ed in particolare si ha
" n
#
h
X
2 i
X
2
2
2
2
E It (f )
=E
Hk ()E (Xtk Xtk1 ) |Gtk1 + Hn+1 ()E[(Xt Xtn ) |Gtn ] ,
k=1
(4.10)
Le precedenti propriet`
a si dimostrano utilizzando i risultati dei precedenti Esempi 4.6 e 4.10, notando che
nella partizione {tk , k = 0, , N } che definisce f (s) si pu`
o sempre supporre18 ***che ci sia un indice h tale
che t = th . In realt`
a nella
della propriet`
a di martingala servono due tempi t0 t00 e si deve
dimostrazione
f
X
X
0
mostrare che E It00 (f )|Gt = It0 (f ) e che E[Mt00 |Gt0 ] = Mft0 . Basta pensare che entrambi facciano parte della
partizione {tk , k = 0, , N }.
A titolo di esempio si consideri la propriet`
a di martingala dellintegrale stocastico ItX (f ) (tralasciando le
propriet`
a di misurabilit`
a e di integrabilit`
a: si tratta di dimostrare che per ogni t0 t00
E ItX00 (f )|Gt0 = ItX0 (f ).
(4.11)
18 Infatti
se t
/ {tk : k = 0, , N }, allora esiste un ` tale che t (t`1 , t` ) e quindi
H` ()I(t`1 ,t] (s) = H` ()I(t`1 ,t` ] (s) + H` ()I(t,t` ] (s).
Ovviamente H` `
e Gt -misurabile, in quanto Sia {t0k , k = 0, , N + 1} la partizione ottenuta dalla partizione {tk , k = 0, , N }
inserendo il punto t al posto ` + 1 (ovvero t0k = tk per k `, t0`+1 = t, e t0k = tk1 per i rimanenti valori di k) e sia
{Hk0 , k = 0, , N + 1} la famiglia di variabili aleatorie ottenuta in modo analogo dalla famiglia {Hk , k = 0, , N }
0
inserendo la variabile aleatoria H` al posto ` + 1 (ovvero Hk0 = Hk per k `, H`+1
= t, e Hk0 = Hk1 per i rimanenti
valori di k). Allora ovviamente
f (s, ) :=
N
X
k=1
N
+1
X
k=1
Si noti che, in entrambe le rappresentazioni, si ha che Hk = f (tk ), con f (tk ) che risulta Gtk1 misurabile, e Hk0 = f (t0k ),
con f (t0k ) che risulta Gt0k1 misurabile.
Si noti infine che anche lintegrale stocastico relativo non cambia cambiando rappresentazione, ovvero se f elementare
e predicibile ammette due diverse rappresentazioni, lintegrale stocastico `e sempre definito dallo stesso processo, che `e
come dire che la definizione `e ben posta.
MPEF 01-07-2009
81
Fk = Gtk ,
k = f (tk ) = Hk ,
si ottiene che (Mn )n `e una martingala rispetto alla filtrazione (Fn )n , e, con le notazione dellEsempio 4.10, che
ItX0 (f ) = Im (),
ItX00 (f ) = In ()
Xt2
(4.13)
(4.14)
2
Hk2 ()E (Xtk Xtk1 )2 |Gtk1 + Hn+1
()E (Xt Xtn )2 |Gtn
k=1
=
=
n
X
k=1
n
X
k=1
Z t
2
Hk2 ()E < X >tk < X >tk1 |Gtk1 + Hn+1
()E [< X >t < X >tn |Gtn ]
2
Hk2 () < X >tk < X >tk1 + Hn+1
() [< X >t < X >tn ]
f 2 (s) d < X >s
Questa identit`
a `e la base per poi definire lintegrale stocastico rispetto ad una martingala di quadrato integrabile,
che ammetta come variazione quadratica (predicibile) il processo < X >. Infine, si noti che, a sua volta,
19 Per essere la variazione quadratica deve avere anche la propriet`
a di essere predicibile, ma la definizione di predicibilit`
a viene
data dopo....????
20 La dimostrazione della (4.12), si basa sul fatto che
(Xt Xs )2 [< X >t < X >s ] = Xt2 Xs2 2 Xs (Xt Xs ) < X >t + < X >s = Xt2 < X >t [Xs2 < X >s ]2 Xs (Xt Xs ).
Infatti, passando ai valori attesi condizionali si ha che, essendo Xs una variabile aleatoria Gs misurabile,
E (Xt Xs )2 [< X >t < X >s ]Gs = E Xt2 < X >t [Xs2 < X >s ]Gs 2 Xs E (Xt Xs )Gs = 0,
dove lultima uguaglianza dipende dal fatto che Xt2 < X >t e Xt sono martingale.
82
MPEF 01-07-2009
Esercizio 4.2. Dare la dimostrazione diretta del fatto che ItX0 (f ) e Mft sono martingale.
soluzione: La misurabilit`
a e lintegrabilit`
a di ItX0 (f ) (se le variabili Hk sono di quadrato integrabile) e di
f
Mt (se le variabili Hk sono limitate) sono banali da verificare.
Per la propriet`
a di martingala di ItX0 (f ) si osservi che, se t0 ti tj t00 , posto t00 = t0 t00 = ti
0
0
0
0
0
= f (t0k+1 ), allora Hk+1
`e Gtk -misurabile, per k = 0, , m 1, e
tm1 = tj tm = t00 , e posto Hk+1
X00 (f ) I X0 (f ) | Gt0 ] =
E[I
t
t
m
X
0
E[Hk+1
(Xt0k+1 Xt0k ) | Gt00 ] =
k=0
0
`
e Gtk mis.)
(Hk+1
m
X
0
E E[Hk+1
(Xt0k+1 Xt0k ) | Gt0k ] | Gt00
k=0
m
X
0
E Hk+1
E[(Xt0k+1 Xt0k ) | Gt0k ] | Gt00
k=0
(Xt `
e una Gt MG)
m
X
0
E Hk+1
0 =0
k=0
Per quanto riguarda Mft , con la stessa tecnica usata precedentemente, ci si convince subito che basta
dimostrare che E[Mft00 |Gt0 ] = Mft0 per due tempi t0 e t00 , che sono due tempi consecutivi di una partizione,
ossia, per cui
ItX00 (f ) = ItX0 (f ) + H 0 (Xt00 Xt0 ) , con H 0 = f (t00 ), che `e Gt0 -misurabile.
A questo punto basta osservare che
2
2
= ItX0 (f )
2
ItX0 (f )
2
+ H 0 (Xt00 Xt0 )
2
da cui, passando ai valori attesi condizionali, e sfruttando il fatto che H 0 e ItX0 (f ) sono Gt0 -misurabili, si ottiene
i
E Mft00 Mft0 | Gt0 = E (H 0 )2 (Xt00 Xt0 )2 2 ItX0 (f ) H 0 (Xt00 Xt0 ) (H 0 )2 E (Xt00 Xt0 )2 | Gt0 | Gt0
i
= (H 0 )2 E (Xt00 Xt0 )2 | Gt0 2 ItX0 (f ) H 0 E [Xt00 Xt0 | Gt0 ] (H 0 )2 E (Xt00 Xt0 )2 | Gt0 = 0
.
Esercizio 4.3. Si dimostri che non `e necessario fare lulteriore ipotesi di limitatezza di f (ossia di Hk ) per
avere lintegrabilit`
a della martingala Mft , ma basta supporre che
#
"Z
#
"N
T
X
2
2
E
f (s) d < X >s = E
Hk () < X >tk < X >tk1 <
0
k=1
!2
!2
Hk () Xt0k Xt0k1
k=1
k=1
n+1
X
n+1
X
Hk () X
k=1
t0k
t0k1
2
n+1
X n+1
X
Hk () Xt0k Xt0k1 Hj () Xt0j Xt0j1
k=1 j=1
MPEF 01-07-2009
83
ammette valore atteso (finito o no, a priori) che `e dato dal limite
h
h
i
2
2 i
2
2
lim E (Hk () M ) Xt0k Xt0k1
= lim E (Hk () M ) E Xt0k Xt0k1 |Gt0k1
M %
M %
h
h
i
i
2
2
< X >t0k < X >t0k1
= lim E (Hk () M ) E < X >t0k < X >t0k1 |Gt0k1 = lim E (Hk () M )
M %
M %
h
2
i
= E Hk ()
< X >t0k < X >t0k1
Per lintegrabilit`
a dei termini del tipo Hk () Xt0k Xt0k1 Hj () Xt0j Xt0j1 , basta poi usare la
disuguaglianza di Cauchy.
Lesempio che segue `e in realt`
a unanticipazione, in quanto richiede la conoscenza del processo di Wiener,
che in queste note si trova nei capitoli successivi. La lettura di questo esempio va quindi rinviata e deve essere
effettuata dopo aver introdotto tale processo.
Esempio 4.12. Se nellEsempio 4.11 si prende Xt = Wt , il processo di Wiener standard, e Gt = FtW (oppure
Gt = Ft , se si tratta di un processo di Wiener rispetto alla filtrazione (Ft )t ) si ottiene21 che
E[(Xtk Xtk1 )2 |Gtk1 ] = E[(Wtk Wtk1 )2 |FtW
] = tk tk1
k1
e quindi che
Mft := It2 (f )
Z
2 Z t
f (s)dW (s)
f 2 (s)ds
(4.15)
=E
Z
Z t
2
2
f (s)dW (s)
=E
f (s)ds .
(4.16)
Si noti che saremmo arrivati alla stessa conclusione anche nel caso di una martingala (Xt )t0 di quadrato
integrabile, con variazione quadratica (predicibile) < X >t = t. Se inoltre la martingala ha traiettorie continue,
allora anche lintegrale stocastico ItX (f ), sempre per processi elementari, ha traiettorie continue.
Conclusione In questa sezione abbiamo mostrato come si pu`o definire lintegrale stocastico di (f (s))s[0,T ]
rispetto ad una Gt -martingala Xt , con (f (s))s[0,T ] processo elementare Gt -predicibile, ovvero22
f (s, ) :=
N
X
k=1
21 Si
k=1
ponendo cio`
e Ck1 = Hk . Ci`
o pu`
o ingenerare qualche confusione, ma confidiamo nellintelligenza del lettore....
84
MPEF 01-07-2009
per una partizione {tk , k = 0, , N } di (0, T ], con 0 = t0 < t1 < < tN = T , dove Hk sono variabili aleatorie
Gtk1 -misurabili:
ItX (f )() :=
f (s, )dX(s, ) =
0
N
X
Hk () Xtk t Xtk1 t ,
k=1
Se inoltre la martingala (Xt )t0 `e di quadrato integrabile, con variazione quadratica (predicibile) < X >t (ossia
con Xt2 < X >t una martingala), allora, nellipotesi che Hk siano variabili aleatorie limitate, oppure (si veda
lEsercizio 4.3) nellipotesi che
"Z
#
"N
#
T
X
2
2
f (s) d < X >s = E
E
Hk () < X >tk < X >tk1 < ,
0
k=1
si ottiene che
2
ItX (f )
ossia
Z
< I (f ) >t =
Infine se (Xt )t0 `e una martingala di quadrato integrabile, con variazione quadratica (predicibile) < X >t = t,
ed `e a traiettorie continue, allora il processo ItX (f ) `e a traiettorie continue e
X
< I (f ) >t =
0
hR
t
0
i
f 2 (s) ds < .
f 2 (s) ds,
MPEF 01-07-2009
4.3
85
Definizione 4.4. . Sia {Ft } una filtrazione e sia : R+ {}, una variabile aleatoria (la v.a. deve
prendere valori negli indici del tempo preso in considerazione e quindi, ad esempio, in N se si tratta tempo
discreto, ma pu`
o anche prendere il valore infinito). La v.a. si dice tempo darresto (o stopping time)
rispetto ad {Ft }, se per ogni t
{ t} Ft
Si dice inoltre che `e un tempo darresto finito se
P( < +) = 1
e che `e un tempo darresto limitato se esiste un numero L< + per cui
P( < L) = 1
(Si noti che a volte la filtrazione in considerazione `e ovvia, e quindi non viene specificata.)
Nel caso in cui linsieme dei tempi sia N `e equivalente chiedere che { = n} Fn per ogni n, come si vede
facilmente23 .
Esempio 4.13. Con le stesse notazioni dellEsempio 4.3, e per ogni a R,
() = inf{n : Sn a}, (con la convenzione che inf{} = +)
`e un tempo darresto rispetto ad FnS , in quanto per decidere se levento { k} si `e verificato, basta
esaminare le prime k v.a. S1 , , Sk .
Invece () = sup{n 10 : Sn a}, se un tale n esiste e 10 altrimenti, non `e un tempo darresto, in
quanto, ad esempio, per decidere se levento { 3} si `e verificato, bisogna esaminare tutte le v.a. S1 , , S10
e non solo S1 , S2 , S3 , perci`
o { 3} non `e misurabile rispetto a F3S .
Definizione 4.5. Dato un tempo darresto , si definisce la -algebra degli eventi fino al tempo come
F = {A F , per cui A { t} Ft per ogni t}
dove F = Ft .
t
Si tratta cio`e degli eventi, per i quali stabilire il loro verificarsi insieme al verificarsi di { t} dipende solo
dallinformazione disponibile fino al tempo t.
Nel caso in cui linsieme dei tempi sia N `e equivalente chiedere che A { = n} Fn per ogni n, come si vede
facilmente24 .
23 Ovviamente
{ = n} = { n}\{ n 1},
quindi, se { n} Fn e { n 1} Fn1 Fn , allora { = n} Fn per ogni n, mentre
{ n} = n
k=0 { = k}
e quindi se { = k} Fk per ogni k, essendo Fk Fn per k n, si ha che { n} Fn per ogni n.
24 Infatti: se A { = n} F per ogni n, allora
n
A { n} = n
k=0 A { = k},
A { = k} Fk Fn , k n,
e quindi A { n} Fn .
Se invece A { n} Fn per ogni n, allora
A { = n} = A { n}\A { n 1},
e quindi A { = n} Fn .
A { n 1} Fn1 Fn ,
86
MPEF 01-07-2009
4.3.1
Tempo continuo
***Per i tempi di uscita, nel caso a tempo continuo, le cose non sono cos` semplici come nel caso a tempo
discreto, per`o qualcosa si pu`
o dire. ***
Definizione 4.6. Sia
A = inf{t > 0 t.c. Xt
/ A},
con la convenzione che lestremo inferiore dellinsieme vuoto `e uguale a +.
La v. a. A `e detta tempo di prima uscita da A.
Lemma 4.2. Se Xt `e un processo a traiettorie continue e A `e aperto, allora A `e un tempo darresto.
Dimostrazione. Si tratta di notare che, essendo Ac chiuso la funzione x 7 dist(x, Ac ) `e continua, e di
conseguenza, essendo Xt a traiettorie continue, si ha che la funzione s 7 dist(Xs , Ac ) `e continua. Perci`o
inf dist(Xs , Ac ) = min dist(Xs , Ac )
0st
0st
e quindi
{A > t} = { inf dist(Xs , Ac ) > 0} =
0st
[
n
{ inf dist(Xs , Ac )
0st
1
}=
n
[ \
sQ
{ dist(Xs , Ac )
n 0st
1
}=
n
1
} Ft .
n
sQ
Si noti che se il inf dist(Xs , A ) non fosse un minimo, allora potrebbero verificarsi contemporaneamente
0st
gli eventi
{A > t} e { inf dist(Xs , Ac ) = 0},
0st
25
1
} Ft+ m1 ,
n
st
}
n
Ft+(st) = Fs
MPEF 01-07-2009
87
Lemma 4.3. Se Xt `e un processo con traiettorie continue a destra con limiti a sinistra ( cadlag acronimo dal
francese continue `
a droite limite `
a gauche), la filtrazione `e continua a destra (cio`e Ft = Ft+ := Fs ) ed F `e
s>t
0s<t
sQ
4.4
sr
Xs F )
sQ(r,t)
Alcune propriet`
a dei tempi darresto
{ t} = { t} { t} Ft
2) Se `e un tempo darresto allora la successione n = dnne `e una successione di tempi darresto per cui
n , con n per ogni n. (qui dxe denota la parte intera superiore)
Infatti, t, posto tn =
bntc
n ,
risulta
{n t} = {d ne nt} = {
bntc
} Ftn Ft ,
n
bntc
n ,
ed
1
dnxe 1
dnxe
dnxe
=
<x
n
n
n
n
Si osservi che, se di prende en = 2n , allora en & , cio`e en `e anche una successione monotona non
crescente, e che inoltre {e
n } D, dove D `e linsieme dei diadici. Infine va notato che tale risultato `e
interessante solo nel caso di tempi darresto che assumono valori in un insieme non discreto.
3) La v.a. `e F -misurabile.
Infatti, per ogni s, { s} F in quanto, qualunque sia t,
{ s} { t} = { s t} Fst Ft
4) Se e sono tempi darresto e P{ } = 1, ed F0 contiene tutti gli eventi trascurabili (cio`e gli insiemi
contenuti in insiemi di probabilit`
a nulla), allora F F .
88
MPEF 01-07-2009
***allora si possono applicare sia il Lemma 2, ed ottenere cos` dalla ii) che i tempi di uscita da un chiuso
sono tempi darresto (e non solo tempi darresto in senso debole), sia la propriet`a 4, e ottenere cos` dalla i) che
F F ogni volta che P( ) = 1.
4.5
Proposizione 4.4 (Martingale arrestate). Data una Fn -martingala (o submartingala) Xn ed un tempo darresto
, il processo
Yn := Xn
`e una Fn -martingala (o submartingala).
Nota bene: si usa anche la notazione
Xn := Xn ,
e il processo (Xn )n `e detto martingala arrestata al tempo .
Dimostrazione. Cominciamo con il dimostrare che Yn `e Fn -misurabile e che `e integrabile. Si noti che
Yn = X I{ n} + Xn I{ >n} ,
e quindi
(4.17)
(4.18)
MPEF 01-07-2009
89
(4.19)
Proposizione 4.5. Data una Fn -submartingala (o martingala) Xn ed un tempo darresto , limitato quasi
certamente, ovvero per cui esiste un n N, tale che
P(1 n) = 1
allora
E[X1 ] E[X ] E[Xn ].
(Nel caso di martingale E[X1 ] = E[X ] = E[Xn ].)
Dimostrazione. Per la proposizione precedente si ha che {X k }k `e una submartingala, e quindi in particolare
il valore medio `e crescente (in senso lato). Poiche X 1 = X1 , la prima disuguaglianza segue immediatamente.
Per la seconda disuguaglianza basta mostrare che E[Xn X ] 0 e infatti
Xn X =
n
X
i=1
n
X
i=1
e quindi
E[Xn X ] =
n
X
i=1
n
X
i=1
90
MPEF 01-07-2009
e quindi in particolare che X `e integrabile, per cui ha senso calcolare la sua media condizionale.
Inoltre X `e F -misurabile, infatti, qualunque sia x, levento {X x} F , in quanto per ogni h
{X x} { = h} = {Xh x} { = h} Fh .
Infine per mostrare che E[X |F ] X , basta mostrare che
E[X IA ] E[X IA ],
A F ,
A F .
Infatti
E[X n IA ] =
E[Xn IA I{=h} ] =
hn
E[Xn IA{=h} ].
hn
4.6
1) caso simmetrico
Sia Yk una successione di v.a. indipendenti, con
P(Yk = 1) = P(Yk = 1) =
e sia
Sn =
n
X
1
,
2
Yk .
k=1
Sappiamo (vedi Esempio 4.2) che Sn `e una martingala, in quanto se p = 1/2 allora E[Yk ] = 0. Siano a e b
numeri naturali non nulli e sia
= (a, b) := inf{n t.c. Sn
/ (a, b)} = inf{n t.c. Sn = a o Sn = b}.
La variabile aleatoria `e finita 26 con probabilit`a 1, cio`e P( < +) = 1, e quindi il gioco finisce in un tempo
finito.
Per uno dei risultati precedenti sappiamo che Sn `e una martingala e che quindi
26 Si
pu`
o dimostrare direttamente, anche nel caso generale, con P(Yh = 1) = p, che
P( = +) = lim P( > n(a + b)) = 0.
n
Infatti, si ha { = +} = { > n(a + b)} e P( > n(a + b)) n per un < 1. La prima uguaglianza `
e ovvia, mentre la
n1
seconda si pu`
o vedere facilmente osservando che
{ tali che esiste k < n per cui Yk(a+b)+1 = Yk(a+b)+2 = = Yk(a+b)+a+b = 1} { n(a + b)},
MPEF 01-07-2009
91
b
.
a+b
2) caso generale
Come nellapplicazione 1) ma con P(Yk = 1) = p e P(Yk = 1) = q = 1 p.
Si procede27 in modo analogo al caso precedente, ma questa volta si prende come martingala
Zn = exp{Sn n()}
dove
exp{()} = E[exp{Y1 }] = exp{}p + exp{}q.
Si cerca, se esiste, in modo che () = 0 ovvero, posto exp{} = , si cerca p + 1 q = 1, ovvero
2 p + q = 0. Ci`
o `e possibile solo per
p
p
1 1 4p + 4p2
1 1 4p + 4p2
1 |1 2p|
1 (1 2p)
1 1 4pq
=
=
=
=
=
2p
2p
2p
2p
2p
ovvero per = 1 o = pq (come del resto si pu`o vedere subito, anche direttamente).
corrisponderebbe a Zn 1 e non porterebbe ad alcun risultato, mentre exp{} = =
S n
.
Zn = pq
Di nuovo, sempre per convergenza dominata,
q a
q b
1 E[Zn ] E[Z ] =
P(S = a) +
[1 P(S = a)] = 1,
p
p
da cui di nuovo si pu`
o ricavare, posto =
P(
Il caso = 1
corrisponde a
q
p
P(S = a) =
e che quindi
q
p
a b+a
b+a a
1 b
=
= b+a
.
b
b+a
k<n
k<n
k<n
La dimostrazione `
e finita in quanto n tende a zero.
Si noti che in sostanza la precedente dimostrazione si riduce a dimostrare che T (a+b), dove T `
e la variabile aleatoria geometrica
di parametro = pa+b = 1 , definita come
T () = k + 1 Bk h<k Bhc
dove Bk = {Yk(a+b)+1 = = Yk(a+b)+a+b = 1}c . Allora la v.a. `
e finita, essendo la v.a. T finita.
27 In questo caso E[Y ] = 2p 1 6= 0. Se si prendesse la martingala a media nulla M := S (2p 1)n ci sarebbero due problemi:
n
n
k
il primo `
e che la corrispondente martingala arrestata Mn non `
e limitata, per cui pur convergendo a M = S (2p 1) , non
possiamo immediatamente dire che anche i valori attesi di Mn convergono al valore atteso di M ,
il secondo `
e che, anche se avessimo dimostrato che i valori attesi convergono, e quindi si avesse che 0 = E[M ] = E[S (2p 1) ],
non avremmo finito, in quanto dovremmo conoscere anche il valore atteso di .
92
MPEF 01-07-2009
Si noti che
P(S = a)
b
a+b
4.7
Proposizione 4.7 (Disuguaglianza di Kolmogorov). Sia Xn una submartingala non negativa allora
P(max(X1 , X2 , , Xn ) > )
(i)
E[X n ]
(ii)
E[|Xn | ]
E[X ]
E[|X |]
=
Basta quindi mostrare che E[X ] E[Xn ], ***precedente Proposizione 4.5, ***in quanto `e a valori in
1, 2, , n.
Per il caso delle martingale, la tesi segue osservando che
P(max(|X1 |, |X2 |, , |Xn |) > ) = P(max(|X1 | , |X2 | , , |Xn | ) > ),
la funzione |x| , per 1 `e convessa e quindi |Xn | `e una submartingala non negativa (confrontare propriet`a
4) e infine applicando la disuguaglianza precedente.
4.8
Convergenza di martingale
***Nellesempio della rovina del giocatore abbiamo trovato che delle martingale limitate per le quali esisteva
Sn
il limite per n che converge ad infinito: le martingale Sn nel caso simmetrico e pq
, nel caso generale.
Questo fatto `e un caso particolare di un risultato pi`
u generale. ***
Proposizione 4.8. Sia Xn una martingala uniformemente limitata in L1 , cio`e tale che
supE[|Xn |] M < +.
n
Allora
P({ t.c. finito lim Xn ()}) = 1
n
MPEF 01-07-2009
93
Dimostrazione. Daremo la dimostrazione solo nel caso in cui valga una ipotesi pi`
u forte:
supE[|Xn |2 ] M < +.
n
1/2
(si noti infatti che in tale caso E[|Xn |] E[|Xn |2 ]
M)
Basta mostrare che la successione Xn `e una successione di Cauchy con probabilit`a 1. Ci`o significa che
{ t.c. > 0m 1 t.c.k 1|Xm+k () Xm ()| }
ovvero
{|Xm+k Xm | }
>0 m1 k1
P(Bh ) = 1h 1.
Infatti se P( Bh ) = 1 allora, poiche Bh Bh , ne segue che P(Bh ) = 1, comunque fissato h 1. Se
h1
h1
h1
h1
P(Bhc ) = 0.
h1
{|Xm+k Xm | }) = 1,
P(
m1 k1
Si osservi che,m 1,
m1 k1
k1
e che
k1
k=1
Di conseguenza
n
P(
m1 k1
k=1
e quindi
P(
m1 k1
lim
m n
k=1
m n
k=1
Si osservi ora che X k := Xm+k Xm , `e una martingala rispetto alla filtrazione Gk := Fm+k e che
n
k=1
94
MPEF 01-07-2009
Infatti
2
2
] + E[Xm
] 2E[Xm+n Xm ] =
E[|Xm+n Xm |2 ] = E[Xm+n
2
2
= E[Xm+n
] + E[Xm
] 2E[E[Xm+n Xm | Fm ] =
2
2
2
2
2
= E[Xm+n
] + E[Xm
] 2E[Xm E[Xm+n | Fm ] = E[Xm+n
] + E[Xm
] 2E[Xm
]
2
A questo punto si noti che E[Xm
] `e una successione convergente ad un numero M , in quanto `e una
2
successione limitata per ipotesi, e monotona non decrescente (Xm
`e una submartingala). Quindi
lim
m n
4.9
lim
E[X m ]
= 0.
m
2
lim
Disuguaglianza di Doob
Proposizione 4.9 (Disuguaglianza di Doob). Sia data una submartingala non negativa Xn , con E[(Xn )p ] <
+, per un p > 1. Posto Xn = max(Xk ) vale la seguente disuguaglianza:
kn
E[(Xn )p ]
p p
E[(Xn )p ].
p1
Nel caso di una martingala Xn , con E[|Xn |p ] < +, e posto Xn = max(|Xk |) vale la seguente disuguaglianza:
kn
E[|Xn |p ]
p p
E[|Xn |p ])
p1
Dimostrazione. Si definisca
(
:= inf{k tali che 1 k n, Xk > } se un tale k esiste,
:= n + 1
altrimenti.
n
Xn
Z
d =
Z
I{X n >} d =
n
X
I{ =k} d
k=1
n Z
X
2 E[I{ =k} ]d
k=1
n Z
X
k=1
2 E[Xk I{ =k} ]d
in quanto I{ =k} Xk I{ =k} . Inoltre, essendo Xn una submartingala Xk E[Xn | Fk ], non negativa, ed
essendo { = k} Fk si ha
E[Xk I{ =k} ] E[E[Xn | Fk ]I{ =k} ] = E[E[Xn I{ =k} | Fk ]] = E[Xn I{ =k} ]
e quindi
E[(Xn ) ]
n Z
X
k=1
Z
= E[
Z
E[Xn I{ =k} ]d =
0
2 E[Xn
n
X
k=1
I{ =k} ]d
MPEF 01-07-2009
95
ovvero, se 1 > 0,
E[(Xn ) ]
Z
E[Xn
0
2 I{X n >} d] =
E[Xn (Xn )1 ].
1
t[0,T ]
max
n t=(i/2n )T,i2n
|Xt |.
4.10
Quasi tutti i risultati delle sezioni precedenti si estendono al caso di martingale (o submartingale) continue o
cadlag (cio`e continue a destra con limite a sinistra).
Ad esempio, la disuguaglianza di Doob, cos` come quella di Kolmogorov, si estendono al caso di submartingale
Xt a tempo continuo e con traiettorie continue, considerando che
max |Xt | = lim
t[0,T ]
max
n t=(i/2n )T,i2n
|Xt |.
Per quanto riguarda le submartingale cadlag basta passare dal massimo allestremo superiore:
sup |Xt | = lim
t[0,T ]
max
n t=(i/2n )T,i2n
|Xt |.
Per ottenere le disuguaglianze va anche osservato, che la successione X ,n = maxt=(i/2n )T,i2n |Xt | `e una
successione monotona, e la monotonia permette di passare al limite sotto il segno di valore atteso (o di integrale
rispetto a P).
Un poco pi`
u delicato `e il problema dellestensione dei risultati che coinvolgono X , quando `e un tempo
darresto, come ad esempio il fatto che X `e una variabile aleatoria, e addirittura una variabile aleatoria
F -misurabile. A questo problema dedichiamo una sezione alla fine di questo capitolo (Sezione 4.11).
Ad esempio, vale il seguente risultato:
Lemma 4.10. Un processo stocastico Xt , con traiettorie cadlag, e Ft -adattato `e una martingala se e solo se
E[X ] = E[X0 ],
28 Si
(4.20)
1
p
1
+ =1 q=
,
p
q
p1
e che la disuguaglianza di H
older garantisce che per tutte le variabili aleatorie
1
96
MPEF 01-07-2009
Per quanto riguarda laltra implicazione, spieghiamo solo lidea: se `e un tempo darresto limitato da L,
e
1
e una successione di tempi darresto limitata e a valori in {0, m
, dmLe
allora anche m = dm
m `
m }. Il processo
a tempo discreto Yk = Xk/m `e una martingala a tempo discreto rispetto alla filtrazione Gk = Fk/m . Allora
sappiamo che
E[Xm ] = E[Ydm e ] = E[Y0 ] = E[X0 ]
Inoltre, essendo Xt a traiettorie continue a destra si ha che la successione Xm converge a X . Per ottenere la
tesi basta osservare che
lim E[Xm ] = E[X ],
m
Loptional sampling theorem si generalizza al caso di martingale a tempo continuo e cadlag. Pu`o essere
interessante per`o sapere che esiste una generalizzazione, anche al caso di martingale uniformemente integrabili
e di tempi darresto generali: per tali martingale esiste X = limt Xt e si ha che per ogni coppia di tempo
darresto , non necessariamente finiti, si ha
X = E[X |F ] = E[X |F ].
4.11
Lo scopo principale di questa sezione `e affrontare il seguente problema: sotto quali condizioni sul processo Xt
possiamo affermare che, se `e un tempo darresto, allora X `e una variabile aleatoria, e/o una variabile aleatoria
F -misurabile?
A questo scopo ricordiamo la seguente definizione
Definizione 4.7 (Processi (congiuntamente) misurabili). Sia X : [0, T ] :7 R, (t, ) 7 X(t, ) = Xt () .
Sia B([0, T ]) F la -algebra prodotto su [0, T ] , ovvero la -algebra generata da {J A [0, T ] ; J
B([0, T ]), A F}. Il processo (Xt )t si dice congiuntamente misurabile, o pi`
u semplicemente misurabile,
se la funzione X `e B([0, T ]) F-misurabile. La definizione `e analoga per i processi definiti per tutti i tempi
t 0: basta sostituire [0, T ] con [0, ).
MPEF 01-07-2009
97
Cominciamo con losservare che se `e una variabile aleatoria a valori in [0, T ] (non necessariamente un tempo
darresto) e (Xt )t[0,T ] `e un processo misurabile, allora X `e una variabile aleatoria. Infatti basta considerare
che la funzione
, F [0, T ] , B([0, T ]) F
7 (),
`e misurabile, e che 7 X () = X( (), ) `e misurabile, in quanto composizione di due funzioni misurabili.
Nel caso in cui sia un tempo darresto (rispetto alla filtrazione {Ft }), ci`o dimostra solo che X `e una
variabile aleatoria F-misurabile, ma non ci assicura che sia una variabile aleatoria F -misurabile. Per ottenere
ci`o dobbiamo assumere unulteriore propriet`
a sul processo Xt .
Definizione
4.8 (Processi {Ft }-progressivamente misurabili). Sia X : [0, T ] :7 R, (t, ) 7 X(t, ) =
Xt () . Sia B([0, t]) Ft la -algebra prodotto su [0, t] , ovvero la -algebra generata da {J A
[0, t]; J B([0, t]), A Ft }. Il processo (Xt )t si dice progressivamente misurabile se, per ogni t [0, T ],
la funzione X ristretta a [0, t] `e B([0, t]) Ft -misurabile. La definizione `e analoga per i processi definiti per
tutti i tempi t 0: basta sostituire [0, T ] con [0, ).
Lemma 4.11. Se Xt `e un processo {Ft }-progressivamente misurabile, e `e un {Ft }-tempo darresto a valori
in [0, T ], allora la variabile aleatoria X , `e una variabile aleatoria F -misurabile.
Dimostrazione. La dimostrazione `e banale, infatti basta dimostrare che, per ogni t [0, T ] la variabile aleatoria
t
X I{ t} `e Ft -misurabile. Ma ci`
o `e banalmente vero in quanto, posta X la funzione X ristretta a [0, t] ,
t
cio`e X (s, ) = X(s, ), per s [0, t] e , allora X I{ t} = X t I{ t} . La tesi segue osservando che
t
(n,t)
2
X
(n,t)
X(sk
st
k=1
che, chiaramente, sono processi B([0, t]) Ft -misurabili. Ci`o mostra che il processo X ristretto allintervallo
[0, t] `e anchesso B([0, t]) Ft -misurabile. Per larbitrariet`a di t, si ottiene la progressiva misurabilit`a.
Il caso dei processi continui a sinistra si pu`
o trattare in modo simile, prendendo per`o la successione
n
2
X
(n,t)
s t.
k=1
k1
dove tk = k/2n .
Per maggiori dettagli e ulteriori generalizzazioni si consiglia, ad esempio, il testo di P. Baldi [?].
Capitolo 5
Si considera un mercato che opera sotto condizioni di incertezza, rappresentabili in termini probabilistici da
uno spazio di probabilit`
a dotato di filtrazione
(, F, (Fn )n0 , P).
Come al solito il flusso F = (Fn )n0 di -algebre pu`o essere interpretato come il flusso di informazioni Fn
accessibile fino allistante n, con n 0.
Si definisce mercato-(B, S) la coppia di elementi formata da d + 1 operazioni finanziarie:
un
d
o stocks
S = (S , . . . , S )
titoli rischiosi
in cui si assume che levoluzione del conto bancario sia descrivibile tramite una successione stocastica
(strettamente) positiva
B = (Bn )n0 ,
con Bn > 0 per ogni n,
dove le variabili Bn sono Fn1 -misurabili per ogni n 1, e B0 `e F1 = F0 -misurabile, ovvero il processo
B = (Bn )n0 `e predicibile 1 rispetto alla filtrazione (Fn ).
Anche la dinamica dei valori delli-esimo titolo S i pu`o essere descritta da una successione stocastica
S i = (Sni )n0
dove per`o le Sni sono variabili Fn -misurabili per ogni n 0, ovvero i processi S i = (Sni )n0 sono adattati 2
rispetto alla filtrazione (Fn ).
Dalle definizioni date si vede che esiste una differenza sostanziale tra un conto bancario e unazione; ovvero, la
Fn1 -misurabilit`a di Bn indica che lo stato del conto bancario al tempo n risulta gi`a conosciuto (si hanno tutte
le informazioni) al tempo n 1: la successione di variabili aleatorie (Bn ) `e detta predicibile appunto per questa
sua caratteristica. La situazione per i prezzi delle azioni `e differente: le variabili Sni sono Fn -misurabili, ci`o
significa che i loro valori attuali si possono determinare solo dopo che risultano disponibili tutte le informazioni
Fn arrivate fino al tempo n.
Tali considerazioni permettono di capire perche si dice che un conto bancario `e unoperazione non rischiosa
mentre le azioni sono dei titoli rischiosi.
1 Come
2 Come
98
MPEF 01-07-2009
99
Ponendo
rn
:=
Bn
Bn Bn1
=
Bn1
Bn1
tasso di interesse
in
:=
i
Sni Sn1
Sni
=
i
i
Sni
Sn1
si pu`o scrivere
Bn = rn Bn1 ,
Sni
i
in Sn1
,
per i = 1, 2, , d,
dove le rn sono Fn1 -misurabili (ovvero predicibili) e le in sono Fn -misurabili (ovvero adattati).
Allora per n 1 si ha
n
Y
Bn = B0
(1 + rk )
(5.1)
(5.2)
(5.3)
k=1
Sni = S0i
n
Y
(1 + ik ).
(5.4)
k=1
Si noti che lipotesi (ragionevole) che Bn sia strettamente positivo si traduce nellipotesi che rk > 1 per ogni
k. Inoltre spesso per comodit`
a si assume che B0 = 1.
5.1.1
100
MPEF 01-07-2009
Definizione 5.2 (Valore di un portfolio). Il processo aleatorio valore associato a una strategia di
investimento `e la successione stocastica:
X = (Xn )n0
dove, allistante n
Xn = n Bn +
d
X
ni Sni .
(5.5)
i=1
La definizione (5.5) significa solo che se al tempo n possediamo n titoli bancari (o bond), il cui valore
unitario3 `e Bn e ni azioni del titolo i, che al tempo n vale4 Sni , allora il valore totale del portfolio `e la somma
dei valori investiti nei singoli titoli.
Per evitare di appesantire le notazioni si indicher`a con n Sn il prodotto scalare dei vettori n = (n1 , . . . , nd )
e Sn = (Sn1 , . . . , Snd ) per cui la (5.5) diviene
Xn = n Bn + n Sn .
(5.6)
Si assume inoltre che le uniche strategie ammissibili siano le strategie autofinanzianti, ovvero se non ci sono
consumi o costi di transazione, e neppure ulteriori investimenti esterni, ma ad ogni istante tutto (e solo) il valore
3 Allora
4 Allora
MPEF 01-07-2009
101
(5.7)
(n n1 )Bn1 + (n n1 )Sn1 = 0.
(5.8)
o equivalentemente
Xn Xn1
= n Bn + n Sn (n1 Bn1 + n1 Sn1 )
= n Bn + n Sn (n Bn1 + n Sn1 )
= n (Bn Bn1 ) + n (Sn Sn1 )
= n Bn + n Sn .
5 Per capire il significato della (5.7) si pu`
o ragionare cos`: ***inizialmente si ha un capitale x0 , parte in titoli non rischiosi e
parte in titoli rischiosi, cio`
e x0 = B0 + 0 S0 . Si pone X0 = x0 , e nellintervallo (0, 1) (durante il quale i valori dei titoli, B0 e
S0i non cambiano) si cambia strategia e si investe tutto questo capitale, ridistribuendolo, nel senso che si compra la quantit`
a 1 del
titolo non rischioso B0 e la quantit`
a 1i del titolo rischioso S0i , i = 1, , d. A questo punto il nostro portafoglio vale
1 B 0 + 1 S0 .
Avendo ipotizzato lassenza di costi, di consumi e introiti, il valore di tale portafoglio deve essere uguale al valore iniziale, ossia a
X0 , cio`
e deve valere
X0 = 1 B0 + 1 S0 .
Quindi deve valere luguaglianza
X0 = 0 B0 + 0 S0 = 1 B0 + 1 S0 .
Nellistante 1 il valore dei titoli cambia in B1 e S1i , i = 1, , d, e quindi il valore del portafoglio diviene
X1 = 1 B1 + 1 S1 .
Nellintervallo (1, 2) si cambia strategia, reinvestendo X1 : si compra si compra la quantit`
a 2 del titolo non rischioso B1 e la
quantit`
a 2i del titolo rischioso S1i , i = 1, , d. Poich
e nellintervallo (1, 2) il valore dei titoli rimane lo stesso, ossia B1 e S1i ,
i = 1, , d, il nostro portafoglio vale
2 B 1 + 2 S 1 .
Avendo ipotizzato lassenza di costi, di consumi e introiti, il valore di tale portafoglio deve essere uguale al valore X1 , cio`
e deve
valere
X1 = 2 B1 + 2 S1 .
Quindi deve valere luguaglianza
X1 = 1 B1 + 1 S1 = 2 B1 + 2 S1 .
***
In generale, nellistante n 1 si ha che il valore del portfolio `
e
Xn1
= n1 Bn1 + n1 Sn1 ,
i titoli
durante lintervallo (n 1, n) si cambia strategia e ci si ritrova con n titoli bancari, che per`
o valgono ancora Bn1 , e con n
i
i, che per`
o valgono ancora Sn1
. Il fatto che la strategia sia autofinanziante si riflette nel fatto che per fare questa operazione non
ho bisogno di prendere altro denaro da fuori linvestimento (ad esempio comprando azioni con il ricavato di un lavoro) e neppure di
effettuare consumi (ad esempio per comprare beni, come case, automobili, etc.) o di pagare dei costi (si ipotizza che non ci siano
costi di transazione), ma tutto il denaro necessario per avere il nuovo portfolio, ovvero
n Bn1 + n Sn1
`
e esattamente il valore Xn1
del portfolio allistante n 1.
102
MPEF 01-07-2009
X0
=
=
=
n
X
k=1
n
X
k=1
n
X
(Xk Xk1
) =
(k Bk + k Sk )
k Bk +
k=1
n
X
k Sk .
k=1
Gn =
n
X
(k Bk + k Sk ),
(5.9)
k=1
(5.10)
n
X
(k Bk + k Sk )
n 1.
(5.13)
k=1
possibilit`
a di vendite allo scoperto (short sale): `e possibile vendere titoli che non si possiedono, ci`
o
equivale a ipotizzare che `e sempre consentito assumere la posizione di debitore;
6 Si
osservi inoltre che prese due successioni arbitrarie a = (an )n0 e b = (bn )n0 sussiste la regola di differenziazione discreta:
(an bn ) = an bn + bn1 an ,
(5.11)
dove si `
e posto an = an an1 . Applicando questo risultato alla parte destra della (5.6) si ottiene lespressione:
Xn
(n Bn ) + (n Sn )
[n Bn + n Sn ] + [Bn1 n + Sn1 n ].
(5.12)
Ci`
o mostra che il cambiamento del valore del portfolio (Xn = Xn Xn1
) dipende, in generale, da due fattori:
n 1.
MPEF 01-07-2009
103
assenza di rischio di insolvenza (default risk): si assume che i contratti di compravendita stipulati
vengano sicuramente onorati;
5.1.2
Mercato scontato
en 1
B
con
e
Se = (Sen )n0 ,
Sn
.
Sen =
Bn
con
e n = Xn
X
Bn
con
(5.14)
in quanto
e = Xn = 1 (n Bn + n Sn ),
X
n
Bn
Bn
e S),
e
e nel caso in cui `e autofinanziante nel mercato (B, S) si ha che questa propriet`a si trasmette al mercato (B,
8
infatti la condizione (5.8) che caratterizza le strategie autofinanzianti `e equivalente a
en1 + (n n1 )Sen1 = 0
(n n1 )B
(5.15)
In altre parole una strategia `e autofinanziante nel mercato (B, S) se e solo se `e autofinanziante nel mercato
e S).
e
attualizzato (B,
e B,
e Se ed essendo B
ek 0
Pertanto vale la (5.13) attualizzata dove, cio`e, al posto di X, B, S si considera X,
segue, inoltre, che per SF
n
X
en = X
e0 +
X
k Sek ,
(5.16)
k=1
n X
d
X
Si
Seki = k .
Bk
ki Seki ,
k=1 i=1
(5.17)
e = X
en
Allora si conclude considerando la (5.14) e la (5.15) che il valore scontato X
=
n0
Xn
Bn
con
n0
SF soddisfa la relazione
en = n Sen ,
X
7 Si
ovvero
Xn
Bn
= n
Sn
Bn
.
(5.18)
8 Chiaramente
ovvero
en1 + (n n1 )S
en1 =
(n n1 )B
1
[(n n1 )Bn1 + (n n1 )Sn1 ] = 0.
Bn1
104
MPEF 01-07-2009
Da quanto illustrato risulta chiaro che nel caso si sappia a priori che Bn > 0 con n 1 si pu`o semplificare la
struttura del mercato, senza ledere in generalit`a, assumendo Bn 1, invece di passare al mercato scontato.
Dopo aver dato le nozioni base di mercato (B, S) un punto fondamentale che si vuole sottolineare `e che si
considerer`a sempre e soltanto un mercato che non prevede opportunit`a di arbitraggio (non esistono free-lunch,
cio`e pasti gratis), ovvero:
Definizione 5.5. Un mercato `e detto privo di opportunit`
a di arbitraggio (o arbitrage-free), o anche
razionale (o fair), se non permette di ottenere guadagni sicuri, cio`e se non si possono ottenere dei profitti
senza sottoporsi a dei rischi
N.B. La relazione illustrata nella (5.18), nella sua semplicit`a, risulter`a assumere un ruolo chiave in molti
calcoli relativi al concetto di arbitrage-free, ci`
o spiega il perche dellintroduzione del mercato scontato.
5.2
Sia fN = fN () una funzione non negativa FN -misurabile detta obbligazione o pay-off (prezzo di
pagamento) terminale 9 , in questo paragrafo vengono illustrati alcuni concetti di copertura (o hedge) per
il pay-off terminale.
Definizione 5.6 (Copertura superiore, inferiore e perfetta). Un portfolio = (, ) con = (n ), = (n ),
per n = 0, 1, . . . , N `e detto copertura superiore per (x, fN ), con x 0, se il valore iniziale del portfolio `e x
e se XN
fN , P q.c., ovvero se
X0 = x
P(XN
fN ) = 1.
Un portfolio = (, ) `e invece detto copertura inferiore per (x, fN ),con x 0, se il valore iniziale del
fN , P q.c., ovvero
portfolio `e x e se XN
X0 = x
P(XN
fN ) = 1.
Infine un portfolio = (, ) `e invece detto copertura perfetta per (x, fN ), con x 0, se `e sia una copertura
= fN ,
inferiore che una copertura superiore, una copertura, cio`e se il valore iniziale del portfolio `e x e se XN
P q.c., ovvero
X0 = x
e
P(XN
= fN ) = 1.
Il concetto di copertura gioca un ruolo di fondamentale importanza in ambito finanziario in quanto
rappresenta uno strumento di protezione che permette di ottenere un livello di garanzia relativamente a un
certo investimento.
Tramite le successive definizioni si potranno formalizzare le azioni che si devono compiere per assicurarsi un
livello di garanzia. Si indichi con
H (x, fN ; P) = { ammissibili : X0 = x,
= { ammissibili : X0 = x,
XN
fN , P q.c.}
P(XN
fN ) = 1}
XN
fN , P q.c.}
P(XN
fN ) = 1}
MPEF 01-07-2009
105
Definizione 5.7 (Prezzo superiore e prezzo inferiore). Sia fN una funzione di pay-off, allora la quantit`
a
C = C (fN ; P) = inf{x 0 : H (x, fN ; P) 6= }
= inf{x 0 : ammissibile : X0 = x,
P(XN
fN ) = 1}
P(XN
fN ) = 1}
XN
fN
XN fN
(P q.c.)},
(P q.c.)}.
e S),
e si ha
Inoltre va osservato che nel mercato attualizzato (B,
e (e
H (x, fN ; P) = H
x, feN ; P),
e (e
H (x, fN ; P) = H
x, feN ; P),
dove, x
e = x/B0 e
e (e
e0 = x
H
x, feN ; P) := { SF : X
e,
e
e
e
H (e
x, fN ; P) := { SF : X0 = x
e,
eN
X
feN
eN
X
feN
(P q.c.)},
(P q.c.)}.
Dopo aver visto formalmente i concetti di copertura, risulta interessante darne una visione pratica, cio`e
spiegare il loro utilizzo in ambito finanziario e il loro legame con la condizione di assenza di opportunit`a di
arbitraggio.
e S)
e e il valore scontato X
e
Va osservato che nel seguito si dovrebbe considerare un mercato scontato (B,
relativo ad una strategia . Tuttavia, per semplicit`a di notazione tale mercato viene denotato come (B, S) e
il valore con X , che `e come dire che si suppone direttamente che sia Bn = 1, ci`o permette di considerare i
guadagni ad esse relativi nellistante iniziale senza dover attualizzare i valori.
Si immagini di vendere a un prezzo x un generico contratto al quale corrisponde, allistante N , il pagamento
di un pay-off fN . Naturalmente lo scopo `e venderlo a un prezzo elevato, per`o si deve tener conto che il compratore
lo vuole acquistare a un prezzo basso, ma vuole anche essere certo che il venditore sia in grado di fornire al
tempo N lobbligazione promessa fN , cio`e che non ci sia rischio di insolvenza (o default risk). Considerando
queste posizioni opposte si pone il problema di determinare il pi`
u piccolo prezzo accettabile, ovvero quel
prezzo che permette al venditore di rispettare i termini del contratto (cio`e di pagare lammontare fN al tempo
N ) senza per`o dare al venditore unopportunit`
a di ottenere un arbitraggio altrimenti il compratore non avrebbe
ragione di accettare la vendita.
Daltra parte acquistando un contratto lo si vuole comprare a buon mercato, ma non si pu`o pretendere di
ottenere un guadagno sicuro, senza rischi (ovvero unopportunit`a di arbitraggio per il compratore), altrimenti
il venditore non avrebbe interesse a cederlo.
Da quanto richiesto si ottiene, come si spiegher`a tra poco, che i prezzi superiore e inferiore, C = C (fN ; P)
e C = C (fN ; P), definiti precedentemente, soddisfano la seguente propriet`a:
106
MPEF 01-07-2009
Gli intervalli [0, C ) e (C , ) sono insiemi dei valori dei prezzi che danno, rispettivamente,
al compratore e al venditore opportunit`
a di arbitraggio.
Verifica della propriet`
a (C , ) `e un intervallo dei prezzi con opportunit`
a di arbitraggio per il venditore:
Si assuma che il contratto venga pagato un prezzo x maggiore di C allora il venditore pu`o ottenere un
free-lunch agendo in questo modo: egli preleva dalla somma totale x una quota y in modo tale che
C < y < x e H (y, fN ; P) 6=
(un tale y esiste per la definizione di estremo inferiore) e la usa per costruire un portfolio (y) che assume i
seguenti valori
(y)
(y)
X0
= y e P(XN
fN ) = 1
(un tale portfolio esiste perche H (y, fN ; P) 6= ).
Si pu`o descrivere la stessa azione dicendo che il venditore investe la quota y nel mercato (B, S) in accordo
con la strategia (y) = (n (y), n (y))0nN .
(y)
Il valore10 di (y) al tempo N `e XN , il guadagno totale delle due transazioni (vendere il contratto e
comprare il portfolio (y)) risulta11 quindi
(y)
(y)
(x fN ) + (XN
y) = (x y) + (XN
fN ) x y > 0.
Allora, c`e un guadagno netto senza rischio (arbitraggio) del venditore di almeno x y > 0 .
Verifica della propriet`
a [0, C ) `e un intervallo dei prezzi con opportunit`
a di arbitraggio per il compratore:
Si consideri ora lopportunit`
a di arbitraggio per il compratore. Se il compratore acquista, per un prezzo
x < C , un contratto che preveda allistante N il pagamento di un ammontare fN , allora egli pu`o ottenere un
free-lunch, come segue: prima di tutto il compratore sceglie y tale che
x < y < C e H (y, fN ; P) 6=
(un tale y esiste per definizione di estremo superiore). Sia ora (y) un portfolio che appartiene a H (y, fN ; P),
(y)
ovvero il cui valore iniziale `e y e il cui valore al tempo N risulti XN fN , in formule
(y)
X0
(y)
= y e P(XN
fN ) = 1.
Il compratore agisce come segue: al tempo n = 0 investe la quota y in accordo con la strategia (y) = (y),
dove
(y) = (n (y), n (y))0nN .
Allora
(y) = (n (y), n (y))0nN ,
in modo tale che
y = 0 (y)B0 0 (y)S0
e il valore di (y) sia
(y)
XN
10 Si
(y)
= XN
(y)
= XN
XN
MPEF 01-07-2009
107
si ottiene, quindi, che il guadagno totale dato dalle due transazioni (ossia comprare il contratto e investire y,
con la strategia (y))12 `e
(y)
(fN x) + (XN
(y)
(y)) = (fN XN
) + (y x) y x > 0.
Si vede, infine, che essendo questo il guadagno netto strettamente positivo del compratore relativo allacquisto
di un contratto di prezzo x < C implica un arbitraggio.
Osservazione 5.3. Nella discussione precedente `e stato considerato un investimento con un ammontare
negativo y, praticamente ci`
o significa che esiste la possibilit`
a di trovare uno speculatore che mette a disposizione
(y)
la quota y al tempo n = 0 al patto di ricevere XN al tempo n = N ; si noti che questultimo valore pu`
o essere
superiore o inferiore a y data laleatoriet`
a dei prezzi.
Dalla serie di considerazioni fatte si evince che lunica possibilit`a per non avere opportunit`a di arbitraggio `e
porsi nellipotesi che C C e prendere come prezzo del contratto un valore x [C , C ]; per questo motivo
si d`a a [C , C ] il nome di intervallo dei prezzi accettabili ( o razionali).
In altre parole: se non ci sono opportunit`
a di arbitraggio (ne per il compratore, ne per il venditore) deve
necessariamente valere
C = C (fN , P) C (fN , P) = C
(5.19)
La trattazione precedente dei prezzi razionali pu`o essere schematizzata come segue
arbitraggio compratore
0
arbitraggio venditore
C
C
arbitrage-free
Si osservi, infine, che operare con prezzi appartenenti al range di quelli accettabili esclude soltanto il caso
di profitti sicuri, ma non la possibilit`
a di profitti, e che un profitto sicuro `e una situazione logicamente e
economicamente assurda anche perche un guadagno pu`o essere visto come una compensazione per il rischio.
5.2.1
Si consideri ora il caso particolare in cui esista, per un fissato valore x e una funzione di pay-off fN , una copertura
perfetta per (x, fN ), cio`e una strategia tale che
X0 = x e P(XN
= fN ) = 1.
Assumere che XN
= fN , P q.c., significa prendere una copertura in grado di replicare la fN richiesta.
Per molte ragioni risulta auspicabile che ogni obbligazione si possa replicare per qualche valore di x = x; il motivo
principale `e che se questo accade lintersezione tra le classi H (x, fN ; P) e H (x, fN ; P) `e diversa dallinsieme
vuoto in quanto contiene la strategia che d`
a la replicabilit`a. Dalla definizione dei prezzi di copertura segue
allora
C (fN ; P) x C (fN ; P)
ovvero, in questo caso, se inoltre non ci sono opportunit`a di arbitraggio e quindi deve valere (5.19), allora
lintervallo dei prezzi accettabili si riduce a un unico prezzo
C(fN ; P) = C (fN ; P) = C (fN ; P) = x,
12 Per
il contratto, al tempo zero deve pagare x e al tempo N riceve fN , mentre per linvestimento al tempo 0 deve pagare (y)
(y)
(y)
e al tempo N riceve XN
= XN .
108
MPEF 01-07-2009
detto prezzo razionale (o fair price) per la richiesta fN (`e il prezzo che risulta accettabile sia per il venditore
che per il compratore: ogni deviazione da questo comporterebbe la possibilit`a di ottenere guadagni senza rischi).
Il caso trattato, vista la sua importanza, presenta una terminologia specifica.
Definizione 5.8 (Replicabilit`
a). Una obbligazione fN si dice replicabile, se esiste un x, per il quale esiste
una copertura perfetta di (x, fN ), ovvero esiste un portfolio tale che
X0 = x, e P(XN
= fN ) = 1.
Definizione 5.9 (Mercato N -perfetto). Un mercato (B, S) `e detto N-perfetto o perfetto rispetto il tempo N,
se ogni funzione fN FN -misurabile pu`
o essere replicata, cio`e, per un qualche x esiste una copertura perfetta
di (x, fN ), altrimenti il mercato viene detto N-imperfetto.
La condizione che un mercato (B, S) sia perfetto `e molto forte e impone delle costrizioni severe sulla struttura
del mercato. Fortunatamente, non `e necessario, in molti casi, che la copertura perfetta esista per tutte le funzioni
fN FN -misurabili a volte `e sufficiente considerare solo funzioni limitate oppure funzioni con opportune condizioni
di integrabilit`a o di misurabilit`
a: `e questo il caso di un mercato completo.
Definizione 5.10 (Mercato N -completo). Un mercato (B, S) si dice N -completo o completo rispetto il
tempo N , se ogni funzione fN di pay-off limitata e FN -misurabile `e replicabile.
Osservazione 5.4. Si noti che nel caso in cui FN `e una -algebra finita, allora tutte le variabili aleatorie FN misurabili sono variabili aleatorie discrete e che assumono un numero finito di valori, e quindi tutte le variabili
aleatorie FN -misurabili sono anche limitate. In questo caso non c`e differenza tra le due condizioni di mercato
N -perfetto e mercato N -completo.
Inoltre conviene osservare in questo caso, tutte le variabili aleatorie FN -misurabili sono anche ovviamente
integrabili, essendo limitate. Questultima propriet`
a sar`
a utile nel seguito per semplificare alcune dimostrazioni.
Determinare se e quando un mercato `e perfetto o completo `e uno dei punti di maggiore interesse per
la matematica finanziaria rispondere a queste domande risulta estremamente difficile nel caso generale, ma,
considerando delle ipotesi aggiuntive sulla struttura del mercato, si pu`o arrivare a una soluzione esaustiva del
` questo il caso di un mercato arbitrage-free dove la completezza risulta strettamente connessa
problema. E
allesistenza e allunicit`
a di una misura di probabilit`a: la misura martingala equivalente, che viene trattata
nelle sezioni successive e che `e loggetto principale dei cos` detti teoremi dellAsset Pricing APT1 e APT2
(vedere le sezioni successive).
5.3
P(XN
0) = 1
e XN
> 0 con probabilit`
a P positiva, cio`e
P(XN
> 0) > 0
o, equivalentemente13
E(XN
) > 0.
13 In generale una variabile aleatoria Z con P(Z 0) = 1 si ha:
se P(Z > 0) > 0 allora E[Z] > 0;
se E[Z] > 0 allora necessariamente deve essere P(Z > 0) > 0 (se fosse P(Z > 0) = 0 allora sarebbe P(Z = 0) = 1 e E[Z] = 0)
MPEF 01-07-2009
109
Si indichi con SFarb la classe delle strategie autofinanzianti con opportunit`a di arbitraggio. Se SFarb e
X0 = 0, allora
P(XN
0) = 1 = P(XN
> 0) > 0.
Definizione 5.12 (Assenza di opportunit`
a di arbitraggio). Si dice che non esiste opportunit`a di arbitraggio su
un mercato (B, S) o che il mercato `e arbitrage-free se SFarb = . In altre parole, se il capitale iniziale X0 di
una strategia `e zero e al tempo N il guadagno `e non negativo P q.c., allora il guadagno `e nullo P q.c., ovvero
in formule, per ogni strategia autofinanziante
X0 = 0 e P(XN
0) = 1
P(XN
= 0) = 1.
Si noti che nelle definizioni date sopra si considerano eventi del tipo {XN
> 0}, {XN
0}, o {XN
= 0}, che
X
14
e > 0}, {X
e 0}, o {X
e = 0} dove X
e = N . Una considerazione
sono, rispettivamente, gli stessi di {X
N
N
N
N
BN
5.4
In questo paragrafo si vogliono illustrare i legami esistenti tra le propriet`a di assenza di arbitraggio e di
completezza in un mercato finanziario e la nozione di misura martingala16 equivalente17 . Si consideri ora
un mercato (B, S) strutturato come descritto nel primo paragrafo, in questambito viene data la seguente
definizione
e `e una misura martingala equivalente alla misura P se
Definizione 5.13. Una misura di probabilit`
a P
e
****P `e equivalente a P e se ****la successione d-dimensionale scontata
Sn
e
e
S = Sn :=
Bn n0
e Fn )-martingala, cio`e, esplicitamente, presa E
e come la media rispetto alla P
e si ha che per ogni
`e una (P,
i = 1, . . . , d
ei e Sni
e
E Sn = E
<
(5.20)
Bn
con n = 0, 1, . . . , N e
e Sei Fn1 = Sei
E
n
n1
e
ovvero E
i
Sn1
Sni
Fn1 =
Bn
Bn1
e q.c.)
(P
(5.21)
per n = 1, . . . , N .
X ()
14 Si
() > 0} = { :
N
ricordi che si ipotizza che BN > 0, e quindi { : XN
> 0}
BN ()
15 Scrivere le assunzioni per il mercato (B, S), invece che per il mercato (B,
e S),
e si pu`
o esprimere anche dicendo che si pu`
o assumere
senza ledere la generalit`
a che Bn 1, per ogni n = 0, . . . , N .
16 Ricordiamo la definizione di martingala a tempo discreto per comodit`
a del lettore Un processo X = (Xn )n0 definito su uno
spazio di probabilit`
a filtrato (, F , (Fn ), P) `
e una martingala rispetto (Fn ) sotto P, (P, Fn )-martingala, se:
0) Xn `
e Fn -misurabile n
1) Xn `
e integrabile
2) E(Xn |Fn1 ) = Xn1
(Xn `
e Fn -adattato);
(E|Xn | <
n);
(condizione martingala).
110
MPEF 01-07-2009
1, = i
1, = i + 1
S0i () = 1 i,
mentre
S1i ()(= S1i S0i ) :=
0 altrimenti
e si consideri il mercato (B, S) corrispondente alla successione S = (Sni ), per n = 0, 1, e con B0 = B1 = 1.
Si inizi con il vedere che `e arbitrage-free.
Il valore al tempo 0 `e
X0 = c0 +
ci ;
i=1
X
i=1
Se X0 = 0 (cio`e c0 +
i=1 ci
ci S1i = X0 + c0 +
X
i=1
ci S1i X0 = X0 +
ci S1i .
i=1
MPEF 01-07-2009
111
e P tale che
Tuttavia non esiste nessuna misura martingala equivalente: se esistesse una misura P
e si dovrebbe avere (si veda la (5.21)) che per ogni i = 1, 2, . . .
S `e una martingala rispetto a P
i
i
e
e
E[S
1 |F0 ] = E[S1 ] = 0.
e
S1i ()P()
=
e
S1i ()P()
=1
e
S1i (i)P(i)
e + 1) = P(i)
e P(i
e + 1) = 0,
+ S1i (i + 1)P(i
e = P(i
e + 1), per i = 1, 2, . . .; ci`
cio`e P(i)
o `e chiaramente impossibile per una misura di probabilit`
a -additiva (si
P e
avrebbe, infatti, =1 P()
= oppure = 0).
Esempio 5.2. Questo controesempio, che `e il classico Paradosso di S. Pietroburgo, mostra che nel caso
N = lesistenza di una misura martingala non assicura lassenza di opportunit`
a di arbitraggio, ovvero la
parte sufficiente del teorema risulta non verificata nel caso di orizzonte infinito.
Sia = (n )n0 una successione di variabili aleatorie i.i.d. su uno spazio di probabilit`
a (, F, P) tali che
P(n = 1) = P(n = 1) = 12 . Se si considera il mercato (B, S) tale che S0 = 0, Sn = 1 + . . . + n e Bn 1, si
vede subito che P `
e essa stessa una misura martingala equivalente in quanto Sen = Sn `e una martingala
(confrontare lEsempio 4.2) Tuttavia se si considera la strategia autofinanziante, con
k1
2
se 1 = . . . = k1 = 1,
k =
0 altrimenti,
e con capitale iniziale X0 nullo, si ottiene che il guadagno `e
X
X
Xn =
k Sk =
k k .
1kn
1kn
Questa strategia permette arbitraggio, anzi per la precisione, questa strategia assicura una vincita sicura
di 1. Prima di dimostrare questa propriet`
a, che permette di affermare che il Paradosso di S. Pietroburgo fornisce
o essere visto come il guadagno
un controesempio al Teorema APT1, risulta interessante osservare che Xn pu`
associato a un giocatore dazzardo che sta giocando contro un avversario di pari livello (da qui la simmetria),
che lesito del gioco `e descritto dalle variabili aleatorie k (egli vince se k = 1 e perde se k = 1) e infine
che la strategia del giocatore consiste nel raddoppiare la puntata dopo una perdita e smettere di giocare dopo la
prima vincita.
Chiaramente se 1 = . . . = k = 1 il giocatore `e in netta perdita e il guadagno in questo caso assume il valore
Xk =
k
X
i=1
Xk+1
= Xk + 2k = (2k 1) + 2k = 1;
quindi la strategia scelta ammette un tempo di arresto (aleatorio) , cui `e associato un guadagno positivo.
Si pu`
o definire come
= inf{k : Xk = 1}
k
e poiche P( = k) = 21 , risulta P( < ) = 1, e quindi essendo P(X = 1) = 1 si ha (essendo N = )
X
X
XN
= X
=
k k =
k k = X = 1
k1
1k
112
MPEF 01-07-2009
Tornando al caso generale ***si denoti con P(P) linsieme delle misure martingale equivalenti a P
e P : Se `e una (P,
e Fn ) martingala},
P(P) = {P
e
***ossia
di tutte le misure martingala P equivalenti a P e per le quali la successione dei prezzi scontati
linsieme
Sn
e
e
e
`e una (P, Fn )-martingala.
S = Sn = Bn
n0
dunque
E[L ] =
X
n=1
(2n 1) P( = n) =
X
n=1
(2n 1)
P 1
k=0
1
= .
2n
MPEF 01-07-2009
5.4.1
113
Gn =
n
X
k Sk
(5.22)
k=1
e Fn )-martingala.
dove S = (Sn ) `e una (P,
Per provare quanto richiesto si deve mostrare che, presa una qualunque strategia autofinanziante SF tale
e q.c., cio`e
che X0 = 0 e XN
0, P q.c. o, equivalentemente, P
P(XN
= GN =
N
X
e = G =
k Sk 0) = 1 P(X
N
N
k=1
N
X
k Sk 0) = 1
(5.23)
k=1
e q.c.. ovvero
si ha XN
= GN = 0 P q.c. o, equivalentemente, P
e = G = 0) = 1.
P(XN
= GN = 0) = 1 P(X
N
N
e ] = 0
E[X
0
e ] = 0
E[X
N
In ci`o che segue viene accennato a come si pu`o ottenere la dimostrazione anche nel caso generale, ovvero
senza lipotesi che F sia una famiglia finita.
Per poter arrivare a dimostrare che, sotto le ipotesi fatte, GN = 0, occorre introdurre delle definizioni e dei
teoremi su nuovi elementi probabilistici: le martingale locali.
Definizione 5.15. Una successione stocastica X = (Xn ) `e una (P, Fn )-martingala locale se esiste una
successione di tempi di Markov (k )k1 (cio`e, di variabili aleatorie che soddisfano la condizione { : k n}
Fn , n 1) tali che P(k k+1 ) = 1, P(k , per k ) = 1 e per ogni k il processo arrestato al tempo
k
X k := (Xk n )n0
`e una (P, Fn )-martingala.
20 In
e
alcuni testi viene denotato come una trasformazione di martingala rispetto a P
si `
e gi`
a chiarito si sono fatte le ipotesi che garantiscano lintegrabilit`
a di qualsiasi variabile aleatoria
21 Come
114
MPEF 01-07-2009
Teorema 5.3. Sia il processo (Mn )n0 una (P, Fn )-martingala e Yn un processo predicibile, allora la
trasformazione di martingala X = Y M , cio`e la successione stocastica definita come integrale stocastico a
tempo discreto
n
X
Xn = Y0 M0 +
Yk (Mk Mk1 )
(5.24)
k=1
n0
2) Sia X = (Xn )0nN una (P, Fn )-martingala locale e si assuma che N < , EX0 < e sia EXN
<
+
oppure EXN < . Allora le ipotesi del punto 1) sono verificate per ogni n N e X = (Xn )0nN `e una
(P, Fn )-martingala.
Introdotte queste nozioni si pu`
o procedere nella dimostrazione della sufficienza del teorema APT1.
Dallespressione del guadagno (Gn )N
e una trasformazione di martingala
n=0 risulta chiaro che questa successione `
e e quindi per Teorema 5.3 `e una martingala locale. Inoltre, poiche si assume G = 0 e P(G 0) = 1,
rispetto a P
0
N
e Fn )-martingala.
risultano verificate le ipotesi di integrabilit`
a della parte 2) del Lemma 5.4 da cui (Gn ) `e una (P,
Infine ricordando che dalla condizione di martingala discende che la successione considerata ha media costante
si ottiene la seguente serie di implicazioni
G0 = 0
e =0
EG
0
e =0
EG
N
Osservazione 5.5. Come illustrato, la sufficienza del teorema APT1 risulta banalmente dimostrata se Gn `e
e Fn )-martingala. Tale propriet`
una (P,
a `e strettamente connessa allintegrabilit`
a della successione (n Sn ); infatti,
e Fn )-martingala e data la Fn1 -misurabilit`
dallipotesi che (Sn ) `e una (P,
a delle (n ), si ottiene la condizione di
martingala (si veda il punto 2 della Definizione 4.2) per il guadagno, risulta cio`e:
e G |Fn1 ) = E(
e n (Sn Sn1 )|Fn1 ) = n E(S
e n Sn1 |Fn1 ) = 0.
E(G
n
n1
Quindi per avere verificate tutte le condizioni di martingala serve lintegrabilit`
a della successione (n Sn ) rispetto
e questo `e, ad esempio, il caso in cui le (n ) sono uniformemente limitate.
a P,
Assumere la successione (n Sn ) integrabile, pur semplificando notevolmente la dimostrazione del teorema,
lederebbe la sua generalit`
a, `e per tale motivo che si preferisce ricorrere al concetto di martingala locale che
permette di apprezzare l efficacia dell APT1.
5.4.2
Necessit`
a del Teorema APT1: trasformazione condizionale di Esscher
MPEF 01-07-2009
115
(5.26)
e P tale che
Allora esiste una misura P
e eaX <
E
(5.27)
e
E|X|
< .
(5.28)
e = 0.
EX
(5.29)
x R,
c1 = EeX .
Considerando la funzione
(a) = EQ eaX =
E(eaX eX )
,
E(eX 2 )
a R,
(5.30)
dalla costruzione di Q segue che 0 < (a) < per ogni a R (si verificher`a ci`o nelle Osservazione 5.6); quindi
ponendo
eax
Za (x) =
,
(5.31)
(a)
si ha Za (x) > 0 e EQ Za (X) = 1. Risulta possibile, dunque, definire per ogni a R la misura di probabilit`a
ea (dx) = Za (x)Q(dx)
P
(5.32)
ea Q P.
tale che P
ea segue che, per ogni scelta di a, assumendo P
e=P
ea vale la (5.27), infatti
Dalla definizione di P
aX
EPa e
= EQ
e2aX
(a)
=
(2a)
< .
(a)
(5.33)
116
MPEF 01-07-2009
Si pu`o notare, inoltre, che la funzione = (a) definita a R `e strettamente convessa poiche
2
00
(a) =
E(X 2 eaX eX )
> 0;
E(eX 2 )
EPa X = EQ
Xea X
(a )
(a )
=
= 0;
(a )
(5.34)
e=P
ea il lemma `e dimostrato.
allora in virt`
u della (5.33) e della (5.34) si ha che prendendo P
Il secondo caso `e irrealizzabile data lipotesi (5.26). Infatti, se un tale a non esiste, si pu`o prendere una
successione {an } per cui valgano le relazioni
< (an )
(an ) & ,
inoltre la successione {an } deve tendere a + o a poiche, altrimenti, si potrebbe scegliere una
sottosuccessione convergente in modo tale che il valore di minimo venga assunto in un punto finito e ci`o
contraddice lassunzione 2).
Sia un = |aann | e sia u = lim un , ne segue u = 1. Allora considerando lipotesi (5.26) e lequivalenza tra le
misure P e Q si ha
Q(uX > 0) > 0,
per cui esiste > 0 tale che
Q(uX > ) > 0;
definendo := Q(uX > ) e scegliendo in modo tale che risulti un punto di continuit`a per Q, cio`e
Q(uX = ) = 0
si ottiene
Q(an X > |an |) = Q(un X > )
per
n .
da cui definitivamente
(an )
1 |an |
e
.
2
MPEF 01-07-2009
117
Osservazione 5.6. Nella precedente dimostrazione si `e tralasciato di verificare lasserzione 0 < (a) < per
ogni a R; la prima disuguaglianza `e ovvia, la seconda `e diretta conseguenza della semplice relazione algebrica:
2
ex eax = e(x 2 ) e
a
a2
4
a2
(X 2 )
a2 Ee
E(eX eaX )
e4
4
(a) =
=
e
< +.
2
E(eX )
E(eX 2 )
E(eX 2 )
a
Dalla limitatezza delle (a) = EQ (eaX ) seguono alcune considerazioni che sono state adoperate nel corso della
dimostrazione:
<
(P q.c.),
n 1.
(5.36)
n P
o
N
e richiesta si considerano le funzioni
e EQ exp i=0 ai Xi `e finito. Per costruire la misura P
n (a; ) = EQ (eaXn |Fn1 )()
che fissato risultano strettamente convesse in a. Si pu`o mostrare procedendo come fatto per il Lemma 5.5 che
esiste un unico punto (finito) an () tale che il pi`
u piccolo valore inf a n (a; ) viene assunto in questo punto,
ovvero:
inf n (a; ) = n (an (); ).
a
La funzione inf a n (a; ) `e Fn1 -misurabile da ci`o segue che anche an () `e Fn1 -misurabile.
Ora si definisce ricorsivamente una successione Z0 , Z1 (), . . . , ZN () ponendo
Z0 = 1
Zn () = Zn1 ()
(Q q.c. e P q.c.).
118
MPEF 01-07-2009
e richiesta come:
Quanto mostrato permette di definire la P
e
P(d)
= ZN ()P(d),
e n | < , 0 n N ,
ricordando la dimostrazione del Lemma 5.5 si vede che E|X
e n |Fn1 ) = 0
E(X
1nN
(5.38)
per ogni n = 1, . . . , N ; infatti se esiste un istante n per cui P(Sn = 0) = 1 questo pu`o essere trascurato in
quanto, preso un generico portfolio autofinanziante, listante n non apporta contributi al valore XN
. Allora
la (5.38) risulta vera per tutti gli n N da cui si conclude, come annunciato, che applicando il Lemma 5.6 a
X0 = S0 e Xn = Sn per 1 n N esiste una misura martingala equivalente (si veda la Definizione 5.13).
Per il caso generale, d 1, la dimostrazione della necessit`a `e concettualmente la stessa del caso d = 1, si
deve per`o tener conto della generalizzazione del Lemma 5.6 al caso di valori vettoriali.
Lemma 5.7. Sia (X0 , X1 , . . . , XN ) una successione di d-vettori Fn -misurabili
1
Xn
.
Xn =
. , 0 n N
.
Xnd
definita su uno spazio di probabilit`
a filtrato (, F, (Fn )0nN , P) con F0 = {, } e FN = F. Si assuma inoltre
che
1
n
.
n =
.
.
nd
`e un vettore di variabili vettoriali, diverse da zero, Fn1 -misurabili avente componenti limitate ( |ni ()| c <
, ) tale che
P((n , Xn ) > 0|Fn1 ) > 0
(P q.c.)
MPEF 01-07-2009
5.5
119
Completezza e rappresentabilit`
a***
d dimensionale S = (Sn )
e
una (Q, Fn )-martingala locale
unidimensionale M = (Mn ).
Allora diciamo che la (Q, Fn )-martingala locale M ammette una S-rappresentazione rispetto a Q, o una
rappresentazione in termini della (Q, Fn )-martingala S, se esiste una successione predicibile = (n ),
dove n = (n1 , . . . , nd ), tale che
n
n
d
X
X
X
j
Mn = M0 +
k Sk = M0 +
kj [Skj Sk1
]
(Q q.c.)
(5.39)
k=1
k=1
j=1
per ogni n 1, cio`e M `e lintegrale stocastico di una successione predicibile n , ovvero M `e una trasformazione
di martingala ottenuta dalla (Q, Fn )-martingala S attraverso lintegrazione di una successione predicibile n .
Lemma 5.8. Sia (B, S) un mercato arbitrage-free con orizzonte finito N e Bn 1 per n N . Allora questo
e P(P) tale che ogni (P,
e Fn )-martingala limitata M = (Mn )
mercato `e completo se e solo se esiste una misura P
e
(con |Mn ()| C n N ) ammette una S-rappresentazione rispetto a P.
Dimostrazione. (=: la completezza implica la S-rappresentabilit`
a ) Si assuma che il mercato (arbitragee appartenente a P(P) si consideri una (P,
e Fn )-martingala
free) sia completo. Presa una misura arbitraria P
M = (Mn ) con |Mn ()| C per n N e . Si pu`o scegliere come funzione di pay-off
fN = MN ,
dallipotesi di completezza segue lesistenza di un portfolio autofinanziante e di un capitale iniziale x tale che
Xn = x +
n
X
k Sk
k=1
e q.c.), ovvero
= fN = MN (P q.c. e P
e XN
e = fN = MN ) = 1.
P(XN
= fN = MN ) = 1 P(X
N
e Fn )-martingala.
Dalla limitatezza dellobbligazione |fN | = |MN | C segue 22 che X = (Xn )nN `e una (P,
e q.c.
P
120
MPEF 01-07-2009
FN -misurabile (|fN | C < P q.c.) si vuole ottenere che esiste una strategia autofinanziante e un capitale
e N |Fn ],
definita da Mn := E[f
essendo |fN | C si ha che M `e una martingala limitata e per ipotesi ammette una S-rappresentazione (5.39).
Inoltre, ricordando che, nelle stesse ipotesi dei teoremi dellAsset Pricing, si ha F0 = {, }, risulta
e N |F0 ] = E[f
e N ].
M0 = E[f
Esiste dunque una successione di variabili aleatorie predicibili kj , j = 1, . . . , d, k N tale che
n
n X
d
X
X
j
Mn = M 0 +
k Sk = M0 +
kj [Skj Sk1
] ,
k=1 j=1
k=1
n = n1
(n n1 )Sn1 ,
(5.40)
(5.41)
in quanto si cerca una strategia autofinanziante, e basta allora ricordare la condizione (5.8)23 .
Si osserva che le n risultano predicibili data la Fn1 -misurabilit`a delle n . Inoltre `e un portfolio
autofinanziante di valore24
d
X
Xn = n + n Sn = n +
nj Snj = Mn .
j=1
n = Mn n Sn .
(5.42)
23 Si noti che sarebbe necessario anche che + S = M , con e v.a. F 1 = F = {, }-misurabili, ovvero numeri certi.
0
0
0
0 0
0
0
Si noti inoltre che per n = 1 si ha 1 = 0 (1 0 )S0 = 0 + 0 S0 1 S0 = M0 1 S0 e che questultima espressione permette
di definire 1 anche senza conoscere (0 , 0 ).
In realt`
a, noto (n )nN si potrebbe definire n := Mn n Sn , andrebbe mostrato che n risulta una v.a. Fn1 -misurabile,
e infine si potrebbe procede cominciando dal fondo: N = MN N SN = fN N SN e poi, usando la (5.41) si ottiene
+ (
n1
= n
n
n1 )Sn1 .
24 Luguaglianza si vede subito considerando che, per la definizione di si ha
n
= n Sn n1 Sn1 + (n
n1
),
da cui
Mn M0 = n Sn 0 S0 + (n
0 )
= n S n + n
(0 S0 + 0 ) = n Sn + n
M0 .
come
Si noti infine che questultima uguaglianza permette di dare la definizione alternativa di n
n
:= Mn n Sn ,
che `
e quella originariamente usata da Shiryaev in [17].
MPEF 01-07-2009
121
e
a,
di fN si considera il valore attualizzato feN = BfNN . In particolare si noti che allora serve la S-rappresentabilit`
***cio`e la rappresentabilit`
a nel mercato scontato, e che allora
e feN |F0 ) = E(
e fN ),
M0 = E(
BN
essendo F0 la -algebra banale.
x0
Allora M0 = B
, dove x0 si pu`
o interpretare come il capitale iniziale che permette, attraverso la strategia
0
, descritta nella dimostrazione della parte sufficiente del lemma, di ottenere una copertura perfetta per fN .
RIASSUMENDO - per ottenere quindi il prezzo si pu`o procedere nel seguente modo:
e da cui per ****lAPT1 si ottiene che non ci
1 si mostra lesistenza di una misura martingala equivalente P;
sono opportunit`
a di arbitraggio e quindi si ha
C C ;
e
en , Sen ) `e completo, da cui deve valere
2 si mostra che vale la S-rappresentabilit`
a, e quindi che il mercato (B
che, se x0 `e il capitale iniziale che permette una copertura perfetta per fN , allora
C x0 C ;
3 dai punti precedenti si ottiene che allora lunico prezzo che non permette arbitraggi `e proprio x0
4 dalla dimostrazione del ***Lemma 5.8, si ha inoltre che
e
x0 = B0 M0 = B0 E[
fN
]
BN
n = n1
(n n1 )Sn1 ,
(5.43)
Ragionando come nei punti 1, 2 e 3, e tenendo presente che per ipotesi il mercato `e privo di opportunit`a di
arbitraggio, si ottiene che
x
eA = C (IA , P) = C (IA , P),
(5.44)
25
e contemporaneamente x
e0A = C (IA , P) = C (IA , P) = x
eA , da cui
e0 (A) = P(A),
e
P
ovvero lunicit`
a.
Capitolo 6
6.1
(6.1)
Inoltre si assume che la successione = (n ) definita sullo spazio di probabilit`a (, F, (Fn )n>0 , P) sia
Fn -misurabile per ogni n e abbia la propriet`
a:
P(n = b) = p
P(n = a) = q
(6.2)
(6.3)
testo di T. Bj
ork [4] si pone R = r, mentre nel testo di S. Ross [15] si usa la stessa notazione.
testi di S. Ross [15] e di T. Bj
ork [4] si pone u = 1 + b e d = 1 + a, o equivalentemente si ha qui b = u 1 e a = d 1.
Inoltre la condizione (6.1) seguente corrisponde alla condizione 0 < d < 1 + r < u e 0 < d < 1 + R < u, rispettivamente.
2 Nei
122
MPEF 01-07-2009
123
Da tale considerazione segue che Pn `e uguale3 a un prodotto diretto di n misure di tipo Q dove con Q si indica
la misura caratterizzata da Q({b}) = p e Q({a}) = q.
Nei prossimi paragrafi si mostrer`
a che il modello
e APT2 (si vedano i Teoremi 5.1 e 5.2) ci`
o significa,
e
misura martingala Pn equivalente a Pn , si otterr`a che
(6.4)
dove
ra
br
e
qe =
.
(6.5)
ba
ba
en , cos` come Pn , presenta la struttura di un prodotto diretto
Si pu`o osservare che dalla (6.4) segue che anche P
e dove Q({b})
e
e
di misure Q
= pe e Q({a})
= qe.
pe =
6.1.1
Definita la struttura del modello si vuole dimostrare che il mercato su cui opera `e senza opportunit`a di
arbitraggio. Per realizzare tale scopo, come ricordato sopra, basta dimostrare lesistenza di una misura di
Sn
probabilit`a equivalente alla misura di probabilit`a definita dalla (6.3) rispetto alla quale la successione Sen = B
n
`e una martingala.
martingala equivalenti (a P) devono
Si cerca quindi di individuare quali sono le condizioni che le misure P
e
e
soddisfare. Si ricorda che Sn `e una (P, Fn )-martingala se risulta Fn -adattato, integrabile e gode della propriet`a
e Sen |Fn1 ) = Sen1 .
E(
Sn
Lintegrabilit`a in questo caso non comporta alcun problema poiche Sen = B
assume un numero finito di valori
n
4
e in particolare risulta uniformemente limitata . Inoltre essendo in generale:
Sn
Sn1 1 + n
=
Bn
Bn1 1 + rn
(6.6)
P diviene
Sn
Sn1
1 + n
e
e
E
E
Fn1 =
Fn1 = 1
Bn
Bn1
1 + rn
e [n |Fn1 ] = rn
E
(i)
e n ] = E[r
e n ].
E[
3 Il
4 In
5 Si
(ii)
Sn
Sn1
Sn1 1 + n
=
1
Bn
Bn1
Bn1 1 + rn
Sn1 1 + n (1 + rn )
Sn1
1
=
=
[n rn ]
Bn1
1 + rn
Bn1 1 + rn
en =
S
e quindi
h
i
e S
e Sn Sn1 Fn1 = E
e Sn1 1 + n 1 Fn1
en Fn1 = E
E
Bn
Bn1
Bn1 1 + rn
i
Sn1 e 1 + n (1 + rn )
Sn1
1 eh
E
E n rn Fn1
=
Fn1 =
Bn1
1 + rn
Bn1 1 + rn
124
MPEF 01-07-2009
Quindi, nel caso del modello CRR considerato, in cui rn `e costante e uguale a r, e n pu`o assumere solo i due
valori a e b, si ottengono le seguenti identit`
a6
e (n |Fn1 ) = r,
E
e n)
E(
= r,
e (n = b|Fn1 ) + aP
e (n = a|Fn1 ) = r,
bP
e (n = b)
e (n = a)
bP
+ aP
= r,
(6.7)
(6.8)
ovvero,
e (n = b|Fn1 ) + a 1 P
e (n = b|Fn1 ) = r
bP
e (n = b)
e (n = b)
bP
+a 1P
= r,
(6.9)
(6.10)
e n = b) = pe =
= P(
ra
ba
(6.11)
e n = a|Fn1 )
P(
e n = a) = qe =
= P(
br
ba .
(6.12)
Da questa osservazione, e dal fatto che Fn1 = {1 , , n1 } si ottiene facilmente che le variabili aleatorie
e indipendenti ed identicamente distribuite7 . Segue che il modello CRR `e un
1 , , N sono, rispetto a P,
6 Si noti che la condizione (i) caratterizza le misure martingala equivalenti mentre la condizione (ii) `
e solo una condizione
sia una misura martingala equivalente. Inoltre, grazie al fatto che n assume solo due valori, la (i) permette
necessaria affinch
eP
di individuare la distribuzione condizionata di n data Fn1 , in funzione di rn = rn (). Per lo stesso motivo la (ii) permette di
Infine, il fatto che rn () sia una costante r implica che rn = r e quindi
individuare la distribuzione di n (entrambe rispetto a P).
che la distribuzione condizionata di coincida con la distribuzione stessa.
7 Un modo pi`
u elegante per pervenire a questo stesso risultato e verificare lindipendenza delle n si ottiene illustrando la
e
costruzione di P.
e P attraverso dei passi ben precisi: si prende Pn = PN |F , dove
Dalle premesse fatte si evince che si pu`
o costruire la misura P
n
e1 , P
e2 , . . . , P
eN tramite la formula
Fn = (1 , . . . , n ), si considera una (P, Fn )-martingala Zn di media 1 e si definiscono P
(6.13)
(6.14)
(6.15)
permette di ottenere
Z1 (b) =
ra1
ba p
Z1 (a) =
ra
ba
qe =
Ponendo
pe =
br 1
.
ba q
br
ba
si arriva allidentit`
a
e1 (b) = Z1 (b)P1 (b) = pe
P
e1 (a) = Z1 (a)P1 (a) = qe.
P
e1 `
e2 si usa
Si osservi che pe + qe = 1 e che, per la (6.1), pe, qe > 0 da cui segue P
e una probabilit`
a equivalente a P1 . Per determinare P
nuovamente la (6.13) e lindipendenza tra 1 e 2 rispetto a P2 arrivando al seguente risultato
pb
Z2 (b, b)
Z2 (b, a)
+qa
= r,
Z1 (b)
Z1 (b)
(6.16)
Z2 (b, b)
Z2 (b, a)
+q
= 1,
Z1 (b)
Z1 (b)
(6.17)
MPEF 01-07-2009
125
e si evince
mercato privo di opportunit`
a di arbitraggio; analizzando i passi che conducono alla costruzione di P
che questultima `e lunica misura martingala equivalente da ci`o discende la completezza, per il Teorema APT2.
Tuttavia la dimostrazione che lunicit`
a della misura martingala equivalente implica la completezza non `e stata
e
data in queste note, mentre `e stata data la dimostrazione che la S-rappresentabilit`
a implica la completezza.
e
Si proceder`a quindi ora alla dimostrazione della S-rappresentabilit`
a per il modello CRR, in modo che la
dimostrazione della completezza per questo modello sia autocontenuta in queste note.
6.1.2
***Rappresentabilit`
a nel mercato scontato, per il modello CRR
Nel Lemma 5.8 viene stabilita lequivalenza tra la propriet`a di completezza del mercato (B, S) e la
S-rappresentabilit`
a, sotto lipotesi che Bn = 1, ovvero lequivalenza della propriet`a di completezza del
e S)
e e della S-rappresentabilit`
e
` interessante osservare che in questo caso `e proprio lunicit`a
mercato (B,
a. E
e
della misura martingala a permettere la S-rappresentazione delle martingale limitate e quindi la completezza.
N.B. Si giunge cos`, per il modello in questione, a una dimostrazione diretta della necessit`a del teorema APT2.
e Fn )-martingala e siano le gn = gn (x1 , . . . , xn ) funzioni tali che
Sia M = (Mn )n>0 una (P,
Mn () = gn (1 (), . . . , n ()),
(6.18)
ovvero8
Mn () = I{n ()=b} gn (1 (), . . . , n1 (), b) + I{n ()=a} gn (1 (), . . . , n1 (), a).
e n |Fn1 ) = Mn1 diviene quindi
La condizione E(M
e n = b|Fn1 ) gn (1 (), . . . , n1 (), b) + P(
e n = a|Fn1 ) gn (1 (), . . . , n1 (), a)
P(
= gn1 (1 (), . . . , n1 ()).
e Fn )-martingala diviene
Tenendo conto9 delle (6.11) e (6.12) segue che la condizione che M `e una (P,
pe gn (1 (), . . . , n1 (), b) + qe gn (1 (), . . . , n1 (), a)
= gn1 (1 (), . . . , n1 ())
= pe gn1 (1 (), . . . , n1 ()) + qe gn1 (1 (), . . . , n1 ())
o equivalentemente
gn (1 (), . . . , n1 (), b) gn1 (1 (), . . . , n1 ())
qe
gn1 (1 (), . . . , n1 ()) gn (1 (), . . . , n1 (), a)
=
.
pe
confrontando la (6.16) e la (6.17) rispettivamente con la (6.14) e la (6.15) si vede che
Z2 (b, b)
ra1
pe
=
=
Z1 (b)
ba p
p
In modo del tutto simile si pu`
o ottenere
quindi
e analogamente
pe
Z2 (a, b)
=
Z1 (a)
p
Z2 (b, a)
br 1
qe
=
= .
Z1 (b)
ba q
q
Z2 (a, a)
qe
= ;
Z1 (a)
q
e2 (b, a) = pe qe,
e2 (b, b) = pe 2 .
P
P
e2 ; inoltre P
e2 (i = b) = pe e P
e2 (i = a) = qe per i = 1, 2.
Le variabili aleatorie 1 , 2 risultano, dunque, i.i.d. rispetto la misura P
e P consiste nelliterare il procedimento descritto per le misure P
e3 , . . . , P
eN
Lultimo passo per costruire una misura martingala P
en definite dalla formula (6.4) e infine ponendo P
e=P
eN .
ottenendo cos` le P
8 Si osservi che lespressione di M come
n
126
MPEF 01-07-2009
In virt`
u dellespressione(6.5) di pe e qe si definisce
n0 ()
:=
=
da cui segue
Mn ()
Mn () Mn1 ()
I{n ()=b} [gn (1 (), . . . , n1 (), b) gn1 (1 (), . . . , n1 ())] +
I{n ()=a} [gn (1 (), . . . , n1 (), a) gn1 (1 (), . . . , n1 ())]
I{n ()=b} (b r)n0 () + I{n ()=a} (a r)n0 ()
X
=
I{n ()=x} (x r)n0 ()
=
=
+
=
x={a,b}
(n () r)n0 ().
n
X
(k () r)k0 ().
k=1
Bn1 e
Sn ,
Sn1
e
da cui deriva la S-rappresentabilit`
a della martingala considerata, cio`e
Mn () = M0 () +
n
X
ek ()Sen ,
(6.19)
k=1
dove si `e assunto
Bn1
Sn1
gn (1 (), . . . , n1 (), b) gn1 (1 (), . . . , n1 ())
Bn1
=
(1 + r)
.
br
Sn1
en () = n0 ()(1 + r)
(6.20)
(6.21)
Si osservi che poiche le n0 () risultano Fn1 -misurabili (questa propriet`a `e diretta conseguenza della loro
definizione) la successione
en () `e predicibile .
6.2
=
1
Bn
Bn1
Bn1 1 + rn
Sn1 1 + n (1 + rn )
Sn1
1
=
=
[n rn ] ,
Bn1
1 + rn
Bn1 1 + rn
en =
S
da cui
[n rn ] = (1 + rn )
Bn1 e
Sn .
Sn1
MPEF 01-07-2009
127
Come visto nel capitolo II se il mercato considerato `e senza opportunit`a di arbitraggio e completo (come
risulta essere il mercato binomiale (B,S) del modello CRR ) il prezzo di copertura (o premio) per lacquisto
dellopzione, cio`e
(6.24)
tale risultato permette di rispondere completamente al problema di determinare un prezzo razionale per il
contratto di unopzione con pay-off fN . Si ricorda che il venditore prendendo il premio C(fN , P) dal compratore
e
pu`o dotarsi di un portfolio
e = (,
e) che replica il pay-off fN allistante N , cio`e
XN
= fN .
Come menzionato nella dimostrazione del Lemma 5.8 il modo standard per determinare il portfolio
e consiste
e Fn )-martingala M = (Mn )n6N definita da
nel considerare, inizialmente, la (P,
e
Mn = E
fN
Fn .
BN
e
con il valore attualizzato X
n ().
Vale la pena di notare che se nella Proposizione 2.24 si mette r al posto di R, 1 + a al posto di d, 1 + b al posto di u, p al posto di
qu , q al posto di qd , n al posto di t, N al posto di T , ed infine si divide per (1 + r)n (o (1 + r)N ) si ottiene:
8
Vn+1 (k+1)
Vn+1 (k)
Vn (k)
>
>
< (1+r)n = p (1+r)n+1 + q (1+r)n+1
>
>
:
Si definisca gn (1 , , n ) =
Hn+1 = Hn , si ha
Vn (Hn )
,
(1+r)n
VN (k)
(1+r)N
di modo che, notando che se n+1 = b allora Hn+1 = Hn + 1, mentre se n+1 = a allora
gn+1 (1 , , n , b) =
Vn+1 (Hn + 1)
,
(1 + r)n+1
gn (1 , , n , a) =
Vn+1 (Hn )
.
(1 + r)n+1
128
MPEF 01-07-2009
e
Essendo M S-rappresentabile
esiste una successione predicibile = (
n )n6N , si vedano12 le (6.20) e (6.21),
tale che la martingala risulta data da:
Mn = M0 +
n
X
k
k=1
Sk
Bk
n 6 N.
(6.25)
Si pu`o riassumere quanto detto in questa sezione, tenendo conto anche dei risultati ottenuti nella Sezione
6.1.2, enunciando il seguente teorema:
Teorema 6.1. Dato il modello CRR
per ogni N e per ogni pay-off fN FN -misurabile il prezzo ****pu`
o essere descritto dalla formula
fN
fN
e
e
.
C(fN , P) = B0 E
=E
BN
(1 + r)N
(6.26)
e
esiste una copertura perfetta e autofinanziante
e = (,
e) dal valore X = (Xn )n6N tale che
X0 = C(fN ; P)
e
XN
= fN
e = Bn Ee
Xn
fN
Fn .
B0 (1 + r)N
Sn
en = Mn
en
Bn
(6.27)
S
e Fn )-martingala
-rappresentazione (6.25) della (P,
dove
en con n 6 N `e determinata attraverso la B
M = (Mn )n6N definita come
fN
e
Mn = E
Fn .
BN
Lespressione di
en si ottiene attraverso la formula (6.21).
*** Per la costruzione esplicita della strategia
e per le connessioni con gli alberi binomiali si veda
lAppendice 6.3, alla fine di questo capitolo. ***
Concludiamo questa sezione dando una seconda rappresentazione per la martingala M . Prendendo (come
in (5.42))
Sn
n = Mn n
Bn
e
formula (6.21), assicura che, se la martingala Mn = E
allora il processo
n definito da
12 La
n () =
fN
BN
o scrivere attraverso una funzione gn come in (6.18),
Fn si pu`
`
e quello che permette di rappresentare Mn come integrale stocastico discreto come in (6.19). Sarebbe interessante controllare se
questa strategia corrisponde a quella proposta nella Proposizione 2.24 di Bj
ork, tenendo presente quanto detto nella nota precedente.
13 Se si interpreta M come il valore attualizzato del portafoglio al tempo n allora la relazione (6.27) diviene ovvia se riscritta
n
come
Sn
Mn = en +
en
.
Bn
MPEF 01-07-2009
129
) di valore
si ottiene una copertura autofinanziante
= (,
e
Xn = n Bn + n Sn = Bn E
fN
Fn
BN
Sn
Bn
Sn1 (n r)
Bn
n
X
k=1
X
Sk1
(k r) = M0 +
k (k r)
Bk
(6.28)
k=1
k
.
avendo definito k in modo che valga la condizione k = k SBk1
n =
b
a
n a
ba
n =
1
0
n
X
()
ek0 mk
(6.29)
k=1
()
dove la successione m() = mn
()
n6N
di variabili mn =
Pn
k=1 (k
e Fn )-martingala e
pe) = Hn ne
p `e una (P,
n .
en0 = (b a)e
Si osservi che la scelta di esprimere M in termini della
Pn successione risulta utile nel calcolo esplicito del valore
del premio, in quanto la variabile aleatoria Hn = k=1 k , che conta il numero delle volte in cui il prezzo sale
tra il passo 1 e il passo n, ha legge binomiale Bin(n, p) rispetto alla misura martingala equivalente.
6.2.1
Per unopzione call standard (si veda la premessa del capitolo II) la funzione di pay-off fN risulta pari a:
fN = (SN K)+
(6.30)
130
MPEF 01-07-2009
Per sottolineare la dipendenza del prezzo di copertura dellopzione call dal prezzo di strike viene introdotta la
notazione Ccall (K, P) = C(fN , P).
Prendendo H = HN pari al numero di volte in cui lazione `e aumentata del fattore (1 + b) nel periodo di
PN
tempo che va da 1 a N , cio`e, richiamando le notazioni del precedente paragrafo, H = k=1 k segue che la sua
distribuzione `e una binomiale di parametri N e pe , ovvero:
H B(N, pe)
e
sotto P.
(6.32)
andandolo a sostituire nella (6.31) e esplicitando il valore della media per la distribuzione in esame segue che il
prezzo di acquisto risulta
N
X
1
N
Ccall (K, P) =
pe h (1 pe )N h
h
(1 + r)N
h=0
+
S0 (1 + a)N h (1 + b)h K ,
(6.33)
se si prende h0 come il pi`
u piccolo intero per cui `e soddisfatta la disuguaglianza S0 (1 + a)N h (1 + b)h > K si
pu`o riscrivere la (6.33) in funzione di questo
N h
h
N
X
1+b
1+a
N
h
N h
Ccall (K, P) = S0
pe (1 pe )
h
1+r
1+r
h=h0
N
X
K
N
pe h (1 pe )N h
h
(1 + r)N
(6.34)
h=h0
= S0
h
N h
N
X
1+b
1+a
N
pe
(1 pe )
h
1+r
1+r
h=h0
N
X
K
N
pe h (1 pe )N h .
h
(1 + r)N
h=h0
Si osserva che presa la funzione di sopravvivenza14 di una binomiale calcolata nel punto x ovvero
N
X
N
B(N, p)(x) =
p h (1 p)N h
h
(6.35)
h>x
si ottiene
Ccall (K, P) = S0 B(N, p )(x0 )
K
B(N, pe )(x0 )
(1 + r)N
(6.36)
dove si `e posto15
p =
1+b
pe.
1+r
(6.37)
14 Si ricordi che la funzione di sopravvivenza di una variabile aleatoria X, con funzione di distribuzione F (x) = P(X x) `
e
definita da F (x) = 1 F (x) = P(X > x). Nel caso di una variabile aleatoria binomiale di parametri n e , se si indica con
bxc
X
n
B(n, )(x) = P(X x) =
h (1 )ni
i
i=0
X
i=1+bxc
15 Si
ra
ba
=
1+rd
ud
p =
n
h (1 )ni
i
si ottiene che
1+b
1+b ra
pe =
.
1+r
1+r ba
MPEF 01-07-2009
131
x0 = ln
K
S0 (1 + a)N
ln
1+a
1+b
S0 (1+a)N
.
h0 = 1 +
1+b
ln 1+a
(6.38)
K
B(N, pe )(x0 )
(1 + r)N
dove B(N, p) `e definita tramite la (6.35), p attraverso la (6.37) e si `e assunto h0 come nella (6.38).
Osservazione 6.2. Si osservi che i risultati ottenuti nel caso delle opzioni call sono facilmente estendibili a
quelle put (dove fN = (K SN )+ ), infatti dallidentit`
a
(K SN )+ = (SN K)+ SN + K
segue che il prezzo razionale di unopzione put pu`
o essere definito dalla formula
(K SN )+
e
Cput (K, P) = E
(1 + r)N
K
SN
e
= Ccall (K, P) E
+
N
(1 + r)
(1 + r)N
e
ed essendo E
SN
(1+r)N
K
.
(1 + r)N
1+a
1+a br
(1 pe ) =
.
1+r
1+r ba
Infatti
1+b
1+b ra
pe = 1
1+r
1+r ba
(1 + r) (b a) (1 + b)(r a)
b a + br ar r + a br + ba
=
=
(1 + r) (b a)
(1 + r) (b a)
b r + ba ar
(b r) (1 + a)
=
=
.
(1 + r) (b a)
(1 + r) (b a)
1 p = 1
132
MPEF 01-07-2009
Osservazione 6.3. Sia f = f (x), con x > 0, una funzione non negativa, sia fN = f (SN ) il pay-off e sia, come
e f (SN ) il prezzo razionale corrispondente. E
` possibile determinare il valore del prezzo
al solito, C(fN , P) = B0 E
BN
di unopzione generica di questo tipo usando il prezzo razionale
di unopzione call.
R
Si assuma f derivabile con derivata f 0 (x) = f 0 (0) + (0,x] (dy), dove = (dy) `e una misura finita16 ,
non necessariamente positiva, su (R+ , B(R+ )). Si noti che se f `e derivabile due volte si ha la precedente
00
rappresentazione con (dy) = f (y)dy .
Allora `e chiaro che
Z
Z
f (x) = f (0) + xf 0 (0) +
(x y)+ (dy) = f (0) + xf 0 (0) +
(x y)+ (dy),
(6.39)
(0,x]
(0,)
(P q.c.).
(0,)
(SN y)+
(dy)
BN
Z
(0,)
(P q.c.).
f (0)
+ S0 f 0 (0) +
(1 + r)N
Z
Ccall (y, P)(dy).
(6.40)
(0,)
Si osservi che se fN = f (SN ) = (SN K )+ , K > 0, allora (dy) `e concentrata nel punto K , cio`e
(dy) = {K } (dy), e ci`
o implica, come deve essere, C(fN , P) = Ccall (K , P).
e quindi
f (x) = f (0) +
f 0 (z)dz = f (0) +
f 0 (0) +
Z
f 00 (y)dy dz = f (0) + xf 0 (0) +
Z
f 00 (y)dy
dz
e scambiando lordine integrali per cui 0 < z x e 0 < y < z diviene 0 < y < x e y < z x
Z x
Z x Z x
Z x
f 00 (y)dz dy = f (0) + xf 0 (0) +
f 00 (y)
dz dy
= f (0) + xf 0 (0) +
0
y
x
00
f (y) (x y) dy
= f (0) + xf (0) +
0
Tuttavia, ad esempio, rientrano nella categoria sopra citata anche funzioni del tipo
f (x) = (x K1 )+ (x K2 )+ ,
0 < K1 < K2 .
MPEF 01-07-2009
6.3
133
In questa Appendice vogliamo discutere la relazione tra i risultati ottenuti in questo capitolo, e la costruzione
degli alberi binomiali, cos` come si trova nei testi standard come il testo di Hull [8] o di Luenberger [10], ad
esempio, ma anche nel testo di Bj
ork [4]. Il metodo si applica nel caso in cui lopzione sia di tipo europeo e
plain vanilla, cio`e il caso in cui il terminal pay-off fN = f (SN ), con f funzione deterministica.
Per iniziare lalbero permette di scrivere levoluzione del prezzo dellazione in modo che lalbero rappresenta
lo spazio dei possibili eventi (si veda la Figura 6.1).
e del
La martingala Mn `e data dal valore atteso condizionato, sotto la misura martingala equivalente P,
terminal pay-off attualizzato
f (SN )
,
fN =
BN
rispetto a Fn , ossia da
MN =
f (SN )
BN
i
h
e MN Fn .
Mn = E
Quindi, nel caso delle opzioni plain vanilla, il valore di MN si ottiene semplicemente calcolando la funzione f
negli N + 1 valori possibili per SN e dividendo per BN = B0 (1 + r)N (si veda la Figura 6.3). Essendo BN un
valore deterministico, si ha che
MN = gN (SN ),
f (s)
dove ****
gN `e una funzione deterministica ****(
gN (s) = B0 (1+r)
N ). Sempre nel caso delle opzioni plain vanilla,
anche Mn gode di una propriet`
a analoga, ovvero della propriet`a che
Mn = gn (Sn ),
per unopportuna funzione deterministica gn . Questa propriet`a si dimostra facilmente per induzione: per
n = N 1 si ottiene immediatamente
h
i
e MN FN 1 = E
e f (SN ) FN 1
MN 1 = E
BN
e f (SN 1 u) 1{Z =u} + f (SN 1 d) 1{Z =d} FN 1
=E
N
N
BN
BN
i
i
h
f (SN 1 d) e h
f (SN 1 u) e
E 1{ZN =u} FN 1 +
E 1{ZN =d} FN 1
=
BN
BN
f (SN 1 u)
f (SN 1 d)
=
pe +
qe =: gN 1 (SN 1 ).
BN
BN
Analogamente se Mn = gn (Sn ), allora
h
i
h
i
e Mn Fn1 = E
e gn (Sn )Fn1
Mn1 = E
h
i
e gn (Sn1 u) 1{Z =u} + gn (Sn1 d) 1{Z =d} Fn1
=E
n
n
h
i
h
i
e 1{Z =u} Fn1 + gn (Sn1 d) E
e 1{Z =d} Fn1
= gn (Sn1 u) E
n
n
= gn (Sn1 u) pe + gn (Sn1 d) qe =: gn1 (Sn1 ).
Riassumendo abbiamo visto che quindi, nel caso delle opzioni plain vanilla, per ottenere la martingala Mn
basta
1) calcolare MN alla fine dellalbero binomiale,
2) calcolare Mn1 = gn1 (Sn1 ) = gn (Sn1 u) pe + gn (Sn1 d) qe.
134
MPEF 01-07-2009
f (sN )
,
BN
La funzione
Vn (k) = Bn Vn (k) = Bn gn (s0 uk dnk ) = B0 (1 + r)n gn (s0 uk dnk ),
anche ammette una formula ricorsiva, che risulta
Vn1 (k) =
1
(Vn (k + 1) pe + Vn (k) qe) ,
1+r
1
1+r
1
(Vn (k + 1) pe + Vn (k) qe) .
=
1+r
=
Abbiamo quindi ottenuto la formula ricorsiva che viene presentata nel libro di Bj
ork [4].
MPEF 01-07-2009
135
c(n, x) = Bn gn (x), che permette di calcolare il valore del portafoglio al tempo n come c(n, Sn ), ed il prezzo al
tempo zero come c(0, s0 ).
(II) Calcolo della strategia di copertura perfetta: si ottiene lespressione esplicita della strategia
autofinanziante di copertura perfetta data dal cosidetto Delta-hedging ossia
n () =
(si ricordi che n si ottiene immediatamente dalla condizione che la strategia sia autofianziante).
Il nome di Delta-hedging, viene dal fatto che la strategia (o portafoglio) si pu`o riscrivere
n () =
c(n)
S(n)
dove c(n) `e la differenza tra i due possibili valori del portafoglio al tempo n, e S(n) `e la differenza tra i due
possibili prezzi del titolo rischioso al tempo n, entrambe le differenze sono calcolate al tempo n 1, quando
sappiamo che il prezzo del titolo rischioso vale Sn1 .
***fine cambiamento***
N
X
=
,
BN
n =
X
n
X
k Sk Sk1 ,
1 n N.
cambiamento
k=1
e Poiche entrambe MN e X
coincidono con il terminal pay-off
per cui `e una martingala (sempre sotto P).
N
attualizzato, ovvero
= f (SN ) ,
MN = X
N
BN
necessariamente deve essere (si rammentino le osservazioni allEsempio 4.1: ****se due martingale coincidono,
con probabilit`a 1, nellistante N , allora coincidono, con probabilit`a 1, in tutti i tempi precedenti n N )
n ,
Mn = X
per ogni n = 0, 1, . . . , N.
(6.41)
(6.42)
dove
Nella precedente definizione abbiamo messo in evidenza la dipendenza dal tempo di esercizio N , in quanto anche
la funzione gn (x) dipende da tale valore18 .
18 Abbiamo indicato tale funzione con c(n, x), ma ovviamente il valore del portafoglio di copertura perfetta dipende anche dai
parametri r, a e b (o se si preferisce da r, u e d).
136
MPEF 01-07-2009
f (sN )
BN
,
1
cN (n, sn1 u) pe + cN (n, sn1 d) qe ,
1+r
infatti Xk1 = k1 + k1 Sk1 per definizione, ma deve essere anche Xk1 = k + k Sk1 , se la strategia
= (n , n )n `e autofinanziante.
Ricordiamo brevemente come si ottiene il numero k di azioni da comprare nel caso generale: una volta data
la funzione gn (1 , , n ), che individua20 Mn , allora la condizione che Mn sia una martingala, ossia
e Mn Fn1
Mn1 = E
diviene la condizione21
gn1 (1 (), , n1 ()) = p gn (1 (), , n1 (), b) + q gn (1 (), , n1 (), a).
Inoltre, come abbiamo visto, la condizione che Mn sia una martingala equivale ad affermare che
n0 () :=
(6.43)
coincide con lanaloga espressione con a al posto di b, ovvero che vale anche luguaglianza
n0 () =
19 Nelle
(6.44)
notazioni del Bj
ork [4] ci`
o corrisponde a
= B0 V (H0 ) = B0 V (0) = V (0).
x0 = B 0 X
0
MPEF 01-07-2009
137
(1+n )Sn1
(1+r)Bn1
Sn1
Bn1
Sn1
Bn1
1+n
1+r
1 =
Sn1 n r
Bn1 1+r
Sn1 (n r)
Bn1 (1+r) ,
si
Bn1 (1 + r)
0 ()
Sn () Sn1 () = Bn n
Sn () Sn1 () ,
Sn1 ()
Sn1 ()
da cui
n () = Bn
n0 ()
.
Sn1 ()
(6.45)
Nel caso delle opzioni plain vanilla, tenendo conto che gn (1 (), , n1 (), n ()) = gn (Sn ()), la condizione
e diviene, come abbiamo visto allinizio del paragrafo in modo diretto,
che Mn sia una martingala sotto P
gn1 (Sn1 ) = p gn (Sn1 u) + qgn (Sn1 d),
(6.46)
gn (Sn1 () u) [
p gn (Sn1 () u) + qgn (Sn1 () d)]
br
gn (Sn1 () u) p gn (Sn1 () u) qgn (Sn1 () d)
=
br
q gn (Sn1 () u) qgn (Sn1 () d)
=
br
q
=
gn (Sn1 () u) gn (Sn1 () d)
br
br
= ba gn (Sn1 () u) gn (Sn1 () d)
br
gn (Sn1 () u) gn (Sn1 () d)
=
ba
gn (Sn1 () u) gn (Sn1 () d)
=
.
ud
Per ottenere n , non rimane che utilizzare questa uguaglianza in (6.45) e osservare che, sempre per le opzioni
plain vanilla, la strategia di copertura perfetta si ottiene da una derivata discreta, ossia
n0 () :=
g
n (Sn1 () u)
gn (Sn1 () d)
ud
gn (Sn1 () u) gn (Sn1 () d)
Sn1 ()
Sn1 ()u Sn1 ()d
Bn gn (Sn1 () u) Bn gn (Sn1 () d)
=
Sn1 ()u Sn1 ()d
n () = Bn
= Bn
Ricordando la (6.41) e la definizione (6.42) della funzione c(n, x), si ha dunque che in questo caso la strategia
di copertura perfetta diviene una sorta di derivata discreta rispetto al parametro x della funzione c(n, x), in
quanto
c(n, Sn1 () u) c(n, Sn1 () d)
.
n () =
Sn1 ()u Sn1 ()d
138
MPEF 01-07-2009
FIGURA 1:
come si trovano i valori di Sn per n = 0, 1, ..., N
s0 uN
3
3Q s0 uN 1 d
QQ
s
3Q
3
s0 u3
QQ
s
3Q
3Q
s0 u2
Q
QQ
s
Q
s
3Q
3Q s0 u2
3
s0 u
d
QQ
QQ
s
s
3Q s0 u d
3Q
3Q
s0
QQ
QQ
QQ
s
s
s
2
3Q
Q s0 d
3Q s0 u d
3
QQ
QQ
QQ
s
s
s
3Q
Q s0 d2
3Q
QQ
QQ
QQ
s
s
s
3Q
Q s0 d3
3
Q
QQ
s
Q
s
Q
3Q s0 u dN 1
QQ
QQ
s
s
Q
3
QQ
s
Q s0 dN
QQ
s
Figura 6.1: Albero binomiale per il calcolo di Sn per n = 0, 1, ..., N . Lo spazio viene rappresentato come
linsieme dei cammini possibili.
3
3Q
QQ
s
Q
3
3
QQ
s
3Q
3Q
s0 u2
QQ
Q
s
s
Q
3 2
2
Q
Q
3
3
3
s
u
d
s0 u
s
u
d
0
0
QQ
QQ
s
s
2 2
3Q
3
Q
s0 u3 d3
s0
s
u
d
0
3QQ
Q
Q
s
Q
s
Q
s
Q
Q
3Q
3Q
3
QQ
QQ
QQ
s
s
s
Q
3Q
3Q
QQ
QQ
QQ
s
s
s
Q
3
Q
3
QQ
QQ
s
s
Q
3Q
QQ
QQ
s
s
Q
3
QQ
s
Q
QQ
s
Figura 6.2: Albero binomiale per il calcolo di Sn per n = 0, 1, ..., N . Esempio di cammino: in grassetto si vede
il cammino relativo allevento {Z1 = u, Z2 = u, Z3 = d, Z4 = d, Z5 = u, Z6 = d}
MPEF 01-07-2009
139
FIGURA 2:
come si trovano i valori di Mn = gn (Sn ) per n = 0, 1, ..., N .
s0 uN
*
HH
s0 uN 1 d
HH
j
f (sN 1 u)f (sN 1 d)
*
N =
sN 1 usN 1 d
H
HH sN 1 u
j f (sN 1 u)/BN
H
*
g
N 1 (sN 1 ) =
sN 1
HH
= pf
(sN 1 u)/BN + qf (sN 1 d)/BN
sN 1 d
HH
j f (sN 1 d)/BN
*
H
HH
j
H
*
HH
s0 u dN 1
HH
j
*
H
HH s0 dN
j
H
Figura 6.3: Albero binomiale per il calcolo di gN 1 e della strategia di copertura perfetta N
In particolare la strategia di copertura perfetta per n = N ed SN 1 = sN 1
N =
f (sN 1 u) f (sN 1 d)
BN f (sN 1 u)/BN BN f (sN 1 d)/BN
=
,
sN 1 u sN 1 d
sN 1 u sN 1 d
n =
Bn g
n (sn1 u) Bn g
n (sn1 d)
sn1 u sn1 d
g
n1 (sn1 ) =
= p
gn (sn1 u) + qg
n (sn1 d)
sn1
sn1 u
g
n (sn1 u)
*
HH
sn1 d
HH
jg
n (sn1 d)
Figura 6.4: Albero binomiale per il calcolo della strategia di copertura perfetta n .
Capitolo 7
7.1.1
Ipotesi e notazioni
o in altre parole
S0 = s0 > 0,
S1 = (1 + 1 )S0 = Z1 S0
...
Sn = (1 + n ) (1 + 2 )(1 + 1 )S0 = Zn Z2 Z1 S0
d = 1 + a,
con la condizione
d < 1 + r < u.
Si definisca
i = 1{i =b} = 1{Zi =u}
ovvero la variabile aleatoria che vale 1 se il prezzo dellazione sale e zero altrimenti, in modo che1
Zi = ui d1i .
1 Il
140
MPEF 01-07-2009
141
Sia Hn () la v.a. che conta il numero delle volte in cui il prezzo sale tra il passo 1 e il passo n, ossia
Hk () =
k
X
1{i =b} =
i=1
k
X
1{Zi =u} =
k
X
i=1
i=1
in modo che
u Hk
Sk N = S0 uHk dkHk = S0
dk
= S0 (1 + b)HN (1 + a)kHk = S0
1+b
1+a
Hk
(1 + a)k
per ogni k = 0, 1, ..., N e per ogni pay-off terminale2 fN (che deve essere FN -misurabile) il prezzo di esercizio
pu`o essere descritto dalla formula
fN
fN
e
e
.
(7.1)
=E
C(fN , P) = CN (fN , P) = B0 E
BN
(1 + r)N
e `e il valore atteso rispetto alla probabilit`a P
e rispetto alla quale gli eventi {Zi = u} sono indipendenti e
dove E
tutti con probabilit`
a
1+rd
1 + r (1 + a)
ra
p =
=
=
.
ud
(1 + b) (1 + a)
ba
Allora, per lopzione call europea con prezzo di esercizio K e tempo di esercizio N ,
(SN K)+
e
= Ccall (K, P) = Ccall,N (K, P)E
BN
(7.2)
e
e quindi, tenendo conto che HN ha distribuzione binomiale Bin(N, p) rispetto a P
h
N h
1+b
1+a
N
pe h (1 pe )N h
h
1+r
1+r
x0 <hN
X
K
N
pe h (1 pe )N h
N
h
(1 + r)
Ccall (K, P) = S0
(7.3)
x0 <hN
h
N h
N
X
1+b
1+a
N
= S0
pe
(1 pe )
h
1+r
1+r
h=h0
N
X
K
N
pe h (1 pe )N h .
h
(1 + r)N
h=h0
(7.4)
dove
ln
x0 =
K
S0 (1+a)N
ln
1+b
1+a
o equivalentemente
h0 = min{j N : S0 (1 + a)N j (1 + b)j K > 0}
2 Si ricorda che stiamo trattando obbligazioni derivate di tipo europeo, che possono essere esercitate solo al tempo finale N , o
tempo si esercizio, al contrario di quelle di tipo americano, che invece possono essere esercitate in un qualunque istante tra linizio
del contratto e il tempo di esercizio.
142
MPEF 01-07-2009
7.2
7.2.1
Bt
bntc
(n)
(7.5)
(n)
St
(n)
= S bntc = Sbntc = s0
n
u(n)
d(n)
Hbntc
d(n)
bntc
(7.6)
(n)
dove il primo segno di uguaglianza sia in (7.5) che in (7.6), garantisce il fatto che i due processi Bt
sono costanti sugli intervalli di ampiezza 1/n, mentre nellultima uguaglianza in (7.5) si sceglie
r(n) =
r
,
n
(n)
ed St
(7.7)
d(n) = e/
(7.8)
(7.9)
Teorema 7.1. Posto Ccall (K, P) il prezzo della call europea nel modello binomiale dato da (7.5) e (7.6), con i
parametri definiti come in (7.7) e (7.8), prezzo di esercizio K e tempo di esercizio Nn (T ), si ottiene che
(n)
lim Ccall (K, P) = s0 + T KerT (),
(7.10)
n
ez
/2
Z +
2
1
dz =
ez /2 dz = 1 (x) ,
2 x
3 Si
K
s0
2
r
2
xR
T .
[n]
noti che di nuovo, per non appesantire la notazione, non abbiamo utilizzato la notazione Hbntc , che sarebbe stata pi`
u precisa.
MPEF 01-07-2009
143
Osservazione 7.1. Tenendo conto che r T = log(erT ) = log(erT ), con semplici passaggi si ottiene
T
T
erT
erT
, + T = 1 T log s0K
= 1 T log s0K
2
+ 2 ,
da cui, poiche, come gi`
a ricordato (x) = 1 (x), il limite in (7.10) si riscrive come
T
T
erT
erT
s0 1 T log s0K
KerT ( 1 T log s0K
+ 2
2 )
h
T
T i
erT
s0 erT
1
(7.11)
(7.12)
La forma (7.12), mette in evidenza come il prezzo si scriva come il prezzo iniziale s0 della opzione, moltiplicato
per un fattore che dipende solo dal rapporto4 s0K
, fra prezzo di esercizio K e prezzo forward della opzione
erT
rT
stessa, (cio`e s0 e , il valore di s0 attualizzato al tempo T ).
Prima di tutto commentiamo la scelta del riscalamento, ossia la scelta dei due processi (7.5) e (7.6).
Ovviamente la scelta di r(n) in (7.7) corrisponde alla necessit`a che il tasso di interesse sia proporzionale
(n) (n)
allampiezza degli intervalli [tk , tk+1 ) = [ nk , k+1
n ), ossia si abbia
B
(n)
(n)
tk
[n]
= Bk = Bk
(n)
r k
= B0 1 +
n
(n)
Bt
=B
(n)
(n)
tk
r k
= B0 1 +
n
(n)
(n)
(7.13)
`e il numero di intervalli di ampiezza 1/n che si trovano nellintervallo [0, t], allora
(n)
Bt
r Nn (t)
= B0 1 +
n
o meglio
(n)
Bt
r bntc
(n)
.
= B bntc = B0 1 +
n
n
(7.14)
Inoltre `e ragionevole pensare che i cambiamenti del prezzo si discostino di poco in un intervallo di tempo
cos` piccolo, ed in effetti si suppone che
(n)
(n) (n)
(n)
(n)
S (n) = Zk S (n) = 1 + k
S (n)
tk
tk1
(n)
u(n) & 1
n
tk1
e d(n) = e/
d(n) % 1,
n
1 2
x + o(x2 ),
2
4 Ricordiamo che lopzione si dice alla pari o at the money se K = s erT , out of the money se K < s erT , e in the money se
0
0
invece K > s0 erT .
144
MPEF 01-07-2009
1
u(n) = 1 + (/ n) + ( 2 /n) + o(1/n)
2
1
d(n) = 1 (/ n) + ( 2 /n) + o(1/n),
2
(7.15)
diviene
1
1
(/ n) + ( 2 /n) + o(1/n) < r/n < (/ n) + ( 2 /n) + o(1/n),
2
2
(7.16)
b(n) = +
n
1
2
d(n) = 1 + a(n) .
2
+ o( n1 )
n
a(n) = +
n
1
2
2
+ o( n1 )
n
e che
(n)
St
=S
(n)
(n)
tk
(n)
(n)
ovvero, se come prima, Nn (t) = bntc `e il numero di intervalli di ampiezza 1/n che si trovano nellintervallo [0, t],
allora, tenendo presente che
u(n)
e/ n
2/ n
=e
=
,
d(n)
e/ n
si pu`o anche scrivere
(n)
St
[n]
= S bntc = S bntc = S0
n
= S0
(n)
u
d(n)
Hbntc
2 1n Hbntc
= S0 e
d(n)
u(n)
d(n)
HNn (t)
d(n)
bNn (t)c
bntc
1n bntc
1n 2 Hbntc bntc
= S0 e
(7.17)
Passiamo ora alla dimostrazione del Teorema 7.1, ossia della formula di Black e Scholes.
7.2.2
Grazie al fatto che (almeno per n sufficientemente grande) il modello di mercato considerato `e completo e privo
e(n) esiste ed `e unica, e che,
di opportunit`a di arbitraggio, sappiamo che la misura martingala equivalente P
(n)
e(n) , gli eventi {Z
rispetto alla misura martingala equivalente P
= u} sono indipendenti e con probabilit`a
i
p(n)
r
(n)
1 + r d(n)
n a
= (n)n
=
=
u d(n)
b(n) a(n)
r
1 2
1
n ( n + 2 n + o( n ))
1 2
1 2
1
2 n + o( n ) ( n + 2 n +
o meglio
p(n) =
=
+ 1 (r 1 2 ) + o( 1 )
n
2
n
n
n
=
2
2
2 n + 12 n 12 n + o( n1 )
1 r 12 2
1
1
+
+ o( 1n ) =
2 2 n
+ n1 (r
1
2
2 ) + o( n1 )
2 n + o( n1 )
1
+ n ,
2 n
o( n1 ))
MPEF 01-07-2009
145
Di conseguenza il prezzo di un derivato con maturit`a (tempo di esercizio) T e con pay-off terminale
(contingent claim)
(n)
f (ST )
dovr`a necessariamente avere come prezzo
(n)
#
"
(n)
(n) f (ST )
e
(f, P) = B0 E
(n)
BT
(7.18)
e (n)
= B0 E
(n)
(ST K)+
(n)
BT
"
#
e (n)
=E
(SNn (T ) K)+
Nn (T )
1 + nr
#
(7.19)
Abbiamo quindi unespressione del prezzo, ma il problema a questo punto diviene complesso dal punto di vista
numerico, almeno per n grande: il denominatore non comporta problemi in quanto si pu`o approssimare con
erT , mentre lo stesso non si pu`
o dire del numeratore.
Per risolvere questo problema ci viene in aiuto il Teorema Centrale del Limite. Si noti infatti che, qualunque
sia t > 0
(n)
log St
= log S0 + HNn (t) log
u(n)
d(n)
+ Nn (t) log d
(n)
Nn (t)
= log S0 +
i log
i=1
u(n)
d(n)
+ Nn (t) log d(n) ,
(n)
(n)
log
(n)
St
(n)
= Nn (t) p
(n)
(1 p
) log
u(n)
e/ n
2/ n
=e
,
=
(n)
/
n
d
e
si ha
log
u(n)
d(n)
=2
n
d(n) = e/
u(n)
d(n)
2
.
log d(n) = ,
n
5 Si ricordi che se Z ha distribuzione N (, 2 ), ovvero distribuzione gaussiana di valore atteso e varianza 2 , allora anche
W = a + bZ ha distribuzione gaussiana, ma di valore atteso E[W ] = E[a + bZ] = a + b, e varianza V ar(W ) = V ar(a + bZ) =
V ar(bZ) = b2 V ar(Z) = b2 2 .
146
MPEF 01-07-2009
(n)
1 r 12 2
e (n) log S (n) = log S0 + bntc 1 +
1 )
2
+
bntc
E
+
o(
t
n
2 2 n
n
n
1 2
1
1 r 2
= log S0 + bntc
2 +
2 + o( n ) 2
2
n 2 n
n
n
n
1
= log S0 + bntc
r 12 2 + o( 1n ) 2
n
n
bntc
= log S0 +
r 12 2 log S0 + t r 21 2 .
n
Analogamente la varianza vale
Vg
ar
(n)
log
(n)
St
(n)
= Nn (t) p
(n)
(1 p
1
+
2
1
+
= bntc
2
1 4 2
bntc
4 n
= bntc
) log
u(n)
d(n)
2
2
1 r 12 2
1
1 r 12 2
2
+ o( 1n )
1
+
+ o( 1n )
2 2 n
2 n
n
2
2
1
1
1
1 2 4
1
4
n
n
= bntc
2 2 n
n
4
4n n
n
2 n
t 2
distr
log(St ) log S0 + t r
1
2
2 + Wt .
(7.20)
Osservazione 7.2. Va notato che il precedente risultato si potrebbe ottenere anche direttamente, dimostrando
(n)
che la funzione caratteristica della variabile aleatoria log St converge alla funzione caratteristica di log(s0 ) +
1 2
r t 2 t + Wt , ossia che
h
i
e (n) exp{i u log S (n) } = eiu(log(s0 ert ) 12 2 t) 21 2 t u2 .
lim E
t
n
(n)
St
= S0 e
bntc
nt
1
bnc
2 Hbntc bntc
bntc
Ovviamente n ****converge ad t, e per ottenere la convergenza basterebbe dimostrare direttamente che la
funzione caratteristica della variabile aleatoria
1
tp
2 Hbntc bntc
bntc
r 1 2
converge alla funzione caratteristica di 1 r t 12 2 t + Wt = 2 t + Wt , ****ossia che
h
i
e (n) exp{i u log S (n) } = eiu(r t 12 2 t) 21 2 t u2 .
lim E
t
n
La dimostrazione sarebbe sostanzialmente la stessa di quella del teorema centrale del limite, in quanto possiamo
scrivere
k
k
X
X
[n]
[n]
2Hk k =
(2 j 1) = 2 Hk k) =
(2 j 1)
j=1
j=1
MPEF 01-07-2009
147
come somma di variabili aleatorie indipendenti ed identicamente distribuite. Lunica differenza risiede nel fatto
[n]
[n]
che le variabili aleatorie 2 j 1 = 2 j 1 , hanno distribuzione che dipende da n: esattamente 2 j 1
assumono i valori +1 e 1 con probabilit`
a p(n) e 1 p(n) , rispettivamente6 . Il calcolo del limite della funzione
caratteristica in questo caso richiede quindi un minimo di attenzione in pi`
u.
Va infine notato che, nel caso in cui invece si avesse pi`
u semplicemente il caso di variabili aleatorie
Xj := 2 j 1, indipendenti e che assumono i valori +1 e 1 con probabilit`
a 1/2 (e quindi a valore atteso
nullo), il teorema centrale del limite ci darebbe direttamente che
bntc
X
1
1
p
2 Hbntc bntc = p
(2 j 1)
bntc
bntc j=1
(2 j 1) =
2 j 1 (2 p(n) 1) +
(2 p(n) 1).
n j=1
n j=1
n j=1
La prima somma converge allora ad una variabile aleatoria gaussiana a valore medio nullo, mentre si potrebbe
dimostrare che la seconda somma converge a rt 21 2 t. Questa osservazione `e alla base dellidea che permette
di costruire il moto browniano standard. Ad esso e dedicata la sezione successiva.
distr
Prima di proseguire nella dimostrazione del Teorema 7.1, dobbiamo ricordare che il simbolo Xn n X
significa che la successione di variabili aleatorie Xn converge in distribuzione (o in legge) alla variabile aleatoria
X. Non `e necessario che le variabili aleatorie Xn ed X vivano sullo stesso spazio di probabilit`a, ma si pu`o
supporre che, per ogni n, la variabile aleatoria Xn sia definita nello spazio di probabilit`a (n , F n , Pn ) e X
sia definita nello spazio di probabilit`
a (, F, P). La convergenza in distribuzione significa la convergenza di
Fn (x) := Pn (Xn x) a F (x) := P(X x) per ogni x tale che F (x) = F (x ), e che ci`o `e equivalente al fatto
che7 per ogni funzione continua e limitata f
lim En [f (Xn )] = E[f (X)].
(n)
"
#
(n)
1
1
(r 2 2 )T + WT
(n) f (ST )
e
E rT f (S0 e
)
(f, P) = E
(n)
e
BT
(7.21)
e (n)
=E
(n)
(ST K)+
Nn (T )
1 + nr
E
1
erT
1
(r 2 2 )T + WT
(S0 e
K)
,
(7.22)
148
MPEF 01-07-2009
dove lunica variabile aleatoria `e WT (che sotto P ha distribuzione gaussiana di media 0 e varianza T )****, in
quanto S0 = s0 `e il valore iniziale del prezzo dellazione.
Abbiamo quindi visto come il prezzo di una opzione call europea si possa ottenere dalla formula
1 2
Ccall = C(s0 , K, T, r, ) = E erT (s0 e(r 2 )T + WT K)+
dove si `e messo in evidenza la dipendenza dai parametri del modello: S0 prezzo iniziale della azione, K prezzo
di esercizio i di strike dellopzione, T tempo di maturit`a o di strike dellopzione, r tasso nominale di interesse
composto in modo continuo, ed infine il parametro , che `e detto volatilit`a.
` importante sottolineare che, al contrario di tutti gli altri parametri, che sono noti e direttamente osservabili,
E
il valore della volatilit`
a non `e direttamente osservabile, ma deve essere stimato. Un problema interessante
riguarda proprio la stima statistica della volatilit`a.
Si osservi che fino ad ora abbiamo addirittura trovato una formula che permette di calcolare in modo
approssimato tutti i tipi di opzioni plain vanilla di tipo europeo, con la condizione che la funzione f sia continua8
Per terminare la dimostrazione rimane solamente da calcolare esplicitamente il valore limite del prezzo della
call europea.
(n)
A questo proposito notiamo che, per ogni t, la legge della variabile aleatoria
St rispetto a P(n) `e
approssimativamente la stessa9 della variabile aleatoria s0 exp{(r 2 /2)t + tZ}, dove Z `e una variabile
aleatoria gaussiana standard N (0, 1).
Quindi, per s0 = x, si tratta di calcolare
C0 (x) = erT E (ST K)+
+
2
= erT E xe(r 2 )T + T Z K
.
La speranza matematica a destra vale
1
erT
2
xe(r
2
2
)T + T z
+
ez
/2
dz.
log
K
x
2
r
2
T ,
e quindi
Z
2
erT + (r 2 )T +T z
2
C0 (x) =
xe
K ez /2 dz.
2
Ricordando che per la funzione di distribuzione di una gaussiana standard si ha ****(x) = 1 (x), si
ottiene allora
Z +
Z
2
2
x
K erT + z2 /2
C0 (x) =
erT e(r 2 )T + T z ez /2 dz
e
dz
2
2
Z +
2
1
x
=
e 2 (z T ) dz KerT ()
2
Z +
2
x
=
ez /2 dz KerT ()
2 T
= x + T KerT (),
8 In
realt`
a la condizione che f sia una funzione continua `
e superflua.
in legge si vede dallespressione approssimata del logaritmo del prezzo (7.20), e tenendo conto del fatto che
ft `
`
la legge della variabile aleatoria W
e N (0, t) e che anche la variabile aleatoria tZ ha legge N (0, t), se Z ha legge N (0, 1). E
importante sottolineare che ovviamente ci`
o vale solo come variabili aleatorie e non vale come processi (ossia il processo (Wt )t0 non
coincide affatto con il processo ( t Z)t0 : infatti le traiettorie tipiche del processo (Wt )t0 non sono molto regolari ne prevedibili,
e sono quindi molto diverse dalle traiettorie di ( t Z)t0 , che invece sono molto regolari e prevedibili.
9 Luguaglianza
MPEF 01-07-2009
149
T t i
r(T t)
K
x er(T t)
1
.
+ 2T t x er(T
)
Ct = St 1T t log x e K
t) ( T t log
K
2
x=St
10 La volatilit`
a`
e un parametro che gioca un ruolo importante nelle applicazioni. Per questo motivo, negli ultimi anni, `
e stato
molto studiato, in statistica, il problema di stimare il coefficiente di diffusione, a partire dallosservazione di una traiettoria.
150
MPEF 01-07-2009
7.2.3
La dimostrazione della formula di Black e Scholes potrebbe tuttavia essere ottenuta direttamente dalla formula
del prezzo della call per il modello binomiale multiperiodale: Infatti sappiamo che
(n)
Ccall (K, P) = s0 F N
(n) u(n)
n (T ),p
1+ r
n
(n )
K
F
(n) (n )
(1 + nr )Nn (T ) Nn (T ),p
dove F m,p (x) `e la funzione di sopravvivenza di una variabile aleatoria binomiale di parametri m e p, e dove
ln S0 (d(n)K)Nn (T )
n
n
n
K
K
bnT c
bnT c =
=
n =
ln
+
ln
+
.
(n)
2
S0
2 n
2
S0
2
ln ud(n)
Tenendo conto che il teorema centrale del limite assicura che, per m grande (e p non troppo piccolo) si ha
x mp
,
F m,p (x) ' p
m p(1 p)
si ottiene che il prezzo della call pu`
o essere approssimato con
(n)
Ccall (K, P)
n bnT c pe(n)
' s0 q
bnT ce
p(n)
u(n)
r
1+ n
u(n)
r
1+ n
(n)
u
(1 pe(n) ) 1+
r
n bnT c pe(n)
K
p
.
(1 + nr )bnT c
bnT ce
p(n) (1 pe(n) )
Per ottenere la formula di Black e Scholes basta poi osservare che (1+ nr )bnT c converge a erT , che pe(n) = 12 + 2nn ,
2
con limn n =
r 2
, e quindi che
c
n
1
ln SK0 + bnT
2 bnT c 2 + 2 n
p
= q
bnT ce
p(n) (1 pe(n) )
bnT c 12 + 2nn 1 12 + 2nn
n
bnT c 2nn
K
2
q
q
= ln
S0
2
2
bnT c 14 4 nn
bnT c 14 4 nn
r 1 2
K
K
1
1
2
T lim n = ln
T
' ln
n
S0 T
S0 T
ln S0KerT
K
rT
T
T
1
+
+
= ln
=
,
S0 T
2
2
T
T
n
2
n bnT c pe(n)
e infine che
n bnT c pe(n)
q
bnT ce
p(n)
u(n)
r
1+ n
u(n)
r
1+ n
(n)
u
(1 pe(n) ) 1+
r
'p
bnT ce
p(n) u(n) (1 pe(n) ) u(n)
n
1
2+2 n
2
r
n + , in modo che limn en = 2 + =
del tutto analoghi ai precedenti che
n bnT c 12 + 2nn 1 + n + o( 1n )
p
=
bnT ce
p(n) (1 pe(n) ) u(n)
r+ 2
K
ln
n bnT c 21 + 2nn
rT
S0 e
1
T
p
=
'
.
2
T
bnT ce
p(n) (1 pe(n) ) u(n)
MPEF 01-07-2009
7.3
7.3.1
151
Il moto Browniano
Approssimazione del moto browniano per t fissato
Nella derivazione precedente del prezzo abbiamo incontrato il processo del logaritmo dei prezzi, che a parte il
contributo dovuto al prezzo iniziale, si esprime come
Nn (t)
i log
i=1
u(n)
d(n)
+ Nn (t) log d
(n)
Nn (t)
1 X
1
= 2
i Nn (t)
n i=1
n
1
n
Nn (t)
X
i=1
X
1
(2i 1) =
(2i 1) .
n i=1
bntc
Si definisca
(n)
Wt
bntc
1 X
e (n) [2i 1]
:=
(2i 1) E
n i=1
(7.23)
di modo che
(n)
log St
bntc
1 X e (n)
(n)
E [2i 1]
= log S0 + Wt +
n i=1
(7.24)
Con calcoli analoghi a quelli della sezione precedente, si pu`o vedere che il valore atteso
bntc
1 X e (n)
1
1
1 r 21 2
+o
E [2i 1] = bntc (2
p(n) 1) = bntc 1 +
n i=1
n
n
n
(n)
Ovviamente il processo Wt
1
n
1
r 12 2
t.
W0
= 0,
ed inoltre
e (n) W (n) = 0.
E
t
(n)
Per t > 0, con gli stessi calcoli della sezione precedente, si pu`o vedere che il processo Wt
tende allinfinito) alla legge gaussiana di valore atteso nullo e varianza che tende a t.
ed
e (n) [Xj ] ,
e (n) := 1 Xj E
X
j
n
si pu`
o riscrivere (7.23) come
(n)
Wt
bntc
1 X
e (n) [Xj ]
=
Xj E
n j=1
bntc
X 1
X (n)
e (n) [Xj ] =
e
Xj E
X
j
n
j=1
j=1
bntc
152
MPEF 01-07-2009
exp{i u Wt
}=
e (n) }
exp{i u X
j
j=1
e (n) ,
X
j
bntc
Y
(n)
(n)
e
e (n) exp{i u X
e (n) } .
E
exp{i u Wt } =
E
j
(7.25)
j=1
dove n = (r
1
2
2
(n) 1
1
e (n) = Vg
p(n) (1 p(n) )
X
ar
2
=
2
j
j
n
n
4 1
1
1
1
=
+ n
n
n 2 2 n
2 2 n
(n)
e (n) = 1 + o 1 .
X
j
n
n
(n)
Per ottenere la convergenza in distribuzione non rimane che utilizzare tale fatto per ottenere lespressione
e (n) , sostituire tale espressione in (7.25), e procedere esattamente
approssimata della funzione caratteristica di X
j
come nella dimostrazione del teorema centrale del limite.
*
AGGIUNTA DIMOSTRAZIONE della convergenza alla legge Gaussiana
e(n) (u) := E
j
n
Tenendo presente che Xj assume solo i valori +1 e 1 con probabilit`a p(n) =
n
e (n) [Xj ] =
rispettivamente, e quindi E
si ottiene
1
2
+ 2nn e 1 p(n) =
1
2
2nn ,
u
u
1
n
n
1
n
n
+ exp i 1
+
exp i
1
2 2 n
2 2 n
n
n
n
n
u
u
u
u
exp i n + exp i n
n exp i n exp i n
u n
=
exp i n +
exp i unn
2
2
n
2
2
2
2
1
iu
u
iu
u
= exp i unn
1+
+ o un + 1
+ o un
2
2n
2n
n
n
2
2
2
n 1
iu
u
iu u2
+
1+
+ o un 1 + +
+ o un
2n
2n
n 2
n
n
2
2
2
u
n iu
= exp i unn
1
+ o un + + o un
2n
n
n
2
u2
iun
= exp i unn
1
+
+ o un .
2n
n
e(n) (u) =
MPEF 01-07-2009
153
(n)
exp i
u n
n
, vale
u2
iun
1
+
+o
2n
n
u2
n
bntc
e (n) exp{i u W (n) } = lim
lim E
t
u2
n
bntc
che `e appunto la funzione caratteristica di una variabile gaussiana di media nulla e varianza t.
FINE DIMOSTRAZIONE
7.3.2
Indipendenza ed omogeneit`
a degli incrementi
(n)
(n)
(n)
Ancora, se si considerano i tempi 0 t1 < t2 , allora lincremento Wt2 Wt1 ha la stessa legge di Wt2 t1 , in
(n)
(n)
(n)
quanto Wt2 Wt1 `e funzione deterministica delle variabili aleatorie j , per j tale che tj = j/k (t1 , t2 ],
(n)
e la stessa funzione determina nello stesso modo Wt2 t1 a partire dalle variabili aleatorie i , per i tale che
(n)
(n)
(n)
ti = i/n (0, t2 t1 ], e di conseguenza la distribuzione dellincremento Wt2 Wt1 converge ad una
11
distribuzione gaussiana di valore atteso 0 e varianza t2 t1 , * come si vede facilmente .*
Se invece si considerano i tempi 0 t1 < t2 < . . . < tm1 < tm allora gli incrementi
(n)
(n)
(n)
Wt1 W0 ,
(n)
Wt2 Wt1 ,
(n)
(n)
...
Wtm Wtm1
...
{jm :
j1
n
(0, t1 ]},
{j2 :
j2
n
(t1 , t2 ]}
jm
n
(tm1 , tm ]}
che sono indipendenti, e di conseguenza anche gli incrementi di W (n) sono indipendenti. Come ulteriore
conseguenza questa propriet`
a si mantiene al tendere di n allinfinito.
7.3.3
Le osservazioni precedenti portano naturalmente alla seguente definizione del processo di Wiener standard o
moto browniano.
11 *
(n)
Wt2 Wt1
e (n) ,
X
j
j=bnt1 c+1
Wt2
e (n) =
X
j
j=1
bnt1 c
j=1
(n)
W0
e (n) +
X
j
bnt2 c
e (n) = W (n) + W (n) W (n) .
X
t1
t2
t1
j
j=bnt1 c+1
(n)
(n)
(n)
= Wt1 W0
(n)
(n)
(n)
(n)
sono indipendenti. Lindipendenza di questi incrementi permette di affermare che, oltre alla convergenza in distribuzione di Wt1
(n)
(n)
ad una variabile aleatoria gaussiana di valore medio nullo e varianza t1 e la convergenza di Wt2 Wt1 ad una variabile aleatoria
(n)
(n)
(n)
gaussiana di valore medio nullo e varianza t2 t1 , si ha anche la convergenza congiunta di Wt1 , Wt2 Wt1
ad una variabile
aleatoria bidimensionale gaussiana di valori medi nulli, indipendenti e di varianza rispettivamente t1 e t2 t1 . Questo fatto implica
(n)
(n)
anche la convergenza della distribuzione congiunta di Wt1 , Wt2 . Questa osservazione si estende facilmente al caso in cui si
(n)
(n)
(n)
considerino le variabili aleatorie Wt1 , Wt2 , Wtm , con 0 t1 < t2 < . . . < tm1 < tm . *
154
MPEF 01-07-2009
Definizione 7.1 (moto browniano). Si chiama moto browniano un processo Wt per t R+ un processo tale
che
1 W0 = 0,
2 se 0 t1 < t2 < . . . < tm1 < tm allora gli incrementi
Wt1 W0 ,
Wt2 Wt1 ,
...
Wtm Wtm1
sono indipendenti,
3 se 0 t1 < t2 ed s > 0 allora gli incrementi
Wt2 Wt1
ovvero hanno la stessa distribuzione gaussiana di valore atteso 0 e varianza t2 t1 . In altre parole si dice
anche che gli incrementi sono omogenei.
Di solito oltre alle tre precedenti propriet`
a si aggiunge anche la propriet`
a che le traiettorie sono continue, ossia
che per ogni la funzione t 7 Wt () `e una funzione continua.
Inoltre quanto abbiamo visto nella sezione precedente permette di dare una definizione di un processo St ,
che, alla luce di (7.24), si pu`
o interpretare come il limite, rispetto alle misure martingala equivalenti, dei processi
bntc
X
1
(n)
(n)
(n)
e (n) [2i 1] ,
E
St = exp log St
= S0 exp Wt +
n
i=1
da cui si definisce
r 21 2
St = S0 exp Wt +
t = S0 exp Wt + (r 12 2 ) t ,
(7.26)
(7.27)
MPEF 01-07-2009
155
r
t,
Capitolo 8
Esistono diversi modi di definire un processo stocastico. Il primo consiste nel considerare semplicemente una
famiglia di variabili aleatorie.
Definizione 8.1 (Processo stocastico come famiglia di v.a.). Dato uno spazio (, F, P) ed un insieme I di
indici1 , allora una famiglia di variabili aleatorie {Xt : 7 R(o Rd ), per t I} `e detta processo stocastico,
e R (o Rd ) `e detto lo spazio degli stati del processo.
In alcuni casi si vuole mettere in evidenza levoluzione rispetto al tempo e si preferisce dare una definizione
di processo stocastico come funzione aleatoria.
Definizione 8.2 (Processo stocastico come funzione aleatoria). Dato uno spazio (, F, P) ed un insieme I di
indici, si definisce processo stocastico (come funzione aleatoria) la funzione (misurabile)2
X : 7 RI ; 7 t 7 X(t, ) .
Una definizione analoga vale nel caso di processi con spazio degli stati Rd .
Altre volte si `e interessati anche ad alcune propriet`a delle traiettorie t 7 X(t, ), quali ad esempio la
continuit`a. Viene allora naturale dare la definizione di processo a traiettorie continue.
Definizione 8.3 (Processo stocastico come funzione aleatoria continua). Dato uno spazio (, F, P) ed un
insieme I di indici, si definisce processo stocastico (come funzione aleatoria continua) la funzione
1 Tipicamente linsieme degli indici `
e I = [0, ), o I = [0, T ], o ancora I = N (e in questo caso si parla pi`
u propriamente di
successioni aleatorie), ma `
e possibile anche che linsieme degli indici sia multidimensionale, ad esempio I = R2 (e in questo caso si
parla pi`
u propriamente di campi aleatori).
2 Per rendere la definizione completa andrebbe precisata la -algebra che si mette sullo spazio di tutte le funzioni RI . Di solito
si tratta in realt`
a di richiedere almeno che tutte le funzioni
7 R; 7 X(t, )
siano variabili aleatorie F -misurabili. La -algebra considerata su RI `
e di solito RI , la -algebra del Teorema di Kolmogorov 8.1
e la nota 8.1 corrispondente, per maggiori dettagli si veda lAppendice 8.8 .
156
MPEF 01-07-2009
157
(misurabile)3
X : 7 C(I; R); 7 t 7 X(t, ) ,
dove C(I; R) `e lo spazio metrico delle traiettorie continue. Una definizione analoga vale nel caso di processi con
spazio degli stati Rd .
Dato un processo si definiscono le funzioni di distribuzione finito-dimensionali.
Definizione 8.4 (Famiglia delle funzioni di distribuzione finito-dimensionali). Dato un processo stocastico
(secondo una delle precedenti definizioni) la famiglia delle funzioni di distribuzione Ft1 , ,tn , definite per n 1,
e t1 , tn , con ti I, come le funzioni di distribuzione congiunte delle variabili (Xt1 , , Xtn ), ovvero
Ft1 , ,tn (x1 , , xn ) = P(Xt1 x1 , , Xtn xn ),
`e detta famiglia delle funzioni di distribuzione finito-dimensionali del processo X = (Xt )tI .
Va detto che, cos` come una variabile aleatoria viene spesso individuata attraverso la sua distribuzione,
senza specificare quale sia lo spazio di probabilit`a (, F, P) sul quale `e definita, spesso anche un processo
viene individuato attraverso le sue distribuzioni finito-dimensionali. Si pone quindi il problema di individuare
quali sono le famiglie di distribuzioni che sono effettivamente famiglie di distribuzioni finito-dimensionali di un
processo.
Si individuano facilmente due condizioni necessarie ((C1) e (C2)), dette condizioni di consistenza:
(C1) Sia k > 1, sia una permutazione di {1, , k}, si ponga
: Rk Rk , (x1 , , xk ) (x1 , , xk ) := (x1 , , xk ).
Si richiede che per ogni k > 1, , t1 , , tk e (x1 , , xk ) valga
Ft1 , ,tk (x1 , , xk ) = Ft1 , ,tk ( (x1 , , xk )) = Ft1 , ,tk (x1 , , xk ).
(8.1)
xk+1
(8.2)
xk+1
lim
xk+1
e la -algebra su C(I; R) `
e quella generata dagli aperti. Se invece I = [0, ) si pu`
o, ad esempio, usare la metrica
d(x(), y()) =
X
N =1
1
2N
158
MPEF 01-07-2009
(8.3)
lim Ft1 , ,ti1 ,ti ,ti+1 , ,tk+1 (x1 , , xi1 , x, xi+1 , , xk+1 )
per i = 1, , k.
(8.4)
Il seguente teorema garantisce che le precedenti condizioni necessarie, sono anche sufficienti.
Teorema 8.1 (di Kolmogorov). Sia data una famiglia Ft1 , ,tk di funzioni di distribuzione finito-dimensionali
consistente, cio`e che verifica le condizioni di consistenza (C1) e (C2) (ovvero (8.1) e (8.2) ), allora esiste
uno spazio di probabilit`
a ed un processo aleatorio che ammette Ft1 , ,tk come funzioni di distribuzione finitodimensionali.4
La tesi rimane valida se valgono le condizioni equivalenti (C1) e (C20 )(ovvero (8.1), (8.3) e (8.3).
Vediamo subito delle applicazioni del precedente teorema, mentre per la dimostrazione rimandiamo
allAppendice 8.8.
Esempio 8.1 (Processi a coordinate indipendenti). Data una famiglia di funzioni di distribuzione {Ft , t I}
ad un tempo, si consideri la famiglia delle funzioni di distribuzione finito-dimensionali Ft1 , ,tk (x1 , , xk ) :=
Ft1 (x1 ) Ftk (xk ). Tale famiglia `e chiaramente una famiglia consistente e quindi esiste un processo con
tali funzioni di distribuzione finito-dimensionali.
Si noti che non si richiede che I sia numerabile, e che questo esempio, nel caso numerabile, garantisce lesistenza
di successioni di v.a. indipendenti5 .
Esempio 8.2 (Processi gaussiani). Siano date una funzione m : I R, t m(t) e una funzione, detta
funzione di correlazione, K : I I R, (t, s) K(t, s) definita non negativa, cio`e tale che comunque
scelti n 1, t1 , , tn I, 1 , , n C valga
1,n
X
h k K(th , tk ) 0.
h,k
Si noti che quindi necessariamente K(t, s) = K(s, t) e K(t, t) 0 e che la condizione che la funzione di
correlazione sia definita non negativa corrisponde alla richiesta che la matrice = (i,j := K(ti , tj ))i,j=1, ,n
sia definita non negativa (ovvero positiva in senso lato) qualunque siano tj , per j = 1, , n.
Sia Ft1 , ,tk la funzione di distribuzione congiunta gaussiana di media (m(t1 ), , m(tk )) e matrice di
covarianza definita da i,j = K(ti , tj ) per i, j = 1, , k, e sia ft1 , ,tk la sua densit`
a.
Per convincersi dellesistenza di un processo con tali distribuzioni finito-dimensionali si consideri il caso in
cui K(t, s) sia strettamente definita positiva e si noti che se (Y1 , , Yk ) `e un vettore aleatorio con componenti
indipendenti e ciascuna con distribuzione normale N (0, 1), allora il vettore definito da Z = (Z1 , , Zk ) =
A(Y1 , , Yk ) + (m(t1 ), , m(tk )) = AY + m, dove A = 1/2 (cio`e = At A = AAt ), `e un vettore con la
distribuzione cercata6 .
4 Inoltre `
e sempre possibile prendere come spazio di probabilit`
a lo spazio canonico RI , come -algebra la -algebra generata dai
cilindri, ovvero dagli insiemi del tipo
MPEF 01-07-2009
159
Per la consistenza della famiglia Ft1 , ,tk cos` definita, si noti che loperatore di (8.1) `e una
trasformazione lineare e che trasformazioni lineari di vettori gaussiani sono ancora gaussiani. Inoltre, indicando
ancora con la matrice associata alloperatore di (8.1), allora Z = AY + m, segue una legge gaussiana
di media m = (m(t1 ), , m(tk )) e con matrice di covarianza ( A)( A)t = AAt t = t =
(i ,j )i,j=1, ,k .
Da queste osservazioni si deduce immediatamente che per la densit`
a vale
ft1 , ,tk (x1 , , xk ) = ft1 , ,tk ( (x1 , , xk )) = ft1 , ,tk (x1 , , xk ),
ovvero la (8.1). Per quanto riguarda la (8.2), basta ricordare che ogni sottovettore di un vettore gaussiano `e
ancora un vettore gaussiano.
Esempio 8.3 (Processo di Wiener standard). Come caso particolare dellEsempio precedente possiamo stabilire
lesistenza del processo di Wiener standard, detto anche moto browniano, cio`e del processo gaussiano
con m(t) = 0 e K(t, s) = t s.
Bisogna ovviamente controllare che la funzione K(, ) sia definita non negativa. Ci`
o pu`
o essere fatto
direttamente, ma con una certa fatica7 .
Un metodo decisamente pi`
u probabilistico8 `e il seguente: consiste nellosservare che la funzione di
correlazione
K(t, s) := Cov(Nt , Ns )
di un processo Nt di Poisson standard (cio`e con = 1) `e proprio t s, ci`
o `e sufficiente9 a garantire la sua non
negativit`
a. Infatti
Cov(Nt , Ns ) = Cov(Nts , Nts )
= E[Nts (Nts + Nts Nts )] E[Nts ]E[Nts + Nts Nts ]
= E[Nts Nts ] + E[Nts (Nts Nts )] E[Nts ](E[Nts ] + E[Nts Nts ])
= V ar(Nts ) + E[Nts (Nts Nts )] E[Nts ]E[Nts Nts ] = V ar(Nts )
=ts
7 Dati
tk1
1
t1 t2
tk1
t1
t2
..
.
tk1
tk
C
C
C
C
C
A
Si pu`
o dimostrare che il determinante di questa matrice `
e t1 (t2 t1 )(t3 t2 ) (tk tk1 ) > 0, e ci`
o dimostra subito il fatto che
K(t, s) = t s `
e definita positiva. Il primo passo per dimostrare tale identit`
a`
e osservare che
0
1
0
1
t1 t1
t1
t1
t1
0
0
0
Bt1 t2
Bt1 t2 t1
t2
t2 C
t2 t1
t2 t1 C
B
C
B
C
B
C
.. C = det B .
..
..
..
det B ..
.
C
B
C
.
.
. C
.
B.
B.
C
@t
A
@
t2
tk1 tk1
t1 t2 t1
tk1 t1 tk1 t1 A
1
t1 t2
tk1
tk
t1 t2 t1
tk1 t1
tk t1
da cui
t1
Bt1
B
B
det B ..
B.
@t
1
t1
t1
t2
t2
t2
..
.
t1
t2
tk1
tk1
0
t2
C
C
B
C
B
C = t1 det B
C
@t
2
A
tk1
t2
tk
t1
t2
..
.
t1
..
.
t1
t1
..
.
t2 t1
tk1 t1
tk1 t1
1
t2 t1
C
..
C
.
C,
tk1 t1 A
tk t1
160
MPEF 01-07-2009
h
X
(Wti Wti1 ) =
i=1
h
X
Wti ,
i=1
(dove si `e posto t0 = 0) che corrisponde ad una matrice B la cui inversa B 1 `e la matrice la cui diagonale ha
tutti gli elementi uguali ad 1, la cui sottodiagonale ha gli elementi tutti uguali a 1 e tutti i rimanenti elementi
uguali a 0, in quanto banalmente
Wth = Wth Wth1 .
Da questa osservazione, dalla formula di trasformazione della densit`
a e dallosservazione che gli incrementi
sono indipendenti, ovvero che
fWt1 , ,Wtn (y1 , , yn ) = fWt1 (y1 ) fWtn (yn ) =
n
Y
h=1
dove
gs (y) =
y2
1
exp{ }
2s
2s
si ottiene la densit`
a congiunta di (Wt1 , , Wtn )
fWt1 , ,Wtn (x1 , x2 , , xn ) = fWt1 , ,Wtn (x1 , x2 x1 , xn xn1 )
=
n
Y
(8.5)
(8.6)
h=1
2
(xn xn1 )
x2
(x x )2
1
1
1
1
2 1
e 2t1 p
e 2(t2 t1 ) p
e 2(tn tn1 )
2t1
2(t2 t1 )
2(tn tn1 )
(8.7)
h k K(th , tk ) =
h,k
1,n
X
i
h
h k E (X th E[X th ])(X tk E[X tk ])
h,k
2
3
1,n
X
= E4
h k (X t E[X t ])(X t E[X t ])5
h
"
=E
h,k
n
X
h (X th E[X th ])
h=1
n
X
k (X tk E[X tk ])
k=1
2
2 3
n
X
= E 4
h (X th E[X th ]) 5 0.
h=1
10 Il
Si noti che il procedimento permette di calcolare la varianza degli incrementi per un qualunque processo, purch
e sia nota la funzione
di covarianza K(s, t).
MPEF 01-07-2009
8.2
161
La descrizione di un processo attraverso la famiglia delle distribuzioni finito dimensionali non `e sufficiente
a stabilire le propriet`
a delle sue traiettorie. In questa sezione e nella successiva ci si pone il problema di
spiegare meglio questa affermazione, senza alcuna pretesa di essere esaurienti. Il primo concetto che ci serve
`e lequivalenza stocastica per due processi aleatori, che, come si vedr`a immediatamente dopo la definizione,
implica che i due processi hanno le stesse distribuzioni finito dimensionali.
Definizione 8.5 (Equivalenza stocastica). Due processi aleatori (Xt , t I) e (Yt , t I) sullo stesso spazio di
probabilit`
a (, F, P) si dicono stocasticamente equivalenti se
P(Xt (w) = Yt ()) = 1 per ogni t I.
(Si dice anche che (Yt , t I) `e una versione di (Xt , t I))
Lemma 8.2. Due processi stocasticamente equivalenti hanno le stesse distribuzioni finito-dimensionali.
Dimostrazione. Basta osservare che
P {(Xt1 , ..., Xtk ) H}
k
k
c
\
\
= P {(Xt1 , ..., Xtk ) H}
{Xti = Yti } + P {(Xt1 , ..., Xtk ) H}
{Xti = Yti }
i=1
k
\
i=1
{Xti = Yti } = P {(Yt1 , ..., Ytk ) H}
i=1
in quanto
P
k
\
i=1
k
k
c
[
X
{Xti = Yti }
=P
{Xti = Yti }c
P {Xti = Yti }c = 0.
i=1
i=1
Esempio 8.4. Come primo esempio di processo si definisca, in uno spazio di probabilit`
a (, F, P),
(
= 0 se T () > t,
Nt () := I{T t} () = I[T (),) (t)
, t 0,
= 1 se T () t
dove T `e una variabile aleatoria a valori in (0, ).
Si noti che, qualunque sia le traiettorie di questo processo, cio`e le funzioni
t 7 I{T t} ()
sono funzioni crescenti (in senso lato) rispetto a t.
Se T ammette densit`
a di probabilit`
a, ad esempio se `e una variabile aleatoria esponenziale, allora il processo
definito da
Mt () := Nt () + f (t + T ()),
dove
(
f (s) = 1
f (s) = 0
per s Q
per s R\Q,
162
MPEF 01-07-2009
P(T () = r t) = 0
rQ
8.3
criterio di Chensov-
Il seguente criterio sufficiente fornisce condizioni che assicurano lesistenza di una versione holderiana, non solo
continua. Ricordiamo che una funzione f (x) `e h
olderiana di esponente se per ogni x esistono un (x) > 0 e
un L (x) tali che, per ogni y per il quale |y x| (x), si abbia
|f (x) f (y)| L (x)|x y| .
Nel caso in cui (x) e L (x) possano essere presi in modo indipendente da x, per x I, si dice che f `e
uniformemente h
olderiana nellinsieme I.
Proposizione 8.3 (Criterio di Chensov-Kolmogorov). Sia Xt un processo per cui esistono , e C strettamente
positivi, per cui
E[|Xt Xs | ] C|t s|1+ .
et di Xt , a traiettorie continue. Inoltre le traiettorie sono uniformemente h
Allora esiste una versione X
olderiane
,
in
ogni
intervallo
limitato.
di esponente , per ogni <
8.4
MPEF 01-07-2009
163
di Wu , se esistesse un intervallo [s, t] ed un insieme A con P(A) > 0, su cui la variazione12 di Wu , cio`e se
V () = V (s, t, W ; )
n n1
o
X
:= sup
|Wtk+1 () Wtk ()|, al variare delle partizioni : t0 = s t1 tn = t
k=0
S :=
n1
X
|Wtk+1 Wtk |
k=0
k=0
sup|Wth+1
n1
X
sup|Wth+1
Wth | |Wtk+1 Wtk |
n1
X
Wth |
|Wtk+1 Wtk |
|Wu Wv | V () 0.
sup
u,v[s,t],|uv|||
k=0
Questo fatto `e in contraddizione con la seguente propriet`a del moto browniano (valida anche per versioni non
continue):
n1
X
|Wtk+1 Wtk |2 ,
k=0
L2
infatti
=E
"n1
X
k=0
2
|Wtk+1 Wtk |
k=0
n1
X
n1
X
|Wth+1 Wth | + (t s) 2
h=0
n1
X
|Wtk+1 Wtk |
#
(t s)
k=0
X n1
X
n1
4
E |Wtk+1 Wtk | +
E |Wtk+1 Wtk |2 |Wth+1 Wth |2 +
k=0
k=0 h=0
h6=k
+ (t s)2 2(t s)
n1
X
E |Wtk+1 Wtk |2
k=0
n1
X
k=0
12 Ricordiamo
3|tk+1 tk |2 +
n1
X n1
X
k=0 h=0
n1
X
|tk+1 tk |
k=0
h6=k
che se f `
e una funzione definita su un intervallo [a, b] la variazione di f su [a, b] `
e appunto definita come
sup{
n
X
k=0
164
MPEF 01-07-2009
n1
X
2|tk+1 tk |2 +
k=0
n1
X n1
X
k=0 h=0
n1
X
k=0
= 2(max|th+1 th |)
h
n1
X
|tk+1 tk | = 2(||(t s) 0.
k=0
La conseguenza di questo risultato `e che le traiettorie di un processo di Wiener non sono a variazione
limitata13 , o meglio,
!
n1
X
P V (s, t, W ; ) := sup
|Wtk+1 Wtk | = = 1.
k=0
Rt
Questo fatto in particolare pone dei problemi nel tentare di definire 0 f (s, )dWs (), in quanto non si pu`o
adottare la classica definizione di integrale di Lebesgue-Stieltjes, che avrebbe senso solo se Ws avesse traiettorie
a variazione finita. La definizione che si d`
a `e quindi diversa e si parla in questo caso di integrale stocastico,
inoltre per ottenerla si ha bisogno del concetto di martingala (vedere la Sezione 9.5).
13 In realt`
a con la stessa tecnica del lemma si dimostra anche che il processo di Wiener non ha traiettorie di H
older con esponente
> 1/2: se cos` fosse allora necessariamente si avrebbe
S ()
n1
X
k=0
L2 ()|tk+1 tk |2
n1
X
k=0
L2 ()|tk+1 tk | 21 = L2 () 21 (t s) 0, q.c.
MPEF 01-07-2009
8.5
165
Il procedimento usato per ottenere le distribuzioni finito dimensionali del processo di Wiener, si pu`o estendere
ad una classe pi`
u generale:
Definizione 8.6 (Processi ad incrementi indipendenti ed omogenei). Un processo (Xt )t0 si dice ad
incrementi indipendenti ed omogenei se
(0) X0 = 0;
(1) per 0 = t0 < t1 < tn gli incrementi Xti = Xti Xti1 sono variabili aleatorie indipendenti;
(2) gli incrementi Xti = Xti Xti1 sono variabili aleatorie la cui distribuzione dipende solo dallampiezza
dellintervallo (ti ti1 );
Per fissare le idee e capire meglio la condizione (2), si consideri la famiglia (Fu )u0 di funzioni di distribuzione
dipendente da un parametro, per cui Xt+u Xt Fu , qualunque siano t ed u in [0, ).
La famiglia (Fu )u0 non pu`
o essere presa a piacere, ma deve soddisfare la seguente condizione necessaria14 :
Fu Fv = Fu+v ,
per ogni u, v 0,
(8.8)
Xu+v Xu Fv ,
Xu+v Fu+v ,
e daltra parte
Xu+v = (Xu+v Xu ) + (Xu X0 ) Fv Fu .
In realt`a questa condizione risulta anche sufficiente, come si pu`o verificare facilmente. Infatti le funzioni
Ft1 , ,tk (x1 , , xk ) di distribuzione finito dimensionale risultano definite15 , per 0 < t1 < < tk , come, la
funzione di distribuzione ottenuta da quella degli incrementi, cio`e
P Xt1 X0 z1 , Xt2 Xt1 z2 , Xtk Xtk1 zk = Ft1 (z1 )Ft2 t1 (z2 ) Ftk tk1 (zk ),
attraverso la trasformazione16 x1 = z1 , x2 = z1 + z2 , , xk = z1 + + zk . La condizione (8.8) implica
immediatamente che la condizione di consistenza di Kolmogorov (C20 ) sia soddisfatta.
Per rendere pi
u concreta la verifica, si consideri, ad esempio, il caso con densit`a, ovvero il caso in cui
Z
Fu (x) =
qu (y)dy.
Procedendo come per il processo di Wiener, si ottiene che, per 0 < t1 < < tk
Z
x1
xk
14 Inoltre
15 Nel
`
e necessario che F0 (x) = 0 per x < 0 ed F0 (x) = 1 per x 0, ovvero che lincremento Xt Xt sia concentrato nello 0.
caso 0 = t0 < t1 < < tk si ottiene immediatamente che
Ft0 ,t1 , ,tk (x0 , x1 , , xk ) = 0,
per x0 < 0,
per x0 0.
tratta solo di notare che se Zi := Xti Xti1 allora (Xt1 , Xt2 , , Xtk ) = (Z1 , Z1 + Z2 , , Z1 + + Zk )
166
MPEF 01-07-2009
Per controllare la condizione di consistenza (C20 ), si prendano k 1 e t1 < t2 < < tk < tk+1 , allora la 8.3)
`e verificata:
lim Ft1 , ,tk ,tk+1 (x1 , , xk , x)
Z x1
Z xk Z x
x1
xk
xyk
Z xk
Z x1
qt1 (y1 ) dy1
qtk tk1 (yk yk1 ) dyk = Ft1 , ,tk (x1 , , xk ),
=
e la (8.4) anche:
lim Ft1 , ,ti1 ,ti ,ti+1 , ,tk+1 (x1 , , xi1 , x, xi+1 , , xk+1 )
Z xk+1
Z x1
Z xi1 Z x Z xi+1
qti ti1 (yi yi1 )qti+1 ti (yi+1 yi ) qtk+1 tk (yk+1 yk )dy1 dyi1 dyi dyi+1 dyk+1
Z
= lim
x1
xi1
Z
Z xi+1
x
qti ti1 (yi yi1 ) qti+1 ti (yi+1 yi ) dyi dyi+1
Z xk+1
x1
xi1
xk+1
per i = 1, , k.
Nella penultima uguaglianza si `e tenuto conto del fatto che la condizione Fu Fv = Fu+v implica che, posto
y = yi yi1 , in modo che yi+1 yi = (yi+1 yi1 ) y, si abbia
Z x
lim
qti ti1 (yi yi1 ) qti+1 ti (yi+1 yi ) dyi
x
xyi1
= lim
qti ti1 (y)qti+1 ti (yi+1 yi y) dy
x
Z
=
qti ti1 (y)qti+1 ti (yi+1 yi y) dy
MPEF 01-07-2009
167
1
u
;
u2 + x2
(u)k
exp(u),
k!
k N;
4 i processi di Poisson composti , ovvero i processi (Xt )t0 ottenuti per mezzo di un processo di Poisson
(Nt )t0 ed una successione di variabili aleatorie indipendenti ed identicamente distribuite {n }nN , (tutte
indipendenti dal processo di Poisson) tramite la seguente regola
Xt = 0, se Nt = 0;
Xt =
n
X
k , se Nt = n.
k=1
Terminiamo questa sezione ricordando anche la definizione di processi ad incrementi indipendenti rispetto
ad una filtrazione (Ft )t0 .
Definizione 8.7 (Processi ad incrementi indipendenti ed omogenei rispetto ad una filtrazione). Un processo
(Xt )t0 si dice ad incrementi indipendenti ed omogenei rispetto alla filtrazione (Ft )t0 , con
(Ft )t0 FtX = {Xu ; u [0, t]} se
(0) X0 = 0;
(1) per s, t 0 gli incrementi Xt+s Xt sono variabili aleatorie indipendenti da Ft ;
(2) gli incrementi Xt+s Xt sono variabili aleatorie la cui distribuzione dipende solo da s.
Si vede facilmente che questa definizione implica laltra considerando che Xtn Xtn1 `e indipendente da
Ftn1 {Xti Xti1 ; i = 1, , n 1}. Si pu`o anche vedere che la prima definizione implica la seconda con
Ft = FtX = {Xu ; u [0, t]} = {Xu Xv ; u, v [0, t]}.
8.6
In modo molto simile a quanto fatto a tempo discreto per le somme di v.a. indipendenti, si pu`o mostrare17 che
se Xt `e un processo ad incrementi indipendenti e omogenei, rispetto ad una filtrazione (Ft )t0 , con X0 = 0, e
con media nulla allora Xt `e una martingala, purche sia integrabile.
Inoltre `e facile mostrare che se Xt `e un processo ad incrementi indipendenti (e omogenei), integrabile e con
X0 = 0, allora E[Xt ] = t per t nei razionali:
E[X1 ] =
n
X
k=1
Pm
da cui E[X1/n ] = n1 E[X1 ] e analogamente E[Xm/n ] = k=1 E[Xk/n X(k1)/n ] = m
n E[X1 ].
Per ottenere che ci`
o valga anche per ogni t reale, si deve notare che comunque E[Xt+s ] = E[Xt ] + E[Xs ] e
17 La
a`
e verificata per ipotesi. Infine
condizione di misurabilit`
a dipende dal fatto che Ft FtX . La condizione di integrabilit`
E[Xt+s Xt |Ft ] = E[Xt+s Xt ] = E[Xt+s ] E[Xt ] = 0 0 = 0,
dove nella prima uguaglianza si usa lindipendenza di Xt+s Xt da Ft , e nellultima si usa il fatto che la media di Xu `
e nulla. Si
noti che lomogeneit`
a degli incrementi qui non `
e necessaria.
168
MPEF 01-07-2009
E[exp{ Xt }] = exp{K()t},
e che quindi
Zt := exp{ Xt K()t}
(8.9)
n
Y
exp{ Xk/n X(k1)/n },
k=1
da cui, passando al valore atteso, per lindipendenza degli incrementi e per lomogeneit`
a
E[exp{X1 }] =
n
Y
n
E[exp{ Xk/n X(k1)/n }] = E[exp{ X1/n X0 }] .
k=1
E[exp{ Xk/n X(k1)/n }] = E[exp{ X1/n }] = exp{K()(1/n)},
nuovo misurabilit`
a e integrabilit`
a sono banali. Osservando che
Zt+s = exp{ Xt+s K()(t + s)}
= exp{ Xt K()t} exp{(Xt+s Xt ) K()s}
= Zt exp{(Xt+s Xt ) K()s}
si ottiene subito
E[Zt+s Zt |Ft ] = E [Zt (exp{(Xt+s Xt ) K()s} 1) |Ft ]
(per la misurabilit`
a di Zt )
= Zt E [(exp{(Xt+s Xt ) K()s} 1) |Ft ]
(per lindipendenza degli incrementi da Ft )
= Zt E [(exp{(Xt+s Xt ) K()s} 1)]
(per lomogeneit`
a degli incrementi)
= Zt E [(exp{ Xs K()s} 1)] = Zt (1 1) = 0
21
In realt`
a la richiesta che Y0 sia F0 -misurabile non `
e strettamente necessaria, se vale la condizione di indipendenza di tra il
processo (Xt ) e la variabile aleatoria Y0 : nel caso in cui Ft = FtX si potrebbe, in alternativa, cambiare la filtrazione e prendere
la filtrazione definita da Ft {Y0 }. In questo caso infatti il processo Y0 + Xt viene automaticamente adattato alla nuova
filtrazione. Inoltre {Xt } `
e ancora una martingala rispetto alla nuova filtrazione, come si pu`
o vedere facilmente usando la propriet`
a
dei condizionamenti ridondanti: infatti la -algebra H = {Y0 } `
e indipendente da X = Xt+s e da G = Ft .
E[X|G H] = E[X|G]
lo stesso discorso vale nel caso in cui si assuma Y0 indipendente da Ft FtX per ogni t (e quindi anche dal processo {Xt }.
MPEF 01-07-2009
169
integrabilit`a. Ad esempio
et := E[exp{(Yt t) K()t}]
Z
(8.10)
(8.11)
C F,
(8.12)
1
= exp{WT 2 T }
2
170
MPEF 01-07-2009
soluzione:
dQ
dP Ft
= Zt
2) la legge di Wt rispetto a Q,
suggerimento: basta capire che EQ [g(Wt )] si calcola equivalentemente come
1
EQ [g(Wt )] = EP [g(Wt )Zt ] = EP [g(Wt ) exp{Wt 2 t}]
Z 2
Z
1 2
1
1 2
g(w) exp{ (w2 2wt + 2 t2 )}dw
=
g(w) exp{w t} exp{ w }dw =
2
2t
2t
R
ZR
1
2
=
g(w) exp{ (w t) }dw
2t
R
soluzione: la legge di Wt `e N (t, t)
3) le distribuzioni finito dimensionali di (Wt , t 0) rispetto a Q.
suggerimento: si tratta di capire che EQ [g1 (Wt1 )g2 (Wt2 Wt1 ) gn (Wtn Wtn 1 )] si calcola come
EP [g1 (Wt1 )g2 (Wt2 Wt1 ) gn (Wtn Wtn 1 )Ztn ]
n
Y
Ztk
]
= EP [g1 (Wt1 )g2 (Wt2 Wt1 ) gn (Wtn Wtn 1 )
Z
k=1 tk1
= EP [g1 (Wt1 )g2 (Wt2 Wt1 ) gn (Wtn Wtn1 )
n
Y
k=1
= EP [
n
Y
k=1
1
exp{(Wtk Wtk1 ) 2 (tk tk1 )}]
2
1
gk (Wtk Wtk1 ) exp{(Wtk Wtk1 ) 2 (tk tk1 )}]
2
n
Y
1
EP [gk (Wtk Wtk1 ) exp{(Wtk Wtk1 ) 2 (tk tk1 )}]
2
k=1
n Z
Y
(wi wi1 (ti ti1 ))2
g(wi wi1 ) exp{
=
}dwi .
2(ti ti1 )
i=1 R
=
8.7
I processi di Markov regolari sono processi costruiti attraverso una famiglia di probabilit`
a di transizione
regolari P (s, t, x, A), e attraverso una misura di probabilit`a 0 , detta (misura delle) probabilit`
a iniziali .
Definizione 8.8 (Probabilit`
a di transizione regolari). Una famiglia P (s, t, x, A)
P : (R+ R+ )+ R B(R) [0, 1], (s, t, x, A) P (s, t, x, A),
dove
(R+ R+ )+ = {(s, t) R+ R+ , tali che s t},
che soddisfa le seguenti propriet`
a:
MPEF 01-07-2009
171
diviene
Z
Z
p(r, t, x, z) dz =
Z Z
Z
p(r, s, x, y) dy
p(s, t, y, z) dz =
A
ovvero
p(r, s, x, y)p(s, t, y, z) dy
dz,
Z
p(r, t, x, z) =
Attraverso le probabilit`
a di transizioni regolari e la probabilit`a iniziale, si pu`o definire una famiglia di
funzioni di distribuzione finito dimensionale nel seguente modo: si definiscano, per 0 t1 tk , e per
(z0 , z1 , , zk ) Rk+1 ,
Z z0 Z z1
Z zk
F0,t1 , ,tk (z0 , z1 , , zk ) :=
172
MPEF 01-07-2009
Esempio 8.8. Il processo di Wiener ed il processo di Poisson sono processi markoviani regolari in questo senso
con 0 ={0} per entrambi i processi e
1
P (s, t, x, dy) = p
2(t s)
exp{
(y x)2
}dy
2(t s)
((t s))nm
exp{(t s)}, 0 m n
(n m)!
(8.13)
allora in realt`
a si tratta di esempi di processi a incrementi indipendenti ed omogenei (nello spazio) (con
X0 = 0, se 0 `e la misura concentrata in 0). Nel caso generale la famiglia delle distribuzioni finito-dimensionali
cos` ottenuta coincide con la famiglia delle distribuzioni finito-dimensionali di un processo (Xt0 )t0 , con
Xt0 = Y0 + Xt ,
k 1 e 0 < t1 < t2 < , < tk < tk+1 , allora
lim F0,t1 , ,ti1 ,ti ,ti+1 , ,tk+1 (x0 , x1 , , xi1 , x, xi+1 , , xk+1 )
Z x0 Z x1
Z xi1 Z x Z xi+1
Z xk+1
= lim
p(ti1 , ti , yi1 , yi )p(ti , ti+1 , yi , yi+1 ) p(tk , tk+1 , yk , yk+1 )dy1 dyi1 dyi dyi+1 dyk+1
Z x0
Z x1
Z xi1
= lim
0 (dy0 )
p(0, t1 , y0 , y1 ) dy1
p(ti2 , ti1 , yi2 , yi1 ) dyi1
x
xi+1
Z
x0
xi+1
Z
x0
x1
xk+1
dyi+1
xi1
p(0, t1 , y0 , y1 ) dy1
0 (dy0 )
xi1
p(0, t1 , y0 , y1 ) dy1
xk+1
x1
0 (dy0 )
dyi+1
xi+1
xk+1
per i = 1, , k.
x0
= lim
x1
p(tk , tk+1 , yk , y) dy
Z xk
p(0, t1 , y0 , y1 ) dy1
0 (dy0 )
xk
p(0, t1 , y0 , y1 ) dy1
Z x1
p(tk , tk+1 , yk , y) dy
x1
0 (dy0 )
Z x0
xk
x0
p(0, t1 , y0 , y1 ) dy1
0 (dy0 )
MPEF 01-07-2009
173
dove (Xt )t0 `e un processo ad incrementi indipendenti ed omogenei con X0 = 0, ed Y0 `e una variabile aleatoria
con funzione di distribuzione F0 (y) = 0 ((, y]), indipendente dal processo (Xt )t0 .
Per verificare le precedenti affermazioni si osservi che, prendendo h = s ed y = x nella formula (8.13)
si ottiene
P (s, t, x, (, z]) = P (0, t s, 0, (, z x]),
allora basta porre
Fu (z) = P (0, u, 0, (, z]).
Rz
Sempre nel caso con densit`
a, ovvero nel caso in cui Fu (z) = qu (y)dy, lequazione di Chapman-Kolmogorov
diviene
Z
qtr (z x) =
qsr (y x)qts (z y) dy
R
ovvero, ponendo s r = u, t s = v, = z x ed = y x,
Z
qu+v () =
qu ()qv ( ) d, ovvero
qu+v = qu qv ,
Z z0
P(Y0 dx0 )P(Xt1 z1 x0 , , Xtk zk x0 |Y0 = x0 )
=
z0
Z z0
z1 x0
zk x0
(posto yi = yi0 + x0 )
Z
z0
z1
zk
Z z0 Z z1
Z zk
qtk1 ,tk2 (yk1 yk2 ) dyk1 qtk tk1 (yk yk1 ) dyk ,
=: F0,t1 , ,tk (z0 , z1 , , zk ).
8.7.1
Processo di Orstein-Ulhenbeck
P (s, t, x, dy) = q
exp{
2(ts)
2 2 1e
1 (y e(ts) x)2
}dy.
2 2 1e2(ts)
2
Si pu`o dimostrare che P (s, t, x, dy) definisce una famiglia di probabilit`a di transizione regolare (gaussiana).
Inoltre si potrebbe dimostrare che, se Y0 `e una variabile aleatoria con distribuzione 0 , indipendente da un
174
MPEF 01-07-2009
processo di Wiener standard (Wt )t0 , allora la famiglia di distribuzioni finito dimensionali ottenute tramite
P (s, t, x, dy) e la distribuzione iniziale 0 , ha le stesse distribuzioni finito dimensionali del processo
Xt := e
e(ts) Ws ds.
Y0 + Wt
0
Si noti che lintegrale ha senso purche si prenda la versione a traiettorie continue del processo di Wiener
standard26 .
` inoltre interessante notare che, se Y0 = x, cio`e se Y0 `e una variabile aleatoria degenere, allora
E
Rt
Xt := et x + Wt 0 e(ts) Ws ds `e un processo gaussiano27 , di valore atteso m(t) = et x e funzione di
covarianza
Z s
Z t
(su)
(tu)
e
Wu du .
e
Wu du
Ws
K(s, t) = E Wt
0
0
28
Con un po di calcoli
si pu`
o controllare che
K(s, t) =
2 |ts|
(e
e(t+s) ),
2
ed in particolare quindi
2
(1 e2 t )
2
V ar(Xt ) = K(t, t) =
26 Vale la pena ricordare che di solito questo processo viene introdotto dopo aver parlato dellintegrale stocastico rispetto al
processo di Wiener. Riscrivendo
Z t
Z t
Wt
e(ts) Ws ds = et et Wt
es Ws ds ,
0
si pu`
o riscrivere
es dWs ,
Xt := et
Y0 +
es dWs
Questa variabile aleatoria risulta gaussiana (vedere la nota successiva) di valore medio nullo e di varianza
R
ma `
e misurabile e con h2 (s)ds finito, allora Wiener definiva
Z
h2 (s)ds. Se h(t)
/ C1,
h(s)dWs := lim
hn (s)dWs ,
dove il limite `
e inteso in media quadratica, e dove {hn }n `
e una successione di funzioni C 1 con la propriet`
a che
Z
2
hn (s) h(s) ds 0.
R
R
o ottenere come limite delle
fatto che sia gaussiano dipende dal fatto che lintegrale 0t e(ts) Ws ds = et 0t es Ws ds si pu`
somme di Riemann
n
X
et
esk Wsk (sk sk1 ),
27 Il
k=1
che sono variabili aleatorie gaussiane, e tenendo conto del fatto che il limite (in distribuzione) di variabili aleatorie gaussiane `
e
ancora una variabile aleatoria gaussiana, purch
e valore atteso e varianza convergano.
28 Questo conto risulta pi`
u agevole dopo aver introdotto lintegrale stocastico di Ito (vedere la Sezione 9.5.
MPEF 01-07-2009
175
Nel caso in cui > 0, quando t va allinfinito, allora chiaramente E[Xt ] = m(t) = e2t x converge a zero e
2
la varianza V ar(Xt ) = K(t, t) converge a 2 . Di conseguenza la legge unidimensionale del processo (Xt )t0
2
converge in distribuzione ad una legge gaussiana N (0, 2 ).
Questa legge gode di una interessante propriet`
q a: se la legge iniziale 0 `e appunto una legge gaussiana
2
q1
2
2
exp{
x2
2
2
2
} =
q
exp{
x
}dx
exp{
}dy
=
2t
2
2
2t
2 2 1e2
A
R
2 2 1e2
s
!
Z
Z r
2
(y et x)2
exp{ 2 x }
=
exp{ 2
}dx dy
2
2 (1 e2t )
(1 e2t )
A
R
Z r
exp{ 2 y 2 } dy, .
=
2
A
per ogni A boreliano29 .
Questo esempio porta a dare la definizione di distribuzione stazionaria.
Definizione 8.9 (Distribuzione stazionaria). Sia una distribuzione tale che
Z
(dx)P (s, t, x, A) = (A)
R
allora viene detta distribuzione stazionaria o invariante del processo di Markov regolare determinato
dalle probabilit`
a di transizione P (s, t, x, A).
Si pu`o dimostrare che se 0 = `e una distribuzione stazionaria, allora le distribuzioni finito-dimensionali
godono della propriet`
a di stazionariet`
a
Definizione 8.10 (Processi stazionari). Se per ogni h > 0, k, (t1 , , tk ) e (z1 , , zk ) la famiglia di
distribuzioni finito-dimensionali Ft1 , ,tk (z1 , , zk ) gode della propriet`
a che
Ft1 , ,tk (z0 , z1 , , zk ) = Ft1 +h, ,tk +h (z0 , z1 , , zk )
allora F0,t1 , ,tk `e detta una famiglia di distribuzioni finito-dimensionali stazionarie, e il processo con tale
famiglia di distribuzioni finito-dimensionali `e detto un processo stazionario.
29 Lultima
(y et x)2
x2 (1 e2t )
p
exp{ 2
+ 2
}dx
2 R 2 (1 e2t )
(1 e2t )
(1 e2t )
r
Z
p
=
exp{ 2
(y et x)2 + x2 (1 e2t ) }dx
2
R 2 (1 e2t )
(1 e2t )
r
Z
y 2 2yet x + e2t x2 + x2 x2 e2t
p
=
exp{
}dx
2 R 2 (1 e2t )
2 (1 e2t )
r
Z
x2 2xyet + y 2
p
=
exp{
}dx
2
R 2 (1 e2t )
2 (1 e2t )
r
Z
x2 2xyet + y 2 e2t
(y 2 e2t + y 2 )
p
exp{
} exp{
}dx
=
2
2
2t
2
2t
R (1 e
(1 e
)
2 (1 e2t )
)
r
r
2
Z
x yet
p
=
exp{
y
}
exp{
}dx
=
exp{ 2 y 2 }.
2
2
2 (1 e2t )
2
2 (1 e2t )
R
176
MPEF 01-07-2009
8.7.2
Il prossimo esempio `e di fondamentale importanza nellambito dei modelli finanziari. Il modello proposto da
Black e Scholes `e un modello a tempo continuo con una azione rischiosa (una azione di prezzo St allistante t) e
una azione non rischiosa (di prezzo Bt allistante t). Si suppone che levoluzione di Bt sia descritta dallequazione
differenziale seguente
dBt = rBt dt,
dove r `e una costante positiva. Questo significa che il tasso di interesse `e costante e uguale a r. Se B0 = 1,
allora ovviamente Bt = ert , per t 0.
Si suppone che il prezzo dellazione sia descritto30 dal processo
2
t + Wt .
St = S0 exp t
2
dove e sono due costanti e (Wt )t `e un moto browniano standard, ed S0 `e una variabile aleatoria indipendente
da (Wt )t .
Tale processo `e detto moto browniano geometrico.31
Il modello `e studiato sullintervallo [0, T ], dove T `e la data di scadenza dellopzione da studiare. In particolare,
risulta che la legge di St `e una legge log-normale, vale a dire che il suo logaritmo segue una legge normale.
Il processo (St )t `e una trasformazione biunivoca di un processo di Markov, infatti
Yt = log(St ) = log(S0 ) + Wt + (
2
)t
2
2
)t
2
2
un processo di Wiener, non standard, con coefficiente di drift 0 = 2 e coefficiente di diffusione 2 . Tenendo
conto di questo fatto si pu`
o affermare immediatamente che il processo (St )t verifica le seguenti propriet`a:
- continuit`a delle traiettorie;
- se u t, St /Su `e indipendente da FuS = (Sv , v u);
- se u t, la legge di (St Su )/Su `e identica a quella di (Stu S0 )/S0 .
La prima propriet`
a `e banale. Per verificare le altre due propriet`a basta osservare che
St /Su = exp{Yt Yu } = exp{(Wt Wu ) + (
30 Di
2
)(t u)},
2
solito si introduce il processo del prezzo St come la soluzione dellequazione differenziale stocastica
dXt = Xt (dt + dWt ),
X0 = S0 ,
2
Xt = S0 exp t
t + Wt .
2
Di nuovo per capire bene il senso dellequazione differenziale stocastica precedente andrebbe prima chiarito il significato dellintegrale
stocastico di Ito e del differenziale stocastico (vedere la Sezione 9.5.
31 Questo processo si pu`
o ottenere anche come limite del processo dei prezzi per il modello di Cox, Ross e Rubistein. Per un
approccio elementare si veda il testo di S. Ross [15].
MPEF 01-07-2009
177
che Fu = FuS = FuW (S0 ) e che (Wt Wu ) `e indipendente da FuW e da (S0 ) ed ha la stessa legge di
(Wtu W0 ) = Wtu .
Inoltre il processo (St )t risulta esso stesso un processo di Markov regolare: per xi > 0, i = 0, 1, , k
FS0 ,S1 , ,Sk (x0 , x1 , , xk ) = P(S0 x0 , St1 x1 , , Stk xk )
= P(Y0 log(x0 ), Yt1 log(x1 ), , Ytk log(xk ))
Z
log(x0 )
log(x1 )
log(xk )
log(x0 )
log(x1 )
log(xk )
pY0 (y0 )
k
Y
(ti ti1 ))
(y y
i i1
1
2(ti ti1 ) 2
p
e
dy0 dy1 dyk
2(ti ti1 ) 2
i=1
di conseguenza la densit`
a congiunta di (S0 , St1 , , Stk ) si ottiene derivando rispetto a x0 , x1 , , xk la
precedente espressione:
pS0 ,St1 , ,Stk (x0 , x1 , , xk ) =
n
FS ,S , ,Sk (x0 , x1 , , xk )
x0 x1 xk 0 1
1 1
1
x0 x1
xk
0
1
pY0 (log(x0 )) Y
2(ti ti1 ) 2
p
e
.
2
x0
x
2(t
t
)
i
i1
i=1 i
Zt = exp t + Wt
2
che `e la martingala esponenziale (gi`
a definita in (8.11))con E[Zt ] = 1.
r
Se si prende = per il Teorema di Girsanov (vedere lEsercizio 8.1) il processo scontato dei prezzi
St
(St = B
= ert St )t `e una martingala32 rispetto alla misura
t
Q(A) = Q (A) = EP [IA ZT ],
32 Posto
A FT ,
ft = r t + Wt ,
W
il processo
2
St = x exp{( r
)t + Wt }
2
si pu`
o riscrivere anche come
2
ft }
St = x exp{ t + W
2
Rispetto alla misura di probabilit`
a Q il processo Wt risulta un processo di Wiener con coefficiente di drift , cio`
e equivalentemente
Wt = (Wt t) + t = Bt + t,
178
MPEF 01-07-2009
ovvero con dQ = ZT dP. Estendendo la definizione data nel caso a tempo discreto, si ha quindi che la misura Q
`e una misura martingala equivalente a P.
Inoltre si ha che, per ogni t, la legge della variabile aleatoria St = ert Set rispetto a Q `e la stessa33 della
variabile aleatoria x exp{(r 2 /2)t + tZ}, dove Z `e una variabile aleatoria gaussiana standard N (0, 1).
Quindi
C0 (x) = erT EQ (ST K)+
+
2
rT Q
(r 2 )T + T Z
=e
E
xe
K
.
La speranza matematica a destra vale
rT
xe(r
2
2
)T + T z
+
ez
/2
dz.
K
2
log
r
T ,
x
2
e quindi
erT
C0 (x) =
2
xe(r
2
2
)T + T z
2
K ez /2 dz.
e 2 (z
T )2
dz KerT ()
Z +
x
z 2 /2
=
dz KerT ()
e
2 T
= x + T KerT ().
In conclusione si ottiene la formula di Black-Scholes
C0 (x) = x + T KerT ().
con Bt un processo di Wiener standard rispetto a Q = Q . Di conseguenza
ft = r t + Wt = r t + t + Bt .
W
Prendendo quindi
r
r
=
=
,
ft = Bt `
si ottiene che W
e un processo di Wiener standard rispetto a Q = Q .
A questo punto si osserva che, proprio per questo motivo,
2
ft }
St = x exp{ t + W
2
`
e rispetto alla misura Q una martingala esponenziale ovvero
2
e = x exp{ t + W
ft },
St = xZ
(8.14)
t
2
ft al posto di Wt ed infine al posto di .
si tratta di applicare il risultato dellEsercizio 8.1 con Q al posto di P, W
33 Luguaglianza in legge si vede dallespressione del prezzo scontato (8.14), e tenendo conto del fatto che la legge della variabile
ft rispetto a Q `
` importante sottolineare
aleatoria W
e N (0, t) e che anche la legge di tZ ha legge N (0, t), se Z ha legge N (0, 1). E
che ovviamente ci`
o vale solo come variabili aleatorie e non vale come processi.
MPEF 01-07-2009
179
Per ulteriori approfondimenti consultare il libro di P. Baldi [1], quello di D. Lamberton e B. Lapeyre [9], oppure
di J.M. Steele [18] .
Mediante la formula di Black-Scholes, possiamo ricavare il prezzo equo di unopzione call europea. Tuttavia,
grazie alla formula di parit`
a (si veda ad esempio il libro di S. Ross [15]), si ricava immediatamente anche il
prezzo equo di una put europea Pt , dato da
Pt = Ct St + Ker(T t) .
La formula di Black-Scholes ha il pregio di essere semplice e di dipendere da tre parametri: r, e . Lunico
parametro difficile da stimare `e la volatilit`
a 234
Infine va notata lanalogia della formula di Black e Scholes con il corrispondente risultato per il modello di
Cox, Ross e Rubistein (CRR). A tale proposito si veda, sempre nel testo di S. Ross35 [15], come sia possibile
ottenere tale formula in modo elementare come limite del prezzo del modello CRR, mandando il numero di passi
allinfinito, con opportuni riscalamenti nel modello stesso.
8.8
Appendice:
dimostrazione
Kolmogorov
del
Teorema
di
esistenza
di
Un problema noto nel caso unidimensionale `e il seguente: data una distribuzione di probabilit`a su R, esiste
uno spazio di probabilit`
a (,F,P) ed una variabile aleatoria X che ammette come distribuzione ?
Ci sono due possibili risposte classiche a tale quesito: la prima consiste nel prendere lo spazio canonico
= R, F = B(R), X uguale allidentit`
a, cio`e X(x) = x, e infine P = ; la seconda (Teorema di rappresentazione
di Skorohod) consiste nel prendere = (0, 1), F = B(0, 1), P la misura di Lebesgue ristretta a (0,1) ed
X(u) = F 1 (u) := inf{x tali che u F (x)}, dove F (x) := (, x] `e la funzione di distribuzione ed F 1 `e
la funzione inversa generalizzata 36 della funzione di distribuzione F .
Anche nel caso dei processi c`e qualcosa di simile. Il problema si esprime nel seguente modo: data una
famiglia di distribuzioni finito-dimensionali t1 , ,tk , al variare di k 1 e di t1 , , tk in I, esiste uno spazio di
probabilit`a (, F, P) ed un processo aleatorio (Xt , t 0) che ammette tali distribuzioni finito-dimensionali?
Lo spazio canonico, analogo ad R, `e RI = {x() : I R}, ed il processo canonico `e il processo coordinata per
il quale Xt (x()) := x(t). La scelta della -algebra viene fatta in modo che il processo canonico sia misurabile.
Quindi necessariamente deve contenere gli insiemi del tipo
{x() RI | x(t) A}, per A B(R),
e delle intersezioni finite di insiemi di questo tipo, i rettangoli di base finita
{x() RI | x(t1 ) A1 , , x(tk ) Ak , }, per Ah B(R) e h = 1, , k.
Necessariamente, quindi, deve contenere anche i cilindri (o insiemi finito-dimensionali), ovvero degli insiemi del
tipo
C = {x() RI | (x(t1 ), x(t2 ), , x(tk )) H}, dove H B(Rk )
(8.15)
Si sceglie quindi la -algebra RI generata dallalgebra RI0 dei cilindri, al variare di k 1, degli indici t1 , , tk
in I e di H in B(Rk )37 .
Infine come misura di probabilit`
a P, chiaramente, si vuole prendere una misura di probabilit`a su RI per la
quale valga
34 La volatilit`
a`
e un parametro che gioca un ruolo importante nelle applicazioni. Per questo motivo, negli ultimi anni, `
e stato
molto studiato, in statistica, il problema di stimare il coefficiente di diffusione, a partire dallosservazione di una traiettoria.
35 Il
Ross del modello CRR e lautore di [15] sono due persone diverse.
non si `
e familiari con il teorema di Skorohod basta considerare solo il caso in cui la funzione di distribuzione F () sia
strettamente crescente e continua e quindi invertibile.
37 Per la dimostrazione del fatto che RI sia unalgebra vedere la dimostrazione del seguente teorema.
0
36 Se
180
MPEF 01-07-2009
La risposta `e affermativa sotto alcune semplici condizioni di consistenza ed `e il contenuto del Teorema di
esistenza di Kolmogorov. Come si intuisce dal discorso precedente lingrediente essenziale della dimostrazione di
tale teorema `e il procedimento di estensione di una misura definita su unalgebra alla -algebra da essa generata
(Teorema di Caratheodory).
Le condizioni di consistenza sono le seguenti:
Sia k > 1 e sia una permutazione di {1, , k} e sia
: Rk Rk , (x1 , , xk ) (x1 , , xk ) := (x1 , , xk ).
Chiaramente, essendo biunivoca, (x1 , , xk ) H se e solo se (x1 , , xk ) (H), per H B(Rk ), e
quindi
t1 , ,tk (H) = t1 , ,tk ( (H)),
(8.16)
infatti
t1 , ,tk (H) = P{(Xt1 , , Xtk ) H} = P{ (Xt1 , , Xtk ) (H)} =
= P{(Xt1 , , Xtk ) (H)} = t1 , ,tk ( (H)),
inoltre
t1 , ,tk ,tk+1 (H R) = t1 , ,tk (H).
(8.17)
` immediato constatare che le condizioni di consistenza (8.16) e (8.17) si possono riscrivere nel seguente modo:
E
Siano k h 1, sia una permutazione di {1, , k} e sia ,h : Rk Rh , (x1 , , xk )
,h (x1 , , xk ) := (x1 , , xh ), allora, per ogni (t1 , , tk ) I k e H B(Rh )
t1 , ,tk (1
,h (H)) = t1 , ,th (H),
(8.18)
infatti, nel caso in cui H sia un rettangolo cio`e H = A1 Ah , posto 1 la permutazione inversa di ,
pensata quindi come funzione biunivoca di {1, , k} in se, e posto Am = R per m = h + 1, , k, la relazione
(8.18) diviene
P((Xt1 , , Xth ) H) = P(Xt1 A1 , , Xth Ah ) =
= P(Xt1 A1 , , Xth Ah , Xth+1 Ah+1 , , Xtk Ak ) =
= P(Xt1 A1 (1 ) , , Xth A1 (h ) , Xth+1 A1 (h+1 ) , , Xtk A1 (k ) ) =
(riordinando opportunamente le condizioni richieste)
= P(Xt1 A1 (1) , , Xth A1 (h) , Xth+1 A1 (h+1) , , Xtk A1 (k) ) =
= P((Xt1 , , Xtk ) 1
,h (H)),
e se vale per i rettangoli, poi vale per ogni cilindro.
Prima di enunciare e dimostrare il teorema di Kolmogorov, menzioniamo il fatto che esiste unaltra possibilit`a,
pi`
u simile a quanto fatto nel teorema di rappresentazione di Skorohod, nel caso in cui I `e numerabile, cio`e
I = N, ed illustreremo questo caso in seguito. In tale caso lo spazio canonico `e di nuovo (0,1) con la algebra
dei boreliani B(0, 1) e la misura di Lebesgue ristretta a (0, 1), e quindi, a partire dalle distribuzioni finitodimensionali non deve essere definita la misura di probabilit`a, bens` il processo stesso. Ingrediente essenziale
per la dimostrazione `e il teorema di esistenza delle versioni regolari delle distribuzioni condizionali di una
MPEF 01-07-2009
181
(8.19)
182
MPEF 01-07-2009
Inoltre, due cilindri C e C 0 , con indici di tempo {t1 , , tk } e {t01 , , t0k0 } rispettivamente, si possono sempre
rappresentare come cilindri con indici comuni {s1 , sm } = {t1 , , tk } {t01 , , t0k0 }.
Pi`
u precisamente se
C = {x() RI | (x(t1 ), x(t2 ), , x(tk )) H} R{t1 , ,tk }
e
(8.20)
(8.21)
e
C0
MPEF 01-07-2009
183
punto 3)
Per provare la -additivit`
a `e sufficiente mostrare la continuit`a, e per questo, a sua volta, `e sufficiente
mostrare che se An RI0 ed An allora P(An ) 0. La prova procede
per assurdo. Esista, per assurdo,
T
un > 0 tale che P(An ) per ogni n. Se mostriamo che allora n An non pu`o essere linsieme vuoto la
dimostrazione `e completa.
Poiche per rappresentare un cilindro si pu`o sempre aumentare il numero degli indici, cio`e degli istanti
di tempo coinvolti nella sua definizione, possiamo supporre che esista una successione {tn , n 1} e una
successione di boreliani Hn B(Rn ) per cui
An = {x RI , (x(t1 ), , x(tn )) Hn }
(eventualmente ripetendo qualche An 39 )
Ovviamente P(An ) = t1 , ,tn (Hn ), ed essendo t1 , ,tn una misura internamente regolare
possibile trovare un compatto Kn Hn per cui
t1 , ,tn (Hn \Kn )
40
`e
,
2n+1
Tn
m=1
2n+1
Bm , di modo che
n
\
m=1
allora
Cn Bn An e P(An \Cn ) <
Infatti
P(An \Cn ) = P(An
n
\
Bm
m=1
n
X
m=1
Di conseguenza P(Cn )
vale per n Kn .
2
c
P(Am Bm
)=
n
X
m=1
c
) = P(
.
2
n
[
c
An Bm
)
m=1
P(Am \Bm )
n
X
m=1
2m+1
<
.
2
> 0 (essendo P(An ) e P(An \Cn ) < 2 ). Quindi Cn non `e vuoto e lo stesso
Si scelga per ogni n un punto appartenente al cilindro Cn , ovvero una funzione, x(n) () Cn . Sen k allora
x(n) () Cn Ck Bk e quindi il punto (x(n) (t1 ), , x(n) (tk )) Kk Jk Jk Jk (k volte, con Jk
39 In
184
MPEF 01-07-2009
un intervallo limitato). Di conseguenza, ciascuna successione del tipo {x(1) (tk ), x(2) (tk ), , x(n) (tk ), }
`e contenuta in Jk , e quindi `e limitata.
In realt`a la successione {x(1) (tk ), x(2) (tk ), , x(n) (tk ), } `e contenuta in Jk solo definitivamente, anzi
x(n) (tk ) Jk per n k, comunque `e una successione che ammette almeno una sottosuccessione
convergente. Anche questo `e un punto da tenere presente nel caso in cui si voglia fare una generalizzazione
a processi a valori in spazi pi`
u generali di R o Rd .
Con il metodo diagonale si pu`
o scegliere una successione nh crescente in modo che, qualunque sia k 1,
la successione {x(nh ) (tk )}h1 sia convergente ad un punto yk . Si noti che per ogni k 1 il punto
(y1 , , yk ) Kk , in quanto definitivamente (x(n) (t1 ), , x(n) (tk )) Kk .
xn,1 ,
x1,2 ,
x2,2 ,
xn,2 ,
per cui, qualunque sia n, la successione {xn,h }h1 `e limitata (o relativamente compatta). Allora
esiste una successione {hm }m1 di interi per cui, qualunque sia n, la successione {xn,hm }m1 `e
convergente.
Si considera la sottosuccessione convergente {x1,h1,m }m1 ad y1 . Poi si considera la successione
{x2,h1,m }m1 , che essendo limitata ammette una sottosuccessione convergente {x2,h2,m }m1
ad y2 . Si noti che quindi anche {x1,h2,m }m1 `e ancora una successione convergente ad y1 e che
anche ogni sua sottosuccessione `e convergente ad y1 . Si continua in questo modo fino ad ottenere
che {xn,hn,m }m1 `e una successione convergente ad yn e {hn,m }m1 `e una sottosuccessione di
{hn1,m }m1 , ed anche ogni sottosuccessione di {xn,hn,m }m1 converge ad yn . A questo punto
abbiamo una nuova configurazione
x1,h1,1 ,
x2,h2,1 ,
xn,hn,1 ,
x1,h1,2 ,
x2,h2,2 ,
xn,hn,n ,
y1
y2
yn
Si noti che largomento della dimostrazione `e lo stesso della dimostrazione del teorema di Tikhonov: il
prodotto infinito di compatti `e un compatto. Una dimostrazione simile appare anche nella dimostrazione che
lintersezione di una successione di compatti non vuoti `e non vuota.
MPEF 01-07-2009
8.8.1
185
Passiamo ora ad illustrare il preannunciato metodo costruttivo di dimostrazione del teorema di Kolmogorov,
ma prima di tutto, proviamo ad ottenere una variabile aleatoria bidimensionale con funzione di distribuzione
F (x, y) data. Notiamo che si pu`
o riscrivere
Z x
FY |X (y | z)dFX (z),
F (x, y) =
` facile generalizzare al caso in dimensione n e costruire una variabile aleatoria n-dimensionale (X1 , , Xn )
E
con funzione di distribuzione data, a partire da n variabili aleatorie uniformi in (0, 1) ed indipendenti.
A questo punto `e chiaro come estendere il procedimento al caso di una successione di v.a. {Xn }n1 con
distribuzioni finito-dimensionali 1, ,n assegnate (e relativa funzione di ripartizione F (x1 , x2 , , xn )) in modo
che
1, ,n+1 (H R) = 1, ,n (H),
pur di avere a disposizione una successione di v.a. uniformi in (0, 1) ed indipendenti.
***Infine, va notato che sostanzialmente le condizioni di compatibilit`a servono solo a garantire che le
distribuzioni finito-dimensionali della successione aleatoria cos` ottenuta, e relative a tempi non consecutivi
siano quelle volute.
Laffermazione che una successione di variabili aleatorie {Xn , n N} `e una successione di v.a. indipendenti
con Xn = n , `e unaffermazione che riguarda le distribuzioni finito dimensionali del processo {Xn , n N}.
Lesistenza di una tale successione si potrebbe quindi dedurre dal teorema di rappresentazione di Kolmogorov,
o magari da un risultato ad hoc la cui prova fosse la semplificazione del procedimento usato nel dimostrare
tale teorema. Tuttavia lesistenza di una tale successione tuttavia si pu`o dedurre direttamente, pur di dare per
scontato che esiste la misura di Lebesgue su (0, 1). Infatti su (0, 1) si possono definire delle variabili aleatorie
indipendenti ed identicamente distribuite, a valori nellinsieme {0, 1}, e che assumono il valore 0 con probabilit`a
1/2 (lo stesso vale per il valore 1). A partire da questa successione di variabili aleatorie si pu`o costruire una
successione di variabili aleatorie {U
j , j N} indipendenti ed uniformi in (0, 1), come descritto qui di seguito.
Infine, posto Fn (x) = n (, x] , la successione cercata `e data dalla successione delle v.a. Fn1 (Un ).
186
MPEF 01-07-2009
Lemma 8.6 (Successioni di v.a. indipendenti uniformi in (0, 1): esistenza). Nello spazio = (0, 1) con la
misura di Lebesgue sui boreliani, `e possibile avere una successione di v.a. uniformi in (0, 1) ed indipendenti.
***
P
Per costruire tale successione si ricordi che scrivendo (0, 1) in forma diadica = 1 Wi () 21i , le v.a.
Wi risultano indipendenti e P(Wi = 0) = P(Wi = 1) = 12 . La successione Un di v.a. uniformi ed indipendenti
si pu`o costruire, a partire dalle v.a. {Wi }, riordinandole in modo che formino una sequenza a doppio indice
fi,n } cos` da poter definire
{W
X
fi,n () 1 .
Un () =
W
2i
i=0
fi,n = W2i1 (2n+1) , che corrisponde a riordinare la successione {Wi }
***Ad esempio si pu`
o prendere ***W
in questo modo:
W1 W3 W5 W7 W9
W2 W6 W10 W14
W4 W12 W20 W28
W8 W24 W40
..
..
..
.
.
.
ottenendo da {Wi } infinite sottosuccessioni (corrispondenti alle colonne di questa matrice) in modo tale che
nessuna Wi venga tralasciata ne ripetuta.
***
***Ribadiamo che questa costruzione `e riportata affinche ***sia chiaro che laffermazione che esiste una
successione di v.a. indipendenti ed uniformi in (0, 1), non dipende dal Teorema di Kolmogorov dimostrato
precedentemente.
8.8.2
Osservazione su RI
(8.22)
MPEF 01-07-2009
187
S
Lunico punto in cui `e necessaria un po di attenzione `e il caso di unioni numerabiliS
di eventi En S F
SS . Sia
Sn tale che En FSn . Poiche FSn Fm Sm ed Fm Sm `e una algebra, ovviamente n En Fm Sm S FS .
S
In particolare RI = S RS , dove lunione `e fatta su tutti i sottoinsiemi S numerabili di I.
8.8.3
S
Come visto nella precedente sezione RI = S RS , dove lunione `e fatta su tutti i sottoinsiemi S numerabili di I.
Consideriamo il caso in cui I `e un insieme continuo e per fissare le idee I = [0, T ] oppure [0, ). Allora non ha
senso considerare la probabilit`
a che le traiettorie abbiano particolari propriet`a tipo siano crescenti, o continue,
in quanto tali insiemi non sono misurabili nello spazio canonico non essendo esprimibili come in (8.22): non `e
possibile trovare una successione di tempi (ovvero un sottoinsieme numerabile di tempi) e condizioni relative
solo a tali istanti per determinare se una funzione `e continua oppure no. In altre parole: comunque sia data una
successione di tempi esistono funzioni crescenti (o continue) su tale successione di tempi, ma non su tutto I.
Tipicamente, al massimo si pu`
o sperare di ottenere un processo (Xt0 , t I), che abbia le propriet`a richieste,
e che sia stocasticamente equivalente a (Xt , t I), ovvero una versione del processo (Xt , t I)41 ed ha
quindi le stesse distribuzioni finito-dimensionali di (Xt , t I)
Per propriet`a tipo la continuit`
a si pu`
o al massimo sperare di procedere nel seguente modo: si dimostra
che, se ristretto ad un opportuno insieme numerabile di tempi S, il processo Xt risulta a traiettorie continue,
tranne a parte un eventuale insieme di probabilit`a nulla. Si definisce poi un nuovo processo Xt0 definito come
limite delle traiettorie ristrette ad S. Si spera poi di dimostrare che il processo cos` ottenuto abbia le stesse
distribuzioni finito-dimensionali del processo Xt .
Problemi di questo tipo sono connessi al problema della separabilit`a.Gli interessati possono consultare il
libro di Billingsley, Probability and measures [3].
A titolo di esempio vediamo come si pu`
o procedere con il processo di Poisson, con I = [0, 1]. Il Teorema di
Kolmogorov assicura che esiste una misura di probabilit`a P su (RI ,RI ), in modo che il processo Xt (x()) = x(t)
abbia le distribuzioni finito-dimensionali uguali a quelle del processo di Poisson. Ovviamente non possiamo
dire nulla sulle traiettorie, ad esempio non possiamo affermare che siano non decrescenti, costanti a tratti e con
salti unitari. Proviamo a mostrare come procedere per ottenere una versione Xt0 con traiettorie non decrescenti.
Consideriamo linsieme D dei diadici. La condizione che Xt |D sia a traiettorie non decrescenti e a valori in N
diviene Xt |D I, dove
I=
0i<2n
i
i+1
i
) N e x( n ) x( n )}.
2n
2
2
Inoltre
P(
0i<2n
i
i
i+1
) N e x( n ) x( n )}) = 1
2n
2
2
per ogni n,
e quindi vale anche che (Xt , t D) `e a traiettorie non decrescenti con probabilit`a 1.
Si noti inoltre che
lim x(s)
st,sD
ricordi che , dato un processo (Xt , t I). Un processo (Xt0 , t I) si dice stocasticamente equivalente a (Xt , t I) se
P(Xt0 6= Xt ) = 0 per ogni t 0.
188
MPEF 01-07-2009
Si definisca ora
se x() I e t D
Xt (x()) := Xt (x())
0
Xt (x()) := lim Xs (x()) = lim x(s), se x() I e t
/D
st,sD
st,sD
X 0 (x()) := 0
se x()
/ I e per ogni t (0, 1)
t
Inoltre ovviamente {Xt0 = Xt } `e tutto RI , per t D, ed `e, se t
/ D,
\ [
\
{x() tali che | x(s) x(t) |< }
Q+ Q+
Infine
tst+
sD
tst+
sD
42
P(
tst+
sD
P(Xt0
Di conseguenza
6= Xt ) = 0 per ogni t 0, ovvero il processo Xt0 `e una versione del processo Xt , ed ha
quindi le stesse distribuzioni finito-dimensionali di Xt e gode della propriet`a di monotonia, continuit`a a destra
delle traiettorie e di essere a valori in N.
8.9
Per comodit`a del lettore riportiamo in appendice sia la definizione di funzione holderiana che lenunciato del
criterio (Proposizione 8.3).
Una funzione f (x) `e h
olderiana di esponente se per ogni x esistono un (x) > 0 e un L (x) tali che, per
ogni y per il quale |y x| (x), si abbia
|f (x) f (y)| L (x)|x y| .
Nel caso in cui (x) e L (x) possano essere presi in modo indipendente da x, per x I, si dice che f `e
uniformemente h
olderiana nellinsieme I.
Proposizione 8.3 (Criterio di Chensov-Kolmogorov) Sia Xt un processo per cui esistono , e C
strettamente positivi, per cui
E[|Xt Xs | ] C|t s|1+ .
et di Xt , a traiettorie continue. Inoltre le traiettorie sono uniformemente h
Allora esiste una versione X
olderiane
,
in
ogni
intervallo
limitato.
di esponente , per ogni <
42 Si
osservi che
P(
sD
P(
\
tst+
sDn
tst+
e che
tst+
sDn
{x() tali che | x(s)x(t) |= 0}) P(x(t) = x(i/2n ) = x(t+), per ogni i tale che t i/2n t+) = exp{}.
MPEF 01-07-2009
189
Xk/2n X(k+1)/2n > 2n }
max
n
k2 1
Se mostriamo che
P(n ) < +,
n=1
m+i
X
h=m+1
1
,
2h
m+s
X
h=m+1
1
,
2h
si ha che r = ri e che
i
m+i
i
X
X
X
Xj/2m Xr
Xrs Xrs1
2h 2m
2l 2m
s=1
Se invece |r u| 1/2
(i)
h=m+1
l=1
1
.
1
(ii)
2
2m
2 1
2
+
1
2m
2 1
190
MPEF 01-07-2009
2
2 1
Avremo quindi,
che le traiettorie sono uniformemente holderiane su D con = () =
come preannunciato,
2
m()
1/2
ed L = 2 1 + 1 2 , per quasi ogni . 1
et () come il limite di Xr () per una successione rn di diadici convergente
Si definisce, sempre per N c , X
n
et 0. E
` facile vedere che la propriet`a di holderianit`a si conserva.
a t, e per N si pu`
o definire, ad esempio, X
Il fatto che si tratta di una versione di Xt , deriva dal fatto che per lipotesi fatta Xt `e continuo in L e quindi
`e continuo in probabilit`
a e quindi contemporaneamente si ha
q.c.
Pr
et ,
X rn X t e X r n X
et ) = 1.
da cui subito P(Xt = X
A questo punto rimane solo da controllare che
X
n=1
P(n )
n=1
1
2X
X
1
2X
X
E[Xk/2n X(k+1)/2n ]/2n
P(Xk/2n X(k+1)/2n > 2n )
n=1 k=0
n=1 k=0
1
2X
X
n=1 k=0
(1/2n )1+ 2n ) =
X
n=1
2n (1/2n )1+ 2n ) =
2n() < +
n=1
Capitolo 9
Propriet`
a del moto browniano
Abbiamo visto che il moto browniano `e un particolare processo gaussiano a incrementi indipendenti e omogenei
con media nulla e varianza t. Abbiamo anche visto che per la propriet`a delle v.a. gaussiane per cui non
correlazione ed indipendenza sono equivalenti, un modo alternativo di definire `e attraverso la funzione di
correlazione Cov(Wt , Ws ) = t s. Inoltre sappiamo che Wt `e una martingala rispetto alla filtrazione naturale
FtW .
9.1
Nei seguenti casi, dato un moto browniano Wt , si costruisce un altro processo che risulta ancora un moto
browniano:
ft := Ws+t Ws `e un moto browniano ed `e una martingala rispetto alla filtrazione
1) Per ogni s 0, W
W
Gt := Fs+t
.
(c)
2) Per ogni c R, Wt := cWc2 t `e un moto browniano ed `e una martingala rispetto alla filtrazione
(c)
Gt := FcW2 t (in particolare per c = 1 si ha che Wt `e ancora un moto browniano rispetto a FtW ).
ct := tW1/t , per t > 0, e Z0 := 0, `e ancora un moto browniano, rispetto alla sua
3) Il processo definito da W
filtrazione naturale.
Si supponga ora di prendere una versione continua di Wt .
( )
ft
4) Per ogni tempo darresto limitato il processo W
alla filtrazione FW+t .
Le propriet`a 1), 2) e 3) sono di immediata verifica. La propriet`a 4), invece, non `e immediata, e corrisponde
a quella propriet`a che, nei processi di Markov, viene detta Propriet`a di Markov Forte.
9.2
Propriet`
a di Markov forte per il processo di Wiener
192
MPEF 01-07-2009
per ogni s, t 0.
Si noti che `e necessario che sia finito affinche abbia senso X ed `e necessario che X sia una variabile
aleatoria, e che sia F -misurabile.
Questa propriet`
a di misurabilit`
a `e sempre verificata per processi Xt cadlag, in realt`a potrebbe bastare un
poco meno e precisamente la progressiva misurabilit`a)
Dimostrazione. (della Proposizione 9.1, ovvero della propriet`a di Markov forte per il processo di Wiener
standard)
La tesi equivale a richiedere che per ogni k 1, 0 t1 tk , A1 , , Ak boreliani di R, e per ogni
C F
P(Yt1 A1 , , Ytk Ak , C) = P(Wt1 A1 , , Wtk Ak )P(C)
I CASO: assume al pi`
u uninfinit`
a di valori {sh }h1 .
P(Yt1 A1 , , Ytk Ak , C) =
P(Yt1 A1 , , Ytk Ak , C, = sh )
h=1
h=1
h=1
(W ha incrementi omogenei)
h=1
1 Si
MPEF 01-07-2009
193
II CASO: generico.
Per individuare la distribuzione congiunta in realt`a basta verificare che per ogni k 1, per ogni funzione
continua e limitata (y1 , , yk ) e per ogni C F
E[(Yt1 , , Ytk )IC ] = E[(Wt1 , , Wtk )]P(C)
in quanto le funzioni continue determinano univocamente la legge di una variabile aleatoria. Per il Caso
I, presa {m } una successione2 di tempi darresto, tale che m e m
E[(Wt1 +m Wm , , Wtk +m Wm )IC ] = E[(Wt1 , , Wtk )]P(C)
Essendo le traiettorie di Wt continue (ma basterebbe che fossero continue a destra), possiamo affermare
che (Wth+m Wm ) (Wth+ W ) = Yth e quindi
(Wt1 +m Wm , , Wtk +m Wm ) (Yt1 , , Ytk ).
Essendo limitata si pu`
o passare al limite sotto il segno di media.
` evidente che questa dimostrazione (e quindi la propriet`
Osservazione 9.1. E
a di Markov forte) rimane valida
se al posto del moto browniano si mette un qualsiasi processo ad incrementi indipendenti ed omogenei, con
traiettorie cadlag.
9.3
Principio di riflessione
(9.1)
Z
a
x2
exp{ }dx =
2t
a/ t
exp{y 2 /2}dy.
1 |a|
exp{a2 /2t}.
2 t3/2
la propriet`
a 2) dei tempi di arresto (Sezione 4.4), per ogni tempo darresto esiste sempre una successione con tali propriet`
a.
194
MPEF 01-07-2009
1 |a|
exp{a2 /2t} dt
2 t1/2
1 |a|
exp{a2 /2t} dt
2 t1/2
1 |a|
exp{a2 /2} dt =
2 t1/2
et P(Wt a)dt
Z
= E[
Z
= E[
Z
et I[a,+) (Wt )dt] = E[
= E[ea
Z
a
= E[e
]E[
0
1
E[ea ].
2
Z
]
0
es P(Ys 0)ds]
MPEF 01-07-2009
195
In modo analogo
Z
Z
et P(a t)dt = E[
Z
et I{a t} dt] = E[
et dt] =
1
E[ea ].
In alcuni testi viene dato come principio di riflessione la seguente propriet`a (la cui dimostrazione `e simile
alla dimostrazione della propriet`
a di Markov forte):
Principio di riflessione: seconda formulazione
Per ogni tempo darresto finito, il processo riflesso
(
Yt = Wt
Yt Y = (Wt W )
per t ,
per t > ,
9.4
Anche nel caso del moto Browniano si possono ottenere delle applicazioni simili a quelle della rovina del giocatore.
Pi`
u in generale si pu`
o considerare il processo di Wiener con coefficiente di drift e coefficiente di diffusione
2 , cio`e
Xt := Wt + t,
e il tempo di prima uscita da una striscia
(a, b) := inf{t > 0 : Xt
/ (a, b)}, a, b > 0,
e cercare di calcolare la probabilit`
a p p(x, a, b) := Px (X = a), e la trasformata di Laplace Ex [exp{ }],
per x (a, b).
Sappiamo che, essendo Wt = (Xt t)/, il processo
Zt := exp{(Xt t)/ 2 t/2}
`e una martingala con
2
+
0
e quindi anche
Ex [exp
X exp (2 + ) ] = exp
x .
196
MPEF 01-07-2009
e quindi
p=
exp{2 2 x} exp{2 2 b}
.
exp{2 2 a{ exp{2 2 b}
+
+2.
, :=
Ex [exp{
2 (2
+
+
Ex [exp{ X } exp{ }] = exp{ a}Ex [I{X =a} exp{ }] + exp{ b}Ex [I{X =b} exp{ }]
yb
+
+
exp{
ya
yb
a}ya
+ exp{
b}yb
exp{
x}
exp{
x}
exp{
x} exp{
b}exp{
b} exp{
x}
+
exp{
a} exp{
b}exp{
b} exp{
a}
exp{
a} exp{
x}exp{
x} exp{
a}
,
+
exp{ a} exp{ b}exp{ b} exp{ a}
avendo posto
:= = 2
r
2
+2 2 .
2
exp{+ x} exp{ b}
exp{+ x} exp{ a}
Esercizio 9.1. Nel caso x = 0, > 0 mandare a ad infinito in modo da ottenere la trasformata di Laplace di
:= (, b)
soluzione:
Si noti che, essendo , > 0, si ha + > 0 e < 0. Di conseguenza exp{ a} , mentre exp{+ a} 0,
e dalla precedente espressione per E0 [exp{ (a, b)}] si ricava, per a
"
! #
r
2
+2 2 b .
E0 [exp{ (a, b)}] E0 [exp{ (, b)}] =
= exp
2
2
exp{+ b}
Esercizio 9.2. Si consideri il caso del moto browniano o Wiener standard, cio`e con =0 e =1, e con x = 0
ed a = b.
MPEF 01-07-2009
soluzione:
= 2
exp{2 2a} exp{2 2a}
sinh( 2a)
sinh( 2a)
= 2
=2
sinh(2 2a)
2 sinh( 2a) cosh( 2a)
1
=
cosh( 2a)
E0 [exp{ (a, a)}] =
197
198
9.5
MPEF 01-07-2009
Sia W = (Wt )t un moto browniano continuo standard. Lobiettivo `e di dare un significato ad espressioni del
tipo
Z T
Xs ()dWs ()
(9.2)
0
dove lintegrando (Xs )0sT `e un processo che gode di propriet`a da precisare. Ricordiamo che se una funzione
g `e a variazione finita, allora `e possibile definire lintegrale
Z
h(t)dg(t)
0
9.5.1
Processi elementari
n1
X
(9.3)
i=0
dove = t0 < t1 < ... < tn = , e le Ci sono variabili aleatorie reali Fti -misurabili vengono detti processi
elementari predicibili.
Nel seguito la famiglia dei processi elementari predicibili viene denotata con E([, ]).
Definizione 9.4. I processi del tipo
Xt () =
n1
X
(9.4)
i=0
dove = t0 < t1 < ... < tn = , e le Ci sono variabili aleatorie reali Fti -misurabili vengono chiamati processi
elementari opzionali.
3 Se g `
e a variazione finita continua a destra, allora si pu`
o scrivere g = g + g con g + ed g funzioni crescenti in senso lato,
non negative continue a destra e limitate. Allora lintegrale di Lebesgue-Stieltjes `
e definito da
Z T
Z T
h(t)dg(t) :=
h(t)g (dt),
0
dove
g = g + g ,
e g sono le misure su [0, T ] univocamente definite da
g ((a, b]) = g (b) g (a).
Nel caso in cui g sia continua, e anche h lo sia allora, lintegrale di Lebesgue-Stieltjes coincide con lintegrale di Riemann-Stieltjes,
ovvero con
X
lim
h(tk )[g(tk ) g(tk1 )],
n
dove {tk }k `
e una partizione di [0, T ] e
tk
[tk1 , tk ].
MPEF 01-07-2009
199
Nel seguito la famiglia dei processi elementari opzionali viene denotata con Eop ([, ]).
Si noti che i processi considerati negli Esempi 4.11 e 4.12, per = 0 e = T , nel definire lintegrale
stocastico, sono esempi di processi elementari predicibili. Ricordiamo che lintegrale stocastico rispetto al
processo di Wiener per tali processi viene definito come
!
n
n1
X
X
W
It (X) ==
Ci1 () Wti Wti1 =
.
Ci () Wti+1 Wti
i=1
i=0
Inoltre i processi elementari predicibili (e anche quelli opzionali) sono esempi di processi (congiuntamente)
misurabili:
Definizione
9.5 (Processi (congiuntamente) misurabili). Sia X : [, ] :7 R, (t, ) 7 X(t, ) =
Xt () . Sia B([, ]) F la -algebra prodotto su [, ] , ovvero la -algebra generata da {J A
[, ] ; J B([, ]), A F}. Il processo (Xt )t si dice (congiuntamente) misurabile se la funzione X
`e B([, ]) F-misurabile.
Negli Esempi 4.11 e 4.12 veniva anche richiesto che le variabili aleatorie coinvolte nella definizione del processo
predicibile elementare fossero di quadrato sommabile (o addirittura limitati). Con questa richiesta (ovvero se
Ci sono anche di quadrato integrabile) il processo elementare predicibile (o opzionale) X `e un elemento del
seguente spazio di processi, che `e anche uno spazio vettoriale, metrico e completo.4
Definizione 9.6. Lo spazio L2 [, ] = L2 [, ] , B([, ]) F, P `e lo spazio delle classi di
equivalenza dei processi (congiuntamente) misurabili per i quali
"Z
#
|Xs |2 ds < .
(9.5)
|Xs Xs0 |2 ds = 0.
d(X, X ) :=
"Z
#! 21
|Xs
Xs0 |2 ds
d(X, X 0 ) :=
Z
E
In realt`
a si tratta di uno spazio di Hilbert.
|Xs Xs0 |2 ds
12
200
MPEF 01-07-2009
(9.5), allora X appartiene a E 2 ([, ]): infatti se {tni }i=0, ,mn `e una partizione di [, ] con maxi |tni tni1 | 0,
allora la successione di processi {X n } definiti da
Xtn ()
mn
X
i=1
`e una successione di processi in L2 [, ] che converge ad X nella metrica d, ovvero che
"Z
#
|Xt Xtn |2 dt = 0.
lim E
Di
|Xtm Xtn |2 dt = 0.
lim E
n,m
Sappiamo inoltre che, per ogni per = 0 e = T , e t [0, T ], il processo I W (X n ) = (ItW (X n ))t[0,T ]
definisce una martingala. Ovviamente anche la differenza ItW (X n ) ItW (X m ) `e una martingala. Inoltre,
chiaramente, per lintegrale stocastico dei processi elementari valgono le propriet`a di linearit`a,e quindi
ItW (X n ) ItW (X m ) = ItW (X n X m ).
DallEsempio 4.12 sappiamo che, per ogni t [0, T ],
h
2 i
E ItW (X n X m ) = E
Z
|Xtm Xtn |2 dt .
(9.6)
Inoltre applicando la disuguaglianza di Doob per p = 2, estesa alle martingale continue, alla martingala continua
I W (X n X m ), sappiamo che
h
2 i
W n
m 2
E max It (X X )
4E ITW (X n X m ) .
(9.7)
t[0,T ]
Passando ai valori attesi, nella precedente disuguaglianza, e tenendo conto della (9.7), si ha
h
h
2 i
2
2 i
E ITW (X n X m ) E max ItW (X n X m ) 4E ITW (X n X m ) .
t[0,T ]
|Xtm
Xtn |2 dt
(9.8)
In altre parole, se i processi elementari X n sono una successione di Cauchy in L2 [0, T ] , allora la successione
di martingale a traiettorie continue I W (X n ) = (ItW (X n ))t[0,T ] , risulta una successione di Cauchy rispetto alla
metrica
1
d(M,
M 0 ) :=
t[0,T ]
MPEF 01-07-2009
201
Viceversa se i processi elementari X n in L2 [0, T ] sono tali che la successione I W (X n ) = (ItW (X n ))t[0,T ]
`e una successione
di Cauchy rispetto alla metrica d allora la successione di processi X n risulta di Cauchy in
2
L [0, T ] rispetto alla metrica d.
della successione
Da questa relazione si pu`
o dedurre lesistenza di un processo limite, in questa metrica d,
di processi I W (Xn ). Il processo limite5 viene chiamato integrale stocastico di X e denotato anche esso con
ItW (X) =
Xs dWs .
0
Ribadiamo che la definizione viene (in queste note) data quindi solo per i processi X E 2 ([, ]).
R
R
` chiaro che lintegrale stocastico t Xs dWs `e lineare in X. Inoltre t Xs dWs `e una martingala a traiettorie
E
0
0
continue. Nel caso dei processi elementari ci`
o discende dal risultato esaminato nellEsempio 4.12:
Lemma 9.2. Se X `e un processo elementare predicibile, come nella (9.4), con Ci di quadrato integrabile, allora
Z
Xt dWt F
!
=0
!2
Xt dWt
"Z
F = E
#
Xt F .
2
In particolare, lintegrale stocastico di un processo elementare di E 2 `e una variabile aleatoria centrata di quadrato
integrabile e
!2
"Z
#
Z
E
Xt dWt = E
Xt 2 dt .
Le propriet`a di linearit`
a, di martingala, di continuit`a e le propriet`a precedenti sui valori medi si ottengono
per i processi pi`
u generali, con un passaggio al limite.
Procediamo con qualche esempio di calcolo di integrale stocastico Se f L2 ([0, T ], ) `e una funzione
deterministica, allora f E 2 ([0, T ]). e quindi ha senso lintegrale stocastico di Ito, che in questo caso coincide
con lintegrale stocastico di Wiener, e gode allora di una importante propriet`a.
Proposizione 9.3. Se f `e una funzione deterministica, con f L2 ([0, T ]), allora il processo
Z
f (s)dWs
0
Rt
0
f 2 (s)ds.
202
MPEF 01-07-2009
2
|2Ws | ds =
E
E |2Ws |2 ds =
4sds <
mn
X
i=1
cos`
Z
mn
X
i=1
Considerando che
X
X
X
2
bk (bk+1 bk ) =
[2bk+1 bk 2b2k ] =
[2bk+1 bk 2b2k b2k+1 + b2k+1 ]
k
b2k+1 )
[bk+1 bk ] +
[b2kmax
[(2bk+1 bk
b2k
+ b2k+1 b2k ] =
[bk+1 bk ]2 +
[b2k+1 b2k ]
b2kmin ]
mn
X
(Wtni Wtni1 )2 + W2 W2 .
i=1
(9.9)
Definizione 9.7. Sia M 2 ([, ]) lo spazio delle classi dequivalenza dei processi FtW -progressivamente
misurabili6 tali che
"Z
#
2
E
|Xs | ds < .
Pi`
u in generale, data una filtrazione (Ft ), i processi Ft -progressivamente misurabili sono i processi X : [0, ) 7 R tali
che qualunque sia t la restrizione di X a funzione [0, t] `
e misurabile rispetto alla -algebra prodotto Ft B([0, t]).
MPEF 01-07-2009
203
La seguente proposizione afferma che lintegrale stocastico pu`o essere definito anche per una classe pi`
u ampia
di processi, ed in particolare, se lintegrando `e continuo, allora lintegrale `e il limite di particolari8 somme di
Riemann, in analogia con lintegrale di Lebesgue.
Proposizione 9.4. Se X `e un processo dello spazio 2 [, ], ovvero `e progressivamente misurabile per il quale
!
Z
Xt2 dt <
=1
R
allora si pu`
o dare un senso allintegrale stocastico Xt dWt , come limite in probabilit`
a di integrali di processi
elementari opzionali. Se inoltre X `e un processo continuo, allora per ogni successione (n )n di partizioni
= tn0 < tn1 < ... < tnmn = con |n | 0 si ha
mn
X
k=1
X(t)dWt in probabilit`
a.
Xt dWt + b
Yt dWt ,
se X e Y sono processi per cui ha senso lintegrale stocastico, ad esempio se X, Y E 2 ([, ]), o se
X, Y 2 ([, ]). Ma se A = A() `e una variabile aleatoria (per semplicit`
a prendiamo b = 0), non possiamo
R
dire altrettanto, o meglio dipende dalle propriet`
a di misurabilit`
a di A. Infatti, mentre A Xt dWt si pu`
o scrivere
R
2
2
sempre, sappiamo dare un significato a A()Xt dWt solo se AX E ([, ]) (o se AX ([, ])). In
particolare AXt deve essere progressivamente misurabile, di conseguenza `e necessario che AXt sia F -misurabile.
Affinche ci`
o si verifichi `e sufficiente che A sia F -misurabile. Per le condizioni di integrabilit`
a `e sufficiente che
A sia una v.a. limitata.
Dunque possiamo enunciare il seguente teorema.
2
Teorema 9.5. Sia A una variabile aleatoria F -misurabile limitata; allora per X E ([, ]) (o per
X 2 ([, ]))
Z
Z
AX(t)dWt = A
X(t)dWt .
9.6
t2
t1
7 Si
t2
Ft dt +
Gt dWt ,
t1
tratta sempre del caso in cui la filtrazione e la filtrazione generata da W , completata e resa continua a destra.
somma di Riemann `
e una somma del tipo
8 Una
mn
X
X(tn
k1 )(Wtn Wtn
k
k1
k=1
n
n
n
n
con tn
k1 [tk1 , tk ] La differenza nel caso dellintegrale stocastico di Ito, sta nel fatto che va sempre scelto tk1 = tk1 .
204
MPEF 01-07-2009
W
che `e come dire che Ft = FtW = 1 e G=
= 2Wt . Si noti la differenza con il calcolo del differenziale usuale.10
t Gt
Osservazione 9.5. Il differenziale stocastico, se esiste, `e unico, nel senso che se X ammette una
rappresentazione del tipo precedente, allora F e G sono determinati univocamente11 .
Definiamo
Gs 2 ds.
< X >t =
0
Rt
Il processo < X > non `e altro che il processo crescente associato alla martingala 0 Gs dWs che compare nella
sua definizione. In maniera simile, se Y `e un altro processo di Ito, avente differenziale stocastico
dYt = Ht dt + Kt dWt ,
porremo
Z
< X, Y >t =
Gs Ks ds.
0
Proposizione 9.6 (Differenziale del prodotto). Se Xi , i = 1, 2, sono due processi aventi differenziale stocastico
dXi (t) = Fi (t)dt + Gi (t)dWt ,
allora
d(X1 (t)X2 (t)) = X1 (t)dX2 (t) + X2 (t)dX1 (t) + G1 (t)G2 (t)dt
= X1 (t)dX2 (t) + X2 (t)dX1 (t) + d < X1 , X2 >t .
Ovvero, se t1 < t2 ,
Z
t2
G1 (t)G2 (t)dt.
t1
MPEF 01-07-2009
205
Siano f una funzione regolare di (t, x) e X un processo di Ito, con differenziale stocastico (9.6). Ci chiediamo
quale sia il differenziale stocastico del processo (Yt = f (t, Xt ))t . La risposta `e fornita dalla formula di Ito.
Teorema 9.7 (Formula di It
o). Sia
dXt = Ft dt + Gt dWt ,
e sia f (t, x) una funzione continua, con derivate parziali prime ft ed fx continue, e con la derivata parziale
seconda fxx continua, allora
1
dYt = df (t, Xt ) = ft (t, Xt )dt + fx (t, Xt )dXt + fxx (t, Xt )G2t dt
2
1
= ft (t, Xt )dt + fx (t, Xt )Ft dt + fx (t, Xt )Gt dWt + fxx (t, Xt )G2t dt.
2
In particolare per Xt = Wt (ovvero per Ft = 0 e Gt = 1 si ha
1
df (t, Wt ) = ft (t, Wt )dt + fx (t, Wt )dWt + fxx (t, Wt )dt.
2
In realt`a il teorema sopra enunciato non `e completo in quanto mancano le ipotesi che permettono di assicurare
che abbia senso, ad esempio, lintegrale stocastico di fx (t, Xt )Gt rispetto a dWt . Unipotesi sufficiente `e che le
derivate siano limitate, tuttavia non `e unipotesi necessaria. Lo schema della dimostrazione si ottiene scrivendo
per ogni partizione di [t0 , t00 ]
X
f (t00 , Xt00 ) f (t0 , Xt0 ) =
f (tk , Xtk ) f (tk1 , Xtk1 )
k
12
1
f (t, x) = f (t0 , x0 ) + ft (t0 , x0 )(t t0 ) + fx (t0 , x0 )(x x0 ) + fxx (t0 , x0 )(x x0 )2 + o(t t0 ) + o (x x0 )2
2
e tenendo conto del fatto che
2
(Xtk Xtk1 )2 ' Ftk1 (tk tk1 ) + Gtk1 (Wtk Wtk1 )
= Ft2k1 (tk tk1 )2 + 2Ftk1 Gtk1 (tk tk1 )(Wtk Wtk1 ) + G2tk1 (Wtk Wtk1 )2
= O (tk tk1 )2 + o (tk tk1 ) + G2tk1 (Wtk Wtk1 )2
con (Wtk Wtk1 )2 che si comporta come (tk tk1 ) (si riveda la sezione in cui si dimostra che il processo di
Wiener non ha traiettorie a variazione limitata)
Il precedente teorema ammette diverse generalizzazioni, come ad esempio la seguente.
Teorema 9.8 (Formula di It
o multidimensionale). Siano Xi , i = 1, ..., m, processi che ammettono differenziale
stocastico
dXi (t) = Fi (t)dt + Gi (t)dWt
i = 1, ..., m
e sia f : R+ Rm R una funzione continua in (t, x), derivabile con continuit`
a una volta in t e due volte in
x. Allora posto Xt = (X1 (t), ..., Xm (t)), il processo (f (t, Xt ))t ammette differenziale stocastico
m
m
X
X
1
fxi xj (t, Xt )Gi (t)Gj (t) dt
df (t, Xt ) = ft (t, Xt ) +
fxi (t, Xt )Fi (t) +
2
i,j=1
i=1
+
m
X
i=1
m
X
1
=
fxi (t, Xt )dXi (t) + ft (t, Xt ) +
fxi xj (t, Xt )Gi (t)Gj (t) dt.
2
i=1
i,j=1
m
X
mancano i termini di ordine O (t t0 )(x x0 ) . Tuttavia successivamente, se si prende t = tk , t0 = tk1 , x = Wtk
e x0 = Wtk1 , si ha che |(t t0 )(x x0 )| = |tk tk1 | |Wtk Wtk1 |, che un infinitesimo di ordine superiore a |tk tk1 |.
12 Veramente
206
MPEF 01-07-2009
****In presenza di un processo di Wiener a dimensione d, ossia in presenza di d processi di Wiener indipendenti
(1)
(d)
Wt , ... ,Wt si pu`
o considerare anche il caso in cui i processi Xi , i = 1, ..., m ammettono differenziale
stocastico definito come segue
dXi (t) = Fi (t)dt +
d
X
(k)
(k)
Gi (t)dWt
i = 1, ..., m
k=1
m
d
m
X
X
X
1
(k)
(k)
fxi xj (t, Xt )
Gi (t)Gj (t) dt
df (t, Xt ) = ft (t, Xt ) +
fxi (t, Xt )Fi (t) +
2
i,j=1
i=1
k=1
m
X
(k)
(k)
(9.10)
i=1
m
d
X
X
1
(k)
(k)
fxi xj (t, Xt )
Gi (t)Gj (t) dt
=
fxi (t, Xt )dXi (t) + ft (t, Xt ) +
2
i,j=1
i=1
k=1
m
m
X
X
1
fxi xj (t, Xt ) (G(t)0 G(t))i,j dt.
fxi (t, Xt )dXi (t) + ft (t, Xt ) +
=
2
i,j=1
i=1
m
X
(9.11)
(9.12)
dove abbiamo indicato con G(t)0 la matrice trasposta della matrice che al posto di indice (k, i) ha il valore
(k)
Gi (t).
0
m
1 X
fx x (t, Xt )d < Xi , Xj >t .
2 i,j=1 i j
Il differenziale stocastico si comporta, dunque, in maniera diversa da quello ordinario per la presenza dellultimo
termine a destra.
9.6.1
1
f (t, x) = s0 exp x + 2 t
2
cos`
St = f (t, Wt ).
Allora
ft (t, x) =
1
2 f (t, x),
2
MPEF 01-07-2009
207
W
Per la formula di It
o, applicata a Xt = Wt (cos` Ft = FtW = 0 e G=
t Gt = 1)
1
dSt = df (t, Wt ) = ft (t, Wt )dt + fx (t, Wt )dWt + fxx (t, Wt )dt
2
1 2
1
= f (t, Wt )dt + f (t, Wt )dWt + 2 f (t, Wt )dt
2
2
= St dt + St dWt .
Cos` il moto browniano geometrico in forma differenziale `e dato da
dSt = St dt + St dWt
e nella sua forma integrale
Z
St = s0 +
Su du +
0
Su dWu .
0
In particolare quindi
Z t
Z t
E[St ] = s0 + E[
Su du] + E[
Su dWu ]
0
0
Z t
= s0 +
E[Su ]du,
0
da cui
E[St ] = s0 exp{t}.
S
2
Riutilizzando ancora la formula di Ito per Xt = St (cos` Ft = FtS = St e G=
t Gt = St ) per f (t, x) = x (per
13
cui ft = 0, fx = 2x ed fxx = 2) si ottiene
1
dSt2 = 2St dSt + 2 2 St2 dt
2
= 2St2 dt + 2St2 dWt + 2 St2 dt
= (2 + 2 )St2 dt + 2St2 dWt .
Integrando questultima espressione, e prendendo i valori attesi (tralasciando il problema di mostrare che
lintegrale stocastico `e effettivamente una martingala a media nulla) si ottiene che
Z t
Z t
E[St2 ] = s20 + E[ (2 + 2 )Su2 du] + 2E[
Su2 dWu ]
0
0
Z t
= s20 +
(2 + 2 )E[Su2 ]du,
0
da cui
E[St2 ] = s20 exp{(2 + 2 )t}
e quindi si pu`o ricavare facilmente la varianza.14 Il moto browniano geometrico `e un processo da prendere
in considerazione per modellizzare levoluzione di quantit`a che devono sempre rimanere positive. Anche per
questo motivo, `e un modello usato per descrivere levoluzione dei prezzi nei mercati finanziari. Nel modello di
Black-Scholes, come gi`
a visto, il titolo rischioso segue un moto browniano geometrico.
13 Per
oppure si pu`
o considerare che St2 = f(t, Wt ) con
f(t, x) = s20 exp 2x + 2 2 t
e applicare la formula di Ito al processo Xt = Wt . Si consiglia il lettore di controllare che si ottiene lo stesso risultato con questo
metodo.
14 Ovviamente la V ar(S ) si pu`
o ricavare anche a direttamente, si consiglia il lettore di eseguire questo calcolo e controllare che i
t
due metodi portano allo stesso risultato, come deve essere.
208
9.7
MPEF 01-07-2009
(9.13)
0 = s0 .
(9.14)
(9.15)
t s,
Xs = x
(9.16)
RT
ammette una soluzione che `e un processo progressivamente misurabile, con E s |Xu |2 du < , per ogni
0 = x.
Lidea `e quella di ripetere il metodo della variazione delle costanti per le equazioni differenziali ordinarie15
15 Ricordiamo
MPEF 01-07-2009
209
Si cerca quindi la soluzione del tipo Xt = t exp{t}, dove t `e un processo da determinare che ammetta
differenziale stocastico
Z t
Z t
Gs dWs .
Fs ds +
dt = Ft dt + Gt dWt , ovvero t = x +
0
Z
t = x +
exp{s}dWs ,
0
e quindi
Z t
Xt = exp{t}t = exp{t} x +
exp{s}dWs ,
0
Ct = C0 +
exp{s}vs ds.
0
In conclusione la soluzione `
e data da
Z
yt = exp{t} C0 +
exp{s}vs ds
0
16 Il
motivo per cui la tecnica della variazone delle costanti funziona anche nel caso stocastico sta nel fatto che, essendo la funzione
e t deterministica, che ha come differenziale de t = e t dt + 0 dWt , la formula del differenziale stocastico del prodotto `
e
la stessa che nel caso dei differenziali usuali
d(t e t ) = t de t + e t dt + Gt 0 dt.
17 Ovvero
d x+
0
d(exp{t}) = exp{t}dt,
exp{s}dWs = 0 dt + exp{t}dWt .
210
MPEF 01-07-2009
dove lultima uguaglianza vale in quanto lintegrale stocastico ha valore atteso nullo.
Da ci`o si pu`o ricavare anche la varianza, in quanto
2
2
Z
exp{s}dWs
2 #
exp{s}dWs
0
Z t
2
2 exp{2s}ds =
= E exp{2t}
(1 exp{2t}) .
2
0
Anche la covarianza si pu`
o ricavare facilmente osservando che
(Xt E[Xt ]) (Xt0 E[Xt0 ])
Z t
Z
0
= exp{t}
exp{s}dWs exp{t }
0
t0
!
exp{s}dWs
Rt
0
Z
2 exp{2s}ds .
quindi se
Z
Xt = exp{t} x +
exp{s}dWs
allora
dXt =
x+
exp{s}dWs
0
Bibliografia
[1] Baldi, P. Equazione differenziali stocastiche e applicazioni. Quaderni dellUnione Matematica Italiana,
28. Bologna: Pitagora Editrice. VIII, 309 p. (seconda edizione), 2000.
[2] Baldi, P., and Caramellino, L. Appunti del corso: Probabilit`a e Finanza. Dip. Mat. - Univ. di Roma
Tor Vergata - http://www.mat.uniroma2.it/processi/did 0304/pf.htm, 2004.
[3] Billingsley, P. Probability and measure, third ed. Wiley Series in Probability and Mathematical
Statistics. John Wiley & Sons Inc., New York, 1995. A Wiley-Interscience Publication.
rk, T. Arbitrage theory in continuous time. Oxford University Press, Oxford, 1998.
[4] Bjo
[5] Black, F., and Scholes, M. The pricing of options and corporates liabilities. Journal of Political
Economy 81 (1973), 637659.
[6] Breiman, L. Probability, vol. 7 of Classics in Applied Mathematics. Society for Industrial and Applied
Mathematics (SIAM), Philadelphia, PA, 1992. Corrected reprint of the 1968 original.
[7] DallAglio, G. Calcolo delle Probabilit`
a. Zanichelli, Bologna, 2000. II edizione.
[8] Hull, C. J. Opzioni, futures e altri derivati. Il Sole 24 Ore, Milano, 2003. III edizione.
[9] Lamberton, D., and Lapeyre, B. Introduction to stochastic calculus applied to finance. Chapman &
Hall, London, 1996. Translated from the 1991 French original by Nicolas Rabeau and Francois Mantion.
[10] Luenberger, D. C. Investment Science. Oxford University Press, Oxford, 1998.
[11] Merton, R. C. Theory of rational option pricing. Bell J. Econom. and Management Sci. 4 (1973),
141183.
[12] Moriconi, F. Matematica finanziaria. Edizioni il Mulino, Bologna, 1995.
[13] Rogers, L. C. G. Equivalent martingale measures and no-arbitrage. Stochastics Stochastics Rep. 51, 1-2
(1994), 4149.
[14] Ross, S. M. Stochastic processes, second ed. Wiley Series in Probability and Statistics: Probability and
Statistics. John Wiley & Sons Inc., New York, 1996.
[15] Ross, S. M. An introduction to mathematical finance. Cambridge University Press, Cambridge, 1999.
Options and other topics.
[16] Schachermayer, W. A Hilbert space proof of the fundamental theorem of asset pricing in finite discrete
time. Insurance Math. Econom. 11, 4 (1992), 249257.
[17] Shiryaev, A. N. Essentials of stochastic finance. Facts, models, theory,, vol. 3 of Advanced Series on
Statistical Science & Applied Probability. World Scientific Publishing Co. Inc., River Edge, NJ, 1999.
Translated from the Russian manuscript by N. Kruzhilin.
[18] Steele, J. M. Stochastic calculus and financial applications, vol. 45 of Applications of Mathematics (New
York). Springer-Verlag, New York, 2001.
[19] Williams, D. Probability with martingales. Cambridge Mathematical Textbooks. Cambridge University
Press, Cambridge, 1991.
211