Professional Documents
Culture Documents
In our work, we consider here and after that d0 is the true value of the long
memory parameter, where 0 < d0 < 1/2.
Main results
Theorem 1. Assume that (A1)-(A6) hold. Furthermore, let assume that bn =
nα L(n) where L(n) is a slowly varying function and −1 1
3 < α < 3 (d0 − 1). Then,
1
bn almost surely converges to λ0 when n −→ ∞.
λ
1. Introduction
Le but de cette note est d’estimer le paramètre λ du modèle ARFIMA défini en
(1) par la méthode du minimum de distance de Hellinger. Les raisons du choix
de cette technique d’estimation résident dans le fait que les estimateurs obtenus
sont efficaces et surtout robustes (cf. Beran (1977)).
Dans le paragraphe 2, nous définissons le modèle ARFIMA. Puis dans le para-
graphe 3, nous établissons la convergence presque sûre et la normalité asymp-
totique de l’estimateur. Enfin, le paragraphe 4 constitue le schéma des preuves.
2. Le modèle
Dans cette note, on considère le modèle ARFIMA (p, d, q) proposé par Odaki
(1993) pour définir une série temporelle présentant un caractère de courte ou de
longue mémoire suivant d. Un tel processus de moyenne zéro est écrit comme
suit :
Nous supposons dans la suite que {yt } est stationnaire au second-ordre. Odaki
(1993) a montré que {yt } est inversible et stationnaire tant que d > −1 et
d < 1/2 respectivement. De plus, si −1/2 < d < 0, le processus est de courte
mémoire et de longue mémoire si 0 < d < 1/2.
Considérant que le processus est inversible, l’équation (1) peut être reécrite
sous la forme d’un processus AutoRégressif infini (AR(∞)) comme suit : εt =
P∞ ∞ −1
j=0 αj (λ)yt−j , où {αj (λ)}j=0 sont les coefficients associés à φ(B)θ(B) (1 −
2
B)d et λ = (d, φ, θ) ∈ Λ ⊂ IRp+q+1 .
Pour établir les propriétés probabilistes, nous considérons les hypothèses sui-
vantes :
(A1) : εt admet une loi absolument continue par rapport à la mesure de Le-
besgue sur IR et sa densité fλ (.) est strictement positive presque partout.
(A2) : E(|εt |s ) < +∞ pour un nombre entier s ≥ 1.
3. Estimation du paramètre
Ce paragraphe est consacré à la détermination de l’estimateur du minimum de
distance de Hellinger (MHD) du paramètre λ et l’établissement des proprié-
tés asymptotiques de cet estimateur. La vraie valeur du vecteur paramètre est
λ0 = (d0 , φ0 , θ0 ).
La méthode MHD consiste à minimiser la distance de Hellinger entre la fonc-
tion de densité du bruit blanc fλ0 (.) et la fonction aléatoire paramétrée fbλ,n (x)
suivante :
n
1 X x − εbt
fbλ,n (x) = K( ), (2)
nbn t=1 bn
dans laquelle (bn ) est une suite de fenêtres, K est un noyau et εbt est un estima-
teur de εt .
bn l’estimateur MDH de λ0 ∈ Λ défini comme suit :
Soit λ
λ
bn = arg min H2 (fbλ,n , fλ0 ), (3)
λ∈Λ
où
nZ 1 1
o 21
H2 (fbλ,n , fλ0 ) = |fbλ,n
2
(x) − fλ20 (x)|2 dx .
IR
3
Dans cette note, nous considérons que la vraie valeur du paramètre de longue
mémoire est d0 et 0 < d0 < 1/2.
1
∂gλ0 ∂ 2 gλ0
, Vλ0 = [ ġλ0 (x)ġλt 0 (x)dx]−1 ġλ0 (x).
R
Soient gλ0 = fλ20 , ġλ0 = ∂λ0 , g̈λ0 = ∂ 2 λ0
1h
Z i−1 Z
Σ2 = ġλ0 (x)ġλt 0 (x)dx K 2 (u)du.
4 IR
Schéma de la preuve du lemme 1- Nous avons supx |fbλ,n (x) − fλ0 (x)| ≤
Pn
supx |fbλ,n (x) − fen (x)| + supx |fen (x) − fλ0 (x)|, où fen (x) = nb1n t=1 K( x−ε
bn ).
t
Selon Prakasa Rao (1983) le deuxième terme de droite converge vers zéro puis
on applique le théorème 1 dans Mayoral (2007). Voir la version longue pour plus
de détails.
4
quand n −→ ∞.
Alors
( )
1 1
P rob lim fλ,n (x) = fλ0 (x) pour tout x
b2 2
= 1
n−→∞
et puisque
Z Z
fbλ,n (x)dx = fλ0 (x)dx = 1,
IR IR
alors
Z ! 21
1 1
2
H2 (fbλ,n , fλ0 ) = |fλ,n (x) − fλ0 (x)| dx
b2 2
−→ 0 presque sûrement quand n −→ ∞.
IR
Lemme 2. On suppose que (A3), (A4) et les conditions (i) et (ii) du théorème
2 sont satisfaites et que λ0 est un point interieur de Λ. Alors pour toute suite
de densités {fbλ,n } convergeant vers fλ0 dans la métrique de Hellinger, on a :
Z Z
1 1 1 1
T (fn ) = λ0 + Vλ0 (x)[fλ,n (x) − fλ0 (x)]dx + An ġλ0 (x)[fbλ,n
b2 2 2
(x) − fλ20 (x)]dx, (4)
√
Condition 1 : An est une (p + q + 1) × (p + q + 1)-matrice et n sont tel que
√
nAn tend vers zéro quand n → ∞.
Lemme 3. On suppose que (A1), (A2), (A4) et (A6) sont satisfaites, de plus
on suppose que la fenêtre bn est choisie comme dans les théorèmes 1 et 2. Alors
1
la loi limite de (nbn ) 2 [fbλ,n (x) − fλ0 (x)] est N (0, fλ0 (x) IR K 2 (u)du).
R
1
support compact K ⊂ IR et Vλ0 ⊥ fλ20 où ⊥ désigne l’orthogonalité en L2 .
5
1
De (A1), fλ20 (x) > 0 et de l’identité algebrique :
nous avons,
√ √
Z Z
1 1 Vλ0 (x) b
n Vλ0 (x)(fλ,n − fλ0 )dx = n
b2 2
1 (fλ,n − fλ0 )dx + Bn , (6)
K 2fλ20
√ R Vλ0 (x)
où Bn = − n K 1 1 1 (fbλ,n − fλ0 )2 dx. Soit α = inf x∈K fλ0 (x) > 0.
2fλ2 (fbλ,n
2 +f 2 )2
λ
0 0
1 1 1 3
Puisque 2fλ20 (fbλ,n
2
+ fλ20 )2 > 2fλ20 , alors
−3 R √
|Bn | ≤ 2α 2 K |Vλ0 (x)| n(fbλ,n (x) − fλ0 (x))2 dx.
√
Du lemme 1, n(fbλ,n (x) − fλ0 (x))2 −→ 0 presque sûrement n −→ ∞. Les
conditions (i) et (ii) du théorème 2 implique que Vλ0 est continu et borné (pour
tout λ0 fixed) de plus, on applique le théorème de Vitali sur la sequence
√
Sn (x) = |Vλ0 (x)| n(fbλ,n (x) − fλ0 (x))2 assure que |Bn | −→ 0 en probabilité
lorsque n −→ ∞. Donc, il revient à déterminer la loi limite du premier terme
de (6) qui est
√
Z
Vλ0 (x) b
n 1 (fλ,n − fλ0 )dx. (7)
K 2f 2
λ0
D’où le resultat.
Références
[1] Beran, R. (1977), Minimum Hellinger Distance Estimation for parametric models,
The Annals of statistic, Vol. 5, No. 2, 445-463.
[2] Hili, O. (1995), On the estimation of nonlinear time series models, Stochastics and
Stochastics Reports, Vol. 52, pp. 207-226.
[3] Mayoral, L. (2007), Minimum distance estimation of stationary and non-stationary
ARFIMA Processes, Econometrics Journal, Volume 10, pp. 124-148.
[4] Odaki, M. (1993), On the invertibility of fractionally differenced ARIMA processes,
Biometrika, 80, 703-709.
[5] Prakasa Rao, B. L. S. (1983), Nonparametric Functional Estimation, New York :
Academic Press.
[6] Wu, W. B. and Mielniczuk, J. (2002), Kernel density estimation for linear process,
The Annals of Statistics 30, 1441-1459.