You are on page 1of 27

Captulo 2

Procesos Estoc
asticos Estacionarios
Las series temporales se pueden clasificar en dos tipos:
Series con valores estables alrededor de un nivel constante (captulos
2-4).
Series con tendencias, estacionalidad u otros efectos evolutivos en el
tiempo (captulo 5).
Ejemplo 12 Las series n
um. 1) y 2) pueden tener un nivel estable, la 3)
y la 4) seguro que no.
Nota 6 La estabilidad depende del periodo de observaci
on. Por ejemplo,
en una serie anual de la temperatura media en un lugar, cuanto mas a
nos
se observen, menos problable es que el nivel se mantenga constante.
Nota 7 Los valores sucesivos de una serie suelen ser dependientes, aunque
sea simplemente por inercia.
2.1.

Concepto de procesos estoc


asticos

Proceso estoc
astico: Conjunto de v.a. (Yt )tI , donde el ndice t toma valores en un conjunto I. Llamamos trayectoria del proceso a una realizacion
del proceso estocastico. Si I es discreto, el proceso es en tiempo discreto.
Si I es continuo, el proceso es en tiempo continuo.
Ejemplo 13 Un ejemplo de proceso en tiempo discreto se obtiene para
I = {1, . . . , n}. En este caso, el proceso es Y1 , Y2 , . . . , Yn , y una trayectoria
se denota por y1 , y2 , . . . , yn .
Ejemplo 14 Un ejemplo de proceso en tiempo continuo se obtiene para
I = [0, T ], I = [0, ] o I = (, ).
39

Serie temporal: Una serie temporal es una realizacion de un proceso


estocastico en tiempo discreto, donde los elementos de I estan ordenados
y corresponden a instantes equidistantes del tiempo.
Si I = {1, . . . , n}, la serie es y1 , y2 , . . . , yn ;
Si I = N, la serie es y0 , y1 , y2 , . . . ,;
Si I = Z, entonces la serie es . . . , y2 , y1 , y0 , y1 , y2 . . ..
Una serie temporal describe la evolucion aleatoria de una variable en el
tiempo.
Ejemplo 15 Un ejemplo de un proceso con I no ordenado es un proceso
espacial, en el que I R2 .
Nota 8 Otra clasificaci
on de los procesos es atendiendo a los valores que
toman las variables Yt . Si estas son discretas, el proceso se llama tambien
discreto. Si son continuas, el proceso es continuo.
En lo sucesivo, (Yt ) denotara un proceso en tiempo discreto con I = N
o I = Z.
Distribuci
on n-dimensional de un proceso: Es la funcion de distribucion de un conjunto de n variables del proceso (Y1 , . . . , Yn ), es decir,
F (y1 , . . . , yn ) = P (Y1 y1 , . . . , Yn yn ),

n N.

La distribucion de un proceso esta caracterizada por el conjunto de todas


las distribuciones finito-dimensionales.
Ejemplo 16 Paseo aleatorio: Un paseo aleatorio esta definido por
Yt =

t
X

aj ,

donde

j=1

aj iid N (0, 2 ).

Hemos generado seis trayectorias de tama


no T = 300, y1 , . . . , y300 , de un
2
paseo aleatorio (Yt ) con = 1, y las hemos representado en la Figura 2.1.
(izquierda). Podemos ver que el grafico de las distintas trayectorias nos da
informacion sobre la distribuci
on de probabilidad del proceso.
Ejemplo 17 Proceso qumico: Medimos la concentraci
on de una sustancia cada minuto durante 5 horas. Repetimos esto en distintos das bajo
las mismas condiciones para obtener informacion sobre la distribuci
on del
40

proceso:
Tenemos varias series de la forma y1 , . . . , y300 provenientes del mismo proceso, una para cada da.
Sea Yt la distribucion de la concentraci
on en el minuto t-esimo. Se supone
que la distribucion de Yt es la misma cada da. Entonces, al aumentar el
n
umero de das, la proporcion con la que yt pertenece a un intervalo (a, b)
converge a la probabilidad P (a < Yt < b). Es decir, obtenemos informacion
sobre la distribucion de Yt repitiendo el experimento.

30
20
0

30

10

20

10

concentration [%]

10

40

20

50

30

Figura 2.1: Varias trayectorias de dos procesos


Proceso qumico
Paseo aleatorio

50

100

150

200

250

300

time

50

100

150

200

250

300

time

Ejemplo 18 Temperatura en D
usseldorf: (serie n
um. 23, 1/1991-12/2003):
Si consideramos que la distribuci
on de la temperatura es la misma en cada
uno de los 13 a
nos observados, entonces tenemos 13 trayectorias del proceso con 12 variables aleatorias cada una (una por mes). Vease la Figura
2.3 izquierda.
Podemos hacer lo mismo con la serie de las lluvias (serie n
um. 24). Vease
la Figura 2.3 derecha.

Nota 9 Para obtener informacion sobre la distribuci


on conjunta del proceso necesitamos observar muchas realizaciones del este proceso. Si no se
41

50

10

100

15

20

150

25

Figura 2.2: Variables climaticas en D


usseldorf.
Temperatura
lluvia

10

12

10

12

month

month

dispone de varias realizaciones o trayectorias, es necesario realizar hip


otesis
adicionales que simplifiquen la distribuci
on del proceso. Hipotesis habituales:
Suponer que la distribuci
on conjunta es normal multivariante. Entonces quedar
a determinada por las medias, varianzas y covarianzas.
Restringirse a un analisis lineal: Especificar medias, varianzas y covariances tambien sera suficiente si solo estamos interesados en las
relaciones lineales entre las variables del proceso.
Proceso Normal: Un proceso (Yt )tN es Normal si todas las distribuciones
finito-dimensionales son normales.
Funci
on de medias: La funcion de medias de un proceso estocastico
(Yt )tI es una funcion de t que proporciona las esperanzas de las variables
Yt
t = E(Yt ), t I.

Funci
on de varianzas: La funcion de varianzas de un proceso estocastico
(Yt )tI es una funcion de t que proporciona las varianzas de las Yt
t2 = V ar(Yt ),

t I.

Funci
on de autocovarianzas: La funcion de autocovarianzas de un proceso estocastico (Yt )tI es una funcion que describe las covarianzas entre
42

las variables del proceso en cada par de instantes


t1 ,t2 = Cov(Yt1 , Yt2 ) = E[(Yt1 t1 )(Yt2 t2 )] ,

t1 , t2 I .

Funci
on de autocorrelaci
on: La funcion de autocorrelacion de un proceso estocastico (Yt )tI es una funcion de dos instantes que describe las correlaciones entre las variables en un par de instantes t1 , t2 I cualesquiera
t ,t
t1 ,t2 = Cor(Yt1 , Yt2 ) = 1 2 , t1 , t2 I .
t1 t2
Nota 10 Se verifica:
t,t = t2 para cada t I.
Las dimensiones de las autocovarianzas son los cuadrados de la serie.
Las autocorrelaciones permiten comparar distintas series ya que son
adimensionales.
2.2.

Procesos estacionarios

En muchas situaciones solo se ha observado una realizacion del proceso;


por ejemplo, en la serie n
um. 2) de manchas solares o en la n
um. 3) de
la poblacion en EE.UU. Entonces, para poder estimar las caractersticas
del proceso (medias, varianzas o autocovarianzas) necesitamos suponer que
son estables a lo largo del tiempo; es decir, que el proceso sea estacionario.
Un proceso estocastico (Yt )tZ es:
estable en media si t = = cte.
estable en varianza si t2 = y2 = cte.
estable en autocovarianza si t1 ,t1 +h = t2 ,t2 +h = h para cualquier
par de instantes t1 , t2 Z y cualquier h Z.
estacionario en sentido d
ebil si es estable en media y en autocovarianza.
estacionario en sentido estricto si las distribuciones marginales
de todas las variables son identicas, y ademas la distribucion finitodimensional de cualquier conjunto de variables solo depende de los
retardos. Es decir, si
Ft1 ,...,tk (y1 , . . . , yk ) = Ft1 +h,...,tk +h (y1 , . . . , yk )
43

para cualquier k N, t1 , . . . , tk , h Z, y y1 , . . . , yk R, donde Ft1 ,...,tk


denota la distribucion conjunta de Yt1 , . . . , Ytk .
X La estacionaridad en sentido estricto es una condicion muy fuerte y
difcil de comprobar en la practica.
X La estacionaridad debil no implica la estricta, salvo para procesos normales.
Ejemplo 19 La poblacion de EE.UU. (serie n
um. 3) no es estacionaria en
la media. El crecimiento del alquiler (n
um. 1) parece estable en la media,
pero no en la varianza. La serie de pasajeros (n
um. 19) no parece estable
en la media ni en la varianza.
Puede ocurrir que una serie sea estable en la varianza pero no en la media,
aunque esto es dificil de distinguir en un grafico.
Propiedades de series estables en autocovarianza:
0 = y2
h = h
h = h , llamando h = h /0 al coeficiente de autocorrelacion.
Funci
on de autocorrelaci
on simple (fas): Es la funcion de autocorrelacion entre variables separadas h instantes para series estables en autocovarianza. Se denota por h . Proporciona las correlaciones en funcion del
retardo h.
Proceso de ruido blanco: Llamamos ruido blanco a un proceso (Yt ) si:
E(Yt ) = 0
V ar(Yt ) = 2
Cov(Yt , Yt+h ) = 0, h = 1, 2, . . .
Si ademas Yt es un proceso Normal, entonces todas las variables del proceso
son independientes. En este caso, (Yt ) se llama ruido blanco normal.
Ejemplo 20 Sea (Yt )tZ un ruido blanco y definimos el proceso Zt = Yt +
Yt1 . Comprobar si (Zt )tZ es estacionario en sentido debil.
La funci
on de medias viene dada por
E(Zt ) = ...
44

La funci
on de autocovarianzas viene dada por
Cov(Zt , Zt+h ) = ...

Tenemos que distinguir tres casos:


Cov(Zt , Zt+h ) = ...
Ejemplo 21 Sea (Yt ) un proceso estacionario con E(Yt ) = y Xt otro
proceso definido por

Yt ,
si t es impar
Xt =
Yt + 1 si t es par.
Observerse que Cov(Xt , Xt+h ) = Cov(Yt , Yt+h ) = h es estable, pero la
esperanza de (Xt ) no lo es, ya que

,
si t es impar
E(Xt ) =
+ 1 si t es par.
Ejemplo 22 Compruebese que un paseo aleatorio (Yt ) definido por Yt =
P
t
j=1 at tiene esperanza cero, pero no es estacionario.
Efectivamente, la esperanza es
E(Yt ) = ...
La covarianza entre dos instantes separados en h unidades es
Cov(Yt+h , Yt ) = ...

45

Matrices de autocovarianzas y de autocorrelaciones de orden h:


Para un proceso estacionario, las matrices de autocovarianzas y de autocorrelaciones

de orden h son:
0 1 . . . h1
0 1 . . . h1
..
..

.
.
.
.
1 0 . .
1 0 . .
,
Rh = .
h = .

.
.
..
..
..
..
1
1
h1 . . . 1 0
h1 . . . 1 0
Estabilidad de procesos estacionarios ante combinaci
ones lineales
(i) Si multiplicamos un proceso estacionario por una constante, resulta
un proceso estacionario.
(ii) Si sumamos varios procesos que son conjuntamente estacionarios, la
suma tambien lo es.
Ejemplo 23 (Incrementos) Sea (Yt ) un proceso estacionario, y definimos el proceso de incrementos Zt = Yt Yt1 . Compruebese que (Zt )
es estacionario.
Efectivamente,
E(Zt ) = ...
V ar(Zt ) = ...
Cov(Zt , Zt+h ) = ...

(iii) Un proceso que es combinacion lineal de procesos estacionarios es


estacionario: sea c = (c1 , . . . , ck ) un vector de constantes e Yt =
(Y1t , . . . , Ykt ) un vector de k procesos conjuntamente estacionarios; es
decir, cada (Yit ) es estacionario y las covarianzas entre dos variables
de distintas componentes i y j solo dependen de i, j y del retardo. Sea
Zt = c Yt :
E(Zt ) = ...
V ar(Zt ) = ...
Cov(Zt , Zt+h ) = ...
46

2.3.

Estimaci
on

Sea (Yt ) un proceso estacionario con media = E(Yt ), varianza 2 =


V ar(Yt ) y funcion de autocovarianzas h = Cov(Yt , Yt+h ). Si solo tenemos
una realizacion y1 , . . . , yn del proceso, como estimamos sus caractersticas?
Media muestral: La media muestral del proceso es
n

1X
Yn

= Y =
n t=1
Varianza muestral: La varianza muestral es
n

1X
S =
(Yt Y )2
n t=1
2

y la desviacion tpica muestral es


S=

S2

Autocovarianzas muestrales (funcion de autocovarianza emprica)


nh

1X
(Yt Y )(Yt+h Y )
ch =
n t=1
Autocorrelaci
on muestral (funcion de autocorrelacion emprica)
rh =

ch
c0

Correlograma: grafico de la funcion de autocorrelacion emprica en


funcion del retardo.
Propiedades:
La media muestral es un estimador insesgado de :
E(Y ) = ...

47

Varianza de la media muestral:


!
n
1X
= ...
Yt
V ar
n t=1

X Si h = 0, h > 0, entonces V ar(Y ) = 0 /n.

X Si h 6= 0 para alg
un h > 0, entonces V ar(Y ) 6= 0 /n.
X El segundo termino no tiene por que converger cuando n tiende a
infinito; por tanto, la media muestral no tiene por que ser consistente
para la media poblacional .
Proceso erg
odico: Un proceso estacionario en sentido debil es ergodico
para la estimacion de la media si
n
V ar(Y ) .

Ejemplos de procesos no erg


odicos:
Proceso constante: Un proceso en el que Y1 = Y2 = . . ., donde
h = 0 para cualquier h N, no es ergodico.
Efectivamente, la varianza de la media muestral es
V ar(
y ) = ...

Proceso peri
odico: El proceso
Yt = A cos(t + ) + at
48

no es ergodico, puesto que las autocorrelaciones son periodicas y no


tienden a cero. La serie 21 es una trayectoria de un proceso de este
tipo con = 0,4, A = 1,5 y = 0,5.
Nota 11 Para que un proceso sea erg
odico, la observaciones nuevas tienen
que aportar suficiente informacion para que la varianza converga a 0. Esto
no occurre si la dependencia entre las variables es muy fuerte.
Una condicion necesaria pero no suficiente para que un proceso estacionario
sea erg
odico es
lm h = 0,
h

es decir, que la correlacion entre las observaciones tienda a 0 al aumentar


el retardo, de manera que las observaciones suficientemente alejadas sean
practicamente independientes.
Figura 2.3: Autocorrelaciones y ergodicidad
Correlograma de un proceso erg
odico
Correlograma de un proceso no erg
odico
Series CP

0.0

0.2

0.2

0.0

0.2

0.4

ACF
0.4

ACF

0.6

0.6

0.8

0.8

1.0

1.0

Series AR1

10

20

30

40

Lag

10

20
Lag

49

30

40

Propiedades de las autocovarianzas y las autocorrelaciones:


La autocovarianza emprica es sesgada. Se recomienda estimar solo
autocovarianzas para retardos h n/4 para que haya al menos 4
datos para estimar.
La autocorrelacion estimada rk tiene distribucion asintoticamente normal con media k , es decir
d

rk N (k , V ar(rk )).
Su varianza y la covarianza entre dos autocorrelaciones vienen dadas
por las formulas de Bartlett:


1 X 2
V ar(rk ) =
i + ik i+k 4k i ik + 22i 2k
n i=

1 X
Cov(rk , rk+h ) =
(i ih + ik i+k+h 2k+h i ik 2k i ikh
n i=

+22i k k+h

En un proceso con tendencia, el correlograma disminuye muy lentamente.

En un proceso estacional, el correlograma muestra la misma periodicidad que el proceso.


Nota 12 Si solo las primeras q autocorrelaciones 1 , . . . , q son distintas
de cero, las varianzas de las estimaciones se aproximan por
!
q
X
nk
V ar(rk )
2j , k > q.
1+2
n(n + 2)
j=1
Contraste de ruido blanco: Bajo la hipotesis h = 0, h N, poded
mos aproximar V ar(rk ) 1/n para n grande. En ese caso, como rk
N (k , 1/n), entonces
rk k d
p
N (0, 1).
1/n
De esto, se obtiene el intervalo de confianza asintotico
2
IC95 % (k ) = rk .
n
50

Es decir, con el 95 % de probabilidad, h tiene que estar en el intervalo

(rh 2/ n, rh + 2/ n). Por tanto, se espera que solo uno de cada 20


coeficientes se salga de estas bandas.
Ejemplo 24 Calculamos las primeras autocorrelaciones muestrales para
las leguas recorridas por Col
on en su primer viaje:
y =
s2 =
c1 =
r1 =
c2 =
r2 =

9 + 45 + 60 + . . . + 31 + 59 + 49
= 31,83
34
(9 31,83)2 + (45 31,83)2 + . . . + (59 31,83)2 + (49 31,83)2
= 266,97
34
(9 31,83)(45 31,83) + (45 31,83)(60 31,83) + . . . + (59 31,83)(49 31,83)
= 138,82
34
c1
= 0,52
s2
(9 31,83)(60 31,83) + . . . + (31 31,83)(49 31,83)
= 5,3
34
c2
= 0,02
s2

0.2

0.4

ACF
30

0.2

0.0

20
10

leguas

40

0.6

50

0.8

60

1.0

Figura 2.4: Leguas diarias recorridas por Colon (izq.) y su correlograma (der.)

10

15

20

25

30

35

dia

10
Lag

51

15

Figura 2.5: Ejemplo 2: Ruido blanco normal (izq.) y correlogramas (der.)


100 observaciones
Series ruido[1:100]

200 observaciones
Series ruido

0.4

ACF

0.4

50

100

150

200

0.2

0.2

0.0

0.0

0.2

0.2

ACF

0.6

0.6

0.8

0.8

1.0

1.0

ruido

time

10

15

20

10

Lag

15

20

Lag

Figura 2.6: Lluvia en D


usseldorf, correlograma (izq.) y periodograma (der.)
Series: Rainfall
Raw Periodogram

100

spectrum

10

20

50

0.4
0.2

0.0
0.2

ACF

0.6

500

0.8

2000

1.0

5000

Series lluvia

10

15

20

0.0

Lag

0.1

0.2

0.3

frequency
bandwidth = 0.00180

52

0.4

0.5


DE OPERADORES
APENDICE
A. NOTACION
Operador retardo: El operador retardo de una funcion del tiempo en un
instante proporciona la funcion en el instante anterior:
Bxt = xt1 .
Propiedades del operador retardo: Si a, b son constantes que no dependen del tiempo y xt , yt son funciones del tiempo t, se verifica:
Ba = a;
B(axt ) = aBxt ;
B(axt + byt ) = aBxt + bByt ;
B k xt = xtk . B k se llama operador retardo de orden k.
Operador diferencia: El operador diferencia proporciona la diferencia
entre la funcion en un instante y la misma funcion en el instante anterior:
xt = xt xt1 .
Se verifica que = 1 B. Efectivamente,
xt = xt xt1 = xt Bxt = (1 B)xt .
Este operador se puede aplicar sucesivamente de la forma
2 xt = (xt ).
Operador diferencia de orden s: Este operador proporciona la diferencia entre la funcion en un instante y la misma funcion en s instantes
antes,
xt = xt xts .

Operador inverso: Sea (B) una funcion polinomica del retardo B. Se


define el operador inverso de (B) como el operador (B)1 que verifica
(B)(B)1 xt = (B)1 (B)xt = xt
o equivalentemente,
(B)(B)1 = (B)1 (B) = 1.

Ejemplo 25 Para el operador retardo B, el operador inverso B 1 es el


operador adelanto. Efectivamente, si tomamos B 1 xt = xt+1 , entonces
B 1 Bxt = B 1 xt1 = xt

y
53

BB 1 xt = Bxt+1 = xt .

Ejemplo 26 Para el operador (B) = 1 B, el operador inverso es el


operador infinito dado por:
(B)1 = (1 B)1 = 1 + B + 2 B 2 + 3 B 3 +
Efectivamente, haciendo el producto obtenemos
(B)(B)1 = (1 B)(1 + B + 2 B 2 + 3 B 3 + )
= (1 + B + 2 B 2 + 3 B 3 + ) (B + 2 B 2 + 3 B 3 + )
= 1.

54


APENDICE
B. ECUACIONES LINEALES EN DIFERENCIAS
Ecuaci
on lineal en diferencias de orden k: Sea xt una funcion del
tiempo y c una constante. Una ecuacion lineal en diferencias de orden k es
xt 1 xt1 2 xt2 k xtk = c.
En esta ecuacion, la funcion xt es la incognita y los coeficientes 1 , . . . , k
son conocidos.
Resolver la ecuacion consiste en encontrar una funcion xt que sea solucion de la ecuacion.
A menudo existen muchas soluciones para una ecuacion lineal en diferencias.
Para encontrar una solucion se necesita tener k condiciones iniciales
x0 , . . . , xk1 .
Si c = 0, la ecuacion en diferencias se llama homogenea.
La ecuacion en diferencias se puede escribir en funcion del operador
retardo,
(1 1 B 2 B 2 k B k )xt = c

Si llamamos (B) = 1 1 B 2 B 2 k B k , podemos escribir


la ecuacion como
(B)xt = c.
El polinomio caracterstico de la ecuacion en diferencias es
(B) = 1 1 B 2 B 2 k B k .
Se llama ecuacion caracterstica a la ecuacion homogenea
(B) = 0.
Soluci
on particular: Es una solucion concreta de la ecuacion. Por ejemplo, una constante es a menudo solucion de la ecuacion.
Efectivamente, si reemplazamos xt = x en la ecuacion, obtenemos
x(1 2 2 k ) = c.

55

Despejando x, obtenemos
x=

c
1 2 2 k

Soluci
on general: Es un conjunto de soluciones particulares. Si se tiene
una solucion Gt de la ecuacion homogenea (B)xt = 0 y una solucion
particular Ht de la ecuacion completa (B)xt = c, entonces
x t = G t + Ht
es una solucion general de la ecuacion completa (B)xt = c.
Efectivamente, si reemplazamos xt = Gt + Ht en la ecuacion completa,
como (B)Gt = 0 y (B)Ht = c, obtenemos
(B)(Gt + Ht ) = (B)Gt + (B)Ht = (B)Ht = c.
Ecuaciones lineales en diferencias homog
eneas: Consideramos una
ecuacion homogenea del tipo
xt 1 xt1 2 xt2 k xtk = 0
(1 1 B 2 B 2 k B k )xt = 0
(B)xt = 0.
Ejemplo 27 (Ecuaci
on en diferencias homog
enea de primer orden)
xt xt1 = 0.

La soluci
on se puede encontrar de forma recursiva a partir de una condicion
inicial x0 . Aplicando la formula de la ecuaci
on en diferencias para t =
1, 2, 3, . . ., se tiene
x1 = x0 ,
x2 = x1 = 2 x0
x3 = x2 = 3 x0
...
xt = t x0 .
Propiedades de las ecuaciones homog
eneas: Si Gt y Ht son soluciones
de la ecuacion homogenea (B)xt = 0, A y B son constantes cualesquiera,
entonces tambien son soluciones las siguientes:
(i) AGt ;
56

(ii) Gt + Ht ;
(iii) AGt + BHt .
Prueba: (i) Reemplazando xt = AGt en la ecuacion, como (B)Gt = 0,
entonces
(B)AGt = A(B)Gt = 0.
(ii) Reemplazando ahora xt = Gt + Ht en la ecuacion, como (B)Gt = 0 y
(B)Ht = 0, entonces
(B)(Gt + Ht ) = (B)Gt + (B)Ht = 0.
(iii) Por (i), AGt y BHt son soluciones de la ecuacion. Por (ii), la suma de
ambas tambien es solucion. 2
Resoluci
on de una ecuaci
on en diferencias homog
enea: Si G es el
inverso de una solucion de la ecuacion caracterstica (B) = 0, entonces
xt = AGt es solucion de la ecuacion homogenea, donde A 6= 0 es una constante.
Efectivamente, si reemplazamos xt = AGt en la ecuacion homogenea,
obtenemos
A(Gt 1 Gt1 2 Gt2 k Gtk ) = 0.

Dividiendo la ecuacion por A y por Gtk , se llega a una ecuacion de grado


k,
Gk 1 Gk1 2 Gk2 k = 0.

que tiene k soluciones reales o complejas, y que pueden tener multiplicidad


distinta de uno. As, si tenemos una solucion G de esta ecuacion, entonces
xt = Gt verifica la ecuacion homogenea.
Si ahora dividimos la u
ltima ecuacion por Gk , se obtiene
1
1
1
2 2 k k = 0.
G
G
G
Si hacemos el cambio de variable B = 1/G, la ecuacion resultante es
1 1

1 1 B 2 B 2 k B k = 0,
que es exactamente la ecuacion caracterstica. Una solucion B de esta
ecuacion esta relacionada con una solucion de la ecuacion anterior G de la
forma G = 1/B.
Por tanto, si B es solucion de la ecuacion caracterstica, entonces xt = AGt
con G = 1/B es solucion de la ecuacion homogenea.
57

Ejemplo 28 (Ecuaci
on en diferencias homog
enea de orden 1)
xt xt1 = 0.
Comprobemos que la solucion viene dada por xt = AGt , donde G1 es
la soluci
on de la ecuacion caracterstica, y A viene determinada por las
condiciones iniciales.
Solucion de la ecuacion caracterstica:
1 B = 0 1 B = 0 B = 1/.
Por tanto, G = y la solucion sera xt = At . Reemplazando ahora la
solucion inicial en la ecuacion, obtenemos x0 = A0 = A. Por tanto, la
solucion es xt = x0 t .
Soluci
on general de una ecuaci
on en diferencias homog
enea de
orden k: Sean G1 , . . . , Gp las inversas de las soluciones reales distintas
de la ecuacion caracterstica (B) = 0, con multiplicidades m1 , . . . , mp .
Entonces la solucion general de la ecuacion en diferencias homogenea es
xt =

p
X
i=1

(Ai1 + Ai2 t + + Aimi tmi 1 )Gti .

Observese que si todas las races G1 , . . . , Gk de la ecuacion caracterstica


tienen multiplicidad mi = 1, i = 1, . . . , k, entonces la solucion es
xt = A11 Gt1 + + Ak1 Gt1 .
Ejemplo 29 (Ecuaci
on en diferencias homog
enea de orden 2)
xt 1 xt1 2 xt2 = 0.
La soluci
on depende de las races de la ecuaci
on
G2 1 G 2 = 0,
que vienen dadas por
p
21 + 42
G=
.
2
(a) Si 2 > 21 /4, hay dos soluciones reales distintas G1 y G2 . Entonces
la solucion de la ecuacion homogenea es
1

xt = A1 Gt1 + A2 Gt2 .
58

Las constantes A1 y A2 se obtienen a partir de dos condiciones iniciales


x0 y x1 . Tomando t = 0 y t = 1 en la soluci
on xt , obtenemos:
x0 = A1 + A2
x1 = A1 G1 + A2 G2 .
A1 y A2 se obtienen despejando de dicho sistema lineal.
(b) Si 2 = 21 /4, hay una soluci
on G con multiplicidad 2. Entonces la
solucion de la ecuacion homogenea es
xt = (A1 + A2 t)Gt .
(c) Si 2 < 21 /4, entonces tenemos dos soluciones complejas conjugadas
G1 = a + bi y G2 = a bi. Entonces
xt = A1 (a + bi)t + A2 (a bi)t .
Las constantes A1 y A2 se determinan a partir de las condiciones iniciales x0 y x1 . Tomando t = 0 y t = 1 en la soluci
on xt se obtiene el
sistema
x0 = A1 + A2
x1 = A1 (a + bi) + A2 (a bi)
Las soluciones son n
umeros complejos conjugados. Los escribimos de
la forma
1
1
A1 = B + Ci
2
2
1
1
A2 = B Ci
2
2
Estos n
umeros verifican
A1 + A2 = B
A1 A2 = Ci
Ahora escribimos las soluciones de la ecuaci
on en coordenadas polares:
a = r cos w
b = r sen w

59

donde r2 = a2 + b2 . Reemplazando esto en xt , obtenemos


xt =
=
=
=
=

A1 (r cos w + ir sen w)t + A2 (r cos w ir sen w)t




rt A1 (cos w + i sen w)t + A2 (cos w i sen w)t
rt [A1 (cos wt + i sen wt) + A2 (cos wt i sen wt)]
rt [(A1 + A2 ) cos wt + i(A1 A2 ) sen wt]
rt (B cos wt C sen wt).

Si ahora hacemos el cambio


B = A sen
C = A cos
Sustituyendo esto en la soluci
on xt y aplicando la formula para el seno
de una diferencia, obtenemos
xt = rt [A cos cos wt A sen sen wt]
= A rt sen(wt ),
que es una funci
on sinusoidad con amplitud variable con el tiempo A rt
y angulo de desfase . Si |r| < 1, la amplitud decrece con el tiempo
de forma exponencial.
Condiciones de estabilidad de las soluciones de una ecuaci
on homog
enea: Consideremos una ecuacion en diferencias homogenea de orden
k,
xt 1 xt1 2 xt2 k xtk = 0.

Se dice que la solucion xt es estable si verifica:

< lm xt < .
t

Asumimos por simplicidad que las races de la ecuacion caracterstica


1
on de la ecuacion en diferenG1
1 , . . . , Gk tienen multiplicidad 1. La soluci
cias es entonces:
xt = A1 Gt1 + + Ak Gtk .
De esta solucion, se deduce que las condiciones de estabilidad son
|Gi | 1,

i = 1, . . . , k.

Es conveniente escribir estas condiciones en funcion de los coeficientes de


la ecuacion en diferencias.
60

Ejemplo 30 (Ecuaci
on en diferencias homog
enea de primer orden)
t
La soluci
on xt = x0 de una ecuaci
on en diferencias homogenea de primer
orden es estable si || < 1.
Ejemplo 31 (Ecuaci
on en diferencias homog
enea de orden 2) Tenemos
que diferenciar los mismos tres casos que en el Ejemplo 29.
(a) 2 > 21 /4: Hay dos races reales distintas y xt = A1 Gt1 + A2 Gt2 ,
donde G1 y G2 son soluciones de
G2 1 G 2 = 0,
que vienen dadas por
G=

21 + 42
.
2

La solucion xt es estable si |G1 | < 1 y |G2 | < 1. Esccribimos dichas


condiciones en funci
on de los coeficientes de la ecuaci
on homogenea:
p
on con el signo negativo es
Como 21 + 42 > 0, entonces la soluci
menor que la solucion con el signo positivo. Por tanto, la soluci
on
mayor debe verificar
p
q
1 + 21 + 42
< 1 21 + 42 < 2 1 21 + 42 < 4 41 + 21
2
1 + 2 < 1.
La solucion menor debe cumplir
p
q
1 21 + 42
> 1 21 + 42 < 2 + 1 21 + 42 < 4 + 41 + 21
2
2 1 < 1.
Es decir, la solucion es estable si
1 + 2 < 1 y 2 1 < 1.
(b) 2 = 21 /4: Hay una soluci
on real G con multiplicidad 2, y la soluci
on
t
es xt = (A1 + A2 t)G . La soluci
on viene dada por G = 1 /2, con lo
cual
xt = A1 (1 /2)t + A2 t(1 /2)t .
El primer termino es estable si |1 | < 2. En ese caso, se cumple
lm t(1 /2)t = 0,

61

con lo que el segundo termino tambien es estable. Como 2 = 21 /4,


donde 21 < 4, o equivalentemente, 21 > 4, entonces
2 = 21 /4 > 1.
Por tanto, las condiciones de estabilidad son
2 < 1 < 2 y

1 < 2 < 0.

(c) 2 < 21 /4: Las soluciones son complejas conjugadas G1 = a + bi y


G2 = a bi, y xt se puede escribir como
xt = A rt sen(wt ).
Esta solucion es estable si la amplitud Art converge a cero, y esto
ocurre cuando |r| < 1. Escribimos esta condicion en funci
on de los
coeficientes de la ecuacion homogenea. Las soluciones G1 y G2 se obtienen a partir de
p
1 21 + 42
G=
.
2
Es decir,
p
1 + i |21 + 42 |
G1 = a + bi =
p2
1 i |21 + 42 |
G2 = a bi =
2
Por tanto, el modulo de ambas soluciones es
2 |21 + 42 | 2 21 + 42
+
=

= 2 .
r =a +b =
4
4
4
4

on es estable
Por tanto, r = 2 , y como 2 <21 /4 < 0, la soluci
si 1 < 2 0. Como |1 | < 2 2 , entonces tambien debe ser
|1 | < 2. Por tanto, la soluci
on xt es estable si
2

2 < 1 < 2 y

62

1 < 2 0.

Ecuaci
on en diferencias con t
ermino de error: Es una ecuacion del
tipo
xt = c + 1 xt1 2 xt2 k xtk + t .
Ejemplo 32 Considera la ecuaci
on de primer orden
xt = c + xt1 + t .
A partir de las condiciones iniciales x0 y x1 y de forma recurrente, calculamos la solucion de la ecuaci
on:
x1 = c + x0 + 1 ;
x2 = c + x1 + 2
= c + (c + x0 + 1 ) + 2
= c(1 + ) + 2 x0 + (1 + 2 );
x3 = c + x2 + 3


= c + c(1 + ) + 2 x0 + (1 + 2 ) + 3
= c(1 + + 2 ) + 3 x0 + 2 1 + 2 + 3
...
t1
t1
X
X
i
t
xt = c
+ x0 +
i ti
= c

i=0
t1
X

i + t x0 +

i=0

"i=0
t1
X

(B)i t .

i=0

Suponiendo || < 1 y utilizando la formula de una suma finita de potencias,


t1
X

i =

i=0

1 t
,
1

y sustituyendo esto en xt , obtenemos




t1
X
c
c
t
xt =
+
+ x0
i ti .
1
1
i=0

Observese que esta solucion es del tipo


"
#

X
xt = AGt + b0 +
i ti = Sol. general de la ec. homogenea+Sol. particular.
i=0

Esta es la clave del metodo de resolucion de este tipo de ecuaciones en


diferencias.
63

Resoluci
on de ecuaciones en diferencias con t
ermino de error: El
metodo consiste en:
(a) Encontrar la solucion general de la ecuacion en diferencias homogenea,
que omite la constante y el termino de error;
(b) Encontrar una solucion particular de la ecuacon completa. Habitualmente se prueba con una solucion del tipo
xt = b0 +

i ti .

i=0

Las constantes b0 y i se obtienen reemplazando esta solucion en la


ecuacion completa, agrupando los terminos con el mismo termino de
error y determinando los coeficientes de dichos terminos de error de
forma recursiva.
(c) Sumar las dos soluciones.
Ejemplo 33 Aplicamos este metodo a la ecuaci
on del Ejemplo 32,
xt = c + xt1 + t .
(a) Solucion general de la ecuaci
on homogenea
xt xt1 = 0 (1 1 B)xt = 0.
La solucion de la ecuacion caracterstica es B = 1/. Por tanto, la
solucion es general es Gt = At .
(b) Solucion particular de la ecuaci
on completa. Probamos con la soluci
on
Ht = b 0 +

i ti .

i=0

Las constantes de la ecuaci


on particular b0 , i , i = 1, 2, . . ., se obtienen
reemplazando esta solucion en la ecuaci
on completa
!

X
X
i ti + t
i ti = c + b0 +
b0 +
i=0

i=0

Desarrollando los sumatorios, la ecuaci


on es
b0 +0 t +1 t1 +2 t2 + = c+ (b0 + 0 t + 1 t1 + 2 t2 + )+t .
64

Igualando los terminos independientes, los terminos en t , los terminos


en t1 , etc., de cada lado de la igualdad, obtenemos
b0 = c + b0 b0 = c/(1 );
0 = 1;
1 = 0 = ;
2 = 1 = 2 ;
...
i = i .
Por tanto, la solucion particular es

X
c
i ti .
+
Ht =
1 i=0
(c) Finalmente, la solucion general es

X
c
x t = G t + Ht =
i ti + At .
+
1 i=0
La constante A se determina a partir de una condicion inicial x0 .
Tomando t = 0 en la ecuaci
on, obtenemos

X
c
i i + A.
+
x0 =
1 i=0
Despejando A,

X
c
A = x0
+
i i .
1 i=0

65

You might also like