You are on page 1of 21

DOS 2

FORMAS CUADRATICAS:
Distribución y Momentos

2.1 INTRODUCCIÓN

El análisis de datos, para conocerla la realidad de muchos sistemas reales en el mundo


se fundamenta en la teoría de los "modelos estadísticos lineales", debido a que la
variabilidad total del problema real se descompone en las partes componentes que lo
explican, y esto se logra con la técnica estadística del "Análisis de la Varianza", la cual
propone la partición de la Suma de Cuadrados del Total (variación total), en partes
componentes de sumas de cuadrados, atribuibles por un lado a los factores que explican
a la variable que identifica a la realidad en estudio y por otro lado a las perturbaciones
aleatorias, que a veces absorbe los efectos de otras fuentes de variación; la razón entre
los cuadrados medios de estas partes componentes, y el de las perturbaciones aleatorias
bajo condiciones distribucionales apropiadas conducen al estadístico "F", el cual se usa
para probar algunas hipótesis de interés, tanto individual, como en forma conjunta. De
otro lado, desde que toda suma de cuadrados, también se expresan como “Formas
Cuadráticas”, entonces el estudio y la derivación de los principales teoremas que
gobiernan a la teoría de los modelos lineales, se establecen bajo las propiedades de
estas Formas Cuadráticas.

2.2 DEFINICION DE FORMAS CUADRATICAS


En general, una forma cuadrática generada por la matriz “A” con elementos [aij]
es definida por el escalar Q, el cual esta dada por la siguiente expresión
matemática:

57
.
n n
Q=   aij yi y j . . . (2.1)
i 1 j 1

Donde el rango de Q es definido por el rango de la matriz A. No obstante en


muchas situaciones se expresan con el producto entre los vectores aleatorios y la
matriz A de constantes reales; es decir; los vectores: Y'= (y1, y2 , ..., yn); Y=( y1,
y2 , ..., yn )', y la matriz “A”, son ordenadas como el siguiente producto:
Q=Y'AY (2.2)

Un caso especial se encuentra cuando la matriz A=I, en este caso, el producto de los
vectores Y', Y es dado por;
 y1  n
 
Y'Y =  y1 , y2 ,, yn      yi2 . . . (2.3)
 y  i 1
 n
Esta expresión no es otra que la suma de cuadrados del total sin corregir por la media y
que se quiere descomponer usando la técnica del análisis de varianza.
La forma cuadrática Y'Y, es particionada en las siguientes "k" componentes;
k
Y'Y = Y'IY = Y'P'PY =  Y ' Pi' Pi Y . . . (2.4)
i 1

Donde la matriz "P" es ortogonal y es particionada en filas;


 P1 
P  k
P =  2  ; con Pi de orden ni x n, y
   ni n
i 1
 
 Pk 
Cada una de las "k" componentes en (2.4) corresponden a una fuente de variación en el
cuadro del análisis de varianza, y los "grados de libertad" a asignársele será igual al
rango de "Pi".
La matriz P puede ser igual por ejemplo a la matriz de HELMERT, cuya generación es
construida del siguiente modo:
Sea:

 h'  1xn
Hnxn =   , donde h' = (1/ n )1'n : 1ª fila de H; 1'n = [1, 1, ..., 1],
K n  ( n 1) xn

58
 1 r 
Kn =  1'r , ,0 '( nr 1) x1  , r = 1, 2, . . ., n-1. . . . (2.5
 r (r  1) r (r  1) 

0 '(nr 1) x1  0,0,...,0 ; Kn : (n-1) filas últimas de H

Para n=4, por ejemplo la matriz H tendrá la siguiente estructura:


 1/ 4 1/ 4 1/ 4 1/ 4 
 
 1/ 2
H4x4 =  
1/ 2 0 0
 1/ 6 1/ 6  2/ 6 0 
 
1 / 12 1 / 12 1 / 12  3 / 12 

Observe que; Y'h'hY = n Y 2 , y por inducción


n n
Y'K'nKnY =  yi2  ny 2    yi  y 2  SC n , también se deriva que;
i 1 i 1

 1
SC n  SC n1  1   y n1  y n  .
 n

Otra expresión muy útil, es la Forma Bilineal , cuya expresión es dada por;
n n
X' AY    aij xi y j . . . (2.6)
i 1 j 1

Las formas cuadráticas y bilineales son escalares, que se obtienen como consecuencia
de realizar operaciones de multiplicación entre vectores y matrices; por ejemplo la
ecuación 5x1y1 + 6x1y2 - 2x2y1 + 10x2y2 , puede escribirse como;
(1) Una Forma Bilineal X'AY, en donde;
y1 y 2
 5 6  y1 
 5 6  x1 ya que (x1, x2)    = X'AY
A    2 10  y 2 
  2 10  x 2
(2) Una Forma Cuadrática Y'AY, cuando el vector X' es cambiado por Y', entonces
se tiene, 5 y12 + 6y1y2 – 2y2y1 + 10 y22 ; el cual se expresa como:

6   y1 
 y1, y2  
5
    Y ' AY
  2 10   y2 

Reduciendo los términos comunes esta forma cuadrática, también es escrito como;

59
 5 2   y1 
5 y12 + 4y1y2 + 10 y22 =  y1 , y2     
 2 10   y2 
= Y'BY
Donde puede observarse que; Y'AY = Y'BY
1
, pero la matriz B =  A  A' es simétrica. Por lo que todas las Formas
2
Cuadráticas, siempre serán expresadas como producto vectores y matrices
simétricas.

Otra propiedad de las formas cuadráticas, es que algunas son definidas positivas
(d.p); esto es, verifican la siguiente condición:
Y'AY > 0  y, excepto cuando yi = 0 (2.7)
En el ejemplo anterior puede verificarse que;
6   x1 
 y1, y2  
5
    5 y12  4 y1 y2  10 y22
  2 10   x2 

= (y1 + 3y2)2 + (y1 + y2)2 + 3y 12 > 0,


a no ser que y1, y2 son nulos, en te caso iguala a “0”,
luego, se cumple que Y'AY > 0,  yi  {R - (0,0)}

Una definición menos rigurosa se obtiene cuando la forma cuadrática iguala al valor de
"0" para algún Xi  0, en este caso se dice que Y'AY es semidefinida positivas (s.d.p)

Y'AY  0,  Y, y
Y'AY = 0, para algunos Y  0

Por ejemplo en la siguiente forma cuadrática se tiene que;


 10
 103   y1  10 2 20
 y1, y2   9
  y  y1 y2  10 y22

10
3
10   y2  9 3
2
y 
  1  y2    y1  3 y2 
2

3 
= 0; si: y1 = 3, y2 = 1, entonces Y'AY = 0

60
2.3 DISTRIBUCION DE FORMAS CUADRÁTICAS (Y'AY)
El estudio de las estructuras teóricas de los modelos estadísticos lineales, y otras
áreas de la Estadística, son realizadas, en base de las propiedades de las formas
cuadráticas Y'AY, y para iniciar se considera el caso más simple y luego los
resultados se generaliza, para otros casos más generales. Entre los principales
resultados que se buscan para las formas cuadráticas se tienen a:
 La Distribución,
 Los momentos: Esperanza Matemática, La Varianza, Covarianza y,
 La independencia.

DISTRIBUCIÓN DE FORMAS CUADRÁTICAS


El estudio de la suma de cuadrados del total, según la técnica del análisis de la
varianza, considera la descomposición en las Sumas de cuadrados atribuibles a
otras fuentes de variación, de este modo, para medir la significación de cada una de
las fuentes de variación, se requiere del cálculo de su Suma de cuadrados, a partir
de ello formular una razón entre ellas, a fin de construir un “Estadístico de
Prueba”, y finalmente decidir sobre la importancia de cada fuente de variación.
Sin embargo, esto supone conocer ó derivar la distribución de una forma cuadrática
Y'AY, el cual es abordado en base a los siguientes teoremas:

Teorema 11
Si el Vector Y sigue una normal con media “0”, y matriz Varianza la identidad,

Y~N(0,I), entonces la forma cuadrática Y'AY ~  (2r ( A)  k ) gl , si y solo si se cumple

que:
i) A es simétrica e idempotente, y
ii) r(A) = k, (A tiene rango "k")

Prueba: (Suficiencia)

61
 Si A es idempotente y de rango "k"  Y'AY~ (k
2 2
) puesto que A = A, y r(A) = k,

entonces existirá una matriz ortogonal P, tal que


I 0
P'AP =  k  : Ik: matriz idéntica (kxk), k < n
0 0  nxn

Sea
Z = P'Y  Y = PZ, luego

I 0
Y'AY = (PZ)'A(PZ) = Z'P'APZ = Z'  k Z
0 0


= Z1'  I
Z 2'  k
0  Z1 
  ; Z1(kx1); Z2(n-k)x1
0  Z 2 
0

= Z1' I k Z1  Z1' Z1
de otro lado:
E(Z) = P'E(Y) = P'U = 0
Var(Z) = E{(Z-E(Z))(Z-E(Z))'} = E{P'YY'P}=P'E(YY')P
= P'InP = In
Z ~ N(0,I), así
k
Z1' Z1   zi2 ~  (2k ) , pues zi ~ N(0,1)
i 1

 (necesario)

)  A es idempotente de rango "k".


2
si Y'AY ~ Z (k

 k2
Siendo Y'AY ~  (k
2
) entonces mY ' AY (t )  (1  2t ) ; t < 1/2 (2.8)

De otro lado como A es simétrica, entonces existirá una matriz ortogonal Q, tal que:
Q'AQ = D = diag(di,dn)
Sea W = Q'Y  Y = QW, así
n
Y'AY = (QW)'A(QW) = W'Q'AQW = W'DW = w
i 1
2
i d ii  v

Las variables w1 ~ N(0,1) y son independientes; pues Q es una matriz ortogonal.

Luego mY'AY(t) es dado por

62
 t  wi2 d ii 
n

mY'AY(t) = E(e Y'AYt


) = E(e W'DWt
) = E  e i 1 


 
n n
(t )   m w2 d (t )   (1  2td ii )  2
1
= mn
 i ii
w d i 1 i ii
i 1
i 1

Este último resultado debe ser igual a (2.7), el cual implicaría que:
"k" de los dii = 1, y "n-k" de los dii = 0, y puesto los dii son las raíces
características de A, entonces A es idempotente y de rango "k".
Ax = x, p/a x  0
A2x = (Ax) = 2x = Ax = x
 (-1)x = 0   = 0 ó =1

TEOREMA 12
Si el vector Y se distribuye como una normal con media U, y matriz varianza la
identidad( Y ~ Nn(U,I)); entonces la forma cuadrática:
1
Y'AY ~  ('2k ,  ) ;   U ' AU ,
2
Si y solo si:
A es una matriz idempotente de rango "k".
La prueba de este teorema usa los mismos pasos que el teorema 11, con la diferencia
que ahora se trata con la f.g.m de la distribución chi-cuadrada no central.

COROLARIO
Si el vector Y ~ Nn(U, 2 I); entonces la forma cuadrática:
1
Y'AY/2 ~  (' 2k , ) ;   U ' AU ,
2 2
Si y solo si:
A es una matriz idempotente de rango "k".

Resultados más generales puede formularse cuando la matriz de la varianza-covarianza,


"V" es una matriz simétrica cualquiera.

63
TEOREMA 13
Si el vector Y se distribuye normalmente con vector de medias U, y matriz varianza

covarianza “V” ( Y ~ Nn(O,V)), entonces la forma cuadrática Y'BY ~  (k


2
) , si y solo si

BV es idempotente de rango "k".

Prueba:
Siendo V definida positiva y además simétrica, entonces  una matriz Q (no
necesariamente ortogonal), tal que.
Q'VQ = I  V = (Q')-1Q-1
Sea Z = Q'Y  Z ~ Nn(O,I)
E(Z) = 0, Var(Z) = E{(Q'Y)(Y'Q)} = Q'VQ = I
y Y'BY = {(Q-1)-1Z}'B{(Q')-1Z}

= Z'Q-1B(Q')-1Z ~  (k
2
) si y solo si

Q-1B(Q')-1 es idempotente de rango "k"

el cual se cumple si y solo si BV es idempotente


 Si BV es idempotente, entonces:
BV = BVBV  B = BVB = BQ'-1 Q-1B
Luego Q-1B(Q')-1 = Q-1B(Q')-1Q-1B(Q')-1 idempotente

 Si Q-1B(Q')-1 es idempotente, entonces


Q-1B(Q')-1 = Q-1B(Q')-1Q-1B(Q')-1
Q-1B(Q')-1 = Q-1BVB(Q')-1
 B(Q')-1 = BVB(Q')-1
B(Q')-1Q-1= BVB(Q')-1Q-1
BV = BVBV

TEOREMA 14
Cuando Y ~ Nn(U,V), entonces la forma cuadrática:

64
1
Y'BY ~  ('2k ,  ) ;  U ' BU
2
si y solo si:
BV es idempotente de rango "k".

PRUEBA:
Como V es d.p y simétrica, entonces  Q (no necesariamente ortogonal tal que
Q'VQ = I  V = (Q')-1Q-1, y sea
Z = Q'Y; E(Z) = Q'U, Var(Z) = E(Q'YY'Q)
= Q'VQ = Q'(Q')-1QQ-1 = I
Z ~ Nn(Q'U, I),
Luego:
1 1
Y'BY = Z'Q-1B(Q')-1Z ~  ('2k ,  ) ,   U ' QQ1B(Q' ) 1Q' U  U ' BU
2 2
Si y solo si:
Q-1B(Q')-1 es idempotente, el cual cumple cuando BV es idempotente (Teorema 13)

Ejemplo. Prueba que si; Y ~ Nn(U,V), entonces (Y-U)'R(Y-U) ~  (k


2
).

Sea Y-U=Z, entonces E(Z)=0, y Var(Z)=V=R-1 .Luego Z ~ Nn (0;V), luego la forma

cuadrática en Z; Z'V-1Z= Z'RZ ~  (k


2 -1 2
) . Si y solo si, V V = I es idempotente, I = I.

2.4 MOMENTOS DE UNA FORMA CUADRATICA


Análogamente al caso de una variable aleatoria, en el caso de las formas cuadráticas
también se busca conocer los primeros momentos, la esperanza y la varianza, las cuales
son presentadas en las próximas subsecciones.

2.4.1 ESPERANZA DE UNA FORMA CUADRÁTICA


Cuando se estudian los estimadores, una propiedad básica, es saber sobre su esperanza
matemática, así podrá decidirse si reúne la propiedad de insesgamiento por ejemplo. Por
tanto también será muy importante definir la Esperanza de una forma cuadrática.

65
TEOREMA 15
Cuando Y ~ Nn(O, 2 I), entonces el valor esperado de una forma cuadrática
E(Y'AY) = 2 traza(A)

Prueba: Por definición



n n 

E(Y'AY) = E   yi y j aij 

 i j 

 
n 2 
= E  Yi aij    yi y j aij 
 i i j 
 i j 
n
 aii E ( yi2 )    aij E ( yi y j )
i 1 i j
i j

pero como V = 2 I, entonces:

 2 = Var(yi) = E(y i2 ) - E2(yi) = E(y i2 ); también

 0 = Cov(yi,yj) = E(yiyj) - E(yi)E(yi) = E(yj) = E(yiyj), luego

n n
E (Y ' AY )   aii 2   2  aii   2 Traza(A)
i 1 i 1

TEOREMA 16
Considerando que Y ~ Nn(O,2 I), entonces E(Y'AY) = k 2, donde A es idempotente de
rango "k".

Prueba:
Sea la transformación ortogonal;
Z = P'Y  Y = PZ, donde "P" ortogonal que diagonaliza a A
Z ~ Nn(0,2 I), entonces
I 0
Y'AY = Z'P'APZ = Z'(P'AP)Z = Z '  k Z
0 0

66
'
 Z  I 0 Z1 
=  1   k    Z1' I k Z1
 Z2   0 0 Z 2 

 
k
=  Z i2 ; Var(Zi) E Z I2 - (E(Zi))2 = 2
i 1

k k
E(Y'AY) =  E (Zi2 )    2  k 2
i 1 i 1

TEOREMA 17
Si Y ~ Nn(U,V), entonces:
E(Y'AY) = Traza (AV) + U'AU

Prueba:
Como toda forma cuadrática es un escalar, entonces;
Escalar = Y'AY = Traza (Y'AY), luego

E(Y'AY) = E {traza (Y'AY)} = E{traza(AYY')}


= traza {AE(YY')} = traza {A[V+UU']}
= traza (AV) + traza(AUU')
= traza (AV) + U'AU
donde: V = Var(Y) = E{(Y-U)(Y-U)'}
U = E(Y)

El teorema también se verifica para los casos en que la variable "Y" es no-normal.
Entre otras propiedades que caracteriza a una forma cuadrática se tiene a la covarianza y
varianza.

2.4.2 COVARIANZA DE UNA FORMA CUADRÁTICA


Para determinar las covarianzas de una forma cuadrática, se usan los siguientes
teorenmas:

TEOREMA 18
Si Y ~ N(, v), entonces Cov(Y,Y'AY) = 2VAU
67
Prueba:
Cov(Y,Y'AY) = E{(Y-U)[(Y'AY) - traza(AV) - U'AU]}
= E{(Y-U){(Y-U)'A(Y-U)+2(Y-U)'AU-traza(AV)}}
= E{(Y-U)(Y-U)'A(Y-U)}+2E{(Y-U)(Y-U)'AU}
-E{(Y-U)traza(AV)}
= 0 + 2VAU - 0 = 2VAU

TEOREMA 19
Sea Y ~ N(U,V), entonces, Cov(Y'AY,Y'BY) = 2 tr(AVBV) + 4U'ABU;
A, B matrices simétricas

Prueba:
Por la definición:
Cov(Y'AY,Y'BY) = E{[Y'BY - E(Y'AY)][Y'BY-E(Y'BY)]}
= E{[Y'AY - tr(AV) - U'AU][Y'BY - tr(BV) - U'BU]}
Sea  = Y - U; E() = 0, Var() = V;  ~ N(O,V)

Sumando y restando dentro de cada corchete los escalares 2U'AY, U'AU, 2U'BV y
U'BU respectivamente;
Cov(Y'AY,Y'BY)=E{[(Y-U)'A(Y-U)+2U'A(Y-U)-tr(AV)][(Y-U)'B(Y-U)+2U'B(Y-U)-tr(BV)]}
= E{['A + 2U'A - tr(AV)]['B + 2U'B-tr(BV)]}
= E{'A 'B} + 2U'AE{'B} - tr(AV) E{'B} + 2E{'AU'B}
+ 4E{U'AU'B} - 2tr(AV)U'BE() - tr(BV)E('A) + 2tr(BV)U'AE()
+ tr(AV) tr(BV).

Como 'A y U'B son escalares, 'AU'B = U'B'A, y U'AU'B = U'A'BU;


E('A ) = tr (AV), E('B) = tr(BV), entonces;
Cov(Y'AY,Y'BY)=E{'A'B}+2U'AE('B)+2U'BE('A)+4U'AVBU-tr(AV) tr(BV)
Ahora el termino;
n n n
 E('A'B) =     aijbkl E (ei e j ek el ) por (2.11B)
i 1 j 1 k 1 l 1

68
n n n n
     (aij jibkl lk  a ji ik bkl lj jk bkl li )
i 1 j 1 k 1 l 1

= tr(AV)tr(BV+2tr(AV BV))
n n
 E('A) =   aij E (ei e j ek )  0 = E('B),
i 1 j 1

Luego Cov(Y'AY,Y'BY) = 2tr(AVBV) + 4U'AVBU

Observación: Var(Y'AY) = 2tr(AV)2 + 4U'(VA)U

2.4.3 INDEPENDENCIA DE FORMAS CUADRÁTRICAS


Otra de las propiedades importantes en el estudio de las variables aleatorias estadísticas,
está relacionado con la independencia entre ellas; consecuentemente también será
importante estudiar sobre la independencia de formas cuadráticas;

TEOREMA 20
Sean Y ~ Nn(U, I), entonces las formas cuadráticas Y'AY e Y'BY, se distribuirán
independientemente si y solo si
AB = 0 ( o equivalentemente BA = 0)

Prueba: (suficiencia ) si AB = 0  hay independencia como AB = 0 = B'A' = BA,


pues A y B son simétricas, luego AB es simétrica y por tanto existirá una matriz
ortogonal "P" que diagonaliza a A y B;
P'AP = D1 = diagonal; P'BP = D2 = diagonal

Entonces si
AB = 0  APP'B = 0 y
I
D1.D2 = P'APP'BP = 0  D1.D2 = 0
el cual implica que D1 = 0yD2  0; D1  0, y D2 = 0, entonces el i-ésimo elemento de
D2 es "0", o ambos iguales a "0", esto es:

69
 d1 0 0  n1xn1 0 0 0
   
D1nxn 0 0 0  n2 xn2 y D2   0 d2 0 ; n1  n2  n3  n
0 0  n3 xn3 0 0 
 0  0

Además sea Z = P'Y; Z ~ Nn(P'U,I)


Luego:
n1
 Y'AY = Z'P'APZ = Z'D1Z =  dij Z 2j
j 1

n1  n2
 Y'BY = Z'P'BPZ = Z'D2Z =  d 2 j Z 2j
j  n1 1

note que Y'AY usa solo los primeros valores de Z y Y'BY, los segundos n2 elementos
(de n1+1, hasta n1+n2). No obstante, como "P" es ortogonal, todos los elementos de Z
son independientes, así Y'AY e Y'BY, son independientes.

 (necesidad) si Y'AY e Y'BY son independientes, entonces Cov(Y'AY, Y'BY) = 0,


luego desde el Teorema 19 con Y=I, se tiene que:

Cov(Y'AY, Y'BY) = E{(Y'AY - traza(A) - U'AU)(Y'BY-traza(B) - U'BU)}


= 2traza(AB) + 4U'ABU = 0
solo si AB = 0
TEOREMA 21
Si Y ~ Nn(U,V), entonces las formas cuadráticas
Y'AY e Y'BY serán independientes si y solo si
AVB = 0 (o equivalente BVA = 0)
Siendo
V. d.p. y simétrica, entonces  Q (no necesariamente ortogonal) tal que

Q'VQ = I  V=(Q')-1Q-1, y
Sea
Z = Q'Y  Y=(Q')-1Z  Z ~ Nn(Q'U,I)
Luego
70
Y'AY = Z'Q-1A(Q')-1Z, y
Y'BY = Z'Q-1B(Q')-1Z, serán independientes
Si y solo si Q-1A(Q')-1Q-1B(Q')-1 = 0  Q-1ABQ = 0
AB = 0
Teorema 20 completa la prueba

TEOREMA 22
Sea Y~Nn(U,I), las formas cuadráticas semidefinidas positivas, Y'B1Y, Y'B2Y,...,Y'BkY,
son independientes si
BiBj = 0,  i  j
TEOREMA 23
Sea Y ~ Nn(U, I), entonces las formas cuadráticas
Y'A1Y, Y'A2Y, . . . , Y'AkY, donde
Rango (Ai) = ni ; son independientes, y además

Y'AiY ~  '(2n ,   1 U ' AU ) , si y solo si


i 2

2 de las 3 condiciones siguientes son satisfechas:


1) Cada Ai es matriz idempotente
k
2)  Ai es una matriz idempotente
i 1

3) AiAj = 0, i  j.

TEOREMA 24
Si Y ~ N(U,V), entonces
Y'AY y BV son independientes si y solo si BVA = 0

Prueba:  (suficiencia)
BVA = 0  Y'AV y BY son independientes
Puesto que A es simétrica, entonces:
A = KK', donde K de rango columna completa
Luego si
BVA = 0  BVKK' = 0

71
BVKK'K(K'K)-1 = 0
BVK = 0
de otro lado
Cov(BY,Y'K) = E(BY-BU)(Y'K-U'K)
= E(B(Y-U)(Y-U)'K) = BVK = 0

así consecuentemente BY y Y'AY = Y'KK'Y son independientes.


(necesidad) si Y'AY y BY son independientes, entonces BVA = 0

Si Y'AY y BY son independientes, entonces


Cov{BY,Y'AY} = 0
E{(BY-BU)(Y'AY-E(Y'AY))}
E{B(Y-U)[Y'AY-U'AU-traza(AV)]}

Sumando y restando dentro de los corchetes

U'AU y 2U'AY, se tiene


E{B(Y-U)[(Y-U)'A(Y-U)+2(Y-U)'AU-traza(AV)]}
= E{B(Y-U)(Y-U)'A(Y-U)} + E{2B(Y-U)(Y-U)'AU} - E{B(Y-U) traza(AV)}
= 2BVAU = 0  BVA = 0

Ejemplos:
n n
1. Muestre que si Y ~ Nn(0,I), entonces  Yi , y  (Yi  Y ) 2 son idempotentes
i 1 i 1

Solución:

 Y1 
n  
 (Yi  (1,1,...,1) Y2   1' Y  Y '1 , forma lineal con B = 1'
i 1 Y 
 n

n n  Yi 2 1' Y ' (1' Y ) 1


 (Yi  Y )   Yi
2 2

n
 Y ' IY 
1'1
n = (1,1,...,1)'  1  =1'1
1 
i 1 i 1  

72
Y '11' Y
= Y'Y 
1'1
 11' 
= Y ' I  Y forma cuadrática
 1'1 

 11' 
con A  I  
 1'1 

 Yi  Y 
n n
 Yi y
2
, son independientes si y solo si
i 1 i 1

 11' 
BVA = 0  1'  I  0
 1'1 
1'11'
= 1' I - = 1'-1' = 0, por tanto
1'1
si son independientes

2. Si Y ~ N3 (0,I), y si
 2 1  1 1 1 1
1   1 
A 1 2  1 y B  1 1 1
2 1 1 2 
3 
 1 1 1

halle
a) E(Y'AY), E(Y'BY)
b) Distribución de Y'AY, y de Y'BY
c) Son Y'AY y Y'BY independientes

Solución
a) E(Y'AY) = traza (AV) + U'AU' = Traza (A)
V = I, U = 0
1 6
= (2  2  2)   2
3 3
E(Y'BY) = traza (BV) + U'BU = traza (B)
1 3
= (1  1  1)   1
3 3

73
b) Y'AY ~  (k
2
) si y solo si

A es idempotente de rango "k"

 2 1  1  2 1  1  6 3  3
1 1  1 
A  A, A    1
2 2
2  1   1 2  1    3 6  3
3
2    1 2 
9
6 
3
1 1 1  3 3

 2 1  1
3 
= 1 2  1  A
9
1 1 2 

Note que det(A) = 0, así rango(A) = 2


Luego:

Y'AY ~  (2k  2) g.l.

Y'BY ~  (2k  2) g.l. si y solo si

B es idempotente de rango (k)

1 1 1 1 1 1 3 3 3 1 1 1
1 1  1  3 
B  B  ?  1 1 1 1 1 1   3
2
3 3   1 1 1  B
3 3  9 3 3 
9 
1 1 1 1 1 1  3 1 1 1

rango (B) = 1, así

Y'BY ~  2k 1 g.l.

c) Y'AY y Y'BY son independientes si


AB = BA = 0
 2 1  1 1 1 1 0 0 0
1 1  1 
1 2  1 1 1 1   0 0 0  0
3
2  1 1 1
9
0 
3
1 1 0 0
si son independientes

74
2.4.4 DISTRIBUCIÓN DE VARIABLES NORMALES SINGULARES
En muchas situaciones se tendrá el problema de singularidad de la matriz de
variancia-covariancia V; en este caso se dice que:

Y ~ NS{U,V}, V: semidefinida positiva.

en consecuencia la distribución de Y será degenerada, esto es, no puede ser definida


en el espacio IRn .
Sin embargo, siendo V semidefinida positiva,entonces existe una matriz Bnxn no
singular tal que:
I 0
BVB '   r  ; rango(V) = r < n
0 0

 D2 0 
si B es ortogonal BVB' =  r
 0 0 

Dr: diagonal
Luego sea la transformación
X   v1 
BY  X   1  ; donde E(X) = B = v =   ;
 X2   v2 
Var(X) = BB'

y como X2 tiene variancia "0", entonces X2 = v2 con probabilidad 1, también sea la


partición:
X 
B-1 = C D  1   CX 1  DX 2 ; esto es,
 X2 
Y = CX1 + Dv2 con probabilidad 1 ó
Y = CZ + 
Si Z ~ Nr(v,T)  Y ~ Nn{, V}
Con Cv +  =  , y V = CTC'
Si n > r entonces V es singular y no tiene inversa
Luego
Y ~ SN{U,V}

75
Definición:
Un vector aleatorio Y ~ N{, V}, si existe una transformación Y = LZ + ; Lnxk, rango
(L) = k, y Z tiene una distribución normal no singular;

 12 ( z  )'T 1 ( z  )
f(z) = K e

observe que para L = I y  = 0, se obtiene Y = Z, también el vector Y puede expresarse


como:
Y = LZ +  ; Z ~ Nk(O,Ik); v = LL'

MY'AY(t) = M(LZ+)'A(LZ+)(t) = E(et(LZ+)'A(LZ+))

  {tZ ' L' ALZ  1 Z ' Z  2tALZ  t ' A}


 2  2  ... e
k
2 dz1,..., dzk
 

 12 {t ' A  2t 2  ' AL( I  2tL' AL) 1 L' A}


 I  2TL' AL e
TEOREMA 25
Cuando Y ~NS(,V); entonces
i) E(Y'AY) = traza (AV) + 'A;
ii) Cov(Y,Y'AY) = 2VA

TEOREMA 26
Cuando Y ~ Ns(, V), la forma Y'AY+m'x + d tiene una distribución '2 -no central con
traza (AV)=K grados de libertad y parámetro de no centralidad;

 = A   1
2
'
m V ( A  1
2
m); si y solo si;

i) VAVAV = VAV,

ii) A  12 m'V  A  12 m'VAV , y

iii) 
'A + m' + d = A  1
2
' 
m V A  1
2
m 

76
COROLARIO
Si Y ~ N(,V), siendo V singular o no singular, pero m = 0, d=0; entonces Y'AY sigue

una distribución  '2traza( AV ); 1  ' A ; si y solo si


2

i) VAVAV = VAV;
ii) 'AV = 'AVAV;
iii) 'A = 'AVA

COROLARIO
Para m = 0, d = 0,  = 0, y Y ~ N(,V); con V singular o no singular; entonces

Y'AY ~  2traza( AV ) si y solo si; VAVAV = VAV.

TEOREMA 27
Si Y ~ NS(,V) ; las formas cuadráticas Y'AY y Y'BY son independientes, si y solo
si VAVBV = 0;
VAVB = VBVA = 0;
'AVB = 0

77

You might also like