You are on page 1of 26

Captulo 1

1.

Captulo 2

Principales distribuciones
n-dimensionales
2.1.

Introduccin

En este tema se estudian generalizaciones multidimensionales de dos distribuciones


unidimensionales, la binomial y la normal.
La distribucin del nmero de xitos en n pruebas de Bernoulli repetidas es binomial.
Se clasica el resultado de cada repeticin en una de las dos clases xitoo fracaso. La
distribucin multinomial, apartado 2.2, la generaliza considerando mas de dos clases.
La distribucin normal n-dimensional (bidimensional para n = 2) es una generalizacin
de la normal unidimensional. Es una distribucin muy usada y tiene propiedades que la
hacen muy manejable. Por ejemplo, como en el caso unidimensional, se tiene que transformaciones lineales de v.a. normales son v.a. normales. Todas las distribuciones marginales
son normales. Las componentes son independientes si y solo si son incorreladas.
En el apartado 2.3 estudiamos el caso bidimensional (n = 2), y en el apartado 2.4 el
caso n-dimensional en general (n

1).

Usaremos notacin matricial para el caso general. Es una herramienta potente que permite expresiones y demostraciones sencillas; por ejemplo, la funcin de densidad tiene una
expresin muy parecida a la del caso unidimensional, pero sustituyendo algunos elemen1

2. Principales distribuciones n-dimensionales

tos numricos por vectores y matrices. Podramos prescindir del apartado 2.3 (excepto lo
referido a distribuciones condicionadas), donde se estudia el caso n = 2, puesto que lo all
estudiado se puede obtener como caso particular de lo estudiado en el apartado 2.4. Sin
embargo, conviene explicar este caso utilizando tambin la notacin extendida, que es la
que hemos utilizado para todas las distribuciones bidimensionales que hemos considerado,
escribiendo por ejemplo la funcin de densidad como f (x; y) en vez de f (z), con z = (x; y).

2.2.
2.2.1.

Distribucin multinomial
Introduccin: la distribucin binomial

Consideremos un experimento aleatorio compuesto consistente en n repeticiones independientes de un experimento aleatorio bsico. Por ejemplo, se lanza n = 15 veces una
moneda o, se conectan, en funcionamiento continuo hasta que se estropean, n = 10 resistencias elctricas producidas por una mquina.
Consideremos un suceso A referido al experimento aleatorio bsico. Por ejemplo, obtener cara, en el lanzamiento de moneda, o, durar ms de 400 horas, en el ejemplo de la
conexin hasta el fallo de las resistencias.
Las v.a. nmero de caras, en el primer ejemplo, y nmero de resistencias que duran
ms de 400 horas, en el segundo ejemplo, tienen distribucin binomial B (n; p), siendo n
el nmero de repeticiones y p = P (A). La funcin de masa de X
P fX = xg =

n x
p (1
x

p)n

B (n; p) viene dada por

si x = 0; : : : ; n .

(2.1)

En el primer ejemplo hay solo dos resultados posibles, cara y cruz. El suceso A es
obtener cara. En el segundo ejemplo, el suceso A es durar ms de 400 horas. Aunque
podemos observar el valor exacto de la duracin, solo estamos interesados aqu en si ha
ocurrido A o no. De esta forma, clasicamos los resultados en dos clases, A y Ac , y llegamos
as a una situacin anloga a la del primer ejemplo, con solo dos resultados posibles.
Estas clases son exhaustivas (cubren todos los casos posibles), y mutuamente excluyentes (ningun caso est en ms de una clase a la vez). Utilizando terminologa de
2

2.2 Distribucin multinomial

probabilidad decimos que las clases son sucesos incompatibles cuya unin es el suceso seguro, y si utilizamos terminologa de teora de conjuntos decimos que las clases son una
particin del espacio muestral.
La v.a. que consideramos, X, es el nmero de veces que ocurre A, o dicho de otro modo,
el recuento del nmero de observaciones en la clase A. Obsrvese que si se obtiene X = x,
entonces el nmero de observaciones en la clase Ac es n
Consideramos ahora k

x.

2 clases en general y estudiamos la distribucin del vector

aleatorio con el recuento del nmero de observaciones en cada clase.

2.2.2.

La distribucin multinomial

Una v.a. k-dimensional X = (X1 ; : : : ; Xk ) tiene distribucin multinomial con parmetros n, natural, y p1 ; : : :; pk

0 con p1 +
X

+ pk = 1 , y se denota por

mult(n; p1 ; : : : ; pk ) ,

(2.2)

si es discreta con funcin de masa


P fX1 = n1 ; : : : ; Xk = nk g =
si n1 ; : : : ; nk
Obsrvese que X1 +

n!
n1 !

nk !

pn1 1

0 son enteros con n1 +

pnk k

(2.3)

+ nk = n.

(2.4)

+ Xk = n.

Consideremos un experimento aleatorio bsico. Sea k

2 y supongamos que se clasica

el resultado del experimento, segn corresponda, en una de k clases A1 ; : : : ; Ak , exhaustivas


y mutuamente excluyentes, con probabilidades p1 ; : : : ; pk

0 con p1 +

+ pk = 1. Se

llevan a cabo n repeticiones independientes del experimento y se contabiliza el nmero de


observaciones en cada clase considerando la v.a. X = (X1 ; : : : ; Xk ), siendo Xi el nmero
de observaciones en Ai . Se tiene que X

mult(n; p1 ; : : : ; pk ).

Ejemplo 1. Consideremos una urna U (3b; 5n; 2r), esto es, con tres bolas blancas, cinco
negras y dos rojas. Se extraen siete bolas al azar con reemplazamiento.
a) Calcula la probabilidad de que dos sean blancas, cuatro negras y la otra roja.
b) Calcula la probabilidad de que tres sean blancas, dos negras y dos rojas.
3

2. Principales distribuciones n-dimensionales

Solucin: Sea X el nmero de bolas blancas, Y el nmero de negras y Z el de


rojas ( X1 ; X2 ; X3 , como queramos). La probabilidad de que la bola sea blanca en una
extraccin vale 3=10, la probabilidad de que sea negra vale 5=10, y la de roja 2=10. Por
tanto (X; Y )

mult (7; 00 3; 00 5; 00 2).

a) La probabilidad pedida vale


P fX = 2; Y = 4; Z = 1g =

7! 0 2 0 4 0 1
0 3 0 5 0 2 = 00 118 .
2!4!1!

(2.5)

7! 0 3 0 2 0 2
0 3 0 5 0 2 = 00 0567 .
3!2!2!

(2.6)

b) La probabilidad pedida vale


P fX = 3; Y = 2; Z = 2g =

Puesto que X1 +

+ Xk = n se tiene que
Xk = n

X1

Xk

(2.7)

En algunas ocasiones resulta conveniente considerar (X1 ; : : : ; Xk

1)

en vez de (X1 ; : : : ; Xk ).

Esta expresin abreviada no supone prdida de informacin, puesto que podemos recuperar
Xk mediante (2.7). Se suele escribir
(X1 ; : : : ; Xk
con parmetros p1 ; : : : ; pk
k

1)

mult (n; p1 ; : : : ; pk

0 y p1 +

+ pk

1 primeras clases son los parmetros p1 ; : : : ; pk

pk = 1

p1

pk

1,

1)

(2.8)

< 1 . Las probabilidades de las

y la probabilidad de la clase k vale

1.

La distribucin binomial B(n; p) es justamente la distribucin multinomial mult(n; p)


expresada de esta manera, con k = 2 clases (exito y fracaso, o cualquier otra clasicacin
con dos opciones).
Ejercicio 2. Consideremos Z

B(n; p) y T

mult (n; p), con 0 < p < 1. Comprueba

que la funcin de masa de Z y la de T coinciden, y por tanto Z

T.

Solucin: Para z = 0; : : : ; n se tiene, por (2.1), que


P fZ = zg =

n z
p (1
z

p)n

n!
pz (1
z! (n z)!

p)n

(2.9)

2.2 Distribucin multinomial

Puesto que el parmetro p en mult (n; p) es un nico valor numrico p < 1, entonces se est
utilizando la expresin dada en (2.8) con k = 2 clases. El vector (X1 ; : : : ; Xk

1)

en (2.8)

se reduce a la v.a. unidimensional X1 = T . Las probabilidades de las clases son p1 = p y


p2 = 1

p, y por (2.3) se tiene (con X2 = n

X1 )

P fT = zg = P fX1 = zg = P fX1 = z; X2 = n
=

n!
pz (1
z! (n z)!

para z = 0; : : : ; n, y por tanto Z

p)n

zg =

n!
pz pn
z! (n z)! 1 2

(2.10)

= P fZ = zg

(2.11)

T.

La frmula de Leibnitz
(a1 +

+ ak )n =

n1 ;:::;nk

n!
n1 !

nk !

siendo el sumatorio la suma para todos los n1 ; : : : ; nk

ank k ,

an1 1

0 enteros con n1 +

(2.12)
+ nk = n,

es una generalizacin de la frmula del binomio de Newton (k = 2). Mediante su uso se


comprueba por ejemplo que la funcin de masa dada en (2.3) y (2.4) suma 1, y por tanto
es, efectivamente, una funcin de masa.
En el estudio de distribuciones marginales conviene considerar (X1 ; : : : ; Xk

1)

(expre-

sin abreviada) en vez de (X1 ; : : : ; Xk ). Mediante la frmula (2.12) se obtiene la funcin


caracterstica (f.c.) de (X1 ; : : : ; Xk
'(t1 ; : : : ; tk

1)

1 ),

que es

= (p1 eit1 +

Teniendo en cuenta que '(t1 ; : : : ; tk

1)

+ pk

= E[ei(t1 X1 +

itk
1e
+tk

+ pk )n

1 Xk 1 )

de las distribuciones marginales se obtienen a partir '(t1 ; : : : ; tk

(2.13)

], se observa que las f.c.


1)

haciendo nulos los ar-

gumentos correspondientes a las componentes que se quieren eliminar. Realizando esta


operacin en la f.c. (2.13), se observa que las f.c. marginales vuelven a ser del tipo (2.13),
con k reducido segn el nmero de componentes eliminado. Por tanto, todas las distribuciones marginales son multinomiales. Los parmetros correspondientes a componentes no
eliminadas conservan su valor, y los parmetros correspondientes a componentes eliminadas
se eliminan.
5

2. Principales distribuciones n-dimensionales

Ejemplo 3. Consideremos una urna U (1b; 2v; 3a; 4r), esto es, con una bola blanca, dos
verdes, tres azules y cuatro rojas. Se extraen n bolas al azar con reemplazamiento. Sean
X1 , X2 y X3 el nmero de bolas blancas, verdes y azules (el de rojas es n
Se tiene que (X1 ; X2 ; X3 )

X1

X2

X3 ).

mult (n; 00 1; 00 2; 00 3). Obsrvese que corresponde a la expre-

sin en forma abreviada, puesto que no hemos incluido el nmero de rojas, X4 , lo que se
traduce en que 00 1 + 00 2 + 00 3 < 1.
mult (n; 00 1) (que es la B (n; 00 1)), X2

Las distribuciones marginales son: X1


X3

mult (n; 00 3) ,

(X2 ; X3 )

(X1 ; X2 )

mult (n; 00 1; 00 2) ,

(X1 ; X3 )

mult (n; 00 2),

mult (n; 00 1; 00 3)

mult (n; 00 2; 00 3) .

Se tiene que Xj

mult (n; pj ), y esta distribucin es una B (n; pj ), por el resultado del

ejercicio 2. Entonces, se tiene que


E[Xj ] = npj

V [Xj ] = npj (1

pj ) .

Las covarianzas se pueden obtener a partir de la f.c.. Se tiene que (Xj ; Xl )

mult (n; pj ; pl ),

y su f.c. es
'j;l (tj ; tl ) = (pj eitj + pl eitl + 1

pl )n .

pj

(2.14)

Por tanto
E [Xj Xl ] =

1 d2 'j;l (tj ; tl )
i2
dtj dtl

= n(n

1)pj pl ,

(2.15)

tj ;tl =0

y entonces
Cov(Xj ; Xl ) = E [Xj Xl ]

E [Xj ] E [Xl ] =

npj pl para j 6= l.

(2.16)

El coeciente de correlacin vale


(Xi ; Xj ) =

(1

pi pj
pi )(1

pj )

para i 6= j.

(2.17)

Ejemplo 4. Consideremos una urna U (3b; 5n; 2r). Se extraen siete bolas al azar con reemplazamiento.
a) Calcula la probabilidad de que dos sean blancas, cuatro negras y la otra roja.
6

2.2 Distribucin multinomial

b) Calcula la probabilidad de que dos sean blancas, y el resto de otro color.


c) Calcula la probabilidad de que dos sean blancas sabiendo que tres son negras.
d) Determina el nmero esperado de bolas blancas y la varianza.
e) Determina la covarianza y el coeciente de correlacin entre el nmero de bolas
blancas y negras.
Solucin: Utilizamos la notacin abreviada. Sea X el nmero de bolas blancas e
Y el nmero de negras. La probabilidad de que la bola sea blanca en una extraccin vale
3=10, y la de que sea negra vale 5=10, y por tanto (X; Y )
eY

mult (7; 00 3; 00 5), X

B(7; 00 3)

B(7; 00 5).
a) Es el ejemplo 1a. Se vuelve a resolver ahora para poder apreciar cmo se expresa el

problema con la expresin abreviada, utilizando (X; Y ) en vez de (X; Y; Z) (comprese la


resolucin del ejemplo 1a con sta). La probabilidad pedida vale
7!
00 32 00 54 (1 00 3
2!4!(7 2 4)!
7! 0 2 0 4 0 1
0 3 0 5 0 2 = 00 118 .
=
2!4!1!

P fX = 2; Y = 4g =

00 5)7

2 4

(2.18)
(2.19)

b) La probabilidad pedida vale


P fX = 2g =

7!
00 32 (1
2!(7 2)!

00 3)7

= 00 318 .

(2.20)

c) Se obtiene
7! 0 2 0 3 0 2
03 05 02
P fX = 2; Y = 3g
P fX = 2=Y = 3g =
= 2!3!2!
= 00 346 .
7! 0 3 0 4
P fY = 3g
05 05
3!4!

(2.21)

d) Se tiene que
E[X] = 7 00 3 = 20 1 y V [X] = 7 00 3 (1
e) Puesto que (X; Y )

00 3) = 10 47 .

(2.22)

mult (7; 00 3; 00 5), se tiene por (2.16) y (2.17) que

Cov(X; Y ) =
(X; Y ) =

7 00 3 00 5 = 10 05 , y
s
00 3 00 5
=
(1 00 3)(1 00 5)

(2.23)
00 655 .

(2.24)

2. Principales distribuciones n-dimensionales

Ejemplo 5. Una mquina produce tornillos cuya longitud se distribuye segn una N ( ; ),
con

= 20 5 y

= 00 02 (en mm). Un tornillo es rechazado por pequeo si mide menos de

20 45 mm, es aceptado como bueno si mide entre 20 45 y 20 55 mm, y es rechazado por grande
si mide mas de 20 55 mm. Para un lote de 100 tornillos, determina:
a) Probabilidad de que 2 tornillos sean pequeos, 95 buenos, y 3 grandes.
b) Probabilidad de que 95 sean buenos, y el resto sean rechazados.
c) Probabilidad de que 2 sean pequeos sabiendo que 3 son grandes.
d) Determina el nmero esperado de tornillos buenos y la desviacin tpica.
e) Determina la covarianza y el coeciente de correlacin entre el nmero de tornillos
pequeos y grandes.
Solucin: Tenemos k = 3 clases, correspondientes a tornillos pequeos, buenos y
grandes. En primer lugar, calculamos las probabilidades de las clases:
p1 = P N ( ; ) < 20 45 = P
= P N (0; 1) <

N (0; 1) <

20 45

20 5 = P N (0; 1) > 20 5 = 00 00621 ,

p3 = P N ( ; ) > 20 55 = P

N (0; 1) >

20 55

(2.25)
(2.26)
(2.27)

= P N (0; 1) > 20 5 = 00 00621 , y

(2.28)

p3 = 00 988 .

(2.29)

p2 = 1

p1

Sea X el nmero de tornillos pequeos, Y el nmero de buenos, y Z el nmero de grandes.


Se tiene que (X; Y; Z)

mult (100; p1 ; p2 ; p3 ).

a) Se tiene que
P fX = 2; Y = 95; Z = 3g =
b) Se tiene que Y

(2.30)

B (100; p2 ), y entonces

P fY = 95g =
c) Se tiene que Z

100! 2 95 3
p p p = 00 00221 .
2!95!3! 1 2 3

100 95
p (1
95 2

p2 )100

95

= 00 00595 .

(2.31)

B (100; p3 ), y entonces

100! 2 100 2 3 3
p1 p2
p3
P fX = 2; Z = 3g
P fX = 2=Z = 3g =
= 2!95!3!
= 00 104 .
100! 3
P fZ = 3g
100 97
p (1 p3 )
3!97! 3
8

(2.32)

2.2 Distribucin multinomial

(El numerador es el mismo que en el apartado a).


d) Se tiene que
E[Y ] = E[B (100; p2 )] = 100 p2 = 980 8 y
p2 ) = 10 19 ,

V [Y ] = V [B (100; p2 )] = 100 p2 (1
y por tanto

(2.33)
(2.34)

p
V [Y ] = 10 09.

e) Puesto que (X; Z)

mult (100; p1 ; p3 ), se tiene por (2.16) y (2.17) que

Cov(X; Y ) =
(X; Y ) =

100p1 p3 = 00 00386 , y
r
p1 p3
= 00 00625 .
(1 p1 )(1 p3 )

Ejemplo 6. Consideremos (X; Y )

(2.35)
(2.36)

mult (n; p1 ; p2 ) con p1 + p2 < 1 (por tanto con k = 3

clases). Determina la distribucin condicionada de (Y =X = x).


Solucin: Se tiene que X

B (n; p1 ), y por tanto, para x = 0; 1; : : : ; n,


P fX = x; Y = yg
P fX = xg
n!
px1 py2 (1
x!y!(n x y)!
=
n!
px (1
x!(n x)! 1

P fY = y=X = xg =

(2.37)
p2 )n

p1

x y

.
p1

(2.38)

)n x

El numerador P fX = x; Y = yg en (2.37) toma el valor dado en (2.38) solo cuando y


x+y

0,

n, y es nulo en otro caso. Entonces, el soporte de la distribucin de (Y =X = x)

(con x jo) viene dado por 0

x, con y entero, esto es, y = 0; 1; : : : ; n

x.

Comprobamos a continuacin que la funcin de masa P fY = y=X = xg dada por (2.38)


corresponde a una distribucin binomial. Simplicando (2.38) se obtiene
1
py2 (1 p1 p2 )n
y!(n x y)!
P fY = y=X = xg =
1
(1 p1 )y (1 p1 )n x
(n x)!
=

x
y

p2
1 p1
9

p1
1

x y

(2.39)
y

p2
p1

n x y

(2.40)

2. Principales distribuciones n-dimensionales


n
Entonces, P fY = y=X = xg = P B n
(Y =X = x)

x; 1 p2p1
B n

Del mismo modo se obtiene (X=Y = y)

=y

x;

B n

si y = 0; 1; : : : ; n

p2
p1

x. Por tanto

(2.41)

y; 1 p1p2

, lo que permite resolver el

ejemplo 4c de la siguiente manera:


n
P fX = 2=Y = 3g = P B n

o
= 2 = P B 4; 35 = 2

3; 1 p1p2

4!
=
2!(4 2)!

3
5

3
5

(2.42)

4 2

= 00 346 .

(2.43)

Resuelve tambin de esta manera el ejemplo 5c.

Ejercicio 7. Calcula E [Xj Xl ] para (Xj ; Xl )

mult (n; pj ; pl ), con pj + pl < 1,

a) de un modo directo, a partir de la funcin de masa conjunta,


b) mediante el uso de la esperanza condicionada, utilizando los momentos de las distribuciones marginal y condicionada para (Xj ; Xl ).
Solucin: Denotamos (Xj ; Xl ) por (Y; Z), para evitar tener que escribir repetidamente los subndices.
a) Se tiene que
X

E [Xj Xl ] = E [Y Z] =

y;z 0 enteros con y+z n

=0+

y;z 1, y+z n

y;z 1, y+z n

= pj pl

(2.44)

yz P fY = y; Z = zg

(2.45)

yz P fmult (n; pj ; pl ) = (y; z)g


yz

y;z 1, y+z n

yz P fY = y; Z = zg

n!
y!z! (n

y;z 1, y+z n

(y

y
1)! (z

z)!

pyj pzl (1

n!
1)! (n

Expresando la suma en trminos de y 0 = y

pj

z)!

(2.46)
pl )n
pyj

y z

1 z 1
pl (1

(2.47)
pj

pl )n

y z

1 (y por tanto, y = y 0 + 1) y z 0 = z
10

1 se

2.3 Distribucin normal bidimensional

obtiene
E [Xj Xl ] = pj pl n (n

1)

(n

y 0 ;z 0 0, y 0 +z 0 n 2

= n (n

y 0 !z 0 ! (n

1) pj pl

2)!
2 y0

0
0
pyj pzl
0
z )!

(1

pl )n

pj

2; pj ; pl ) = y 0 ; z 0

P mult (n

2 y0 z0

(2.48)

y 0 ;z 0 0, y 0 +z 0 n 2

= n (n

1) pj pl .

b) Se tiene que Y

(2.49)

B (n; pj ) y entonces E[Y ] = npj y V [Y ] = npj (1

que E[Y 2 ] = V [Y ] + E[Y ]2 . Por el ejemplo 6 se tiene que (Z=Y = y)

E [Xj Xl ] = E [Y Z] = E [E [Y Z=Y ]] = E [Y E [Z=Y ]] = E Y (n

=
=
=

pl
1

pj

1
1

pj

n npj

npl
(npj (1
1 pj

= n (n

2.3.

n npj

pj
pl

Y2 =

E nY

pl

B n

y; 1 plpj

y) 1 plpj . Se tiene que

y entonces E [Z=Y = y] = (n

pj ). Recurdese

pl
1

(npj (1
(pj (1

pj ))

pj )

(pj (1

pl
1

pj

E Y2

nE [Y ]

pj

Y)

(2.50)
(2.51)

pj )) + (npj )2

(2.52)

np2j

(2.53)

pj ))) =

npl
(n
1 pj

1) pj (1

pj )

1) pj pl .

(2.54)
(2.55)

Distribucin normal bidimensional

Una v.a. bidimensional (X; Y ) tiene distribucin normal bidimensional con parmetros
1;

2;

1;

y , denotado por
(X; Y )

N(

1;

2;

1;

2;

) ,

(2.56)

si es continua con funcin de densidad


f (x; y) =
con

Q(x; y) =

1 2

1
p

1
1

1
"

exp f Q(x; y)=2g si

1
1

11

1 < x; y < 1 ,

2
2

2
2

(2.57)
,

(2.58)

2. Principales distribuciones n-dimensionales

siendo los parmetros

1;

reales,

Es sabido que los parmetros

1;

> 0 y j j < 1.

de una normal unidimensional N ( ; ) son la media

y la desviacin tpica. En la siguiente proposicin se obtiene, entre otras propiedades, que


tambin los parmetros

1;

2;

1;

2;

que intervienen en (2.57) y (2.58) son justamente

lo que indican (medias, desviaciones tpicas y coeciente de correlacin).


Proposicin 8. La funcin f dada en (2.57) y (2.58) es, efectivamente, una funcin de
densidad. Las distribuciones marginales y condicionadas son:
X

N(

1;

1)

N(

2;

2)

x;

(Y =X = x)
(X=Y = y)

y;

(2.59)

,
p

(2.60)
2

con

(x

1)

,y

(2.61)

(y

2)

(2.62)

1
2

con

Adems, se tiene que los valores de los parmetros

1,

2,

1,

son, tal como indica

su notacin, justamente las medias, desviaciones tpicas y el coeciente de correlacin.


Demostracin. Demostramos (2.59) y (2.61) obteniendo una expresin de f de la forma
f (x; y) = g(x)hx (y), siendo g(x) y hx (y) densidades normales, que resultan ser las densidades de X y de (Y =X = x). La demostracin de (2.60) y (2.62) es la misma, pero
intercambiando X e Y . A partir de (2.59) y (2.60) se obtiene que

1,

2,

son las

medias y las desviaciones tpicas. Obtendremos al coeciente de correlacin mediante el


uso de la esperanza condicionada.
Teniendo en cuenta que
1
2
2

2+

(x

1)

= (1

)Q(x; y)
"
2

(1

) Q(x; y)

x
1

12

1
2

(2.63)

1
2

= (1

(2.64)

1
#
2

(2.65)
,

(2.66)

2.3 Distribucin normal bidimensional

se obtiene
Q(x; y) =

2) 2
2

(1

1 2

que f (x; y) se puede expresar como


f (x; y) = g(x)hx (y) , con
(
1
1
exp
g(x) = p
2
2 1
hx (y) = p

(x

1)

Teniendo en cuenta tambin que 2

1
p

(2.67)

p
1

obtenemos

(2.68)
x

exp

1
2) 2
2

2(1

(x

1)

Obsrvese que g(x) es la funcin de densidad de una N ( 1 ; 1 ) y hx (y) es la funcin de


p
2 . A partir de este hecho la proposicin se demuestra
densidad de una N x ; 2 1

de un modo sencillo.
R
R
Se tiene que g(x)dx = 1 y hx (y)dy = 1, puesto que g(x) y hx (y) son funciones de

densidad. De aqu se obtiene


Z

1
1

f (x; y)dydx =

1
1
1
1

g(x)hx (y)dydx
Z 1
Z
g(x)
hx (y)dy dx =
1

(2.69)
1

g(x)dx = 1 ,

(2.70)

hx (y)dy = g(x) ,

(2.71)

y por tanto f es una funcin de densidad, y se tiene que


f1 (x) =
y por tanto X

f (x; y)dy =

N(

1;

1 ).

g(x)hx (y)dy = g(x)

1
1

Adems,
f (x; y)
g(x)hx (y)
=
= hx (y) ,
f1 (x)
f1 (x)
p
2 .
x; 2 1

f (y=x) =
y por tanto (Y =X = x)

(2.72)

La distribucin de Y y la de (X=Y = y) se obtienen intercambiando X e Y en la demostracin.


Puesto que X
V [Y ] =

N(

1;

1)

eY

N(

2;

2)

se tiene que EX =

1,

V [X] =

2
1,

EY =

2,

2
2.

Llamemos provisionalmente c al parmetro

incluido en (2.57) y (2.58), y sea

el coe-

ciente de correlacin (como siempre). Comprobamos que c = , y por tanto a partir de


13

2. Principales distribuciones n-dimensionales

aqu queda justicado que llamemos

a este parmetro, puesto que es, efectivamente, el

coeciente de correlacin. Se tiene que


E [XY ] = E [E [XY =X]] = E [XE [Y =X]] = E [X
=E X

+c

(X

1)

=E

X]

2X

(2.73)
2

+c

2E

[X] + c

E X2

1X

2E

[X] + c

2E

[X] + c

(X

1) X

(2.74)

E X2

1E

[X]

(2.75)

V [X] + E [X]2

1E

[X]

1 2

+c

(2.76)

2 1

+c

2
1

2
1

2 1

(2.77)

y de aqu se obtiene
Cov (X; Y ) = E [XY ]
=

E [X] E [Y ] =

Cov (X; Y )

1 2

+c

2 1

1 2

=c

2 1

,y

=c,

(2.78)
(2.79)

1 2

como queramos demostrar.


Ejemplo 9. Sea (X; Y )

N (3; 1; 4; 6; 1=2). Determina las distribuciones marginales y

condicionadas.
Solucin: Por (2.59) y (2.60), las distribuciones marginales son X
Y

N (3; 4) e

N ( 1; 6).
Se tiene que

16
2 4 (x

3) =

3
4x

5
4

(2.61),
(Y =X = x)

3
4x

p
+ 54 ; 3 3

Del mismo modo se obtiene, por (2.62), que (X=Y = y)

p
= 3 3 , y entonces, por

.
N

(2.80)
1
3y

p
+ 83 ; 2 3 .

Ejemplo 10. En un estudio botnico se consideran las plantas de un ao de edad de


cierta especie vegetal, cultivadas en condiciones controladas (en un vivero). La distribucin
conjunta de la altura de la planta (en cm), X, y el dimetro del tronco (en mm), Y , es
N (27; 12; 2; 1; 00 9).
a) Calcula la probabilidad de que una planta mida ms de 30 cm.
14

2.3 Distribucin normal bidimensional

b) Calcula la probabilidad de que una planta con un dimetro de 15 mm mida ms de


30 cm.
c) Calcula P fX > 3Y

7g.

Solucin:
a) Se tiene que X

N (27; 2). Como es sabido, una variable normal unidimensional

tipicada es (se distribuye como una) N (0; 1), y entonces


X

27
2

N (0; 1) .

(2.81)

De aqu se obtiene
P fX > 30g = P

27
2

>

30

27
2

= P N (0; 1) > 10 5

(2.82)

Buscando en las tablas de la N (0; 1) se obtiene P fX > 30g = 00 0668.


b) Realizando los clculos se obtiene

y=15

= 320 4 y

N (320 4; 00 8718). Por tanto,

se tiene que (X=Y = 15)

X 320 4
00 8718

= 00 8718 , y entonces

= Y = 15

N (0; 1) y

la probabilidad pedida vale:


P fX > 30=Y = 15g = P

X 320 4
30 320 4
> 0
0
0 8718
0 8718

= P N (0; 1) >
=1
c) Se tiene que P fX > 3Y

Y = 15

(2.83)

20 75 = P N (0; 1) < 20 75

P N (0; 1) > 20 75 = 1

00 00298 = 00 99702 .

7g = P fZ > 0g, con Z = X

(2.84)
(2.85)

3Y + 7. Por el ejercicio

12 y la proposicin 13d, en el apartado 2.4, se tiene que transformaciones lineales de v.a.


normales son v.a. normales, y por tanto Z es normal. Calculamos los parmetros. Se tiene
que
EZ = E [X

3Y + 7] = EX

V Z = V [X

3Y + 7] = V [X] + ( 3)2 V [Y ] + 2( 3)Cov (X; Y )

= 22 + 9 12

3EY + 7 =

6 00 9 2 1 = 20 2 .
15

2,y

(2.86)
(2.87)
(2.88)

2. Principales distribuciones n-dimensionales

Por tanto Z

p
2; 20 2 . De aqu se obtiene

P fX > 3Y

( 2)
0 ( 2)
> p
0
22
20 2
o
n
p
= P N (0; 1) > 2= 20 2 = P N (0; 1) > 10 35

7g = P fZ > 0g = P

Buscando en las tablas de la N (0; 1) se obtiene P fX > 3Y

La funcin caracterstica (f.c.) de (X; Y )


'(t; u) = E[ei(tX+uY ) ] = exp i(t

N(

+u

1;

1
2

2)

2;

2 2
1t

(2.89)
.

(2.90)

7g = 00 0885 .

1;

2;

) es

1
2

2 2
2u

1 2 tu

(2.91)

Es sabido que variables independientes son incorreladas, pero el recproco no es cierto


en general. Sin embargo, para v.a. normales el recproco s se cumple:
Proposicin 11. Si (X; Y ) es normal y
Demostracin. Sea (X; Y )

N(

1;

2;

= 0 se tiene que X e Y son independientes.


1;

2 ; 0).

de densidad de (X; Y ), en (2.57) y (2.58) con

Es inmediato comprobar que la funcin

= 0, se expresa como un producto de una

funcin de x por una funcin de y. Adems, el soporte de (X; Y ) es el producto cartesiano


R2 = R

R, y por tanto X e Y son independientes.

Tambin se puede demostrar mediante la funcin caracterstica: es inmediato comprobar


que '(t; u) = '1 (t)'2 (u).

2.4.

Distribucin normal n dimensional

Denotamos la traspuesta de una matriz mediante el smbolo 0 aadido al nombre


de la matriz: M y M 0 por ejemplo. sto tambin se aplica a vectores, de modo que, por
ejemplo, (5; 3)0 =

5
3

es el vector columna traspuesto del vector la (5; 3).

Tngase en cuenta que el producto escalar de dos vectores se puede expresar como un
producto de matrices, considerando los vectores como matrices (con una sola la o una sola
columna): los vectores columna u = (u1 ; : : : ; un )0 y v = (v1 ; : : : ; vn )0 son matrices n
16

1,

2.4 Distribucin normal n dimensional

y el producto de matrices u0 v = v0 u =

Pn

i=1 ui vi

es una matriz 1

1, un nmero, que es

justamente el producto escalar de u por v.


Sea

= (

1; : : : ;

0
n)

2 Rn y

una matriz n

n simtrica denida positiva. Una

v.a. X = (X1 ; : : : ; Xn )0 (conviene expresarla as, como vector columna) tiene distribucin
normal n-dimensional, multidimensional, o multivariante, con parmetros

y , denotado

por
X

N( ; ) ,

(2.92)

si es continua con funcin de densidad


1
f (x) = p
exp
(2 )n j j

1
(x
2

)0

(x

(2.93)

si x = (x1 ; : : : ; xn )0 2 Rn .

El hecho de que

sea denida positiva determina que

invertible, y que (x

)0

1 (x

(2.94)
es no singular, y por tanto

) > 0 para x 6= .

Para n = 1 se tiene que X = X1 es una v.a. unidimensional. Los parmetros


matrices 1

son

1, esto es, nmeros, y la funcin f dada en (2.93) y (2.94) queda:


f (x) = p

1
2

exp

1
(x
2

)2

si x = x1 2 R.

(2.95)

Obsrvese que sta es la funcin de densidad de una normal unidimensional N ( ; ), con


p
esperanza =
y desviacin tpica =
. Por tanto, se tiene que la distribucin
normal n-dimensional con n = 1 es la distribucin normal unidimensional, como caba
esperar de cualquier distribucin que llamramos normal n-dimensional.
Tngase en cuenta que en la notacin habitual para la normal unidimensional, N ( ; ),
el segundo parmetro, , es la desviacin tpica, pero que si la expresamos como normal
n-dimensional, N ( ; ) con n = 1, entonces el segundo parmetro,

2,

es la varianza.

Utilizamos esta notacin para la normal unidimensional, y no la notacin N

, lo

que nos obliga a dar estas explicaciones, porque es la que se utiliza habitualmente en las
aplicaciones a la estadstica.
17

2. Principales distribuciones n-dimensionales

En el siguiente ejercicio comprobamos que la distribucin N (

1;

2;

en el apartado 2.3, coincide con la distribucin N ( ; ) cuando

1;

2;

), estudiada

son los dados en

(2.96). Con ello, se comprueba que la normal del apartado 2.3 es justamente una normal
n-dimensional con n = 2, y por ello es correcto llamarla normal bidimensional como hemos
hecho.
Ejercicio 12. Comprueba que la distribucin N ( ; ), con
1
0
0
es la misma que la N (

B
=@

1
2

C
A

1;

1;

2;

2;

2
1

B
=@

1 2
2
2

1 2

C
A ,

(2.96)

).

Solucin: Comprobaremos que las funciones de densidad coinciden. Obsrvese que


x

= (x1 ; x2 )0

1;

0
2)

= (x1

0
2)

1 ; x2

, con x = (x1 ; x2 )0 ( x = (x; y)0 , como

queramos). Se obtiene

j j = (1

2 2
1 2

Realizando el clculo se obtiene que (x

)0

1 B
@
j j

1 (x

2
2

1 2

1 2

2
1

C
A .

(2.97)

) es justamente la forma cuadrtica

Q (x1 ; x2 ) en (2.58). Con lo anterior, es inmediato comprobar que


1
(x
2

1
p
exp
(2 )2 j j

)0

(x

1 2

1
p

exp f Q (x1 ; x2 ) =2g .

Obsrvese que la expresin matricial para la densidad normal bidimensional es ms


simple que la expresin extendida f (x; y).
El vector de esperanzas y la matriz de covarianzas de una v.a. bidimensional con momentos

1,

2,

1,

y , son los dados en (2.96). Por tanto, otra consecuencia del resultado

del ejercicio anterior es que los parmetros

de una N ( ; ) con n = 2 son justamente

el vector de esperanzas y la matriz de covarianzas (y por eso se denotan de esa manera). En


la siguiente proposicin se comprueba, entre otras cuestiones, que sto tambin es vlido
para el caso n-dimensional en general
18

2.4 Distribucin normal n dimensional

Se tiene que la funcin caracterstica de X


'(t) = E[eitX ] = exp it
Proposicin 13. Sea X

N ( ; ) es
para t = (t1 ; : : : ; tn ) 2 Rn .

t0

1
2t

(2.98)

N ( ; ), con X = (X1 ; : : : ; Xn )0 .

a) Se verica que el vector de esperanzas y la matriz de covarianzas de X son:


E[X] =

(2.99)

b) Las distribuciones marginales son normales.


c) Las variables X1 ; : : : ; Xn son independientes si y solo si son incorreladas, esto es,
si

es diagonal.
d) Transformaciones lineales con rango mximo son normales. Para k

una matriz k

n , A, con rango k, y un vector k

1, b. Se tiene que

N A + b; A A0

AX + b

n consideremos

(2.100)

(Ya se explic en el tema 2 que el vector de esperanzas y la matriz de covarianzas de AX +b


son A + b y A A0 . Lo que aade este resultado es que si la distribucin de X es normal,
entonces la de AX + b tambin es normal.)
e) Sea Z = (Z1 ; : : : ; Zn )

N (0; I), de modo que Z1 ; : : : ; Zn son vaiid N (0; 1). Existe

una transformacin lineal que aplica X en Z, esto es, existen A y b con Z

AX + b.

Demostracin:
a) En la proposicin 8 se demuestra para n = 2. No hacemos la demostracin general.
c) Ya sabemos que si son independientes son incorreladas.
Supongamos ahora que

es diagonal (incorreladas). Se obtiene,


)0

n
X
1

2
i)

(2.101)

y entonces f (x1 ; : : : ; xn ) se expresa como un producto h1 (x1 )

hn (xn ), y por tanto

(x

(x

)=

i=1

X1 ; : : : ; Xn son independientes: ( p
f (x1 ; : : : ; xn ) = p
=p

1
(2 )2 j j

(2

1
(2

)2 j

(xi

es una constante)

1
)2 j

2
i

exp
n
Y

j i=1

exp

19

1
(x
2
1
2
i

)0
(xi

2
i)

(x
.

(2.102)
(2.103)

2. Principales distribuciones n-dimensionales

Tambin se demuestra de un modo inmediato mediante la funcin caracterstica.


d) Lo demostramos utilizando la f.c.. Tambin lo demostramos mediante el teorema de
cambio de variable (t.c.v.) para el caso k = n; es un ejercicio interesante de aplicacin del
t.c.v. y de uso de las operaciones matriciales bsicas.
1
2t

t0 , la f.c. de

h
i
h
i
h
i
'Y (t) = E eitY = E eit(AX+b) = eitb E ei(tA)X) = eitb 'X (tA)

(2.104)

Puesto que la f.c. de X

N ( ; ) es 'X (t) = E[eitX ] = exp it

Y = AX + b es

1
(tA) (tA)0
2
1
tA A0 t0
2
1
t(A A0 )t0 ,
2

= eitb exp i(tA)

= exp itb + itA


= exp it(A + b)

(2.106)
(2.107)

que es la f.c. de una N (A + b; A A0 ), y por tanto Y = AX + b


Suponemos ahora k = n. La matriz A, n

(2.105)

N (A + b; A A0 ).

n, tiene rango n, y por tanto es no singular

y tiene inversa. Entonces, la aplicacin lineal h : Rn ! Rn dada por y = h(x) = Ax + b es


1 (y

biyectiva, y la aplicacin inversa viene dada por (despejando) x = A

b). Es sencillo

comprobar que el determinante Jacobiano de la transformacin inversa es J = A

. Por

el t.c.v. se obtiene que la funcin de densidad de Y = h(X) = AX + b es:


g(y) = f (A

(y

b))abs( A

1
p
exp
abs(jAj) (2 )n j j
1
=p
exp
n
(2 ) jAj j j jA0 j

)=
1
A
2

=p

=p

1
(2

)n jA

A0 j

(2

)n jA

A0 j

(2.108)

1
A
2

(y

(y

b)

(A + b))

(y
1

(2.109)

b)
(y

(A + b))
(2.110)

exp

1
(y
2

(A + b))0 A0

exp

1
(y
2

(A + b))0 A A0

A
1

(y

(y

(A + b))
(A + b))

(2.111)
.

(2.112)

Se han utilizado las siguientes propiedades de operaciones con matrices:


- En (2.109): A
- En (2.110):

jA0 j

= jAj

= jAj, y entonces abs(jAj) =

tiva.
20

jAj2 =

jAj jA0 j; propiedad distribu-

2.4 Distribucin normal n dimensional

- En (2.111): el determinante del producto de matrices coincide con el producto de los


determinantes; la traspuesta del producto coincide con el producto de traspuestas, pero en
orden inverso; A

1 0

= (A0 )

- En (2.112): propiedad asociativa del producto; la inversa del producto coincide con el
producto de inversas, pero en orden inverso.
Se observa en la expresin (2.112) que g(y) es la funcin de densidad de una distribucin
N (A + b; A A0 ), y por tanto Y = AX + b

N (A + b; A A0 ).

b) Las marginales de X se pueden obtener como transformadas lineales de X de


una manera muy sencilla. Se obtiene que son normales, y los parmetros se obtienen a
partir de

, eliminando los elementos que involucran variables eliminadas. Obtenemos

la distribucin de X1 y de (X1 ; X2 ), lo que es suciente para apreciar de qu manera se


producen las marginales.
Sea A = (1; 0; : : : ; 0) el vector (o matriz) 1

n cuyo primer elemento es un uno y el

resto son ceros. Se tiene que X1 = AX, y por tanto


N A ; A A0

X1

La v.a. X1 es unidimensional, y en este caso A


Realizando los clculos se obtiene E[X1 ] = A

(2.113)

y A A0 quedan reducidos a nmeros.

y V [X1 ] = A A0 =

2
1.

Para n = 1

no utilizamos notacin matricial, sino que utilizamos la habitual, en la que el segundo


p
2
parmetro es la desviacin tpica
1 = 1 . De este modo,
X1
Sea

N(

1;

1) .

(2.114)
1

B 1 0 0
A=@
0 1 0

0 C
A .
0

Se tiene que (X1 ; X2 )0 = AX, y por tanto (X1 ; X2 )0


clculos se obtiene A = (
0

B X1 C
@
A
X2

0
2) ; A

1;

00

BB
N @@

1
2

1 0
C B
A;@

A0 = (

ij )i;j=1;2 ,
2
1

Cov (X1 ; X2 )
21

(2.115)

N (A ; A A0 ). Realizando los

y de aqu
11

Cov(X1 ; X2 ) CC
AA .
2
2

(2.116)

2. Principales distribuciones n-dimensionales

Obsrvese que Cov(X1 ; X2 ) =

(X1 ;X2 ) 1 2 .

e) Se puede demostrar la existencia y obtener la transformacin de varias maneras,


por ejemplo a partir de los autovalores y autovectores de

. La transformacin no es nica.

nicamente presentamos la transformacin para n = 1 y n = 2 (solo una de ellas). Para


n = 1 la transformacin lineal es la tipicacin. Para n = 2 se tiene que AX +b

N (0; I),

con
0

B
A=@

p1
1
1

1
C
A

b=

B
A =@

2= 2

1= 1
2

1
2
2

C
A .

(2.117)

Tambin podemos realizar la operacin a la inversa, transformando una variable aleatoria Y

N (0; I) en otra v.a. X

N ( ; ). Para n = 1 la transformacin est dada por

X= Y + ,y0
para n = 2 la transformacin
(una de ellas) est dada por X = BY + ,
1
p
2
1 C
B 1 1
con B = A 1 = @
A, siendo A la matriz en (2.117).
0
2
N (3; 1; 1; 2; 00 5). Determina la distribucin de (Y1 ; Y2 ), con

Ejemplo 14. Sea (X1 ; X2 )


Y1 = 2X1

3X2 + 1 y Y2 = X1 + 2X2 .

Solucin: Sean
0

B X1 C
B 3
X=@
A , =@
1
X2
1
0
0
B Y1 C
B 2
Y =@
A ,A=@
Y2
1

B 1 1 C
=@
A ,
1 4
1
0 1
3 C
B 1 C
A y b=@ A .
2
0
C
A ,

Los datos del enunciado se pueden expresar como: X


proposicin 13d se obtiene Y

o, lo que es lo mismo, Y

(2.118)

(2.119)

N ( ; ) e Y = AX + b. Por la

N (A + b; A A0 ). Realizando los clculos se obtiene


00
1 0
11
21 CC
BB 10 C B 28
N @@
(2.120)
A, @
AA ,
1
21 21

p
p p
N 10; 1; 28; 21;
3=2 .

22

2.4 Distribucin normal n dimensional


Ejemplo 15. Sea X = (X1 ; X2 ; X3 )0 N ( ; ), con
0
1
0
B 0 C
B 1 1
B
C
B
C
B
=B
B 2 C , =B 1 4
@
A
@
3
2 0

2 C
C
0 C
C ,
A
9

(2.121)

Determina la distribucin marginal de (X1 ; X3 ) y la distribucin de Y = (Y1 ; Y2 )0 , con

Y1 =

3X1 + 2X2 + 1 y Y2 = 3X1

X2 + 4X3

3. Son independientes (X1 ; X3 )?, y

(X2 ; X3 )?.
0

1
1
0
0
B
C
Solucin: Se tiene que (X1 ; X3 )0 = AX, con A = @
A. Por tanto,
0 0 1
0

B X1 C
@
A
X3

00

BB 0 C B 1
N A ; A A0 = N @@ A ; @
3
2
0

B
Se tiene que Y = AX + b, con A = @
Y

1 0

3
3
00

BB
N A + b; A A0 = N @@

Puesto que Cov (X1 ; X3 ) =

11

2 CC
AA
9

(2.122)

1
0
1
0 C
1
B
C
A y b=@
A , y entonces
1 4
3

1 0

11

3 C B 13 16 CC
A;@
AA .
11
16 103

2 6= 0, se tiene que

(X1 ;X3 )

(2.123)

6= 0, y entonces, por la

proposicin 11, se tiene que (X1 ; X3 ) no son independientes. Puesto que Cov (X2 ; X3 ) = 0,
se tiene que

(X2 ;X3 )

= 0, y entonces, por la proposicin 11, se tiene que (X1 ; X3 ) son

independientes.

En la proposicin 13d se exige que la transformacin lineal tenga rango mximo, igual
a k. sto determina que Y = AX + b es una v.a. continua, esto es, que tiene funcin de
densidad, la de la N (A + b; A A0 ) (denicin en 2.92, 2.93 y 2.94).
En caso contrario, la matriz de covarianzas A A0 de la transformada es singular, y
no tiene inversa. Entonces, la funcin de densidad normal dada en 2.93 y 2.94 no esta
denida. La v.a. Y no es discreta ni continua, ni una mixtura de ambos tipos, sino que
23

2. Principales distribuciones n-dimensionales

tiene una distribucin singular, aunque de un tipo muy sencillo. Su soporte es el subespacio
(hiperplano) de Rk
T = fAx + b : x 2 Rn g .

(2.124)

La dimensin de T coincide con el rango de A, menor que k, y por ello Y es singular.


Sin embargo, si nos restringimos a T , entonces Y tiene distribucin bsicamente normal
continua.

B 2 6 C
Consideremos por ejemplo, n; k = 2, A = @
A , con rango rg(A) = 1 < 2, y
1 3

b = 0. Sea X = (X1 ; X2 )0 y sea Y = AX + b, con Y = (Y1 ; Y2 )0 . Se tiene que, Y1 =


2X1 + 6X2 = 2Y2 , y por tanto la v.a. singular Y = (Y1 ; Y2 )0 es bsicamente una v.a.
unidimensional continua, como comentamos a continuacin. Se obtiene
2Cov (Y2 ; Y2 )
Cov (2Y2 ; Y2 )
p
p
=p
=1.
(Y1 ; Y2 ) = p
V [2Y2 ] V [Y2 ]
22 V [Y2 ] V [Y2 ]

El soporte de Y (el conjunto T

(2.125)

R2 en (2.124)) es la recta y1 = 2y2 ( y2 = y1 =2), en

el plano (y1 ; y2 ). Cualquier aplicacin lineal biyectiva h : T ! R transforma Y en una


v.a. unidimensional continua; por ejemplo, h (Y1 ; Y2 ) = Y1 es normal unidimensional con
parmetros
Y1

= E [Y1 ] = E [2X1 + 6X2 ] = 2E [X1 ] + 6E [X2 ]

V [Y1 ] = V [2X1 + 6X2 ] = 22 V [X1 ] + 62 V [X2 ] + 2 2 6 Cov (X1 ; X2 ) .

(2.126)
(2.127)

Existen generalizaciones de la nocin de inversa de una matriz que permiten denir una
normal con matriz de covarianzas singular. Esta nocin permite manejar la situacin que
acabamos de describir, con rg(A) < k, de una manera cmoda. De una manera ms simple
y directa que la que acabamos de considerar, sin necesidad de introducir la aplicacin h.
No la estudiamos.

24

You might also like