Professional Documents
Culture Documents
5.1. Introduccin.
El anlisis de componentes principales se concibe como una tcnica de reduccin de la dimensin,
pues permite pasar de una gran cantidad de variables interrelacionadas a unas pocas componentes
principales. El mtodo consiste en buscar combinaciones lineales de las variables originales
que representen lo mejor posible a la variabilidad presente en los datos. De este modo, con
unas pocas combinaciones lineales, que sern las componentes principales, sera suciente para
entender la informacin contenida en los datos. Al mismo tiempo, la forma en que se construyen
las componentes, y su relacin con unas u otras variables originales, sirven para entender la
estructura de correlacin inherente a los datos. Por ltimo, las componentes principales, que
forman un vector aleatorio de dimensin menor, pueden ser empleadas en anlisis estadsticos
posteriores.
Denicin Sea
Nota.
50
M ax v 0 v
sujeto a v 0 v = 1
L = v 0 v (v 0 v 1)
Calculamos la matriz jacobiana de L como funcin de v e igualamos a cero
L
= 2v 0 2v 0 = 0
v
Equivalentemente
v = v
Luego el vector v1 que maximice la funcin sujeto a la restriccin ha de ser un autovector de ,
y su autovalor asociado es 1 . Multiplicando los dos trminos de la ecuacin por la izquierda
por v10 resulta
v10 v1 = v10 1 v1 = 1 v10 v1 = 1
Luego el autovalor 1 es la funcin objetivo en el mximo y por tanto, V ar(Z1 ) = 1 .
Denicin Se dene la segunda componente principal de X como una variable aleatoria Z2 tal
que
Resultado.
Entonces
v 0 w = 0 v 0 w = 0
Anlisis Multivariante
51
Demostracin.
=
v 0 w = v 0 w = v 0 w = 0
=
1
1
1
v 0 w = v 0 w = v 0 w = 0 = 0
Cov(v 0 X, Z1 ) = 0 v 0 v1 = 0
Y hemos probado que la condicin de ortogonalidad entre los vectores v1 y v2 es equivalente
a la incorrelacin de las componentes Z1 y Z2 . En denitiva, podramos denir la segunda
componente principal como la combinacin lineal de las variables de X que tiene mayor varianza
de entre las combinaciones lineales normalizadas e incorrelacionadas con la primera componente
principal.
Respecto a la condicin de que 1 6= 0, hemos de recordar que 1 = V ar(Z1 ). Por tanto si
1 = V ar(Z1 ) = 0, todos los dems autovalores sern tambin cero y Z1 y las dems componentes
sern variables degeneradas.
M ax v 0 v
sujeto a v 0 v = 1
v10 v = 0
Resolvemos este problema por el mtodo de los multiplicadores de Lagrange.
L = v 0 v 2 (v 0 v 1) 2 v10 v
Derivamos respecto de v e igualamos a cero (momento en el cual podemos sustituir el valor v2
para mejor comprensin):
L
/v=v2
v
0
= 2v2 22 v2 2 v1 = 0
(5.1)
52
Denicin Se denen las p componentes principales de X como las variables aleatorias (Z1 , . . . , Zp )
tales que
Z1 = v10 X, . . . , Zp = vp0 X
v1 , . . . , vp Rp
..
.
..
.
0
V ar(Zj ) = max{V ar(v 0 X) : v Rp , v 0 v = 1, v10 v = 0, . . . , vj1
v = 0}}
..
.
..
.
0
V ar(Zp ) = max{V ar(v 0 X) : v Rp , v 0 v = 1, v10 v = 0, . . . , vp1
v = 0}}
j {1, . . . , p}
j {1, . . . , p}
Z = V 0X
Anlisis Multivariante
53
Ejemplo 5.1 Sea X = (X1 , X2 )0 un vector aleatorio con vector de medias = E(X) = (4, 2)0 y
matriz de covarianzas
=
2 1
1 2
El objetivo de este estudio es obtener un ranking global de alumnos para la entrada en la Facultad
de Matemticas, a travs de una puntuacin global, extrada como cierta combinacin lineal de
las calicaciones en las cinco materias examinadas.
54
en la proporcin n/(n 1), pero no supone ningn cambio en los autovectores. Hemos optado
por el comando princomp. A continuacin se muestran las instrucciones que permiten realizar
un anlisis de componentes principales para el ejemplo, utilizando R.
dat=read.table("ejemplo5.2.txt",header=TRUE) # Lectura de los datos
test.pca=princomp(dat) # Comando R que ejecuta el anlisis de componentes principales
test.pca # Salida bsica del objeto, que muestra las desviaciones tpicas de las componentes,
# que son las races cuadradas de los autovalores
summary(test.pca) # A las desviaciones tpicas de las componentes les aade
# la proporcin de varianza explicada y sus valores acumulados
test.pca$sdev**2 # De este modo podemos obtener las varianzas de las componentes,
# que son los autovalores
screeplot(test.pca) # Representacin de los autovalores (grco de sedimientacin)
windows()
screeplot(test.pca,type="lines") # El mismo grco con lneas
loadings(test.pca) # Proporciona los coecientes de las componentes (autovectores)
windows()
barplot(loadings(test.pca),beside=TRUE) # Representacin de los coecientes
test.pca$scores # Puntuaciones de los individuos en las componentes
windows()
biplot(test.pca) # Comando que genera el biplot
# Anexo: Clculos directos
n=nrow(dat)
s=cov(dat)*(n-1)/n
auto=eigen(s)
lambda=auto$values
windows()
plot(lambda,type="l")
v=auto$vectors
Anlisis Multivariante
55
Teorema 5.4 La recta que pasa por el vector de medias = E(X) y tiene direccin v1 es la que
hace mnima la distancia cuadrtica del vector aleatorio X a la recta, deniendo esta distancia
cuadrtica como la media del cuadrado de la distancia eucldea usual (distancia ortogonal o menor
distancia) del vector aleatorio X a la recta.
Demostracin.
Observacin.
Este resultado debe relacionarse con la recta de regresin, que hace mnima
la media (suma en el caso de una muestra) de la distancia vertical a la recta. En este caso
consideramos la distancia ortogonal (la menor distancia), pues no hay variable respuesta ni
variable explicativa, sino que todas las variables son tratadas de igual modo.
56
= V 0 V
siendo = Cov(X, X) la matriz de covarianzas del vector aleatorio original, = Cov(Z, Z) la
matriz de covarianzas de las componentes (que es diagonal) y V = (v1 . . . , vp ) la matriz ortogonal
cuyas columnas son los autovectores, que a su vez constituyen los coecientes que denen las
componentes.
Multiplicando por V por la izquierda y por V 0 por la derecha, podemos expresar
0
= V V =
p
X
j=1
j vj vj0
Anlisis Multivariante
57
A su vez tambin recordamos que el rango de la matriz de covarianzas coincide con la dimensin
del menor espacio lineal que contiene al vector aleatorio (con probabilidad uno).
As si el rango es k , el vector aleatorio estara contenido en un espacio lineal de dimensin k ,
los k primeros autovalores son no nulos y los (p k) ltimos son cero, y las (p k) ltimas
componentes tienen varianza cero. Se puede por tanto reducir la dimensin hasta k sin perder
variabilidad. Slo estaramos cambiando el sistema de coordenadas.
Consideremos como medida global de variabilidad del vector aleatorio, la traza de su matriz de
covarianzas. Ntese que no es ms que la suma de las varianzas de las variables del vector, pero
adems tiene esta justicacin como medida global de variabilidad
traza() =
p
X
j traza(vj vj0 ) =
j=1
p
X
j=1
Z1 = v10 X
Si en lugar de recoger todo el vector aleatorio, slo aportamos Z1 reduciendo la informacin a una
variable unidimensional; junto con la simplicacin, se produce una reduccin de variabilidad,
que pasa a ser
V ar(Z1 ) = 1
Decimos que el cociente
1
1 + + p
1 + + r
1 + + r + r+1 + + p
es la proporcin de variabilidad explicada por las r primeras componentes principales.
Debemos decidir entre la simplicacin que supone la reduccin de la dimensin y la prdida de
informacin resultante de la variabilidad no explicada. Como criterios para tomar esta decisin,
se suelen emplear los siguientes:
58
Midiendo todas las variables en la misma escala (siempre que sean de la misma naturaleza).
Aplicando el anlisis de componentes principales a las variables estandarizadas. Esto ltimo
equivale a trabajar con la matriz de correlaciones, en lugar de la matriz de covarianzas.
Anlisis Multivariante
59
Cov(Xj , Zk ) = k vjk
Se trata por tanto de la varianza de la componente Zk multiplicada por el coeciente vjk , que
acompaa a Xj en la construccin de Zk . El coeciente de correlacin ser
vjk p
Cov(Xj , Zk )
Corr(Xj , Zk ) = p
k
=
j
V ar(Xj )V ar(Zk )
En notacin matricial
p
p
Corr(X, Z) = diag (1/1 , . . . , 1/p ) V diag 1/ 1 , . . . , 1/ p = diag(1/1 , . . . , 1/p )V 1/2
Se interpretar cada componente principal en funcin de las variables originales que estn correlacionadas con dicha componente. Asimismo, el signo de cada correlacin permite valorar qu
variables van en el sentido de la componente y cules en sentido opuesto.
Bibliografa.
Anderson, T.W. (2003). An introduction to multivariate statistical analysis. Wiley.
Gabriel, K.R. (1971). The biplot graphic display of matrices with application to principal
component analysis. Biometrika, 58, 453467.
Johnson, R.A. y Wichern, D.W. (1982). Applied multivariate statistical analysis. Prentice-Hall.
Mardia, K.V., Kent, J.T. y Bibby, J.M. (1979). Multivariate analysis. Academic Press.
Pea, D. (2002). Anlisis de datos multivariantes. McGraw-Hill.
Prez, C. (2004). Tecnicas de anlisis multivariante de datos. Pearson Educacin, S.A.
Seber, G.A.F. (1984). Multivariate observations. Wiley.