Professional Documents
Culture Documents
1
David Castañeda, René Salinas, Paola Silva
3 de septiembre de 2018
Análisis multivariado
Problema 2.5
5/13 12/13
Cheque que Q = es una matriz ortogonal.
−12/13 5/13
Una matriz cuadrada A es ortogonal si At A = AAt = II. Para comprobar si Q lo es, se almacena una matriz
A en R:
A<-matrix(c(5/13,12/13,-12/13,5/13),ncol=2,byrow=T)
Obtenemos su transpuesta:
At<-t(A)
At
## [,1] [,2]
## [1,] 0.3846154 -0.9230769
## [2,] 0.9230769 0.3846154
Calculamos los productos AAt y At A
A%*%At
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
At%*%A
## [,1] [,2]
## [1,] 1 0
## [2,] 0 1
Con lo que es posible observar que At A = AAt = I
Problema 2.6
9 −2
Sea A =
−2 6
a) ¿Es A una matriz simétrica?
Definiendo la matriz A en R, como:
A<-matrix(c(9,-2,-2,6),ncol=2,byrow=T)
A
## [,1] [,2]
## [1,] 9 -2
## [2,] -2 6
1
Y observando a la matriz At :
At<-t(A)
At
## [,1] [,2]
## [1,] 9 -2
## [2,] -2 6
Podemos observar que A es una matriz simétrica, ya que A = At , aunque existe una función de R para
determinar si una matriz es símetrica:
isSymmetric(A)
## [1] TRUE
Podemos observar que efectivamente, la matriz A es simétrica.
b) Muestre que A es definida positiva.
Para que una matriz cuadrada sea definida positiva se necesita que todos sus eigenvalores sean positivos.
Con ayuda de R, se tiene:
eigen(A)
## eigen() decomposition
## $values
## [1] 10 5
##
## $vectors
## [,1] [,2]
## [1,] -0.8944272 -0.4472136
## [2,] 0.4472136 -0.8944272
Podemos observar que sus dos eigenvalores son positivos y podemos concluir que la matriz A es definida
positiva.
Problema 2.7
## eigen() decomposition
## $values
## [1] 10 5
##
## $vectors
## [,1] [,2]
## [1,] -0.8944272 -0.4472136
## [2,] 0.4472136 -0.8944272
b) Escriba la descomposición espectral de A.
Pp
La descomposición espectral de una matriz esta dada por: Apxp = i=1 λi ei e0i Donde λi , i = 1, ..., p
son los eigenvalores de la matriz y ei representa el eigenvector asociado al vector λi .
Con los datos optenidos en el inciso a) podemos escribir:
2
t t
9
−2 −0.8944272 −0.8944272 −0.4472136 −0.4472136
A= = 10 +5
−2 6 0.4472136 0.4472136 −0.8944272 −0.8944272
−0.8944272 −0.4472136
A = 10 0.4472136 + 5
−0.8944272 −0.4472136 −0.8944272
0.4472136 −0.8944272
c) Encuentre A−1 .
Calculamos la inversa:
invA<-solve(A)
Verificamos:
A%*%invA
## [,1] [,2]
## [1,] 1.000000e+00 0
## [2,] -2.775558e-17 1
invA%*%A
## [,1] [,2]
## [1,] 1 -2.775558e-17
## [2,] 0 1.000000e+00
d) Encuentre los eigenvalores y eigenvectores de A−1 .
eigen(invA)
## eigen() decomposition
## $values
## [1] 0.2 0.1
##
## $vectors
## [,1] [,2]
## [1,] 0.4472136 -0.8944272
## [2,] 0.8944272 0.4472136
Problema 2.8
Dada la matriz
1 2
A=
2 −2
• Busque los eigenvalores λ1 y λ2 y los eigenvectores normalizados asociados e1 e2 :
A<-matrix(c(1,2,2,-2),ncol=2,byrow=T)
A
## [,1] [,2]
## [1,] 1 2
## [2,] 2 -2
eigen(A)
3
## eigen() decomposition
## $values
## [1] 2 -3
##
## $vectors
## [,1] [,2]
## [1,] -0.8944272 -0.4472136
## [2,] -0.4472136 0.8944272
• Derermine la descomposición espectral de A .
En base al resultado anterior:
1 2
A=
2 −2
−0.8944272 −0.4472136
A=2 −0.4472136 − 3 0.8944272
−0.8944272 −0.4472136
−0.4472136 0.8944272
Problema 2.12
Demuestre que el determinante de una matriz cuadrada simétrica ApXp puede ser expresado
A| = Πpi=1 λi
como el producto de sus eigenvalores, esto es |A
Se sabe que para una matriz simétrica ApXp , existe una matriz ortogonal Q , tal que:
Qt AQ = D
D, donde D = diag (λ1 , λ2 , ..., λp )
Entonces, por propiedades de los determinantes, y de la matriz ortogonal, se tienen las siguientes igualdades:
AB| = |A
|AB
AB A| |B
B|
1
Q t = Q −1 ⇒ Qt | = |Q
|Q Q−1 | =
|Q |
Q
D | = λ1 (λ2 (...(λp − 0))) = λ1 · λ2 · ... · λp
|D
Por lo tanto, se tiene:
AQ| = |D|
QtAQ
|Q
Qt | |A
|Q Q| = λ1 · λ2 · ... · λp
A| |Q
1
|A Q| = λ1 · λ2 · ... · λp
A| |Q
|Q
Q|
NOTA: El determinante de cada matriz representa un valor escalar
∴ A| = λ1 · λ2 · ... · λp
|A
4
Problema 2.15
df
= 6x1 − 2x2
dx1
df
= 6x2 − 2x1
dx2
d2 f
=6
dx21
d2 f
=6
dx22
df df
= −2
dx1 dx2
Puntos críticos:
df
= 6x1 − 2x2 = 0 (1)
dx1
df
= 6x2 − 2x1 = 0 (2)
dx2
3x1 − x2 = 0 (1)
3x2 − x1 = 0 (2)
De (1) obtenemos:
3x1 = x2 (3)
3(3x1 ) − x1 = 0
8x1 = 0
x1 = 0
5
Esto implica:
x2 = 0
d2 f d2 f df df 2
D= −( )
dx21 dx22 dx1 dx2
D = 6(6) − (−2)2 = 32
d2 f d2 f
Ahora evaluaremos (x1 = 0, x2 = 0) en D, dx21
y dx22
,
2 2
D = 32 , ddxf2 = 6 y ddxf2 = 6 los tres valores mayores a cero, por lo que podemos concluir que (x1 = 0, x2 = 0)
1 2
es un mínimo de f (x1 , x2 ).
Evaluando dicho punto en la función f (x1 , x2 ) tenemos que:
Por lo que podemos concluir que la función no tomará valores menores a cero en ningun otro punto (x1 , x2 ).
Problema 2.18
Considere el conjunto de puntos (x1 , x2 ) cuyas distancias de la forma original están dadas por
√
c2 = 4x21 + 3x22 − 2 2x1 x2 (1)
## $values
## [1] 4 1
6
para obtener el eje mayor y menor utilizamos la fórmula:
c
√
λi
entonces tenemos:
c<-c(1,1,2,2)
lambda<-c(4,1)
eje<-c/(sqrt(lambda))
eje
## [,1] [,2]
## [1,] 0.5 1
## [2,] 1.0 2
7
Para esta el eje mayor es 2 y el menor es 1.
Como los valores de c incrementan se obtienen elipses de mayor perimetro y aumentan los ejes.
Problema 2.21
Usando la matriz
1 1
A = 2 −2
2 2
a) Calcule AAt y obtenga sus eigenvalores y eigenvectores.
Almacenamos la matriz en R y obtenemos su transpuesta y el Producto AAt :
8
A<-matrix(c(1,1,2,-2,2,2),ncol=2, byrow=T)
A
## [,1] [,2]
## [1,] 1 1
## [2,] 2 -2
## [3,] 2 2
At<-t(A)
At
## eigen() decomposition
## $values
## [1] 1.000000e+01 8.000000e+00 3.552714e-15
##
## $vectors
## [,1] [,2] [,3]
## [1,] -0.4472136 0 0.8944272
## [2,] 0.0000000 -1 0.0000000
## [3,] -0.8944272 0 -0.4472136
b) Calcule A0 A y obtenga sus eigenvalores y eigenvectores.
At%*%A
## [,1] [,2]
## [1,] 9 1
## [2,] 1 9
eigen(At%*%A)
## eigen() decomposition
## $values
## [1] 10 8
##
## $vectors
## [,1] [,2]
## [1,] 0.7071068 -0.7071068
## [2,] 0.7071068 0.7071068
Problema 2.24
9
4 0 0
X
= 0 9 0
0 0 1
Encuentre:
P−
a) 1
S<-matrix(c(4,0,0,0,9,0,0,0,1),ncol=3,byrow=T);S
## eigen() decomposition
## $values
## [1] 9 4 1
##
## $vectors
## [,1] [,2] [,3]
## [1,] 0 1 0
## [2,] 1 0 0
## [3,] 0 0 1
eigen(Sinv)
## eigen() decomposition
## $values
## [1] 1.0000000 0.2500000 0.1111111
##
## $vectors
## [,1] [,2] [,3]
## [1,] 0 1 0
## [2,] 0 0 1
## [3,] 1 0 0
S%*%Sinv
10
b) Los eigenvalores y eigenvectores de
P
eigen(S)
## eigen() decomposition
## $values
## [1] 9 4 1
##
## $vectors
## [,1] [,2] [,3]
## [1,] 0 1 0
## [2,] 1 0 0
## [3,] 0 0 1
P−
c) Los valores y eigenvectores de 1
eigen(Sinv)
## eigen() decomposition
## $values
## [1] 1.0000000 0.2500000 0.1111111
##
## $vectors
## [,1] [,2] [,3]
## [1,] 0 1 0
## [2,] 0 0 1
## [3,] 1 0 0
Problema 2.25
25 4
X −2
= −2 4 1
4 1 9
1
a) Determine P y V 2
1
V 2 no es más que la matriz diagonal que contiene la raiz cuadrada de las varianzas de .
P
Entonces:
5 0 0
1
V 2 = 0 2 0
0 0 3
S<-matrix(c(25,-2,4,-2,4,1,4,1,9),ncol=3,byrow=T)
S
11
## [2,] 0 2 0
## [3,] 0 0 3
La matríz P está dada por:
1 1
X
P = V −2 V −2
P<-solve(raizV)%*%S%*%solve(raizV)
P
12