Professional Documents
Culture Documents
Teora Avanzada de
Matrices
Humberto Sarria Zapata
ticas
Departamento de Matema
Indice general
Pr
ologo
III
.
.
.
.
.
.
.
.
.
1
2
4
4
5
5
7
7
10
12
.
.
.
.
.
.
.
.
13
13
16
17
19
19
27
29
32
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Indice general
2.3.
2.4.
2.5.
2.6.
Teorema de Schur . . . . . . . . . . . . . . . . . .
Algunas implicaciones del Teorema de Schur . . . .
Matrices normales . . . . . . . . . . . . . . . . . .
La factorizacion QR . . . . . . . . . . . . . . . . .
2.6.1. Metodos para encontrar la factorizacion QR
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .
3. Formas Can
onicas
3.1. Forma canonica de Jordan . . . . .
3.2. Polinomios y matrices . . . . . . .
3.3. Matriz compa
nera de un polinomio
Ejercicios . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
monico
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
38
39
48
53
54
61
.
.
.
.
62
63
71
76
79
x x=1
mn = m
n x Ax . . . . . . . . . . . . . . . . . . . .
x x=1
88
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
106
. 110
. 117
. 118
. 126
6. Localizaci
on de Valores Propios
127
6.1. Teorema de Gershgorin . . . . . . . . . . . . . . . . . . . . . 127
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Ap
endice
131
A. Gr
aficas
132
Bibliografa
132
ii
Pr
ologo
iii
Prologo
iv
Captulo 0
Problemas de la Teora de
Matrices
El conjunto de las matrices de n filas y m columnas, con entradas en
un cuerpo K, lo denotamos mediante Mnm (K). En general el cuerpo K
representara, los cuerpos R o C. Si n = m, usaremos el smbolo Mn (K),
para representar el espacio de las matrices cuadradas en el cuerpo K.
Notaci
on.
1.
Ejercicio 1. A = A t .
2.
3.
Denotaremos:
0.1.
Geometra de matrices
(1)
Hn (C) = AHn (C)? Brinde un ejemplo o indique por que tal producto
interior no puede existir.
Ejercicio 9. Si existe el producto interior arriba definido se mantiene la
igualdad Sn (C) = ASn (C), para este?
Ejercicio 10. Pruebe que existe un producto interior bajo el cual puede
medirse el angulo conformado por cualquier par de matrices A, B Mn (C).
Ejercicio 11. Reconsidere los ejercicios 8 y 9.
Ejercicio 12. Existe alguna relacion entre los productos interiores definidos
por (1) y el producto interior definido en el ejercicio 10.
0.2.
Superficies y bordes c
onicas
La superficie c
onica asociada a una matriz A Mn (C), A 6= 0 es el
conjunto SC(A) = {X Mn (C) | Tr AkXkF = Tr XkAkF } Si A = 0,
entonces SC(A) = {0}.
El borde c
onico asociado a una matriz A Mn (C), A 6= 0 es el conjunto
BC(A) = {X SC(A) | Tr X = Tr A} Si A = 0, entonces BC(A) = {0}.
Ejercicio 13. Que tipo de superficies son SC(A) y BC(A)? Son estas variedades diferenciales?
0.3.
Problemas de preservaci
on lineal
Los problemas de preservacion lineal plantean la busqueda de caracterizaciones de operadores lineales (u operadores continuos) definidos sobre
espacios de matrices y que preservan cierto tipo de propiedades, como por
ejemplo el determinante, la traza, el permanente; propiedades como conmutatividad; conjuntos como el espectro, los vectores propios, matrices normales, hermitianas, simetricas, antisimetra etc.
Historicamente Frobenius inicia este tipo de estudios al resolver el siguiente resultado.
Teorema 0.1. Sea : Mn (C) Mn (C) un operador lineal, entonces las
siguientes afirmaciones son equivalentes:
(a) preserva determinante y traza.
(b) preserva estructura espectral.
(c) preserva polinomios caractersticos.
0.3.1.
Preservaci
on de bordes c
onicos
0.3.2.
Preservaci
on de simetra y antisimetra
11 1n
.
..
..
..
=
.
.
n1 nn
Denotaremos la entrada (k, l) del bloque ij , con kl
ij , en terminos de esta
simbologa podemos enunciar el teorema central de operadores que preservan
simetra y antisimetra como sigue:
ij
Teorema 0.2. preserva simetra y antisimetra, si y s
olo si, kl
ij = kl ,
para todo i, j, k, l = 1, . . . , n.
Proposici
on 0.2. preserva simetra y antisimetra, si y s
olo si, conmuta con el operador de transposici
on, es decir, si para todo A Mn (C),
t
t
(A ) = (A) .
Demostraci
on.
) Sea A Mn (C). Sabemos que existen As y Aas , matriz simetrica y antisimetrica, respectivamente, tales que A = As + Aas . Por hipotesis tenemos
que
(At ) = (As Aas )
= (As ) (Aas )
= (As )t + (Aas )t
= [(As ) + (Aas )]t
= (A)t
) Tomemos ahora A Sn . Por hipotesis,
(A)t = (At )
por ser A una matriz simetrica.
(A)t = (A)
De lo anterior concluimos que (A) es una matriz simetrica. Ademas, si
A ASn , en este caso tenemos que
(A)t = (At )
= (A)
= (A)
de donde se sigue que (A) es antisimetrica.
Proposici
on 0.3. Si es un operador normal, las siguientes afirmaciones
son equivalentes:
(a) preserva simetra.
(b) preserva antisimetra.
0.4.
Perturbaci
on y localizaci
on de valores propios
Muchos problemas en matematica pura y aplicada que involucran calculos con matrices se resuelven calculando los valores propios de las matrices
involucradas. En algunos casos no es necesario conocer con exactitud estos
valores sino que basta con conocer algunas cotas o su localizacion global en
el plano complejo.
Quizas uno de los resultados mas interesantes en este sentido es el teorema de Gershgorin, que afirma que si A = (aij ), y hacemos
Ri =
n
X
|aij |
j=1
j6=i
{z C : |z aii | Ri }
i=1
0.5.
V W
[ ]
[ ]B 1 y
y B2
K n K m
Tb
Con el fin de describir cada uno de los terminos usados en el grafico anterior,
tomemos v V y w W . Sabemos por el algebra lineal que existen colecciones de vectores {1 , 2 , . . . , n }, {1 , 2 , . . . , m } K, u
nicas tales que
v = 1 v1 + + n vn y w = 1 w1 + + m wm Definimos la representaci
on
de v en la base B1
1
2
[ v ]B1 =
..
.
n
[ w ]B2 =
..
.
m
B2
que T queda definida por T (v1 ), T (v2 ), . . . , T (vn ), ademas, existe para cada
i = 1, 2, . . . , n una coleccion {t1i , t2i , . . . , tmi } K tal que
t1i
t2i
=
..
.
[ T vi ]B2
tmi
Entonces,
"
[ T v ]B2 = T
n
X
i vi
i=1
n
X
i=1
#
B2
i [ T vi ]B2
t1i
n
X
t2i
=
i
..
.
i=1
tmi
1
t11 t1n
. .
2
..
.
..
=
.
.
..
.
tn1 tnn
n
La anterior igualdad la podemos escribir en forma compacta en la forma
[ T v ]B2 =B2 [ T ]B1 [ v ]B1
10
= In .
0.5.1.
1.
(2)
11
Ejercicios
t
0.1 A = A t .
0.2 Cuales de los conjuntos definidos en el numeral 3 son espacios vectoriales, cuales son grupos multiplicativos (considere la suma, producto por
escalar y producto entre matrices tradicional).
0.3 Pruebe que la operacion h, i es un producto interior.
p
0.4 Defina kAkF = hA, Ai. Pruebe que k kF es una norma (norma de
Frobenius).
0.5 Sean A, B Mn (K), pruebe que la funcion d(A, B) = kB AkF define
una metrica sobre Mn (K).
12
0.6
Mn (C) = Sn (C) ASn (C)
= Hn (C) AHn (C)
0.7 Sn (C) = ASn (C). Sin embargo, Hn (C) 6= AHn (C), brindar un contra
ejemplo en este u
ltimo caso.
0.8 Existe alg
un producto interior sobre Mn (C), para el cualHn (C) =
AHn (C)? Brinde un ejemplo o indique por que tal producto interior no
puede existir.
0.9 Si existe el producto interior arriba definido se mantiene la igualdad
Sn (C) = ASn (C), para este?
0.10 Pruebe que existe un producto interior bajo el cual puede medirse el
angulo conformado por cualquier par de matrices A, B Mn (C).
0.11 Reconsidere los ejercicios 8 y 9.
0.12 Existe alguna relacion entre los productos interiores definidos por (1) y
el producto interior definido en el ejercicio 10.
0.13 Que tipo de superficies son SC(A) y BC(A)? Son estas variedades diferenciales?
0.14 Para cualquier K-espacio vectorial V de dimension finita, y para cualquier
base B de V , el operador de representacion en la base B, [ ]B es una
transformacion lineal biyectiva entre los espacios vectoriales V y K n .
0.15 Probar que toda matriz de cambio de base es invertible.
0.16 Sean, V un espacio vectorial n-dimensional, T : V V una transformacion lineal y B1 y B2 bases para V, pruebe que
B2 [ T ]B2
(3)
Captulo 1
Valores propios,Vectores
propios y Similaridad
1.1.
Definici
on 1.1. Sean A Mnn (C) y x Cn , x 6= 0, decimos que x es un
vector propio de A, si existe un escalar C tal que
Ax = x
Al escalar , se le denomina valor propio de A asociado al vector propio
de x. Al par (x, ), se le denomina par propio de A.
Definici
on 1.2. El conjunto de todos los valores propios de A se denomina
espectro de A y se nota por (A). El radio espectral de A es el valor
(A) = max : |
(A)
(A) corresponde al radio de un crculo con centro en (0,0), que contiene todos los valores propios de A.
13
14
(
A
x
2
(A) = (At )
2.
3.
4.
Si
/ (A), entonces VA () = {0}.
Ejercicio 17. Para que tipos de matrices (de las definidas anteriormente) se tiene que (A) = (A ).
5.
15
Demostraci
on. Sean, 1 , . . . , s C tales que
1 v1 + + s vs = 0
(1.1)
(A k I)(1 v1 + 2 v2 + + s vs ) = 0
k=1
k6=i
s
Y
(A k I)vi = i
k=1
k6=i
s
Y
(i k )vi
k=1
k6=i
=0
y como vi 6= 0 y i k 6= 0, para k 6= i, entonces i = 0, de
aqu concluimos que, los vectores v1, v2 , . . . , vs son vectores linealmente
independientes, y que VA (i ) VA (j ) = {0}, para todo i 6= j..
6.
Definici
on 1.3. Sean A Mn (C) y v Cn con v 6= 0, decimos que v es
un vector propio a izquierda de A, si existe un escalar (A), tal que
v A = v con v = v t
Proposici
on 1.1. Para cada (A), existe un vector propio a izquierda
asociado.
Demostraci
on. Por hipotesis existe un vector no nulo v Cn , tal que
Av = v, se sigue que A I es una matriz singular, de donde sus filas son linealmente dependientes, en consecuencia existe un vector no nulo
u Cn , para el cual ut (A I) = 0, o equivalentemente, ut A = ut , asi, si
w = u, claramente se tiene que w A = w .
16
Proposici
on 1.2. Sean A Mn (C) y , (A) con 6= . Entonces,
todo vector propio a izquierda asociado a , es ortogonal a todo vector propio
a derecha asociado a .
Demostraci
on. Sean u, v Cn vectores propios a izquierda y derecha respectivamente, asociados a y . Entonces
u Av = u v
= u v
se sigue que ( )u v = 0, pero 6= , concluimos que u v = 0.
Ejercicio 18. Caracterizar las matrices para las cuales todo vector propio
a izquierda es un vector propio (a derecha).
1.2.
Polinomio caracterstico
Existe alg
un metodo algoritmico que nos permita calcular todos los
valores propios de una matriz A Mn (C)? Sabemos que si A tiene como
vector propio a v, con valor propio asociado , entonces la ecuacion
(A I)x = 0
tiene una solucion no trivial a saber x = v, esto implica seg
un el algebra
lineal que la matriz A I es no singular, lo cual es equivalente a afirmar
que
det(A I) = 0
Podemos en consecuencia caracterizar los valores propio de una matriz
cualquiera A, como las raices del polinomio
pA (t) = det(tI A)
al cual llamaremos polinomio caracterstico de A.
Ahora, dado que por la expansion de Lagrange
det A =
X
Sn
sgn()
n
Y
i=1
ai(i)
17
1.3.
1.
2.
Propiedades de la funci
on determinante
Sean, A, B Mn (C), entonces det(AB) = det(A) det(B).
"
#
A C
, donde D Mn (C), A Mk (C), B Mnk (C) y
Sea D =
0 B
C Mkx(nk) (C). Entonces
det(D) = det(A) det(B)
(1.2)
Demostraci
on. Si A o B son singulares, entonces las columnas de A
son linealmente dependientes (l.d), o las filas de B son linealmente
dependientes, de aqu, por la forma que tiene la matriz D, concluimos
que, sus primeras k columnas son l.d., o sus u
ltimas n k filas son
l.d. y para este primer caso, la igualdad (1.2) se satisface. Supongamos
entonces que, A y B son no singulares, entonces podemos escribir
"
#
#"
A 12 CB 1 I 12 A1 C
D=
0
B
0
I
de esta igualdad y de la propiedad 1. se obtiene (1.2).
Corolario 1.1.
pD (x) = pA (x) pB (x)
18
A
S
S
k
k+1
Sk+1
"
#
Ik Sk ASk+1
=
0 Sk+1 ASk+1
19
1.4.
Matrices diagonalizables
Definici
on 1.4. Una matriz es diagonalizable si es similar a una matriz
diagonal.
Ejercicio 20. No toda matriz es diagonalizable.
"
#
0 1
Por ejemplo la matriz, A =
tiene como valor propio al 0, con una
0 0
multiplicidad geometrica de 2. Si la matriz A fuera diagonalizable, existira
una matriz no singular S, tal que S 1 AS = 0, lo cual implicara que A = 0,
y esto evidentemente es una contradiccion.
1.4.1.
Caracterizaci
on de matrices diagonalizables.
20
(a) A es diagonalizable.
(b) A tiene una colecci
on de n vectores propios linealmente independientes.
(c) mgA () = maA (), para todo (A).
Demostraci
on.
(a) (b). Si A es diagonalizable, existe una matriz no singular S, tal que
S 1 AS = diag(1 , 2 , . . . , n ), en donde {1 , 2 , . . . , n } C. Se sigue que
AS = S diag(1 , 2 , . . . , n ), as escribiendo S en terminos de sus columnas
esta igualdad podemos escribirla como
1 0 0
..
0 ...
.
0 0 n
lo cual es equivalente a afirmar que
AS (i) = i S (i) , para cadai = 1, 2, . . . , n.
es decir, los vectores de la coleccion {S (1) , S (2) , . . . , S (n) }, son vectores propios de A, y son linealmente independientes por ser columnas de la matriz
no singular S.
(b) (a). Basta regresarnos en los pasos de la prueba anterior (cuidando el
lenguaje).
(a) (c). Si A es diagonalizable, existe una matriz no singular S, tal que
S 1 AS = diag(1 , 2 , . . . , n ), en donde {1 , 2 , . . . , n } = (A). Supongamos sin perdida de generalidad que 1 , 2 , . . . , n estan ordenados de tal
e1 ,
e2 , . . . ,
ek , son todos los valores propios distintos de A,
manera que si
con multiplicidades algebraicas 1 r1 . . . rk n respectivamente.
entonces
e1 ,
1 = 2 = . . . = r1 =
e2 ,
r +1 = . . . = r +r =
1
..
.
ek ,
r1 ++rk1 +1 = . . . = r1 ++rk1 +sk =
21
e j ) = rj ,
por definicion tomamos r0 = 0. Seg
un la anterior notacion, maA (
para cada 1 j k. Notese que
AS
(j)
ei S (j)
=
S (j) :
1ik
i1
X
re+1 j
e=0
i1
X
e=0
re+1 j
i
X
re
(1.3)
e=1
i
X
re
e=1
Proposici
on 1.4. Sea A Mn (C), una matriz con n valores propios distintos, entonces A es diagonalizable.
Demostraci
on. Es una consecuencia de la observacion (5), y de la parte (b)
del teorema anterior.
Observaci
on. El recproco de la proposicion no es cierto, basta observar que
la matriz identica es diagonalizable, pero sin embargo, sus valores propios
no son distintos.
Corolario 1.2. Sean, A Mn (C), (A). Entonces, A no es diagonalizable, si
rank(A I) > n maA ()
(1.4)
Demostraci
on. Por el teorema de la dimensi
on, tenemos que
mgA () = dim(ker(A I))
= n rank(A I)
22
de aqu y (1.4)
mgA () < n (n maA ())
de donde
mgA () < maA ()
"
#
0mn
Proposici
on 1.5. Sean A Mn (C), B Mn (C) y C =
0nm
B
una matriz diagonal por bloques. Entonces, C es diagonalizable si y s
olo si
A y B son diagonalizables.
A
Demostraci
on.
) El recproco es claramente evidente.
) Supongamos que C es diagonalizable. Por uno de los ejercicios anteriores
tenemos que
pC (x) = pA (x) pB (x)
(1.5)
es decir
(C) = (A) (B)
(1.6)
(1.7)
(1.8)
(1.9)
23
y
VeB () =
#
)
0m
n+m
C
| vB VB ()
vB
("
"
vA
vB
, en donde
vA Cn y vB Cm . Entonces,
"
A 0
0 B
#"
Cv = v
#
" #
vA
vA
=
vB
vB
A1
.
A = ..
0
donde 1 i k y consideremos la
0
..
.
Ak
..
.
24
Definici
on 1.5. Un par de matrices diagonalizables A, B Mn (C) son simultaneamente diagonalizables, si existe una matriz no singular
S Mn (C), tal que S 1 AS y S 1 BS son matrices diagonales.
Ejercicio 23. La diagonalizacion simultanea define una relacion de equivalencia, sobre el conjunto de las matrices diagonalizables.
Teorema 1.2. Sean A, B Mn (C) diagonalizables. Entonces A y B son
simultaneamente diagonalizables si y s
olo si A y B conmutan.
Demostraci
on.
) Si A y B son simultaneamente diagonalizables, podemos escribirlas en
la forma
A = S 1 diag(1 , . . . , n )S y B = S 1 diag(1 , . . . , n )S
en donde S es una matriz no singular, (A) = {1 , . . . , n } y (B) =
{1 , . . . , n }, entonces
AB = S 1 diag(1 , . . . , n )SS 1 diag(1 , . . . , n )S
= S 1 diag(1 , . . . , n ) diag(1 , . . . , n )S
= S 1 diag(1 , . . . , n ) diag(1 , . . . , n )S
= S 1 diag(1 , . . . , n )SS 1 diag(1 , . . . , n )S
= BA
) Supongamos que A y B conmutan. Sabemos por hipotesis que existe
una matriz no singular S Mn (C) tal que
S 1 BS = diag(1 , . . . , n )
25
ademas
S 1 BAS = S 1 BSS 1 AS
= diag(1 , . . . , n )S 1 AS
es diagonalizable
a11 a1n
1
1
a11 a1n
0
0
.
.
..
..
..
..
..
..
..
=
..
.
.
.
.
.
.
0
n
0
n
an1 ann
an1 ann
entonces aij j = i aij para cada i, j = 1, . . . , n. Se sigue que aij (i j ) = 0,
entonces si i 6= j , tenemos que aij = 0, concluimos que la matriz A tiene
la misma estructura en bloques que la matriz diagonal B. En consecuencia
podemos escribir
A1 0
0
..
A=
. 0
0
0
0 Ak
en donde cada Ai es una matriz en bloques de tama
no igual a la multiplicidad
algebraica del valor propio i y donde k corresponde al n
umero de valores
propios distintos de B. Ahora, como A es diagonalizable, por un ejercicio
anterior cada uno de los bloques Ai es diagonalizable, en consecuencia existe
una coleccion de k matrices no singulares T1 , . . . , Tk tales que Ti , diagonaliza
a Ai . Sea
T1 0
0
..
T =
.
0
0
0
0 Tk
claramente T diagonaliza a A, y T 1 BT = B.
Definici
on 1.6.
26
27
1.4.2.
M
etodo de la potencia
Objetivo. Calcular el valor propio dominante y un vector propio correspondiente a dicho valor propio. Este metodo solo es aplicable a matrices A, que
tienen las siguientes propiedades.
(i) Un u
nico valor propio, con modulo maximo;
(ii) Un conjunto de vectores propios linealmemte independientes (es decir,
solo aplica a matrices diagonalizables).
Desarrollo del m
etodo
Sean A Mn (C) y 1 , . . . , n (A). Supongamos que 1 es el valor
propio con mayor modulo y ademas supongamos que Cn tiene una base
{u1 . . . , un } conformada con vectores propios de A, asociados a los valores
propios dados, es decir,
Aui = i ui ,
i = 1, . . . , n.
(1.10)
k = 1, 2, . . .
(1.11)
(1.12)
28
en donde
u0i = ai ui ,
1in
(k)
:=
2
1
k
u02
+ +
n
1
k
u0n
lm E (k) 0
escribamos
X (k) = k1 (u01 + E (k) )
y consideremos un funcional lineal : Cn C, entonces
(X (k) ) = k1 ((u01 ) + (E (k) ))
y hagamos
(X (k+1) )
(X (k) )
"
#
(u01 ) + (E (k+1) )
= 1
(u01 ) + (E (k) )
k =
X (k) k1 u01
es decir, X (k) se aproxima a un vector propio.
29
Algoritmo
Tomemos como funcional lineal
Cn
(x1 , . . . , xn ) x1 + x2 + + xn
es decir
(x) =
n
X
xi con x = (x1 , . . . , xn )
i=1
input
output
f or
n, A, x, M
, vecp
k = 1, . . . , M
y Ax
(y)
x
=
vecp = x
1.5.
Similaridad
Definici
on 1.7. Sean A, B Mn C decimos que A y B son matrices similares y en este caso escribimos A B, si existe una matriz no singular
S Mn (C), tal que S 1 AS = B. S en este caso se denomina matriz de
similaridad. La transformacion
Mn (C) Mn (C)
A
S 1 AS
se denomina transformaci
on de similaridad via
Observaciones.
1.
30
2.
d)
A que esta asociada cada clase de equivalencia? o mejor Que caracteriza cada clase de equivalencia?
T1
T2
T3
Mn (C)
y ademas
2 1
1
{[ Id ]B
= [ Id ]B
B1 }
B2
31
Ejercicios
1.1 Para que tipos de matrices (de las definidas anteriormente) se tiene que
(A) = (A ).
1.2 Caracterizar las matrices para las cuales todo vector propio a izquierda
es un vector propio (a derecha).
1.3 Sea A Mn (C) y S Mn (C) no singular, entonces
pS 1 AS (x) = pA (x)
1.4 Pruebe (c) (a) del teorema (1.1). Use maA () = mgA () y construya
la matriz no singular S, que diagonalice a A. (Regresarse en los pasos
de implicacion anteriormente probada).
1.5 Sean, Ai Mni (C) donde 1 i k y consideremos la matriz diagonal
por bloques
A1 0
. .
..
. . ...
A=
0 Ak
Entonces, A es diagonalizable si y solo si Ai es diagonalizable para todo
i.
32
Captulo 2
Equivalencia Unitara y
Matrices Normales
2.1.
Matrices unitarias
Definici
on 2.1. Un conjunto de vectores {v1 , . . . , vk } Cn , es un conjunto
ortogonal, si vi vj = 0 para todo i 6= j, donde i, j = 1, . . . , k. Si ademas
vi vi = 1 para i = 1, . . . , k, entonces el conjunto es llamado ortonormal.
Observaciones.
1.
2.
Definici
on 2.2. Una matriz U Mn (C) se dice unitaria si U U = U U =
In , se dice ortogonal si U t U = U U t = In . Una matriz ortogonal con entradas reales se denomina ortogonal real.
Ejercicio 30. Observe que
"
cos sen
T () =
sen cos
con 0
34
i = 1, . . . , n
=1
Ahora definamos aij = ei ej y a
ij = ei ej donde ( =
1 i, j n. Entonces, si i 6= j
aij aij = (ei ej ) (ei ej )
=2
1) para
(2.1)
35
y
a
ij a
ij = (ei ej ) (ei ej )
= (ei + ej )(ei ej )
(2.2)
=2
Ahora observese que
U (i) U (j) = U aij
(2.3)
= U (ei ej )
y que
U (i) U (j) = U a
ij
= U (ei ej )
Usando la hipotesis, (2.1) y (2.3)
2 = aij aij
= (U (i) U (j) ) (U (i) U (j) )
= ([U (i) ] [U (j) ] )(U (i) U (j) )
= [U (i) ] U (i) + [U (j) ] U (j) [U (j) ] U (i) [U (i) ] U (j)
= 2 + [U (j) ] U (i) [U (i) ] U (j)
concluimos de lo anterior que
[U (j) ] U (i) = [U (i) ] U (j) para i 6= j
(2.4)
36
(2.6)
Definici
on 2.3. Un operador T : Rn Rn es una isometria euclideana
si
kx yk = kT x T yk
para todo x, y Rn .
Ejercicio 32. Si T (0) = 0 pruebe que T es lineal.
Observaciones.
1.
2.
3.
Ejercicio 33. Consideremos el espacio vectorial Mn (C), dotado de la metrica euclidiana, heredada del producto interior
hA, Bi = Tr(B A)
para todo A, B Mn (C). Sean {Ak }kN y {Bk }kN sucesiones de matrices
en Mn (C) tales que Ak A y Bk B, siendo A y B matrices (fijas).
Entonces:
(a) Ak Bk AB
(b) Ak A
37
(c) Atk At
(d) Ak A
Proposici
on 2.1. Un y On (R) son conjuntos cerrados y acotados, y en
consecuencia compactos en Mn (C).
Demostraci
on. (Para Un ) Sea U Un , entonces U U = In , por consiguiente
2.2.
Equivalencia Unitaria
Definici
on 2.4. Sean A, B Mn (C), decimos que A es unitariamente
equivalente a B, si existe una matriz unitaria U Mn (C) tal que
A = U BU .
Ejercicio 34. Pruebe que la (similaridad) equivalencia unitaria es una
relacion de equivalencia. Ademas pruebe que es mucho mas fina que la
relacion de similaridad.
Proposici
on 2.2. Sean A = [ aij ]nn y B = [ bij ]nn matrices en Mn (C).
Entonces si A es unitariamente equivalente a B,
kAk kF = kB k kF
para cualquier n
umero natural k
38
Ejercicio 35. No todo par de matrices similares, son unitariamente equivalentes, por ejemplo.
#
#
"
"
1 1
3 1
yB=
A=
0 2
2 0
son similares, pero no unitariamente equivalentes.
#
"
#
"
1 0
1 0
1
, entonces S =
Respuesta. Notese que si S =
2 1
2 1
Ademas
"
#"
#"
# "
#
1 0 1 1 1 0
3 1
=
2 1 0 2 2 1
2 0
Pero
kAk2F = 14 6= 6 = kBk2F
de lo anterior se sigue que A y B no son unitariamente equivalentes.
2.3.
Teorema de Triangularizaci
on Unitaria de
Schur
U1 AU1 =
e
0n1,1
A
39
2.4.
Proposici
on 2.3. Sea A Mn (C), con valores propios 1 , . . . , n , entonces
k
det(A ) =
n
Y
!k
y Tr(Ak ) =
i=1
n
X
ki .
i=1
Demostraci
on. (Ejercicio)
Ejercicio 36. El producto de matrices triangulares superiores es triangular
superior
Proposici
on 2.4. Sean, A1 , . . . , An Mn (C), matrices triangulares supe(k)
(k)
riores, tales que Ak = (aij )nn , en donde akk = 0 para 1 k n, entonces
A1 An = 0nn .
Demostraci
on. (Ejercicio)
Ejercicio 37. A, U Mn (C) U unitaria. Probar que (U AU )k = U Ak U
k = 0, 1, . . .
Teorema 2.3 (Cayley-Hamilton). Sea pA (t) el polinomio caracterstico
de A Mn (C), entonces
pA (A) = 0nn .
Demostraci
on. Supongamos que la matriz A, tiene valores propios 1 , . . . , n .
Podemos escribir,
n
Y
pA (t) =
(t i ).
i=1
40
pA (A) = pA (U T U ) = U
n
Y
(t i )U
i=1
= U ((T 1 In ) (T n In )) U.
(k)
(k)
Ejercicio 38. Indique en donde fallan las siguientes dos seudo-pruebas del
Teorema de Cayley-Hamilton.
1.
2.
Proposici
on 2.5. Sea A Mn (C), entonces para todo r N, Ar es una
combinaci
on lineal de In , A, . . . , An1 .
Demostraci
on. (Por inducci
on sobre r)
El resultado es claro para r = 0.
41
(2.7)
= 0 A + 1 A2 + + n1 An
Pero del teorema de Cayley-Hamilton, si pA (t) = tn +an1 tn1 + +a1 t+a0 ,
entonces pA (A) = An + an1 An1 + + a1 A + a0 In = 0n , de donde
An = an1 An1 a1 A a0 In .
(2.8)
42
Demostraci
on. Sean, U Mn (C) una matriz unitaria tal que U AU = T =
(tij ), es una matriz triangular superior y > 0 . Por la proposicion anterior
existe una coleccion de escalares d1 , . . . , dn C, tal que
|di | <
n1/2
y t11 + d1 , . . . , tnn + dn son distintos. Sea E = diag(d1 , . . . , dn ). Observese
que T + E tiene n distintos valores propios. Notese que t11 + d1 , . . . , tnn + dn
son los valores propios de la matriz A + U EU . Sea A() = A + U EU ,
entonces
kA A()k2 = kU EU k2
= Tr(U E EU )
= Tr(E E)
X
=
|di |2
<n
n
=
43
Proposici
on 2.9. Para cualquier matriz A Mn (C), y para cada > 0,
existe una matriz no singular S Mn (C) tal que
S1 AS = T = (tij ())nn ,
en donde T es una matriz triangular superior con |tij ()| < , para cada
1 i < j n.
Demostraci
on. Por el teorema de Schur, existe una matriz unitaria
U Mn (C), y una matriz triangular superior T Mn (C), tales que
U AU = T.
44
S1
AS0 = D1
U AU D0
0
0
= D 1 U AU D0
1 0 0
0
t11 t12 t1n
1 0
0
0 t22 t2n
0 10 0
0 0
=
..
.
.
..
..
.
0
0 0
0
0
0 0
n1
1
0 0
0
0
0 tnn
0 0 0
0
1 0 0
0
t11 0 t12 n1
t1n
0
0 10 0
0 0 t22 n1 t2n
0
=
..
.
..
..
.
0 0
0
0
.
0
n1
n1
1
0
0
0 0 tnn
0 0 0
0
n2
t22 0 t23 0 t2n
0
.
= ..
0
t33 n3
t
2n
0
.
..
..
..
..
.
.
.
.
.
.
nn
0
0
0 0 tnn
0
0
..
.
0
n1
0
Denotemos la u
ltima matriz por T () = (tij ())nn . Notese que
tij () = ji tij para 1 i j n y tij () = 0 para i > j., ademas.
|tij ()| ji
0 |tij|
0 t
t=
t
El teorema de triangularizaci
on de Schur afirma que toda matriz puede
ser triangularizable superiormente usando matrices unitarias. Que tanto
podemos hacer con matrices ortogonales reales?
Proposici
on 2.10. Sea A Mn (R), entonces existe una matriz ortogonal
A1
0
Qt AQ = T =
..
.
0
A2
..
.
..
.
An
45
(2.9)
v
v2 v n
1
V t AV =
,
0n1,1
A0
en donde A0 Mn1 (R). Por hipotesis de induccion tenemos que existe una
matriz ortogonal V 0 Mn1 (R) tal que [V 0 ]t A0 V 0 satisface la proposicion.
Hagamos
"
#
1
01,n1
Q=V
,
0n1,1
V0
y observemos que Qt AQ tiene la forma (19) indicada por la proposicion.
Caso II: Ahora supongamos que A es una matriz que no tiene valores
propios reales. Sean, (A) y v un vector propio unitario de A con valor
propio asociado . Escribamos = a + b, con a, b R y v = x + y con
x, y Rn . Entonces,
Av = A(x + y)
= (a + b)(x + y)
= (ax by) + (ay + bx).
46
(2.10)
q t Aq
t Aq
tA
q
v
v
v
1
2
3
n
2
2
1
V t AV =
..
..
.
.
0
A
t
t
qn Aq1 qn Aq2
i
h
q t Aq1 q t Aq2 v t A v v
3
n
2
2
1
=
0
0
A
0
0
Los ceros en las primeras dos columnas de la matriz anterior, aparecen ya
que,
Aq1 , Aq2 hq1 , q2 i
(2.11)
como R-subespacio de Rn y que
hq1 , q2 i = hq3 , . . . , qn i .
Podemos comprobar (2.4) , mediante los siguientes razonamientos: Notese,
que
Aq1 , Aq2 hv, vi = hx, yi, pero A, q1 y q2 tienen entradas reales, luego
47
A
t
Q1 AQ1 =
.
0(n1)x1 A0
Notese que necesariamente A es un n
umero real y el conjunto
F 0 = {A0 Mn1 (R) : A F}
es una coleccion de matrices conmutantes, para las cuales seg
un la hipotesis
t
0
de induccion existe una matriz ortogonal Q2 , tal que Q2 A Q2 es una matriz
de la forma (19) , para todo A F. Se sigue que
"
#
1
01x(n1)
Q = Q1
0(n1)x1
Q2
es la matriz que lleva cada matriz en F, a la forma (19).
Ahora supongamos que el vector v, tiene por lo menos una entrada no real
entonces para cada A F, existe un valor propio asociado A . Notese que
si A es real o no real, en cualquiera de los dos casos se tiene que v y v
son vectores propios l.i. de cada A F. Podemos en este caso seguir un
48
2.5.
Matrices normales
Definici
on 2.6. Una matriz A Mn (C), es normal si AA = A A.
Ejemplos.
(a) Toda matriz unitaria es normal.
(b) Toda matriz hermitiana es normal.
(c) Toda matriz antihermitiana es normal.
NOTA.
(a) Las matrices simetricas y antisimetricas complejas no son en general
normales. Un ejemplo de una matriz simetrica que no es normal es,
"
#
1 i
i 1
"
#
1 1
(b)
es una matriz normal, que no es unitaria, hermitiana o anti1 1
hermitiana.
(c) El conjunto de las matrices normales no forma un grupo; ya que
"
#
"
#
0 1
1 i
A=
yB=
1 0
i 1
49
i 1
AB =
1
i
no lo es.
Demostraci
on.
(a) (b) Supongamos que A es una matriz normal, entonces A conmuta con
su adjunta, se sigue por un teorema anterior que existe una matriz unitaria
U, tal que U AU y U A U son matrices triangulares superiores, llamemos a
50
Tr(A A)
p
= Tr(T T )
v
u n
uX
=t
|i |2 .
kAkF =
i=1
(c) (d) Sabemos que existe una matriz unitaria U , tal que U AU = T =
(tij )nn es una matriz triangular superior. Se sigue que
kAk2F = k T k2F
=
n
X
n
X
|i |2 +
i=1
|tij |2
1i<jn
|tij |2 = 0
1i<jn
de donde tij = 0 para 1 i < j n, esto indica que T es una matriz diagonal, y en consecuencia las columnas de U forman un conjunto de n vectores
propios de A linealmente independientes. (d) (a) Sea {v1 , . . . , vn } una
coleccion de vectores propios de A hcon valores propios
asociados 1 , . . . , n
i
respectivamente. Entonces, si V = v1 vn
V AV = diag(1 , . . . , n )
51
de aqu,
A = V diag(1 , . . . , n )V
y como diag(1 , . . . , n ) conmuta con diag(1 , . . . , n ), se cumple que
A A = AA
Ejercicio 43. Probar en el teorema anterior la equivalencia entre los literales (a) y (e).
Ejercicio 44. x Ax = 0 para todo x Cn , si y solo si, A es la matriz nula.
Respuesta.
) Notese que la hipotesis implica que todos los valores propios de A, son
nulos. Ademas, por el teorema de triangularizaci
on unitaria de Schur, podemos suponer que A, es triangular superior. De lo anterior, si A = (aij ),
entonces aij = 0 para i > j. Observese que
parai = j et Ae = a = 0
i
ii
i
t
(ei + ej ) A(ei + ej ) = aii + aji + ajj + aij
si i 6= j
aij + aji = 0
por lo tanto aij = 0.
Ejercicio 45. Probar que una matriz A es normal, si y solo si,
kAxk2 = kA xk2 para todo x Cn
Respuesta.
) Observemos primero que si A es normal, entonces
kAxk22 = hAx, Axi
= x A Ax
= x AA x
= hA x, A xi
= kA xk22
) Supongamos ahora que para todo x Cn , se tiene que
kAxk2 = kA xk2
52
o equivalentemente que
x A Ax = x AA x
se sigue que
x (A A AA ) x = 0
y por un ejercicio anterior se tiene que A es normal.
Ejercicio 46. Probar que una matriz A es normal si todo vector propio a
izquierda es un vector propio a derecha, de A.
Respuesta.
) Notese que A In es normal, entonces
k(A In )vk2 = k(A In )vk2
= 0.
Se sigue que, A v = v y en consecuencia v A = v .
) (Por inducci
on sobre n)
Si n = 1 la afirmacion es evidente.
Supongamos que entonces que se cumple para todo natural mayor que 1.
Sean, v1 Cn , un vector propio unitario de A, y C su correspondiente
valor propio asociado, entonces por hipotesis
Av1 = v1 y v1 A = v1 .
n
Completemos una
i {v1 , u2 . . . , un } para C y construyamos
h base ortonormal
la matriz V1 = v1 u2 un , se sigue que
v1
h
i
u2
V1 AV1 =
A
v
u
u
1
2
n
..
.
un
=
0
(n1)x1
01x(n1)
u2
h
i
.
.. A u2 un
un
53
..
A u2 un
A0 =
.
un
cumple la hipotesis de induccion. Tomemos x = (x2 , . . . , xn ) Cn1 , un
vector propio de A0 . Ahora, si mgA () = 1, entonces dado que mgA () < n
tenemos que necesariamente debe existir un vector propio unitario.
2.6.
La factorizaci
on QR
A0 : = A = Q0 R0
..
.
FQR
FQR
A 1 = R 0 Q0 A 1 = Q 1 R1 A 2 = R 1 Q1 . . .
..
.
Ai = Ri1 Qi1
i = 1, 2, . . .
54
2.6.1.
M
etodos para encontrar la factorizaci
on QR
x=
x1
x2
L
y = kxk2
55
x2
.
x1
Podemos calcular Q, sin necesidad de calcular usando las ecuaciones
x1
x2
cos = p 2
y sen = p 2
2
x1 + x 2
x1 + x22
tg =
"
a11 a12
A=
a21 a22
56
y hagamos
"
#
r11 r12
R=
.
0 r22
Entonces
Qt A = R
o equivalentemente
A = QR
Si A Mn (R), donde n es cualquier n
umero natural el procedimiento es
similar. Un rotor i, j es una matriz de la forma
1 0
0 0
0 1
0 0
..
cos
sen
0
1
0
.
.
..
..
..
Qij =
0
1
0
sen 0 0 cos
..
1 0
0 0
0 0
0 1
Un rotor luce como una matriz identica, salvo por un par de unos que
han sido reemplazados por cos y un par de ceros que fueron reemplazados
por sen y sen respectivamente.
Ahora efectuemos el producto Qt A, en donde
A= .
..
.
..
an1 an2 ann
57
aii
a2ii + a2ji
, sen = q
aji
a2ii + a2ji
A(1)
z
}|
{
= Qtn1 Qt31 Qt21 A
58
x
ux
L
y
xy
x+y
, v=
kx yk
kx + yk
y=
..
.
0
59
Ejercicios
2.1 Observe que
"
cos sen
T () =
sen cos
con 0
60
= U Ak U
2.9 Indique en donde fallan las siguientes dos seudo-pruebas del Teorema de
Cayley-Hamilton.
a)
b)
61
Captulo 3
Formas Can
onicas
Introducci
on
Sabemos que no todas las matrices son diagonalizables via una relacion
de similaridad. Tambien sabemos que toda matriz puede triangularizarse
superiormente a traves de matrices unitarias. Ademas podemos llevar via
similaridad a cualquier matriz a la forma diagonal por bloques en donde
cada bloque es una matriz triangular superior con un u
nico valor propio.
3.1.
63
Forma can
onica de Jordan
Definici
on 3.1. Sea C, un bloque de Jordan Jk (), k > 1, es una
matriz k k, triangular superior de la forma
1 0 ....... 0
0 1 . . . . . . . 0
.
..
.
.
.
.
. 0 .. ..
.
.
.. .. ..
.
.
.
. ..
.
.
..
.
. 1
.
0 ........... 0
Si k = 1, J1 () := []
Una matriz de Jordan J Mn (C) es una (suma directa) matriz en bloques de Jordan.
Jn1 (1 )
0
..
.
0
Jn2 (2 ) . .
.
J = .
, n1 + n2 + + nk = n.
..
..
..
.
.
0
0 Jnk (k )
En donde los escalares i , no son necesariamente distintos.
Observaciones.
1.
2.
64
0 1
0
. .
.. . . . . . . . .
.
.. ..
Jk (0) =
.
.
..
.
.
..
..
0 ............
0
..
.
Entonces
(a) Jkt (0)ek = 0.
(b) Jkt (0)ei = ei+1 , para 1 i k 1.
(c) Jk (0)ei+1 = ei , para i = 1, 2, . . . , k 1.
(d) Jk (0)p = 0, para p k.
(e) (I Jkt (0)Jk (0))x = (xt e1 )e1 , x Cn .
Demostraci
on.
(a)
t
Jk (0)ek =
0
.
..
............ 0
0
..
..
..
.
.
.. .
.. ..
=0
.
.
.
. .
. . . . . . ..
.
.
. . 0
1
0
1 0
65
0 ............ 0
0
.
.
1 . .
.. ..
.
.
.
t
.
..
Jk (0)ei = 0 . . . .
1 = ei+1 , 1 i k 1
.
. .
.
.. . . . . . . . . ...
.
0
0 0
1 0
(c)
Jk (0)ei+1
0 1
0
. .
.. . . . . . . . .
.
.. ..
=
.
.
..
.
..
..
.
0 ............
0
0
.
..
..
.
= ei , 1 i k 1
1
0
.
.
1
.
0
0
0
.
..
............ 0 0 1
0
.
.
..
.
.
.
..
.
x1
.. . . . . . .
.. ..
..
.. ..
.. ..
(I Jkt (0)Jk (0))
.
.
.
.
. .
. =I
.
.
. . . . . . . .
..
xn
.
.
. . .
.
0
1 0 0 ............
0
x1
. x2
.
=
. ..
.
xn
xn
= x1 e1
= (xt e1 )e1
I Jkt (0)Jk (0) es una proyeccion sobre el primer eje.
0
..
.
x1
.
0
..
x
1
n
0
66
Teorema 3.1. Sea A Mn (C) una matriz triangular estrictamente superior (es decir, aij = 0 para i 6= j ). Entonces, existe una matriz no singular
S Mn (C) y enteros n1 , n2 , . . . , nm con n1 n2 nm 1 y
n1 + n2 + + nm = n tales que
Jn1 (0)
0
..
.
0
Jn2 (0) . .
.
1
A=S .
(3.1)
S .
..
..
..
.
.
0
0 Jnm (0)
Si A es real, la matriz S puede tomarse real.
Demostraci
on. "Si n =
# 1, A = [ 0 ], el resultado es trivial.
0 a
Si n = 2, A =
, a C, a 6= 0 y
0 0
"
#"
#"
# "
#
1
0
0
a
a
0
0
1
a
=
0 1 0 0 0 1
0 0
Procedemos por induccion completa sobre n, asumimos que n > 1, y que el
resultado ha sido probado para todas las matrices estrictamente triangulares
superiores de orden mayor que n.
Inicialmente particionemos A, como sigue
0 at
.
..
A=
A1
0
donde a Cn1 y A1 Mn1 (C) es una matriz estrictamente triangular
superior. Por la hipotesis de induccion hay una matriz S1 Mn1 (C) tal
que S 1 AS tiene la forma (3.1), es decir
Jk 1
Jk 2
S 1 A1 S1 =
..
(3.2)
Jk s
"
#
Jk1 0
=
0 J
67
Jk2
..
Mnk 1
J =
.
1
Jk s
Es importante observar que J k1 = 0. Ahora
1 0 0
1
0 at
1 0
0
0
0
.
.
.
1
.
S1
.
.. A1 0 S
..
1
0
0
0
0
=
..
.
0
0 0
S11
at S1
0
.
.
.
a t S1
A 1 S1
S11 A1 S1
(3.3)
i
h
Consideremos la particion del vector, at S1 = at1 at2 , en donde a1 Ck1 y
a2 Cn(k1 +1) . Podemos escribir (3.3), como
"
# "
#
0 at1
1
0
1 0
A
= 0 Jk1
0 S11
0 S1
0 0
Efectuemos,
1 at1 Jkt 1
I
0
0
0
at2
0
J
00 Jk1 0 0 Ik1
I
00 Jk1 0
0=0
I 0 0
0
0
I 0 0
J 0
0
I
J
= 0
Jk 1
0
0
0
J
Jk 1
0 = 0
Jk 1
0
0
0
0
J
0
0
J
(3.4)
68
1
t e )et at
te
0
0
te
0
0
a
0
(a
1
1
a
1
1
2
1
1 1
0
0
I
0
0
I
0 =
J
0
k
1
0
0 at1e I
0
0 (at1 e1 )I
0
0
J
1 1
1
t e )et (at e )at
0
0
te
0
(a
1
1
a
1
1
1
2
1 1
0
=
0
I
0
J
0
k
1
1
t
0
0 at e1 I
0
0
(a1 e1 )J
1
0 et1 at2
= 0 Jk1 0
0 0
J
"
#
J e1 at2
=
0
J
donde
"
#
t
0
e
1
J =
= Jk+1 (0)
0 Jk 1
i+1 = ei ,
Ahora usamos la propiedad Je
"
#"
#"
# "
I e2 at2 J e1 at2 I e2 at2
I
=
0
I
0
J
0
I
0
"
J
=
0
"
J
=
0
para i = 1, 2, . . . , k
#"
#
2 at + e 1 at
e2 at2 J Je
2
2
I
0
J
#
2 at + e 1 at + e 2 at J
Je
2
2
2
J
#
e2 at2 J
J
69
0 0 at2
0 Jk 1 0
0 0
J
la cual es una matriz similar por permutacion de filas y columnas a la matriz
Jk1 0 0
(3.5)
0 0 at2
0 0 J
Por hipotesis de induccion, hay una matriz no singular S2 Mnk tal que
"
#
t
0
a
2
S21
S2 = J Mnk
0 J
es una matriz con ceros en la diagonal principal. Por lo tanto la matriz (3.5)
y en consecuencia A son similares a la matriz de Jordan
"
#
Jk 1 0
0 J
Jn1 (1 )
0
1
..
S
A=S
.
0
Jnk (k )
=: SJS 1
en donde n1 + + nk = n y la matriz de Jordan J es u
nica, salvo permutaci
on de sus bloques de Jordan diagonales. Los valores propios 1 , . . . , k
no son necesariamente todos distintos. Si A es una matriz real con valores
propios reales, entonces S puede ser tomada real.
70
Demostraci
on. Sabemos por un teorema anterior que existe una matriz no
T1
AS =
T2
..
Tn
=: T
Consideremos ahora la matriz
1 In1
..
.
s In s
T 1 1 In 1
0
..
.
Ts s Ins
S1
0
S2
S=
..
0
Ss
es una matriz no singular que lleva a A por similaridad a una matriz de
Jordan.
Ejercicio 48. Si A B, entonces (A I)m (B I)m , para cada C
y cada m = 0, 1, 2, . . .
71
b1 b2 bn
.
..
0 b
. ..
1
B=. .
.
..
.. .. b
2
0 0 b1
Ejercicio 51.
(a) La suma y el producto de matrices Toeplitz triangulares superiores es
una matriz Toeplitz triangular superior.
(b) La inversa de una matriz Toeplitz triangular superior, es una matriz
Toeplitz triangular superior.
(c) Son las afirmaciones (a) y (b) ciertas para matrices Toeplitz en general.
Ejercicio 52. Sea C y Jn () Mn (C) un bloque de Jordan entonces
rank Jn () = n, si 6= 0
n
si 6=
rank(Jn () In ) =
n 1 si =
Definici
on 3.2. Una matriz A es no derogatoria, si para todo (A),
mg() = 1
3.2.
Polinomios y matrices
72
Demostraci
on.
) Si existe un polinomio p() tal que
B = P (A),
evidentemente B conmuta con A.
) Supongamos ahora que A y B conmutan. Sabemos por el teorema de
descomposici
on de Jordan, que existe una matriz no singular S, tal que
A = SJS 1
para alguna matriz de Jordan J. Observemos que
SJS 1 B = BSJS 1
de donde
JS 1 BS = S 1 BSJ
por lo tanto, si probamos que existe un polinomio p(), tal que
S 1 BS = P (J)
claramente tendramos que
B = SP (J)S 1
= P (SJS 1 )
= P (A),
en consecuencia podemos suponer que A = J. Supongamos ahora que 1 , 2 , . . . , k
son los distintos valores propios de A. Podemos escribir
Jn1 (1 )
Jn2 (2 )
, 1 k n,
A=
..
Jnk (k )
73
donde n1 + n2 + + nk = n. Ademas, escribamos B por bloques, de tal manera que la estructura en bloques de B coincida con la estructura en bloques
de A. Es decir, B esta compuesto por k k bloques, en donde el bloque Bij
es de tama
no ni nj para cada 1 i, j k. Aplicando la conmutatividad
de A y B se tiene que
Jni (i )Bij = Bij Jnj (j ) 1 i, j k
esto implica por un ejercicio anterior que Bij = 0 para i 6= j, ya que, i 6= j .
Se deduce que B tiene una estructura diagonal por bloques de la forma
B1
0
B2
B=
..
0
Bk kk
en donde Bi := Bii , 1 i k. Usando de nuevo la conmutatividad
Bi Jni (i ) = Jni (i )Bi
Pero Jni (i ) = Jni (0) + i Ini , de donde se concluye que
Bi Jni (0) = Jni (0)Bi
De aqu y un ejercicio anterior tenemos que Bi es de la forma Toeplitz
triangular superior, es decir
(i) (i)
(i)
b 1 b2 b n i
.
(i) . .
. ..
b1
Bi =
. . b(i)
2
(i)
b1
En lo que sigue, construiremos un polinomio qi (t) de grado ni 1, con la
propiedad
0,
si i 6= j
qi (Jnj (j )) =
Bi , si i = j
74
k
Y
(t j )nj
j=1
j6=i
k
P
nj = n ni . Observemos que
j=1
j6=i
m1 m2 mp
.
.
m1 . . ..
M =
..
. m2
m1
pxp
75
0,
si i 6= j
=
Bi , si i = j
De esta forma el polinomio
p(t) = p1 (t) + p2 (t) + + pk (t)
es tal que P (J) = B.
Observaci
on. Notese que si
Jn (1 )
1
..
J =
.
Jnk (k )
entonces
P (Jn1 (1 ))
P (J) =
..
B1
0
..
.
Bk
.
P (Jnk (k ))
=B
Teorema 3.4. Sea A Mn (C), existe un u
nico polinomio m
onico qA (t) de
grado mnimo que anula a A. El grado de este polinomio es n. Adem
as,
si p(t) es cualquier polinomio tal que p(A) = 0, entonces qA (t) divide a p(t).
76
Definici
on 3.3. El u
nico polinomio monico qA (t) que anula a una matriz
A Mn (C) se denomina el polinomio minimal de A
Corolario 3.1. Las matrices similares tienen el mismo polinomio caracterstico y minimal.
Teorema 3.5. Sea A Mn (C) una matriz cuyos valores propios distintos
son 1 , . . . , m , el polinomio minimal de A es
qA (t) =
m
Y
(t i )i
i=1
3.3.
Matriz compa
nera de un polinomio m
onico
0
a0
a1
1 0
..
.
.
A = 0 . . . .
(3.6)
.
.
.
.
. .
. . . 0 an2
.
0 0 1 an1
77
veamos:
Ie1 = e1 = A0 e1
Ae1 = e2 = A1 e1
Ae2 = e3 = A2 e1
..
.
Aen1 = en = An1 e1
entonces
Aen = an1 en an2 en1 a1 e2 a0 e1
= an1 An1 e1 an2 An2 e1 a1 Ae1 a0 Ie1
= A n e1
Concluimos de la anterior ecuacion que
p(A)e1 = (An + an1 An1 + an2 An2 + + a1 A + a0 I)e1
Ademas,
p(A)ek = p(A)Ak1 e1
= Ak1 p(A)e1
= Ak1 0
=0
para cada k = 1, . . . , n.
Hemos probado que P (A)ek = 0, para todo vector en la base canonica de Cn ,
luego
P (A) = 0. Con esto comprobamos que p(t) es un polinomio monico de
grado n, que anula a A. Por otro lado si
q(t) = tm + bm1 tm1 + + b1 t + b0
es un polinomio monico de grado m < n, que anula a A, tendriamos que
q(A)e1 = Am e1 + bm1 Am1 e1 + + b1 Ae1 + b0 e1
= em+1 + bm1 em + + b1 e2 + b0 e1
=0
78
79
Ejercicios
3.1 Si A B, entonces (A I)m (B I)m , para cada C y cada
m = 0, 1, 2, . . .
3.2 Sea 6= y B Mnn , si
Jn ()B = BJn ()
entonces B = 0
3.3 Sea B Mnn (C), tal que BJn (0) = Jn (0)B, entonces B es una matriz
Toeplitz triangular superior, es decir, B es de la forma
b1 b2 bn
..
..
0 b
.
.
1
B=. .
..
.. ... b
2
0 0 b1
3.4 (a) La suma y el producto de matrices Toeplitz triangulares superiores
es una matriz Toeplitz triangular superior.
(b) La inversa de una matriz Toeplitz triangular superior, es una matriz
Toeplitz triangular superior.
(c) Son las afirmaciones (a) y (b) ciertas para matrices Toeplitz en general.
Captulo 4
Matrices Hermitianas y
Sim
etricas
4.1.
Definici
on 4.1. Una matriz A Mn (C) es:
(i) hermitiana, si A = A
(ii) antihermitiana, si A = A
(iii) sim
etrica, si A = At
(iv) antisim
etrica, si A = At
Notaci
on. Denotaremos el conjunto de las matrices hermitianas por Hn , y
el de las simetricas por Sn (C) si sus entradas son complejas, y por Sn (R) si
sus entradas son reales.
Observaciones.
1.
2.
Si A Hn , Ak Hn para cada k = 0, 1, 2, . . . .
80
81
3.
4.
5.
6.
Si A Hn , entonces iA es antihermitiana.
7.
Si A es antihermitiana, entonces iA Hn .
8.
9.
dim(Hn ) =
n(n+1)
2
(n1)n
2
= n2
Demostraci
on. Sea A Hn , y sean AR su parte real y AI su parte
imaginaria, as:
A = AR + iAI
entonces,
(AR + iAI ) = AR + iAI
de donde
AtR iAtI = AR + iAI
por lo tanto AtR = AR y AtI = AI , Es decir, su parte real es simetrica
y su parte imaginaria es antisimetrica.
10.
82
11.
12.
13.
83
Las matrices hermitianas, antihermitianas, simetricas reales y antisime-tricas reales son normales. Sin embargo, existen matrices simetricas y antisimetricas complejas que no son normales. Por ejemplo:
"
#
i 1
A=
1 1
es simetrica, pero no es normal
"
#"
#
i
1
i
1
AA =
1 1
1 1
"
#
2
1+i
=
1i
2
"
#"
#
i 1 i 1
A A=
1 1 1 1
"
#
2
1i
=
1+i
2
84
..
eti
. ei = bii = 0
bni
Por otro lado tenemos que
(eti etj )B(ei + etj ) = eti Bei + etj Bej + (eti Bej etj Bei ) = 0
donde 2 = 1. Concluimos que
b1j
b1j
t ..
t ..
e i . = ej .
bnj
bnj
por lo tanto
bij = bji
por otro lado,
(ei + ej )t B(ei + ej ) = 0,
de aqu
bij = bji .
Concluimos que B = 0 y por lo tanto A = A
85
Ejercicio 53. Probar que una matriz A es hermitiana, si y solo si, para
todo x Cn ,
x A x = x Ax.
Respuesta.
) En este sentido el resultado es evidente.
) Notese que necesariamente x (A A)x = 0, para todo x Cn , se sigue
por el ejercicio anterior, que A A = 0, lo cual implica que A es hermitiana.
Teorema 4.2. Sea F una familia de matrices hermitianas entonces, existe
una matriz unitaria U , tal que U A U es diagonal real para toda A F si y
solo si, F es una familia de matrices conmutantes.
Teorema 4.3. Sea A Mn (C). Las siguientes afirmaciones son equivalentes.
(a) A es similar a una matriz B Mn (R)
(b) A es similar a A
(c) A es similar a A , via una transformaci
on de similaridad hermitiana.
(d) A = HK, donde H, K Mn (C) son hermitianas y por lo menos una
de la dos es no singular.
(e) A = HK, en donde H, K Mn (C) hermitianas.
Demostraci
on.
(a) (b) Existe una matriz no singular S y una matriz
B Mn (R), tales que
A = SBS 1
86
entonces
A = (S 1 ) B t S
= (S )1 B t S
as A B t , pero B t B A, concluimos.
4.2.
Caracterizaci
on variacional de los valores propios de matrices hermitianas
x x=1
x6=0
(iii) mn = mn xxAx
n
x = m
x6=0
x x=1
89
Proposici
on 4.1. Sea A una matriz hermitiana, tal que A = U U donde
= diag(1 , . . . , n ), y 1 n son los valores propios de A, entonces
(a) Si x {U1 , U2 , . . . , Uk1 } ,
mn
x6=0
x Ax
= m
n x Ax = k , k = 2, 3, . . . , n
x x=1
x x
x Ax
= m
ax x Ax = nk , k = 1, 2, . . . , n 1
x x=1
x x
Demostraci
on.
n
X
n
X
n
X
n
X
i x Ui Ui x
i=1
i (Ui x) (Ui x)
i=1
i |Ui x|2
i=1
i |Ui x|2
i=k
n
X
|Ui x|2
= k
i=k
n
X
|(U x)i |2
i=k
= k x x
(4.1)
90
mn
x6=0
x{u1 ,...,uk1 }
x x=1
x{u1 ,...,uk1 }
x Ax = k
w1 ,...,wnk Cn
max
x6=0, xCn
xw1 ,...,wnk
x Ax
= k
x x
max
mn
x Ax
= k
x x
mn
91
x Ax
=
x x
sup
y6=0
y{U w1 ,...,U wnk }
y y
y y
n
X
sup
y y=1
i=1
y{U w1 ,...,U wnk }
n
X
sup
y y=1
y{U w1 ,...,U wnk }
sup
y y=1
i=1
n
X
sup
|yk |2 ++|yn |2 =1
y{U w1 ,...,U wnk }
sup
i |yi |2
i |yi |2
i=k
|yk |2 ++|yn |2 =1
y{U w1 ,...,U wnk }
i |yi |2
i=1
n
X
i yi yi
n
X
|yi |2
i=k
k .
Con esto estamos probando que
sup
x6=0
x{w1 ,...,wnk }
x Ax
k
x x
inf
w1 ,...,wnk Cn
sup
x6=0
x{w1 ,...,wnk }
x Ax
x x
w = u , . . . , w
1
1
nk = unk , x = uk , si n < 2k
w1 = un , . . . , wnk = uk+1 , x = uk , si n 2k
92
x Bx
n (B)
x x
w1 ,...,wk1
mn
x6=0
x{w1 ,...,wk1 }
x (A + B)x
= k (A + B)
x x
=
max
w1 ,...,wk1
mn
x6=0
x{w1 ,...,wk1 }
w1 ,...,wk1
mn
x6=0
x{w1 ,...,wk1 }
w1 ,...,wnk Cn
max
x6=0
x{w1 ,...,wnk }
x (A + B)x
x x
x Ax x Bx
+ = k (A + B)
x x
x x
=
max
mn
mn
w1 ,...,wnk Cn
max
x6=0
x{w1 ,...,wnk }
x Ax x Bx
+
x x
x x
x Ax
+ n (B) k (A + B)
x x
mn
w1 ,...,wnk Cn
max
x6=0
x{w1 ,...,wnk }
x Ax
+ 1 (B)
x x
93
Corolario 4.2. Sean, A, B, matrices hermitianas, con B semidefinida positiva (i.e. sus valores propios son 0) adem
as supongamos que los valores
propios de A y B son arreglados en orden creciente. Entonces,
k (A) k (A + B), k = 1, 2, . . . , n.
(4.2)
Demostraci
on. Por hipotesis 1 (B) 0, y por el teorema anterior se deduce
(4.2)
Demostraci
on. Sea Ar Mr (C) la matriz que se obtiene de A, al borrar las
filas i1 , . . . , inr y las correspondientes columnas, y sea 1 k r. Usando
el Teorema de Courant-Fischer tenemos que
k+nr =
w1 ,...,wrk Cn
max
x6=0
x{w1 ,...,wrk }
x Ax
x x
mn
max
x Ax
x x
mn
w1 ,...,wrk Cn
mn
v1 ,...,vrk Cr
= k (Ar )
x6=0
x{w1 ,...,wrk }
x{ei1 ,...,einr }
max
y6=0, yCr
y{v1 ,...,vrk }
y Ar y
y y
94
w1 ,...,wk1 Cn
mn
x6=0, xCn
x{w1 ,...,wk1 }
x Ax
x x
max
mn
x Ax
x x
max
w1 ,...,wk1 Cn
max
v1 ,...,vk1 Cr
x6=0, xCn
x{w1 ,...,wk1 }
x{ei1 ,...,einr }
mn
y6=0, yCr
y{v1 ,...,vk1 }
y Ay
y y
= k (Ar )
(4.3)
Demostraci
on. Si r n completamos el conjunto {u
h 1 , . . . , ur } aiuna base
ortonormal {u1 , . . . , ur , ur+1 , . . . , un }. Hagamos U = u1 un , como U
es unitaria, U AU tiene los mismos valores propios de A. Observemos que
Br es una submatriz principal de U AU obtenida al borrar las n r ultimas
filas y columnas de U AU . Entonces (4.3) se sigue del teorema anterior.
Corolario 4.4. Sean A Mn (C) hermitiana y r un entero tal que 1 r
n. Entonces,
1 (A) + + r (A) = mn Tr U AU
U U =Ir
U U =Ir
aqu el mnimo y el m
aximo se toman sobre todas las matrices U Mnr (C),
tales que sus columnas son vectores ortonormales.
95
r
X
ai(i)
i=1
r
X
ai(i)
i=1
Demostraci
on. Sea U Mnr (C) con sus columnas ortonormales y hagamos Br = U AU . Entonces, Tr(Br ) = 1 (Br )+ +r (Br ) y por el corolario
anterior k (A) k (Br ), 1 k r, de donde
1 (A) + + r (A) 1 (Br ) + + r (Br )
= Tr(U AU )
por lo tanto
1 (A) + + r (A)
inf
U U =Ir
Tr(U AU )
h
i
en particular, si U = u1 ur , donde Aui = i ui , 1 i r
1 (A) + + r (A) = Tr(U AU )
luego
1 (A) + + r (A) = mn Tr(U AU )
U U =Ir
4.3.
Matrices Sim
etricas Complejas
96
Demostraci
on.
) Si A = U U t , entonces
AA = U U t U U
= U U
notese que los elementos de la diagonal principal de , son reales no negativos, y que por ser triangular superior, los valores propios de
corresponden a los elementos en su diagonal principal.
) Asumamos que los valores propios de AA son reales no negativos. Sea
(, x) un par propio de AA, esto es, AAx = x, con R, 0.
Consideremos ahora las siguientes dos posibilidades:
(a) Ax y x son linealmente dependientes.
(b) Ax y x son linealmente independientes.
Probaremos que para cualquiera de estas dos posibilidades, existen C,
||2 = y v Cn , v 6= 0 tales que Av = v.
Si (a) se da, existe C tal que Ax = x, luego
AAx = Ax
= x
= ||2 x
luego necesariamente
||2 =
Si la condicion (b) se satisface, consideremos el vector y = Ax + x, el cual
es no nulo para todo C y tomemos , tal que ||2 = . Entonces,
Ay = A(Ax + x)
= AAx + Ax
= x + Ax
= x + Ax
= (x + Ax)
= y
97
donde = ||ei
0 2
k = 0, 1, 2, . . .
luego
=
k
2
wt
0
t
V1 AV1 = .
.. A2
0
98
2 wt + wt A2
= .
.
A
A
2
2
.
0
Ahora, puesto que los valores propios de AA son todos reales no negativos
(hip
otesis), entonces los valores propios de A2 A2 son todos reales no negativos. Aplicando la induccion sobre, el tama
no de la matriz, tenemos que
0
existe una matriz V2 Mn1 (C) unitaria y una matriz triangular superior
2 con todos los elementos en la diagonal principal no negativos, tales que
t
V 0 2 A2 V 0 2 = 2
Hagamos
0
V2 =
..
.
0 0
V20
y observemos que
2 wt
0
t t
V2 V1 AV1 V2 = .
2
..
0
99
0
=
..
.
0
2
.
..
.. ..
, con i 0, i = 1, . . . , n.
.
. ..
.
. . . . . . . 0 n
(4.4)
Demostraci
on. Podemos escribir A = B + iC, en donde B, C son matrices
simetricas reales. Si A es simetrica y normal, entonces
AA = (B + iC)(B iC)
= (B 2 + C 2 ) + i(CB BC)
100
y
A A = (B iC)(B + iC)
= (B 2 + C 2 ) + i(BC CB)
de donde CB = BC. En consecuencia, B y C son simultaneamente diagonalizables, por una matriz ortogonal real Q. Si B = QD1 Qt y C = QD2 Qt
en donde D1 y D2 son matrices diagonales reales. Entonces,
A = Q(D1 + iD2 )Qt
= QQt
donde
= D1 + iD2
Reciprocamente, si una matriz A Mn (C), puede escribirse en la forma
(4.4), es claro que A es simetrica. Ademas,
AA = QQt (QQt )
= QQt QQt
= QQt
= QQt
= QQt QQt
= A A
se concluye que A es normal.
Lema 4.1. Sean, A Mn (C) y > 0. Entonces, existe una matriz no
singular S Mn (C), tal que
A = S
Jn1 (1 , )
0
..
.
Jnk (k , )
1
S
(4.5)
Jm (, ) = . .
..
..
..
.
..
.
0
101
0
..
.
Demostraci
on. Sabemos que existe una matriz no singular S1 Mn (C), tal
que si 1 , . . . , k son los valores propios distintos de A, entonces
0
Jn1 (1 )
..
S11 AS1 =
.
0
Jnk (k )
en donde n1 + + nk = n. Sea D = diag(1, , . . . , n1 ) y calculemos
D1 S1 AS1 D =
1
..
.
1
n1
1
0
Jn1 (1 )
..
.
..
0
Jnk (k )
n1
1
..
.
1
1
..
.
..
1
1
n1 1
..
1
..
.
1
n1 1
..
.
n1 1
1
1 2
..
..
1
..
.
n1 1
1 n1 1
102
Jn1 (1 )
0
..
J =
.
0
Jnk (k )
..
0
1
Br =
.
1
0 rr
0
1
Br =
.
1
0 rr
Entonces,
1
(Ir + iBr )(Ir iBr )
2
1
= (Ir + Br2 + i(Br Br ))
2
1
= (Ir + Ir )
2
= Ir
Sr S r =
103
Br Jr (0) =
1
0 1
1
...
..
. 1
0
..
0 0
.
..
1
= .
..
0 1
0
0 1
.
0
..
.
.
.
Jr (0)Br =
. . 1
1
0
0
1 0
0
0
1
0
104
0
.
..
Br Jr (0)Br = .
..
0 1
0
.
1 . .
= .
.. ...
0
0
1
1
0
Observemos que
Jr (0) + Br Jr (0)Br
es simetrica, y que tambien lo es
Br Jr (0) Jr (0)Br
Con esto hemos probado que cada bloque de Jordan es similar a una matriz
simetrica, de aqu se sigue que toda matriz es similar a una matriz simetrica.
Ejercicios
4.1 Probar que una matriz A es hermitiana, si y solo si, para todo x Cn ,
x A x = x Ax.
4.2 Para cualquier permutacion
1 (A) + + r (A)
r
X
r
X
ai(i)
i=1
i=1
ai(i)
105
4.3 Toda matriz puede factorizarse como el producto de dos matrices simetricas, en donde por lo menos uno de los factores es no singular.
4.4 Refute o demuestre, toda matriz simetrica A puede escribirse en la forma
A = QQT en donde Q es ortogonal compleja y diagonal.
Captulo 5
Normas Matriciales
Definici
on 5.1. Una funcion kk : Mn (C) R es una norma matricial, si
y solo si, para todo A, B Mn (C) se satisfacen los siguientes cinco axiomas
(1) kAk 0
(2) kAk = 0 A = 0
(3) kAk = ||kAk, para todo C
(4) kA + Bk kAk + kBk
(5) kABk kAkkBk
Propiedades.
1.
2.
3.
kAkp =
n
X
|aij |
i,j=1
106
, p1
Normas Matriciales
107
entonces, se cumplen (1), (2), (3), (4) y (5). Pruebe que la afirmacion es cierta, si y solo si 1 p 2.
Ejercicio 57. kABkp mn{kAkp kBkq , kAkq kBkp } p1 + q 1 = 1
Ejercicio 58. Probar directamente que la 1-norma y la 2-norma son normas
matriciales.
Respuesta. Sea A Mn (C), la 1-norma o `1 -norma esta dada por la
igualdad
n
X
kAk1 =
|aij |.
i,j=1
Puede verificarse facilmente que k k, satisface las propiedades (1), (2), (3)
(4) para verificar (5) observemos que
n
n
X
X
kABk1 =
|
aik bkj |
i,j=1 k=1
n X
n
X
i,j=1 k=1
n
n X
X
|aik bkj |
|aik ||bkj |
i,j=1 k=1
n
n X
n X
X
n
X
i,j=1 s=1
k=1
|ais ||bkj |
|ais |
n X
n
n
X
X
i=1 j=1
n
X
i=1
n
X
|ais |
s=1
|ais |
s=1
|bkj |
n
X
|bkj |
k=1
n X
n
X
j=1 k=1
|bkj |
! n n
n X
n
X
XX
|ais |
|bkj |
i=1 s=1
kAk1 kBk1
j=1 k=1
108
= lm
p
n
X
|aij |
i,j=1
probar que
kAk = max |aij |
1i,jn
1i,jn
n
X
|aij |
i,j=1
(n2 )
max |aij |
1
1i,jn
1
p
max |aij |.
1i,jn
1i,jn
Normas Matriciales
109
Sin embargo
Ejercicio 61. k|A|k := nkAk es una norma matricial
Demostraci
on.
k|AB|k = nkABk
= n max |
1i,jn
n
X
k=1
n max
n
X
n max
n
X
1i,jn
1i,jn
aik bkj |
|aik ||bkj |
k=1
kAk kBk
k=1
nkAk nkBk
= k|A|k k|B|k
2
n
X
2
kAk2 =
|aij |
.
i,j=1
Demostraci
on.
kABk22
n
n
X
X
=
|
aik bkj |2
i,j=1 k=1
n
n
X
X
i,j=1
|aik |
k=1
n
X
|aik |2
i=1 j=1
n
n X
X
n
n X
X
k=1
i=1 k=1
kAk22 kBk22
k=1
n X
n
n
X
X
|aik |2
|bkj |
n
X
k=1
j=1 k=1
|bkj |2
|bkj |2
110
5.1.
Proposici
on 5.1. Si kk es una norma vectorial definida sobre Cn , entonces
k|A|k := max kAxk,
kxk=1
kABxk
x6=0
kxk
kABxk kBxk
= max
x6=0 kBxk
kxk
= max
Bx6=0
max
y6=0
kAyk
kBxk
max
x6=0 kxk
kyk
= k|A|kk|B|k.
kAxk
kxk
Normas Matriciales
111
2) Es evidente.
Proposici
on 5.2. Sea A Mn (C), entonces las funciones
P
1) k|A|k1 = max1jn ni=1 |aij |, norma columna.
n
X
kAi xi k1
i=1
n
X
|xi |kAi k1
i=1
n
X
|xi |
i=1
n
X
|xi |k|A|k1
max kAk k1
1kn
i=1
= k|A|k1 kxk1
de donde
kAxk1
k|A|k.
kxk1
para todo x 6= 0. Por otro lado observamos que si hacemos z = ek ,
kAek k1 = kak k1 , para todo 1 k n de donde
k|A|k1 = max {kAek k},
1kn
concluimos que
k|A|k1 = max
x6=0
kAxk1
.
kxk1
112
max (A A) = max
luego
k|A|k2 =
max (A A)
kAxk2
.
kxk2
= max
x6=0
3) Sea x Cn , x 6= 0
kAxk = max |
1in
max
1in
n
X
aij xj |
j=1
n
X
|aij ||xj |
j=1
1in
n
X
|aij |
j=1
k|A|k kxk
de aqu se sigue que
max kAxk k|A|k
kxk =1
aki , si a 6= 0
ki
zik = |aki |
1,
si aki = 0
Normas Matriciales
113
kxk =1
= max |
1in
n
X
n
X
aij zjk |
j=1
akj zjk |
j=1
n
X
|akj |
j=1
kxk =1
NOTA.
(A A)
Si A es hermitiana, |max | =
(A).
114
|x Bx| = |
n
X
i x Ui Ui x|
i=1
n
X
|i |(Ui x) Ui x
i=1
(A)
n
X
(Ui x) Ui x
i=1
(A)x x
(A)kxk22
Ejercicio 64. Mostrar que k|U AV |k2 = k|A|k2 , para todo A Mn (C) y
cualquier par de matrices unitarias U, V Mn (C). As, la norma espectral
es una norma unitariamente invariante.
Demostraci
on.
k|U AV |k2 = max kU AV xk2
kxk2 =1
= max (x V A U U AV x)1/2
kxk2 =1
= max (x V A AV x)1/2
kxk2 =1
max x V A AV x
1/2
kxk2 =1
V A AV es hermitiana
= max (V A AV )1/2
Teorema de Rayleight
= max (A A)1/2
= max{|| | (A A)}
= k|A|k2
Normas Matriciales
115
116
#
2 12
, enRespuesta. Tomemos k|A|k = max |aij |, y definamos A =
1i,jn
1 2
tonces (A) si
"
( 2)2
1
=0
2
de donde = 2
2
2 .
2
k|A|k = 2, pero (A) = 2 +
2
Lema 5.1. Sean, A Mn (C) y > 0. Existe una norma matricial k| |k,
tal que (A) k|A|k (A) + .
Demostraci
on. Por el teorema de triangularizaci
on de Schur, existe una matriz unitaria U y una matriz triangular superior , tal que = U AU . Sea
Dt = diag(t, t2 , . . . , tn ) y calculemos
Dt Dt1
t1
td12 td13
td1n
t2 2 t2 d23
t2 d2n
..
..
..
.
.
.
diag(t1 , t2 , . . . , tn ),
..
. t1 dn1,n
n
= [dij ]
2
t1 d23
t2 d2n
..
..
..
.
.
=
.
..
. t1 dn1,n
Normas Matriciales
117
Ahora
k|Dt Dt1 |k1 = max
|j | +
1jn
ti |dij |
i
(A) + max
t |dij |
1jn
i=1
i=1
j>1
j>1
(A) + d max
(A) + d max
(A) + d max
(A) + d max
n1
X
ti
i=1
1
1
t tn
1 1t
1
t
1 1t
1
t1
(A) +
Si tomamos t >
d max
+ 1. podemos definir la norma buscada por
k|X|k := k|Dt U XU Dt1 |k
5.2.
118
Definici
on 5.2. Una norma k||k en Mn (C) es unitariamente invariante,
si satisface
k|U AV |k = k|A|k
para todo par de matrices unitarias U, V . k| |k es normalizada si
k|A|k = kAk2
cada vez que A es de rango 1.
NOTA. No todas las normas matriciales son unitariamente invariantes. Tomemos por ejemplo
"
#
1 1
A=
1 1
y observemos que k|A|k = 2. Ahora, sea
U=
"
1
2
12
1
2
1
2
entonces
k|U A|k
2
2
=
0
0
=2 2
5.2.1.
Descomposici
on a valores singulares
Normas Matriciales
119
en donde V es una matriz unitaria en Mmn (C), = (dij )mm es una matriz diagonal, donde sus entradas diagonales es su descomposici
on a valores
singulares, y k k es una norma invariantemente unitaria entonces
kAk = kk
Por lo tanto, podemos definir k k via una funcion : Rn R que
depende unicamente de los valores singulares de A, de la siguiente manera
kAk = (1 (A), 2 (A), . . . , n (A))
Ahora que propiedades debe cumplir , con el fin de que defina una norma
(vectorial) unitariamente invariante?
1.
2.
120
2.
Es k k homogenea?
Si, por ser homogenea.
3.
Si kAk = 0 entonces A = 0?
Si, pues la descomposicion a valores singulares de A seria
0
.
.. W = 0
A=U
4.
Es kAk > 0, si A 6= 0?
Si, pues si A 6= 0, entonces (1 (A), 2 (A), . . . , n (A)) 6= 0 y por lo
tanto (1 (A), 2 (A), . . . , n (A)) > 0.
Lo u
nico que nos quedaria por probar es la desigualdad triangular, para esto
probaremos un resultado previo.
Lema 5.2. Sean A, B Mn (C) con valores singulares 1 2 n
y 1 2 n respectivamente. Entonces
max
U,V unitarias
Re Tr(AU BV ) =
n
X
i i
(5.1)
i=1
Demostraci
on. es suficiente probar el lema para el caso en que los i son
todos distintos y positivos (ya que por un resultado anterior para > 0 existe
una coleccion de n
umeros reales di , 1 i n tales que 0 < di < n ) y
i +di son todos distintos y positivos. Ahora, consideremos la descomposicion
a valores singulares de A
A = U V
donde = diag(1 , . . . , n ) y, U1 y V1 son unitarias. Sea
A = U1 V1
donde = diag(1 + d1 , . . . , n + dn ). Se sigue que
kA A k2 = kU1 ( )V1 k2
= k k2
= k diag(d1 , . . . , dn )k2
Normas Matriciales
121
U,V unitarias
Re Tr(U T V ) =
n
X
i i
(5.2)
i=1
= Tr(U T V )
, V unitarias. Ahora, como el conjunto de matrices unitarias
para cualquier U
es un conjunto cerrado y acotado existen matrices unitarias U0 y V0 para
las cuales el maximo en (5.2) se alcanza. Sea C = U0 T V0 mostraremos
que C es una matriz diagonal con los elementos en la diagonal principal no
negativos. Para ver esto supongamos que existe un elemento en la diagonal
de C negativo, digamos que c11 < 0. Entonces multiplicando C a izquierda
por
c
11
U 0 = |c11 |
In1
obtenemos que
Re Tr(U 0 C) > Re Tr(C)
122
pues
1 |c11 | + Re(2 c22 + + n cnn ) > Re(1 c11 + + n cnn )
1 c11 + Re(2 c22 + + n cnn )
contradiciendose la optimalidad de C.
Mostramos ahora que los elementos de C por fuera de la diagonal principal son nulos. vamos a suponer que c12 6= 0. Multipliquemos a izquierda y
derecha por
"
#
"
#
|c12 |
c12
0
0
|c12 |
y c12
0
I2
0
I2
respectivamente. Obtenemos una matriz C 0 = [c0ij ], tal que c012 = |c12 | > 0 y
c0ii = cii . Con esto queremos decir que podemos suponer c12 > 0. Sea
"
#
cos sin
R =
sin cos
y hagamos C = C diag(R , In2 ). Entonces
Re Tr(C ) = 1 (c11 cos + c12 sin ) + 2 (c22 cos Re c21 sin ) +
n
X
i cii
i=3
(5.3)
y sea
C0
n
X
i cii
(5.4)
(5.5)
(5.6)
Normas Matriciales
123
pero 2 6= 0 luego Re c21 = c12 (Notese que el caso Re c21 = c12 debe
desecharse, pues esto implicaria 1 = 2 < 0). Entonces por (5.5) obtenemos que (1 2 )c12 = 0 lo cual no puede suceder ya que 1 > 2 y
c12 > 0. Concluimos que c12 = 0. Haciendo permutaciones sobre las filas
y correspondientes columnas de y C simultaneamente, podemos probar
en forma similar que todas las entradas por fuera de la diagonal principal
de C son nulas. En consecuencia, existe una permutacion , tal que C =
diag((1) , . . . , (n) ). se sigue
max
U,V unitarias
Re Tr(U T V )
n
X
i (i)
i=1
n
X
i i
i=1
max Re Tr(X A)
kXkD =1
Demostraci
on. Sean (A) = {1 , . . . , n } y (X) = {1 , . . . , n } valores
singulares de A y X respectivamente. entonces
max Re Tr(X A) =
kXkD =1
max
Re Tr(V X U A)
kxkD =1
U,V unitarias
max
D (1 ,...,n )=1
n
X
i=1
kXkD =1
1 i
124
NOTA.
{X | kXkD =1 } = {U XV | kXkD =1 , U, V unitarias}
Sea A = {X | kXkD =1 } y B = {U XV | kXkD =1 , U, V unitarias}, entonces
evidentemente A B, sea Y B, entonces Y = U XV para alg
un par
U, V de matrices unitarias y alguna matriz X con kXk = 1, entonces
kY k = kU XV k = kXk , si y solo si Y A
Teorema 5.4 (Von Neumann). Sea una funci
on simetrica Gauge sobre
n
R . Entonces, kk es una norma unitariamente invariante. Recprocamente,
si kk es una norma unitariamente invariante sobre Cnn , entonces hay una
funci
on simetrica Gauge sobre Rn tal que kAk = kAk
Demostraci
on. solo necesitamos probar que k k satisface la desigualdad
triangular. Por el lema anterior
kA + Bk =
kXkD =1
= kAk + kBk
Normas Matriciales
125
Ejercicios
5.1 Toda pnorma es una norma matricial? Es decir, si
kAkp =
n
X
|aij |
i,j=1
, p1
entonces, se cumplen (1), (2), (3), (4) y (5). Pruebe que la afirmacion es
cierta, si y solo si 1 p 2.
5.2 Muestre que k k no proviene de un producto interior.
5.3 kABkp mn{kAkp kBkq , kAkq kBkp } p1 + q 1 = 1
5.4 Probar directamente que la 1-norma y la 2-norma son normas matriciales.
5.5 (La norma infinito) Definimos, para A Mn (C)
kAk = lm kAkp
p
= lm
p
n
X
|aij |
i,j=1
probar que
kAk = max |aij |
1i,jn
kAk2 =
n
X
i,j=1
1
2
|aij |
126
Captulo 6
Localizaci
on de Valores
Propios
6.1.
Teorema de Gershgorin
X
Di = z C | |z aii |
|aij | , 1 i n
j=1
j6=i
Demostraci
on. Sean (A), x Cn tal que kxk = 1 y Ax = x, e i un
ndice para el cual |xi | = 1. Como (Ax)i = xi , tenemos que
xi =
n
X
aij xj
j=1
En consecuencia,
( aii )xi =
n
X
j=1
j6=i
127
aij xj
128
se sigue que
| aii | = |( aii )xi |
n
X
|aij ||xj |
j=1
j6=i
n
X
|aij |
j=1
j6=i
de donde Di .
Ejemplos. Sea
1 + i 0 14
A = 41
1 14 ,
1
1 3
entonces
1
z C | |z (1 + i)|
4
1
D2 = z C | |z 1|
2
D1 =
D3 = {z C | |z 3| 2}
Ahora, aplicamos el teorema de Gershgorin a la matriz
1 + i 14 1
At = 0
1 1
1
1
4
4 3
D10
5
z C | |z (1 + i)|
4
D20 = {z C | |z 1| 1}
1
0
D3 = z C | |z 3|
2
129
n
[
j=1
j=1
j6=i
n
X
1
z C | |z ajj | pj
|aij |
pi
i=1
i6=j
1
Demostraci
hon. Sea iP = diag[p1, . . . , pn ], notese que (P AP ) = (A) y,
P 1 AP = p1i aij pj . Aplicando el teorema de Gershgorin tenemos que, si
(A), existe i, 1 i n tal que
| aii |
n
X
pj
j=1
j6=i
pi
|aij |
n
1 X
pj |aij |
pi
j=1
j6=i
7
16 8
A = 16
7
8
8
8 5
Respuesta. Usando el teorema de Gershgorin
D1 = {z C | |z 7| 24} 17 z 31
D2 = {z C | |z 7| 24}
D3 = {z C | |z 15| 16} 21 z 11
de donde
(A) [21, 31]
130
7
16 4
P 1 AP = 16
7
4
16 16 5
En este caso tenemos
D1 = {z C | |z 7| 20} 13 z 27
D2 = {z C | |z 7| 20} 13 z 27
D3 = {z C | |z + 5| 32} 37 z 27
(A) [37, 27] (A) [21, 27]
Proposici
on 6.1. Sea A Mn (C) y supongamos que, A es diagonalizable
por la transformaci
on de similaridad P 1 AP . Sea E Mn (C) una matriz
arbitraria, entonces los valores propios de A + E, se encuentran en la uni
on
de los discos
{ C | | i | k (P )kEk }
en donde 1 , . . . , n (A) y k (P ) = kP k kP 1 k es el n
umero de
condici
on de P en la norma .
Demostraci
on. Sabemos que P 1 AP = D con D = diag(1 , . . . , n ) entonces,
(A + E) = (P 1 (A + E)P )
= (D + P 1 EP ).
Sea C = P 1 EP , entonces los valores propios de D + C estan localizados
en los discos
X
z C | |z (i + cii )|
|cij |
j=1
i6=j
n
X
j=1
i6=j
|cij | + |cii |
131
de donde
|z i | kCk
kP 1 k kEk kP k
k (P )kEk
n
X
|pkj |
j=1
para alg
un k, 1 k n
kPk k2 n
n
por consiguiente
| i |
nkEk
en donde (A + E).
Ejercicios
5.1 Considere la matriz
7
16 8
A = 16
7
8
8
8 5
Ap
endice A
Gr
aficas
132
Bibliografa
[1] Ayres Frank., Matrices, Mac-Graw-Hill, 1980.
[2] Birkhoff Garrett & Mac Lane Saunder A Survey of Modern Algebra,
MacMillan Company, 1965.
[3] De Castro Rodrigo., El Universo LATEX, Universidad Nacional de
Colombia, 2003.
133
Indice alfab
etico
Algoritmo
QR, 54
conmutante, 26
Forma
canonica de Jordan, 69
Funcion
simetrica de Gauge, 121
Bloques
de Jordan, 63
Bola
abierta, 42
Grupo
lineal general, 2
unimodular, 2
Conica
superficie, 4
Conico
borde, 4
Conjunto
A invariante, 26
ortogonal, 33
Isometria
euclideana, 36
Kernel, 10
Matrices
similares, 29
Matriz
adjunta, 1
antihermitiana, 1, 80
antisimetrica, 1, 80
cambio de base, 10
compa
nera, 78
conjugada, 1
diagonalizable, 19
estrictamente superior, 66
hermitiana, 1, 80
no derogatoria, 71
normal, 1, 48
Espacio
imagen, 11
propio, 14
Espectro, 13
Expansion
de Lagrange, 16
F
invariante, 26
Factorizacion
QR, 54
de Takagi, 99
Familia
134
135
normalizada, 119
ortogonal, 1, 33
ortogonal real, 33
simetrica, 1, 80
Toeplitz, 71, 79
transpuesta, 1
unitaria, 1, 33
unitariamente diagonalizable,
49
unitariamente equivalente, 37
Multiplicidad
algebraica, 17
geometrica, 14
N
ucleo, 10
Norma
de Frobenius, 3
euclidiana, 3
infinito, 109
matricial, 116
Normas
Matriciales, 111
Operador
de representacion, 8
Ortogonal, 3
Par
propio, 13
Polinomio
caracterstico, 16
minimal, 76
Radio
espectral, 13
Rango, 11
Reflectores
de Householder, 57
Rotores, 54
Simultaneamente
diagonalizables, 24
Teorema
de Cayley-Hamilton, 39
de Courant-Fisher, 90
de Gershgorin, 7, 128
de la dimension, 11
de ortogonalizacion, 33
de separacion de Poincare, 94
de Weyl, 92
de Wolkwitz y Styan, 7
Espectral, 49
Principio de Inclusion, 93
Rayleigh-Ritz, 86
Von Neumann, 125
Transformacion
de similaridad, 29
Unitariamente
invariante, 119
Valor
propio, 13
Vector
propio, 13
propio a izquierda, 15