You are on page 1of 140

Notas de Clase

Teora Avanzada de
Matrices
Humberto Sarria Zapata
ticas
Departamento de Matema

Universidad Nacional de Colombia, Bogota

Indice general
Pr
ologo

III

0. Algunos Problemas de la Teora de Matrices


0.1. Geometra de matrices . . . . . . . . . . . . .
0.2. Superficies y bordes conicas . . . . . . . . . .
0.3. Problemas de preservacion lineal . . . . . . .
0.3.1. Preservacion de bordes conicos . . . .
0.3.2. Preservacion de simetra y antisimetra
0.4. Perturbacion y localizacion de valores propios
0.5. Transformaciones lineales y matrices . . . . .
0.5.1. Rango y kernel de una matriz . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

1
2
4
4
5
5
7
7
10
12

.
.
.
.
.
.
.
.

13
13
16
17
19
19
27
29
32

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

1. Valores propios,Vectores propios y Similaridad


1.1. Valores propios y vectores propios . . . . . . . . .
1.2. Polinomio caracterstico . . . . . . . . . . . . . . .
1.3. Propiedades de la funcion determinante . . . . . .
1.4. Matrices diagonalizables . . . . . . . . . . . . . . .
1.4.1. Caracterizacion de matrices diagonalizables.
1.4.2. Metodo de la potencia . . . . . . . . . . . .
1.5. Similaridad . . . . . . . . . . . . . . . . . . . . . .
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

2. Equivalencia Unitara y Matrices Normales


33
2.1. Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2. Equivalencia Unitaria . . . . . . . . . . . . . . . . . . . . . . 37
i

Indice general
2.3.
2.4.
2.5.
2.6.

Teorema de Schur . . . . . . . . . . . . . . . . . .
Algunas implicaciones del Teorema de Schur . . . .
Matrices normales . . . . . . . . . . . . . . . . . .
La factorizacion QR . . . . . . . . . . . . . . . . .
2.6.1. Metodos para encontrar la factorizacion QR
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .

3. Formas Can
onicas
3.1. Forma canonica de Jordan . . . . .
3.2. Polinomios y matrices . . . . . . .
3.3. Matriz compa
nera de un polinomio
Ejercicios . . . . . . . . . . . . . . . . .

. . . . .
. . . . .
monico
. . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

38
39
48
53
54
61

.
.
.
.

62
63
71
76
79

4. Matrices Hermitianas y Sim


etricas
80
4.1. Caracterizacion de matrices hermitianas . . . . . . . . . . . . 80
4.2. Caracterizacion variacional de valores propios . . . . . . . . . 86
4.2.1. Interpretacion geometrica de max = m
ax x Ax y

x x=1

mn = m
n x Ax . . . . . . . . . . . . . . . . . . . .

x x=1

88

4.3. Matrices Simetricas Complejas . . . . . . . . . . . . . . . . . 95


Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5. Normas Matriciales
5.1. Normas Matriciales Inducidas . . . . . . . .
5.2. Normas unitariamente invariantes . . . . . .
5.2.1. Descomposicion a valores singulares
Ejercicios . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

106
. 110
. 117
. 118
. 126

6. Localizaci
on de Valores Propios
127
6.1. Teorema de Gershgorin . . . . . . . . . . . . . . . . . . . . . 127
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Ap
endice

131

A. Gr
aficas

132

Bibliografa

132

ii

Pr
ologo

iii

Prologo

iv

Captulo 0

Problemas de la Teora de
Matrices
El conjunto de las matrices de n filas y m columnas, con entradas en
un cuerpo K, lo denotamos mediante Mnm (K). En general el cuerpo K
representara, los cuerpos R o C. Si n = m, usaremos el smbolo Mn (K),
para representar el espacio de las matrices cuadradas en el cuerpo K.
Notaci
on.
1.

Si A Mnm (K), con A = (aij ), la traspuesta de A, es la matriz At


cuya entrada (i, j)corresponde a la entrada aji . La conjugada de A,
es la matriz A = (aij ). La adjunta o adjunta hermitiana es la matriz
t
A = A .
t

Ejercicio 1. A = A t .
2.

Una matriz A Mn (K) se denomina, simetrica si At = A, antisimetrica si At = A, hermitiana A = A, antihermitiana si A = A,


normal si A A = AA , unitaria si A A = AA = I, ortogonal si
At A = AAt = I.

3.

Denotaremos:

Teoria Avanzada de Matrices


Mediante los smbolos
Sn (K)
ASn (K)
Hn (K)
AHn (K)
Nn (C)
Un (K)
On (K)

Los conjuntos conformados por


Matrices simetricas
Matrices antisimetricas
Matrices hermitianas
Matrices antihermitianas
Matrices normales,
Matrices unitarias y
Matrices ortogonales

(reales o complejas seg


un K sea R o C)
Ejercicio 2. Cuales de los conjuntos definidos en el numeral 3 son
espacios vectoriales, cuales son grupos multiplicativos (considere la
suma, producto por escalar y producto entre matrices tradicional).
4.

0.1.

El conjunto de todas las matrices no singulares (invertibles o inversibles)


GLn (K), se denomina el grupo lineal general. En particular el conjunto conformado por todas las matrices con determinante 1, se denomina
grupo unimodular y se denota mediante SLn (K).

Geometra de matrices

Es bien conocido que el K-espacio de las matrices Mn (K), es isomorfo


2
al K-espacio K n . Una manera de establecer este isomorfismo es mediante
2
la funcion vec() : Mn (K) K n dada por
vec A = (a11 , . . . , a1n , a21 , . . . , a2n , . . . , . . . , an1 , . . . , ann )t
en donde t representa el operador de transposicion y los valores aij corresponden a las entradas de la matriz A.
En un espacio vectorial estamos interesados en nociones geometricas como las de distancia, y angulo. Estas nociones nos permiten inducir nociones
topologicas, y estudiar operaciones y convergencia de algoritmos definidos
sobre estos espacios desde un tipo de vista analtico.
Definici
on 0.1. Sean A, B Mn (K), definimos
hA, Bi = Tr(B A)

(1)

Problemas de la Teora de Matrices

Observese que hA, In i = Tr(A) .


Ejercicio 3. Pruebe que la operacion h, i es un producto interior.
p
Ejercicio 4. Defina kAkF = hA, Ai. Pruebe que k kF es una norma.
Llamaremos a esta norma, norma de Frobenius o norma euclidiana.
Por la desigualdad de Cauchy-Schwarz, |hA, Bi| kAkF kBkF para todo
A, B Mn (K). La igualdad se da si, y solo si, A es un m
ultiplo escalar de
B.
Ahora, si A y B son no nulos y hA, Bi es un n
umero real entonces
hA,Bi
1 kAkF kBkF 1 En este u
ltimo caso podemos definir el coseno del
angulo que forman A y B, ](A, B) mediante cos ](A, B) = kAkhA,Bi
esta
F kBkF
u
ltima expresion nos permite calcular el angulo ](A, B) entre las matrices.
gr
afico 1
Ejercicio 5. Sean A, B Mn (K), pruebe que la funcion d(A, B) = kB
AkF define una metrica sobre Mn (K).
Definici
on 0.2. Sea S Mn (K), S 6= . El ortogonal de S, es el conjunto

S conformado por todo A Mn (K), para el cual, se cumple que hA, Bi = 0


para todo B S.
Ejercicio 6.
Mn (C) = Sn (C) ASn (C)
= Hn (C) AHn (C)
Ejercicio 7. Sn (C) = ASn (C). Sin embargo, Hn (C) 6= AHn (C), brindar
un contra ejemplo en este u
ltimo caso.
Ejercicio 8. Existe alg
un producto interior sobre Mn (C), para el cual

Hn (C) = AHn (C)? Brinde un ejemplo o indique por que tal producto
interior no puede existir.
Ejercicio 9. Si existe el producto interior arriba definido se mantiene la
igualdad Sn (C) = ASn (C), para este?

Teoria Avanzada de Matrices

Ejercicio 10. Pruebe que existe un producto interior bajo el cual puede
medirse el angulo conformado por cualquier par de matrices A, B Mn (C).
Ejercicio 11. Reconsidere los ejercicios 8 y 9.
Ejercicio 12. Existe alguna relacion entre los productos interiores definidos
por (1) y el producto interior definido en el ejercicio 10.

0.2.

Superficies y bordes c
onicas

La superficie c
onica asociada a una matriz A Mn (C), A 6= 0 es el
conjunto SC(A) = {X Mn (C) | Tr AkXkF = Tr XkAkF } Si A = 0,
entonces SC(A) = {0}.
El borde c
onico asociado a una matriz A Mn (C), A 6= 0 es el conjunto
BC(A) = {X SC(A) | Tr X = Tr A} Si A = 0, entonces BC(A) = {0}.
Ejercicio 13. Que tipo de superficies son SC(A) y BC(A)? Son estas variedades diferenciales?

0.3.

Problemas de preservaci
on lineal

Los problemas de preservacion lineal plantean la busqueda de caracterizaciones de operadores lineales (u operadores continuos) definidos sobre
espacios de matrices y que preservan cierto tipo de propiedades, como por
ejemplo el determinante, la traza, el permanente; propiedades como conmutatividad; conjuntos como el espectro, los vectores propios, matrices normales, hermitianas, simetricas, antisimetra etc.
Historicamente Frobenius inicia este tipo de estudios al resolver el siguiente resultado.
Teorema 0.1. Sea : Mn (C) Mn (C) un operador lineal, entonces las
siguientes afirmaciones son equivalentes:
(a) preserva determinante y traza.
(b) preserva estructura espectral.
(c) preserva polinomios caractersticos.

Problemas de la Teora de Matrices

(d) preserva polinomios caractersticos de matrices hermitianas.


(e) Existe una matriz no singular S
X Mn (C), (X) = S 1 XS.

0.3.1.

Mn (C), tal que para todo

Preservaci
on de bordes c
onicos

Considere un operador lineal : Mn (C) Mn (C). Y tomemos una


matriz A Mn (C). Nos preguntamos que cualidades caracterizan a los
operadores lineales que preservan bordes conicos, es decir, que cualidades
ha de tener , para que (BC(A)) = BC(A). Planteamos una respuesta a
la anterior pregunta en la siguiente proposicion.
Proposici
on 0.1. Sea : Mn (C) Mn (C) un operador lineal, entonces
las siguientes afirmaciones son equivalentes:
(a) es un operador ortogonal real tal que (I) = I.
(b) Tr((A)) = (Tr(A)), para toda A Mn (C).
(c) (BC(A)) = BC(A), para toda A Mn (C).
(d) (SC(A)) = SC(A), para toda A Mn (C).

0.3.2.

Preservaci
on de simetra y antisimetra

Denotemos con a un operador lineal y a su matriz de representacion en


la base canonica. Notese que la matriz es de tama
no n2 n2 . Describiremos
en terminos de bloques de matrices ij , de tama
no n n de la siguiente
manera

11 1n
.
..
..
..
=
.
.

n1 nn
Denotaremos la entrada (k, l) del bloque ij , con kl
ij , en terminos de esta
simbologa podemos enunciar el teorema central de operadores que preservan
simetra y antisimetra como sigue:
ij
Teorema 0.2. preserva simetra y antisimetra, si y s
olo si, kl
ij = kl ,
para todo i, j, k, l = 1, . . . , n.

Teoria Avanzada de Matrices

Proposici
on 0.2. preserva simetra y antisimetra, si y s
olo si, conmuta con el operador de transposici
on, es decir, si para todo A Mn (C),
t
t
(A ) = (A) .
Demostraci
on.
) Sea A Mn (C). Sabemos que existen As y Aas , matriz simetrica y antisimetrica, respectivamente, tales que A = As + Aas . Por hipotesis tenemos
que
(At ) = (As Aas )
= (As ) (Aas )
= (As )t + (Aas )t
= [(As ) + (Aas )]t
= (A)t
) Tomemos ahora A Sn . Por hipotesis,
(A)t = (At )
por ser A una matriz simetrica.
(A)t = (A)
De lo anterior concluimos que (A) es una matriz simetrica. Ademas, si
A ASn , en este caso tenemos que
(A)t = (At )
= (A)
= (A)
de donde se sigue que (A) es antisimetrica.
Proposici
on 0.3. Si es un operador normal, las siguientes afirmaciones
son equivalentes:
(a) preserva simetra.
(b) preserva antisimetra.

Problemas de la Teora de Matrices

(c) tiena una base de vectores propios conformada u


nicamente por matrices simetricas y antisimetricas.
Proposici
on 0.4. Sea un operador lineal que preserva estructura espectral
y simetra, si y s
olo si, existe una matriz ortogonal Q Mn (C), tal que, o
bien (X) = QXQ t , o (X) = QX t Q t .

0.4.

Perturbaci
on y localizaci
on de valores propios

Muchos problemas en matematica pura y aplicada que involucran calculos con matrices se resuelven calculando los valores propios de las matrices
involucradas. En algunos casos no es necesario conocer con exactitud estos
valores sino que basta con conocer algunas cotas o su localizacion global en
el plano complejo.
Quizas uno de los resultados mas interesantes en este sentido es el teorema de Gershgorin, que afirma que si A = (aij ), y hacemos
Ri =

n
X

|aij |

j=1
j6=i

entonces los valores propios de A estan contenidos en la union de discos


n
[

{z C : |z aii | Ri }

i=1

Otro resultado interesante alrededor del tema es el teorema de Wolkwitz y


Styan que considera medidas estadsticas de los valores propios.
Tambien existen problemas que se refieren, a hacer estimaciones de la
modificacion que se presentan en los valores propios cuando se modifican las
entradas de una matriz; consideremos por ejemplo una matriz A Mn (C), y
supongamos que hemos modificado o perturbado de tal forma que obtenemos
una matriz A + E.

0.5.

Transformaciones lineales y matrices

Existen dos aspectos importantes en la teoria de matrices. Por un lado


esta el aspecto practico del calculo en donde las matrices son usadas como un

Teoria Avanzada de Matrices

metodo practico para representas, manipular e interrelacionar informacion


que esta conectada de manera lineal. Este fue el primer aspecto historico de
la teora de las matrices que fue explotado, desde el III milenio antes de la era
cristiana, por culturas como la china y la babilonia , y por el otro lado esta el
aspecto teorico, explotado por los matematicos del siglo XIX, al observar que
el algebra de las transformaciones lineales es la misma que el algebra de las
matrices en donde las matrices surgen como un lenguaje que nos permite
representar cierto tipo de funciones especiales de las matematicas llamadas
transformaciones lineales. Presentamos en esta seccion este aspecto.
Consideremos dos K-espacios vectoriales V y W de dimensiones finitas n
y m respectivamente, y tomemos dos bases para estos espacios,
B1 = {v1 , . . . , vn } y B2 = {w1 , . . . , wm }, bases para V y W respectivamente.
Ahora consideremos el siguiente grafico:
T

V W

[ ]
[ ]B 1 y
y B2
K n K m
Tb

Con el fin de describir cada uno de los terminos usados en el grafico anterior,
tomemos v V y w W . Sabemos por el algebra lineal que existen colecciones de vectores {1 , 2 , . . . , n }, {1 , 2 , . . . , m } K, u
nicas tales que
v = 1 v1 + + n vn y w = 1 w1 + + m wm Definimos la representaci
on
de v en la base B1

1

2

[ v ]B1 =
..
.
n

El operador [ ]B1 , se denomina operador de representaci


on respecto a la
base B1 y la representaci
on de w en la base B2

1

2

[ w ]B2 =
..
.
m

Problemas de la Teora de Matrices

Ejercicio 14. Para cualquier K-espacio vectorial V de dimension finita, y


para cualquier base B de V , el operador de representacion en la base B,
[ ]B es una transformacion lineal biyectiva entre los espacios vectoriales V
y K n.
El ejercicio anterior muestra que V w K n y que W w K m . (isomorfismos entre espacios vectoriales) Nuestro problema siguiente consiste en
h
i1
encontrar una transformacion lineal Tb, tal que T (v) = Tb[ v ]B
. Sabemos
1

B2

que T queda definida por T (v1 ), T (v2 ), . . . , T (vn ), ademas, existe para cada
i = 1, 2, . . . , n una coleccion {t1i , t2i , . . . , tmi } K tal que

t1i

t2i

=
..
.

[ T vi ]B2

tmi

Entonces,
"

[ T v ]B2 = T

n
X

i vi

i=1

n
X
i=1

#
B2

i [ T vi ]B2

t1i

n
X
t2i

=
i
..
.

i=1
tmi

1
t11 t1n
. .
2
..

.
..
=
.
.
..
.
tn1 tnn
n
La anterior igualdad la podemos escribir en forma compacta en la forma
[ T v ]B2 =B2 [ T ]B1 [ v ]B1

10

Teoria Avanzada de Matrices

donde B2 [ T ]B1 = [ tij ]mn se denomina la matriz de representaci


on de T en
las bases B1 y B2 . Si V = W y B1 = B2 , entonces B2 [ T ]B1 , se denomina la
matriz de representaci
on de T en la base B1 .
Consideremos ahora la transformacion identica Id : V V definida por
Id v = v, para todo v V. Entonces por lo expuesto anteriormente,
[ v ]B2 = [ Id v ]B2
=B2 [ Id ]B1 [ v ]B1 .
Esta u
ltima ecuacion nos permite relacionar las representaciones de un
vector v, en las bases B1 y B2 , si conocemos la matriz B2 [ Id ]B1 , es por esta
razon que esta matriz se denomina matriz cambio de base, de B1 a B2 .
Ejercicio 15. Probar que toda matriz de cambio de base es invertible.
Demostraci
on. De la u
ltima igualdad tenemos que
[ v ]B2 =B2 [ Id ]B1 [ v ]B1
=B2 [ Id ]B1 [ Id v ]B1
=B2 [ Id ]B1 B1 [ Id ]B2 [ v ]B2
y esto se tiene para todo vector v V, en particular para los vectores que
conforman la base de B2 , de aqu se concluye que
B2 [ Id ]B1 B1 [ Id ]B2

= In .

Ejercicio 16. Sean, V un espacio vectorial n-dimensional, T : V V una


transformacion lineal y B1 y B2 bases para V, pruebe que
B2 [ T ]B2

0.5.1.
1.

=B2 [ Id ]B1 B1 [ T ]B1 B1 [ Id ]B2

(2)

Rango y kernel de una matriz

Si A Mmn (K), definimos el kernel o n


ucleo de A como el conjunto
ker(A) = {v K n : Av = 0m }
Notese que si K = R, ker(A) corresponde al conjunto de los vectores
en Cn , que son ortogonales a los vectores columna de A.

Problemas de la Teora de Matrices


2.

11

La imagen de K n , bajo A se denomina rango o espacio imagen de A,


y corresponde al conjunto
Ran(A) = {Av K m : v K n }
Propiedades
(a) ker(A) es un subespacio de K n (ker(A)  K n ), y Ran(A)es un
subespacio de K m (Ran(A)  K n ).
(b) Denotemos mediante A(i) , la columna i-esima de la matriz A. Entonces,
Ran(A) = hA(1) , A(2) , . . . , A(m) i
tambien llamaremos rango de A al valor
rank(A) = dim Ran(A).

Teorema 0.3 (Teorema de la dimensi


on). Para toda matriz A Mmn (K),
se tiene que
dim Ran(A) + dim ker(A) = n.

Ejercicios
t

0.1 A = A t .
0.2 Cuales de los conjuntos definidos en el numeral 3 son espacios vectoriales, cuales son grupos multiplicativos (considere la suma, producto por
escalar y producto entre matrices tradicional).
0.3 Pruebe que la operacion h, i es un producto interior.
p
0.4 Defina kAkF = hA, Ai. Pruebe que k kF es una norma (norma de
Frobenius).
0.5 Sean A, B Mn (K), pruebe que la funcion d(A, B) = kB AkF define
una metrica sobre Mn (K).

12

Teoria Avanzada de Matrices

0.6
Mn (C) = Sn (C) ASn (C)
= Hn (C) AHn (C)
0.7 Sn (C) = ASn (C). Sin embargo, Hn (C) 6= AHn (C), brindar un contra
ejemplo en este u
ltimo caso.
0.8 Existe alg
un producto interior sobre Mn (C), para el cualHn (C) =
AHn (C)? Brinde un ejemplo o indique por que tal producto interior no
puede existir.
0.9 Si existe el producto interior arriba definido se mantiene la igualdad
Sn (C) = ASn (C), para este?
0.10 Pruebe que existe un producto interior bajo el cual puede medirse el
angulo conformado por cualquier par de matrices A, B Mn (C).
0.11 Reconsidere los ejercicios 8 y 9.
0.12 Existe alguna relacion entre los productos interiores definidos por (1) y
el producto interior definido en el ejercicio 10.
0.13 Que tipo de superficies son SC(A) y BC(A)? Son estas variedades diferenciales?
0.14 Para cualquier K-espacio vectorial V de dimension finita, y para cualquier
base B de V , el operador de representacion en la base B, [ ]B es una
transformacion lineal biyectiva entre los espacios vectoriales V y K n .
0.15 Probar que toda matriz de cambio de base es invertible.
0.16 Sean, V un espacio vectorial n-dimensional, T : V V una transformacion lineal y B1 y B2 bases para V, pruebe que
B2 [ T ]B2

=B2 [ Id ]B1 B1 [ T ]B1 B1 [ Id ]B2

(3)

Captulo 1

Valores propios,Vectores
propios y Similaridad
1.1.

Valores propios y vectores propios

Definici
on 1.1. Sean A Mnn (C) y x Cn , x 6= 0, decimos que x es un
vector propio de A, si existe un escalar C tal que
Ax = x
Al escalar , se le denomina valor propio de A asociado al vector propio
de x. Al par (x, ), se le denomina par propio de A.

Definici
on 1.2. El conjunto de todos los valores propios de A se denomina
espectro de A y se nota por (A). El radio espectral de A es el valor
(A) = max : |
(A)

(A) corresponde al radio de un crculo con centro en (0,0), que contiene todos los valores propios de A.
13

14

Teora Avanzada de Matrices


y

(
A

x
2

Observaciones. Sea A Mn (C)


1.

(A) = (At )

2.

Para cada C, sea


VA () = {x Cn : Ax = x}

3.

VA () es un espacio vectorial para todo C. La dimension de VA ()


se denomina multiplicidad geometrica de , y la denotamos mediante
el smbolo mgA (). Si (A), al conjunto VA () lo denominamos
espacio propio de A.

4.

Si
/ (A), entonces VA () = {0}.
Ejercicio 17. Para que tipos de matrices (de las definidas anteriormente) se tiene que (A) = (A ).

5.

Suponga que 1 , . . . , s , donde s n son los valores propios distintos


de A, y suponga ademas que {v1 , . . . , vs } son vectores propios asociados. Entonces, v1 , . . . , vs son vectores linealmente independientes y en
consecuencia VA (i ) VA (j ) = {0} para todo i 6= j.

Valores propios, Vectores propios y Similaridad

15

Demostraci
on. Sean, 1 , . . . , s C tales que
1 v1 + + s vs = 0

(1.1)

tomemos i entero tal que 1 i s. y consideremos la transformacion


lineal
s
Y
(A k I),
k=1
k6=i

aplicada a la igualdad (1.1) (notese que cualquier par de operadores


de la forma A r I conmutan)
s
Y

(A k I)(1 v1 + 2 v2 + + s vs ) = 0

k=1
k6=i

de donde se sigue que


i

s
Y

(A k I)vi = i

k=1
k6=i

s
Y

(i k )vi

k=1
k6=i

=0
y como vi 6= 0 y i k 6= 0, para k 6= i, entonces i = 0, de
aqu concluimos que, los vectores v1, v2 , . . . , vs son vectores linealmente
independientes, y que VA (i ) VA (j ) = {0}, para todo i 6= j..
6.

0 (A) si, y solo si, A es no singular.

Definici
on 1.3. Sean A Mn (C) y v Cn con v 6= 0, decimos que v es
un vector propio a izquierda de A, si existe un escalar (A), tal que
v A = v con v = v t
Proposici
on 1.1. Para cada (A), existe un vector propio a izquierda
asociado.
Demostraci
on. Por hipotesis existe un vector no nulo v Cn , tal que
Av = v, se sigue que A I es una matriz singular, de donde sus filas son linealmente dependientes, en consecuencia existe un vector no nulo
u Cn , para el cual ut (A I) = 0, o equivalentemente, ut A = ut , asi, si
w = u, claramente se tiene que w A = w .

16

Teora Avanzada de Matrices

Proposici
on 1.2. Sean A Mn (C) y , (A) con 6= . Entonces,
todo vector propio a izquierda asociado a , es ortogonal a todo vector propio
a derecha asociado a .
Demostraci
on. Sean u, v Cn vectores propios a izquierda y derecha respectivamente, asociados a y . Entonces
u Av = u v
= u v
se sigue que ( )u v = 0, pero 6= , concluimos que u v = 0.
Ejercicio 18. Caracterizar las matrices para las cuales todo vector propio
a izquierda es un vector propio (a derecha).

1.2.

Polinomio caracterstico

Existe alg
un metodo algoritmico que nos permita calcular todos los
valores propios de una matriz A Mn (C)? Sabemos que si A tiene como
vector propio a v, con valor propio asociado , entonces la ecuacion
(A I)x = 0
tiene una solucion no trivial a saber x = v, esto implica seg
un el algebra
lineal que la matriz A I es no singular, lo cual es equivalente a afirmar
que
det(A I) = 0
Podemos en consecuencia caracterizar los valores propio de una matriz
cualquiera A, como las raices del polinomio
pA (t) = det(tI A)
al cual llamaremos polinomio caracterstico de A.
Ahora, dado que por la expansion de Lagrange
det A =

X
Sn

sgn()

n
Y
i=1

ai(i)

Valores propios, Vectores propios y Similaridad

17

en donde Sn , denota el conjunto de las permutaciones del conjunto {1, . . . , n},


podemos afirmar que el polinomio caracterstico de A, tiene n raices.
Posteriormente (como una consecuencia del teorema de triangularizaci
on
de Schur ) veremos que, si 1 , 2 , . . . , s , donde s n son los valores propios
distintos de A, entonces el polinomio caractersco de A, puede expresarse
mediante la igualdad
s
Y
pA (t) =
(t i )mi
i=1

aqu, el entero mi se denomina multiplicidad algebraica de i , y lo denotaremos mediante maA (i ).

1.3.
1.
2.

Propiedades de la funci
on determinante
Sean, A, B Mn (C), entonces det(AB) = det(A) det(B).
"
#
A C
, donde D Mn (C), A Mk (C), B Mnk (C) y
Sea D =
0 B
C Mkx(nk) (C). Entonces
det(D) = det(A) det(B)

(1.2)

Demostraci
on. Si A o B son singulares, entonces las columnas de A
son linealmente dependientes (l.d), o las filas de B son linealmente
dependientes, de aqu, por la forma que tiene la matriz D, concluimos
que, sus primeras k columnas son l.d., o sus u
ltimas n k filas son
l.d. y para este primer caso, la igualdad (1.2) se satisface. Supongamos
entonces que, A y B son no singulares, entonces podemos escribir
"
#
#"
A 12 CB 1 I 12 A1 C
D=
0
B
0
I
de esta igualdad y de la propiedad 1. se obtiene (1.2).
Corolario 1.1.
pD (x) = pA (x) pB (x)

18

Teora Avanzada de Matrices

Ejercicio 19. Sea A Mn (C) y S Mn (C) no singular, entonces


pS 1 AS (x) = pA (x)
Proposici
on 1.3. Para toda matriz A Mn (C), se tiene que
mgA () maA ()
para cada (A).
Demostraci
on. Sean (A), k = mgA () = dim VA ().Ademas supongamos que {s1 , . . . , sk } es una base para VA (), notese que s1 , . . . , sk son
vectores propios asociados con . Completemos esta coleccion a una base
{s1 . . . , sk , sk+1 , . . . , sn } para Cn . Consideremos la matriz
h
i
S = S (1) S (n)
en donde S (i) = si , para cada 1 i n. Es claro que S es no singular.
Ahora escribamos S en bloques matriciales de la siguiente manera
h
i
S = Sk Sk+1
en donde Sk corresponde a las primeras k columnas de S, y Sk+1 corresponde
a sus restantes n k columnas. Adicionalmente escribamos S 1 por bloques
en la forma
#
"
k
S
S 1 =
Sk+1
en donde Sk representa las primeras k filas de S 1 y Sk+1 representa las
restantes n k filas de S 1 . Entonces,
i
h
S 1 AS = S 1 A Sk Sk+1
h
i
= S 1 Sk ASk+1
"
#
i
Sk h

A
S
S
k
k+1
Sk+1
"
#
Ik Sk ASk+1
=
0 Sk+1 ASk+1

Valores propios, Vectores propios y Similaridad

19

De aqu y por ejercicios anteriores tenemos que

pA (x) = pS 1 AS (x) = (x )k pSk+1 ASk+1 (x)


pero por otro lado tenemos que pA (x) = (x )maA () q(x) en donde q(x)
es un polinomio que no tiene a x como factor. Del algebra sabemos que
el conjunto de los polinomios es un dominio de factorizacion u
nica, luego
necesariamente de lo anterior concluimos que
(x )k | (x )maA ()
de lo cual concluimos que k maA () lo que es lo mismo que mgA ()
maA ().
Comenzaremos el estudio de las factorizaciones de una matriz. Estas factorizaciones revelaran la estructura de los vectores propios y/o de los valores
propios de una matriz. Iniciaremos con las matrices que pueden llevarse a
una forma diagonal va similaridad.

1.4.

Matrices diagonalizables

Definici
on 1.4. Una matriz es diagonalizable si es similar a una matriz
diagonal.
Ejercicio 20. No toda matriz es diagonalizable.
"
#
0 1
Por ejemplo la matriz, A =
tiene como valor propio al 0, con una
0 0
multiplicidad geometrica de 2. Si la matriz A fuera diagonalizable, existira
una matriz no singular S, tal que S 1 AS = 0, lo cual implicara que A = 0,
y esto evidentemente es una contradiccion.

1.4.1.

Caracterizaci
on de matrices diagonalizables.

Teorema 1.1. Sea A Mn (C). Las siguientes afirmaciones son equivalentes.

20

Teora Avanzada de Matrices

(a) A es diagonalizable.
(b) A tiene una colecci
on de n vectores propios linealmente independientes.
(c) mgA () = maA (), para todo (A).
Demostraci
on.
(a) (b). Si A es diagonalizable, existe una matriz no singular S, tal que
S 1 AS = diag(1 , 2 , . . . , n ), en donde {1 , 2 , . . . , n } C. Se sigue que
AS = S diag(1 , 2 , . . . , n ), as escribiendo S en terminos de sus columnas
esta igualdad podemos escribirla como

1 0 0

..
0 ...
.

A[S (1) S (2) S (n) ] = [S (1) S (2) S (n) ] .


..
..
..
. .

0 0 n
lo cual es equivalente a afirmar que
AS (i) = i S (i) , para cadai = 1, 2, . . . , n.
es decir, los vectores de la coleccion {S (1) , S (2) , . . . , S (n) }, son vectores propios de A, y son linealmente independientes por ser columnas de la matriz
no singular S.
(b) (a). Basta regresarnos en los pasos de la prueba anterior (cuidando el
lenguaje).
(a) (c). Si A es diagonalizable, existe una matriz no singular S, tal que
S 1 AS = diag(1 , 2 , . . . , n ), en donde {1 , 2 , . . . , n } = (A). Supongamos sin perdida de generalidad que 1 , 2 , . . . , n estan ordenados de tal
e1 ,
e2 , . . . ,
ek , son todos los valores propios distintos de A,
manera que si
con multiplicidades algebraicas 1 r1 . . . rk n respectivamente.
entonces
e1 ,
1 = 2 = . . . = r1 =
e2 ,
r +1 = . . . = r +r =
1

..
.

ek ,
r1 ++rk1 +1 = . . . = r1 ++rk1 +sk =

Valores propios, Vectores propios y Similaridad

21

e j ) = rj ,
por definicion tomamos r0 = 0. Seg
un la anterior notacion, maA (
para cada 1 j k. Notese que
AS

(j)

ei S (j)
=

Es claro que la coleccion


(

S (j) :

1ik

i1
X

re+1 j

e=0

i1
X
e=0

re+1 j

i
X

re

(1.3)

e=1

i
X

re

e=1

es una coleccion de vectores linealmente independiente y por (1.3)


ei ). Ademas maA (
ej ) = rj , para cada 1 j k. Concluimos
S (j) VA (
que
ei ) mgA (
ei )
maA (
Ejercicio 21. (c) (a). Use maA () = mgA () y construya la matriz
no singular S, que diagonalice a A. (Regresarse en los pasos de implicacion
anteriormente probada).

Proposici
on 1.4. Sea A Mn (C), una matriz con n valores propios distintos, entonces A es diagonalizable.
Demostraci
on. Es una consecuencia de la observacion (5), y de la parte (b)
del teorema anterior.
Observaci
on. El recproco de la proposicion no es cierto, basta observar que
la matriz identica es diagonalizable, pero sin embargo, sus valores propios
no son distintos.
Corolario 1.2. Sean, A Mn (C), (A). Entonces, A no es diagonalizable, si
rank(A I) > n maA ()
(1.4)
Demostraci
on. Por el teorema de la dimensi
on, tenemos que
mgA () = dim(ker(A I))
= n rank(A I)

22

Teora Avanzada de Matrices

de aqu y (1.4)
mgA () < n (n maA ())
de donde
mgA () < maA ()
"

#
0mn
Proposici
on 1.5. Sean A Mn (C), B Mn (C) y C =
0nm
B
una matriz diagonal por bloques. Entonces, C es diagonalizable si y s
olo si
A y B son diagonalizables.
A

Demostraci
on.
) El recproco es claramente evidente.
) Supongamos que C es diagonalizable. Por uno de los ejercicios anteriores
tenemos que
pC (x) = pA (x) pB (x)
(1.5)
es decir
(C) = (A) (B)

(1.6)

De (1.5) y (1.6) tenemos que


maC () = maA () + maB ()

(1.7)

para todo (C). Probaremos a continuacion que


mgC () = mgA () + mgB ()

(1.8)

para ver (1.8). Probemos inicialmente lo siguiente:


VC () = VA () VB ()

para todo (C), en donde


(" #
)
v
A
n+m
VeA () =
C
| vA VA ()
0m

(1.9)

Valores propios, Vectores propios y Similaridad

23

y
VeB () =

#
)
0m
n+m
C
| vB VB ()
vB

("

Para probarlo, tomemos v VC () y escribamos v =

"

vA
vB

, en donde

vA Cn y vB Cm . Entonces,
"

A 0
0 B

#"

Cv = v
#
" #
vA
vA
=
vB
vB

luego necesariamente, AvA = vA y BvB = vB , concluimos de lo anterior


que v VeA () VeB (). Ahora si v 6= 0 VeA () VeB (), existen vA Cn y
vB Cm vectores
" #propios de A y B respectivamente, asociados con . Es
vA
claro que v =
es un vector propio de C con valor propio .
vB
Ahora como C es diagonalizable maC () = mgC (), de aqu y de (1.7) y
(1.8) concluimos que
mgA () + mgB () = maA () + maB ()
entonces
0 maA () mgA () = mgB () maB () 0
se sigue que maA () = mgA () y que mgB () = maB (), podemos afirmar
de lo anterior que A y B son diagonalizables.
Ejercicio 22. Sean, Ai Mni (C)
matriz diagonal por bloques

A1
.

A = ..
0

donde 1 i k y consideremos la

0
..
.

Ak

..
.

Entonces, A es diagonalizable si y solo si Ai es diagonalizable para todo i.

24

Teora Avanzada de Matrices

Definici
on 1.5. Un par de matrices diagonalizables A, B Mn (C) son simultaneamente diagonalizables, si existe una matriz no singular
S Mn (C), tal que S 1 AS y S 1 BS son matrices diagonales.
Ejercicio 23. La diagonalizacion simultanea define una relacion de equivalencia, sobre el conjunto de las matrices diagonalizables.
Teorema 1.2. Sean A, B Mn (C) diagonalizables. Entonces A y B son
simultaneamente diagonalizables si y s
olo si A y B conmutan.
Demostraci
on.
) Si A y B son simultaneamente diagonalizables, podemos escribirlas en
la forma
A = S 1 diag(1 , . . . , n )S y B = S 1 diag(1 , . . . , n )S
en donde S es una matriz no singular, (A) = {1 , . . . , n } y (B) =
{1 , . . . , n }, entonces
AB = S 1 diag(1 , . . . , n )SS 1 diag(1 , . . . , n )S
= S 1 diag(1 , . . . , n ) diag(1 , . . . , n )S
= S 1 diag(1 , . . . , n ) diag(1 , . . . , n )S
= S 1 diag(1 , . . . , n )SS 1 diag(1 , . . . , n )S
= BA
) Supongamos que A y B conmutan. Sabemos por hipotesis que existe
una matriz no singular S Mn (C) tal que
S 1 BS = diag(1 , . . . , n )

en donde {1 , . . . , n } = (B). Entonces,


S 1 ABS = S 1 ASS 1 BS
= S 1 AS diag(1 , . . . , n )

Valores propios, Vectores propios y Similaridad

25

ademas
S 1 BAS = S 1 BSS 1 AS
= diag(1 , . . . , n )S 1 AS

es diagonalizable

De lo anterior concluimos, que basta probar el resultado para el caso en que


B es una matriz diagonal. Supongamos entonces que B = diag(1 , . . . , n )
y ademas supongamos que las entradas en la diagonal son iguales y estan
ubicados en posiciones contiguas sobre esta. Tomemos A = (aij )nxn , por
hipotesis,

a11 a1n
1
1
a11 a1n
0
0
.


.
..
..
..
..
..
..
..

=
..
.
.
.
.
.
.

0
n
0
n
an1 ann
an1 ann
entonces aij j = i aij para cada i, j = 1, . . . , n. Se sigue que aij (i j ) = 0,
entonces si i 6= j , tenemos que aij = 0, concluimos que la matriz A tiene
la misma estructura en bloques que la matriz diagonal B. En consecuencia
podemos escribir

A1 0
0

..
A=
. 0
0

0
0 Ak
en donde cada Ai es una matriz en bloques de tama
no igual a la multiplicidad
algebraica del valor propio i y donde k corresponde al n
umero de valores
propios distintos de B. Ahora, como A es diagonalizable, por un ejercicio
anterior cada uno de los bloques Ai es diagonalizable, en consecuencia existe
una coleccion de k matrices no singulares T1 , . . . , Tk tales que Ti , diagonaliza
a Ai . Sea

T1 0
0

..

T =
.
0
0

0
0 Tk
claramente T diagonaliza a A, y T 1 BT = B.
Definici
on 1.6.

26

Teora Avanzada de Matrices

(a) Una familia conmutante, es una coleccion de matrices F Mn (C),


en donde cada par de matrices conmutan.
(b) Sea A Mn (C). Un subconjunto W Cn , se dice que es un conjunto
A-invariante, si Aw W , para todo w W . Decimos que W es Finvariante si para un conjunto F Mn (C), W es A-invariante para
cada A F .
Ejercicio 24. Sean A Mn (C) y W un subespacio de Cn , A-invariante de
dimension 1. Mostrar que A tiene por lo menos un vector propio en W .
Lema 1.1. Sea F Mn (C) una familia de matrices conmutantes, entonces
existe un vector v Cn , que es un vector propio para todo A F.
Demostraci
on. Sean, 1 k n,
Gk = {X Cn | X es un subespacio F-invariante de dimension k}
y r = mn {1 k n | Gk 6= }. Notese que Gn 6= , pues Gn = {Cn }.
(Dado que toda coleccion de enteros positivos tiene un mnimo, entonces
r efectivamente existe). Sea W Gr . Probaremos que todo elemento 6= 0
en W, es un vector propio de cada matriz en la coleccion F. Supongamos
que esto no es as, entonces existe una matriz A F y un vector no nulo
w
e W , tal que w
e no es un vector propio de A. Por otro lado, seg
un el
ejercicio anterior, existe un vector no nulo v W y un escalar C, tal
que Av = v. Consideremos el conjunto
W0 = {w W | Aw = w} = VA () W
W0 es un subespacio propio de W, pues w
e
/ W0 , ademas es no nulo ya
que v W0 . Podemos afirmar adicionalmente que W0 no puede ser Finvariante, por ser W un subespacio F-invariante de dimension mnima.
En consecuencia debe existir una matriz B F, para la cual W0 no es
B-invariante. Ahora, si w W0 entonces
A(Bw) = (AB)w
= (BA)w
= Bw

Valores propios, Vectores propios y Similaridad

27

As, por la definicion de W0 , tenemos que Bw W0 , para todo w W0 . Se


concluye de lo anterior que W0 es B-invariante, lo cual es absurdo. Por lo
tanto todo elemento de W , es un vector propio de todo elemento de F.

1.4.2.

M
etodo de la potencia

Objetivo. Calcular el valor propio dominante y un vector propio correspondiente a dicho valor propio. Este metodo solo es aplicable a matrices A, que
tienen las siguientes propiedades.
(i) Un u
nico valor propio, con modulo maximo;
(ii) Un conjunto de vectores propios linealmemte independientes (es decir,
solo aplica a matrices diagonalizables).
Desarrollo del m
etodo
Sean A Mn (C) y 1 , . . . , n (A). Supongamos que 1 es el valor
propio con mayor modulo y ademas supongamos que Cn tiene una base
{u1 . . . , un } conformada con vectores propios de A, asociados a los valores
propios dados, es decir,
Aui = i ui ,

i = 1, . . . , n.

Sea x(0) Cn , para el cual existen a1 , . . . , an C con a1 6= 0, tales que


x(0) = a1 u1 + + an un

(1.10)

Ahora formemos la siguiente sucesion


x(1) = Ax(0) , x(2) = Ax(1) , . . .
es decir
x(k) = Ak x(0)

k = 1, 2, . . .

(1.11)

Escribamos (1.10) de la siguiente manera


x(0) = u01 + + u0n

(1.12)

28

Teora Avanzada de Matrices

en donde
u0i = ai ui ,

1in

De acuerdo con (1.12) y (1.11)


x(k) = Ak x(0)
= Ak u01 + + Ak u0n
= k1 u01 + + kn u0n
Esta u
ltima ecuacion, podemos escribirla en la forma
"
 k
 k #
2
n
(k)
k
0
0
x = 1 u1 +
u2 + +
u0n
1
1
 k

Como |1 | > |j | para j 2, entonces lm 1j


0 y por lo tanto
k

(k)

:=

2
1

k

u02

+ +

n
1

k

u0n

lm E (k) 0

escribamos
X (k) = k1 (u01 + E (k) )
y consideremos un funcional lineal : Cn C, entonces
(X (k) ) = k1 ((u01 ) + (E (k) ))
y hagamos
(X (k+1) )
(X (k) )
"
#
(u01 ) + (E (k+1) )
= 1
(u01 ) + (E (k) )

k =

y observemos que lm k 1 . Ademas


k

X (k) k1 u01
es decir, X (k) se aproxima a un vector propio.

Valores propios, Vectores propios y Similaridad

29

Algoritmo
Tomemos como funcional lineal

Cn

(x1 , . . . , xn ) x1 + x2 + + xn
es decir
(x) =

n
X

xi con x = (x1 , . . . , xn )

i=1

input
output
f or

n, A, x, M
, vecp
k = 1, . . . , M

y Ax

(y)
x

=
vecp = x

1.5.

Similaridad

Definici
on 1.7. Sean A, B Mn C decimos que A y B son matrices similares y en este caso escribimos A B, si existe una matriz no singular
S Mn (C), tal que S 1 AS = B. S en este caso se denomina matriz de
similaridad. La transformacion
Mn (C) Mn (C)
A

S 1 AS

se denomina transformaci
on de similaridad via
Observaciones.
1.

Notese que la relacion de similaridad es una relacion de equivalencia


sobre el espacio Mn (C).

30
2.

Teora Avanzada de Matrices


Surgen las siguientes preguntas:
a)

Cuales son las matrices similares a una matriz diagonal?

b) Que matrices son similares a la identica o a la matriz nula?


c)

Y a las matrices diagonales constantes?

d)

A que esta asociada cada clase de equivalencia? o mejor Que caracteriza cada clase de equivalencia?
T1

T2
T3

Mn (C)

Para responder a algunas de estas preguntas tomemos una transformacion


lineal T : Cn Cn y supongamos que tenemos dos bases B1 y B2 de Cn ,
1
la matriz de representacion de T en la base B1 es [ T ]B
B1 y en la base B2 es
2
[ T ]B
o anteriormente
B2 y como se prob
B1
B2
B2
1
[ T ]B
B1 = [ Id ]B2 [ T ]B2 [ Id ]B1

y ademas
2 1
1
{[ Id ]B
= [ Id ]B
B1 }
B2

As que en principio, parece ser que la respuesta a nuestras preguntas es:


cada clase de equivalencia definida por la relacion de similaridad corresponde
al conjunto de todas las matrices que son la representacion de una unica
transformacion lineal en diferentes bases. Siempre y cuando el conjunto de
todas las matrices de cambio de base coincidan con el conjunto de todas las
matrices no singulares.
Ejercicio 25. Pruebe que si dos matrices son similares tienen el mismo
polinomio caracterstico.

Valores propios, Vectores propios y Similaridad

31

Ejercicio 26. Pruebe que el concepto de similaridad define una relacion de


equivalencia, en el espacio de las matrices Mn (K).
Ejercicio 27. El conjunto de todas las matrices que son representaciones
(matriciales) de una transformacion lineal T : V V forman una u
nica
clase de equivalencia, definida por la relacion de similaridad.
Ejercicio 28. Determine la clase de equivalencia de la matriz identica y de
la matriz nula.
Ejercicio 29. Tiene toda clase de equivalencia (diferentes a las clases matriz
identica y nula) el mismo n
umero de elementos?.

Ejercicios
1.1 Para que tipos de matrices (de las definidas anteriormente) se tiene que
(A) = (A ).
1.2 Caracterizar las matrices para las cuales todo vector propio a izquierda
es un vector propio (a derecha).
1.3 Sea A Mn (C) y S Mn (C) no singular, entonces
pS 1 AS (x) = pA (x)
1.4 Pruebe (c) (a) del teorema (1.1). Use maA () = mgA () y construya
la matriz no singular S, que diagonalice a A. (Regresarse en los pasos
de implicacion anteriormente probada).
1.5 Sean, Ai Mni (C) donde 1 i k y consideremos la matriz diagonal
por bloques

A1 0
. .

..
. . ...
A=

0 Ak
Entonces, A es diagonalizable si y solo si Ai es diagonalizable para todo
i.

32

Teora Avanzada de Matrices

1.6 La diagonalizacion simultanea define una relacion de equivalencia, sobre


el conjunto de las matrices diagonalizables.
1.7 Sean A Mn (C) y W un subespacio de Cn , A-invariante de dimension
1. Mostrar que A tiene por lo menos un vector propio en W .
1.8 Pruebe que si dos matrices son similares tienen el mismo polinomio
caracterstico.
1.9 Pruebe que el concepto de similaridad define una relacion de equivalencia, en el espacio de las matrices Mn (K).
1.10 El conjunto de todas las matrices que son representaciones (matriciales)
de una transformacion lineal T : V V forman una u
nica clase de
equivalencia, definida por la relacion de similaridad.
1.11 Determine la clase de equivalencia de la matriz identica y de la matriz
nula.
1.12 Tiene toda clase de equivalencia (diferentes a las clases matriz identica
y nula) el mismo n
umero de elementos?.

Captulo 2

Equivalencia Unitara y
Matrices Normales
2.1.

Matrices unitarias

Definici
on 2.1. Un conjunto de vectores {v1 , . . . , vk } Cn , es un conjunto
ortogonal, si vi vj = 0 para todo i 6= j, donde i, j = 1, . . . , k. Si ademas
vi vi = 1 para i = 1, . . . , k, entonces el conjunto es llamado ortonormal.
Observaciones.
1.

Todo conjunto ortonormal de vectores no nulos es linealmente independiente.

2.

Todo espacio n-dimensional real o complejo tiene una base ortonormal


(Teorema de ortogonalizaci
on de Gram-Schmidt)

Definici
on 2.2. Una matriz U Mn (C) se dice unitaria si U U = U U =
In , se dice ortogonal si U t U = U U t = In . Una matriz ortogonal con entradas reales se denomina ortogonal real.
Ejercicio 30. Observe que
"

cos sen
T () =
sen cos

con 0

es una matriz ortogonal. Son todas las matrices ortogonales reales 2 2 de


este tipo?. Describa todas las matrices ortogonales reales.
33

34

Teoria Avanzada de Matrices

Ejercicio 31. Caracterizar todas las matrices ortogonales 2 2. Probarque


el conjunto de las ortogonales 2 2 es no-acotado.
Teorema 2.1. Sea U Mn (C), las siguientes afirmaciones son equivalentes:
a) U es unitaria
b) Las columnas de U son ortonormales
c) Las filas de U son ortonormales
d) Para todo u, v Cn , tales que u = U v
u u = v v
es decir, U preserva la norma euclideana.
Demostraci
on.
(a) (b) y (b) (c) es directo de la definicion de matriz unitaria.
(a) (d). Sean u, v Cn , tales que u = U v, entonces
u u = v U U v
= v v
(d) (a). Sean U = [U (1) U (n) ] Mn (C), una matriz que preserva
norma euclideana y consideremos la base canonica {e1 , . . . , en } de Cn . Notese
que U (i) = U ei , para 1 i n. De aqu y por hipotesis
(U (i) ) U (i) = ei ei

i = 1, . . . , n

=1
Ahora definamos aij = ei ej y a
ij = ei ej donde ( =
1 i, j n. Entonces, si i 6= j
aij aij = (ei ej ) (ei ej )
=2

1) para

(2.1)

Equivalencia Unitara y Matrices Normales

35

y
a
ij a
ij = (ei ej ) (ei ej )
= (ei + ej )(ei ej )

(2.2)

=2
Ahora observese que
U (i) U (j) = U aij

(2.3)

= U (ei ej )
y que
U (i) U (j) = U a
ij
= U (ei ej )
Usando la hipotesis, (2.1) y (2.3)
2 = aij aij
= (U (i) U (j) ) (U (i) U (j) )
= ([U (i) ] [U (j) ] )(U (i) U (j) )
= [U (i) ] U (i) + [U (j) ] U (j) [U (j) ] U (i) [U (i) ] U (j)
= 2 + [U (j) ] U (i) [U (i) ] U (j)
concluimos de lo anterior que
[U (j) ] U (i) = [U (i) ] U (j) para i 6= j

Usando la hipotesis, (2.2) y (2.4)


2=a
ij a
ij
= (U (i) U (j) ) (U (i) U (j) )


= [U (i) ] + [U (j) ] (U (i) U (j) )
= [U (i) ] U (i) + [U (j) ] U (j) + [U (j) ] U (i) [U (i) ] U (j)
= 2 [U (j) ] U (i) + [U (i) ] U (j)

(2.4)

36

Teoria Avanzada de Matrices

concluimos de la igualdad anterior que


(2.5)
[U (j) ] U (i) = [U (i) ] U (j) para i 6= j

(2.6)

de (2.1) y (2.6) obtenemos que


[U (i) ] U (j) = 0 para i 6= j

Definici
on 2.3. Un operador T : Rn Rn es una isometria euclideana
si
kx yk = kT x T yk
para todo x, y Rn .
Ejercicio 32. Si T (0) = 0 pruebe que T es lineal.
Observaciones.
1.

On (R) On (C), Un , pero no necesariamente On (C) " Un .

2.

On (R), On (C), y Un son grupos multiplicativos.

3.

Claramente On (R) = On (C) Un .

Ejercicio 33. Consideremos el espacio vectorial Mn (C), dotado de la metrica euclidiana, heredada del producto interior
hA, Bi = Tr(B A)
para todo A, B Mn (C). Sean {Ak }kN y {Bk }kN sucesiones de matrices
en Mn (C) tales que Ak A y Bk B, siendo A y B matrices (fijas).
Entonces:
(a) Ak Bk AB
(b) Ak A

Equivalencia Unitara y Matrices Normales

37

(c) Atk At
(d) Ak A
Proposici
on 2.1. Un y On (R) son conjuntos cerrados y acotados, y en
consecuencia compactos en Mn (C).
Demostraci
on. (Para Un ) Sea U Un , entonces U U = In , por consiguiente

kU kF = n. Lo cual significa que todas las matrices unitarias estan sobre la

superficie de una bola B centrada en el origen de radio n. Se sigue que Un


es un conjunto acotado.Ahora tomemos una sucesion de Cauchy {Uk }kN de
elementos de Un . La bola B es un conjunto compacto en Mn (C), de aqu se
sigue que existe una matriz U B, para la cual
Uk U
k

pero por un ejercicio anterior Uk Uk U U , luego automaticamente


U U = In . Concluimos que Un es cerrado y siendo acotado necesariamente
es compacto.
Pregunta: Son las colecciones Un , On (R) y On (C) conexos o arcoconexos.

2.2.

Equivalencia Unitaria

Definici
on 2.4. Sean A, B Mn (C), decimos que A es unitariamente
equivalente a B, si existe una matriz unitaria U Mn (C) tal que
A = U BU .
Ejercicio 34. Pruebe que la (similaridad) equivalencia unitaria es una
relacion de equivalencia. Ademas pruebe que es mucho mas fina que la
relacion de similaridad.
Proposici
on 2.2. Sean A = [ aij ]nn y B = [ bij ]nn matrices en Mn (C).
Entonces si A es unitariamente equivalente a B,
kAk kF = kB k kF
para cualquier n
umero natural k

38

Teoria Avanzada de Matrices

Ejercicio 35. No todo par de matrices similares, son unitariamente equivalentes, por ejemplo.
#
#
"
"
1 1
3 1
yB=
A=
0 2
2 0
son similares, pero no unitariamente equivalentes.
#
"
#
"
1 0
1 0
1
, entonces S =
Respuesta. Notese que si S =
2 1
2 1
Ademas
"
#"
#"
# "
#
1 0 1 1 1 0
3 1
=
2 1 0 2 2 1
2 0
Pero
kAk2F = 14 6= 6 = kBk2F
de lo anterior se sigue que A y B no son unitariamente equivalentes.

2.3.

Teorema de Triangularizaci
on Unitaria de
Schur

Teorema 2.2. Sea A Mn (C) con valores propios 1 , . . . , n C, entonces


existe una matriz unitaria U Mn (C) y una matriz triangular superior
T Mn (C), tales que
U AU = T.
Adem
as, los elementos de la diagonal de T, corresponden a los valores propios de A.
Demostraci
on. (Por inducci
on sobre n)
El caso n = 1, es evidente.
Supongamos que el resultado es cierto para toda matriz de orden n 1, con
n > 1. Sea u1 un vector propio unitario de A, con valor propio asociado
1 , y completemos una base ortonormalizada {u1 , z2 , . . . , zn } para Cn . Sea
U la matriz unitaria cuyas columnas 1, . . . , n son los vectores u1 , z2 , . . . , zn
respectivamente. Se sigue que
i#
h
"
u1 A z2 zn
1

U1 AU1 =
e
0n1,1
A

Equivalencia Unitara y Matrices Normales

39

e es una matriz de tama


Ahora, A
no n 1, con valores propios 2 , . . . , n .
e y una matriz
As, por la hipotesis de induccion existe una matriz unitaria U
e A
eU
e = Te. De esta manera la matriz unitaria
triangular superior Te, tal que U
que triangulariza superiormente a A es
"
#
1 0
U = U1
e
0 U

2.4.

Algunas implicaciones del Teorema de Schur

Proposici
on 2.3. Sea A Mn (C), con valores propios 1 , . . . , n , entonces
k

det(A ) =

n
Y

!k

y Tr(Ak ) =

i=1

n
X

ki .

i=1

Demostraci
on. (Ejercicio)
Ejercicio 36. El producto de matrices triangulares superiores es triangular
superior
Proposici
on 2.4. Sean, A1 , . . . , An Mn (C), matrices triangulares supe(k)
(k)
riores, tales que Ak = (aij )nn , en donde akk = 0 para 1 k n, entonces
A1 An = 0nn .
Demostraci
on. (Ejercicio)
Ejercicio 37. A, U Mn (C) U unitaria. Probar que (U AU )k = U Ak U
k = 0, 1, . . .
Teorema 2.3 (Cayley-Hamilton). Sea pA (t) el polinomio caracterstico
de A Mn (C), entonces
pA (A) = 0nn .
Demostraci
on. Supongamos que la matriz A, tiene valores propios 1 , . . . , n .
Podemos escribir,
n
Y
pA (t) =
(t i ).
i=1

40

Teoria Avanzada de Matrices

Ahora, por el teorema de triangularizaci


on de Schur, existen U, T Mn (C),
en donde U es unitaria y T es triangular superior, tales que
A = U T U
en donde cada elemento de la diagonal de T = (tij )nn , tkk = k , para
k = 1, . . . , n. Entonces,

pA (A) = pA (U T U ) = U

n
Y

(t i )U

i=1

= U ((T 1 In ) (T n In )) U.
(k)

(k)

Hagamos Ak = T k In , notese que si Ak = (aij )nn , entonces akk = 0,


luego por una proposicion anterior
pA (A) = 0nn .

Ejercicio 38. Indique en donde fallan las siguientes dos seudo-pruebas del
Teorema de Cayley-Hamilton.
1.

Sabemos que si q() es un polinomio y es un valor propio de A


entonces q() es un valor propio de q(A). Ahora, pA () = 0, para cada
(A), por lo tanto los valores propios de pA (A) son todos nulos y
en consecuencia pA (A) = 0nn .

2.

pA (t) = det(A tIn ), entonces si t = A tenemos que


pA (A) = det(A A)
= 0.

Proposici
on 2.5. Sea A Mn (C), entonces para todo r N, Ar es una
combinaci
on lineal de In , A, . . . , An1 .
Demostraci
on. (Por inducci
on sobre r)
El resultado es claro para r = 0.

Equivalencia Unitara y Matrices Normales

41

Supongamos ahora que el resultado es cierto para r 1, es decir, existe una


coleccion de escalares 0 , 1 , . . . , n1 , tales que
Ar1 = 0 I + 1 A + + n1 An1
Entonces
Ar = Ar1 A
= (0 I + 1 A + + n1 An1 )A

(2.7)

= 0 A + 1 A2 + + n1 An
Pero del teorema de Cayley-Hamilton, si pA (t) = tn +an1 tn1 + +a1 t+a0 ,
entonces pA (A) = An + an1 An1 + + a1 A + a0 In = 0n , de donde
An = an1 An1 a1 A a0 In .

(2.8)

De (2.7) y (2.8) se sigue claramente que Ar hIn , A, . . . , An1 i


Proposici
on 2.6. Si A Mn (C) es no singular, existe un polinomio q(t),
de grado a lo sumo n 1, tal que
A1 = q(A)
Demostraci
on. (Ejercicio)
Proposici
on 2.7. Sean, t1 , . . . , tn C y R, > 0. Entonces, existe
una colecci
on de escalares d1 , . . . , dn C, tal que
|di | <
y t1 + d1 , . . . , tn + dn son todos distintos.
Demostraci
on. (Ejercicio)
Ejercicio 39. Para toda U unitaria kU AkF = kAkF para toda A
Proposici
on 2.8. Sea A = (aij ) Mn (C), entonces para todo > 0, existe
una matriz A() = (aij ()) Mn (C) que tiene n valores propios distintos,
tal que
kA A()kF < .

42

Teoria Avanzada de Matrices

Demostraci
on. Sean, U Mn (C) una matriz unitaria tal que U AU = T =
(tij ), es una matriz triangular superior y > 0 . Por la proposicion anterior
existe una coleccion de escalares d1 , . . . , dn C, tal que
 
|di | <
n1/2
y t11 + d1 , . . . , tnn + dn son distintos. Sea E = diag(d1 , . . . , dn ). Observese
que T + E tiene n distintos valores propios. Notese que t11 + d1 , . . . , tnn + dn
son los valores propios de la matriz A + U EU . Sea A() = A + U EU ,
entonces
kA A()k2 = kU EU k2
= Tr(U E EU )
= Tr(E E)
X
=
|di |2

<n
n
=

Corolario 2.1. El conjunto de las matrices diagonalizables es denso en


Mn (C).
Corolario 2.2. El grupo GLn (C) es denso en el espacio de las matrices
Mn (C).
Ejercicio 40. Pruebe que GLn (C) es un conjunto abierto del espacio de las
matrices Mn (C).
Definici
on 2.5. Sean, A Mn (C) y r > 0, llamaremos al conjunto
Br (A) = {X Mn (C) | kX AkF < r}
bola abierta con centro en A y radio r.
Ejercicio 41. (Opcional) Pruebe que para cualquier real r > 0, existe una
matriz no singular A Mn (C) tal que Br (A) GLn (C).

Equivalencia Unitara y Matrices Normales

43

Ejercicio 42. Demostrar o refutar la siguiente afirmacion:


Dada cualquier matriz no singular A Mn (C), y cualquier n
umero real
r > 0, existe un real > 0, tal que Br (A) GLn (C).

Sabemos de un resultado anterior, que no toda matriz es diagonalizable


va similaridad, sin embargo podemos probar que toda matriz es casi
diagonalizable, en el sentido de que dada cualquier matriz, siempre es posible
encontrar otra, diagonalizable, lo suficientemente cercana a la dada.

Proposici
on 2.9. Para cualquier matriz A Mn (C), y para cada > 0,
existe una matriz no singular S Mn (C) tal que

S1 AS = T = (tij ())nn ,

en donde T es una matriz triangular superior con |tij ()| < , para cada
1 i < j n.

Demostraci
on. Por el teorema de Schur, existe una matriz unitaria
U Mn (C), y una matriz triangular superior T Mn (C), tales que

U AU = T.

Definamos D = diag(1, , 2 , . . . , n1 ) para cualquier C, 6= 0.


Hagamos t = max |tij | y supongamos sin perdida de generalidad que
i<j

0 = mn{1, t }. Hagamos S0 = U D0 y observemos que

44

Teoria Avanzada de Matrices

S1
AS0 = D1
U AU D0
0
0
= D 1 U AU D0

1 0 0
0
t11 t12 t1n
1 0

0
0 t22 t2n
0 10 0
0 0

=
..

.
.

..
..
.
0
0 0
0
0
0 0

 n1
1
0 0
0
0
0 tnn
0 0 0
0

1 0 0
0
t11 0 t12 n1
t1n
0

0 10 0
0 0 t22 n1 t2n
0

=
..

.
..

..
.
0 0
0
0
.
0

 n1
n1
1
0
0
0 0 tnn
0 0 0
0

t11 0 t12 20 t13 n1


t1n
0

n2
t22 0 t23 0 t2n
0
.

= ..
0
t33 n3
t

2n
0
.

..
..
..
..
.

.
.
.
.
.

nn
0
0

0 0 tnn

0
0
..
.
0

n1
0

Denotemos la u
ltima matriz por T () = (tij ())nn . Notese que
tij () = ji tij para 1 i j n y tij () = 0 para i > j., ademas.
|tij ()| ji
0 |tij|
0 t

t=
t

El teorema de triangularizaci
on de Schur afirma que toda matriz puede
ser triangularizable superiormente usando matrices unitarias. Que tanto
podemos hacer con matrices ortogonales reales?
Proposici
on 2.10. Sea A Mn (R), entonces existe una matriz ortogonal

Equivalencia Unitara y Matrices Normales


real Q, tal que

A1

0
Qt AQ = T =
..
.
0

A2
..
.

..
.

An

45

(2.9)

en donde T es una matriz triangular superior por bloques, en donde, cada


Ai , es o un n
umero real o una matriz real 22 con valores propios complejos
no reales.
Demostraci
on. (Por inducci
on completa sobre n)
Para n = 1 la afirmacion es evidente.
Supongamos que la proposicion es valida para toda matriz de dimension
n 1 con n > 1.
Caso I: A tiene un valor propio real . Sea v1 , un vector propio de A
asociado al valor propio . Podemos suponer que v, tiene las componentes
reales. Completemos
una base
{v1 , v2 , . . . , vn } ortonormal para Rn y tomeh
i
mos V = v1 v2 vn , observemos que V es una matriz ortogonal real,
tal que
i#
h
"
A

v
v2 v n
1
V t AV =
,
0n1,1
A0
en donde A0 Mn1 (R). Por hipotesis de induccion tenemos que existe una
matriz ortogonal V 0 Mn1 (R) tal que [V 0 ]t A0 V 0 satisface la proposicion.
Hagamos
"
#
1
01,n1
Q=V
,
0n1,1
V0
y observemos que Qt AQ tiene la forma (19) indicada por la proposicion.
Caso II: Ahora supongamos que A es una matriz que no tiene valores
propios reales. Sean, (A) y v un vector propio unitario de A con valor
propio asociado . Escribamos = a + b, con a, b R y v = x + y con
x, y Rn . Entonces,
Av = A(x + y)
= (a + b)(x + y)
= (ax by) + (ay + bx).

46

Teoria Avanzada de Matrices

de donde se sigue que


Ax = ax by y Ay = ay + bx

(2.10)

v tambien es un vector propio, dado que


Av = Av
= v.
Ahora, por ser complejo no real, 6= , de aqu, v y v son vectores
linealmente independientes en Cn , ademas observese que hv, vi = hx, yi como subespacios de Cn . Elijamos un par de vectores {q1 , q2 } Rn ortonormales, tales que hq1 , q2 i = hx, yi en Rn , y completemos una
i
h base ortonormal
n
{q1 , q2 , . . . , qn }, para R . Construyamos la matriz V = q1 q2 . . . qn , y
efectuemos el producto
i
h

q1t Aq1 q1t Aq2 v1tr A v3 vn


i
h

q t Aq
t Aq
tA
q
v
v

v
1
2

3
n
2
2
1
V t AV =

..

..

.
.
0
A
t
t
qn Aq1 qn Aq2
i
h

q1t Aq1 q1t Aq2 v1t A v3 vn


i
h

q t Aq1 q t Aq2 v t A v v
3
n
2
2
1
=

0
0
A
0
0
Los ceros en las primeras dos columnas de la matriz anterior, aparecen ya
que,
Aq1 , Aq2 hq1 , q2 i
(2.11)
como R-subespacio de Rn y que
hq1 , q2 i = hq3 , . . . , qn i .
Podemos comprobar (2.4) , mediante los siguientes razonamientos: Notese,
que
Aq1 , Aq2 hv, vi = hx, yi, pero A, q1 y q2 tienen entradas reales, luego

Equivalencia Unitara y Matrices Normales

47

necesariamente (2.4)debe satisfacerse.


Finalmente, observemos que la matriz
"
#
q1t Aq1 q1t Aq2
A1 = t
q2 Aq1 q2t Aq2
es real con valores propios no reales conjugados y . Podemos aplicar ahora
la hipotesis de induccion a la matriz A0 , con el fin de encontrar una matriz
ortogonal Q0 , tal que [ Q0 ]t A0 Q0 sea de la forma (19).
Proposici
on 2.11. Sea F Mn (R) una familia conmutante de matrices.
Existe una matriz ortogonal real Q, tal que Qt AQ, es de la forma (19) para
todo A F.
Demostraci
on. (Por inducci
on sobre n)
Por una proposicion anterior existe v Cn , tal que v es un vector propio normalizado, para cada A F. Si todas las entradas de v son reales, formamos
una base hortonormal {v, qi2 , . . . , qn } para Rn , y formamos la matriz ortogonal Q1 = v q2 qn que lleva cada matriz A F via similaridad a la
forma
#
"

A
t
Q1 AQ1 =
.
0(n1)x1 A0
Notese que necesariamente A es un n
umero real y el conjunto
F 0 = {A0 Mn1 (R) : A F}
es una coleccion de matrices conmutantes, para las cuales seg
un la hipotesis
t
0
de induccion existe una matriz ortogonal Q2 , tal que Q2 A Q2 es una matriz
de la forma (19) , para todo A F. Se sigue que
"
#
1
01x(n1)
Q = Q1
0(n1)x1
Q2
es la matriz que lleva cada matriz en F, a la forma (19).
Ahora supongamos que el vector v, tiene por lo menos una entrada no real
entonces para cada A F, existe un valor propio asociado A . Notese que
si A es real o no real, en cualquiera de los dos casos se tiene que v y v
son vectores propios l.i. de cada A F. Podemos en este caso seguir un

48

Teoria Avanzada de Matrices

procedimiento similar que en el teorema anterior con el fin de construir la


matriz ortogonal Q, requerida.
Proposici
on 2.12. Sean, A, B Mn (C) con valores propios 1 , . . . , n y
1 , . . . , n respectivamente. Si A y B conmutan, existe una permutaci
on p de
{1, . . . , n} tal que los valores propios de A + B son 1 + p(1) , . . . , n + p(n) .
Demostraci
on. Se deja como ejercicio para el lector.
Corolario 2.3. Si A y B conmutan, (A + B) (A) + (B).

2.5.

Matrices normales

Definici
on 2.6. Una matriz A Mn (C), es normal si AA = A A.
Ejemplos.
(a) Toda matriz unitaria es normal.
(b) Toda matriz hermitiana es normal.
(c) Toda matriz antihermitiana es normal.
NOTA.
(a) Las matrices simetricas y antisimetricas complejas no son en general
normales. Un ejemplo de una matriz simetrica que no es normal es,
"
#
1 i
i 1
"

#
1 1
(b)
es una matriz normal, que no es unitaria, hermitiana o anti1 1
hermitiana.
(c) El conjunto de las matrices normales no forma un grupo; ya que
"
#
"
#
0 1
1 i
A=
yB=
1 0
i 1

Equivalencia Unitara y Matrices Normales

49

son matrices normales, pero


"

i 1
AB =
1
i
no lo es.

(d) El conjunto de las matrices normales no es acotado.


(e) Sea A Mn (C) y denotemos por [ A ]U la clase de la matriz A, via
la similaridad unitaria. Entonces, [ A ]U esta conformado por matrices
normales, si y solo si, A es una matriz normal.
(f) El conjunto de las matrices normales es un conjunto conexo.
Proposici
on 2.13. Una matriz A Mn (C) es normal, si y s
olo si, es
unitariamente equivalente a una matriz normal.
Definici
on 2.7. Diremos que una matriz es unitariamente diagonalizable, si es unitariamente equivalente a una matriz diagonal.
Teorema 2.4 (Teorema Espectral). Sea A = (aij ) Mn (C) con valores
propios 1 , . . . , n . Entonces, las siguientes afirmaciones son equivalentes:
(a) A es normal.
(b) A es unitariamente diagonalizable.
qP
n
2
(c) kAkF =
i=1 |i | .
(d) Existe un conjunto ortonormal de n valores propios de A.
(e) Existe una colecci
on ortonormal {v1 , . . . , vn } de vectores propios de A,
tal que
n
X
A=
i vi vi .
i=1

Demostraci
on.
(a) (b) Supongamos que A es una matriz normal, entonces A conmuta con
su adjunta, se sigue por un teorema anterior que existe una matriz unitaria
U, tal que U AU y U A U son matrices triangulares superiores, llamemos a

50

Teoria Avanzada de Matrices

estas matrices T1 y T2 respectivamente, entonces tenemos que T1 = T2 , de


aqu, T1 y T2 son matrices diagonales.
(b) (c) Supongamos que existe una matriz unitaria U , tal que U AU = T
es una matriz diagonal. Necesariamente T = diag(1 , . . . , n ) en donde
i (A), 1 i n. Entonces,
p

Tr(A A)
p
= Tr(T T )
v
u n
uX
=t
|i |2 .

kAkF =

i=1

(c) (d) Sabemos que existe una matriz unitaria U , tal que U AU = T =
(tij )nn es una matriz triangular superior. Se sigue que
kAk2F = k T k2F
=

n
X

n
X

|i |2 +

i=1

|tij |2

1i<jn

Pero por (c)


v
u n
uX
kAkF = t
|i |2 .
i=1

Se deduce de lo anterior que


n
X

|tij |2 = 0

1i<jn

de donde tij = 0 para 1 i < j n, esto indica que T es una matriz diagonal, y en consecuencia las columnas de U forman un conjunto de n vectores
propios de A linealmente independientes. (d) (a) Sea {v1 , . . . , vn } una
coleccion de vectores propios de A hcon valores propios
asociados 1 , . . . , n
i
respectivamente. Entonces, si V = v1 vn
V AV = diag(1 , . . . , n )

Equivalencia Unitara y Matrices Normales

51

de aqu,
A = V diag(1 , . . . , n )V
y como diag(1 , . . . , n ) conmuta con diag(1 , . . . , n ), se cumple que
A A = AA
Ejercicio 43. Probar en el teorema anterior la equivalencia entre los literales (a) y (e).
Ejercicio 44. x Ax = 0 para todo x Cn , si y solo si, A es la matriz nula.
Respuesta.
) Notese que la hipotesis implica que todos los valores propios de A, son
nulos. Ademas, por el teorema de triangularizaci
on unitaria de Schur, podemos suponer que A, es triangular superior. De lo anterior, si A = (aij ),
entonces aij = 0 para i > j. Observese que

parai = j et Ae = a = 0
i
ii
i
t
(ei + ej ) A(ei + ej ) = aii + aji + ajj + aij
si i 6= j
aij + aji = 0
por lo tanto aij = 0.
Ejercicio 45. Probar que una matriz A es normal, si y solo si,
kAxk2 = kA xk2 para todo x Cn
Respuesta.
) Observemos primero que si A es normal, entonces
kAxk22 = hAx, Axi
= x A Ax
= x AA x
= hA x, A xi
= kA xk22
) Supongamos ahora que para todo x Cn , se tiene que
kAxk2 = kA xk2

52

Teoria Avanzada de Matrices

o equivalentemente que
x A Ax = x AA x
se sigue que
x (A A AA ) x = 0
y por un ejercicio anterior se tiene que A es normal.
Ejercicio 46. Probar que una matriz A es normal si todo vector propio a
izquierda es un vector propio a derecha, de A.
Respuesta.
) Notese que A In es normal, entonces
k(A In )vk2 = k(A In )vk2
= 0.
Se sigue que, A v = v y en consecuencia v A = v .
) (Por inducci
on sobre n)
Si n = 1 la afirmacion es evidente.
Supongamos que entonces que se cumple para todo natural mayor que 1.
Sean, v1 Cn , un vector propio unitario de A, y C su correspondiente
valor propio asociado, entonces por hipotesis
Av1 = v1 y v1 A = v1 .
n
Completemos una
i {v1 , u2 . . . , un } para C y construyamos
h base ortonormal
la matriz V1 = v1 u2 un , se sigue que

v1
h
i
u2

V1 AV1 =
A
v
u

u
1
2
n
..
.

un

=
0
(n1)x1

01x(n1)

u2

h
i

.
.. A u2 un

un

Equivalencia Unitara y Matrices Normales

53

Probaremos en lo que sigue que la matriz



u2
h
i

..
A u2 un
A0 =
.

un
cumple la hipotesis de induccion. Tomemos x = (x2 , . . . , xn ) Cn1 , un
vector propio de A0 . Ahora, si mgA () = 1, entonces dado que mgA () < n
tenemos que necesariamente debe existir un vector propio unitario.

2.6.

La factorizaci
on QR

Probaremos a continuacion que para toda matriz A Mn (R) existe una


matriz ortogonal Q y una matriz triangular superior R en Mn (R), tales que:
A = QR
Esta factorizacion tiene dos usos conocidos:
(1) Supongamos que desea resolver el siguiente sistema de ecuaciones
Ax = b x, b Cn
Si escribimos el sistema en la forma
QRx = b
el cual es equivalente al sistema
Rx = Qt b
Este u
ltimo sistema es triangular superior y es simple de resolver usando
sustitucion hacia atras.
(2) Permite el calculo aproximado de los valores propios de A, a partir de
una sucesion de matrices {Ak }kN , en donde
FQR

A0 : = A = Q0 R0
..
.
FQR

Ai1 = Qi1 Ri1

FQR

A 1 = R 0 Q0 A 1 = Q 1 R1 A 2 = R 1 Q1 . . .
..
.
Ai = Ri1 Qi1

i = 1, 2, . . .

54

Teoria Avanzada de Matrices


En donde Qi Ri es la factorizacion QR de la matriz Ai . Este procedimiento se denomina algoritmo QR. Este proceso aproxima a Ai a una
forma triangular superior con bloques 1 1 o 2 2 sobre la diagonal de
esta manera los valores propios de la matriz se aproximan a los valores
propios de los bloques que aparecen sobre la diagonal. De esta forma los
valores propios de A, son aproximadamente los elementos de la diagonal
de An , para n suficientemente grande.

Observemos que (Ai ) = (A), para todo i = 1, . . . , ya que


Ai = Ri1 Qi1 ,
en donde Ai1 = Qi1 Ri1 . Se sigue que
Qi1 Ai = Ai1 Qi1 ,
por lo tanto
Ai = Qti1 Ai1 Qi1 .

2.6.1.

M
etodos para encontrar la factorizaci
on QR

Para matrices con entradas reales:


Via Rotores
Consideremos el plano R2 . El operador que rota un angulo , cada vector
x R2 puede representarse por la matriz
"
#
cos sen
Q=
.
sen cos

x=

x1
x2

L
y = kxk2

Equivalencia Unitara y Matrices Normales

55

Una matriz de este tipo es llamada rotor o rotacion.


Observese que esta matriz es ortogonal. Usando este tipo de matrices podemos crear algunos
" # ceros sobre las entradas de un vector columna. Considex1
remos x =
, donde x1 6= 0 y x2 6= 0. Encontremos un rotor Q, tal que
x2
" #
y
Qt x tenga un cero en su segunda componente: Qt x =
para alg
un y.
0
Observemos que,
"
#" #
cos sen x1
t
Qx=
sen cos x2
"
#
cos x1 + sen x2
=
sen x1 + cos x2
" #
y
.
=
0
Por lo tanto
sen x1 = cos x2 ,
entonces

x2
.
x1
Podemos calcular Q, sin necesidad de calcular usando las ecuaciones
x1
x2
cos = p 2
y sen = p 2
2
x1 + x 2
x1 + x22
tg =

Ahora trabajemos sobre la matriz

"

a11 a12
A=
a21 a22

Necesitamos un rotor Q, tal que


" # " #
a11
r11
Qt
=
,
a21
0
donde r11 =

a211 + a221 . Definamos r12 y r22 mediante


" #
" #
r12
t a12
=Q
,
r22
a22

56
y hagamos

Teoria Avanzada de Matrices

"

#
r11 r12
R=
.
0 r22

Entonces
Qt A = R
o equivalentemente
A = QR
Si A Mn (R), donde n es cualquier n
umero natural el procedimiento es
similar. Un rotor i, j es una matriz de la forma

1 0
0 0

0 1
0 0

..

cos

sen

0
1
0

.
.
..
..
..
Qij =

0
1
0

sen 0 0 cos

..

1 0
0 0
0 0
0 1
Un rotor luce como una matriz identica, salvo por un par de unos que
han sido reemplazados por cos y un par de ceros que fueron reemplazados
por sen y sen respectivamente.
Ahora efectuemos el producto Qt A, en donde

a11 a12 a1n

a21 a22 a2n

A= .
..

.
..
an1 an2 ann

Equivalencia Unitara y Matrices Normales

57

En general si se desea hacer cero la posicion ji de A, en donde j > i, usamos


las ecuaciones
cos = q

aii
a2ii + a2ji

, sen = q

aji
a2ii + a2ji

Notese que Qt solo afecta las filas i y j de A produciendo un cero en la


entrada ji de A.
Procedimiento para encontrar la descomposici
on QR de A
1.

Hacemos cero las posiciones ii de A para 2 i n. De esta forma


podemos encontrar una matriz
Qt1

A(1)

z
}|
{
= Qtn1 Qt31 Qt21 A

debe observar que el cero en la posicion 21, hecho al aplicar el rotor


Qt21 , se mantiene al aplicar el rotor Qt31 .
2.

Aplicamos un procedimiento similar sobre A(1) con el fin de hacer cero


las posiciones ji para 3 j n. Es decir, calculamos
A(2) = Qtn2 Qt42 Qt32 A(1)
|
{z
}
Qt2

Continuando as sucesivamente y tomando Qt = Qtn1 Qt1 tenemos


que
Qt A = R
en donde R es triangular superior.
Factorizaci
on QR usando reflectores de Householder
Consideremos x, y Rn tales que x 6= y y con kxk2 = kyk2 . Nuestro
objetivo es de nuevo encontrar una transformacion lineal que lleve x en y.
En este caso, consideraremos un operador Q que lleve x en y, dejando fija
la recta L que biseca el angulo que forma x con y. Para deducir la forma de
Q, observemos el siguiente grafico

58

Teoria Avanzada de Matrices

x
ux

L
y

Sean u y v L Rn linealmente independientes, sobre el plano que


contiene a x y y (consideramos x y y linealmente independientes) y ademas
los supondremos ortogonales y unitarios. Entonces existen , R, tales
que x = u + v. Ahora si Q refleja x sobre la recta L, tendremos que
Qx = u + v
=y
Observemos adicionalmente que Qu = u y Qv = v. Observemos que el
operador uut , lleva a u en u, pero a v lo lleva en cero. Ahora consideremos
I 2uut , este operador efectua lo que buscamos, este tipo de operadores se
llaman reflectores de Householder.
Dados x y y, podemos construir u y v por las formulas
u=

xy
x+y
, v=
kx yk
kx + yk

Ahora consideremos que y tiene la forma



y1

0

y=
..
.
0

Entonces como kxk2 = kyk2 , necesariamente y1 = kxk2 .


Podemos escoger cualquiera de los dos valores, en la practica se acostumbra a escoger el signo contrario al signo de x1 , para evitar fenomenos de
cancelacion que se dan sobre un computador.
Ejercicio 47.

Equivalencia Unitara y Matrices Normales

59

(a) Probar que Q es ortogonal.


(b) Q = Q1 , es decir Q2 = I.
NOTA. Observese que un rotor de Householder es una matriz ortogonal
simetrica.

Ejercicios
2.1 Observe que
"

cos sen
T () =
sen cos

con 0

es una matriz ortogonal. Son todas las matrices ortogonales reales 22


de este tipo?. Describa todas las matrices ortogonales reales.
2.2 Caracterizar todas las matrices ortogonales 2 2. Probarque el conjunto
de las ortogonales 2 2 es no-acotado.
2.3 Si T (0) = 0 pruebe que T es lineal.
2.4 Consideremos el espacio vectorial Mn (C), dotado de la metrica euclidiana, heredada del producto interior
hA, Bi = Tr(B A)
para todo A, B Mn (C). Sean {Ak }kN y {Bk }kN sucesiones de matrices en Mn (C) tales que Ak A y Bk B, siendo A y B matrices
(fijas). Entonces:
(a) Ak Bk AB
(b) Ak A
(c) Atk At
(d) Ak A

60

Teoria Avanzada de Matrices

2.5 Pruebe que la (similaridad) equivalencia unitaria es una relacion de


equivalencia. Ademas pruebe que es mucho mas fina que la relacion
de similaridad.
2.6 No todo par de matrices similares, son unitariamente equivalentes, por
ejemplo.
#
#
"
"
1 1
3 1
yB=
A=
0 2
2 0
son similares, pero no unitariamente equivalentes.
2.7 El producto de matrices triangulares superiores es triangular superior
2.8 A, U Mn (C) U unitaria. Probar que (U AU )k
k = 0, 1, . . .

= U Ak U

2.9 Indique en donde fallan las siguientes dos seudo-pruebas del Teorema de
Cayley-Hamilton.
a)

Sabemos que si q() es un polinomio y es un valor propio de A


entonces q() es un valor propio de q(A). Ahora, pA () = 0, para
cada (A), por lo tanto los valores propios de pA (A) son todos
nulos y en consecuencia pA (A) = 0nn .

b)

pA (t) = det(A tIn ), entonces si t = A tenemos que


pA (A) = det(A A)
= 0.

2.10 Para toda U unitaria kU AkF = kAkF para toda A


2.11 Pruebe que GLn (C) es un conjunto abierto del espacio de las matrices
Mn (C).
2.12 (Opcional) Pruebe que para cualquier real r > 0, existe una matriz no
singular A Mn (C) tal que Br (A) GLn (C).
2.13 Demostrar o refutar la siguiente afirmacion:
Dada cualquier matriz no singular A Mn (C), y cualquier n
umero real
r > 0, existe un real > 0, tal que Br (A) GLn (C).

Equivalencia Unitara y Matrices Normales

61

2.14 Probar en el Teorema Espectral la equivalencia entre los literales (a) y


(e).
2.15 x Ax = 0 para todo x Cn , si y solo si, A es la matriz nula.
2.16 Probar que una matriz A es normal, si y solo si, kAxk2 = kA xk2 para
todo x Cn
2.17 Probar que una matriz A es normal si todo vector propio a izquierda es
un vector propio a derecha, de A.
2.18 (a) Probar que Q es ortogonal.
(b) Q = Q1 , es decir Q2 = I.

Captulo 3

Formas Can
onicas

Introducci
on

Sabemos que no todas las matrices son diagonalizables via una relacion
de similaridad. Tambien sabemos que toda matriz puede triangularizarse
superiormente a traves de matrices unitarias. Ademas podemos llevar via
similaridad a cualquier matriz a la forma diagonal por bloques en donde
cada bloque es una matriz triangular superior con un u
nico valor propio.

En este captulo avanzaremos un poco mas, simplificaremos cada uno de


los bloques a un cierto tipo de matrices triangulares superiores denominadas
bloques de Jordan.
62

Equivalencia unitara y matrices normales

3.1.

63

Forma can
onica de Jordan

Definici
on 3.1. Sea C, un bloque de Jordan Jk (), k > 1, es una
matriz k k, triangular superior de la forma

1 0 ....... 0

0 1 . . . . . . . 0
.
..
.
.

.
.
. 0 .. ..
.
.
.. .. ..

.
.
.
. ..
.

.
..

.
. 1
.
0 ........... 0
Si k = 1, J1 () := []
Una matriz de Jordan J Mn (C) es una (suma directa) matriz en bloques de Jordan.

Jn1 (1 )
0

..
.
0

Jn2 (2 ) . .
.

J = .
, n1 + n2 + + nk = n.
..
..
..

.
.
0

0 Jnk (k )
En donde los escalares i , no son necesariamente distintos.
Observaciones.
1.

Si ni = 1 y k = n, entonces Jni (i ) = [ i ] y la matriz de Jordan J es


diagonal.

2.

Cualquier bloque de Jordan Jm () con m > 1, no es diagonalizable.


Si fuera diagonalizable, existira una matriz no singular S, tal que
Jm () = SS 1 en donde necesariamente = diag(, . . . , ) = Im ,
de aqu
Jm () Im = SS 1 SS 1
= S(Im Im )S 1
= [ 0 ]mxm
pero esto se tiene si, y solo si, m = 1 y este no es el caso. Concluimos
que Jm () no puede ser diagonalizable.

64

Teoria Avanzada de Matrices


El resultado principal de esta seccion se resume en la afirmacion.

Toda matriz compleja es, salvo ciertas


condiciones de permutacion de filas y columnas,
similar a una u
nica matriz de Jordan.
Lema 3.1. Dado k 1 consideremos el bloque de Jordan

0 1
0
. .
.. . . . . . . . .

.
.. ..
Jk (0) =
.
.
..
.
.
..
..

0 ............

0
..
.

Entonces
(a) Jkt (0)ek = 0.
(b) Jkt (0)ei = ei+1 , para 1 i k 1.
(c) Jk (0)ei+1 = ei , para i = 1, 2, . . . , k 1.
(d) Jk (0)p = 0, para p k.
(e) (I Jkt (0)Jk (0))x = (xt e1 )e1 , x Cn .
Demostraci
on.
(a)

t
Jk (0)ek =
0
.
..


............ 0
0

..
..
..
.
.

.. .
.. ..
=0

.
.
.
. .

. . . . . . ..
.
.
. . 0
1
0
1 0

Equivalencia unitara y matrices normales


(b)

65


0 ............ 0
0
.

.
1 . .
.. ..

.
.

.
t
.

..
Jk (0)ei = 0 . . . .
1 = ei+1 , 1 i k 1

.
. .

.
.. . . . . . . . . ...

.
0
0 0
1 0

(c)

Jk (0)ei+1

0 1
0
. .
.. . . . . . . . .

.
.. ..
=
.
.
..
.
..
..
.

0 ............


0
0
.
..

..
.

= ei , 1 i k 1
1

0

.

.
1
.
0
0

(d) evidente de (a), (b) y (c).


(e)

0
.
..

............ 0 0 1
0


.
.
..
.
.
.
..
.
x1

.. . . . . . .

.. ..
..
.. ..
.. ..
(I Jkt (0)Jk (0))
.
.
.
.
. .
. =I

.
.
. . . . . . . .
..
xn
.
.
. . .
.

0
1 0 0 ............


0
x1

. x2
.
=
. ..
.
xn
xn
= x1 e1
= (xt e1 )e1
I Jkt (0)Jk (0) es una proyeccion sobre el primer eje.

0

..

.
x1
.

0
..

x
1
n
0

66

Teoria Avanzada de Matrices

Teorema 3.1. Sea A Mn (C) una matriz triangular estrictamente superior (es decir, aij = 0 para i 6= j ). Entonces, existe una matriz no singular
S Mn (C) y enteros n1 , n2 , . . . , nm con n1 n2 nm 1 y
n1 + n2 + + nm = n tales que

Jn1 (0)
0

..
.
0
Jn2 (0) . .
.

1
A=S .
(3.1)
S .
..
..
..
.
.
0

0 Jnm (0)
Si A es real, la matriz S puede tomarse real.
Demostraci
on. "Si n =
# 1, A = [ 0 ], el resultado es trivial.
0 a
Si n = 2, A =
, a C, a 6= 0 y
0 0
"
#"
#"
# "
#
1
0
0
a
a
0
0
1
a
=
0 1 0 0 0 1
0 0
Procedemos por induccion completa sobre n, asumimos que n > 1, y que el
resultado ha sido probado para todas las matrices estrictamente triangulares
superiores de orden mayor que n.
Inicialmente particionemos A, como sigue

0 at
.

..
A=

A1
0
donde a Cn1 y A1 Mn1 (C) es una matriz estrictamente triangular
superior. Por la hipotesis de induccion hay una matriz S1 Mn1 (C) tal
que S 1 AS tiene la forma (3.1), es decir

Jk 1

Jk 2

S 1 A1 S1 =
..

(3.2)
Jk s
"
#
Jk1 0
=
0 J

Equivalencia unitara y matrices normales

67

donde k1 k2 ks 1 y k1 + + ks = n 1, aqu Jki = Jki (0) y

Jk2

..
Mnk 1
J =
.
1

Jk s
Es importante observar que J k1 = 0. Ahora

1 0 0
1

0 at

1 0

0
0

0

.
.

.
1
.

S1
.
.. A1 0 S
..
1
0
0
0

0
=
..
.
0

0 0
S11
at S1

0
.
.
.

a t S1

A 1 S1

S11 A1 S1

(3.3)

i
h
Consideremos la particion del vector, at S1 = at1 at2 , en donde a1 Ck1 y
a2 Cn(k1 +1) . Podemos escribir (3.3), como

"
# "
#
0 at1
1
0
1 0

A
= 0 Jk1
0 S11
0 S1
0 0
Efectuemos,

1 at1 Jkt 1

I
0
0
0

at2

0
J

ahora la siguiente transformacion de similaridad

0 0 at1 at2 1 at1 Jkt 1 0


1 at1 Jkt 1 0 0 at1 at2

00 Jk1 0 0 Ik1
I
00 Jk1 0
0=0
I 0 0
0
0
I 0 0
J 0
0
I
J

0 at1 (I Jkt 1 Jk1 ) at2

= 0
Jk 1
0
0
0
J

Pero (I Jkt (0)Jk (0))x = (xt e1 )e1 , de donde

0 at1 (I Jkt 1 Jk1 ) at2


0 at1 e1 et1 at2

Jk 1
0 = 0
Jk 1
0
0
0
0
J
0
0
J

(3.4)

68

Teoria Avanzada de Matrices

Caso I Si at1 e1 6= 0, entonces

1
t e )et at
te
0
0
te
0
0
a
0
(a
1
1
a
1
1
2
1
1 1

0
0
I
0
0
I
0 =
J
0

k
1

0
0 at1e I
0
0 (at1 e1 )I
0
0
J
1 1

1
t e )et (at e )at
0
0
te
0
(a
1
1
a
1
1
1
2
1 1

0
=
0
I
0
J
0

k
1

1
t
0
0 at e1 I
0
0
(a1 e1 )J
1

0 et1 at2

= 0 Jk1 0
0 0
J
"
#
J e1 at2
=
0
J
donde

"

#
t
0
e
1
J =
= Jk+1 (0)
0 Jk 1

i+1 = ei ,
Ahora usamos la propiedad Je
"
#"
#"
# "
I e2 at2 J e1 at2 I e2 at2
I
=
0
I
0
J
0
I
0
"
J
=
0
"
J
=
0

para i = 1, 2, . . . , k
#"
#
2 at + e 1 at
e2 at2 J Je
2
2
I
0
J
#
2 at + e 1 at + e 2 at J
Je
2
2
2
J
#
e2 at2 J
J

Ahora calculamos una serie de similaridades, para cada i = 2, 3, . . . , k.


"
#"
#"
# "
#
I ei+1 at2 J i1 J ei at2 J i1 I ei+1 at2 J i1
J ei+1 at2 J i
=
0
I
0
J
0
I
0
J
pero Jk1 = 0, por lo tanto podemos concluir que A es similar a la matriz
"
#
J 0
0 J

Equivalencia unitara y matrices normales

69

La cual es una matriz de Jordan de la forma pedida.


Caso II Si at1 e1 = 0, en este caso A es similar a la matriz

0 0 at2

0 Jk 1 0
0 0
J
la cual es una matriz similar por permutacion de filas y columnas a la matriz

Jk1 0 0

(3.5)
0 0 at2
0 0 J
Por hipotesis de induccion, hay una matriz no singular S2 Mnk tal que
"
#
t
0
a
2
S21
S2 = J Mnk
0 J
es una matriz con ceros en la diagonal principal. Por lo tanto la matriz (3.5)
y en consecuencia A son similares a la matriz de Jordan
"
#
Jk 1 0
0 J

Teorema 3.2 (Forma can


onica de Jordan). Sea A Mn (C), entonces
existe una matriz no singular S Mn (C), tal que

Jn1 (1 )
0

1
..
S
A=S
.

0
Jnk (k )
=: SJS 1
en donde n1 + + nk = n y la matriz de Jordan J es u
nica, salvo permutaci
on de sus bloques de Jordan diagonales. Los valores propios 1 , . . . , k
no son necesariamente todos distintos. Si A es una matriz real con valores
propios reales, entonces S puede ser tomada real.

70

Teoria Avanzada de Matrices

Demostraci
on. Sabemos por un teorema anterior que existe una matriz no

singular S Mn (C) y una coleccion de matrices triangulares superiores


Ti Mni (C), 1 i s, con n1 ns y n1 + + ns = n con
elementos en la diagonal principal iguales a i , tales que

T1

AS =

T2
..

Tn

=: T
Consideremos ahora la matriz

1 In1

..

.
s In s

T 1 1 In 1

0
..

.
Ts s Ins

Notese que cada matriz Ti i Ini , i = 1, . . . , k es una matriz triangular


superior estricta. As, por el teorema anterior, existe una matriz no singular
Si Mni (C) para 1 i s, tal que
Si1 (Ti i Ini )Si
Es una matriz de Jordan para cada 1 i s.
Claramente la matriz

S1
0

S2

S=
..

0
Ss
es una matriz no singular que lleva a A por similaridad a una matriz de
Jordan.
Ejercicio 48. Si A B, entonces (A I)m (B I)m , para cada C
y cada m = 0, 1, 2, . . .

Equivalencia unitara y matrices normales

71

Ejercicio 49. Sea 6= y B Mnn , si


Jn ()B = BJn ()
entonces B = 0
Ejercicio 50. Sea B Mnn (C), tal que BJn (0) = Jn (0)B, entonces B es
una matriz Toeplitz triangular superior, es decir, B es de la forma

b1 b2 bn

.
..
0 b
. ..

1
B=. .

.
..
.. .. b

2
0 0 b1
Ejercicio 51.
(a) La suma y el producto de matrices Toeplitz triangulares superiores es
una matriz Toeplitz triangular superior.
(b) La inversa de una matriz Toeplitz triangular superior, es una matriz
Toeplitz triangular superior.
(c) Son las afirmaciones (a) y (b) ciertas para matrices Toeplitz en general.
Ejercicio 52. Sea C y Jn () Mn (C) un bloque de Jordan entonces
rank Jn () = n, si 6= 0

n
si 6=
rank(Jn () In ) =
n 1 si =
Definici
on 3.2. Una matriz A es no derogatoria, si para todo (A),
mg() = 1

3.2.

Polinomios y matrices

Teorema 3.3. Sea A Mn (C) no derogatoria. Una matriz B Mn (C)


conmuta con A, si y s
olo si, existe un polinomio P (), tal que
B = P (A)

72

Teoria Avanzada de Matrices

Demostraci
on.
) Si existe un polinomio p() tal que
B = P (A),
evidentemente B conmuta con A.
) Supongamos ahora que A y B conmutan. Sabemos por el teorema de
descomposici
on de Jordan, que existe una matriz no singular S, tal que
A = SJS 1
para alguna matriz de Jordan J. Observemos que
SJS 1 B = BSJS 1
de donde
JS 1 BS = S 1 BSJ
por lo tanto, si probamos que existe un polinomio p(), tal que
S 1 BS = P (J)
claramente tendramos que
B = SP (J)S 1
= P (SJS 1 )
= P (A),
en consecuencia podemos suponer que A = J. Supongamos ahora que 1 , 2 , . . . , k
son los distintos valores propios de A. Podemos escribir

Jn1 (1 )

Jn2 (2 )

, 1 k n,
A=
..

Jnk (k )

Equivalencia unitara y matrices normales

73

donde n1 + n2 + + nk = n. Ademas, escribamos B por bloques, de tal manera que la estructura en bloques de B coincida con la estructura en bloques
de A. Es decir, B esta compuesto por k k bloques, en donde el bloque Bij
es de tama
no ni nj para cada 1 i, j k. Aplicando la conmutatividad
de A y B se tiene que
Jni (i )Bij = Bij Jnj (j ) 1 i, j k
esto implica por un ejercicio anterior que Bij = 0 para i 6= j, ya que, i 6= j .
Se deduce que B tiene una estructura diagonal por bloques de la forma

B1
0

B2

B=
..

0
Bk kk
en donde Bi := Bii , 1 i k. Usando de nuevo la conmutatividad
Bi Jni (i ) = Jni (i )Bi
Pero Jni (i ) = Jni (0) + i Ini , de donde se concluye que
Bi Jni (0) = Jni (0)Bi
De aqu y un ejercicio anterior tenemos que Bi es de la forma Toeplitz
triangular superior, es decir

(i) (i)
(i)
b 1 b2 b n i

.
(i) . .

. ..
b1

Bi =

. . b(i)

2
(i)
b1
En lo que sigue, construiremos un polinomio qi (t) de grado ni 1, con la
propiedad

0,
si i 6= j
qi (Jnj (j )) =
Bi , si i = j

74

Teoria Avanzada de Matrices

Para luego construir el polinomio que exige el teorema como


p(t) = p1 (t) + + pk (t).
Sea
qi (t) =

k
Y

(t j )nj

j=1
j6=i

notese que el grado de qi (t) es

k
P

nj = n ni . Observemos que

j=1
j6=i

qi (Jnj (j )) = 0, para todo i 6= j, ya que (Jnj (j ) j I)nj = 0, para


j 6= i, 1 j k. Ademas, observemos que qi (Jni (i )) es una matriz de
Toeplitz, no singular por ser producto de matrices de Toeplitz no singulares.
En consecuencia, qi (Jni (i ))1 existe, y es una matriz de Toeplitz triangular
superior. Podemos afirmar que
qi (Jni (i ))1 Bi , 1 i k
es una matriz de Toeplitz. Ahora observemos que cualquier matriz de Toeplitz

m1 m2 mp

.
.

m1 . . ..

M =

..

. m2

m1
pxp

podemos escribirla en la forma

M = m1 (Jp (m)mIp )0 +m2 (Jp (m)mIp )1 + +mp (Jp (m)mIp )p1 , m 6= 0


As, si
(t) = m1 + m2 (t m1 ) + + mp (t m1 )p1
en general
i (t) = i + m2 (t i ) + + mp (t i )ni 1
tenemos que
M = (Jp (m1 ))

Equivalencia unitara y matrices normales

75

En particular para cada qi (Jni (i ))1 Bi existe un polinomio i (t), de grado


ni 1, tal que
i (Jni (i )) = qi (Jni (i ))1 Bi
Hagamos pi (t) := qi (t)i (t) y observemos que
pi (Jnj (j )) = qi (Jnj (j ))i (Jnj (j ))

0,
si i 6= j
=
Bi , si i = j
De esta forma el polinomio
p(t) = p1 (t) + p2 (t) + + pk (t)
es tal que P (J) = B.
Observaci
on. Notese que si

Jn (1 )
1
..
J =
.

Jnk (k )

entonces

P (Jn1 (1 ))

P (J) =

..

B1

0
..

.
Bk

.
P (Jnk (k ))

=B
Teorema 3.4. Sea A Mn (C), existe un u
nico polinomio m
onico qA (t) de
grado mnimo que anula a A. El grado de este polinomio es n. Adem
as,
si p(t) es cualquier polinomio tal que p(A) = 0, entonces qA (t) divide a p(t).

76

Teoria Avanzada de Matrices

Definici
on 3.3. El u
nico polinomio monico qA (t) que anula a una matriz
A Mn (C) se denomina el polinomio minimal de A
Corolario 3.1. Las matrices similares tienen el mismo polinomio caracterstico y minimal.
Teorema 3.5. Sea A Mn (C) una matriz cuyos valores propios distintos
son 1 , . . . , m , el polinomio minimal de A es
qA (t) =

m
Y

(t i )i

i=1

en donde i es el orden del bloque de Jordan m


as grande correspondiente al
valor propio i .
Demostraci
on. El resultado proviene de las propiedades de nilpotencia que
cumple un bloque de Jordan.
Corolario 3.2. Una matriz es diagonalizable, si y solamente si, sus bloques
de Jordan tienen tama
no 1.

3.3.

Matriz compa
nera de un polinomio m
onico

Sabemos que para una matriz A Mn (C), siempre existe un polinomio


de grado mnimo que anula a A.
Nos preguntamos ahora, si dado un polinomio monico
p(t) = tn + an1 tn1 + an2 tn2 + + a1 t + a0
existe una matriz A, para la cual p(t) es un polinomio minimal?
La primera observacion que hacemos es que la matriz debe ser de tama
no
mnimo n. Podemos probar que una matriz con la propiedad pedida es

0
a0

a1
1 0

..
.
.

A = 0 . . . .
(3.6)
.
.

.
.
. .

. . . 0 an2
.
0 0 1 an1

Equivalencia unitara y matrices normales

77

veamos:
Ie1 = e1 = A0 e1
Ae1 = e2 = A1 e1
Ae2 = e3 = A2 e1
..
.
Aen1 = en = An1 e1
entonces
Aen = an1 en an2 en1 a1 e2 a0 e1
= an1 An1 e1 an2 An2 e1 a1 Ae1 a0 Ie1
= A n e1
Concluimos de la anterior ecuacion que
p(A)e1 = (An + an1 An1 + an2 An2 + + a1 A + a0 I)e1
Ademas,
p(A)ek = p(A)Ak1 e1
= Ak1 p(A)e1
= Ak1 0
=0
para cada k = 1, . . . , n.
Hemos probado que P (A)ek = 0, para todo vector en la base canonica de Cn ,
luego
P (A) = 0. Con esto comprobamos que p(t) es un polinomio monico de
grado n, que anula a A. Por otro lado si
q(t) = tm + bm1 tm1 + + b1 t + b0
es un polinomio monico de grado m < n, que anula a A, tendriamos que
q(A)e1 = Am e1 + bm1 Am1 e1 + + b1 Ae1 + b0 e1
= em+1 + bm1 em + + b1 e2 + b0 e1
=0

78

Teoria Avanzada de Matrices

lo cual implicara que el vector basico em+1 es linealmente dependiente con


los vectores basicos e1 , e2 , . . . , em . Pero como esto es imposible concluimos
que p(t) es el u
nico polinomio monico de orden mnimo que anula a A.
Ademas puesto que p(t) tiene grado n, y el polinomio caracterstico de A es
un polinomio monico de grado n, que anula a A, entonces p(t) debe ser el
polinomio caracterstico de A.
Definici
on 3.4. La matriz (3.6) se denomina la matriz compa
nera del
polinomio
p(t) = tn + an1 tn1 + an2 tn2 + + a1 t + a0
Hemos probado anteriormente el siguiente
Teorema 3.6. Todo polinomio m
onico es simultaneamente el polinomio
mnimo y el polinomio caracterstico de su correspondiente matriz compa
nera
Proposici
on 3.1. Una matriz A Mn (C), es similar a la matriz compa
nera de su polinomio caracterstico, si y solamente si, el polinomio mnimo
y el polinomio caracterstico de A son identicos.
Demostraci
on.
) Si dos matrices son similares evidentemente sus polinomios caractersticos y mnimo son iguales.
) Ahora supongamos que los polinomios mnimos y caractersticos de una
matriz Ay de la matriz compa
nera del polinomio mnimo de A son iguales.
Se sigue de aqui que la matriz de Jordan asociada a A, debe tener por cada
valor propio de A un u
nico bloque de Jordan Jk () en caso contrario el
polinomio mnimo de A tendria grado inferior, a su correspondiente polinomio caracterstico y esto no puede suceder, lo mismo podemos afirmar de
su correspondiente matriz compa
nera. Ahora, por la igualdad entre los polinomios mnimos de A y la correspondiente matriz compa
nera, se sigue del
razonamiento anterior que estas matrices son similares a la misma matriz
de Jordan y por lo tanto son similares entre si.
Proposici
on 3.2. Una matriz A Mn (C) es similar a la matriz compa
nera
de su polinomio caracterstico si y s
olo si, es no derogatoria.

Equivalencia unitara y matrices normales

79

Ejercicios
3.1 Si A B, entonces (A I)m (B I)m , para cada C y cada
m = 0, 1, 2, . . .
3.2 Sea 6= y B Mnn , si
Jn ()B = BJn ()
entonces B = 0
3.3 Sea B Mnn (C), tal que BJn (0) = Jn (0)B, entonces B es una matriz
Toeplitz triangular superior, es decir, B es de la forma

b1 b2 bn

..
..
0 b
.
.

1
B=. .

..
.. ... b

2
0 0 b1
3.4 (a) La suma y el producto de matrices Toeplitz triangulares superiores
es una matriz Toeplitz triangular superior.
(b) La inversa de una matriz Toeplitz triangular superior, es una matriz
Toeplitz triangular superior.
(c) Son las afirmaciones (a) y (b) ciertas para matrices Toeplitz en general.

Captulo 4

Matrices Hermitianas y
Sim
etricas
4.1.

Definiciones, propiedades y caracterizacion de


matrices hermitianas

Definici
on 4.1. Una matriz A Mn (C) es:
(i) hermitiana, si A = A
(ii) antihermitiana, si A = A
(iii) sim
etrica, si A = At
(iv) antisim
etrica, si A = At
Notaci
on. Denotaremos el conjunto de las matrices hermitianas por Hn , y
el de las simetricas por Sn (C) si sus entradas son complejas, y por Sn (R) si
sus entradas son reales.
Observaciones.
1.

A + A , AA , A A Hn para toda matriz A Mn (C)

2.

Si A Hn , Ak Hn para cada k = 0, 1, 2, . . . .
80

Matrices Hermitianas y Simetricas

81

3.

Si A, B Hn , entonces A + B Hn para todo R. Es decir, Hn


es un R-espacio vectorial. (Puede comprobarse que no es un C-espacio
vectorial.)

4.

A A es antihermitiana para todo A Mn (C).

5.

Si A y B son antihermitianas entonces A + B es antihermitiana para


todo R. Es decir, el conjunto de las matrices antihermitianas es
un R-espacio vectorial.

6.

Si A Hn , entonces iA es antihermitiana.

7.

Si A es antihermitiana, entonces iA Hn .

8.

Toda matriz A Mn (C) puede escribirse de manera u


nica como la
suma de una matriz hermitiana y una antihermitiana. As, si Ant(Hn )
denota las matrices antihermitianas, entonces
Mn (C) = H Ant(Hn )

9.

dim(Hn ) =

n(n+1)
2

(n1)n
2

= n2

Demostraci
on. Sea A Hn , y sean AR su parte real y AI su parte
imaginaria, as:
A = AR + iAI
entonces,
(AR + iAI ) = AR + iAI
de donde
AtR iAtI = AR + iAI
por lo tanto AtR = AR y AtI = AI , Es decir, su parte real es simetrica
y su parte imaginaria es antisimetrica.
10.

Toda matriz A Mn (C) puede escribirse univocamente como


A = S + iT en donde S y T son hermitianas. Aqui
1
i
S = (A + A ) y T = (A A )
2
2
Es decir,
Mn (C) = H iHn

82
11.

Teoria Avanzada de Matrices


Toda matriz A Mn (C) pude escribirse de manera u
nica como la
suma de una simetrica y una matriz antisimetrica. As, si Ant(Sn )
denota el conjunto de las matrices antisimetricas tenemos que
Mn (C) = Sn (C) Ant(Sn )

12.

Si consideramos el producto interno h, i sobre Mn (C) definido por


hA, Bi = Tr(B A)
entonces
Sn (C) = Ant(Sn (C))
de aqu obtendriamos que
Mn (C) = Sn (C) Sn (C)
NOTA. Sin embargo, Hn y Ant(Hn ) no son necesariamente conjuntos
ortogonales seg
un este producto interior, ya que si
"
#
"
#
0 1
0 i
A=
yB=
i 0
1 0
tenemos que A Hn y B Tn , pero
"
#"
#!
0 1
0 i
hA, Bi = Tr
1 0
i 0
"
#!
i 0
= Tr
0 i
= 2i 6= 0

13.

Sea A Ant(Hn ), y escribamos A = AR + iAim , entonces


(AR + iAim ) = AR iAim
y por otro lado
(AR + iAim ) = AtR iAtim

Matrices Hermitianas y Simetricas

83

de donde AtR = AR y Aim = Atim .


Concluimos de lo anterior, que una matriz es antihermitiana si su parte
real es antisimetrica (real) y su parte imaginaria es simetrica (real).
14.

Las matrices hermitianas, antihermitianas, simetricas reales y antisime-tricas reales son normales. Sin embargo, existen matrices simetricas y antisimetricas complejas que no son normales. Por ejemplo:
"
#
i 1
A=
1 1
es simetrica, pero no es normal
"

#"
#
i
1
i
1
AA =
1 1
1 1
"
#
2
1+i
=
1i
2
"
#"
#
i 1 i 1

A A=
1 1 1 1
"
#
2
1i
=
1+i
2

Teorema 4.1. Sea A Mn (C). Entonces A Hn si y solamente si, por lo


menos una de las siguientes afirmaciones se cumple:
(i) x Ax es real para todo x Cn
(ii) A es normal y todos los valores propios de A son reales.
(iii) S AS es hermitiana para todo S Mn (C)
Demostraci
on.
(i) )
x Ax = (x Ax)
= x A x
= x Ax

84

Teoria Avanzada de Matrices


concluimos que x Ax es real.
)
x Ax = x Ax,
por lo tanto
x A x = x Ax
para todo x, de donde
x (A A)x = 0
Sea B = (bij ) = A A y x = ei , entonces eti Bei = 0, luego

b1i

..

eti
. ei = bii = 0
bni
Por otro lado tenemos que
(eti etj )B(ei + etj ) = eti Bei + etj Bej + (eti Bej etj Bei ) = 0
donde 2 = 1. Concluimos que


b1j
b1j


t ..
t ..
e i . = ej .
bnj
bnj
por lo tanto
bij = bji
por otro lado,
(ei + ej )t B(ei + ej ) = 0,
de aqu
bij = bji .
Concluimos que B = 0 y por lo tanto A = A

Matrices Hermitianas y Simetricas

85

(ii) Fue ya probado.


(iii) Es evidente.

Ejercicio 53. Probar que una matriz A es hermitiana, si y solo si, para
todo x Cn ,
x A x = x Ax.
Respuesta.
) En este sentido el resultado es evidente.
) Notese que necesariamente x (A A)x = 0, para todo x Cn , se sigue
por el ejercicio anterior, que A A = 0, lo cual implica que A es hermitiana.
Teorema 4.2. Sea F una familia de matrices hermitianas entonces, existe
una matriz unitaria U , tal que U A U es diagonal real para toda A F si y
solo si, F es una familia de matrices conmutantes.
Teorema 4.3. Sea A Mn (C). Las siguientes afirmaciones son equivalentes.
(a) A es similar a una matriz B Mn (R)
(b) A es similar a A
(c) A es similar a A , via una transformaci
on de similaridad hermitiana.
(d) A = HK, donde H, K Mn (C) son hermitianas y por lo menos una
de la dos es no singular.
(e) A = HK, en donde H, K Mn (C) hermitianas.
Demostraci
on.
(a) (b) Existe una matriz no singular S y una matriz
B Mn (R), tales que
A = SBS 1

86

Teoria Avanzada de Matrices

entonces

A = (S 1 ) B t S
= (S )1 B t S

as A B t , pero B t B A, concluimos.

4.2.

Caracterizaci
on variacional de los valores propios de matrices hermitianas

Teorema 4.4 (Rayleigh-Ritz). Sea A Mn (C) una matriz hermitiana, y


sean mn = 1 2 n = max los valores propios de A. Entonces,

(i) 1 x x x Ax n x x, para todo x Cn

(ii) max = max xxAx


ax x Ax
x = m

x x=1

x6=0

(iii) mn = mn xxAx
n
x = m

x6=0

x x=1

Matrices Hermitianas y Simetricas

89

Proposici
on 4.1. Sea A una matriz hermitiana, tal que A = U U donde
= diag(1 , . . . , n ), y 1 n son los valores propios de A, entonces
(a) Si x {U1 , U2 , . . . , Uk1 } ,
mn
x6=0

x Ax
= m
n x Ax = k , k = 2, 3, . . . , n
x x=1
x x

(b) Si x {Un , Un1 , . . . , Unk+1 } ,


max
x6=0

x Ax
= m
ax x Ax = nk , k = 1, 2, . . . , n 1
x x=1
x x

Demostraci
on.

(a) Sea x {U1 , U2 , . . . , Uk1 } , x 6= 0


x Ax =

n
X

n
X

n
X

n
X

i x Ui Ui x

i=1

i (Ui x) (Ui x)

i=1

i |Ui x|2

i=1

i |Ui x|2

i=k

n
X

|Ui x|2

= k

i=k
n
X

|(U x)i |2

i=k

= k x x

de aqu se sigue que


x Ax
k , si x 6= 0
x x

(4.1)

90

Teoria Avanzada de Matrices


Notese que la igualdad se alcanza para x = uk , por lo tanto
x Ax
= k
x x

mn

x6=0
x{u1 ,...,uk1 }

y de (4.1) tambien se sigue que


mn

x x=1
x{u1 ,...,uk1 }

x Ax = k

(b) Se prueba en forma similar a (a)

Las formulas anteriores son de valor poco practico, pues requieren el


conocimiento de algunos vectores propios lo cual en general no es posible.
Teorema 4.5 (Courant-Fisher). Sean, A Hn con valores propios
1 2 n y sea k un entero tal que 1 < k < n. Entonces,

w1 ,...,wnk Cn

max

x6=0, xCn
xw1 ,...,wnk

x Ax
= k
x x

max

mn

x Ax
= k
x x

mn

w1 ,...,wk1 Cn x6=0, xCn


xw1 ,...,wk1

La optimizacion se efectua sobre colecciones {w1 , . . . , wn } ortogonales de


Cn .
Demostraci
on. Escribamos A = U U , en donde U es unitaria y
= diag(1 , . . . , n ) y sea 1 < k < n. Si x 6= 0,
x Ax
(U x) (U x)
=
x x
x x
(U x) (U x)
=
(U x) (U x)

Matrices Hermitianas y Simetricas

91

y hagamos el cambio de variable y = U x. As, si w1 , . . . , wnk Cn son


vectores ortogonales dados, tenemos
sup
x6=0
x{w1 ,...,wnk }

x Ax
=
x x

sup
y6=0
y{U w1 ,...,U wnk }

y y
y y
n
X

sup

y y=1
i=1
y{U w1 ,...,U wnk }
n
X

sup

y y=1
y{U w1 ,...,U wnk }

sup
y y=1

i=1
n
X

sup
|yk |2 ++|yn |2 =1
y{U w1 ,...,U wnk }

sup

i |yi |2

i |yi |2

i=k

|yk |2 ++|yn |2 =1
y{U w1 ,...,U wnk }

i |yi |2

i=1
n
X

y{U w1 ,...,U wnk }


y1 =y2 ==yk1 =0

i yi yi

n
X

|yi |2

i=k

k .
Con esto estamos probando que
sup
x6=0
x{w1 ,...,wnk }

x Ax
k
x x

para cualquier coleccion de n k vectores w1 , . . . , wnk ortogonales. Concluimos de aqui que


k

inf

w1 ,...,wnk Cn

sup
x6=0
x{w1 ,...,wnk }

x Ax
x x

Podemos ver que el valor k se alcanza, si tomamos la coleccion

w = u , . . . , w
1
1
nk = unk , x = uk , si n < 2k
w1 = un , . . . , wnk = uk+1 , x = uk , si n 2k

92

Teoria Avanzada de Matrices

NOTA. x {w1 , . . . , wnk } y {U w1 , . . . , U wnk }


Teorema 4.6 (Weyl). Sean A, B Mn (C) matrices hermitianas, i (A),
i (B), i (A + B) i = 1, . . . , n los valores propios de las matrices A, B y
A + B respectivamente. Adem
as supongamos que estos valores propios han
sido ordenados de manera creciente. Entonces, para cada k = 1, 2, . . . , n se
tiene que
k (A) + n (B) k (A + B) k (A) + 1 (B)
Demostraci
on. Para cada vector no nulo x Cn , tenemos por el Teorema
de Rayleigh-Ritz que:
1 (B)

x Bx
n (B)
x x

Ahora, por el Teorema de Courant-Fischer si w1 , . . . , wn es una coleccion de


vectores ortogonales de Cn ,
max

w1 ,...,wk1

mn

x6=0
x{w1 ,...,wk1 }

x (A + B)x
= k (A + B)
x x
=

max

w1 ,...,wk1

mn

x6=0
x{w1 ,...,wk1 }

w1 ,...,wk1

mn

x6=0
x{w1 ,...,wk1 }

w1 ,...,wnk Cn

max

x6=0
x{w1 ,...,wnk }

x (A + B)x
x x

x Ax x Bx
+ = k (A + B)
x x
x x
=

max

mn

mn

w1 ,...,wnk Cn

max

x6=0
x{w1 ,...,wnk }

x Ax x Bx
+
x x
x x

x Ax
+ n (B) k (A + B)
x x

mn

w1 ,...,wnk Cn

max

x6=0
x{w1 ,...,wnk }

x Ax
+ 1 (B)
x x

k (A) + n (B) k (A + B) k (A) + 1 (B).

Matrices Hermitianas y Simetricas

93

Corolario 4.2. Sean, A, B, matrices hermitianas, con B semidefinida positiva (i.e. sus valores propios son 0) adem
as supongamos que los valores
propios de A y B son arreglados en orden creciente. Entonces,

k (A) k (A + B), k = 1, 2, . . . , n.

(4.2)

Demostraci
on. Por hipotesis 1 (B) 0, y por el teorema anterior se deduce
(4.2)

Teorema 4.7 (Principio de Inclusi


on). Sea A una matriz hermitiana, y
sea r un entero 1 r n. Denotemos por Ar una matriz subprincipal r r
(obtenida al borrar n r filas de A y las correspondientes columnas). Para
cada k, 1 k r tenemos que

k (A) k (Ar ) k+nr (A)

Demostraci
on. Sea Ar Mr (C) la matriz que se obtiene de A, al borrar las
filas i1 , . . . , inr y las correspondientes columnas, y sea 1 k r. Usando
el Teorema de Courant-Fischer tenemos que

k+nr =

w1 ,...,wrk Cn

max

x6=0
x{w1 ,...,wrk }

x Ax
x x

mn

max

x Ax
x x

mn

w1 ,...,wrk Cn

mn

v1 ,...,vrk Cr

= k (Ar )

x6=0
x{w1 ,...,wrk }
x{ei1 ,...,einr }

max

y6=0, yCr
y{v1 ,...,vrk }

y Ar y
y y

94

Teoria Avanzada de Matrices

Para la segunda desigualdad asumimos de nuevo que 1 k r y usamos el


Teorema de Courant-Fischer
k (A) =

w1 ,...,wk1 Cn

mn

x6=0, xCn
x{w1 ,...,wk1 }

x Ax
x x

max

mn

x Ax
x x

max

w1 ,...,wk1 Cn

max

v1 ,...,vk1 Cr

x6=0, xCn
x{w1 ,...,wk1 }
x{ei1 ,...,einr }

mn

y6=0, yCr
y{v1 ,...,vk1 }

y Ay
y y

= k (Ar )

Corolario 4.3 (Teorema de separaci


on de Poincare). Sean A Mn (C)
hermitiana, r un entero tal que 1 r n y u1 , . . . , ur Cn vectores ortogonales. Si Br = [ui Auj ] Mr , y los valores propios de A y Br est
an
ordenados en forma creciente, entonces
k (A) k (Br ) k+nr (A), 1 k r

(4.3)

Demostraci
on. Si r n completamos el conjunto {u
h 1 , . . . , ur } aiuna base
ortonormal {u1 , . . . , ur , ur+1 , . . . , un }. Hagamos U = u1 un , como U
es unitaria, U AU tiene los mismos valores propios de A. Observemos que
Br es una submatriz principal de U AU obtenida al borrar las n r ultimas
filas y columnas de U AU . Entonces (4.3) se sigue del teorema anterior.
Corolario 4.4. Sean A Mn (C) hermitiana y r un entero tal que 1 r
n. Entonces,
1 (A) + + r (A) = mn Tr U AU
U U =Ir

nr+1 (A) + + n (A) = m


ax Tr U AU

U U =Ir

aqu el mnimo y el m
aximo se toman sobre todas las matrices U Mnr (C),
tales que sus columnas son vectores ortonormales.

Matrices Hermitianas y Simetricas

95

Ejercicio 54. Para cualquier permutacion


1 (A) + + r (A)

r
X

ai(i)

nr+1 (A) + + n (A)

i=1
r
X

ai(i)

i=1

Demostraci
on. Sea U Mnr (C) con sus columnas ortonormales y hagamos Br = U AU . Entonces, Tr(Br ) = 1 (Br )+ +r (Br ) y por el corolario
anterior k (A) k (Br ), 1 k r, de donde
1 (A) + + r (A) 1 (Br ) + + r (Br )
= Tr(U AU )
por lo tanto
1 (A) + + r (A)

inf

U U =Ir

Tr(U AU )

h
i
en particular, si U = u1 ur , donde Aui = i ui , 1 i r
1 (A) + + r (A) = Tr(U AU )
luego
1 (A) + + r (A) = mn Tr(U AU )
U U =Ir

4.3.

Matrices Sim
etricas Complejas

Teorema 4.8. Sea A Mn (C). Existen, una matriz unitaria U Mn (C)


y una matriz triangular superior Mn (C), tal que A = U U t , si y
solamente si, todos los valores propios de AA son reales no negativos. Bajo
estas condiciones, todas las entradas en la diagonal principal de , pueden
tomarse no negativas, y corresponden a las raices cuadradas no negativas de
los valores propios de AA.

96

Teoria Avanzada de Matrices

Demostraci
on.
) Si A = U U t , entonces
AA = U U t U U
= U U
notese que los elementos de la diagonal principal de , son reales no negativos, y que por ser triangular superior, los valores propios de
corresponden a los elementos en su diagonal principal.
) Asumamos que los valores propios de AA son reales no negativos. Sea
(, x) un par propio de AA, esto es, AAx = x, con R, 0.
Consideremos ahora las siguientes dos posibilidades:
(a) Ax y x son linealmente dependientes.
(b) Ax y x son linealmente independientes.
Probaremos que para cualquiera de estas dos posibilidades, existen C,
||2 = y v Cn , v 6= 0 tales que Av = v.
Si (a) se da, existe C tal que Ax = x, luego
AAx = Ax
= x
= ||2 x
luego necesariamente
||2 =
Si la condicion (b) se satisface, consideremos el vector y = Ax + x, el cual
es no nulo para todo C y tomemos , tal que ||2 = . Entonces,
Ay = A(Ax + x)
= AAx + Ax
= x + Ax
= x + Ax
= (x + Ax)
= y

Matrices Hermitianas y Simetricas

97

Asumamos adicionalmente que v es unitario. Notese que para cualquier


R, tenemos
ei Av = ei v
= (e2i )(ei v)
notese que ei v es un vector unitario por ser v unitario. Elijamos , de tal

forma que e2i 0, ademas |e2i | = || = +


NOTA.
e2i = cos 2 i sen 2
e2i = ||ei(2)

donde = ||ei

0 2

= ||(cos( 2) + i sen( 2))

Determinamos tal que


sen( + 2) = 0
2 = k,

k = 0, 1, 2, . . .

luego
=

k
2

De acuerdo a la NOTA concluimos que si A Mn (C) y es un valor


propio no negativo de AA, entonces existen un vector unitario v y un escalar

= + tales que Av = v. Hagamos v1h = v y completemos


una base
i
n
ortonormal {v1 , v2 , . . . , vn } de C . Sea V1 = v1 v2 vn , notemos que
V1 es unitaria. Podemos escribir

wt

0
t

V1 AV1 = .

.. A2
0

98

Teoria Avanzada de Matrices

en donde w Cn1 , A2 Mn1 (C). Se sigue que





V1t AV1 V1t AV1 = V1 AV 1 V1t AV1
= V1 AAV1

2 wt + wt A2

= .

.
A
A
2
2
.

0
Ahora, puesto que los valores propios de AA son todos reales no negativos
(hip
otesis), entonces los valores propios de A2 A2 son todos reales no negativos. Aplicando la induccion sobre, el tama
no de la matriz, tenemos que
0
existe una matriz V2 Mn1 (C) unitaria y una matriz triangular superior
2 con todos los elementos en la diagonal principal no negativos, tales que
t

V 0 2 A2 V 0 2 = 2
Hagamos

0
V2 =
..
.

0 0
V20

y observemos que

2 wt

0
t t

V2 V1 AV1 V2 = .
2

..
0

que es precisamente lo que se quera probar.


Observaci
on. Si A Mn (C) es una matriz simetrica, entonces los valores
t
propios de AA son reales no negativos, ya que (AA) = At A = AA, es
decir, AA es hermitiana, con valores propios no negativos, es decir, A A
es semidefinida positiva. Notese que si es un valor propio de A, entonces
= ||2 es un valor propio de AA (Usar el Teorema de Schur ).

Matrices Hermitianas y Simetricas

99

Corolario 4.5 (Factorizaci


on de Takagi). Si A Mn (C) es simetrica, existe una matriz unitaria U Mn (C) y una matriz diagonal real no
negativa = diag(1 , . . . , n ) tales que
i) A = U U t
ii) Las columnas de U forman un conjunto ortonormal de vectores propios
de AA.
iii) Las entradas en la diagonal de , son las raices cuadradas no negativas
de los valores propios de AA.
Demostraci
on. Si A es simetrica, AA = AA es hermitiana y sus valores
propios son reales no negativos. El teorema anterior garantiza que hay una
matriz unitaria U Mn (C) y una matriz triangular superior Mn (C),

0
=
..
.
0

2
.
..
.. ..
, con i 0, i = 1, . . . , n.
.
. ..
.
. . . . . . . 0 n

tales que A = U U t . Pero por la simetra de A implica que U U t = U t U t ,


concluimos de aqu que = t y por lo tanto es diagonal. Ademas,
AA = U U t U U t = U U = U 2 U de esta u
ltima igualdad concluimos que las columnas de U son vectores propios de AA
Teorema 4.9. Sea A Mn (C) entonces A es simetrica y normal, si y solamente si, hay una matriz ortogonal real Q Mn (R) y una matriz diagonal
Mn (C) tales que
A = QQt .

(4.4)

Demostraci
on. Podemos escribir A = B + iC, en donde B, C son matrices
simetricas reales. Si A es simetrica y normal, entonces
AA = (B + iC)(B iC)
= (B 2 + C 2 ) + i(CB BC)

100

Teoria Avanzada de Matrices

y
A A = (B iC)(B + iC)
= (B 2 + C 2 ) + i(BC CB)
de donde CB = BC. En consecuencia, B y C son simultaneamente diagonalizables, por una matriz ortogonal real Q. Si B = QD1 Qt y C = QD2 Qt
en donde D1 y D2 son matrices diagonales reales. Entonces,
A = Q(D1 + iD2 )Qt
= QQt
donde
= D1 + iD2
Reciprocamente, si una matriz A Mn (C), puede escribirse en la forma
(4.4), es claro que A es simetrica. Ademas,
AA = QQt (QQt )
= QQt QQt
= QQt
= QQt
= QQt QQt
= A A
se concluye que A es normal.
Lema 4.1. Sean, A Mn (C) y  > 0. Entonces, existe una matriz no
singular S Mn (C), tal que

A = S

Jn1 (1 , )

0
..

.
Jnk (k , )

1
S

(4.5)

Matrices Hermitianas y Simetricas


donde

Jm (, ) = . .
..
..

..
.
..
.
0

101

0
..
.

Demostraci
on. Sabemos que existe una matriz no singular S1 Mn (C), tal
que si 1 , . . . , k son los valores propios distintos de A, entonces

0
Jn1 (1 )

..

S11 AS1 =
.

0
Jnk (k )
en donde n1 + + nk = n. Sea D = diag(1, , . . . , n1 ) y calculemos

D1 S1 AS1 D =

1


..

.
1
n1

1
0
Jn1 (1 )


..

.
..

0
Jnk (k )

n1

para determinar el resultado efectuemos

1


..

.
1

1
..
.

..

1
1

n1 1


..

1


..

.
1
n1 1


..
.

n1 1

1 

1   2

..

..


1

..

.
n1 1
1 n1 1

102

Teoria Avanzada de Matrices

Por lo tanto D1 S11 AS1 D es de la forma (4.5).


Teorema 4.10. Toda matriz A Mn (C) es similar a una matriz simetrica.
Demostraci
on. Sea A Mn (C), sabemos que A es similar a una forma
canonica de Jordan.

Jn1 (1 )
0

..

J =
.

0
Jnk (k )

..

en donde Jni (i ), i = 1, . . . , k son bloques de Jordan y 1 , . . . , k son los


distintos valores propios de A.
Consideremos la matriz Sr = 12 (Ir + iBr ), en donde Ir es la identica de
orden r, y

0
1

Br =
.

1
0 rr

0
1

Br =
.

1
0 rr
Entonces,
1
(Ir + iBr )(Ir iBr )
2
1
= (Ir + Br2 + i(Br Br ))
2
1
= (Ir + Ir )
2
= Ir

Sr S r =

as, Sr es unitaria simetrica.


Ahora probaremos que si Jr () es un bloque de Jordan cualquiera de tama
no

Matrices Hermitianas y Simetricas

103

r, con valor propio C, entonces Sr Jr ()Sr1 es una matriz simetrica.


Escribamos
Jr () = Ir + Jr (0),
entonces
Sr Jr ()Sr1 = Sr (Ir + Jr (0))S r
= Ir + Sr Jr (0)S r
= Ir + (Ir + iBr )Jr (0)(Ir iBr )
= Ir + Jr (0) + Br Jr (0)Br + i(Br Jr (0) Jr (0)Br )
pero

Br Jr (0) =
1

0 1
1
...

..
. 1

0
..

0 0
.

..
1

= .

..

0 1
0

0 1

.
0
..

.
.
.

Jr (0)Br =

. . 1

1
0

0
1 0

0
0

1
0

104

Teoria Avanzada de Matrices

0
.
..

Br Jr (0)Br = .
..

0 1

0
.
1 . .

= .

.. ...

0
0
1

1
0

Observemos que
Jr (0) + Br Jr (0)Br
es simetrica, y que tambien lo es
Br Jr (0) Jr (0)Br
Con esto hemos probado que cada bloque de Jordan es similar a una matriz
simetrica, de aqu se sigue que toda matriz es similar a una matriz simetrica.

Ejercicio 55. Toda matriz puede factorizarse como el producto de dos


matrices simetricas, en donde por lo menos uno de los factores es no singular.

Ejercicios
4.1 Probar que una matriz A es hermitiana, si y solo si, para todo x Cn ,
x A x = x Ax.
4.2 Para cualquier permutacion
1 (A) + + r (A)

r
X

nr+1 (A) + + n (A)

r
X

ai(i)

i=1

i=1

ai(i)

Matrices Hermitianas y Simetricas

105

4.3 Toda matriz puede factorizarse como el producto de dos matrices simetricas, en donde por lo menos uno de los factores es no singular.
4.4 Refute o demuestre, toda matriz simetrica A puede escribirse en la forma
A = QQT en donde Q es ortogonal compleja y diagonal.

Captulo 5

Normas Matriciales
Definici
on 5.1. Una funcion kk : Mn (C) R es una norma matricial, si
y solo si, para todo A, B Mn (C) se satisfacen los siguientes cinco axiomas
(1) kAk 0
(2) kAk = 0 A = 0
(3) kAk = ||kAk, para todo C
(4) kA + Bk kAk + kBk
(5) kABk kAkkBk
Propiedades.
1.

Si A es invertible kIk kA1 kkAk

2.

kAk k kAkk para todo k = 1, 2, . . .

3.

Si A es idempotente, no nula kAk 1

NOTA. Una funcion k k : V R con V espacio vectorial sobre R, se


denomina norma vectorial, si satisface (1), (2), (3) y (4)
Ejercicio 56. Toda pnorma es una norma matricial? Es decir, si

kAkp =

n
X

|aij |

i,j=1

106

, p1

Normas Matriciales

107

entonces, se cumplen (1), (2), (3), (4) y (5). Pruebe que la afirmacion es cierta, si y solo si 1 p 2.
Ejercicio 57. kABkp mn{kAkp kBkq , kAkq kBkp } p1 + q 1 = 1
Ejercicio 58. Probar directamente que la 1-norma y la 2-norma son normas
matriciales.
Respuesta. Sea A Mn (C), la 1-norma o `1 -norma esta dada por la
igualdad
n
X
kAk1 =
|aij |.
i,j=1

Puede verificarse facilmente que k k, satisface las propiedades (1), (2), (3)
(4) para verificar (5) observemos que
n
n
X
X
kABk1 =
|
aik bkj |

i,j=1 k=1
n X
n
X

i,j=1 k=1
n
n X
X

|aik bkj |

|aik ||bkj |
i,j=1 k=1
n
n X
n X
X

i,j=1 k=1 s=1


n X
n
X

n
X

i,j=1 s=1

k=1

|ais ||bkj |

|ais |

n X
n
n
X
X
i=1 j=1

n
X
i=1

n
X

|ais |

s=1

|ais |

s=1

|bkj |
n
X

|bkj |

k=1
n X
n
X
j=1 k=1

|bkj |

! n n
n X
n
X
XX
|ais |
|bkj |
i=1 s=1

kAk1 kBk1

j=1 k=1

108

Teoria Avanzada de Matrices

NOTA. Es interesante observar que una norma sobre un espacio vectorial


proviene de un producto interior, es decir, dado k k, si existe h, i, tal que
1
k k = h, i 2 , esto es posible, si y solo si,

1
kX + Y k2 + kX Y k2 = kXk2 + kY k2 .
2
Ejercicio 59. Muestre que k k no proviene de un producto interior.
Ejercicio 60 (La norma infinito). Definimos, para A Mn (C)
kAk = lm kAkp
p

= lm
p

n
X

|aij |

i,j=1

probar que
kAk = max |aij |
1i,jn

es una norma vectorial pero no una norma matricial.


Demostraci
on.

max |aij | kAkp =

1i,jn

n
X

|aij |

i,j=1

(n2 )

max |aij |

1

1i,jn
1
p

max |aij |.

1i,jn

Por el teorema del emparedado tenemos que


kAk := lm kAkp = max |aij |
p

1i,jn

pueden probarse" facilmente


(1), (2), (3), "y (4).# Ahora (5) no se satisface
#
1 1
2 2
ya que, si J =
, entonces J 2 =
, ademas kJk = 1, pero
1 1
2 2
kJ 2 k = 2 y
2 = kJ 2 k  kJk kJk = 1

Normas Matriciales

109

Sin embargo
Ejercicio 61. k|A|k := nkAk es una norma matricial
Demostraci
on.
k|AB|k = nkABk
= n max |
1i,jn

n
X
k=1

n max

n
X

n max

n
X

1i,jn

1i,jn

aik bkj |

|aik ||bkj |

k=1

kAk kBk

k=1

nkAk nkBk
= k|A|k k|B|k

Ejercicio 62. La norma euclideana o 2-norma es una norma matricial


1

2
n
X
2

kAk2 =
|aij |
.
i,j=1

Demostraci
on.
kABk22

n
n
X
X
=
|
aik bkj |2

i,j=1 k=1
n
n
X
X
i,j=1

|aik |

k=1

n
X

|aik |2

i=1 j=1
n
n X
X

n
n X
X

k=1

i=1 k=1

kAk22 kBk22

k=1

n X
n
n
X
X

|aik |2

|bkj |

n
X
k=1

j=1 k=1

|bkj |2

|bkj |2

110

5.1.

Teoria Avanzada de Matrices

Normas Matriciales Inducidas por Normas Vectoriales

Proposici
on 5.1. Si kk es una norma vectorial definida sobre Cn , entonces
k|A|k := max kAxk,
kxk=1

es una norma matricial sobre Mn (C).


Demostraci
on. 1), 2), 3) y 4) pueden verificarse facilmente. Veamos 5)
k|AB|k : = max kABxk
kxk=1

kABxk
x6=0
kxk
kABxk kBxk
= max

x6=0 kBxk
kxk

= max

Bx6=0

max
y6=0

kAyk
kBxk
max
x6=0 kxk
kyk

= k|A|kk|B|k.

Corolario 5.1. Si k| |k es una norma matricial inducida por la norma


vectorial k k, entonces
1) kAxk k|A|kkxk para todo A Mn (C) y x Cn .
2) k|I|k = 1.
Demostraci
on. 1) Por definicion
k|A|k = max
x6=0

kAxk
kxk

de aqu tenemos que para todo x Cn , x 6= 0


kAxk k|A|kkxk

Normas Matriciales

111

2) Es evidente.

Proposici
on 5.2. Sea A Mn (C), entonces las funciones
P
1) k|A|k1 = max1jn ni=1 |aij |, norma columna.

2) k|A|k2 = max{ | (A A)} norma espectral, y


P
3) k|A|k = max1in nj=1 |aij | norma fila.
son normas matriciales inducidas por las pnormas vectoriales k k1 , k k2
y k k respectivamente.
Demostraci
on. 1) Sean A = [A1 , . . . , An ] y x = (x1 , . . . , xn )t Cn
kAxk1 = ka1 x1 + + an xn k1

n
X

kAi xi k1

i=1
n
X

|xi |kAi k1

i=1
n
X

|xi |

i=1
n
X

|xi |k|A|k1

max kAk k1

1kn

i=1

= k|A|k1 kxk1
de donde
kAxk1
k|A|k.
kxk1
para todo x 6= 0. Por otro lado observamos que si hacemos z = ek ,
kAek k1 = kak k1 , para todo 1 k n de donde
k|A|k1 = max {kAek k},
1kn

concluimos que
k|A|k1 = max
x6=0

kAxk1
.
kxk1

112

Teoria Avanzada de Matrices

2) Sabemos que A A es hermitiana con todos los valores propios reales no


negativos. Sea x Cn , x 6= 0, por el teorema de Rayleigh-Ritz
x A Ax
x6=0
x x
kAxk22
= max
x6=0 kxk2
2


kAxk2 2
= max
x6=0 kxk2

max (A A) = max

luego
k|A|k2 =

max (A A)
kAxk2
.
kxk2

= max
x6=0

3) Sea x Cn , x 6= 0
kAxk = max |
1in

max

1in

n
X

aij xj |

j=1
n
X

|aij ||xj |

j=1

max |xk | max


1kn

1in

n
X

|aij |

j=1

k|A|k kxk
de aqu se sigue que
max kAxk k|A|k

kxk =1

Ahora probaremos que la igualdad se alcanza. Por cada fila 1 k n


de A definimos z k = [z1k , . . . , znk ]t Cn de la siguiente manera

aki , si a 6= 0
ki
zik = |aki |
1,
si aki = 0

Normas Matriciales

113

entonces, kz k k = 1 y akj zjk = |akj |, j = 1, . . . , n. Entonces


max kAxk kAz k k

kxk =1

= max |
1in

n
X

n
X

aij zjk |

j=1

akj zjk |

j=1
n
X

|akj |

j=1

para cualquier fila k de A. Concluimos que


max kAxk k|A|k

kxk =1

NOTA.
(A A)

Si A es hermitiana, |max | =
(A).

max (A A), en otras palabras k|A|k2 =

Si A es una matriz cualquiera, el valor singular maximo de A es


p
max (A) = max (A A)
En general k|A|k2 kAkF
Ejercicio 63. El radio espectral (A) de una matriz A Mn (C) es
(A) = max{|| | (A)}.
Si B es normal, entonces
|x Bx| (A)kxk2 , para todo x Cn
Demostraci
on. Sean 1 , . . . , n los valores propios de B. Existe U Mn (C)
unitaria, tal que
X
B=
i Ui Ui

114

Teoria Avanzada de Matrices

Ui es la columna iesima de U , de donde

|x Bx| = |

n
X

i x Ui Ui x|

i=1

n
X

|i |(Ui x) Ui x

i=1

(A)

n
X

(Ui x) Ui x

i=1

(A)x x
(A)kxk22

Ejercicio 64. Mostrar que k|U AV |k2 = k|A|k2 , para todo A Mn (C) y
cualquier par de matrices unitarias U, V Mn (C). As, la norma espectral
es una norma unitariamente invariante.
Demostraci
on.
k|U AV |k2 = max kU AV xk2
kxk2 =1

= max (x V A U U AV x)1/2
kxk2 =1

= max (x V A AV x)1/2
kxk2 =1

max x V A AV x

1/2

kxk2 =1

V A AV es hermitiana
= max (V A AV )1/2
Teorema de Rayleight
= max (A A)1/2
= max{|| | (A A)}
= k|A|k2

Normas Matriciales

115

Teorema 5.1. Si k| |k es una norma matricial, entonces


(A) k|A|k
para toda matriz A Mn (C)
Demostraci
on. Sea A Mn (C) y (A), tal que (A) = ||.
h Sea x uni
vector propio de A, asociado a . Hagamos X Mn (C), X = x x
entonces
k|AX|k = ||k|X|k
por lo tanto
||k|X|k k|A|kk|X|k
y por ser x 6= 0, entonces
(A) k|A|k

Teorema 5.2. Si k||k es una normas mtricial sobre Mn (C) y si S Mn (C)


es no singular, entonces
k|A|kS = k|S 1 AS|k
para todo A Mn (C) es una norma matricial.
Demostraci
on. Sean A, B Mn (C), entonces
k|AB|kS = k|S 1 ABS|k
= k|S 1 ASS 1 BS|k
k|S 1 AS|kk|S 1 BS|k

Ejercicio 65. Dar un ejemplo de una norma vectorial k k sobre matrices


y una matriz tal que kAk < (A)

116

Teoria Avanzada de Matrices

#
2 12
, enRespuesta. Tomemos k|A|k = max |aij |, y definamos A =
1i,jn
1 2
tonces (A) si
"

( 2)2

1
=0
2

de donde = 2

2
2 .

De aqu tenemos que

2
k|A|k = 2, pero (A) = 2 +
2

Lema 5.1. Sean, A Mn (C) y  > 0. Existe una norma matricial k| |k,
tal que (A) k|A|k (A) + .

Demostraci
on. Por el teorema de triangularizaci
on de Schur, existe una matriz unitaria U y una matriz triangular superior , tal que = U AU . Sea
Dt = diag(t, t2 , . . . , tn ) y calculemos

Dt Dt1

t1

td12 td13
td1n

t2 2 t2 d23
t2 d2n

..
..
..

.
.
.
diag(t1 , t2 , . . . , tn ),

..

. t1 dn1,n
n

= [dij ]

1 t1 d12 t2 d13 t(n1) d1n

2
t1 d23
t2 d2n

..
..
..

.
.
=
.

..

. t1 dn1,n

Normas Matriciales

117

Ahora
k|Dt Dt1 |k1 = max

|j | +

1jn

ti |dij |

i
(A) + max
t |dij |

1jn
i=1

i=1
j>1

j>1

(A) + d max
(A) + d max
(A) + d max
(A) + d max

n1
X

ti

i=1
1
1
t tn
1 1t
1
t
1 1t

1
t1

(A) + 
Si tomamos t >

d max
+ 1. podemos definir la norma buscada por

k|X|k := k|Dt U XU Dt1 |k

donde U es la matriz unitaria que triangulariza superiormente a A.

5.2.

Normas unitariamente invariantes

Una propiedad importante de las normas euclideanas es que no cambian


bajo transformaciones unitarias. En particular para cualquier vector x y
para cualquier matriz unitaria U , tenemos que
kU xk2 = kxk2
Esta propiedad tambien se tiene para la norma espectral y la norma de
Frobenius en el espacio de las matrices, es decir, para cualquier par de matrices unitarias U y V y cualquier matriz A
k|U AV |k = k|A|k

118

Teoria Avanzada de Matrices

Definici
on 5.2. Una norma k||k en Mn (C) es unitariamente invariante,
si satisface
k|U AV |k = k|A|k
para todo par de matrices unitarias U, V . k| |k es normalizada si
k|A|k = kAk2
cada vez que A es de rango 1.
NOTA. No todas las normas matriciales son unitariamente invariantes. Tomemos por ejemplo
"
#
1 1
A=
1 1
y observemos que k|A|k = 2. Ahora, sea

U=

"

1
2
12

1
2
1
2

entonces
k|U A|k


2
2


=

0
0

=2 2

Nos preguntamos entonces si:


Es posible caracterizar las normas vectoriales unitariamente invariantes?
En un sentido es simple resolver esta pregunta, pues si A Mn (C) y
A = V W

5.2.1.

Descomposici
on a valores singulares

Teorema 5.3. Toda matriz compleja A Mmn (C) se puede factorizar en


la forma
A = V W

Normas Matriciales

119

en donde V es una matriz unitaria en Mmn (C), = (dij )mm es una matriz diagonal, donde sus entradas diagonales es su descomposici
on a valores
singulares, y k k es una norma invariantemente unitaria entonces
kAk = kk
Por lo tanto, podemos definir k k via una funcion : Rn R que
depende unicamente de los valores singulares de A, de la siguiente manera
kAk = (1 (A), 2 (A), . . . , n (A))
Ahora que propiedades debe cumplir , con el fin de que defina una norma
(vectorial) unitariamente invariante?
1.

No deberia variar por permutaciones de los valores singulares, es decir,


si P es una matriz de permutacion, entonces
(1 (A), 2 (A), . . . , n (A)) = (1 (P AP ), 2 (P AP ), . . . , n (P AP ))

2.

Debe cumplir las propiedades propias de una norma definida sobre Rn ,


es decir,
(i) (x) 0, para todo x Rn
(ii) (x) = 0, si y solo si x = 0
(iii) (x) = ||(x), para todo R
(iv) (x + y) (x) + (y)

Una funcion que cumple estas cinco propiedades se denomina funci


on sim
etrica de Gauge.
Supongamos entonces que tenemos una funcion : Rn R, que es simetrica
Gauge, la pregunta que sigue es, si la funcion k k : Mn (C) R definida
por
kAk = (1 (A), 2 (A), . . . , n (A))
define una norma.
1.

Esta k k bien definida?.


Si, ya que los valores singulares son u
nicos y no varia al cambiar el
orden de sus argumentos.

120

Teoria Avanzada de Matrices

2.

Es k k homogenea?
Si, por ser homogenea.

3.

Si kAk = 0 entonces A = 0?
Si, pues la descomposicion a valores singulares de A seria

0
.

.. W = 0
A=U

4.

Es kAk > 0, si A 6= 0?
Si, pues si A 6= 0, entonces (1 (A), 2 (A), . . . , n (A)) 6= 0 y por lo
tanto (1 (A), 2 (A), . . . , n (A)) > 0.

Lo u
nico que nos quedaria por probar es la desigualdad triangular, para esto
probaremos un resultado previo.
Lema 5.2. Sean A, B Mn (C) con valores singulares 1 2 n
y 1 2 n respectivamente. Entonces
max

U,V unitarias

Re Tr(AU BV ) =

n
X

i i

(5.1)

i=1

Demostraci
on. es suficiente probar el lema para el caso en que los i son
todos distintos y positivos (ya que por un resultado anterior para  > 0 existe
una coleccion de n
umeros reales di , 1 i n tales que 0 < di < n ) y
i +di son todos distintos y positivos. Ahora, consideremos la descomposicion
a valores singulares de A
A = U V
donde = diag(1 , . . . , n ) y, U1 y V1 son unitarias. Sea
A = U1  V1
donde  = diag(1 + d1 , . . . , n + dn ). Se sigue que
kA A k2 = kU1 (  )V1 k2
= k  k2
= k diag(d1 , . . . , dn )k2

Normas Matriciales

121

que se puede hacer tan peque


na como se quiera) Entonces, para todo par de
matrices unitarias
Tr(AU BV ) Tr(A U BV )
y por tanto
Re Tr(AU BV ) Re Tr(A U BV )
Observese que 5.1) es equivalente a
max

U,V unitarias

Re Tr(U T V ) =

n
X

i i

(5.2)

i=1

donde T = diag(1 , . . . , n ). Ya que la descomposicion a valores singulares


de B es
B = U2 T V2
entonces
U T V V U U 1 )
Tr(AU B V ) = Tr(U1 V1 U
| {z 2} | 2 {z 1} 1
U

= Tr(U T V )
, V unitarias. Ahora, como el conjunto de matrices unitarias
para cualquier U
es un conjunto cerrado y acotado existen matrices unitarias U0 y V0 para
las cuales el maximo en (5.2) se alcanza. Sea C = U0 T V0 mostraremos
que C es una matriz diagonal con los elementos en la diagonal principal no
negativos. Para ver esto supongamos que existe un elemento en la diagonal
de C negativo, digamos que c11 < 0. Entonces multiplicando C a izquierda
por
c
11
U 0 = |c11 |

In1

obtenemos que
Re Tr(U 0 C) > Re Tr(C)

122

Teoria Avanzada de Matrices

pues
1 |c11 | + Re(2 c22 + + n cnn ) > Re(1 c11 + + n cnn )
1 c11 + Re(2 c22 + + n cnn )
contradiciendose la optimalidad de C.
Mostramos ahora que los elementos de C por fuera de la diagonal principal son nulos. vamos a suponer que c12 6= 0. Multipliquemos a izquierda y
derecha por
"
#
"
#
|c12 |
c12
0
0
|c12 |
y c12
0
I2
0
I2
respectivamente. Obtenemos una matriz C 0 = [c0ij ], tal que c012 = |c12 | > 0 y
c0ii = cii . Con esto queremos decir que podemos suponer c12 > 0. Sea
"
#
cos sin
R =
sin cos
y hagamos C = C diag(R , In2 ). Entonces
Re Tr(C ) = 1 (c11 cos + c12 sin ) + 2 (c22 cos Re c21 sin ) +

n
X

i cii

i=3

(5.3)
y sea

C0

= diag(R,In2 )C. Entonces

Re Tr(C0 ) = 1 (c11 cos Re c21 sin ) + 2 (c12 sin + c22 cos ) +


Derivando (5.3) y (5.4) y evaluando en = 0.

d(Re C )
= 1 c12 2 Re c21 = 0
d
=0

d(Re C0 )
= 1 Re c21 + 2 c12 = 0
d
=0

n
X

i cii
(5.4)

(5.5)

(5.6)

Observese que hemos igualado a cero por ser C un o


ptimo).

2 Re c21
(Re c21 )2
De (5.5), 1 =
= 0,
y reemplazando en (5.6), 2 c12
c12
c12

Normas Matriciales

123

pero 2 6= 0 luego Re c21 = c12 (Notese que el caso Re c21 = c12 debe
desecharse, pues esto implicaria 1 = 2 < 0). Entonces por (5.5) obtenemos que (1 2 )c12 = 0 lo cual no puede suceder ya que 1 > 2 y
c12 > 0. Concluimos que c12 = 0. Haciendo permutaciones sobre las filas
y correspondientes columnas de y C simultaneamente, podemos probar
en forma similar que todas las entradas por fuera de la diagonal principal
de C son nulas. En consecuencia, existe una permutacion , tal que C =
diag((1) , . . . , (n) ). se sigue
max

U,V unitarias

Re Tr(U T V )

n
X

i (i)

i=1

n
X

i i

i=1

Pero puesto que C es optimal, identica y la igualdad se alcanza.


Puesto que es una norma, (D )D = . Caracterizamos kAk en terminos de la norma dual, y esta caracterizacion es justamente lo que necesitamos
para establecer la desigualdad triangular para k k .
Lema 5.3. Sea una funci
on simetrica Gauge y sea D su dual. Entonces
kAk =

max Re Tr(X A)
kXkD =1

Demostraci
on. Sean (A) = {1 , . . . , n } y (X) = {1 , . . . , n } valores
singulares de A y X respectivamente. entonces
max Re Tr(X A) =
kXkD =1

max

Re Tr(V X U A)

kxkD =1
U,V unitarias

max

D (1 ,...,n )=1

n
X
i=1

por el lema anterior


(D )D (1 , . . . , n ) = (1 , . . . , n )
por tanto
max Re Tr(X A) = kAk

kXkD =1

1 i

124

Teoria Avanzada de Matrices

NOTA.
{X | kXkD =1 } = {U XV | kXkD =1 , U, V unitarias}
Sea A = {X | kXkD =1 } y B = {U XV | kXkD =1 , U, V unitarias}, entonces
evidentemente A B, sea Y B, entonces Y = U XV para alg
un par
U, V de matrices unitarias y alguna matriz X con kXk = 1, entonces
kY k = kU XV k = kXk , si y solo si Y A
Teorema 5.4 (Von Neumann). Sea una funci
on simetrica Gauge sobre
n
R . Entonces, kk es una norma unitariamente invariante. Recprocamente,
si kk es una norma unitariamente invariante sobre Cnn , entonces hay una
funci
on simetrica Gauge sobre Rn tal que kAk = kAk
Demostraci
on. solo necesitamos probar que k k satisface la desigualdad
triangular. Por el lema anterior
kA + Bk =

max Re Tr[X (A + B)]


kXkD =1

max Re Tr(X A) + max Re Tr(X B)


kXkD =1

kXkD =1

= kAk + kBk

NOTA. Dada una norma unitariamente invariante kk sobre Cnn podemos


definir una funcion simetrica Gauge
: Rn R0
de la siguiente forma
(x1 , . . . , xn ) = k diag(x1 , . . . , xn )k
Podemos generar una norma kk sobre C n a partir de toda funcion simetrica
Gauge , de la siguiente manera
kAk = (1 (A), . . . , n (A))
donde 1 (A), . . . , n (A) son los valore singulares de A

Normas Matriciales

125

Ejercicios
5.1 Toda pnorma es una norma matricial? Es decir, si

kAkp =

n
X

|aij |

i,j=1

, p1

entonces, se cumplen (1), (2), (3), (4) y (5). Pruebe que la afirmacion es
cierta, si y solo si 1 p 2.
5.2 Muestre que k k no proviene de un producto interior.
5.3 kABkp mn{kAkp kBkq , kAkq kBkp } p1 + q 1 = 1
5.4 Probar directamente que la 1-norma y la 2-norma son normas matriciales.
5.5 (La norma infinito) Definimos, para A Mn (C)
kAk = lm kAkp
p

= lm
p

n
X

|aij |

i,j=1

probar que
kAk = max |aij |
1i,jn

es una norma vectorial pero no una norma matricial.


5.6 Probar que k|A|k := nkAk es una norma matricial
5.7 La norma euclideana o 2-norma es una norma matricial

kAk2 =

n
X
i,j=1

1
2

|aij |

126

Teoria Avanzada de Matrices

5.8 El radio espectral (A) de una matriz A Mn (C) es


(A) = max{|| | (A)}
Si B es normal, entonces
|x Bx| (A)kxk2 , para todo x Cn
5.9 Mostrar que k|U AV |k2 = k|A|k2 , para todo A Mn (C) y cualquier
par de matrices unitarias U, V Mn (C). As, la norma espectral es una
norma unitariamente invariante.
5.10 Dar un ejemplo de una norma vectorial k k sobre matrices y una matriz
tal que kAk < (A)

Captulo 6

Localizaci
on de Valores
Propios
6.1.

Teorema de Gershgorin

Teorema 6.1 (Gershgorin). El espectro de una matriz A Mn (C),


est
a contenido en la uni
on de los siguientes n discos del plano complejo.

X
Di = z C | |z aii |
|aij | , 1 i n

j=1

j6=i

Demostraci
on. Sean (A), x Cn tal que kxk = 1 y Ax = x, e i un
ndice para el cual |xi | = 1. Como (Ax)i = xi , tenemos que
xi =

n
X

aij xj

j=1

En consecuencia,

( aii )xi =

n
X
j=1
j6=i

127

aij xj

128

Teoria Avanzada de Matrices

se sigue que
| aii | = |( aii )xi |

n
X

|aij ||xj |

j=1
j6=i
n
X

|aij |

j=1
j6=i

de donde Di .
Ejemplos. Sea

1 + i 0 14

A = 41
1 14 ,
1
1 3

entonces


1
z C | |z (1 + i)|
4


1
D2 = z C | |z 1|
2

D1 =

D3 = {z C | |z 3| 2}
Ahora, aplicamos el teorema de Gershgorin a la matriz

1 + i 14 1

At = 0
1 1
1
1
4
4 3

D10

5
z C | |z (1 + i)|
4

D20 = {z C | |z 1| 1}


1
0
D3 = z C | |z 3|
2

Localizacion de Valores Propios

129

Corolario 6.1. Sean A = [aij ] Mn (C), y p1 , . . . , pn n


umeros reales positivos. Entonces todos los valores propios de A, varian en las regiones
(
)
n
n
[
1 X
z C | |z aii |
pj |aij |
pi
i=1

n
[

j=1

j=1
j6=i

n
X
1
z C | |z ajj | pj
|aij |
pi
i=1
i6=j

1
Demostraci
hon. Sea iP = diag[p1, . . . , pn ], notese que (P AP ) = (A) y,
P 1 AP = p1i aij pj . Aplicando el teorema de Gershgorin tenemos que, si
(A), existe i, 1 i n tal que

| aii |

n
X
pj
j=1
j6=i

pi

|aij |

n
1 X
pj |aij |
pi
j=1
j6=i

Ejercicio 66. Considere la matriz

7
16 8

A = 16
7
8
8
8 5
Respuesta. Usando el teorema de Gershgorin
D1 = {z C | |z 7| 24} 17 z 31
D2 = {z C | |z 7| 24}
D3 = {z C | |z 15| 16} 21 z 11
de donde
(A) [21, 31]

130

Teoria Avanzada de Matrices

Por otro lado si hacemos P = diag[16, 16, 8] entonces

7
16 4

P 1 AP = 16
7
4
16 16 5
En este caso tenemos
D1 = {z C | |z 7| 20} 13 z 27
D2 = {z C | |z 7| 20} 13 z 27
D3 = {z C | |z + 5| 32} 37 z 27
(A) [37, 27] (A) [21, 27]
Proposici
on 6.1. Sea A Mn (C) y supongamos que, A es diagonalizable
por la transformaci
on de similaridad P 1 AP . Sea E Mn (C) una matriz
arbitraria, entonces los valores propios de A + E, se encuentran en la uni
on
de los discos
{ C | | i | k (P )kEk }
en donde 1 , . . . , n (A) y k (P ) = kP k kP 1 k es el n
umero de
condici
on de P en la norma .
Demostraci
on. Sabemos que P 1 AP = D con D = diag(1 , . . . , n ) entonces,
(A + E) = (P 1 (A + E)P )
= (D + P 1 EP ).
Sea C = P 1 EP , entonces los valores propios de D + C estan localizados
en los discos

X
z C | |z (i + cii )|
|cij |

j=1

i6=j

Por la desigualdad triangular, tenemos que


|z i | |z (i + cii )| + |cii |

n
X
j=1
i6=j

|cij | + |cii |

Localizacion de Valores Propios

131

de donde
|z i | kCk
kP 1 k kEk kP k
k (P )kEk

NOTA. Si A es una matriz normal, entonces P en la proposicion anterior,


es unitaria. As, si P = [pij ] tenemos que
kP k =

n
X

|pkj |

j=1

para alg
un k, 1 k n

kPk k2 n

n
por consiguiente
| i |

nkEk

en donde (A + E).

Ejercicios
5.1 Considere la matriz

7
16 8

A = 16
7
8
8
8 5

Ap
endice A

Gr
aficas

132

Bibliografa
[1] Ayres Frank., Matrices, Mac-Graw-Hill, 1980.
[2] Birkhoff Garrett & Mac Lane Saunder A Survey of Modern Algebra,
MacMillan Company, 1965.
[3] De Castro Rodrigo., El Universo LATEX, Universidad Nacional de
Colombia, 2003.

[4] Herstein N., Algebra


Moderna, Trillas 1976.

[5] Hoffman Kenneth & Kunze Ray., Algebra


Lineal, Prentice Hall Hispanoamericana S.A., 1973.
[6] Horn Roger & Johnson Charles., Topics in Matrix Analysis, Cambridge
University Press 1991.
[7] Lang Serge., Algebra, Agular, 1977.
[8] Lang Serge., Algebra Lneal, Agular, 1977.
[9] Marcus Marvin., Minc Henryk., Survey of matrix theory and matrix
inequalities, Allyn and Bacon, Boston, 1964

133

Indice alfab
etico
Algoritmo
QR, 54

conmutante, 26
Forma
canonica de Jordan, 69
Funcion
simetrica de Gauge, 121

Bloques
de Jordan, 63
Bola
abierta, 42

Grupo
lineal general, 2
unimodular, 2

Conica
superficie, 4
Conico
borde, 4
Conjunto
A invariante, 26
ortogonal, 33

Isometria
euclideana, 36
Kernel, 10
Matrices
similares, 29
Matriz
adjunta, 1
antihermitiana, 1, 80
antisimetrica, 1, 80
cambio de base, 10
compa
nera, 78
conjugada, 1
diagonalizable, 19
estrictamente superior, 66
hermitiana, 1, 80
no derogatoria, 71
normal, 1, 48

Espacio
imagen, 11
propio, 14
Espectro, 13
Expansion
de Lagrange, 16
F
invariante, 26
Factorizacion
QR, 54
de Takagi, 99
Familia
134

135
normalizada, 119
ortogonal, 1, 33
ortogonal real, 33
simetrica, 1, 80
Toeplitz, 71, 79
transpuesta, 1
unitaria, 1, 33
unitariamente diagonalizable,
49
unitariamente equivalente, 37
Multiplicidad
algebraica, 17
geometrica, 14
N
ucleo, 10
Norma
de Frobenius, 3
euclidiana, 3
infinito, 109
matricial, 116
Normas
Matriciales, 111
Operador
de representacion, 8
Ortogonal, 3
Par
propio, 13
Polinomio
caracterstico, 16
minimal, 76
Radio
espectral, 13
Rango, 11

Reflectores
de Householder, 57
Rotores, 54
Simultaneamente
diagonalizables, 24
Teorema
de Cayley-Hamilton, 39
de Courant-Fisher, 90
de Gershgorin, 7, 128
de la dimension, 11
de ortogonalizacion, 33
de separacion de Poincare, 94
de Weyl, 92
de Wolkwitz y Styan, 7
Espectral, 49
Principio de Inclusion, 93
Rayleigh-Ritz, 86
Von Neumann, 125
Transformacion
de similaridad, 29
Unitariamente
invariante, 119
Valor
propio, 13
Vector
propio, 13
propio a izquierda, 15

You might also like