You are on page 1of 44

Captulo 1

Conceptos B
asicos
1.1.

Espacios vectoriales

Sean A y B dos conjuntos no vacos. Una operacion binaria sobre A se llama ley
de composicion interna si para cada par (x, y) A A existe un u
nico z A tal que
z = ((x, y)). Si es una ley de composicion interna sobre A escribimos : A A A.
Una operacion binaria sobre A B se llama ley de composicion externa si para cada par
(x, y) A B existe un u
nico z A (o un u
nico z B) tal que z = ((x, y)). Si es una
ley de composicion externa sobre A B escribimos : A B A (o : A B B).
Definici
on 1. Sea F un conjunto no vaco y + y dos leyes de composici
on interna
sobre F , llamadas suma y multiplicaci
on, respectivamente. Se dice que la terna (F, +, )
es un campo si se satisfacen las siguientes propiedades:
S1. , , F : ( + ) + = + ( + )
S2. , F : + = +

(Propiedad asociativa )
(Propiedad conmutativa)

S3. 0 F / F : + 0 =

(Existencia del elemento neutro)

S4. F () F / + () = 0

(Existencia del elemento inverso)

M1. , , F : ( ) = ( )

(Propiedad asociativa)

M2. , F : =

(Propiedad conmutativa)

M3. 1 F / F : 1 =

(Existencia del elemento neutro)

M4. F (1 ) F / 1 = 1

(Existencia del elemento inverso)

M5. , , F : ( + ) = +

(Propiedad distributiva)

Cuando nos refiramos al campo (F, +, ), simplemente escribiremos F. El conjunto de


1


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

los n
umeros reales, R, y el conjunto de los n
umeros complejos, C, junto con las operaciones
usualesson dos ejemplos tpicos de campos. En estas notas solo trabajaremos con estos
campos y lo denotaremos indistintamente por F. Para la multiplicacion sera omitido el
punto entre los elementos, as se escribira en lugar de . Los elementos de F seran
referidos como escalares.
A partir de las propiedades S M se pueden probar todas las propiedades conocidas
que permiten operar con escalares, en particular puede probarse, por ejemplo, que los
elementos neutros e inversos son u
nicos.
Definici
on 2. Un espacio vectorial es un cuarteto (U, F, +, ), donde U es un conjunto no
vaco cuyos elementos se llaman vectores, F es un campo, la operaci
on + : U U U es
una ley de composicion interna, que se llama suma vectorial y la operaci
on : FU U es
una ley de composicion externa, que se llama multiplicaci
on por escalar. Estas operaciones
deben satisfacer las propiedades siguientes:
S1. u, v, w U : (u + v) + w = u + (v + w)

(Propiedad asociativa )

S2. u, v U : u + v = v + u

(Propiedad conmutativa)

S3. 0 U / u U : u + 0 = 0

(Existencia del elemento neutro)

S4. u U (u) U / u + (u) = 0

(Existencia del elemento inverso)

M1. F, u,v U : (u + v) = u + v

(Propiedad distributiva)

M2. , F, u U : ( + ) u = u + u

(Propiedad distributiva)

M3. , F, u U : ( u) = ( ) u

(Propiedad distributiva)

Cuando nos refiramos al espacio vectorial (U, F, +, ) escribiremos simplemente U y,


ocasionalmente, se indicara el campo F. Cuando nos refiramos a la multiplicacion de un
escalar con un vector escribiremos simplemente u, en lugar de u.
Ejemplo 1. Sea U = Fn el conjunto de n-tuplas de escalares de F. Para u = (1 , . . . , n )
y v = (1 , . . . , n ) en Fn definamos las operaciones siguientes:
u + v , (1 + 1 ,..., n + n ),
u , (1 ,..., n ),

F.

Puede verificarse facilmente que estas operaciones satisfacen todas las propiedades (S1
S3) y (M 1 M 3), de donde Fn es un espacio vectorial. Las operaciones definidas arriba
se conocen como las operaciones usuales en Fn . Observe que si n = 1 el espacio vectorial
se reduce al propio campo F.
2


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Ejemplo 2. Sea U = Mmn (F) el conjunto de las matrices de orden m n con entradas
escalares de F. Sean A = (aij ) y B = (bij ) dos elementos de Mmn (F) y definamos las
operaciones siguientes:
A + B , (aij + bij )
A , (aij ),

Entonces Mmn (F) es un espacio vectorial.


Ejemplo 3. Sea U = F([a, b]) el conjunto de las funciones definidas sobre el intervalo
[a, b] y con imagen en F. En este caso, para f y g en U, en F y x [a,b] definamos
(f + g)(x) , f (x) + g(x),
(f )(x) , f (x).
Entonces F([a, b]) es un espacio vectorial. Note que no se ha exigido ninguna propiedad
particular para las funciones de este espacio.
Ejemplo 4. Sea U = Pn (R) el conjunto de los polinomios de grado menor o igual que n
y con coeficientes en R. En este caso, para P y Q en U, en R y x R definamos
(P + Q)(x) , P (x) + Q(x),
(P )(x) , P (x).
Entonces Pn (R) es un espacio vectorial.
Ejemplo 5. Consideremos 1 p < y sea U = lp (F), el espacio de sucesiones en F que

p
son p-sumables, esto es, lp (F) , {x = (x1 , x2 , . . . ); i = 1, 2,.., xi F,
i=1 |xi | < }.
Es claro que bajo las mismas operaciones definidas en Fn , lp (F) es un espacio vectorial,
pues todas las propiedades (S1 S4) y (M 1 M 3) se cumplen automaticamente. Solo
hara falta probar que si x e y estan en lp (F) entonces la suma x+y tambien esta en lp (F),
pero esto es una consecuencia inmediata de la desigualdad de Minkowski: si x lp (F) y
y lp (F) y 1 p < , entonces se cumple que
(

i=1

)1/p
|xi + yi |p

i=1

)1/p
|xi |p

i=1

)1/p
|yi |p


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Existe una version de la desigualdad Minkowski para integrales: si f y g son funciones


b
b
en F([a,b]) tales a |f (t)|p dt < y a |g(t)|p dt < entonces
(

)1/p

|f (t) + g(t)| dt
p

)1/p

|f (t)| dt
p

)1/p

|g(t)| dt
p

+
a

Esta version para integrales de la desigualdad de Minkowski torna el conjunto del ejemplo
siguiente en un espacio vectorial.
Ejemplo 6. Consideremos 1 p < y sea U = Lp (F), el espacio de funciones en
{
}
b
F([a,b]) que son p-integrables, esto es, Lp (F) , f F ([a,b]); a |f (t)|p < . Es claro
que bajo las mismas operaciones definidas en F([a, b]), Lp (F) es un espacio vectorial, pues
todas las propiedades se (S1 S4) y (M 1 M 3) se cumplen automaticamente. Si f y g
est
an en Lp (F) entonces la suma f + g tambien esta en Lp (F), debido a la desigualdad de
Minkowski para integrales.
Aclaremos que si u es un vector, entonces la suma 0 + u es una suma vectorial del
vector neutro aditivo con el vector u. De otro lado, el producto 0u es la multiplicacion del
escalar 0 del campo F con el vector u. Cuando aparezcan estas expresiones el contexto
nos indicara claramente si el cero es el cero escalar o el cero vector.

1.2.

Subespacios vectoriales

Definici
on 3. Dado un espacio vectorial (U, F, +, ), un subconjunto S U, S = ,
se llama subespacio vectorial de U si el cuarteto (S, F, +, ) es en s mismo un espacio
vectorial.
Observe que una condicion necesaria para que el conjunto S sea un subespacio vectorial
de U es que S contenga al vector neutro aditivo de U. Puesto que S es un subconjunto
de U, las propiedades S1-S3 y M 1-M 3 deben satisfacerse sobre los elementos de S. Solo
faltara probar que tambien se cumple la propiedad S4 y verificar que las operaciones de
espacio vectorial son cerradas en S, esto es,
1. 0 S
2. u, v S : u + v S
3. u S, F : u S


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Note que la condicion (3) implica (1), de manera que esta solo se coloca para enfatizar
el hecho de que el vector nulo del espacio vectorial U debe estar contenido en S. De hecho
para probar que el conjunto S, S = , es un subespacio de U solo se necesita verificar lo
siguiente:
u, v S, F : u + v S
Ejemplo 7. U = R2 , S = {(x1 , x2 ) R2 ; x2 = 0}. Veamos que S es un subespacio
vectorial de U. Tomemos u = (u1 , 0) y v = (v1 , 0) en S y R. Entonces
u + v = (u1 , 0) + (v1 , 0) = (u1 , 0) + (v1 , 0) = (u1 + v1 , 0) S.
Ejemplo 8. U = M22 (R), S = {A = (aj ) M22 ; a12 = 0}. Veamos que S es un
subespacio vectorial de U. Sean

a11 0
S,
u=
a21 a22
Entonces

v=

b11

b21 b22

u + v =

a11

a11

a21 a22

a11 + b11
a21 + b21

a21 a22

S,

b11

b21 b22

b
0
+ 11

b21 b22

0
S
a22 + b22

Ejemplo 9. U = F ([a,b]), S = {f U; f es continua}. Puesto que la suma de dos


funciones continuas es una funcion continua y el producto de un escalar por una funcion
continua es tambien una funcion continua, el conjunto S es un subespacio del espacio
vectorial U
Ejemplo 10. U = Mn1 (R), S = {X U; AX = 0} donde A Mnn (R), esto es, S
es el conjunto de todas las soluciones, en R, del sistema de ecuaciones algebraicas:
a11 x1 + a12 x2 + ... + a1n xn = 0
a21 x1 + a22 x2 + ... + a2n xn = 0
..
.. ..
.
. .
an1 x1 + an2 x2 + ... + ann xn = 0,
5


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

donde A = [aij ], i, = 1, . . . , n y X = [x1 . . . xn ]T . Sean X e Y dos elementos de S y


R, entonces:
A(X + Y ) = A(X) + AY = AX + AY = 0,
de donde X + Y S y, por lo tanto, S es un subespacio vectorial de U.
Sea I es un conjunto de ndices cualesquiera. Si {S }I es una familia arbitraria de
subespacios vectoriales de U, entonces el conjunto
S=

(1.1)

es un subespacio vectorial de U. Contrariamente a lo que sucede con la interseccion, la


union de dos subespacios vectoriales podra no ser un subespacio vectorial. Por ejemplo,
los conjuntos S1 = {(x, 0); x R} y S2 = {(0, y); y R} son subespacios de R2 , pero la
union de ellos no es un subespacio de R2 .
Bajo que condicion la union de los subespacios S1 y S2 es un subespacio vectorial?
Se deja planteada esta pregunta como ejercicio para el lector.
Definici
on 4. (Combinaci
on lineal) Sean u1 , u2 ,..., um m vectores del espacio vectorial
U. Se dice que el vector u S es combinaci
on lineal de los vectores u1 , u2 ,..., um si existen
1 ,2 ,...,m en F tal que
u=

i ui .

(1.2)

=1

Observe que debido a la propiedad S1 la suma dada en (1.2) esta bien definida y
produce un vector en U.
Ejemplo 11. 1. En R2 , el vector (-7, 7) es combinaci
on lineal de u1 = (1, 2) y
u2 = (3, 1), pues (7, 7) = 2(1, 2) + 3(3, 1).
2. En el espacio F(R), la funcion f (x) = 8x4 3x2 + 21x 60 es combinaci
on lineal de
las funciones g(x) = x4 6 y h(x) = x2 7x + 4, pues f (x) = 8g(x) 3h(x)
3. En un espacio vectorial U, el vector 0 es combinaci
on lineal de cualquier familia finita
de vectores de U, por que?.
Definici
on 5. (Espacio generado) Dado un subconjunto X del espacio vectorial U, el
espacio generado por X, denotado por Span(X), se define como la intersecci
on de todos
6


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

los subespacios vectoriales de U que contienen a X

Si X es un conjunto vaco, entonces Span(X) = {0}. Cuando X es no vaco, puede


probarse que una definicion equivalente, y por lo general mas operativa, del concepto de
espacio generado es la siguiente:
}
{ m

i ui ; ui X, i F, m N ,
Span(X) ,
i=1

esto es, el espacio generado por X es el conjunto que resulta de todas las combinaciones
lineales posibles de los elementos de X.
Ejemplo 12. Sea U un espacio vectorial sobre F y u0 U un vector fijo. Entonces,
Span({u0 }) = {u0 ; F}
M
as concretamente, si U = R2 y u0 = (1,3), entonces Span({u0 }) es la recta que pasa
por el origen y que tiene como vector direccional al vector (1,3).
Ejemplo 13. El espacio vectorial R2 puede verse como un espacio generado por el
conjunto X = {(0, 1), (1,0)}, pues cualquier vector (x, y) R2 puede escribirse como
(x, y) = x(1, 0) + y(0, 1).
Claramente, este ejemplo puede generalizarse a Rn , esto es, el conjunto X

{(1, 0, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 1)} genera Rn .


Definici
on 6. Sea U un espacio vectorial sobre F y sea S un subconjunto no vaco de U.
Se dice que S es un conjunto linealmente independiente si toda combinaci
on lineal nula
de elementos de S implica que los escalares de dicha combinaci
on lineal son todos nulos:
m

i ui = 0 = i = 0, i = 1, . . . , m, m N

(1.3)

i=1

Un conjunto que no es linealmente independiente se llama linealmente dependiente.


1

Al menos existe un subespacio que contiene a X, a saber, el propio espacio vectorial U, de manera que

la interseccion no es vaca. De otro lado, debido a (1.1), sabemos que esta interseccion es un subespacio
vectorial.


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Cuando un conjunto S es linealmente independiente, se dice que los vectores de


S son linealmente independientes, en caso contrario se dice que estos son linealmente
dependientes. Observe que si S es un conjunto finito, entonces no es necesario verificar
(1.3) para todo combinacion lineal de elementos de S, sino u
nicamente para todos los
vectores que conforman dicho conjunto. Observe tambien que conjunto finito de vectores
S es linealmente dependiente si y solo si al menos uno de los vectores de S es combinacion
lineal de los demas.
Ejemplo 14. Consideremos los vectores u = (2, 3) y v = (5, 4) de R2 . Estos vectores son
linealmente independientes, pues (2, 3) + (5, 4) = (0, 0) implica que = = 0.
Ejemplo 15. Consideremos el espacio vectorial F(]0, +[). Tomemos las funciones
f (x) = x2 + 1 y g(x) = ln x. Estas funciones son linealmente independientes. En efecto,
si hacemos f + g = 0, entonces
f (x) + g(x) = (x2 + 1) + ln x = 0 x ]0, +[.
En particular para x = 1 se tiene (2) = 0, de donde = 0. Sustituyendo el valor
encontrado de en la igualdad de arriba tenemos ln x = 0. De nuevo, como esta igualdad
es valida para todo x ]0, +[, en particular se cumple, por ejemplo, para x = e, de donde
se deduce que = 0

1.3.

Bases de espacios vectoriales

Definici
on 7. Sea U un espacio vectorial. Se dice que un conjunto B que es linealmente
independiente y genera el espacio U es una base de U. Si la base B es finita se dice que el
espacio vectorial U es de dimension finita.
Ejemplo 16. Consideremos el espacio R2 , entonces los conjuntos B1 = {(1, 0), (0,1)} y
B2 = {(1, 3), (2, 5)} son dos bases de R2 .
Ejemplo 17. Sabemos del ejemplo 13 que el conjunto
Bc = {(1, 0, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, . . . , 1)}
genera Rn . Se puede probar facilmente que, ademas, Bc es linealmente independiente, de
donde Bc es una base de Rn . Esta base se conoce como la base can
onica de Rn .
8


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Ejemplo 18. Consideremos el espacio P(R), el espacio de todos los polinomios con
coeficientes en R. El conjunto (infinito)
B = {xk ; k = 0, 1, . . . }
es una base de P(R). Ciertamente, cualquier polinomio de grado menor o igual a n puede
escribirse como combinacion lineal de a lo mas n + 1 terminos de B. Por otro lado,
cualquier conjunto finito de B es linealmente independiente, de donde B es linealmente
independiente.
Adelantamos que por el lema de Zorn todo espacio vectorial U = {0} tiene una base.
El siguiente teorema tiene consecuencias importantes, en particular permite introducir el
concepto de dimension de un espacio vectorial de dimension finita.
Teorema 1. Sea U un espacio vectorial generado por el conjunto finito S = {u1 , . . . , un }.
Entonces U contiene a lo mas n vectores linealmente independientes.
A partir de este resultado se puede probar facilmente que si un espacio vectorial es de
dimension finita, entonces toda base de dicho espacio tiene el mismo n
umero (finito) de
elementos. Este n
umero com
un de elementos se llama la dimension del espacio. La base
de un espacio vectorial de dimension finita o infinita no es u
nica, pero la cardinalidad de
cada una de ellas s es la misma. Por convencion, se dice que el espacio vectorial formado
u
nicamente por el elemento neutro aditivo es un espacio de dimension cero.
Por el teorema 1 una base puede interpretarse como un conjunto linealmente
independiente maximal y como un conjunto generador minimal. Otra consecuencia muy
u
til de este teorema es la siguiente. Dado un espacio vectorial U de dimension n, entonces
i) Un conjunto de n vectores de U constituyen una base si y solo si ellos son linealmente
independientes.
ii) Un conjunto de n vectores de de U constituyen una base si y solo si ellos generan el
espacio vectorial.
Finalmente para efectos de construccion de una base digamos que todo conjunto
generador de un espacio vectorial contiene una base y todo conjunto linealmente
independiente puede ser extendido a una base.
Si U es un espacio vectorial y B = {u1 , . . . , un } es una base de U, todo vector u de
U se puede expresar como combinacion lineal u
nica de los vectores de B. En efecto, sean
9


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

u
y
u
=
i
i
i=1
i=1 i ui dos combinaciones lineales del vector u en la base dada.
n
Entonces i=1 (i i )ui = 0, lo que implica que i = i i = 1, . . . , n, pues los vectores
u=

u1 , . . . , un son linealmente independientes.


n
T
Dado el vector u =
se llama la matriz
i=1 i ui , la matriz [u]B , [1 . . . n ]
de coordenadas de u en la base B. Observe que fijada la base, y el orden en que estan
dados los vectors de la base, la matriz de coordenadas es u
nica. Evidentemente un cambio
de base implica un cambio de matriz de coordenadas. Veamos enseguida como estan
relacionadas las matrices de coordenadas de un vector u en diferentes bases. Digamos que

B1 = {u1 , . . . , un } y B2 = {u1 , . . . , un } son dos bases ordenadas de U. Entonces el vector


u puede ser expresado en cada base como sigue:

u=

[u]B1 = [1 . . . n ]T

i ui ,

(1.4)

i=1

u=

[u]B2 = [1 . . . n ]T

j uj ,

(1.5)

j=1

Fijando j, para cada vector uj de la base B2 existen n escalares pij , i = 1, . . . , n, tales


que

uj =

pij ui .

(1.6)

i=1

Con los escalares pij puede formarse la matriz cuadrada de orden n definida por P , [pij ].
Entonces por (1.6) (1.5) y (1.6) tenemos
u=

j uj

j=1

j=1

( n

)
pij ui

i=1

( n

i=1

j=1

pij j

ui

(1.7)

Como la representacion de un vector en una base dada es u


nica, comparando (1.4) con
n

(1.7) tenemos i = j=1 pij j , i = 1, . . . , n. Por consiguiente,


[u]B1 = P [u]B2 ,

10

(1.8)


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Observe que la matriz P , que es u


nica, esta construida por columnas, esto es, para cada j
fijo los coeficientes de la ecuacion (1.6) forman la j-esima columna de la matriz P . Puede
probarse que P es una matriz inversible, de donde, debido a (1.8), se tiene
[u]B2 = P 1 [u]B1

(1.9)

La matriz P 1 es la matriz de cambio de coordenadas de la base B1 a la base B2 lo que


indicamos por P 1 : B1 B2 ; mientras que P : B2 B1 denota el cambio de coordenadas
de la base B2 a la base B1 .
Ejemplo 19. Consideremos el espacio R2 con las bases B1 = {(1, 2), (3, 1)} y B2 =
{(4, 2), (1, 1)}. Sea u = (5, 4) un vector de R2 . Entonces


7/5
1/2
[u]B1 = , [u]B2 =
6/5
3
Por otro lado,
(4, 2) = (2/5)(1, 2) + (6/5)(3, 1)
(1, 1) = (2/5)(1, 2) + (1/5)(3, 1),

1/2
1
2/5 2/5

, P 1 =
P =
3
1
6/5 1/5

de donde

Ahora bien




1/2 1
7/5
2/5 2/5 1/2
1/2
7/5

, =
=
3
1
6/5
3
6/5 1/5
3
6/5

lo que verifica la ecuaciones (1.8) y (1.9).

1.4.

Transformaciones lineales

Definici
on 8. Sean U y V dos espacios vectoriales definidos sobre el mismo campo F.
Una transformacion lineal de U en V es una aplicaci
on T : U V que es aditiva y
homogenea, esto es, para u, v U y F se satisfacen las propiedades siguientes:
i) T (u + v) = T (u) + T (v)
11


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

ii) T (u) = T (u)


La aditividad y homogeneidad pueden reunirse en una sola propiedad: T (u + v) =
T (u) + T (v). Estas propiedades hacen que la transformaci
on T conserve las operaciones
estructurales de un espacio vectorial, por lo que se dice que T es un homeomorfismo.
Ejemplo 20. Definamos la aplicaci
on T : R2 R2 por T (x, y) = (x + 3y, x + 2y). Para
probar que T es una transformacion lineal tomemos u = (x1 , y1 ) y v = (x2 , y2 ) y R.
Entonces,
T (u + v) = T ((x1 , y1 ) + (x2 , y2 ))
= T (x1 + x2 , y1 + y2 )
= (x1 + x2 + 3(y1 + y2 ), x1 + x2 + 2(y1 + y2 ))
= (x1 + 3y1 , x1 + 2y1 ) + (x2 + 3y2 , x2 + 2y2 )
= T (x1 , y1 ) + T (x2 , y2 )
= T (u) + T v)
Ejemplo 21. Tomemos A Mnn (R) y definamos la aplicaci
on T : Mn1 (R)
Mn1 (R) por T (X) = AX. Entonces T es una transformaci
on lineal, pues dados X1
y X2 en Mn1 (R) y R, se tiene
T (X1 + X2 ) = A(X1 + X2 )
= AX1 + AX2
= T (X1 ) + T (X2 )
Ejemplo 22. Consideremos el espacio vectorial Pn de polinomios de grado menor o igual
a n con coeficientes en R y definamos las aplicaciones T1 y T2 como sigue:
1. T1 (f )(x) = D(f )(x), donde D denota derivacion

2. T2 (f )(x) = f (x)dx
Debido a las propiedades de la derivacion e integraci
on de funciones puede probarse
f
acilmente que estas aplicaciones son transformaciones lineales del espacio Pn (R) en
Pn (R). En efecto, sean f1 y f2 dos funciones en Pn (R) y sea un escalar en R. Entonces,
T1 (f1 + f2 )(x) = D (f1 (x) + f2 (x))
= Df1 (x) + Df2 (x)
= T1 (f1 )(x) + T1 (f2 )(x)
12


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

De la misma manera, para T2 tenemos

T2 (f1 + f2 )(x) =

(f1 (x) + f2 (x)) dx

= f1 (x)dx + f2 (x)dx

= T2 (f1 )(x) + T2 (f2 )(x)


Dada la transformacion lineal T : U V, la imagen de T es el conjunto T (U) ,
{T (u) ; u U}. Este conjunto es un subespacio vectorial de V. En efecto, si v1 y v2 son
elementos de T (U), entonces existen u1 y u2 en U tales que v1 = T (u1 ) y v2 = T (u2 ).
Entonces para cualquier F, v1 + v2 = T (u1 ) + T (u2 ) = T (u1 + u2 ). Esto prueba
que v1 + v2 T (U) y, por lo tanto, T (U) es un subespacio de V. Este subespacio se
conoce como subespacio imagen de T y se denota por Im(T ). La dimension de Im(T ) se
conoce como el rango de la transformacion y se denota por (T ).
El n
ucleo de T es el conjunto N u(T ) , {u U ; T (u) = 0}. El n
ucleo es un subespacio
vectorial de U. En efecto, si u1 y u2 son elementos del n
ucleo, entonces para cualquier
F, se tiene T (u1 + u2 ) = T (u1 ) + T (u2 ) = 0, de donde u1 + u2 es tambien un
elemento del n
ucleo. La dimension de N u(T ) se conoce como la nulidad de T y se denota
por (T ). Un resultado muy importante que relaciona el rango con la nulidad de una
transformacion lineal y la dimension del espacio U es el siguiente.
Teorema 2. Sea T : U V una transformaci
on lineal, donde dim U = n. Entonces
(T ) + (T ) = n

(1.10)

Una transformacion lineal que es inyectiva se conoce como monomorfismo, si la


transformacion es sobreyectiva se dice que es un epimorfismo. Si la transformacion es
un monomorfismo y un epimorfismo a la vez, se dice que es un isomorfismo. Si entre los
espacios U y V existe un isomorfismo T : U V, entonces U y V son esencialmente los
mismos, es decir, son indistinguibles desde un punto de vista algebraico. Cada elemento
de U tiene un u
nico elemento asociado en V y recprocamente. Debido al isomorfismo T ,
estos elementos tienen el mismo comportamiento algebraico.
Una transformacion lineal T : U V es un monomorfismo si y solo si (T ) = 0 y es
un epimorfismo si y solo si (T ) = dim(V). El siguiente teorema, que no es difcil probar,
es muy importante dentro la teora de espacios vectoriales de dimension finita.
13


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Teorema 3. Dos espacios vectoriales de dimension finita son isomorfos si y solo si tienen
la misma dimension.
Si T1 es una transformacion de U en V y T2 es una transformacion lineal de V en W,
entonces la composicion de T2 con T1 , T3 = T2 T1 , es una transformacion de U en W.
Si T2 es un isomorfismo, entonces (T3 ) = (T1 ), esto es, el rango de T1 no cambia si se
le compone con un isomorfismo. La misma conclusion se sigue si la composicion es por la
derecha.
Sean B1 = {u1 , . . . , un } y B2 = {v1 , . . . , vm } dos bases arbitrarias, pero fijas de los
espacios vectoriales U y V, respectivamente, y sea T una transformacion lineal de U en
V. Puesto que T (uj ) V para todo uj , j = 1, . . . , n, T (uj ) se puede expresar como
combinacion lineal de los vectores de la base B2 . As para cada j existen m escalares aij ,
i = 1, . . . , m tales que
T (uj ) =

aij vi

(1.11)

i=1

Como para una base fija la combinacion lineal de un vector es u


nica, entonces la
ecuacion (1.11) nos permite identificar la transformacion lineal T con la matriz A = [aij ]
de orden m n para el par de bases B1 B2 . Si denotamos por Hom(U, V) el espacio
vectorial formado por todas las transformaciones lineales de U en V, donde dim(U) = n
y dim(V) = m, entonces la aplicacion L : Hom(U, V) Mmn (F) que a cada
transformacion T de Hom(U, V) le hace corresponder su matriz, relativa a ciertas bases
fijas, es un isomorfismo. Por consiguiente Hom(U, V) y Mmn (F) son esencialmente los
mismos espacios vectoriales. Veamos un ejemplo.
Ejemplo 23. Consideremos el espacio vectorial R2 y definamos la transformaci
on lineal
T : R2 R2 que a cada vector u R2 lo hace girar un angulo en el sentido anti
horario. Fijemos las bases B1 = B2 = {(1, 0), (0, 1)}. Entonces T (1, 0) = (cos , sin ) y
T (0, 1) = ( sin , cos ). Luego,
T (1, 0) = (cos , sin ) = cos (1, 0) + sin (0, 1)
T (0, 1) = ( sin , cos ) = sin (1, 0) + cos (0, 1)

Por consiguiente,

cos sin

A=
sin cos

14


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Observe que para un vector cualquiera u = (x, y) de R2 se tiene (x, y) = x(1, 0) +


y(0, 1). Entonces, dado que T es lineal,
T (x, y) = xT (1, 0) + yT (0, 1)
= x(cos , sin ) + y( sin , cos )
= (x cos y sin , x sin + y cos )
y, por lo tanto,
[T (x, y)]Bc


cos sin
x
= A[u]Bc .
=
sin cos
y

En general, si [u]B1 = [1 . . . n ]T es la matriz de coordenadas del vector u en la base


B1 = {u1 , . . . , un } y [T (u)]B2 = [1 . . . m ]T es la matriz de coordenadas del vector T (u)
en la base B2 = {v1 , . . . , vm }, entonces
[T (u)]B2 = A[u]B1 ,

(1.12)

donde A = [aij ] es la matriz que representa a la transformacion T en las bases B1 B2 .

En efecto, dado que u = nj=1 j uj y T (uj ) = m


i=1 aij vi , j = 1, . . . , n, entonces
( n
)

T (u) = T
j uj
j=1

j T (uj )

j=1

(
j

j=1

aij vi

i=i

( n
m

i=i

aij j

)
vi

j=1

Como la representacion de un vector en una base dada es u


nica, entonces esta igualdad
n
implica que i = j=1 aij j . La ecuacion (1.12) sigue de aqu.
Consideremos ahora la transformacion lineal T : U U . Queremos obtener la matriz
B que representa a T en la base B2 , dado que conocemos la matriz A que representa a
T en la base B1 . Sea P la matriz de cambio de coordenadas B2 B1 . Por la ecuaciones
(1.8) y (1.12) tenemos
[T (u)]B1 = A[u]B1 = AP [u]B2
[T (u)]B1 = P [T (u)]B2 = P B[u]B2
15


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

De aqu, P B[u]B2 = AP [u]B2 o, equivalentemente, B[u]B2 = P 1 AP [u]B2 . Como esta


igualdad se cumple para todo u U , entonces B = P 1 AP .
Ejemplo 24. Consideremos la transformaci
on de rotaci
on dada en el ejemplo 23. La
matriz que representa a esta transformaci
on en la base B1 = {(1, 0), (0, 1)} es

cos sin
.
A=
sin cos
Tomando la base B2 = {(1, 3), (2, 1)}, entonces la matriz de cambio de coordenadas
B2 B1 es

1 2
.
P =
3 1

Luego la matriz B, que representa a T en la base B2 es

cos sin
1 2
1/5 2/5

B = P 1 AP =
3/5 1/5
sin cos
3 1

sin + cos
sin

=
2 sin
cos sin
Ahora bien, si expresamos T (1, 3) y T (2, 1) en la base B2 tenemos
T (1, 3) = (sin + cos )(1, 3) + (2 sin )(2, 1)
T (2, 1) = (sin )(1, 3) + (cos sin )(2, 1)
Lo que verifica que, efectivamente, la matriz obtenida es la matriz que representa a la
transformacion T en la base B2 .
Terminamos esta seccion se
nalando que la suma y la composicion de dos transformaciones lineales corresponde a la suma y el producto de las transformaciones que las
representan.

1.5.

Matrices

Dados los espacios vectoriales U, de dimension n, y V, de dimension m, definidos sobre


el mismo campo F existe un isomorfismo entre el espacio de la transformaciones lineales
16


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

de U en V y el espacio de la matrices Mmn (F). De otro lado, puesto que fijada un base B
de U cada vector u U se puede identificar unvocamente con su matriz de coordenadas,
[u]B , entonces el vector y su matriz de coordenadas son diferentes representaciones del
mismo ente, los espacios U y Mn1 (F) son isomorfos. Claramente Mn1 (F) tambien es
isomorfo a Fn .
Sea T : Rn Rm una transformacion lineal y A = [aij ] la matriz de orden m n
que representa a T en las bases canonicas. Entonces T (X) = AX y el espacio Im(T ) es
generado por las columnas de A.

a11

a
21
A= .
..

am1

En efecto, si
a12

...

a1n

a22
..
.

...
..
.

a2n
..
.

am2 . . .

amn

X=

x1
x2
..
.

xn

tenemos


n
a1j xj

nj=1
a


21 a22 . . . a2n x2
j=1 a2j xj
AX = .
=

..
.. ..
..
..
..
.
.
. .
.

n
am1 am2 . . . amn
xn
j=1 amj xj

a11
a12
a1n

a
a
a
21
22
2n
= x1 . + x2 . + . . . + xn .
..
..
..

am1
am2
amn
a11

a12

...

a1n

x1

Por consiguiente cualquier vector de Im(T ) se puede expresar como combinacion lineal
de las columnas de A, esto es las columnas de A generan el espacio Im(T ). Puesto que
una base es un conjunto generador minimal, el rango de T , (T ), es el maximo n
umero
de columnas linealmente independientes de A. Puesto que la matriz A representa a T , es
natural definir el rango de A como el n
umero de columnas linealmente independientes de
A.

17


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Ejemplo 25. Tomemos la matriz A definida por

0 1 1 2

= [q1 q2 q3 q4 ],
A=
1
2
3
4

2 0 2 0
donde qi denota la i-esima columna de A. Es claro que q1 y q2 son li y que tanto q3 como
q4 son combinaciones lineales de q1 y q2 . Luego si agregamos una columna mas al conjunto
{q1 , q2 } este se torna ld, de donde el maximo n
umero de columnas li de la matriz A es 2,
esto es, (A) = 2. De acuerdo al teorema 2, (A) = 4 2 = 2, esto es, el espacio nulo de
A tiene dimension 2. Encontremos una base del espacio nulo de A.

x1

0
0 1 1 2

x2

AX =
= 0
1 2 3 4
x3

0
2 0 2 0
x4


x2 + x3 + 2x4
0

x1 + 2x2 + 3x3 + 4x4 = 0


2x1 + 2x3
0

(1.13)

De aqu se deduce que


x3 = x1
1
1
x4 = x1 x2
2
2
Por consiguiente un vector X en N u(A) puede escribirse como

1
0
x1

x2
0
1

=
x
+
x
X=
1
2
1
0

x
1

1
1
1
1

x1 x2
2
2
2
2

de donde los vectores X1 = [1 0 1 1/2]T y X2 = [0 1 0 1/2]T generan N u(A), que


tiene dimension 2. Por consiguiente, el conjunto B = {X1, X2} es una base de N u(A).

18


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

El rango de una matriz es el n


umero de columnas linealmente independientes. Puede
probarse que este n
umero coincide con el n
umero de filas linealmente independientes.
Debido a esto, para una matriz A de orden m n se tiene
(A) mn{m, n}
Por otro lado, el rango tambien cumple las siguientes propiedades:
(AB) mn{(A), (B)}
(A + B) (A) + (B).
Si A es una matriz cuadrada de orden n, se dice que la matriz cuadrada B de orden
n es una inversa por la izquierda de A si BA = I. Similarmente, se dice que la matriz
cuadrada C de orden n es una inversa por la derecha de A si AC = I. Si la matriz A posee
inversa por la izquierda, B, e inversa por la derecha, C, entonces es facil ver que B = C.
En este caso se dice que la matriz A posee inversa B (o C) y se le denota por A1 . De
manera, pues, que una matriz cuadrada A posee inversa si existe una matriz cuadrada
A1 de orden n tal que
A1 A = AA1 = I.
Cuando la matriz cuadrada A posee inversa se dice que es no singular, en caso contrario
se dice que es singular. Una matriz cuadrada es no singular si y solo si representa a un
isomorfismo. La matriz P de cambio de coordenadas, definida en (1.8), es no singular ya
que es la matriz que representa al isomorfismo que a cada matriz de coordenadas en la base
B2 le hace corresponder su matriz de coordenadas en la base B1 , esto es, [T (u)]B1 = P [u]B2 .
Recordemos que si A es una matriz cuadrada A = [aij ] el determinante de A se calcula
por filas o columnas de acuerdo a
det(A) =
det(A) =

j=1
n

aij Cij , i fijo


aij Cij , j fijo,

i=1

respectivamente, donde Cij es el cofactor ij de A.


La matriz A es no singular si y solo si det(A) = 0. En este caso la matriz inversa, A1 ,
se calcula por
A1 =

1
adj(A),
det(A)
19


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

donde adj(A) es la matriz adjunta de A, esto es, adj(A) , (Cij )T .


Cuando una matriz A (no necesariamente cuadrada) se multiplica por una matriz no
singular el rango de la matriz A no cambia, esto es, si P y Q son no singulares, entonces
(AP ) = (A)
(QA) = (A)
Este resultado, por supuesto, corresponde a componer una transformacion lineal a
izquierda o derecha con un isomorfismo.
La traza de una matriz cuadrada, que es la suma de los elementos de la diagonal
principal, juega a veces un papel importante en el trabajo con matrices. Por ejemplo, se
probara mas adelante que la norma de una matriz es igual a la raz cuadrada de la traza
de del producto de la matriz con su traspuesta. Proporcionamos a continuacion algunos
resultados importantes en relacion a la traza de una matriz. Si A es la matriz cuadrada
A = [aij ] de orden n, denotamos la traza de A por tr(A) y la definimos por
tr(A) ,

aii

i=1

ALGUNAS PROPIEDADES
1. tr(A) = tr(AT )
2. tr(A + B) = tr(A) + tr(B)
3. Si A es una matriz de orden m n y B es una matriz de orden n m, entonces
tr(AB) = tr(BA)
4. Si A es una matriz cuadrada de orden n y P es una matriz no singular de orden n,
entonces tr(A) = tr(P 1 AP ) = tr(P AP 1 )
5. tr(AAT ) = 0 A = 0

1.6.

Sistemas de ecuaciones lineales

Teorema 4. Considere el sistema lineal


AX = Y

(1.14)

1. Si A es una matriz de orden m n e Y es un vector de Fm , entonces (1.14) tiene una


solucion X Fn si y solo si Y Im(A) o, equivalentemente,
(A) = ([A|Y ]) .
20


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

2. Si A un matriz de orden m n e Y es un vector cualquiera de Fm , entonces (1.14)


siempre tiene una solucion X Fn si y solo si (A) = m (rango completo por filas)
3. Sea A una matrix de orden m n, Y un vector de Fm y Xp una solucion particular de
(1.14). Si la matriz A es de rango completo por columnas o, equivalentemente, (A) = 0,
entonces Xp es la u
nica solucion del sistema. Si la matriz A no es de rango completo por
columnas o equivalentemente, (A) > 0, entonces cualquier vector de la forma
X = Xp +

i vi , i F, i = 1, . . . , ,

i=1

donde el conjunto {v1 , . . . ,v } es una base de N u(A), es una solucion de (1.14).


Teorema 5. Considere el sistema lineal (1.14), donde A es una matriz cuadrada de orden
n n.
1. Si A es no singular, entonces la ecuaci
on tiene una u
nica solucion X = A1 Y para
cualquier Y Fn . En particular si Y = 0, entonces X = 0.
2. Si Y = 0, entonces el sistema tiene una solucion no trivial si y solo si A es singular,
esto es, si det(A) = 0.

1.7.

Valores propios

Dada la matriz A Mnn (F), se dice que el escalar F es un valor propio de A si


existe v Fn , v = 0, tal que2
Av = v

(1.15)

El vector v que satisface (1.15) se llama vector propio (asociado al valor propio ) de A.
El conjunto de todos los vectores propios asociados con el valor propio , denotado por
S , es un subespacio vectorial de Fn . En efecto, sean v1 y v2 dos vectores propios en S y
sea F, entonces
A(v1 + v2 ) = A(v1 ) + Av2
= Av1 + Av2
= v1 + v2
= (v1 + v2 )
2

Identificamos un vector v con su matriz de coordenadas en la misma base que se uso para obtener A.

21


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

La dimension de S se llama la multiplicidad geometrica de y la denotamos por si .


Observe de (1.15) que es un valor propio de A si y solo si la ecuacion
(A I)X = 0
tiene solucion no trivial, lo que, debido al teorema 5, es equivalente a
det(A I) = 0

(1.16)

Esta ecuacion sugiere una forma de encontrar los valores propios de la matriz A. El
polinomio
p() , det(A I) = 0 + 1 + + n1 n1 + n n

(1.17)

se llama polinomio caracterstico de A. En terminos del polinomio caracterstico, la


ecuacion (1.16) puede escribirse como
p() = 0,
que es llamada la ecuacion caracterstica de A. Observe que n = (1)n y 0 =
(1)n det(A). Como la matriz A es de orden n n, la ecuacion caracterstica tiene n
soluciones o races (eventualmente soluciones repetidas y/o soluciones complejas), siendo
cada una de estas una raz caracterstica de A.
El polinomio caracterstico puede expresarse como
p() = C

( i )ri ,

i=1

donde C = (1)n es una constante y n =

i=1 ri .

El exponente ri tal que ( i )ri +1 no

es un factor de p() se llama la multiplicidad algebraica de i . La multiplicidad geometrica


no excede a la multiplicidad algebraica, esto es, si ri i = 1, . . . , m.
Es interesante el hecho de que la matriz A satisface su ecuacion caracterstica, esto es,
p(A) = 0. Destacamos esta observacion en el teorema siguiente.
Teorema 6. (Teorema de Cayley-Hamilton) Si p(x) es el polinomio caracterstico de A,
entonces p(A) = 0.
Este resultado implica que An puede escribirse como combinacion lineal de
I, A, . . . , An1 . En efecto, dado que
p(A) = 0 I + 1 A + + n1 An1 + n An = 0
22


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

dividiendo por n (n = C) y pasando al lado derecho los terminos con exponente menor
o igual que (n 1) se tiene
An = 0 I + 1 A + + n1 An1 ,

(1.18)

donde i = i /C, i = 0, . . . , n.
Si multiplicamos (1.18) por A se obtiene An+1 = 0 A + 1 A2 + + n1 An , lo
que implica, debido a (1.18), que An+1 es combinacion lineal de I, A, . . . , An1 , digamos,
An+1 = 0 I + 1 A1 + 2 A2 + + n1 An1 . De nuevo, si multiplicamos esta ecuacion por
A se obtiene An+2 = 0 A1 + 1 A2 + + n1 An que, debido a (1.18), se convierte en una
combinacion lineal de I, A, . . . , An1 , digamos, An+2 = 0 I +1 A1 +2 A2 + +n1 An1 .
Procediendo de esta manera, podemos ver que cualquier potencia de la matrix A puede
escribirse como combinacion lineal de las potencias de A desde i = 0 hasta i = n 1.
Claramente cualquier polinomio f (x) evaluado en la matriz A, f (A), puede escribirse como
combinacion lineal de I, A, . . . , An1 . Mas formalmente, tenemos el siguiente argumento.
Consideremos un polinomio de grado arbitrario f (x) y sea p(x) el polinomio
caracterstico de la matrix cuadrada A de orden n. Si el grado de f (x) es n 1 o menos,
entonces f (A) es la combinacion lineal de las potencias de A hasta el orden (n 1). Si el
grado de f (x) es mayor o igual que n, podemos escribir
f (x) = q(x)p(x) + r(x),

(1.19)

donde q(x) y r(x) son los polinomios cociente y resto, respectivamente, de la division de
f (x) entre p(x), y el grado de r(x) es (n1) o menos. Por el teorema de Cayley-Hamilton,
p(A) = 0, de donde, evaluando (1.19) en A se tiene:
f (A) = r(A) =

n1

i Ai

(1.20)

i=0

Los coeficientes de r(x) pueden ser obtenidos directamente a partir de (1.19), que resulta
de la division de f (x) entre p(x), o mediante la solucion de las n ecuaciones siguientes:



d
d
= r(x)
, = 0,1, . . . ri 1, i = 1, 2, . . . , m
(1.21)
f (x)

dx
dx
x=i
x=i
En efecto, dado que
p(x) =

(x i )ri ,
i=1

23


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez



d

p(x)
= 0, = 0,1, . . . ri 1, i = 1, 2, . . . , m = 0,

dx
x=i

entonces

de donde, teniendo en cuenta (1.19), se sigue (1.21). Este sistema de ecuaciones tiene
solucion u
nica, pues constituyen un sistema de n ecuaciones li en las n variables
0 , . . . , n1 .

2 1
. El polinomio caracterstico
Ejemplo 26. Sea f (x) = 2x4 + 3x2 + x + 6 y A =
3 0
2
de A es p(x) = x 2x 3 y se puede verificar que
2x4 + 3x2 + x + 6 = (2x2 + 4x + 17)(x2 2x 3) + 47x + 57,
de donde r(x) = 47x + 57 y, por lo tanto,

2 1
1 0
95 47
+ 57
=

f (A) = 2A4 + 3A2 + A + 6I = 47A + 57I = 47


3 0
0 1
141 57

El polinomio m(x) de menor grado tal que m(A) = 0 se llama polinomio mnimo de
A. Puesto que A satisface su ecuacion caracterstica, el grado de m(x) no es mayor que
n. No es difcil probar que en realidad el polinomio caracterstico y el polinomio mnimo
tienen las mismas races, salvo multiplicidades.
El conjunto de todos los valores propios de la matriz A se llama espectro de A y se
denota por (A). El radio espectral de A es el mayor valor de los modulos del espectro
de A.

1.8.

Similaridad de matrices

Dos matrices cuadradas A y B son similares si existe una matriz P no singular tal
que B = P 1 AP . Las matrices similares tienen el mismo polinomio caracterstico y, por
lo tanto, los mismos valores propios. En efecto,
det(A I) = det(P BP 1 I)
= det(P BP 1 P IP 1 )
= det(P (B I)P 1 )
= det(P )det(B I)det(P 1 )
= det(B I)
24


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Una matriz cuadrada A se llama diagonalizable si es similar a una matriz diagonal D, es


decir, si existe una matrix P no singular tal que P 1 AP = D. El teorema 7 da condiciones
para que una matriz sea diagonalizable.
Teorema 7. La matriz A Mnn (F) es diagonalizable si y solamente si A posee n
vectores propios li.
Demostracion. Supongamos que A es una matriz cuadrada de orden n que es
diagonalizable. Por consiguiente existe una matriz P no singular tal que P 1 AP = D,
donde D es una matriz diagonal. Sea pj la j-esima columna de P y j el j-esimo elemento
en la diagonal de D. Puesto que P es no singular, entonces p1 , . . . , pn son li. Probaremos
que Apj = j pj .
Observe que P 1 P = I = P 1 [p1 . . . pn ] = [P 1 p1 . . . P 1 pn ]. Entonces para
j = 1, . . . , n se tiene P 1 pj = ej , donde ej es el j-esimo vector de la base canonica
de Fn . Luego
Apj = P DP 1 pj
= (P D)(P 1 pj )
= P (Dej )
= P (j ej )
= j P ej
= j pj .
Por consiguiente j es un valor propio con vector propio asociado pj .
Supongamos ahora que p1 , . . . , pn son n vectores propios li de A asociados a los valores
propios 1 , . . . , n , respectivamente. Tomemos P = [p1 . . . pn ] y D = diag(1 , . . . , n ).
Como los vectores p1 , . . . , pn son li, entonces P es no singular. Luego,
P 1 AP = P 1 ([Ap1 . . . Apn ])
= P 1 ([1 p1 . . . n pn ])
= [P 1 1 p1 . . . P 1 n pn ]
= [1 e1 . . . n en ]
= D.

25


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

El resultado siguiente proporciona condiciones bajo las cuales puede asegurarse que la
matriz A posee n vectores propios li.
Teorema 8. Si los valores propios 1 , . . . , r son todos diferentes, entonces el conjunto
de vectores propios no nulos {v1 , . . . , vr }, donde vi es asociado a i , es li
Ejemplo 27. Sea la matriz A definida por

2 1

A=
3 0
Entonces
p() = ( 3)( + 1),
de donde 1 = 3 y 2 = 1. De acuerdo al teorema 8 los vectores propios asociados a los
dos valores propios obtenidos son li. Por consiguiente, de acuerdo al teorema 7 la matriz
A es diagonalizable. En este caso tenemos

3 0
, P = [p1 p2 ], Api = i pi , i = 1,2
P 1 AP = D =
0 1
Para encontrar los vectores propios, resolvemos la ecuaci
on (A I)p = 0 para cada valor
propio obtenido. Procediendo de esta forma obtenemos

1 1
1
1

p1 = , p2 = P =
1 3
3
1
Ejemplo 28. Este ejemplo muestra el caso de una matriz no diagonalizable, por no existir
una base de vectores propios. Sea A la matriz

A=
1
1

definida por

1 1

3 1

2 0

Entonces
p() = ( 1)2 ( 2),
Sean 1 = 1 y 2 = 2. Puede verificarse que la matriz (A 1 I) tiene nulidad 1, de donde
el espacio propio de 1 tiene dimension 1 y, por consiguiente, 1 no posee dos vectores
propios li. De la misma manera, la matriz (A 2 I) tiene nulidad 1, de donde el espacio
26


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

propio de 2 tiene dimension 1 y, por consiguiente, 1 no posee dos vectores propios li.
Como la matriz A solo tiene dos valores propios diferentes, por el teorema 7, se concluye
que la matriz A no es diagonalizable.
Cuando una matriz cuadrada de orden n no posee n vectores propios li, entonces,
como se mostro en el ejemplo 28, A no es diagonalizable. En este caso existe una matriz,
conocida como matriz de Jordan, que es casi diagonal y que es similar a la matriz A. Esto
se especfica en el teorema siguiente.
Teorema 9. Sea A una matriz cuadrada de orden n n con polinomio caracterstico
p(x) = (x 1 )r1 (x m )rm y polinomio mnimo m(x) = (x 1 )t1 (x m )tm .
Entonces A es similar a una matriz J

i
0

Ji = .
..

con bloques de la forma

1 0 ... 0 0

i 1 . . . 0 0

0 i . . . 0 0

.. ..
..
.. ..
. .
.
. .

0 0 . . . i 1

0 0 . . . 0 i

(1.22)

a lo largo de la diagonal principal, siendo cero todos los demas elementos de J. Para cada
i hay al menos un bloque Ji de orden ti . Todos los demas bloques Ji correspondientes a
i son de orden menor o igual a ti . El n
umeros de bloques Ji correspondientes a i es
igual a la multiplicidad geometrica de i , si . La suma de los ordenes de todos los bloques
Ji correspondientes a i es es igual a la multiplicidad algebraica de i , ri .
Ejemplo 29. Retornando al ejemplo 28, como 1 = 1 y 2 = 2 tienen multiplicidades
geometricas iguales a 1, entonces existe solo un bloque de Jordan para cada uno de
estos valores propios: J1 , correspondiente a 1 , y J2 , correspondiente a 2 . Como las
multiplicidades algebraicas de 1 y 2 son 2 y 1, respectivamente, entonces J1 es de orden
2 y J2 es de orden 1. Salvo la posici
on de estos bloques, la matriz de Jordan similar a la
matriz A es

1 1 0

J =
0
1
0

0 0 2

27


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Ejemplo 30. Sea A una matriz de orden 4 4 con dos valores propios 1 y 2 .
Supongamos que las multiplicidades geometricas de 1 y 2 son 2 y 1, respectivamente. Por
consiguiente, existen dos bloques de Jordan correspondientes al valor propio 1 y un bloque
de Jordan correspondiente al valor propio 2 . Supongamos ahora que las multiplicidades
algebraicas de ambos valores propios son iguales a 2. Entonces la matriz de Jordan, salvo
disposici
on de los bloques, es

1 0 0 0

0 0 0
1

J =
0 0 2 1

0 0 0 2

ALGUNAS PROPIEDADES
Sea A una matriz de orden n n tal que P 1 AP = J para alguna matriz no singular P ,
y donde J es una matriz de Jordan. Sean 1 , 2 , . . . , n los n valores propios de A. Las
propiedades que siguen son una consecuencia directa de la diagonalizacion.

1. ni=1 i = tr(A), pues tr(A) = tr [P 1 AP ] = tr(J)

2. ni=1 i = det(A), pues det(A) = det [P 1 AP ] = det(J)


3. La matriz AT tiene los mismos valores propios que A, pues P T AT (P 1 ) = J T .
T

1.9.

Matrices sim
etricas y Formas
cuadr
aticas

Sea A = [aij ] una matriz real simetrica. La funcion f (x) definida por

f (x) , x Ax =

n
n

aij xi xj , x Cn

(1.23)

i=1 j=1

se llama forma cuadratica (inducida por la matriz A). Eventualmente nos gustara evaluar
esta funcion en vectores propios de la matriz A. Como los valores propios pueden
ser n
umeros complejos, los vectores propios asociados tambien seran complejos. Sin
embargo, (1.23) siempre produce un n
umero real, aun cuando x fuera un n
umero complejo.
Efectivamente, puesto que A es una matriz real simetrica, entonces
[f (x)] = (x Ax) = x A x = x Ax = f (x).
28


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Esto prueba que el n


umero f (x) es igual que su complejo conjugado, lo que es posible
u
nicamente cuando f (x) R. Los valores propios de A tambien son n
umeros reales. En
efecto, sea un valor propio de A con vector propio v. Entonces,
v Av = v (v) = (v v) = |v|2 .
Puesto que el lado izquierdo de esta igualdad es un n
umero real, entonces R. Estos
resultados muestran que cuando consideramos matrices reales simetricas, podemos tomar
F = R, en cuyo caso (1.23) se escribe f (x) = xT Ax.
Se dice que los vectores u y v de Cn son ortogonales si uT v = 0. Si A es una matriz
simetrica entonces los vectores propios asociados con valores propios diferentes de A son
ortogonales. En efecto, sean 1 y 2 dos valores propios diferentes de A con vectores
propios asociados u y v, respectivamente. Luego
Au = 1 u v T Au = 1 v T u
Av = 2 v uT Av = 2 uT v
Tomando traspuesta en la primera ecuacion y teniendo en cuenta que A es simetrica,
despues de restar ambas ecuaciones tenemos (1 2 )uT v = 0. Como 1 = 2 , esta
igualdad implica que u y v son ortogonales. Por supuesto, este resultado puede ser
extendido a los subespacios propios asociados a valores propios diferentes, es decir, si
S1 , . . . , Sm son los subespacios propios de los valores propios 1 , . . . , m y i = j , i =
j, entonces Si Sj .
Si los vectores no nulos u y v de Cn son ortogonales, entonces ellos son li. En efecto,
si u + v = 0, entonces v T u + v T v = 0 implica que = 0, de donde = 0.
El teorema siguiente se basa en un resultado muy conocido, aunque no trivial, que
establece que las multiplicidades geometricas y algebraicas de los valores propios de una
matriz real simetrica son iguales.
Teorema 10. Si A Mnn (R) es una matriz simetrica, entonces A posee n vectores
propios li.
Demostracion. Sean S1 , . . . , Sm los subespacios propios asociados a los diferentes valores
propios 1 , . . . , m de A, donde m n. Por la discusion anterior estos subespacios
son ortogonales y, en particular, las bases de estos subespacios tambien son conjuntos
29


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

ortogonales. Sean
{
}
B1 = u11 , . . . , u1s1
{
}
B2 = u21 , . . . , u2s2
..
..
.
.
{ m
}
Bm = u1 , . . . , um
sm
las bases correspondientes de los subespacios propios. Puesto que ortogonalidad implica
independencia lineal, entonces elconjunto
m
B = {u11 , . . . , u1s1 , u21 , . . . , u2s2 , . . . , um
1 , . . . , us m }

es un conjunto de vectores propios li. Como si = ri , i = 1, . . . , m, entonces

m
i=1

si = n,

lo que completa la prueba.


Una matriz Q Mnn (R) se llama ortogonal si QT Q = I o, equivalentemente,
Q1 = QT 3 . Se dice que una matriz A Mnn (R) es ortogonalmente diagonalizable
si existe una matriz ortogonal Q tal que Q1 AQ = D, donde D es una matriz diagonal.
Teorema 11. La matriz A Mnn (R) es ortogonalmente diagonalizable si y solo si A
es simetrica
Demostracion. Si A es ortogonalmente diagonalizable, entonces existe una matriz
ortogonal Q tal que A = QDQ1 , donde D es una matriz diagonal. Tomando la traspuesta
en ambos lados de esta igualdad y teniendo en cuenta que Q es ortogonal tenemos
AT = QDQ1 . Por consiguiente, A es simetrica.
Ahora si A es una matriz real simetrica, entonces por el teorema anterior, A posee
n vectores propios, li. Sean p1 , . . . , pn estos vectores, como sabemos una matriz P que
diagonaliza a la matriz A es P = [p1 . . . pn ] y P 1 AP = dia(1 , . . . , n ), siendo pi el vector
propio correspondiente al valor propio i , i = 1, . . . , n. Digamos que de este conjunto de n
valores propios, existen m n valores diferentes. Entonces, como sabemos, estos valores
determinan m subespacios propios ortogonales, Sj , j = 1, . . . , m. Consideremos que las
3

Si la matriz Q Mnn (C) es tal que Q Q = I se dice que Q es unitaria

30


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

bases de estos subespacios estan formados por los vectores propios p1 , . . . , pn como sigue
{
}
B1 = p11 , . . . , p1s1
{
}
B2 = p21 , . . . , p2s2
..
..
.
.
{
}
m
Bm = pm
1 , . . . , psm
Apliquemos el proceso de ortogonalizacion de Gram-Schmidt para ortogonalizar los
vectores propios de cada base Bj .
Algoritmo de Gram-Schmidt
u1 = p1
uk = pk

k1

uTi pk
u , k = 2, . . . , sj
2 i
u

i
i=1

Observe que u1 , . . . , usj son vectores propios li asociados al valor propio j , j = 1, . . . , m,


respectivamente. Por lo tanto, los vectores
qk = uk /uk , k = 1, . . . , n
forman un conjunto ortonormal de vectores propios li de la matriz A, de donde la matriz
Q = [q1 . . . qn ] diagonaliza a la matriz A. Puesto que

1 ; i=j
qiT qj =
0 ; i = j
entonces Q es ortogonal. En efecto,

q1T
] [
[

]
..
T

Q Q = . q1 . . . qn = qiT qj = I.
qnT

Ejemplo 31. Consideremos la matriz

5 2
2

A=
2 2 4
2 4 2
31


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

EL polinomio caracterstico de A es p() = (+3)(6)2 , por lo que los valores propios


son 1 = 3 y 2 = 6. Puesto que la matriz A es simetrica, entonces por el teorema 10 ella
posee tres vectores li. Estos vectores forman la matriz P a partir de la cual obtendremos
la matriz ortogonal Q.

S1 = Span u1 =
2 ;

S 2



2
2


= Span u2 =
1 , u3 = 0

0
1

Como u1 es ortogonal a u2 y u3 y u2 y u3 son l.i., entonces podemos ortonormalizar estos


dos u
ltimos vectores para conseguir la matriz ortogonal. Para esto aplicamos el proceso de
ortogonalizacion de Gram-Schmidt. Los vectores obtenidos por medio de este proceso son
vectores propios de la matriz A y, ademas, son ortonormales.

q11

q12

=
2
3
2


2
2

1
1
, q22 =
=
1
4

5
3 5
0
5

Una matrix simetrica A es llamada definida positiva si xT Ax > 0 para todo x = 0. En


este caso se suele escribir A > 0. Si xT Ax 0 la matriz se llama semi-definida positiva y
se escribe A 0. Si xT Ax < 0 para todo x = 0, decimos que la matriz es definida negativa.
Si xT Ax 0 la matriz se llama semi-definida negativa. Si no se satisfacen ninguna de
estas condiciones decimos que la matriz es indefinida (o de signo indefinido).
El signo de una forma cuadratica es el signo de la matriz simetrica que induce
dicha forma. Suele ser complicado averiguar el signo de una forma cuadratica a partir
de la definicion misma. La proposicion siguiente caracteriza las formas cuadraticas en
terminos de los valores propios de su matriz asociada, proporcionando de esta manera una
alternativa computacional para determinar el signo de una forma cuadratica. El resultado
se sigue de la definicion de valor propio y de la diagonalizacion de una matriz simetrica.
Teorema 12. Sea A Mnn (R) una matriz simetrica. La matriz A es definida positiva
(semi-definida positiva) si y solo si todos los valores propios de A son mayores que cero
32


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

(mayores o iguales que cero). La matriz A es definida negativa (semi-definida negativa)


si y solo si todos los valores propios de A son menores que cero (meneores o iguales que
cero). La matriz es indefinida si y solo si tiene valores propios positivos y negativos.
Demostracion. Por el teorema 11 existe una matriz ortogonal Q tal que Q1 AQ = D,
donde D = diag(1 , . . . , n ). Luego
xT Ax = xT QDQ1 x
(
)T
= xT Q1 DQ1 x
= (Q1 x)T DQ1 x
Haciendo y = Q1 x, entonces x = 0 si y solo si y = 0. Reemplazando en la ecuacion de
arriba tenemos
T

x Ax = y Dy =

i yi2

i=1

De aqu se sigue que si i > 0 para todo i = 1, . . . , n, entonces xT Ax > 0 para todo x = 0.

Al contrario, si xT Ax > 0 para todo x = 0, entonces ni=1 i yi2 > 0 para todo y = 0. En

particular esto es cierto para y = ei , de donde ni=1 i e2i = i > 0 para todo i = 1, . . . , n.
El argumento presentado muestra que la matriz A es definida positiva si y solo si todos
sus valores propios son positivos. Se puede seguir un argumento similar para mostrar el
resto de afirmaciones en el enunciado del teorema.
Ejemplo 32. 1. Consideremos f1 (x1 , x2 ) = x21 + x22 , cuya matriz simetrica asociada es

1 0

A=
0 1
Como los valores propios de esta matriz son 1 = 2 = 1 > 0, entonces seg
un el teorema
12, la forma cuadratica es definida positiva.
2. Consideremos f2 (x1 , x2 ) = x21 + 2x1 x2 + x22 , cuya matriz asociada es

1 1

B=
1 1
Los valores propios de esta matriz son 1 = 1 y 2 = 0, , entonces seg
un el teorema 12,
la forma cuadratica es semi-definida positiva.

33


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

1.10.

Espacios vectoriales normados

Sea U un espacio vectorial sobre F. La aplicacion : U R se llama norma si se


satisfacen las condiciones siguientes:
a) x 0 y x = 0 si y solo si x = 0
b) x = ||x, F, x U
c) x + y x + y (Desigualdad triangular)
El par (U, ) se llama espacio vectorial normado.
Ejemplo 33. Sea U = Fn y definamos
(
xp ,

)1/p
|xi |p

, 1p<

i=1

x , max {|xi |}
1in

Las condiciones (a) (c) se prueban facilmente. En particular, para 1 p < , la


desigualdad triangular se prueba con la desigualdad de Minkowski. La norma infinito es
denotada de esa manera porque en realidad es el lmite de la norm p. En efecto, puede
probarse que
x = lm xp
p

Los casos en que p = 1 y p = 2 aparecen mucho en la practica. Cuando p = 1 se tiene


x1 =

|xi |,

i=1

que es conocida como la norma taxi-cab. Cuando p = 2 se tiene


(
x2 =

)1/2
|xi |2

i=1

que es la norma Euclidiana.


Ejemplo 34. Sea U = lp (F) y definamos
(
xp ,

)1/p
|xi |

i=1

x , sup{|xi |}
i1

34

, 1p<


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Como en el caso anterior, las condiciones (a) (c) se prueban facilmente. En particular
la desigualdad triangular es una consecuencia de la desigualdad de Minkowski para sumas
infinitas.
Ejemplo 35. Sea U = Lp ([a, b]) y definamos
(
xp ,

)1/p

|x(t)| dt
p

, 1 p < .

De nuevo, las condiciones (a) (c) se prueban facilmente. En este caso la desigualdad
triangular es una consecuencia de la desigualdad de Minkowski para integrales.
Ejemplo 36. Sea U = C([a, b]) y definamos
x , sup |x(t)|
t[a,b]

Las condiciones (a) (c) se prueban facilmente. La desigualdad triangular es una


consecuencia del hecho que el supremo de la suma de dos conjuntos es menor o igual
que la suma de los supremos respectivos.
Ejemplo 37. Sea U = Mmn (F) y definamos
A , sup
x=0

Axm
, x Fn
xn

Esta norma se conoce como la norma inducida (por las normas m y n sobre Fm y
Fn , respectivamente). Las condiciones (a) (c) se prueban inmediatamente a partir de la
definici
on.
Dos propiedades importantes que se deducen directamente de la definicion son las
siguientes:
i) Axm Axn
ii) AB AB
En particular cuando m = n = p escribimos xp .

35


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Ejemplo 38. Dada la matriz A =

2 1
3 0

, calculemos A1 .

Ax1
|2x1 + x2 | + |3x1 |
=
x1
|x1 | + |x2 |
5|x1 | + |x2 |

|x1 | + |x2 |
4|x2 |
=5
|x1 | + |x2 |
5
Esta desigualdad nos dice que la expresi
on Ax1 /x1 es menor o igual que 5 para
todo x R2 , x = 0. Ahora si tomamos x = [1 0]T resulta que Ax1 /x1 = 5. Por
consiguiente, A1 = supx=0

Ax1
x1

= 5. Esta manera de calcular la norma A1 no

siempre es la mas adecuada. El teorema siguiente nos proporciona una alternativa mas
eficiente y general de calcularla.
Teorema 13. Sea A = [aij ] Mmn (F). Entonces
( n
)

A1 = max
|aij |
j

A = max

( i=1
n

)
|aij |

j=1

Demostracion. Probamos la primera igualdad, pues la segunda es similar. Sean A =


[aij ], x = (x1 , . . . , xn )T y Sm el valor maximo de las sumas por columnas de las entradas

de A, tomadas en modulo. Esto es, Sm = ni=1 |aim |, donde el subndice m alude a la

36


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

m-esima columna para la que se alcanza el maximo.


n

n



aij xj



Ax1
i=1 j=1
=
x1
x1
n
n

|aij ||xj |

i=1 j=1
n

x1
n

|xj |
|aij |

j=1

i=1

x1

Sm

|xj |

j=1

x1

= Sm .
Por consiguiente, A1 Sm . Veamos enseguida que la cota Sm es alcanzada. Tomemos,
convenientemente, el vector x = em . Entonces
n

Ax1
=
x1

|aim |

i=1

= Sm

Esto prueba el teorema.


Dados dos puntos de x = (x1 , x2 ) e y = (y1 , y2 ) de R2 la distancia (euclidiana) entre
1/2

ellos esta definida por d(x, y) = (|x1 y1 |2 + |x2 y2 |2 )

, que es precisamente la norma

de la diferencia entre dichos puntos. El par (R2 , d) es llamado espacio metrico. El concepto
de distancia es generalizado a conjuntos arbitrarios de la manera siguiente. Sea S un
conjunto no vaco, la funcion d : S S R es una metrica sobre S si
1) d(x, y) 0 y d(x, y) = 0 si y solo si x = y
2) d(x, y) = d(y, x) x, y S
3) d(x, z) d(x, y) + d(y, z) x, y, z S
No es difcil ver que dado un espacio normado (U, ), la norma induce una
distancia sobre U, a saber,
d(x, y) = x y

37


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

La metrica d en el espacio vectorial U determina una topologa sobre U y, a partir de


esto, puede formalizarse la idea de aproximacion entre dos vectores, mas especficamente
puede definirse una nocion de convergencia en U.
Definici
on 9. Sea {xn } una sucesi
on de vectores en (U, ). Se dice que la sucesion
{xn } converge a x0 U si
> 0 N N; n > N xn x0 <
Cuando {xn } converge a x0 se escribe lm xn = x0 .
n

Si el espacio vectorial U es de dimension finita, una caracterizaci


on muy u
til de las
sucesiones convergentes esta dada en el siguiente teorema.
Teorema 14. Sea {xn } una sucesi
on de vectores en (U, ), donde U es un espacio
vectorial de dimension finita. Entonces la sucesi
on {xn } es convergente si y solo si es de
Cauchy, esto es, si se cumple que
> 0 N N; m,n > N xn xm <
Demostracion. PENDIENTE
El concepto de serie de n
umeros reales tambien puede ser extendido a los vectores. En
efecto, dado el espacio vectorial normado (U, ), la suma

xn , xn U n Z+ .

n=0

se llama serie de vectores. Se dice que la serie


sumas parciales
Sn =

n=0

xn es convergente si la sucesi
on de

xi

i=0

es convergente.
Un criterio muy u
til para probar que una serie es convergente es el siguiente:

Teorema 15. Si la serie de n


umeros reales
n=1 xn es convergente, entonces la serie

de vectores n=1 xn tambien es convergente. En este caso se tiene, ademas, la siguiente


relaci
on




xn
xn



n=0

n=0

38


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Demostracion. PENDIENTE
Observe que las normas 1 , 2 y definen las mismas topologas, pues
x x1 nx

x x2 nx

x2 x1 nx2
Mas exactamente se dice que dos normas y sobre un espacio vectorial U son
equivalentes, o definen la misma topologa, si existen contantes a > 0 y b > 0 tal que
ax x bx

(1.24)

En particular si U = Fn y p > q > 0, entonces


xp xq n( q p ) xp
1

(1.25)

En realidad, la equivalencia entre normas es una propiedad de los espacios de dimension


finita, como se establece en el teorema siguiente.
Teorema 16. Todas las normas definidas sobre un espacio vectorial de dimension finita
son equivalentes.
Una consecuencia importante de este teorema es que para probar resultados
concernientes a la convergencia de vectores, no importa la norma particular con la
que se trabaje, pues la convergencia en una norma implica la convergencia en otra y
recprocamente, como se deduce a partir de (1.24).
Teorema 17. Sea A Mnn (F) con valores propios 1 , . . . , n y radio espectral (A).
Entonces
(A) Ap
Demostracion. Sea vi = 0 un vector propio de A asociado al valor propio i . Entonces
Avi p = i vi p = |i |vi p

(1.26)

De otro lado, por la propiedad (i) mencionada arriba, se tiene


Avi p Ap vi p
39

(1.27)


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez
Como vi = 0, (1.26) y (1.27) implican que

|i | Ap ,

(1.28)

Puesto que (1.28) se cumple para todo valor propio de A, esto prueba el resultado.
Nuestro proximo resultado se base en la desigualdad de Rayleigh, que establece lo
siguiente.
Teorema 18. (Teorema de Rayleigh) Sea A Mnn (R) una matriz simetrica con m y
M los valores propios mnimo y maximo de A, respectivamente. Entonces
m x22 xT Ax M x22 , x Rn

(Desigualdad de Rayleigh)

Adem
as,
xT Ax
i) mn
= m y el mnimo se alcanza en cualquier x Sm , x = 0
x=0 x2
2
xT Ax
ii) max
= M y el maximo se alcanza en cualquier x SM , x = 0
x=0 x2
2
Teorema 19. Sea A Mnn (F) una matriz tal que max (A A) es el valor maximo de
los valores propios de A A. Entonces
A2 =

max (A A)

(1.29)

Demostracion. Puesto que A A es simetrica semi-definida positiva, entonces sus valores


propios son reales no negativos. Por la desigualdad de Rayleigh tenemos
Ax2
x=0 x2

x A Ax
= sup
x2
x=0

= max (A A)

A2 , sup

1.11.

Funciones analticas de una matriz

Dada la matriz A Mnn (F), el argumento seguido para expresar cualquier polinomio
de A como combinacion lineal de las potencias de A hasta el grado (n 1) puede ser
40


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

extendido para funciones analticas de la matriz A. En efecto, si f (x) es una funcion


analtica en x0 = 0, entonces para todo x en una vecindad del punto x0 = 0, f (x) puede
escribirse como la serie de Taylor
f (x) =

i xi , i F.

i=0

Dividiendo f (x) por p(x), el polinomio caracterstico de A, se obtiene f (x) = q(x)p(x) +


r(x), donde q(x) y r(x) son el cociente y el resto de la division, respectivamente. Puesto
que r(x) es de grado (n1), entonces por el teorema de Cayley-Hamilton podemos escribir
f (A) = r(A) =

n1

i A i ,

(1.30)

i=0

donde los coeficientes 0 , . . . , n1 pueden calcularse unvocamente por la formula dada

i
en la ecuacion (1.21). Esto permite definir f (A) como n1
i=0 i A .

0
1
.
Ejemplo 39. Obtengamos eA para A =
2 3
x
En este caso f (x) = e y como A es de orden 2, entonces r(x) = 0 + 1 x, de donde
eA = f (A) = r(A) = 0 I + 1 A.
Teniendo en cuenta que los valores propios de A son 1 = 1 y 2 = 2, los coeficientes
0 y 1 se calculan aplicando (1.21), lo que produce
e1 = 0 1
e2 = 0 21
De aqu se obtienen 0 = 2e1 e2 y 1 = e1 e2 . Por lo tanto,

1
2
1
2
2e e
e e

eA = (2e1 e2 )I + (e1 e2 )A =
1
2
1
2
2e + 2e
e + 2e
Podramos calcular eA con un enfoque diferente. Por ejemplo, por analoga con el caso
real podemos definir eA como la serie

1
1
1
1
1
1 i
A = I + A + A2 + A3 + An + . . .
e ,
i!
0!
1!
2!
3!
n!
i=0
A

41

(1.31)


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

Para que esta definicion tenga sentido, debemos probar que la serie (1.31) converge en
(Mnn (F),), donde, por ser este un espacio vectorial de dimension finita, puede elegirse
cualquier norma. Veamos, pues, que la sucesion de sumas parciales Sn , dada por
Sn =

1 i
A,
i!
i=0

es de Cauchy. Sea n > m, entonces por la desigualdad triangular y la propiedad ? tenemos


n

n
1

1

i
Sn Sm =
A
Ai .

i! i=m+1 i!
i=m+1
Como la serie

1
i
i=0 i! A

es converge en R, entonces la sucesion correspondiente de

sumas parciales es de Cauchy, lo que implica, debido a desigualdad de arriba, que {Sn }
es de Cauchy. Dado que (Mnn (F), ) es un espacio de Banach, entonces la serie (1.31)
converge.

0 1 0

Ejemplo 40. Consideremos la matriz A =


0 0 1.
0 0 0
En este caso se tiene

0 0 1
0 0 0

, An = 0 0 0 n 3,
A2 =
0
0
0

0 0 0
0 0 0
por lo que

1 1 1/2

1
eA = I + A + A2 =
0 1 1

2
0 0 1

Puesto que la norma es una funcion continua, observe que de (1.31) se siguen las
propiedades siguientes:

42


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

PROPIEDADES

1) eA eA
2) Si P es una matriz no singular, entonces eP AP

= P eA P 1

3) Si AB = BA, entonces e(A+B) = eA eB = eB eA .


Si A es una matriz diagonal o diagonalizable, entonces es facil obtener eA . En efecto
en el caso de las matrices diagonales

1 . . .
. .
.
..
D=
.
0 ...

se tiene

0
e1 . . . 0
. .
..
..
D
.
..
.
.
e = .

n
0 . . . e n

Si A es diagonalizable, entonces existe P no singular tal que A = P DP 1 , de donde, por


la propiedad 2, se tiene eA = P eD P 1 .
Otra situacion en la cual es facil obtener eA es cuando A es una matriz nilpotente.
Veamos el caso particular en que la matriz es de de orden 4 4. Es sabido que en este
caso existe P no singular tal que

A = P N P 1

=
0

1 0 0

0 1 0

0 0 1

0 0 0

Por consiguiente, eA = P eN P 1 que puede ser calculada una vez que obtengamos eN .
Dado que N 4 = 0, entonces
1
1
1
1
I + N + N2 + N3
0! 1!
2!
3!

1 0 0 0
0 1

1
0 1 0 0 1 0 0
=
+
0! 0 0 1 0 1! 0 0

0 0 0 1
0 0

1/0! 1/1! 1/2! 1/3!

0 1/0! 1/1! 1/2!

0
0
1/0!
1/1!

0
0
0 1/0!

eN =

0 0
0

1 0
1 0
+
2! 0
0 1

0 0
0

43

0 0 1
1 0
+
3! 0
0 0 0

0 0 0
0
0 1 0

0 0 1

0 0 0

0 0 0

0 0 0


CAPITULO 1. CONCEPTOS BASICOS

Jorge R. Chavez

En el caso general de una matriz cualquiera, para obtener su matriz exponencial


utilizamos la forma canonica de Jordan. En efecto, si A Mnn (C), entonces del teorema
? se sigue
eA = P eJ P 1 , J = D + N

44

You might also like