Professional Documents
Culture Documents
Notas de Algebra
Lineal
Natividad Calvo Ruibal
ndez
Alberto Martn Me
Indice
1
meros complejos
Los nu
1.1 El plano complejo . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Operaciones con n
umeros complejos . . . . . . . . . . . . . . .
Espacios vectoriales
2.1 Estructura de espacio vectorial . . .
2.2 Subespacio . . . . . . . . . . . . . .
2.3 Sistema de generadores . . . . . . .
2.4 Subespacio suma . . . . . . . . . .
2.5 Dependencia e independencia lineal
2.6 Base . . . . . . . . . . . . . . . . .
2.7 Dimension . . . . . . . . . . . . . .
2.8 Aplicaciones lineales . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
13
15
16
20
22
25
28
Matrices y determinantes
3.1 Operaciones con matrices . . . .
3.2 Tipos particulares de matrices .
3.3 Traza . . . . . . . . . . . . . . .
3.4 Submatrices . . . . . . . . . .
3.5 Matrices por bloques . . . . . .
3.6 Rango . . . . . . . . . . . . . .
3.7 Determinantes . . . . . . . . . .
3.8 Matrices elementales . . . . . .
3.9 Metodo de Gauss . . . . . . . .
3.10 N
ucleo e imagen de una matriz
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
31
34
37
38
39
43
46
51
55
59
.
.
.
.
65
65
66
70
80
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
lineales
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
7
4
5
Autovalores y autovectores
5.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . .
5.2 Subespacio propio . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Diagonalizacion por semejanza . . . . . . . . . . . . . . . . . .
6 Espacios eucldeos
6.1 Producto escalar . . . . . . . . . . . . . . . . . .
6.2 Producto hermtico . . . . . . . . . . . . . . . . .
6.3 Norma . . . . . . . . . . . . . . . . . . . . . . . .
6.4 Ortogonalidad y ortonormalidad . . . . . . . . . .
6.5 Diagonalizacion unitaria . . . . . . . . . . . . . .
6.6 Descomposicion en valores singulares . . . . . . .
6.7 Aplicaciones del algebra lineal . . . . . . . . . . .
6.7.1 Mnimos cuadrados y proyeccion ortogonal
6.7.2 Ajuste polinomico . . . . . . . . . . . . . .
6.7.3 Formas cuadraticas . . . . . . . . . . . . .
Bibliografa
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
85
88
92
99
99
100
101
102
106
113
118
118
122
125
129
Captulo 1
Los n
umeros complejos
1.1
El plano complejo
Definici
on 1.1.1 Un cuerpo conmutativo (K, +, ) es un conjunto K dotado
de dos operaciones internas
+
suma : K K
K
(, ) 7 +
producto : K K K
(, ) 7
tales que:
la suma tiene las propiedades
asociativa: + ( + ) = ( + ) +
conmutativa: + = +
elemento neutro: 0 K ; 0 + = + 0 =
elemento inverso: K, 6= 0, 1 K ; 1 = 1 = 1
5
a = arg().
que cos() = || y sen() = || . Se denotar
Observaci
on 1.1.2 Un n
umero complejo = + i se puede representar
en el plano R R identificandolo con el par ordenado (, ). As, el conjunto
de los n
umeros complejos se puede identificar con el plano R R. Cuando
consideremos esta identificacion, nos referiremos a R R como el plano complejo. En el plano complejo, los n
umeros reales estan representados en el eje
de abscisas, mientras que los n
umeros imaginarios puros estan representados
en el eje de ordenadas.
1.2. OPERACIONES CON NUMEROS
COMPLEJOS
1.2
Operaciones con n
umeros complejos
La suma de dos n
umeros complejos se define sumando parte real con parte
real y parte imaginaria con parte imaginaria, es decir, dados dos n
umeros
1
= ||2 ||2 i.
Observaci
on 1.2.1 Si n N, se verifica que
1 si
n = 4k
i
si
n
= 4k + 1
in =
1 si n = 4k + 2
i si n = 4k + 3
para k = 0, 1, 2, . . . .
Proposici
on 1.2.1 Para , C se verifican
1. + = + .
2. = .
3. = .
4. + = 2Re().
5. = 2Im().
6. = (Re())2 + (Im())2 = ||2 .
Proposici
on 1.2.2 Para , C se verifican
CAPITULO 1. LOS NUMEROS
COMPLEJOS
8
1. || = 0 = 0.
2. || = | |.
3. | + | || + | |.
4. | | = || | |.
Para efectuar una division de n
umeros complejos, cuando estos estan
escritos en forma binomica, se multiplican el numerador y el denominador
por el conjugado del denominador. Es decir, si = + i, = + i C,
entonces
+ i
( + i)( i)
=
=
=
+ i
( + i)( i)
=
( + ) + ( + )i
.
2 + 2
Ejemplos:
Sean = 2 + 3i y = 2 + 4i. Entonces
+ = (2 2) + (3 + 4)i = 7i,
=
=
=
2 + 4i
(2 + 4i)(2 4i)
2
7
8 14i
= i.
20
5 10
A continuacion describiremos otras formas de expresar un n
umero complejo.
y
Sea = + i, 6= 0. Sea = arg(). Entonces cos() = ||
1.2. OPERACIONES CON NUMEROS
COMPLEJOS
La forma polar de un n
umero complejo es el par ordenado formado por
el modulo de y el argumento de . Si = arg(), entonces la forma polar
de es
= (||, ).
Si = (||, ) y = (| |, ) son dos n
umeros complejos escritos en forma
polar, entonces, del calculo anterior se deduce que
= (||| |, + ).
Analogamente, si 6= 0,
||
= ( , ).
| |
p
+ 2k
n
||,
. k = 0, 1, . . . , n 1.
n
Ejemplo:
Vamos a calcular las 8 races octavas de la unidad. En forma polar, la
unidad, es decir, el n
umero real 1, se
escribe como 1 = (1, 0). El modulo de
8
cualquiera de las races octavas es 1 = 1. Haciendo = 0 en la discusion
anterior, teniendo en cuenta que ahora n = 8 y variando k desde 0 hasta 7
se obtienen dichas races octavas, que son
0 = (1, 0) 1 = (1, 4 ) 2 = (1, 2 ) 3 = (1, 3
)
4
3
7
4 = (1, ) 5 = (1, 5
)
=
(1,
)
=
(1,
)
6
7
4
2
4
Denotemos ahora ei = cos()+isen(). La forma exponencial del n
umero
complejo = (||, ) es
CAPITULO 1. LOS NUMEROS
COMPLEJOS
10
= ||ei .
Finalmente, la funcion exponencial se calcula como sigue: si = + i,
entonces
e = e ei = e (cos() + i sen()).
Proposici
on 1.2.3 Para , C se verifican
1. e 6= 0.
2. Si R, entonces |ei | = 1.
3. e = 1 = 2ki, k Z.
4. e = e = + 2ki, k Z.
5. e e = e+ .
Captulo 2
Espacios vectoriales
2.1
V
7
v+w
V
7
12
()v = (v)
R = {
1
2
..
.
n
; 1 , 2 , . . . , n R}
n
R
Rn
1
1
2
2
.. , ..
. .
n
n
) 7
Rn
1 + 1
2 + 2
..
.
n + n
R Rn Rn
1
1
2
2
(, .. ) 7 ..
.
.
n
n
2) Si definimos
C = {
1
2
..
.
n
; 1 , 2 , . . . , n C}
13
2.2. SUBESPACIO
entonces Cn es un C-espacio vectorial con las operaciones
n
C
Cn
1
1
2 2
.. , ..
. .
) 7
Cn
1 + 1
2 + 2
..
.
n + n
C Cn Cn
1
1
2
2
(, .. ) 7 ..
.
.
n
n
Observaci
on 2.1.2 Observemos que, haciendo n = 1, se obtiene que R es
un R-espacio vectorial y C es un C-espacio vectorial.
Propiedades 2.1.1 Si V es un K-espacio vectorial se verifica que
1. 0 = 0 para todo K.
2. 0 v = 0 para todo v V .
3. v = 0 = 0 o v = 0 ( K, v V ).
4. ()v = (v) = (v) ( K, v V ).
5. v = v , 6= 0 v = v ( K, v, v V ).
6. v = v, v 6= 0 = (, K, v V ).
2.2
Subespacio
14
*
u1 + u2 U, u1 , u2 U
u U, K, u U
o bien si y s
olo si
* u1 + u2 U, , K, u1 , u2 U
Ejemplos:
1. U = {0} y U = V son subespacios de V (se llaman subespacios impropios de V ).
2. De los siguientes subconjuntos de R3 ,
1
U1 = { 2 R3 ; 21 22 = 33 },
3
1
U2 = { 2 R3 ; |1 | = |2 |},
3
1
U3 = { 2 R3 ; 61 2 = 3},
3
1
U4 = { 2 R3 ; 1 2 32 = 0},
3
v U y v W
15
Observaci
on 2.2.1 Si U1 , U2 , . . . , Un son subespacios vectoriales de V , tambien
lo es U1 U2 Un .
Observaci
on 2.2.2 Todo subespacio vectorial de V contiene al vector cero
de V ; por tanto, la interseccion de dos subespacios vectoriales de V nunca
puede ser el conjunto vaco.
Definici
on 2.2.2 Dos subespacios vectoriales de V se dicen disjuntos si su
interseccion es el subespacio formado por el vector cero de V .
Ejemplo:
En R2 , los subespacios
0
1
; 2 R}
; 1 R} y W = {
U ={
2
0
son disjuntos.
2.3
Sistema de generadores
Observaci
on 2.3.1 El vector cero de V es combinacion lineal de cualquier
sistema de vectores de V .
Observaci
on 2.3.2 Si v V es combinacion lineal de vectores de S y cada
vector de S es combinacion lineal de vectores de otro sistema de vectores T ,
entonces v es combinacion lineal de vectores de T .
Definici
on 2.3.3 El conjunto de combinaciones lineales de vectores de S se
llama subespacio engendrado por S y se denota por hSi; se dice tambien que
S es un sistema de generadores de hSi.
16
Proposici
on 2.3.1 El subespacio hSi engendrado por S es efectivamente un
subespacio de V .
Demostraci
on:
Sean , K y u, w hSi. Pongamos
u = 1 s1 + 2 s2 + + p sp y w = 1 s1 + 2 s2 + . . . p sp
con 1 , 2 , . . . , p , 1 , 2 , . . . , p K y s1 , s2 , . . . , sp S. Entonces
u + w = (1 + 1 )s1 + (2 + 2 )s2 + + (p + p )sp
es una combinacion lineal de vectores de S y u + w hSi.
Observaci
on 2.3.3 Por convenio, hi = {0}.
Propiedades 2.3.1 Sean S y T sistemas de vectores de V y sean u, v V .
Se verifica que:
1. S T hSi hT i.
2. hhSii = hSi.
3. u hS {v}i, u
/ hSi v hS {u}i.
4. hS T i hSi hT i.
Definici
on 2.3.4 Dos sistemas de vectores S y T de V se dicen equivalentes
si hSi = hT i.
Observaci
on 2.3.4 Dos sistemas de vectores S y T de V son equivalentes
si y solo si todo vector de S es combinacion lineal de vectores de T y todo
vector de T es combinacion lineal de vectores de S.
2.4
Subespacio suma
17
Proposici
on 2.4.1 El subespacio suma U + W de dos subespacios U y W
de V es efectivamente un subespacio de V .
Demostraci
on:
Sean , K y v, v U + W . Pongamos
v = u + w y v = u + w ,
con u, u U , w, w W . Entonces
v + v = u + w + u + w = u + u + w + w .
Como U y W son subespacios resulta que
u + u U y w + w W.
As, v + v U + W y U + W es subespacio.
Ejemplo:
En R2 , los subespacios
0
1
; 2 R}
; 1 R} y W = {
U ={
2
0
1
2
R2 se tiene que
verifican que U + W = R , pues dado
2
0
1
1
,
+
=
2
0
2
0
1
W.
U y
con
2
0
Proposici
on 2.4.2 Sean S y T sistemas de vectores de V . Entonces
hSi + hT i = hS T i
Demostraci
on:
Si u + w hSi + hT i, con u hSi y w hT i, podemos poner
u = 1 s1 + 2 s2 + + p sp ,
w = 1 t1 + 2 t2 + + q tq ,
con 1 , 2 , . . . , p , 1 , 2 , . . . , q K, s1 , s2 , . . . , sp S y t1 , t2 , . . . , tq T .
De este modo,
u + w = 1 s1 + 2 s2 + + p sp + 1 t1 + 2 t2 + + q tq
18
1 t1 + 2 t2 + + q tq hT i,
Observaci
on 2.4.1 Si U1 , U2 , . . . , Un son subespacios de V , se define el
subespacio suma U1 + U2 + + Un , que tambien es un subespacio de V ,
como
U1 + U2 + + Un = {u1 + u2 + + un V ; u1 U1 , u2 U2 , . . . , un Un }.
Observaci
on 2.4.2 Si S1 , S2 , . . . , Sn son sistemas de vectores de V , entonces
hS1 i + hS2 i + + hSn i = hS1 S2 Sn i
Sea V un K-espacio vectorial.
Definici
on 2.4.2 Sean U1 , U2 , . . . , Un subespacios de V . Se dice que la suma
U1 +U2 + +Un es directa si y s
olo si para todo v U1 +U2 + +Un existen
vectores u
nicos u1 U1 , u2 U2 , . . . , un Un tales que v = u1 +u2 + +un .
Es ese caso, el subespacio suma se denotar
a por U1 U2 Un .
Ejemplos:
1) Ya sabemos que la suma de los subespacios
0
1
; 2 R}
; 1 R} y W = {
U ={
2
0
es U +W =R2 . Pues bien, dicha suma es directa porque dado un
1
R2 = U + W de dicha suma, la u
nica manera de
vector
2
escribirlo como suma de un vector de U mas un vector de V es
0
1
1
.
+
=
2
2
0
Escribiremos entonces U W = R2 .
19
1
0
2
2
U = {
3 ; 1 , 2 , 3 R} y W = { 0
0
4
; 2 , 4 R}.
1
2
1
1
0
2 2 0
3 = 3 + 0
4
0
4
con
1
0
2
0
3 U y 0
4
0
W.
1
0
1
2 0 2
3 = 3 + 0
4
4
0
con
1
0
0
2
3 U y 0
0
4
W,
20
Demostraci
on:
Por definicion de suma directa.
Sea v U1 + U2 + + Un . Supongamos que
v = u1 + u2 + + un = u1 + u2 + + un
con u1 , u1 U1 , u2 , u2 U2 , . . . , un , un Un . Entonces, el vector cero de V
se escribe como
0 = v v = (u1 u1 ) + (u2 u2 ) + + (un un ),
con u1 u1 U1 , u2 u2 U2 , . . . , un un Un . Por hipotesis,
u1 u1 = u2 u2 = = un un = 0
y u1 = u1 , u2 = u2 , . . . , un = un .
Proposici
on 2.4.4 Sean U y W dos subespacios vectoriales de V . La suma
U + W es directa si y s
olo si U y W son disjuntos.
Demostraci
on:
Si U y W no fuesen disjuntos, es decir, si U W 6= {0}, existira
v U W , v 6= 0. As, el vector cero de V se podra escribir como
0 = v + (v),
con v U y v W , con lo cual la suma U + W no sera directa.
Sean u U y w W tales que u + w = 0. Entonces, u = w W .
Por tanto, u U W = {0}. As, u = 0 y w = 0.
2.5
21
Proposici
on 2.5.1 Son equivalentes:
i) S es ligado.
ii) Existen escalares 1 , 2 , . . . , p K no todos nulos verificando que
1 s1 + 2 s2 + + p sp = 0.
iii) Existe un vector si S que es combinacion lineal de los dem
as vectores
de S, es decir, tal que si hS {si }i.
Proposici
on 2.5.2 S es libre si y s
olo si el subespacio que engendra contiene
propiamente al subespacio engendrado por cualquiera de sus subconjuntos
propios. Equivalentemente, S es libre si y s
olo si para todo i = 1, 2, . . . , p es
hS {si }i ( hSi.
Propiedades 2.5.1 Se verifica que:
1. Si v V , v 6= 0, entonces {v} es libre.
2. Cualquier sistema de vectores que contenga al vector cero de V es ligado.
3. Si S es libre, entonces cualquier subconjunto de S es libre.
4. Si S es ligado, entonces cualquier sistema de vectores de V que contenga
a S es ligado.
Ejemplo:
En R3 , el sistema de vectores
1
1
0
0 }
2
S={ 1
,
,
1
1
3
es libre, pues si ponemos
0
1
0
1
1 + 2 + 0 = 0
0
3
1
1
resulta que
+ = 0
+ 2
= 0
+ 3 = 0
22
1
0
1
T = { 1 , 2 , 5 }
1
1
1
es ligado pues
0
1
1
5 = 1 + 2 2 .
1
1
1
Proposici
on 2.5.3 Sea v V . Si S es libre y v
/ hSi, entonces S {v} es
libre.
Demostraci
on:
Si S {v} no fuese libre, existira una combinacion lineal
1 s1 + 2 s2 + + p sp + v = 0,
con 6= 0 (pues S es libre). Luego, existira 1 y podramos obtener
v = 1 1 s1 1 2 s2 1 p sp ,
de tal modo que v hSi, lo cual es una contradiccion.
2.6
Base
23
2.6. BASE
Ejemplo:
En el espacio vectorial Kn ,
1
0
BKn = { ..
.
0
el sistema de vectores
0
0
0
1
, .. , . . . , ..
.
.
1
0
1 22
U = {
22 ; 1 , 2 R},
2
1
2
4
W = {
3 R ; 21 2 3 + 4 = 0}.
4
Entonces
2
1
1 0
BU = {
0 , 2 },
1
0
1
1
1
2 0 0
= {
0 , 2 , 0
2
0
0
BW
},
24
Proposici
on 2.6.2 B es base de V si y s
olo si todo vector de V se escribe
de modo u
nico como combinacion lineal de vectores de B, es decir, si y s
olo
si
V = h{a1 }i h{a2 }i h{an }i
Demostraci
on:
Sea v V . Como hBi = V , entonces v ya es combinacion lineal de
vectores de B. Ademas, dicha combinacion lineal es u
nica, pues si
v = 1 a1 + 2 a2 + + n an = 1 a1 + 2 a2 + + n an
con 1 , 2 , . . . , n , 1 , 2 , . . . , n K, entonces
0 = v v = (1 1 )a1 + (2 2 )a2 + + (n n )an
y como B es libre, resultan 1 1 = 2 2 = = n n = 0, es decir,
1 = 1 , 2 = 2 , . . . , n = n .
Si V = h{a1 }ih{a2 }i h{an }i, entonces hBi = V porque para
todo v V existen 1 , 2 , . . . , n K tales que v = 1 a1 + 2 a2 + + n an .
Ademas, B es libre pues
1 a1 + 2 a2 + + n an = 0, 1 , 2 , . . . , n K 1 = 2 = = n = 0
porque el vector cero de V se expresa de modo u
nico como suma de ceros.
Definici
on 2.6.2 Supongamos que B = {a1 , a2 , . . . , an } es una base de V .
Sea v V . Se llaman coordenadas de v en la base B a los u
nicos escalares
1 , 2 , . . . , n K para los cuales
v = 1 a1 + 2 a2 + + n an .
A los vectores 1 a1 , 2 a2 , . . . , n an se les llama componentes de v en la
base B.
Observaci
on 2.6.1 Si B = {a1 , a2 , . . . , an } es una base de V , la aplicacion
: V
v
n
K
(v) =
1
2
..
.
n
2.7. DIMENSION
25
1
2
(v) = ..
.
n
es el vector de coordenadas de v en la base B.
2.7
Dimensi
on
Observaci
on 2.7.1 A partir de ahora, salvo cuando se especifique lo contrario, entenderemos por K-espacio vectorial un K-espacio vectorial que admita una base formada por un n
umero finito de vectores. Este tipo de espacios vectoriales se llaman espacios vectoriales de dimension finita.
Sea V un K-espacio vectorial.
Teorema 2.7.1 Sea B = {a1 , a2 , . . . , an } una base de V . Entonces todo
sistema de vectores de V con mas de n vectores es ligado.
Demostraci
on:
Bastara probar, seg
un la proposicion 2.5.1, apartado 4., que todo sistema
con n + 1 vectores de V es ligado.
Sea entonces S = {s1 , s2 , . . . , sn , sn+1 } V .
Tomemos s1 .
Si s1 = 0, entonces S ya es ligado. Si s1 6= 0, entonces existen escalares
no todos nulos 1 , 2 , . . . , n K tales que
s1 = 1 a1 + 2 a2 + + n an .
Supongamos que es 1 6= 0. Se tiene entonces que
a1 = 11 s1 11 2 a2 11 n an .
De este modo, si S1 = {s1 , a2 , a3 . . . , an }, obtenemos que todo vector de S1
es combinacion lineal de vectores de B y que todo vector de B es combinacion
lineal de vectores de S1 . As, por la observacion 2.3.4, S1 y B son equivalentes
y
hS1 i = hBi = V.
26
2.7. DIMENSION
27
28
2.8
Aplicaciones lineales
29
Proposici
on 2.8.2 La aplicaci
on f es inyectiva si y s
olo si ker(f ) = {0}.
Demostraci
on:
Si x ker(f ), entonces f (x) = 0. Por tanto, f (x) = 0 = f (0), y
como f es inyectiva, x = 0. As, ker(f ) = {0}.
Si f (x) = f (y), con x, y V , entonces f (x) f (y) = 0, o lo que es
lo mismo, f (x y) = 0. As,
x y ker(f ) = {0},
de donde x y = 0, es decir, x = y.
Observaci
on 2.8.2 La aplicacion f es sobreyectiva si y solo si Im(f ) = W .
Definici
on 2.8.3 Una aplicaci
on lineal entre K-espacios vectoriales que sea
biyectiva se dice un isomorfismo. Dos K-espacios vectoriales se dicen isomorfos si y s
olo si existe un isomorfismo entre ellos.
Ejemplo:
Sean V un K-espacio vectorial n-dimensional y B = {a1 , a2 , . . . , an } una
base de V . La aplicacion
:
V
v = 1 a1 + 2 a2 + + n an
n
K
(v) =
1
2
..
.
n
30
Captulo 3
Matrices y determinantes
3.1
Definici
on 3.1.1 Una matriz de tama
no mn (u orden mn) es un cuadro
rectangular de m filas y n columnas de escalares de la forma
11 12 . . . 1n
21 22 . . . 2n
A = ..
..
.. .
.
.
.
m1 m2 . . . mn
Si m = n, la matriz se dice cuadrada de tama
no n o n n (u orden n o
n n). El conjunto de matrices de tama
no m n se denotar
a por Mmn (K)
y el de matrices cuadradas de tama
no n por Mnn (K).
Los mn escalares ij se llaman coeficientes de la matriz. La matriz de
Mmn (K) cuyos coeficientes son todos iguales a cero se llama matriz nula y
se denotar
a por 0 Mmn (K).
Abreviadamente, una matriz generica A Mmn (K) se denotara por
A = (ij ) Mmn (K),
donde el primer ndice, i, indicara fila y el segundo ndice, j, indicara columna.
Esta notacion abreviada permite definir de un modo comodo las principales
operaciones con matrices.
Definici
on 3.1.2 Dos matrices A = (ij ) y B = (ij ) se dicen iguales si
son del mismo tama
no y ij = ij para cualesquiera i, j.
31
32
Definici
on 3.1.3 La suma de matrices es una operaci
on interna en Mmn (K)
definida como
+
K Mmn (K)
Mmn (K)
(, A)
7 A = ( ij )
donde A = (ij ).
Proposici
on 3.1.1 Se verifica que Mmn (K) con la suma y el producto por
escalares es un K-espacio vectorial; por tanto, se verifica que
A + (B + C) = (A + B) + C
A+B =B+A
La matriz nula 0 Mmn (K) es tal que 0 + A = A + 0 = A
Dada A = (ij ) Mmn (K) existe A = (ij ) Mmn (K), llamada matriz opuesta de A, tal que A + (A) = (A) + A = 0
(A + B) = A + B
( + )A = A + A
()A = (A)
1A=A
as como
0=0
0A=0
A = 0 = 0 o A = 0
()A = (A) = (A)
33
A = B, 6= 0 A = B
A = A, A 6= 0 =
para A, B, C Mmn (K), , K.
Proposici
on 3.1.2 Denotemos por Eij Mmn (K) la matriz cuyo coeficiente que ocupa la i-esima fila y la j-esima columna es igual a 1, siendo
cero el resto de los coeficientes. Una base de Mmn (K) est
a dada por
{Eij ; i = 1, 2, . . . , m , j = 1, 2, . . . , n}
y la dimensi
on de Mmn (K) es mn.
Definici
on 3.1.5 Sean A = (ij ) Mmn (K) y B = (ij ) Mnp (K). El
producto C = AB es otra matriz
C = AB = (ij ) Mmp (K)
dada por
ij = i1 1j + i2 2j + + in nj
para i = 1, 2, . . . , m, j = 1, 2, . . . , p.
Observaci
on 3.1.1 Conviene tener en cuenta lo siguiente:
1. El producto AB de dos matrices A y B solo tiene sentido si el n
umero
de columnas de A coincide con el n
umero de filas de B.
2. El producto de matrices no es, en general, conmutativo; de hecho, un
producto AB de matrices puede estar definido y en cambio el producto
BA no estarlo.
3. En el espacio Mnn (K) de matrices cuadradas de tama
no n el producto
Mnn (K) Mnn (K) Mnn (K)
(A, B)
7
AB
es una operacion interna. Pues bien, ni a
un en este caso el producto es
conmutativo.
4. Si un producto de matrices AB es igual a la matriz nula, no tiene por
que ocurrir que A o B sean iguales a la matriz nula; por ejemplo,
0 0
0 0
1 0
.
=
0 0
1 0
0 0
34
Definici
on 3.1.6 Sean A, B Mnn (K). Si AB = BA, se dice que A y B
conmutan o que son permutables.
Propiedades 3.1.1 Sean A, B, C Mnn (K) y K. Se verifica que:
1. A(BC) = (AB)C.
2. Existe una matriz, llamada matriz identidad de tama
no n y definida
por
I = In =
1
1
...
1
Mnn (K)
tal que IA = AI = A.
3. A(B + C) = AB + AC y (A + B)C = AC + BC.
4. (AB) = (A)B = A(B).
3.2
Definici
on 3.2.1 Una matriz de tama
no 1 n se llama matriz fila.
Definici
on 3.2.2 Una matriz de tama
no n 1 se llama matriz columna o
vector.
Definici
on 3.2.3 Sea A = (ij ) Mnn (K) una matriz cuadrada. Se llama
diagonal principal de A al conjunto {11 , 22 , . . . , nn }.
Definici
on 3.2.4 Una matriz cuadrada A = (ij ) Mnn (K) se dice diagonal si todos los coeficientes que no est
an en la diagonal principal son iguales
a cero, es decir, si ij = 0 cuando i 6= j. Si A = (ij ) Mnn (K) es
diagonal, se escribira
A = diag(11 , 22 , . . . , nn ).
Definici
on 3.2.5 Una matriz cuadrada A Mnn (K) se dice una matriz
escalar si es una matriz diagonal con todos los coeficientes de la diagonal
principal iguales, es decir, si es de la forma A = I para alg
un K.
35
Definici
on 3.2.6 Una matriz cuadrada A = (ij ) Mnn (K) se dice triangular superior si ij = 0 cuando i > j y se dice triangular inferior si ij = 0
cuando i < j.
Definici
on 3.2.7 Sea A = (ij ) Mmn (K). Se llama matriz traspuesta
de A, y se denotar
a por At , a la matriz At = (ij ) Mnm (K) definida por
ij = ji , i = 1, 2, . . . , n , j = 1, 2, . . . , m,
es decir, a la matriz que se obtiene de A convirtiendo sus filas en columnas
sin alterar su orden.
Propiedades 3.2.1 Se verifica que:
1. Si A, B Mmn (K), entonces (A + B)t = At + B t .
2. Si un producto de matrices AB tiene sentido, entonces (AB)t = B t At .
Definici
on 3.2.8 Sea A = (ij ) Mmn (K). Se llama matriz adjunta de
A, y se denotar
a por A , a la matriz A = (ij ) Mnm (K) definida por
ij = ji , i = 1, 2, . . . , n , j = 1, 2, . . . , m,
es decir, es la matriz obtenida de A haciendo su traspuesta y conjugando
todos los coeficientes.
Propiedades 3.2.2 Se verifica que:
1. Si A, B Mmn (K), entonces (A + B) = A + B .
2. Si un producto de matrices AB tiene sentido, entonces (AB) = B A .
Definici
on 3.2.9 Sea A Mnn (K). Se define la matriz inversa de A, si
existe, como una matriz A1 Mnn (K) verificando que AA1 = A1 A = I.
Una matriz cuadrada que admita matriz inversa se dir
a inversible, regular o
no singular.
Propiedades 3.2.3 Se verifica que:
1. Si una matriz es inversible, su inversa es u
nica.
2. La inversa de un producto de matrices inversibles es el producto de
inversas en orden cambiado, es decir, (AB)1 = B 1 A1 cuando A,
B Mnn (K) son inversibles.
36
Definici
on 3.2.10 Una matriz A = (ij ) Mnn (R) se dice simetrica si
t
A = A , es decir, si
ij = ji , i, j = 1, 2, . . . , n.
Definici
on 3.2.11 Una matriz A = (ij ) Mnn (R) se dice antisimetrica
si A = At , es decir, si
ij = ji , i, j = 1, 2, . . . , n.
Observaci
on 3.2.1 Observese que los coeficientes de la diagonal principal
de una matriz antisimetrica son todos nulos.
Definici
on 3.2.12 Una matriz A = (ij ) Mnn (K) se dice hermitiana si
A = A , es decir, si
ij = ji , i, j = 1, 2, . . . , n.
Observaci
on 3.2.2 Observese que los coeficientes de la diagonal principal
de una matriz hermitiana son todos n
umeros reales.
Definici
on 3.2.13 Sea A Mnn (R) una matriz simetrica. Se dice que A
es
definida positiva
semidefinida positiva
definida negativa
semidefinida negativa
x Ax > 0,
x Ax 0,
x Ax < 0,
x Ax 0,
para todo x Rn , x 6= 0
para todo x Rn
para todo x Rn , x =
6 0
n
para todo x R
Definici
on 3.2.14 Sea A Mnn (C) una matriz hermitiana. Se dice que
A es
definida positiva
semidefinida positiva
definida negativa
semidefinida negativa
x Ax > 0,
x Ax 0,
x Ax < 0,
x Ax 0,
para todo x Cn , x 6= 0
para todo x Cn
para todo x Cn , x =
6 0
n
para todo x C
37
3.3. TRAZA
Definici
on 3.2.15 Una matriz A Mnn (R) se dice ortogonal si At A =
AAt = I, es decir, si A1 = At .
Ejemplo:
Para R, la matriz
A=
cos() sen()
sen() cos()
es ortogonal.
Definici
on 3.2.16 Una matriz A Mnn (K) se dice unitaria si A A =
AA = I, es decir, si A1 = A .
Definici
on 3.2.17 Una matriz A Mnn (K) se dice normal si A A =
AA .
Observaci
on 3.2.3 Toda matriz unitaria, ortogonal, simetrica, antisimetrica
o hermitiana es normal.
Definici
on 3.2.18 Una matriz A Mnn (K) se dice nilpotente si existe
p N tal que Ap = AA .p). . A = 0.
3.3
Traza
Definici
on 3.3.1 Sea A = (ij ) Mnn (K). Se llama traza de A a la
suma de los coeficientes de la diagonal principal de A, es decir,
traza(A) = 11 + 22 + + nn .
Propiedades 3.3.1 Sean A, B Mnn (K) y K. Entonces
1. traza(A + B) = traza(A) + traza(B).
2. traza(A) = traza(A).
3. traza(AB) = traza(BA).
38
3.4
Submatrices
Definici
on 3.4.1 Sea A = (ij ) Mmn (K). Una submatriz de A de
tama
no p q es una matriz de la forma
i1 j1 i1 j2 . . . i1 jq
i j i j . . . i j
2 2
2 q
21
..
.. Mpq (K),
..
.
.
.
ip j1 ip j2 . . . ip jq
donde 1 i1 < i2 < < ip m y 1 j1 < j2 < < jq n.
Ejemplo:
Dada la matriz
1
0 1 2 3
1
1
2
3
4
M45 (R)
A=
0
2
4
6
8
1 1 0 1 1
1 0
1 1
1 1 3
0 4
8
2 4
, 4 8
0 1
1 2 4
8
6
, 2 6 8
1 1
1 0 1
no lo son.
Definici
on 3.4.2 Sea A = (ij ) Mnn (K). Las n submatrices principales
de A son las n matrices de la forma
11 12 . . . 1k
21 22 . . . 2k
..
..
.. Mkk (K),
.
.
.
k1 k2 . . . kk
con k = 1, 2, . . . , n.
39
3.5
m1
A11 A12 . . . A1q
A21 A22 . . . A2q m2
A = ..
..
..
..
.
.
.
.
mp
Ap1 Ap2 . . . Apq
n1 n2 . . . nq
m1
B11 B12 . . . B1q
B21 B22 . . . B2q m2
B = (BIJ ) = ..
..
..
..
.
.
.
.
mp
Bp1 Bp2 . . . Bpq
n1 n2 . . . n q
C11 C12 . . .
C21 C22 . . .
C = (CIJ ) = ..
..
.
.
Cp1 Cp2 . . .
n1 n2 . . . n q
m1
m2
..
.
mp
40
con CIJ = AIJ + BIJ . Diremos en ese caso que la suma de las matrices A y
B se ha efectuado por bloques.
El producto por bloques es mas complicado.
Supongamos que A Mmr (K) y B Mrn (K), de tal modo que
C = AB Mmn (K). Si para A y B consideramos descomposiciones por
bloques de la forma
A = ..
..
..
..
.
.
.
.
Ap1 Ap2 . . . Apq
mp
r1 r2 . . . r q
B=
r1
r2
..
.
rq
m1
C11 C12 . . . C1t
C21 C22 . . . C2t m2
C = ..
..
..
..
.
.
.
.
mp
Cp1 Cp2 . . . Cpt
n1 n2 . . . nt
m1
A11 A12 . . . A1q
A21 A22 . . . A2q m2
A = ..
..
..
..
.
.
.
.
mp
Ap1 Ap2 . . . Apq
n1 n2 . . . nq
41
v1
n1
v 2 n2
v = ..
..
.
.
vq
nq
w1
w2
w = ..
.
wp
la forma
m1
m2
..
.
mp
11 12 . . . 1k
21 22 . . . 2k
Ak = ..
..
.. Mkk (C),
.
.
.
k1 k2 . . . kk
1
2
42
x =
x
0
x A
x=
Ak
x
0
= x Ak x,
y como x A
x > 0 por ser A definida positiva, se concluye que x Ak x > 0.
Ejemplo:
Sea
A=
A1 A2
A3 A4
M2n2n (R)
=
=
=
=
A3
A4
A1
A2
43
3.6. RANGO
0 I
I 0
3.6
Rango
Definici
on 3.6.1 Se llama rango de un sistema de vectores S en un Kespacio vectorial V al mayor n
umero de vectores linealmente independientes
que se pueden obtener en S; equivalentemente
rango(S) = dim(hSi).
Sea A Mmn (K).
Definici
on 3.6.2 Si se considera cada columna de A como un vector de Km ,
se llama rango de A al rango del sistema de n vectores de Km que constituyen
las columnas de A.
Observaci
on 3.6.1 Denotemos por F1 , F2 , . . . , Fm a las m filas de A. El
rango de A coincide con el rango del sistema de m vectores de Kn dado por
{F1t , F2t , . . . , Fmt }.
Observaci
on 3.6.2 Se verifica que rango(A) = 0 A = 0.
44
Proposici
on 3.6.1 Una matriz cuadrada A Mnn (K) tiene rango uno si
y s
olo si existen x, y Kn , x 6= 0, y 6= 0, tales que A = xy t .
Demostraci
on:
Si rango(A) = 1, todas las columnas de A son combinacion lineal,
es decir, m
ultiplos, de un vector no nulo x Kn . As, existen escalares 1 ,
2 , . . . , n K (no todos nulos pues sino A = 0) tales que 1 x, 2 x, . . . , n x
son las columnas de A, hecho que denotaremos por
A = (1 x|2 x| . . . |n x).
Si ponemos
x=
y tomamos
y=
se tiene que
xy t =
1
2
..
.
n
1
2
..
.
n
1
2
..
.
n
Kn
Kn
1 2 . . . n
1 1 1 2 . . . 1 n
2 1 2 2 . . . 2 n
..
..
.. = (1 x|2 x| . . . |n x) = A.
.
.
.
n 1 n 2 . . . n n
Si ponemos
entonces
y=
1
2
..
.
n
Kn
A = xy t = (1 x|2 x| . . . |n x),
45
3.6. RANGO
y como x 6= 0 e y 6= 0, se tiene que rango(A) = 1.
Observaci
on 3.6.3 rango(A) = rango(At ).
Proposici
on 3.6.2 Sean P Mmm (K) y Q Mnn (K) inversibles. Entonces
rango(P A) = rango(A) = rango(AQ).
Demostraci
on:
Supongamos que rango(A) = r. Denotemos por C1 , C2 , . . . , Cn Km a
las columnas de A. Supongamos, por comodidad, que {C1 , C2 , . . . , Cr } es
libre (y por tanto, para todo j {r + 1, r + 2, . . . , n} el sistema de vectores
{C1 , C2 , . . . , Cr , Cj } es ligado). Las columnas de la matriz producto P A son
P C1 , P C 2 , . . . , P C n .
Se tiene entonces que {P C1 , P C2 , . . . , P Cr } es libre pues
1 P C1 + 2 P C2 + + r P Cr = 0
P (1 C1 + 2 C2 + + r Cr ) = 0
P 1 P (1 C1 + 2 C2 + + r Cr ) = 0
1 C1 + 2 C2 + + r Cr = 0
1 = 2 = = r = 0.
Ademas, para j {r + 1, r + 2, . . . , n} resulta que el sistema de vectores
{P C1 , P C2 , . . . , P Cr , P Cj } es ligado ya que si Cj = 1 C1 + 2 C2 + + r Cr ,
entonces
P Cj = P (1 C1 + 2 C2 + + r Cr ) =
= 1 P C1 + 2 P C2 + + r P Cr .
As, rango(P A) = r.
Por otra parte, como Qt tambien es inversible,
rango(AQ) = rango(AQ)t = rango(Qt At ) = rango(At ) = rango(A).
46
3.7
Determinantes
47
3.7. DETERMINANTES
0 1 1 2
1 1 0 2
M44 (R).
A=
1 1
0 1
2 2 3
0
Observaci
on 3.7.2 det(A) = det(At ).
Propiedades 3.7.1 Se verifica que
1. Si todos los elementos de una fila o una columna de la matriz son cero,
su determinante vale cero.
2. Si multiplicamos por un escalar todos los coeficientes de una fila o una
columna de la matriz, el valor del determinante queda multiplicado por
el escalar.
3. Si K, entonces
det(A) = n det(A).
48
A=
+ 1
2
3
1
+ 2
3
1
2
+ 3
..
..
..
.
.
.
1
2
3
...
...
...
...
n
n
n
..
.
. . . + n
Mnn (K).
obtenemos que
...
n
...
n
...
n
..
...
.
. . . + n
resulta que
n
0
0 =
..
.
2) Sea
1 +
1 1 +
1 1 + . .
A=
...
...
...
...
1 +
1 1 +
Mnn (K).
49
3.7. DETERMINANTES
1+
1
1+
..
.
..
..
..
..
1+
1
1 + (n1)(n1)
1
1 +
.
1 1 + . .
1+2
+(1) ()
..
..
..
.
.
.
.
. . 1 +
1 1 +
(n1)(n1)
1
1 +
.
1 1 + . .
= (1 + )Dn1 +
..
..
..
.
.
.
..
. 1 +
1 1 +
(n1)(n1)
(n2)(n2)
50
= (1 + )Dn1 Dn2 .
Aqu, los subndices de la parte inferior derecha de los determinantes
indican el tama
no de las matrices.
La matriz A se dice una matriz tridiagonal y en el calculo de determinantes de este tipo de matrices, la formula
Dn = (1 + )Dn1 Dn2
se llama formula de recurrencia.
Se tiene ademas que
D1 = det(1 + ) = 1 + ,
1 +
D2 =
1 1 +
= (1 + )2 = 1 + + 2 ,
D3 = (1 + )D2 D1 = (1 + )(1 + + 2 ) (1 + ) =
1 + + 2 + 3 .
Entonces
Dn = (1 + )Dn1 Dn2 =
= (1 + )(1 + + 2 + + n1 ) (1 + + 2 + + n2 ) =
= 1 + + 2 + + n1 + + 2 + 3 + + n1 + n
2 n1 =
= 1 + + 2 + + n ,
lo que demuestra el resultado.
51
3.8
Matrices elementales
Definici
on 3.8.1 Se llaman operaciones elementales en las filas (columnas)
de una matriz a cualquiera de las operaciones siguientes:
intercambiar dos filas (columnas)
multiplicar una fila (columna) por un escalar no nulo
sumar a una fila (columna) un m
ultiplo de otra fila (columna)
Definici
on 3.8.2 Se llaman matrices elementales a las resultantes de efectuar operaciones elementales en las filas de la matriz identidad, y son, por
tanto, de tres tipos:
Vpq Mnn (K) consiste en intercambiar las filas p y q de la matriz
identidad,
Vpq
...
1
0 ... ... ...
..
. 1
..
...
.
..
.
1
1 ... ... ...
1
..
.
..
.
..
.
0
1
...
1
Vp () =
...
1
1
...
1
52
Vpq () =
1
...
1 ...
. . . ..
.
1
...
1
Observaci
on 3.8.1 Cada operacion elemental en las filas (columnas) de una
matriz se realiza multiplicando la matriz por la izquierda (derecha) por la
correspondiente matriz elemental.
Observaci
on 3.8.2 De la observacion 3.8.1 se deduce que los tres tipos de
matrices elementales son inversibles, siendo
1
Vpq1 = Vpq , Vp ()1 = Vp ( ), Vpq ()1 = Vpq ().
53
y se realizan operaciones elementales en las filas y las columnas de este esquema hasta llegar a otro esquema de la forma
Q
Ir 0
0 0
Ejemplo:
De ahora en adelante, cuando deseemos indicar las operaciones elementales que se realizan en un determinado proceso, utilizaremos como notacion Fi
y Cj para referirnos, respectivamente, a las filas y las columnas de la matriz.
Sea
1 1 2 3
A = 0 2 2 1 M34 (R)
1 1 4 4
El proceso descrito en la observacion 3.8.3 se realiza como sigue:
1
0
0
0
1
0
0
1
0
0
0
1
0
1
0
1
0
0
1
2
1
0
1
0
0
1
2
0
0
0
1
0
2
2
0
1
0
0
0
1
0
0
0
1
0
0
1
2
0
1
0
0
0
1
0
0
1
1
0
0
0
2
0
2
0
1
0
0
2
0
2
0
1
0
0
2
0
0
0
1
0
2
2
4
0
0
0
1
3
1
0
3
0
0
1
0
1
0
7/2
1/2
0
1
0
0
0
0
0
0
1
3
1
4
F3 F1
1
0
0
0
1
0
0
0
1
C4 3C1
1
0
1
0
1
1
0
0
1
C2 +C1
1
0
1
0
1
1
0
0
1
C3 C2
1
0
1
0
1
1
0
0
1
1
0
0
0
1
0
0
0
1
0
0
1
2
2
0
0
1
0
2
2
2
0
0
0
1
3
1
1
1
0
0
0
1
0
0
0
1
0
0
1
2
0
0
0
1
0
2
2
0
3
0
0
1
0
1
0
1
1
0
0
0
2
0
2
0
1
0
0
2
0
1
0
0
0
1
0
0
1
0
0
0
1
0
0
1
1
0
0
0
2
0
3
1
1
0
0
0
0
F3 F2
1
0
1
3
0
0
1
0
1
0
7/2
1/2
0
1
0
0
0
0
1
0
0
0
1
C3 2C1
1
0
1
0
1
1
0
0
1
C4 1
C
2 2
1
0
1
0
1
1
0
0
1
1C
2
1
0
1
0
1
1
0
0
1
54
1
0
0
0
1
0
0
1/2
1/2
0
0
0
1
0
3
1
1
0
0
0
0
7/2
1/2
0
1
0
0
0
1
0
1
0
1
1
0
0
1
1 1/2 3 7/2
1
0 0
0 1/2 1 1/2
0
1 0 Q=
P =
0 0
1
0
1 1 1
0 0
0
1
1 0 0 0
P AQ = 0 1 0 0 .
0 0 0 0
Definici
on 3.8.3 Sean A, B Mmn (K). Se dice que A y B son equivalentes si existen P Mnn (K) y Q Mmm (K) inversibles tales que
B = QAP .
Notemos
anterior, como P y Q son inversibles, se tiene
que, en el ejemplo
1 0 0 0
que A y 0 1 0 0 son equivalentes. De hecho, se tiene:
0 0 0 0
Proposici
on 3.8.1 Sean A, B Mmn (K). Entonces rango(A) = rango(B)
si y s
olo si A y B son equivalentes.
Teorema 3.8.1 Una matriz cuadrada A Mnn (K) es inversible si y s
olo
si rango(A) = n.
Demostraci
on:
Si existe A1 , entonces A1 A = I, o bien, A1 AI = I con A1 e I
inversibles; luego, A e I son equivalentes y
rango(A) = rango(I) = n.
Si rango(A) = n, entonces A es equivalente a I y existen matrices inversibles P , Q Mnn (K) tales que P AQ = I. Multiplicando esta
igualdad por la izquierda por P 1 y por la derecha por Q1 llegamos a que
A = P 1 Q1 = (QP )1
y A1 = QP .
3.9. METODO
DE GAUSS
3.9
55
M
etodo de Gauss
Dada una matriz A Mnn (K), se trata de encontrar una matriz inversible
M Mnn (K) tal que M A sea triangular superior. Para ello, se realizan
operaciones elementales en las filas de la matriz A, tal y como se indica a
continuacion.
El metodo de Gauss se realiza en n 1 etapas. En la etapa k-esima se
hacen ceros por debajo de la diagonal principal en la columna k-esima.
La explicacion de la etapa k-esima es la siguiente: la matriz de entrada
en la etapa k-esima es de la forma
11 . . . 1 k1
1k
..
..
...
.
.
k1 k1 k1 k
kk
k+1 k
..
.
nk
...
...
...
...
...
1n
..
.
k1 n
kn
k+1 n
..
.
nn
.
.
k1 k1 k1 k
kk
k+1 k
..
.
nk
...
...
...
...
...
1n
..
.
k1 n
kn
k+1 n
..
.
nn
56
2 1 1
A= 2 1 3
1 3 1
se realiza
2
2
1
como sigue
2
1
1
2
1
1
1 1
1
F2 F1 , F3 + 2 F2
F2 y F3
0 7 3
0 0 2 intercambio
1 3
2
2
3
7
0 2 2
0 0 2
3 1
I si kk 6= 0
Pk =
kj
con j > k y jk 6= 0
La matriz de entrada en el paso II es ahora
ik
) i = k + 1, k + 2, . . . , n.
kk
...
k+1 k
kk 1
=
k+2 k
kk
1
..
.
.
.
.
Ek = Vnk (
nk
kk
3.9. METODO
DE GAUSS
57
det(Pk ) =
1 si Pk = I
1 si Pk = Vkj
1
.
det(A)
58
1 0 1
A = 1 1 1 M33 (R),
2 0 1
1 0 1 1 0 0
F2 F1 ; F3 2F1
(A|I) = 1 1 1 0 1 0
2 0 1 0 0 1
1 0 1 1 0 0
1 +F3
0 1 0 1 1 0 F
0 0
1 2 0 1
1 0 0 1 0 1
F2
0 1 0 1 1 0
0 0 1 2 0 1
3.10. NUCLEO
E IMAGEN
59
1 0 0 1 0 1
0 1 0 1 1 0 = (I|A1 ),
0 0 1 2 0 1
y as,
A1
3.10
1 0 1
= 1 1 0 M33 (R).
2 0 1
N
ucleo e imagen
Si x =
1
2
..
.
n
Kn , entonces Ax es el vector
Ax =
11 1 + 12 2 + + 1n n
21 1 + 22 2 + + 2n n
..
.
m1 1 + m2 2 + + mn n
Km .
Observaci
on 3.10.1 La aplicacion A : x Kn Ax Km es una aplicacion lineal, pues verifica que
A(x + y) = Ax + Ay y A(x) = Ax
para x, y Kn y K.
De acuerdo con la definicion 2.8.2 se tiene:
Definici
on 3.10.1 Se definen el n
ucleo y la imagen de la matriz A como
ker(A) = {x Kn ; Ax = 0} Kn ,
Im(A) = {Ax Km ; x Kn } Km ,
respectivamente.
60
Proposici
on 3.10.1 ker(A) es un subespacio de Kn e Im(A) es un subespacio de Km .
Demostraci
on:
Es consecuencia de la proposicion 2.8.1
3.10. NUCLEO
E IMAGEN
61
con 1 , 2 , . . . , r K. En consecuencia,
1 a1 + 2 a2 + + r ar r+1 vr+1 r+2 vr+2 n vn = 0
y como BKn es base de Kn y por tanto es libre, todos los escalares que aparecen
en la expresion anterior son nulos. En particular
r+1 = r+2 = = n = 0
y BIm(A) es libre.
1
2
x = .. = 1 e1 + 2 e2 + + n en Kn
.
n
(aqu, 1 , 2 , . . . , n K son las coordenadas de x en la base canonica de Kn ),
entonces
Ax = 1 Ae1 + 2 Ae2 + + n Aen h{Ae1 , Ae2 , . . . , Aen }i.
De este modo, las columnas de A son un sistema de generadores de Im(A)
y se tiene:
Proposici
on 3.10.2 dim(Im(A)) = rango(A).
62
1 1 1
2 2 2
A=
0 1 0 M43 (R).
1 1 1
1 2 + 3
1
21 + 22 + 23
x = 2 R3 Ax =
2
3
1 + 2 + 3
R4 .
3.10. NUCLEO
E IMAGEN
63
y, como Im(A) esta engendrado por el sistema de vectores que forman las
columnas de A, por lo dicho antes una base de Im(A) es
1
1
2 2
BIm(A) = {
0 , 1 }.
1
1
Como dim(ker(A)) + dim(Im(A)) = dim(R3 ) = 3, resulta que
dim(ker(A)) = 1.
Ademas,
1
ker(A) = { 2 R3 ;
3
1 2 + 3
21 + 22 + 23
2
1 + 2 + 3
=
=
=
=
0
0
}
0
0
1
= { 0 }.
1
64
Captulo 4
Sistemas de ecuaciones lineales
4.1
Definici
on 4.1.1 Un sistema de ecuaciones lineales (abreviadamente, un
SEL) es un conjunto de m ecuaciones con n inc
ognitas de la forma
11 1 + 12 2 +
21 1 + 22 2 +
... ... ... ...
m1 1 + m2 2 +
. . . + 1n n =
. . . + 2n n =
... ...
...
...
. . . + mn n =
1
2
...
m
. . . + 1n n =
. . . + 2n n =
... ...
...
...
. . . + mn n =
1
2
...
m
66
donde
A = (ij ) =
x=
1
2
..
.
n
11
21
..
.
12
22
..
.
. . . 1n
. . . 2n
..
.
Mmn (K),
m1 m2 . . . mn
1
2
b = ..
Kn ,
.
Km .
Definici
on 4.1.3 La matriz A de la observacion 4.1.1 se llama matriz del
SEL; el vector b se llama vector de los terminos independientes y el vector x
se llama solucion del SEL.
Definici
on 4.1.4 Con las
la matriz
11 12
21 22
..
..
.
.
m1 m2
. . . 1n 1
. . . 2n 2
..
.. Mm(n+1) (K),
.
.
. . . mn m
que se denotar
a (A|b), es la matriz ampliada del SEL Ax = b.
4.2
Resoluci
on de un sistema de ecuaciones
lineales
1
1
2
2
68
Definici
on 4.2.3 Dos SEL de m ecuaciones y n inc
ognitas se dicen equivalentes si tienen la misma solucion general.
Cuando el n
umero de ecuaciones de un SEL coincide con el n
umero de
incognitas se tiene lo siguiente:
Teorema 4.2.2 (Teorema de la alternativa) Dado el SEL Ax = b, con
A Mnn (K), x, b Kn , se verifica una de las dos alternativas siguientes,
mutuamente excluyentes:
i) Ax = b tiene solucion u
nica para cualquier b Kn (en ese caso se tiene
que Ax = 0 x = 0).
ii) Ax = 0 tiene soluciones no nulas (en ese caso, si Ax = b tiene solucion,
esta no es u
nica).
Demostraci
on:
Existen dos alternativas para rango(A):
i) Si rango(A) = n, entonces A es inversible y
Ax = b x = A1 b
(es decir, x = A1 b es la solucion u
nica de Ax = b).
ii) Si rango(A) < n, entonces
dim(ker(A)) = n rango(A) > 0,
con lo cual, ker(A) 6= {0} y el SEL homogeneo Ax = 0 tiene soluciones
no nulas.
Para resolver un SEL Ax = b utilizaremos el metodo de Gauss, que se
basa en que realizar operaciones elementales en las filas de la matriz ampliada
b) Mm(n+1) (K),
del SEL no altera su solucion general. Es decir, si (A|
con A Mmn (K) y b Km , es una matriz obtenida de (A|b) mediante
= b
operaciones elementales en sus filas, entonces el SEL Ax = b y el SEL Ax
son equivalentes.
Ejemplo:
Vamos a discutir y a resolver el SEL
1 + 2 + 3 = 2
1 + 2 + 3 = 2
1 + 2 + 23 = 2
1 1 1 2
(A|b) = 1 1 2 M34 (R).
1 1 2 2
Si a las filas segunda y tercera le restamos la primera fila, obtenemos la
matriz
1
1
1 2
0 1 0 0 ,
0
0
1 0
que nos da las nuevas ecuaciones
1 +
2
+ 3 = 2
( 1)2
= 0
3 = 0
2
1
2 = 0 .
0
3
Si = 1, el SEL resultante se reduce a
1 + 2 = 2
3 = 0
que es compatible indeterminado. Una solucion particular del SEL es
2
1
2 = 0 ,
3
0
mientras que la solucion general del SEL homogeneo asociado es
1
h{ 1 }i.
0
As, la solucion general del SEL, cuando = 1, es
2+
1
2
0 + h{ 1 }i = { ; R}.
0
0
0
70
4.3
Factorizaciones LU y de Cholesky
11
21
..
.
k1
Mkk (K),
11 . . . 1 k1
1k
..
..
...
.
.
k1 k1 k1 k
kk
Ak =
k+1 k
..
.
nk
...
...
...
...
...
1n
..
.
k1 n
kn Mnn (K)
k+1 n
..
.
nn
71
Ak =
A11 A12
A21 A22
k
donde
A11
A11
nk
nk
k
nk
11 12 . . . 1k
21 22 . . . 2k
..
..
..
.
.
.
k1 k2 . . . kk
11 . . . 1 k1
1k
.
..
.
..
..
.
=
k1 k1 k1 k
kk
nk
72
3
0 2 1
3 2
4 3
M44 (R),
A=
3
0 1 7
6 2 5 12
73
|3| = 3 6= 0 ,
3 0 2
3 2 4
3 0 1
= 6 6= 0 ,
|A| = 12 6= 0,
3
0 2 1 1 0
3 2
4 3 0 1
(A|I) =
3
0 1 7 0 0
6 2 5 12 0 0
0
0
1
0
0
0
0
1
(A|I)
F2 +F1 F3 F1 F4 2F1
3 0
0 2
F4 +F2
0 0
0 0
3 0 2
2
F4 F3 0 2
0 0 1
0 0 0
de modo que
3
0
U =
0
0
Para calcular L = M 1
1
1
(M |I) =
1
0
1 0
3 0 2 1
0 2
2
2
1 1
0 0
1
6 1 0
0 2 1 10 2 0
1 0
2 1
2 2 1 1
1
6 1 0
1
8 1 1
1 0 0
1
2 1 1 0
6 1 0 1
0 1 1
2
0
0
1
0
0
0
0
1
0 0
0 0
1 0
0 1
0
0
= (U |M ),
0
1
0 2 1
2 2 2
M44 (R).
0 1
6
0 0
2
hacemos:
0 0
1 0
0 1
1 1
0
0
0
1
1
0
0
0
0
1
0
0
0
0
1
0
0
0
1 F3 +F1
F2 F
0
1
74
1
0
0
0
1
0
0
0
0 0
1 0
0 1
1 1
0 0
1 0
0 1
0 1
resultando
1 0
0 1
0 0
0 0
L = M 1
0
0
1
0
0
0
4 F2
F
0
1
0 0
0 0
4 +F3
F
1 0
0 1
0
0
= (I|M 1 ),
0
1
0 1 0 0
0 1 1 0
0 1 0 1
1 0 0 0
0 1
0
0 1 1
0 1
0
1 1 1
0 1
0
0 1 1
0 1
0
1 2 1
0
0
1
1
0
0
1
1
1
0
1 1
=
1
0
2 1
0
0
M44 (R).
0
1
Observaci
on 4.3.2 Si A Mnn (K) admite factorizacion LU , su factorizacion LU se puede aplicar tanto a la resolucion de un SEL Ax = b, con x,
b Kn , como al calculo de A1 , pues
para obtener x Kn tal que Ax = b basta resolver sucesivamente los
SEL, con matrices triangulares,
Ly = b y U x = y,
con y Kn .
A1 = (LU )1 = U 1 L1 = U 1 M .
Observaci
on 4.3.3 Sea A Mnn (K) una matriz que admita factorizacion
LU . Los coeficientes de las matrices L y U se pueden calcular tambien
directamente siguiendo el orden que indicamos a continuacion:
coeficientes de la primera fila de U ,
coeficientes de la primera columna de L,
coeficientes de la segunda fila de U ,
75
3
0 2 1
3 2
4 3
M44 (R).
A=
3
0 1 7
6 2 5 12
Para calcular la
1
21
L=
31
41
factorizacion LU de A pongamos
11 12 13
0
0 0
0 22 23
1
0 0
, U =
0
32 1 0
0 33
42 43 1
0
0
0
14
24
.
34
44
3
3
= 1,
=
11
3
3 = 31 11 31 =
3
3
= = 1,
11
3
6 = 41 11 41 =
6
6
= = 2,
11
3
76
(1) 0
31 12
=
= 0,
22
2
2 41 12
2 2 0
=
= 1,
22
2
5 41 13 42 23
=
33
5 2 (2) (1) 2
= 1,
1
vii) coeficientes de la cuarta fila de U :
12 = 41 14 + 42 24 + 43 34 + 44
44 = 1241 14 42 24 43 34 = 1221(1)(2)16 = 2.
De este modo resultan
1
0
1 1
L=
1
0
2 1
0
0
1
1
0
0
,
0
1
3
0
U =
0
0
0 2 1
2 2 2
,
0 1
6
0 0
2
como ya sabamos.
Ejercicio: Averiguar si el SEL
1
i1 2 +
23
1
+
23
21 + 2 + (1 2i)3
+ 4
i4
+ 4
+ 4
=
=
=
=
i
i
i
i
77
A11 A12
A21 A22
k
nk
k
nk
con
de A,
A11 =
U=
11 12 . . . 1k
21 22 . . . 2k
..
..
..
.
.
.
k1 k2 . . . kk
U11 U12
U21 U22
k
nk
k
nk
con
U11
11 12 . . . 1k
22 . . . 2k
=
. . . ..
.
kk
78
de U , y
L=
L11 L12
L21 L22
k
nk
k
nk
1
1
1
, ,...,
) Mnn (R).
11
22
nn
79
1 2 3
A = 2 20 18 M33 (R),
3 18 19
80
Por tanto, A admite factorizacion de Cholesky. Para calcularla, obtenemos en primer lugar la factorizacion LU de A, que es
1 2 3
1 0 0
L = 2 1 0 , U = 0 16 12 .
0 0 1
3 43 1
Si ahora ponemos
D = diag( 1, 16, 1) = diag(1, 4, 1),
entonces A = BB t siendo
1 0 0
B = LD = 2 4 0 .
3 3 1
4.4
M
etodos iterativos
4.4. METODOS
ITERATIVOS
81
i) Existe (I B)1 ,
ii) (I B)x = c Ax = b,
es decir, tales que la matriz I B sea inversible y que el SEL (I B)x = c
tenga la misma solucion que el SEL Ax = b. Se tendra as que x = Bx + c,
que es lo que sugiere el metodo iterativo lineal anteriormente descrito. Dicho
metodo sera convergente si
lim xk = x
n
M x+1 = N xk + b,
k 0.
M
etodo de Jacobi:
Sean, en todo lo que resta de seccion, A = (ij ) Mnn (R) una matriz
con ii 6= 0 para cualquier i = 1, 2, . . . , n, y D, E, F Mnn (R) definidas
por D = diag(11 , 22 , . . . , nn ),
...
...
E = . 21 .
...
..
..
n1 . . . n n1
0
..
.
..
.
0
,
F
=
0 12 . . . 1n
..
.. . .
. ...
.
.
..
...
n1 n
.
0 ...
0
0
82
ik+1
i1
n
X
X
1
k
ij j
j jk + bi , i = 1, 2, . . . , n, k = 0, 1, . . .
=
ii
j=1
j=i+1
M
etodo de Gauss-Seidel:
El metodo de Jacobi se puede mejorar utilizando las cantidades ya calculadas. Usando las notaciones anteriores, en el metodo de Gauss-Seidel,
para calcular el escalar ik+1 se utilizan los escalares jk+1 , j < i, ya calculados
previamente.
Las formulas
ik+1
i1
n
X
X
1
k+1
ij j
ij jk + bi ,
=
ii
j=1
j=i+1
i = 1, 2, . . . , n, k = 0, 1, . . .
4.4. METODOS
ITERATIVOS
83
D
E,
N =
1
D + F,
1
D
E
DF =
D D E + D F
D E (1 )D F
=
= DEF = A.
D
1
E xk+1 =
D + F xk + b, k 0.
y, multiplicando por ,
Dxk+1 = Dxk Dxk Exk+1 F xk + b .
De esta u
ltima expresion se deducen las formulas
i1
ik+1
= (1
)ik
X
X
ij jk+1
ij jk + bi ,
ii
j=1
j=1
para i = 1, 2, . . . , n, k = 0, 1, . . . .
84
B =
1 1
1
D
E
D + F = (D E)1 [(1 )D + F ],
y el vector c = M1 b es
1
D
E b.
Captulo 5
Autovalores y autovectores
5.1
Autovalores y autovectores
86
CAPITULO 5.
AUTOVALORES Y AUTOVECTORES
Definici
on 5.1.3 El conjunto de autovalores de A se llama espectro de A y
se denota por Sp(A).
Definici
on 5.1.4 El polinomio de grado n en la variable
pA () = det(A I)
se llama polinomio caracterstico de A; la ecuaci
on det(A I) = 0 se llama
ecuaci
on caracterstica de A.
Proposici
on 5.1.1 Los autovalores de A son las races de la ecuaci
on caracterstica pA () = det(A I) = 0.
Demostraci
on:
Si Sp(A), entonces existe x Cn , x 6= 0, tal que Ax = x, o bien, tal
que
(A I)x = 0.
As, x ker(AI), con lo cual, dim(ker(AI)) 1, rango(AI) < n
y det(A I) = 0.
Recprocamente, si C es tal que det(A I) = 0, entonces se tiene
que rango(A I) < n y dim(ker(A I)) 1. Por tanto, existe x Cn ,
x 6= 0, tal que
(A I)x = 0,
o sea, tal que Ax = x, y es un autovalor de A asociado al autovector x.
Ejemplo:
Sea
0 1 2
2 M33 (R).
A= 0 0
1 1
1
El polinomio caracterstico de A es
1 2
2
pA () = det(A I) = 0
1
1 1
= ()()(1 ) 2 2 + 2 = 3 + 2 2.
Como 1 es raz de pA () pues pA (1) = 0, dividimos pA () entre + 1
utilizando la regla de Ruffini. Se tiene
87
1 1 0 2
1
1 2 2
1 2 2 | 0
8
2
2i
2 + 2 2 = 0 =
=
=
2
2
1+i
se obtiene que los autovalores de A son
1, 1 i, 1 + i.
Observaci
on 5.1.3 El polinomio caracterstico de A es un polinomio de
grado n; por tanto, tiene a lo sumo n races distintas, o bien, tiene exactamente n races no necesariamente distintas. As, la matriz A Mnn (K)
tiene, a lo sumo, n autovalores distintos, o bien, tiene exactamente n autovalores, no necesariamente distintos.
Proposici
on 5.1.2 Sean 1 , 2 , . . . , n C los autovalores de A. Entonces
traza(A) = 1 + 2 + + n ,
det(A) = 1 2 . . . n .
Definici
on 5.1.5 Sean 1 , 2 , . . . , n C los autovalores de A. Se llama
radio espectral de A, y se denota (A), al modulo del autovalor de A de
mayor modulo, es decir
(A) = max |i |.
i=1,2,...,n
Observaci
on 5.1.4 De la proposicion 5.1.2 se sigue que
|traza(A)| n (A),
|det(A)| ((A))n .
Observaci
on 5.1.5 Si A es diagonal o triangular, los autovalores de A son
los elementos de la diagonal principal de A.
Proposici
on 5.1.3 Si A es inversible, todos sus autovalores son no nulos.
Adem
as,
1
Sp(A) Sp(A1 ).
CAPITULO 5.
88
AUTOVALORES Y AUTOVECTORES
Demostraci
on:
La primera afirmacion se sigue de que el determinante de A es el producto
de los autovalores de A. Ademas,
Sp(A) existe x Cn , x 6= 0, tal que Ax = x
existe x Cn , x 6= 0, tal que
1
1
x = A1 x Sp(A1 ).
5.2
Subespacio propio
89
0 1 2
2 M33 (R).
A= 0 0
1 1
1
Ya sabemos que
Sp(A) = {1, 1 i, 1 + i}
con
m.a.(1) = m.a.(1 i) = m.a.(1 + i) = 1,
y, por tanto, seg
un la observacion 5.2.2,
m.g.(1) = m.g.(1 i) = m.g.(1 + i) = 1.
Ademas,
E1
0
1 1 2
2 = h{ 2 }i.
= ker(A + I) = ker 0 1
1
1 1
2
1 + i
1
2
0
1 + i 2 =
= ker(A (1 i)I) = ker
1
1
i
1
{ 2 C3 ;
3
(1 + i)1
1
2
23 = 0
(1 + i)2 + 23 = 0 }.
+
2
+ i3 = 0
Ahora bien,
(1 + i)2 + 23 = 0 2 =
2 =
2
3
1 + i
2(1 i)
2(1 i)
3 =
3 = (1 + i)3 .
(1 + i)(1 i)
2
(1 + i)1 2 23 = 0
1
+ 2 + i3 = 0
i1 + (2 + i)3 = 0
CAPITULO 5.
90
1 =
AUTOVALORES Y AUTOVECTORES
(2 i)(i)
(2 i)
3 =
3 = (1 2i)3 ,
i
i(i)
1 2i
= h{ 1 + i }i.
1
Analogamente se ve que
E1+i
1 + 2i
= h{ 1 i }i.
1
Proposici
on 5.2.2 Sean 1 , 2 , . . . , r r autovalores distintos de A. Sean
x1 , x2 , . . . .xr Cn , x1 6= 0, x2 6= 0, . . . , xr 6= 0, tales que
Ax1 = 1 x1 , Ax2 = 2 xx , . . . , Axr = xr .
Entonces el sistema {x1 , x2 , . . . , xr } es libre.
Demostraci
on:
Haremos la demostracion por induccion en r. Si r = 1, el resultado es
cierto pues, como x1 6= 0, entonces {x1 } es libre.
Supongamos que el sistema {x1 , x2 , . . . , xr1 } es libre. Probaremos que
el sistema {x1 , x2 , . . . , xr1 , xr } es libre. Pongamos
1 x1 + 2 x2 + + r1 xr1 + r xr = 0.
Entonces
0 = (A r I)(1 x1 + 2 x2 + + r1 xr1 + r xr ) =
= 1 (A r I)x1 + 2 (A r I)x2 + + r1 (A r I)xr1 + r (A r I)xr ,
donde, para j = 1, 2, . . . , r 1, es
(A r I)xj = Axj r xj = j xj r xj = (j r )xj
y donde
(A r I)xr = Axr r xr = r xr r xr = 0.
Sustituyendo nos queda
0 = 1 (1 r )x1 + 2 (2 r )x2 + + r1 (r1 r )xr1 ,
91
CAPITULO 5.
92
AUTOVALORES Y AUTOVECTORES
Observaci
on 5.2.4 El recproco del resultado anterior no es, en general,
cierto. Por ejemplo, si
1 1
1 0
M22 (R),
, B=
I=
0 1
0 1
entonces = 1 es el u
nico autovalor, tanto de I como de B, con multiplicidad
algebraica igual a 2. Por tanto, el polinomio caracterstico, tanto de I como
de B, es
det(I I) = det(B I) = (1 )2 .
Sin embargo, I y B no son semejantes, pues para cualquier matriz inversible P M22 (R) se tiene que P 1 IP = I 6= B; en otras palabras, I y
B no son semejantes ya que I 6= B y la u
nica matriz semejante a la matriz
identidad es la propia matriz identidad.
5.3
Diagonalizaci
on por semejanza
POR SEMEJANZA
5.3. DIAGONALIZACION
93
0 1 2
2 M33 (R)
A= 0 0
1 1
1
1 + 2i
1 2i
0
{ 2 , 1 + i , 1 i }
1
1
1
es una base de C3 formada por autovectores de A.
CAPITULO 5.
94
Ejemplo:
Sea
AUTOVALORES Y AUTOVECTORES
2 0
0
0
0 1
1 1
A=
0 1 2 1 M44 (R).
0 0 1 2
El polinomio caracterstico de A es
2
0
0
0
0
1
1
1
pA () = det(A I) =
1 2 1
0
0
0
1 2
(2 )[(1 )(2 )2 1 (1 ) + 2 ] = (2 )3 (1 ).
As,
0 0
0
0
0 1 1 1
= 4 2 = 2 < m.a.(2)
y A no es diagonalizable.
Ejemplo:
Sea A = (ij ) Mnn (R) la matriz definida por
ij = 1
para cualesquiera i, j = 1, 2, . . . , n.
Vamos a calcular el polinomio caracterstico y los autovalores de A de dos
maneras diferentes:
1. Calculamos directamente det(A I). De hecho, si a la
columna le sumamos las demas queda
1
1
1
...
1
1
1
1
...
1
1
1
1
.
.
.
1
pA () = det(A I) =
..
..
..
..
.
..
.
.
.
.
1
1
1
... 1
primera
=
POR SEMEJANZA
5.3. DIAGONALIZACION
=
n
1
1
n 1
1
n
1
1
..
..
..
.
.
.
n
1
1
0
0
pA () = 0
..
..
..
.
.
.
0
0
0
de tal modo que
95
... 1
...
...
...
...
1
1
1
..
.
CAPITULO 5.
96
E0 = ker(A) = ker
1
1
1
..
.
1
1
1
..
.
AUTOVALORES Y AUTOVECTORES
1
1
1
..
.
...
...
...
...
1
1
1
..
.
1 1 1 ... 1
= h{
1n
1
1
1
1n
1
1
1
1n
..
..
..
.
.
.
1
1
1
1
1
0
0
..
.
0
1
0
1
0
..
.
1
1
1
..
.
...
...
...
...
1
0
0
..
.
1
1
..
.
,...,
0
0
1
... 1 n
= h{
i,
verifica que
P =
1
1
1 0
0 1
0
0
..
..
.
.
0
0
...
...
...
1
0
0
0
..
.
1
1
1
1
..
.
. . . 1 1
Mnn (R)
P 1 AP = D = diag(0, n1)
. . . , 0, n).
Sea A Mnn (K).
Definici
on 5.3.2 Sea p() = 0 + 1 + 2 2 + + k k un polinomio en la
variable , con 0 , 1 , 2 , . . . , k K. Se define la matriz p(A) Mnn (K)
como
p(A) = 0 I + 1 A + 2 A2 + + k Ak .
Se dice que A es raz del polinomio p si
p(A) = 0.
Teorema 5.3.3 (Teorema de Cayley-Hamilton) Toda matriz cuadrada
es raz de su polinomio caracterstico, es decir, si pA () = det(A I) es el
polinomio caracterstico de A, entonces
pA (A) = 0.
}i,
POR SEMEJANZA
5.3. DIAGONALIZACION
97
Ejemplo:
Sea A = (ij ) Mnn (R) la matriz dada por
ij = 1
para cualesquiera i, j = 1, 2, . . . , n. Se trata de calcular
An+1 nAn .
Ya sabamos que el polinomio caracterstico de A era
pA () = det(A I) = (n )()n1 .
Por el teorema de Cayley-Hamilton,
pA (A) = (nI A)(A)n1 = 0.
Ahora bien,
(nI A)(A)n1 = 0 (1)n1 (nI A)An1 = 0 (nI A)An1 = 0
nAn1 An = 0 An nAn1 = 0.
En consecuencia,
An+1 nAn = A(An nAn1 ) = 0.
98
CAPITULO 5.
AUTOVALORES Y AUTOVECTORES
Captulo 6
Espacios eucldeos
6.1
Producto escalar
es decir, si x = (
< x, y >=
< x, y >= y t x = xt y, x, y Rn ,
1
1
2
2
n
.. , y = .. ) R , entonces
.
.
n
n
1 2 . . . n
1
2
..
.
n
= 1 1 + 2 2 + + n n .
100
6.2
Producto hermtico
1
1
2
2
es decir, si x = ( .. , y = .. ) Cn , entonces
.
.
n
n
2
< x, y >= 1 2 . . . n .. = 1 1 + 2 2 + + n n .
.
n
101
6.3. NORMA
6.3
Norma
1
2
Si x = ( .. Rn , entonces
.
n
q
t
kxk = x x = 12 + 22 + + n2 ,
1
2
kxk = x x = |1 |2 + |2 |2 + + |n |2 .
La aplicacion norma
k k : x Kn kxk R
verifica las propiedades
kxk 0 y kxk = 0 x = 0
kxk = || kxk
kx + yk kxk + kyk (desigualdad de Minkowski)
para cualesquiera x, y Kn , K.
Definici
on 6.3.1 Un vector x Kn se dice unitario si kxk = 1.
Observaci
on 6.3.1 Sea x Kn , x 6= 0. Entonces los vectores
unitarios.
x
kxk
x
kxk
son
102
6.4
Ortogonalidad y ortonormalidad
Observaci
on 6.4.1 Sea S = {s1 , s2 , . . . , sp } un sistema ortogonal de vectores no nulos de Kn . Entonces el sistema { kss11 k , kss22 k , . . . , ksspp k } es ortonormal.
Teorema 6.4.1 (Proceso de ortonormalizaci
on de Gram-Schmidt)
Sea T = {v1 , v2 , . . . , vp } un sistema libre de vectores de Kn . Entonces existe
un sistema ortonormal S = {u1 , u2 , . . . , up } de vectores de Kn tal que
hSi = hT i.
Demostraci
on:
103
u2 =
u3 =
...
uk =
.........
...
< vp , uj > uj
up =
v1
kv1 k
h2
kh2 k
h3
kh3 k
hk
khk k
p1
hp = vp
X
j=1
hp
khp k
v1
kv1 k
= v1
0
0
h2
1
1
u2 = kh2 k =
h2 = v2 u1 =
0
0
0
0
h3
0 } u3 = kh3 k =
0
h3 = v3 u1 u2 =
1
1
0 }
1 , u3 =
0 , u2 =
S = {u1 =
1
0
0
es la base canonica de R3 .
104
105
Demostraci
on:
Haremos la demostracion solamente para el caso complejo, pues el caso
real se deduce de el.
Sea < , > el producto hermtico de vectores de Cn . Sean Sp(A) y
x Cn , x 6= 0, un autovector de A asociado a . Se tiene que
i) Como
< x, x >=< x, x >=< Ax, x >=< x, A x >=
< x, x >
=< x, Ax >=< x, x >=
y R.
y como < x, x >6= 0, se sigue que =
ii) Veamos solo en que A es definida positiva. Como
0 < x Ax =< Ax, x >=< x, x >= < x, x >
y como < x, x > > 0, entonces > 0.
iii) Sirve la misma demostracion que en el apartado anterior cambiando <
por y > por .
iv) Recordemos que, seg
un se vio en la demostracion de la proposicion
5.1.3, si A es inversible,
Ax = x A1 x =
1
x.
< x, x >,
=< x, Ax >=< x, x >=
y como < x, x >6= 0, nos queda
es decir,
= ||2 = 1 y
= ,
|| = 1.
106
6.5
Diagonalizaci
on unitaria
Se trata de estudiar cuando para una matriz A Mnn (C) (A Mnn (R))
existe una matriz unitaria (ortogonal) Q tal que Q1 AQ sea diagonal. La
respuesta la da el siguiente resultado:
Teorema 6.5.1 (Teorema de Schur) Se verifica que
i) Dada A Mnn (C) existe una matriz unitaria Q Mnn (C) tal que
Q1 AQ = Q AQ es triangular superior.
ii) Dada A Mnn (K), se tiene que A es normal si y s
olo si existe una
1
xi xj
1 si i = j
< xj , xi >=
0 si i 6= j
1 si i = j
0 si i 6= j
{x1 , x2 , . . . , xn } es ortonormal.
El caso real se prueba del mismo modo.
Vamos a continuacion a dar la demostracion del teorema de Schur.
Demostraci
on:
UNITARIA
6.5. DIAGONALIZACION
107
= Q Ax1 = Q x1 = Q x1 =
Q AQ
0
x1
x1 x1
1
=
x1 =
=
.
=
0
x2
x2 x1
0
es triangular superior.
As, Q AQ =
0
1
x
0 0
x x1
2
2
= Q1 x1 = .. x1 = .. = .. = .. .
.
. .
.
0
0
xn
xn x1
108
=
Q3 Q3 =
0 Q2
0 Q2
1
0
0
1
=
= In .
0 Q2 Q2
0 In1
Pongamos Q = Q1 Q3 . Entonces Q es unitaria pues
Q Q = (Q1 Q3 ) Q1 Q3 = Q3 Q1 Q1 Q3 =
= Q3 IQ3 = Q3 Q3 = I.
Finalmente,
Q AQ = Q3 Q1 AQ1 Q3 = Q3 BQ3 =
1 0
1 0
=
=
0 Q2
0 C
0 Q2
,
=
0 Q2 CQ2
que es triangular superior por serlo Q2 CQ2 .
ii) Si Q es la matriz dada en el apartado i), entonces Q AQ es triangular
superior, y ademas, es normal por serlo A, ya que
(Q AQ) (Q AQ) = Q A QQ AQ = Q A AQ,
(Q AQ)(Q AQ) = Q AQQ A Q = Q AA Q,
y si A A = AA , entonces tambien es
(Q AQ) (Q AQ) = (Q AQ)(Q AQ) .
El resultado se sigue entonces de que toda matriz normal y triangular
superior es diagonal.
UNITARIA
6.5. DIAGONALIZACION
109
1
2
y = Q x = Q x = .. ,
.
n
110
resulta que
x Ax = x QDQ x = (Q x) D(Q x) = y Dy =
1 |1 |2 + 2 |2 |2 + + n |n |2 .
Y como todos los autovalores de A son positivos (no negativos) y como
y 6= 0 ya que x 6= 0 y Q1 es inversible, entonces x Ax > 0 (x Ax 0).
Corolario 6.5.4 Si A Mnn (C) es hermitiana (o A Mnn (R) es
simetrica) y definida positiva, entonces det(A) > 0.
Corolario 6.5.5 Una matriz simetrica A Mnn (R) es definida positiva
si y s
olo si los determinantes de las n submatrices principales de A son
positivos.
Demostraci
on:
Es consecuencia inmediata del corolario 6.5.4 y la observacion 3.5.1.
El hecho de que los determinantes de las n submatrices principales
de A sean positivos implica, seg
un la demostracion del teorema 4.3.2, que
existe B Mnn (R) tal que A = BB t . Sea x Rn , x 6= 0. Si || || denota la
norma en Rn , se tiene que
xt Ax = xt BB t x = (B t x)t (B t x) = ||B t x||2 > 0,
porque B ( y por tanto B t ) es inversible y porque x 6= 0. Por tanto, A es
definida positiva.
Observaci
on 6.5.4 El corolario 6.5.5 muestra que una matriz simetrica admite factorizacion de Cholesky si es definida positiva, tal y como se haba
comentado anteriormente en la observacion 4.3.4.
La factorizacion de Cholesky permite tambien evaluar la inversa de una
matriz inversible y resolver, por tanto, sistemas de ecuaciones lineales cuadrados compatibles determinados:
Lema 6.5.1 Si A Mmn (R), entonces At A es simetrica y semidefinida
positiva. Si A Mnn (R) es inversible, entonces At A es simetrica y definida
positiva.
UNITARIA
6.5. DIAGONALIZACION
111
Demostraci
on:
Si A Mmn (R), la matriz At A Mnn (R) es simetrica porque se
verifica que (At A)t = At (At )t = At A. Por otra parte, si x Rn resulta que
xt At Ax = (Ax)t Ax 0
y por tanto, A es semidefinida positiva. Ademas, si A Mnn (R) es inversible, entonces, para x Rn , x 6= 0, es Ax 6= 0 y
xt At Ax = (Ax)t Ax > 0,
con lo cual, si A Mnn (R) es inversible, At A es definida positiva.
0
0 1 2
0 1 0
0
M44 (R),
A=
1 0
0 2
2
0 2 3
que es simetrica (y por tanto existe una matriz ortogonal Q verificando que
Qt AQ = D es diagonal). El espectro de A es
Sp(A) = {1, 5},
m.a.(1) = 3,
m.a.(5) = 1,
0
1 0 1 2
0 0 0
0
1 ,
=
{
E1 = ker(A + I) = ker
0
1 0 1 2
2 0 2 4
0
propios asocia
1
0
0 0
,
1 2
0
1
},
112
1
5 0 1 2
0 6 0
0
0
E5 = ker(A 5I) = ker
1 0 5 2 = { 1
2
2
0 2 2
}.
Para determinar las columnas de Q se aplica el proceso de ortonormalizacion de Gram-Schmidt a los vectores de las bases dadas para E1 y E5 por
separado.
As, si
0
1
0
0
0
1
T = {v1 =
0 , v2 = 1 , v3 = 2 }
1
0
0
y aplicamos el proceso de ortonormalizacion de Gram-Schmidt a T obtenemos
1
1
0
3
2
0
1
0
, u2 = 1 , u3 = 1
S = {u1 =
},
0
3
2
1
0
0
3
y si
1
0
T = {v1 =
1 }
2
06
S = {u1 =
1 }.
6
2
6
Por consiguiente,
Q=
0
1
0
0
1
2
1
2
1
3
1
3
1
6
1 ,
6
2
6
EN VALORES SINGULARES
6.6. DESCOMPOSICION
113
0
3
6
2
1 0 0 0
{
1 ,
1 }
0 , 1 ,
3 6
2
1
2
0
0
3
6
es una base ortonormal de R4 formada por autovectores de A.
Ejercicio:
1. Sea U = (ij ) Mnn (C) una matriz triangular superior e inversible.
Demostrar que U se puede descomponer en una suma de n matrices,
U = U1 + U2 + + Un ,
tales que para todo i = 1, 2, . . . , n es rango(Ui ) = 1 y Sp(Ui ) = {0, ii },
con m.a.(0) = n 1 y m.a.(ii ) = 1.
2. Sea A Mnn (C) una matriz inversible con autovalores 1 , 2 , . . . , n .
Utilizando el teorema de Schur (teorema 6.5.1), demostrar que A se
puede descomponer en una suma de n matrices,
A = A 1 + A2 + + A n ,
tales que para todo i = 1, 2, . . . , n es rango(Ai ) = 1 y Sp(Ai ) = {0, i },
con m.a.(0) = n 1 y m.a.(i ) = 1.
6.6
Descomposici
on en valores singulares
114
Observaci
on 6.6.2 A y At tienen los mismos valores singulares no nulos
ya que los autovalores no nulos de At A y de AAt coinciden. En efecto, sea
Sp(At A), 6= 0, y sea x Rn , x 6= 0, tal que At Ax = x. Entonces se
tiene que
(AAt )Ax = A(x) = Ax.
Como Ax = 0 (si fuese Ax = 0 sera At Ax = x = 0, lo cual es falso),
entonces Ax es un autovector de AAt asociado al autovalor . Esto prueba
que
Sp(At A), 6= 0 Sp(AAt ).
Observaci
on 6.6.3 Si A Mnn (R) es una matriz simetrica con autovalores {1 , 2 , . . . , n }, entonces sus valores singulares son |1 |, |2 |, . . . , |n |.
t
1
.
.
P AQ = P AQ =
Mmn (R).
.
r
0
0
EN VALORES SINGULARES
6.6. DESCOMPOSICION
115
1
Axi .
i
2 1
A = 2 1 M32 (R).
4 2
24 12
t
M22 (R), se sigue que
Puesto que A A =
12 6
24 12
t
= 2 30,
pAt A () = det(A A I) =
12 6
116
De este modo
Q=
2/ 5 1/5
M22 (R).
1/ 5 2/ 5
1/ 6
2 1
1
1
2/ 5
= 1/ 6 .
y1 = Ax1 = 2 1
1/ 5
1
30
4 2
2/ 6
Ademas,
ker(At ) = ker
2 2 4
1 1 2
1
0
=< { 1 , 2 } > .
0
1
y2 =
1/ 2 ,
0
1/2
0
1
0
1/2
h = 2 < 2 , 1/ 2 > 1/ 2 = 1 ,
1
1
1
0
0
1/ 3
h
y3 =
= 1/3 .
khk
1/ 3
As,
P =
1
6
1
6
2
6
1
2
1
2
P t AQ =
3
1
3
1
3
M33 (R),
30 0
0 0 M32 (R).
0 0
EN VALORES SINGULARES
6.6. DESCOMPOSICION
117
...
P t AQ = P 1 AQ =
Mmn (R).
r
0
0
Sean x1 , x2 , . . . , xr las r primeras columnas de Q e y1 , y2 , . . . , yr las r
primeras columnas de P . Entonces
A = 1 y1 xt1 + 2 y2 xt2 + + r yr xtr .
Demostraci
on:
Sea sigue de desarrollar la igualdad
...
A=P
r
0
0 t
Q .
0
Definici
on 6.6.2 Con las notaciones anteriores, sean A Mmn (R) con
rango(A) = r y
A = 1 y1 xt1 + 2 y2 xt2 + + r yr xtr .
Para k = 1, 2, . . . , r 1, se llama aproximaci
on de rango k de A a la
suma de los k primeros sumandos del miembro de la derecha de la igualdad
anterior, es decir, a la matriz
1 y1 xt1 + 2 y2 xt2 + + k yk xtk Mmn (R).
118
6.7
6.7.1
Aplicaciones del
algebra lineal
Mnimos cuadrados y proyecci
on ortogonal
Observaci
on 6.7.1 El nombre de mnimos cuadrados se debe a que minimizar ku bk es equivalente a minimizar ku bk2 , siendo
2
ku bk =
m
X
i=1
(i i )2 ,
con u = (1 , 2 , . . . , m )t y b = (1 , 2 , . . . , m )t .
Proposici
on 6.7.1 El vector v U es la mejor aproximaci
on de b por vecm
tores del subespacio U R en el sentido de los mnimos cuadrados si v b
es ortogonal a todos los vectores de U , es decir, si
< v b, u >= 0 , para todo u U.
Demostraci
on:
Dado u U , si v b es ortogonal a todos los vectores de U se tiene que
ku bk2 = ku v + v bk2 =
kv bk2 ku bk2 , u U,
o bien,
kv bk ku bk , u U,
6.7. APLICACIONES DEL ALGEBRA
LINEAL
119
Definici
on 6.7.2 Diremos que un vector z Rn es una solucion del problema de mnimos cuadrados para el SEL Ax = b si Az es la mejor aproximaci
on de b por vectores del subespacio Im(A) en el sentido de los mnimos
cuadrados.
Teorema 6.7.1 El conjunto de soluciones del problema de los mnimos cuadrados para el SEL Ax = b coincide con el conjunto de soluciones del SEL
At Ax = At b.
Demostraci
on:
Sea z Rn una solucion del problema de mnimos cuadrados para el SEL
Ax = b. Entonces, Az b es ortogonal a cualquier vector del subespacio
Im(A) = {Ay / y Rn }. Por tanto,
0 =< Az b, Ay >= (Ay)t (Az b) = y t At (Az b) =
y t (At Az At b) =< At Az At b, y >
120
Observaci
on 6.7.5 Si At A es inversible, el problema de mnimos cuadrados
para el SEL Ax = b tiene solucion u
nica igual a
x = (At A)1 At b.
Si At A no es inversible, el problema de mnimos cuadrados para el SEL
Ax = b tiene infinitas soluciones, que estan dadas (vease la proposicion 6.6.1)
por
z + Ker(At A) = z + ker(A),
donde z Rn es una solucion particular del problema, es decir, una solucion
particular del SEL At Ax = At b.
Sea ahora, en general, U un subespacio r-dimensional de Rm . Sea b Rm .
Definici
on 6.7.3 Se llama proyeccion ortogonal de b sobre U al u
nico vector
w U que verifica que w b es ortogonal a todos los vectores de U .
Observaci
on 6.7.6 El vector w de la observacion 6.7.3 es la proyeccion
ortogonal de b sobre U = Im(A).
Proposici
on 6.7.2 Sea BU = {u1 , u2 , . . . , ur } una base ortonormal de U .
La proyeccion ortogonal de b sobre U est
a dada por
< b, u1 > u1 + < b, u2 > u2 + + < b, ur > ur .
Demostraci
on:
Sean x Rm y B = {a1 , a2 , . . . , am } una base ortonormal de Rm . Entonces, la expresion de x en coordenadas en la base B es
x =< x, a1 > a1 + < x, a2 > a2 + + < x, am > am .
En efecto, si x = 1 a1 + 1 a2 + + m am , entonces para cada i =
1, 2, . . . , m se tiene que
< x, ai >=< 1 a1 + 1 a2 + + m am , ai >=
= 1 < a1 , ai > +2 < a2 , ai > + + m < am , ai >= i ,
porque B es ortonormal.
Usando el corolario 6.4.1, sea
BRm = {u1 , u2 , . . . , ur , ur+1 , ur+2 , . . . , um }
6.7. APLICACIONES DEL ALGEBRA
LINEAL
121
1 2 1
1 2 2
A=
1 2 2 M43 (R),
1 2 1
4
6
4
b=
1 R .
2
13
4 8 0
At A = 8 16 0 , At b = 26 .
12
0 0 10
Por tanto, poniendo x = (1 , 2 , 3 )t resulta que
13
1
4 8 0
At Ax = At b 8 16 0 2 = 26
12
3
0 0 10
41 +
82 = 13
103
= 12
y el conjunto de soluciones es
2
13/4
0 + < { 1 } >,
0
6/5
122
2
donde < { 1 } >= ker(At A) = ker(A).
0
Ejemplo:
Se considera el SEL Ax = b siendo
3 1 3
1 1 1
A=
1 1 1 M43 (R),
3 1
3
3
1
4
b=
5 R .
5
20
20 0 16
At A = 0 4 0 , At b = 8 .
28
16 0 20
Por tanto, si x = (1 , 2 , 3 )t resulta
201 + 163 = 20
42 = 8
At Ax = At b
161 + 203 = 28
1/3
1
201 + 43 = 5
2 = 2 x = 2 = 2 .
5/3
3
41 + 53 = 7
6.7.2
Ajuste polin
omico
. . . + n1 1n1 = 1
. . . + n1 2n1 = 2
... ...
...
n1
. . . + n1 m
= m
6.7. APLICACIONES DEL ALGEBRA
LINEAL
123
1n1
2n1
1 1 21 . . .
1 2 22 . . .
.. ..
..
..
. .
.
.
2
n1
1 m m . . . m
0
1
2
..
.
n1
0
1
2
..
.
m
0
1 0
0
1/2
1 1/2 1/4
1 ,
1
A=
, b = 1 , x =
1 1
1/2
1 3/2 9/4
2
0
1 2
4
resulta que el SEL Ax = b es incompatible.
modo que
5
5
t
5
15/2
AA=
15/2 25/2
15/2
25/2
177/8
2
At b = 2
9
4
1/35
x = (At A)1 At b = 12/7 ,
6/7
de tal modo que
q() =
1 12
6
+ 2
35
7
7
124
1
1 0 0
3
1 1 1
A=
1 2 4 , b = 4
4
1 3 9
0
x = 1 .
2
0
= 1
0 + 1 + 2 = 3
Ax = b
0 + 21 + 42 = 4
0 + 31 + 92 = 4
0
= 1
5
1
1 + 2 = 2
0 = 1, 1 = , 2 = .
21 + 42 = 3
2
2
31 + 92 = 3
.
.
.
2
3
m
m1
2
Y
1 2 . . .
2
2
2
2
2
2
2
3 . . . m =
(j i ),
1
.. ..
..
.. =
..
. .
.. i<j
..
..
.
.
.
.
.
.
m1
1 m 2m . . . m
m1 m1
m1
m1
1
2
3
. . . m
6.7. APLICACIONES DEL ALGEBRA
LINEAL
125
6.7.3
Formas cuadr
aticas
Definici
on 6.7.4 Una forma cuadratica sobre Rn es una aplicaci
on de la
forma
: x Rn (x) = xt Ax R
donde A Mnn (R) es una matriz simetrica, que se dir
a matrix asociada a
la forma cuadratica, o simplemente, matriz de la forma cuadr
atica.
Sean A = (ij ) Mnn (R) simetrica y : x Rn (x) = xt Ax R
una forma cuadratica. Si x = (1 , 2 , . . . , n )t Rn , entonces
(x) =
n
X
i,j=1
ij i j =
n
X
ii 2i +
i=1
2ij i j .
1i<jn
n
t
Si una forma P
cuadratica sobre
P R esta dada, para x = (1 , 2 , . . . , n )
n
2
R , por (x) = i=1 ii i + 1i<jn 2ij i j , entonces existe una u
nica
matriz simetrica A Mnn (R), que es precisamente A = (ij ), verificando
que (x) = xt Ax, x Rn .
Ejemplo:
La matriz de la forma cuadratica sobre R3 definida por
n
4 3 0
es A = 3 9 0 .
0 0 1
Proposici
on 6.7.3 Se verifica que:
i) (0) = 0.
ii) (x) = 2 (x), para cualquier R.
Definici
on 6.7.5 La forma cuadratica se dice no degenerada si se verifica
que rango(A) = n, es decir, si det(A) 6= 0; en caso contrario se dice
degenerada.
126
61
13
+
61
13
= (1 )(2 13 + 27) = (1 )(
)(
),
2
2
13+ 61
2
13 61
2
son positivos.
6.7. APLICACIONES DEL ALGEBRA
LINEAL
127
Ejemplo:
Consideremos la forma cuadratica
: x R3 (x) = 21 21 2 + 22 + 21 3 + 23 R,
cuya matriz es
1 1 1
A = 1 1 0 .
1
0 1
1
La forma cuadratica es indefinida, pues por ejemplo, 0 = 1 > 0
0
1/2
128
REFERENCIAS
[1] P. G. Ciarlet, Introduction `
a lanalyse numerique matricielle
et `
a loptimisation.
Collection Mathematiques Appliquees pour la Matrise. Paris:
Masson (1998).
[2] G. H. Golub; C. F. Van Loan, Matrix computations.
Johns Hopkins Series in the Mathematical Sciences, 3. Baltimore
etc.: The Johns Hopkins University Press, (1989).
[3] P. Lancaster; M. Tismenetsky The theory of matrices.
Computer Science and Applied Mathematics. Orlando etc.: Academic Press (Harcourt Brace Jovanovich, Publishers), (1985).
[4] K. Nomizu Fundamentals of linear algebra
Maidenhead, Berkshire: McGraw-Hill Publishing Comp., Ltd,
(1966).
129