You are on page 1of 129

Universidade de Vigo

Departamento de Matematica Aplicada II

Notas de Algebra
Lineal
Natividad Calvo Ruibal
ndez
Alberto Martn Me

Indice
1

meros complejos
Los nu
1.1 El plano complejo . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Operaciones con n
umeros complejos . . . . . . . . . . . . . . .

Espacios vectoriales
2.1 Estructura de espacio vectorial . . .
2.2 Subespacio . . . . . . . . . . . . . .
2.3 Sistema de generadores . . . . . . .
2.4 Subespacio suma . . . . . . . . . .
2.5 Dependencia e independencia lineal
2.6 Base . . . . . . . . . . . . . . . . .
2.7 Dimension . . . . . . . . . . . . . .
2.8 Aplicaciones lineales . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

11
11
13
15
16
20
22
25
28

Matrices y determinantes
3.1 Operaciones con matrices . . . .
3.2 Tipos particulares de matrices .
3.3 Traza . . . . . . . . . . . . . . .
3.4 Submatrices . . . . . . . . . .
3.5 Matrices por bloques . . . . . .
3.6 Rango . . . . . . . . . . . . . .
3.7 Determinantes . . . . . . . . . .
3.8 Matrices elementales . . . . . .
3.9 Metodo de Gauss . . . . . . . .
3.10 N
ucleo e imagen de una matriz

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

31
31
34
37
38
39
43
46
51
55
59

.
.
.
.

65
65
66
70
80

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

4 Sistemas de ecuaciones lineales


4.1 Sistema de ecuaciones lineales . . . . .
4.2 Resolucion de un sistema de ecuaciones
4.3 Factorizaciones LU y de Cholesky LU .
4.4 Metodos iterativos . . . . . . . . . . .
3

. . . . .
lineales
. . . . .
. . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

5
5
7

4
5

Autovalores y autovectores
5.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . .
5.2 Subespacio propio . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Diagonalizacion por semejanza . . . . . . . . . . . . . . . . . .

6 Espacios eucldeos
6.1 Producto escalar . . . . . . . . . . . . . . . . . .
6.2 Producto hermtico . . . . . . . . . . . . . . . . .
6.3 Norma . . . . . . . . . . . . . . . . . . . . . . . .
6.4 Ortogonalidad y ortonormalidad . . . . . . . . . .
6.5 Diagonalizacion unitaria . . . . . . . . . . . . . .
6.6 Descomposicion en valores singulares . . . . . . .
6.7 Aplicaciones del algebra lineal . . . . . . . . . . .
6.7.1 Mnimos cuadrados y proyeccion ortogonal
6.7.2 Ajuste polinomico . . . . . . . . . . . . . .
6.7.3 Formas cuadraticas . . . . . . . . . . . . .
Bibliografa

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

85
85
88
92
99
99
100
101
102
106
113
118
118
122
125
129

Captulo 1
Los n
umeros complejos
1.1

El plano complejo

Definici
on 1.1.1 Un cuerpo conmutativo (K, +, ) es un conjunto K dotado
de dos operaciones internas
+

suma : K K
K
(, ) 7 +

producto : K K K
(, ) 7
tales que:
la suma tiene las propiedades
asociativa: + ( + ) = ( + ) +
conmutativa: + = +
elemento neutro: 0 K ; 0 + = + 0 =

elemento opuesto: K, K ; +() = ()+ = 0


el producto tiene las propiedades
asociativa: () = ()
conmutativa: =
elemento neutro: 1 K ; 1 = 1 =

elemento inverso: K, 6= 0, 1 K ; 1 = 1 = 1
5

CAPITULO 1. LOS NUMEROS


COMPLEJOS
el producto es distributivo respecto a la suma:
( + ) = + , ( + ) = +

donde , , denotan elementos cualesquiera de K.


Ejemplo:
El conjunto de los n
umeros reales, con la suma y el producto, es un cuerpo.
El neutro para la suma es 0, el neutro para el producto es 1, el opuesto de
R es y el inverso de R es 1 .
Un n
umero complejo (escrito en forma binomica) es un n
umero de la
forma = + i, donde i es un n
umero, llamado unidad imaginaria, que
verifica i2 = 1. El conjunto de todos los n
umeros complejos se define como
C = { = + i ; , R}.
Definici
on 1.1.2 Sea = + i un n
umero complejo. Se definen:
Parte real de : Re() = .
Parte imaginaria de : Im() = .
Conjugado de : = i.
Observaci
on 1.1.1 Un n
umero complejo con parte imaginaria nula es un
n
umero real. un n
umero complejo de la forma i (es decir, con parte real
nula), se dice un n
umero imaginario puro. Un n
umero complejo es real si y
solo si coincide con su conjugado.
Definici
on 1.1.3 Sea = + i un n
umero complejo.
p
i) Se define el modulo de como n
umero real || = 2 + 2 .

ii) Se define el argumento de como el u


nico
angulo [0, 2) que verifica

a = arg().
que cos() = || y sen() = || . Se denotar

Observaci
on 1.1.2 Un n
umero complejo = + i se puede representar
en el plano R R identificandolo con el par ordenado (, ). As, el conjunto
de los n
umeros complejos se puede identificar con el plano R R. Cuando
consideremos esta identificacion, nos referiremos a R R como el plano complejo. En el plano complejo, los n
umeros reales estan representados en el eje
de abscisas, mientras que los n
umeros imaginarios puros estan representados
en el eje de ordenadas.


1.2. OPERACIONES CON NUMEROS
COMPLEJOS

1.2

Operaciones con n
umeros complejos

La suma de dos n
umeros complejos se define sumando parte real con parte
real y parte imaginaria con parte imaginaria, es decir, dados dos n
umeros

complejos = + i y = + i C, entonces su suma se define como


+ = ( + ) + ( + )i.
El producto de dos n
umeros complejos se realiza efectuando el producto
de los dos binomios correspondientes y teniendo en cuenta que i2 = 1, es
decir, si = + i, = + i C, entonces
= ( + i)( + i) =
= + i + i + i2 = ( ) + ( + )i.
Con estas operaciones, C es un cuerpo. El neutro para la suma es el
n
umero real 0 y el opuesto de = + i es = i. El neutro
para el producto es el n
umero real 1 y el inverso de = + i, 6= 0, es

1
= ||2 ||2 i.
Observaci
on 1.2.1 Si n N, se verifica que

1 si
n = 4k

i
si
n
= 4k + 1
in =
1 si n = 4k + 2

i si n = 4k + 3

para k = 0, 1, 2, . . . .

Proposici
on 1.2.1 Para , C se verifican
1. + = + .
2. = .
3. = .
4. + = 2Re().
5. = 2Im().
6. = (Re())2 + (Im())2 = ||2 .
Proposici
on 1.2.2 Para , C se verifican


CAPITULO 1. LOS NUMEROS
COMPLEJOS

8
1. || = 0 = 0.
2. || = | |.

3. | + | || + | |.
4. | | = || | |.
Para efectuar una division de n
umeros complejos, cuando estos estan
escritos en forma binomica, se multiplican el numerador y el denominador
por el conjugado del denominador. Es decir, si = + i, = + i C,
entonces
+ i
( + i)( i)

=
=
=

+ i
( + i)( i)
=

( + ) + ( + )i
.
2 + 2

Ejemplos:
Sean = 2 + 3i y = 2 + 4i. Entonces
+ = (2 2) + (3 + 4)i = 7i,

= 4 + 8i 6i + 12i2 = (4 12) + (8 6)i = 16 + 2i,


(2 + 3i)(2 4i)
2 + 3i

=
=
=

2 + 4i
(2 + 4i)(2 4i)

2
7
8 14i
= i.
20
5 10
A continuacion describiremos otras formas de expresar un n
umero complejo.

y
Sea = + i, 6= 0. Sea = arg(). Entonces cos() = ||

sen() = || . En consecuencia, = ||cos() y = ||sen() y se puede


escribir como
=

= + i = ||cos() + i||sen() = ||(cos() + i sen()).


La formulacion anterior para el n
umero complejo se conoce con el nombre de forma trigonometrica. Si = ||(cos() + i sen()) y = | |(cos( ) +
i sen( )) son dos n
umeros complejos expresados en forma trigonometrica,
resulta
= ||(cos() + i sen())| |(cos( ) + i sen( )) =


1.2. OPERACIONES CON NUMEROS
COMPLEJOS

= ||| |(cos()cos( ) + i cos()sen( ) + i sen()cos( ) sen()sen( )) =



= ||| | [cos()cos( ) sen()sen( ] + i[cos()sen( ) + sen()cos( )] =
= ||| |(cos( + ) + i sen( + )).

La forma polar de un n
umero complejo es el par ordenado formado por
el modulo de y el argumento de . Si = arg(), entonces la forma polar
de es
= (||, ).
Si = (||, ) y = (| |, ) son dos n
umeros complejos escritos en forma
polar, entonces, del calculo anterior se deduce que
= (||| |, + ).

Analogamente, si 6= 0,

||

= ( , ).

| |

De lo anterior se deduce tambien que si = (||, ) es un n


umero complejo
escrito en forma polar y n N, entonces la n-esima potencia de esta dada
por
n = .n). . = (||n , n),
es decir, n = ||n (cos(n) + isen(n).
Sea ahora = (||, ), 6= 0, un n
umero complejo escrito en forma polar.
Sea n N. El n
umero complejo tiene n races n-esimas distintas, que
denotaremos 0 , 1 , . . . , n1 (es decir, para k = 0, 1, . . . , n 1, kn = ).
Estas n races n-esimas estan dadas por
k =

p
+ 2k 
n
||,
. k = 0, 1, . . . , n 1.
n

Ejemplo:
Vamos a calcular las 8 races octavas de la unidad. En forma polar, la
unidad, es decir, el n
umero real 1, se
escribe como 1 = (1, 0). El modulo de

8
cualquiera de las races octavas es 1 = 1. Haciendo = 0 en la discusion
anterior, teniendo en cuenta que ahora n = 8 y variando k desde 0 hasta 7
se obtienen dichas races octavas, que son
0 = (1, 0) 1 = (1, 4 ) 2 = (1, 2 ) 3 = (1, 3
)
4
3
7
4 = (1, ) 5 = (1, 5
)

=
(1,
)

=
(1,
)
6
7
4
2
4
Denotemos ahora ei = cos()+isen(). La forma exponencial del n
umero
complejo = (||, ) es


CAPITULO 1. LOS NUMEROS
COMPLEJOS

10

= ||ei .
Finalmente, la funcion exponencial se calcula como sigue: si = + i,
entonces
e = e ei = e (cos() + i sen()).
Proposici
on 1.2.3 Para , C se verifican
1. e 6= 0.
2. Si R, entonces |ei | = 1.
3. e = 1 = 2ki, k Z.

4. e = e = + 2ki, k Z.

5. e e = e+ .

Ejercicio: Sean = 2 2i, = (3, 4 ) y = 3e 2 i .


a) Calcular + , + y + .
b) Calcular , y .
c) Calcular + y .
d) Calcular

e) Calcular las dos races cuadradas de .


f) Calcular 4 .

Captulo 2
Espacios vectoriales
2.1

Estructura de espacio vectorial

De ahora en adelante, la letra K denotara el cuerpo K = R de los n


umeros
reales o el cuerpo K = C de los n
umeros complejos.
Definici
on 2.1.1 Un espacio vectorial sobre K (o un K-espacio vectorial)
es un conjunto V dotado de dos operaciones, una interna
suma : V V
(v, w)
y otra externa

V
7

v+w

producto por escalares : K V


(, v)
tales que

V
7

la suma tiene las propiedades


asociativa: u + (v + w) = (u + v) + w
conmutativa: u + v = v + u
elemento neutro: 0 V ; 0 + v = v + 0 = v

elemento opuesto: v V, v V ; v + (v) = (v) + v = 0

el producto por escalares verifica que


(v + w) = v + w
( + )v = v + v
11

CAPITULO 2. ESPACIOS VECTORIALES

12
()v = (v)

1 v = v, siendo 1 el elemento neutro del producto en K


donde , denotan elementos cualesquiera de K y u, v, w denotan elementos
cualesquiera de V .
Observaci
on 2.1.1 Si V es un K-espacio vectorial, los elementos de V se
llamaran vectores y se denotaran usualmente por letras latinas, mientras que
los elementos de K se llamaran escalares y se denotaran usualmente por letras
griegas. El elemento neutro para la suma en V se dira vector cero de V .
Ejemplos:
1) Si definimos

R = {

1
2
..
.
n

; 1 , 2 , . . . , n R}

entonces Rn es un R-espacio vectorial con las operaciones

n
R

Rn
1
1
2
2

.. , ..
. .
n
n

) 7

Rn
1 + 1
2 + 2
..
.
n + n

R Rn Rn
1
1
2
2

(, .. ) 7 ..
.
.
n
n
2) Si definimos

C = {

1
2
..
.
n

; 1 , 2 , . . . , n C}

13

2.2. SUBESPACIO
entonces Cn es un C-espacio vectorial con las operaciones

n
C

Cn
1
1

2 2
.. , ..
. .

) 7

Cn
1 + 1
2 + 2
..
.
n + n

C Cn Cn
1
1
2
2

(, .. ) 7 ..
.
.
n
n
Observaci
on 2.1.2 Observemos que, haciendo n = 1, se obtiene que R es
un R-espacio vectorial y C es un C-espacio vectorial.
Propiedades 2.1.1 Si V es un K-espacio vectorial se verifica que
1. 0 = 0 para todo K.
2. 0 v = 0 para todo v V .
3. v = 0 = 0 o v = 0 ( K, v V ).
4. ()v = (v) = (v) ( K, v V ).
5. v = v , 6= 0 v = v ( K, v, v V ).
6. v = v, v 6= 0 = (, K, v V ).

2.2

Subespacio

Sea V un K-espacio vectorial.


Definici
on 2.2.1 Un subconjunto no vaco U V es un subespacio vectorial
de V si y s
olo si
* U es un K-espacio vectorial con las mismas operaciones que V
o bien si y s
olo si

CAPITULO 2. ESPACIOS VECTORIALES

14
*

u1 + u2 U, u1 , u2 U
u U, K, u U

o bien si y s
olo si
* u1 + u2 U, , K, u1 , u2 U
Ejemplos:
1. U = {0} y U = V son subespacios de V (se llaman subespacios impropios de V ).
2. De los siguientes subconjuntos de R3 ,

1
U1 = { 2 R3 ; 21 22 = 33 },
3

1
U2 = { 2 R3 ; |1 | = |2 |},
3

1
U3 = { 2 R3 ; 61 2 = 3},
3

1
U4 = { 2 R3 ; 1 2 32 = 0},
3

tan solo U1 es un subespacio vectorial de R3 .


Proposici
on 2.2.1 Si U y W son subespacios vectoriales de V , tambien lo
es U V .
Demostraci
on:
Sean , K y v, v U V . Entonces
vU y vW

v U y v W

Como U y W son subespacios tenemos que


v + v U y v + v W
de donde v + v U W y U W es un subespacio.

2.3. SISTEMA DE GENERADORES

15

Observaci
on 2.2.1 Si U1 , U2 , . . . , Un son subespacios vectoriales de V , tambien
lo es U1 U2 Un .
Observaci
on 2.2.2 Todo subespacio vectorial de V contiene al vector cero
de V ; por tanto, la interseccion de dos subespacios vectoriales de V nunca
puede ser el conjunto vaco.
Definici
on 2.2.2 Dos subespacios vectoriales de V se dicen disjuntos si su
interseccion es el subespacio formado por el vector cero de V .
Ejemplo:
En R2 , los subespacios




0
1
; 2 R}
; 1 R} y W = {
U ={
2
0
son disjuntos.

2.3

Sistema de generadores

Sea V un K-espacio vectorial.


Definici
on 2.3.1 Un conjunto cualquiera de vectores en V se dir
a un sistema de vectores de V .
Sea S un sistema de vectores de V .
Definici
on 2.3.2 Una combinacion lineal de vectores de S es una expresi
on
de la forma
1 s1 + 2 s2 + + p sp ,
con 1 , 2 , . . . , p K y s1 , s2 , . . . , sp S.

Observaci
on 2.3.1 El vector cero de V es combinacion lineal de cualquier
sistema de vectores de V .
Observaci
on 2.3.2 Si v V es combinacion lineal de vectores de S y cada
vector de S es combinacion lineal de vectores de otro sistema de vectores T ,
entonces v es combinacion lineal de vectores de T .
Definici
on 2.3.3 El conjunto de combinaciones lineales de vectores de S se
llama subespacio engendrado por S y se denota por hSi; se dice tambien que
S es un sistema de generadores de hSi.

CAPITULO 2. ESPACIOS VECTORIALES

16

Proposici
on 2.3.1 El subespacio hSi engendrado por S es efectivamente un
subespacio de V .
Demostraci
on:
Sean , K y u, w hSi. Pongamos
u = 1 s1 + 2 s2 + + p sp y w = 1 s1 + 2 s2 + . . . p sp
con 1 , 2 , . . . , p , 1 , 2 , . . . , p K y s1 , s2 , . . . , sp S. Entonces
u + w = (1 + 1 )s1 + (2 + 2 )s2 + + (p + p )sp
es una combinacion lineal de vectores de S y u + w hSi.

Observaci
on 2.3.3 Por convenio, hi = {0}.
Propiedades 2.3.1 Sean S y T sistemas de vectores de V y sean u, v V .
Se verifica que:
1. S T hSi hT i.
2. hhSii = hSi.
3. u hS {v}i, u
/ hSi v hS {u}i.
4. hS T i hSi hT i.
Definici
on 2.3.4 Dos sistemas de vectores S y T de V se dicen equivalentes
si hSi = hT i.
Observaci
on 2.3.4 Dos sistemas de vectores S y T de V son equivalentes
si y solo si todo vector de S es combinacion lineal de vectores de T y todo
vector de T es combinacion lineal de vectores de S.

2.4

Subespacio suma

Sea V un K-espacio vectorial.


Definici
on 2.4.1 Sean U y W subespacios vectoriales de V . Se define el
subespacio suma U + W como
U + W = {u + w V ; u U, w W }.

17

2.4. SUBESPACIO SUMA

Proposici
on 2.4.1 El subespacio suma U + W de dos subespacios U y W
de V es efectivamente un subespacio de V .
Demostraci
on:
Sean , K y v, v U + W . Pongamos
v = u + w y v = u + w ,
con u, u U , w, w W . Entonces
v + v = u + w + u + w = u + u + w + w .
Como U y W son subespacios resulta que
u + u U y w + w W.
As, v + v U + W y U + W es subespacio.

Ejemplo:
En R2 , los subespacios




0
1
; 2 R}
; 1 R} y W = {
U ={
2
0


1
2
R2 se tiene que
verifican que U + W = R , pues dado
2

 
 

0
1
1
,
+
=
2
0
2




0
1
W.
U y
con
2
0
Proposici
on 2.4.2 Sean S y T sistemas de vectores de V . Entonces
hSi + hT i = hS T i
Demostraci
on:
Si u + w hSi + hT i, con u hSi y w hT i, podemos poner
u = 1 s1 + 2 s2 + + p sp ,
w = 1 t1 + 2 t2 + + q tq ,

con 1 , 2 , . . . , p , 1 , 2 , . . . , q K, s1 , s2 , . . . , sp S y t1 , t2 , . . . , tq T .
De este modo,
u + w = 1 s1 + 2 s2 + + p sp + 1 t1 + 2 t2 + + q tq

CAPITULO 2. ESPACIOS VECTORIALES

18

es combinacion lineal de vectores de S T y u + w hS T i.


Si v hS T i podemos escribir
v = 1 s1 + 2 s2 + + p sp + 1 t1 + 2 t2 + + q tq ,
con 1 , 2 , . . . , p , 1 , 2 , . . . , q K, s1 , s2 , . . . , sp S y t1 , t2 , . . . , tq T .
As,
1 s1 + 2 s2 + + p sp hSi,
y v hSi + hT i.

1 t1 + 2 t2 + + q tq hT i,

Observaci
on 2.4.1 Si U1 , U2 , . . . , Un son subespacios de V , se define el
subespacio suma U1 + U2 + + Un , que tambien es un subespacio de V ,
como
U1 + U2 + + Un = {u1 + u2 + + un V ; u1 U1 , u2 U2 , . . . , un Un }.
Observaci
on 2.4.2 Si S1 , S2 , . . . , Sn son sistemas de vectores de V , entonces
hS1 i + hS2 i + + hSn i = hS1 S2 Sn i
Sea V un K-espacio vectorial.
Definici
on 2.4.2 Sean U1 , U2 , . . . , Un subespacios de V . Se dice que la suma
U1 +U2 + +Un es directa si y s
olo si para todo v U1 +U2 + +Un existen
vectores u
nicos u1 U1 , u2 U2 , . . . , un Un tales que v = u1 +u2 + +un .
Es ese caso, el subespacio suma se denotar
a por U1 U2 Un .
Ejemplos:
1) Ya sabemos que la suma de los subespacios




0
1
; 2 R}
; 1 R} y W = {
U ={
2
0
es U +W =R2 . Pues bien, dicha suma es directa porque dado un
1
R2 = U + W de dicha suma, la u
nica manera de
vector
2
escribirlo como suma de un vector de U mas un vector de V es

 

 
0
1
1
.
+
=
2
2
0
Escribiremos entonces U W = R2 .

19

2.4. SUBESPACIO SUMA


2) Consideremos en R4 los subespacios

1
0
2
2

U = {
3 ; 1 , 2 , 3 R} y W = { 0
0
4

; 2 , 4 R}.

1
2

Entonces se verifica que U + W = R4 ya que cualquier vector


3
4
4
de R se puede escribir, por ejemplo, como

1
1
0
2 2 0

3 = 3 + 0
4
0
4
con

1
0
2
0

3 U y 0
4
0

W.

Pero como tambien podemos escribir, por ejemplo,


1
0
1
2 0 2


3 = 3 + 0
4
4
0
con

1
0
0
2

3 U y 0
0
4

W,

resulta que la suma U + W = R4 no es directa.


Proposici
on 2.4.3 Una suma U1 + U2 + + Un de subespacios de V es
directa si y s
olo si el vector cero de V se expresa de modo u
nico como suma
de ceros, es decir, si y s
olo si
u1 U1 , u2 U2 , . . . , un Un , u1 +u2 + +un = 0 u1 = u2 = = un = 0.

CAPITULO 2. ESPACIOS VECTORIALES

20

Demostraci
on:
Por definicion de suma directa.
Sea v U1 + U2 + + Un . Supongamos que
v = u1 + u2 + + un = u1 + u2 + + un
con u1 , u1 U1 , u2 , u2 U2 , . . . , un , un Un . Entonces, el vector cero de V
se escribe como
0 = v v = (u1 u1 ) + (u2 u2 ) + + (un un ),
con u1 u1 U1 , u2 u2 U2 , . . . , un un Un . Por hipotesis,
u1 u1 = u2 u2 = = un un = 0
y u1 = u1 , u2 = u2 , . . . , un = un .

Proposici
on 2.4.4 Sean U y W dos subespacios vectoriales de V . La suma
U + W es directa si y s
olo si U y W son disjuntos.
Demostraci
on:
Si U y W no fuesen disjuntos, es decir, si U W 6= {0}, existira
v U W , v 6= 0. As, el vector cero de V se podra escribir como
0 = v + (v),
con v U y v W , con lo cual la suma U + W no sera directa.
Sean u U y w W tales que u + w = 0. Entonces, u = w W .
Por tanto, u U W = {0}. As, u = 0 y w = 0.


2.5

Dependencia e independencia lineal

Sean V un K-espacio vectorial y S = {s1 , s2 , . . . , sp } un sistema de vectores


de V .
Definici
on 2.5.1 Se dice que S es libre o linealmente independiente si
1 s1 + 2 s2 + + p sp = 0, 1 , 2 , . . . , p K 1 = 2 = = p = 0.
En caso contrario, S se dice ligado o linealmente dependiente.
Definici
on 2.5.2 Se dice que un vector v V depende linealmente de S si
v es combinacion lineal de vectores de S, es decir, si v hSi.

2.5. DEPENDENCIA E INDEPENDENCIA LINEAL

21

Proposici
on 2.5.1 Son equivalentes:
i) S es ligado.
ii) Existen escalares 1 , 2 , . . . , p K no todos nulos verificando que
1 s1 + 2 s2 + + p sp = 0.
iii) Existe un vector si S que es combinacion lineal de los dem
as vectores
de S, es decir, tal que si hS {si }i.
Proposici
on 2.5.2 S es libre si y s
olo si el subespacio que engendra contiene
propiamente al subespacio engendrado por cualquiera de sus subconjuntos
propios. Equivalentemente, S es libre si y s
olo si para todo i = 1, 2, . . . , p es
hS {si }i ( hSi.
Propiedades 2.5.1 Se verifica que:
1. Si v V , v 6= 0, entonces {v} es libre.
2. Cualquier sistema de vectores que contenga al vector cero de V es ligado.
3. Si S es libre, entonces cualquier subconjunto de S es libre.
4. Si S es ligado, entonces cualquier sistema de vectores de V que contenga
a S es ligado.
Ejemplo:
En R3 , el sistema de vectores


1
1
0

0 }
2
S={ 1
,
,
1
1
3
es libre, pues si ponemos


0
1
0
1
1 + 2 + 0 = 0
0
3
1
1
resulta que

+ = 0
+ 2
= 0
+ 3 = 0

CAPITULO 2. ESPACIOS VECTORIALES

22

y, operando, se obtiene = = = 0. En cambio, el sistema



1
0
1
T = { 1 , 2 , 5 }
1
1
1
es ligado pues


0
1
1
5 = 1 + 2 2 .
1
1
1

Proposici
on 2.5.3 Sea v V . Si S es libre y v
/ hSi, entonces S {v} es
libre.
Demostraci
on:
Si S {v} no fuese libre, existira una combinacion lineal
1 s1 + 2 s2 + + p sp + v = 0,
con 6= 0 (pues S es libre). Luego, existira 1 y podramos obtener
v = 1 1 s1 1 2 s2 1 p sp ,
de tal modo que v hSi, lo cual es una contradiccion.

Teorema 2.5.1 Un subespacio U = hSi de V no se modifica si en el sistema


de vectores S se efect
ua cualquiera de las operaciones siguientes, llamadas
transformaciones elementales:
a) Intercambiar dos vectores.
b) Multiplicar un vector por un escalar no nulo.
c) Sumar a un vector un m
ultiplo de otro.

2.6

Base

Sean V un K-espacio vectorial y B = {a1 , a2 , . . . , an } un sistema de vectores


de V .
Definici
on 2.6.1 B es base de V si es libre y hBi = V .

23

2.6. BASE
Ejemplo:
En el espacio vectorial Kn ,

1
0

BKn = { ..
.
0

el sistema de vectores


0
0
0
1


, .. , . . . , ..
.
.
1
0

es una base, llamada base canonica de Kn .


Si n = 1, obtenemos que BK = {1} es una base de K como K-espacio
vectorial.
Proposici
on 2.6.1 Son equivalentes:
i) B es base de V .
ii) Si ai B, entonces B {ai } ya no engendra V .
iii) Si v V , entonces B {v} ya no es libre.
Ejemplo:
Consideremos los subespacios de R4 definidos por

1 22

U = {
22 ; 1 , 2 R},
2

1
2
4

W = {
3 R ; 21 2 3 + 4 = 0}.
4

Entonces


2
1
1 0


BU = {
0 , 2 },
1
0

1
1
1
2 0 0

= {
0 , 2 , 0
2
0
0

BW

son, respectivamente, bases de U y W .

},

24

CAPITULO 2. ESPACIOS VECTORIALES

Proposici
on 2.6.2 B es base de V si y s
olo si todo vector de V se escribe
de modo u
nico como combinacion lineal de vectores de B, es decir, si y s
olo
si
V = h{a1 }i h{a2 }i h{an }i
Demostraci
on:
Sea v V . Como hBi = V , entonces v ya es combinacion lineal de
vectores de B. Ademas, dicha combinacion lineal es u
nica, pues si
v = 1 a1 + 2 a2 + + n an = 1 a1 + 2 a2 + + n an
con 1 , 2 , . . . , n , 1 , 2 , . . . , n K, entonces
0 = v v = (1 1 )a1 + (2 2 )a2 + + (n n )an
y como B es libre, resultan 1 1 = 2 2 = = n n = 0, es decir,
1 = 1 , 2 = 2 , . . . , n = n .
Si V = h{a1 }ih{a2 }i h{an }i, entonces hBi = V porque para
todo v V existen 1 , 2 , . . . , n K tales que v = 1 a1 + 2 a2 + + n an .
Ademas, B es libre pues
1 a1 + 2 a2 + + n an = 0, 1 , 2 , . . . , n K 1 = 2 = = n = 0
porque el vector cero de V se expresa de modo u
nico como suma de ceros.

Definici
on 2.6.2 Supongamos que B = {a1 , a2 , . . . , an } es una base de V .
Sea v V . Se llaman coordenadas de v en la base B a los u
nicos escalares
1 , 2 , . . . , n K para los cuales
v = 1 a1 + 2 a2 + + n an .
A los vectores 1 a1 , 2 a2 , . . . , n an se les llama componentes de v en la
base B.
Observaci
on 2.6.1 Si B = {a1 , a2 , . . . , an } es una base de V , la aplicacion
: V
v

n
K

(v) =

1
2
..
.
n


2.7. DIMENSION

25

donde 1 , 2 , . . . , n K son tales que v = 1 a1 + 2 a2 + + n an , es


biyectiva. Diremos que el vector

1
2

(v) = ..
.
n
es el vector de coordenadas de v en la base B.

2.7

Dimensi
on

Observaci
on 2.7.1 A partir de ahora, salvo cuando se especifique lo contrario, entenderemos por K-espacio vectorial un K-espacio vectorial que admita una base formada por un n
umero finito de vectores. Este tipo de espacios vectoriales se llaman espacios vectoriales de dimension finita.
Sea V un K-espacio vectorial.
Teorema 2.7.1 Sea B = {a1 , a2 , . . . , an } una base de V . Entonces todo
sistema de vectores de V con mas de n vectores es ligado.
Demostraci
on:
Bastara probar, seg
un la proposicion 2.5.1, apartado 4., que todo sistema
con n + 1 vectores de V es ligado.
Sea entonces S = {s1 , s2 , . . . , sn , sn+1 } V .
Tomemos s1 .
Si s1 = 0, entonces S ya es ligado. Si s1 6= 0, entonces existen escalares
no todos nulos 1 , 2 , . . . , n K tales que
s1 = 1 a1 + 2 a2 + + n an .
Supongamos que es 1 6= 0. Se tiene entonces que
a1 = 11 s1 11 2 a2 11 n an .
De este modo, si S1 = {s1 , a2 , a3 . . . , an }, obtenemos que todo vector de S1
es combinacion lineal de vectores de B y que todo vector de B es combinacion
lineal de vectores de S1 . As, por la observacion 2.3.4, S1 y B son equivalentes
y
hS1 i = hBi = V.

CAPITULO 2. ESPACIOS VECTORIALES

26

Tomemos ahora {s1 , s2 }.


Si {s1 , s2 } es ligado, entonces S ya es ligado. Si {s1 , s2 } es libre, entonces
existen escalares 1 , 2 , 3 , . . . , n K con alg
un i no nulo tales que
s2 = 1 s1 + 2 a2 + 3 a3 + + n an .
Supongamos que es 2 6= 0. Entonces, si S2 = {s1 , s2 , a3 . . . , an }, se
obtiene, como antes, que
hS2 i = hS1 i = V.
Procediendo del mismo modo llegaramos, en el caso mas desfavorable, a
que el sistema Sn = {s1 , s2 , . . . , sn } es un sistema de generadores de V . En
ese caso, sn+1 hSn i y S sera ligado.

Corolario 2.7.1 Todas las bases de un K-espacio vectorial tienen el mismo
n
umero de vectores.
Definici
on 2.7.1 Se llama dimensi
on de V , y se denota dim(V ), al n
umero
de vectores de una base cualquiera de V .
Observaci
on 2.7.2 Por convenio, dim({0}) = 0.
Ejemplo:
dim(Kn ) = n.
Proposici
on 2.7.1 Supongamos que dim(V ) = n. Entonces, todo sistema
libre formado por n vectores de V es base de V y todo sistema de generadores
de V formado por n vectores de V es base de V .
Teorema 2.7.2 (Teorema de complecci
on) Pongamos n = dim(V ). Sea
S = {s1 , s2 , . . . , sp } un sistema libre de vectores de V , con p < n. Entonces,
existen vp+1 , vp+2 , . . . , vn V tales que
{s1 , s2 , . . . , sp , vp+1 , vp+2 , . . . , vn }
es base de V .
Demostraci
on:
Como hSi ( V , entonces existe vp+1 V tal que vp+1
/ hSi. Por la
proposicion 2.5.3,
S {vp+1 }


2.7. DIMENSION

27

es libre. Si p + 1 = n, entonces S {vp+1 } ya es base de V . Si p + 1 < n,


entonces se repite el proceso y se encuentra un vector vp+2 V tal que
S {vp+1 , vp+2 }
es libre. Si p + 2 = n, entonces S {vp+1 , vp+2 } es base de V . Si p + 2 < n,
el proceso sigue hasta que se alcance la dimension de V .

Propiedades 2.7.1 Sean U y W subespacios de V . Entonces:
1. dim(U ) dim(V ).
2. dim(U ) = dim(V ) U = V .
3. U W y dim(U ) = dim(W ) U = W .
Teorema 2.7.3 (F
ormula de Grassmann o teorema de las dimensiones) Sean U y W subespacios de V . Entonces
dim(U + W ) + dim(U W ) = dim(U ) + dim(W ).
Demostraci
on:
Sea BU W = {e1 , e2 , . . . , ep } una base de U W . Como U W es subespacio de U y de W podemos, seg
un el teorema de compleccion (teorema 2.7.2),
tomar bases de U y de W , respectivamente, de la forma
BU = {e1 , e2 , . . . , ep , up+1 , up+2 , . . . , ur },
BW = {e1 , e2 , . . . , ep , wp+1 , wp+2 , . . . , ws },
Entonces, se puede demostrar que
BU +W = {e1 , e2 , . . . , ep , up+1 , up+2 , . . . , ur , wp+1 , wp+2 , . . . , ws }
es base de U + W .

Corolario 2.7.2 Si U y W son subespacios de V y la suma U +W es directa,


entonces
dim(U + W ) = dim(U ) + dim(W ).

CAPITULO 2. ESPACIOS VECTORIALES

28

2.8

Aplicaciones lineales

Sean V y W dos K-espacios vectoriales, no necesariamente de dimension


finita.
Definici
on 2.8.1 Una aplicaci
on f : V W es lineal si verifica que
i) f (v + v ) = f (v) + f (v )
ii) f (v) = f (v)
para cualesquiera v, v V y K.
Observaci
on 2.8.1 Una aplicacion f : V W es lineal si y solo si la imagen por f de cualquier combinacion lineal de vectores de V es igual a la
correspondiente combinacion lineal de las imagenes de los vectores de V .
Asimismo, si f : V W es lineal, se verifica que f (0) = 0.
Sea f : V W una aplicacion lineal.
Definici
on 2.8.2 Se definen el n
ucleo y la imagen de f como
ker(f ) = {x V ; f (x) = 0} V,
Im(f ) = {f (x) W ; x V } W,
respectivamente.
Proposici
on 2.8.1 ker(f ) es un subespacio de V e Im(f ) es un subespacio
de W .
Demostraci
on:
Sean x, y ker(f ) (es decir, f (x) = 0 = f (y)) y sean , K. Debemos
ver que x + y ker(f ), es decir, que f (x + y) = 0. Y en efecto,
f (x + y) = f (x) + f (y) = 0 + 0 = 0.
Esto prueba que ker(f ) es un subespacio de V .
Sean ahora f (x), f (y) Im(f ) (con x, y V ) y sean , K. Debemos
ver que f (x) + f (y) Im(f ). Y en efecto, esto es cierto porque
f (x) + f (y) = f (x + y)
As, Im(f ) es un subespacio de W .

29

2.8. APLICACIONES LINEALES

Proposici
on 2.8.2 La aplicaci
on f es inyectiva si y s
olo si ker(f ) = {0}.
Demostraci
on:
Si x ker(f ), entonces f (x) = 0. Por tanto, f (x) = 0 = f (0), y
como f es inyectiva, x = 0. As, ker(f ) = {0}.
Si f (x) = f (y), con x, y V , entonces f (x) f (y) = 0, o lo que es
lo mismo, f (x y) = 0. As,
x y ker(f ) = {0},
de donde x y = 0, es decir, x = y.

Observaci
on 2.8.2 La aplicacion f es sobreyectiva si y solo si Im(f ) = W .
Definici
on 2.8.3 Una aplicaci
on lineal entre K-espacios vectoriales que sea
biyectiva se dice un isomorfismo. Dos K-espacios vectoriales se dicen isomorfos si y s
olo si existe un isomorfismo entre ellos.
Ejemplo:
Sean V un K-espacio vectorial n-dimensional y B = {a1 , a2 , . . . , an } una
base de V . La aplicacion
:

V
v = 1 a1 + 2 a2 + + n an

n
K

(v) =

1
2
..
.
n

que asigna a cada vector de V su vector de coordenadas en la base B, es


lineal y biyectiva. Es, por tanto, un isomorfismo.
Observaci
on 2.8.3 Dos K-espacios vectoriales de dimension finita que tengan la misma dimension son isomorfos.

30

CAPITULO 2. ESPACIOS VECTORIALES

Captulo 3
Matrices y determinantes
3.1

Operaciones con matrices

Definici
on 3.1.1 Una matriz de tama
no mn (u orden mn) es un cuadro
rectangular de m filas y n columnas de escalares de la forma

11 12 . . . 1n
21 22 . . . 2n

A = ..
..
.. .
.
.
.
m1 m2 . . . mn
Si m = n, la matriz se dice cuadrada de tama
no n o n n (u orden n o
n n). El conjunto de matrices de tama
no m n se denotar
a por Mmn (K)
y el de matrices cuadradas de tama
no n por Mnn (K).
Los mn escalares ij se llaman coeficientes de la matriz. La matriz de
Mmn (K) cuyos coeficientes son todos iguales a cero se llama matriz nula y
se denotar
a por 0 Mmn (K).
Abreviadamente, una matriz generica A Mmn (K) se denotara por
A = (ij ) Mmn (K),
donde el primer ndice, i, indicara fila y el segundo ndice, j, indicara columna.
Esta notacion abreviada permite definir de un modo comodo las principales
operaciones con matrices.
Definici
on 3.1.2 Dos matrices A = (ij ) y B = (ij ) se dicen iguales si
son del mismo tama
no y ij = ij para cualesquiera i, j.
31

CAPITULO 3. MATRICES Y DETERMINANTES

32

Definici
on 3.1.3 La suma de matrices es una operaci
on interna en Mmn (K)
definida como
+

Mmn (K) Mmn (K)


Mmn (K)
(A, B)
7 A + B = (ij + ij )
donde A = (ij ) y B = (ij ).
Definici
on 3.1.4 El producto por escalares es una operaci
on externa en
Mmn (K) definida como

K Mmn (K)
Mmn (K)
(, A)
7 A = ( ij )
donde A = (ij ).
Proposici
on 3.1.1 Se verifica que Mmn (K) con la suma y el producto por
escalares es un K-espacio vectorial; por tanto, se verifica que
A + (B + C) = (A + B) + C
A+B =B+A
La matriz nula 0 Mmn (K) es tal que 0 + A = A + 0 = A
Dada A = (ij ) Mmn (K) existe A = (ij ) Mmn (K), llamada matriz opuesta de A, tal que A + (A) = (A) + A = 0
(A + B) = A + B
( + )A = A + A
()A = (A)
1A=A
as como
0=0
0A=0
A = 0 = 0 o A = 0
()A = (A) = (A)

3.1. OPERACIONES CON MATRICES

33

A = B, 6= 0 A = B
A = A, A 6= 0 =
para A, B, C Mmn (K), , K.
Proposici
on 3.1.2 Denotemos por Eij Mmn (K) la matriz cuyo coeficiente que ocupa la i-esima fila y la j-esima columna es igual a 1, siendo
cero el resto de los coeficientes. Una base de Mmn (K) est
a dada por
{Eij ; i = 1, 2, . . . , m , j = 1, 2, . . . , n}
y la dimensi
on de Mmn (K) es mn.
Definici
on 3.1.5 Sean A = (ij ) Mmn (K) y B = (ij ) Mnp (K). El
producto C = AB es otra matriz
C = AB = (ij ) Mmp (K)
dada por
ij = i1 1j + i2 2j + + in nj

para i = 1, 2, . . . , m, j = 1, 2, . . . , p.

Observaci
on 3.1.1 Conviene tener en cuenta lo siguiente:
1. El producto AB de dos matrices A y B solo tiene sentido si el n
umero
de columnas de A coincide con el n
umero de filas de B.
2. El producto de matrices no es, en general, conmutativo; de hecho, un
producto AB de matrices puede estar definido y en cambio el producto
BA no estarlo.
3. En el espacio Mnn (K) de matrices cuadradas de tama
no n el producto
Mnn (K) Mnn (K) Mnn (K)
(A, B)
7
AB
es una operacion interna. Pues bien, ni a
un en este caso el producto es
conmutativo.
4. Si un producto de matrices AB es igual a la matriz nula, no tiene por
que ocurrir que A o B sean iguales a la matriz nula; por ejemplo,

 


0 0
0 0
1 0
.
=
0 0
1 0
0 0

CAPITULO 3. MATRICES Y DETERMINANTES

34

Definici
on 3.1.6 Sean A, B Mnn (K). Si AB = BA, se dice que A y B
conmutan o que son permutables.
Propiedades 3.1.1 Sean A, B, C Mnn (K) y K. Se verifica que:
1. A(BC) = (AB)C.
2. Existe una matriz, llamada matriz identidad de tama
no n y definida
por

I = In =

1
1
...
1

Mnn (K)

tal que IA = AI = A.
3. A(B + C) = AB + AC y (A + B)C = AC + BC.
4. (AB) = (A)B = A(B).

3.2

Tipos particulares de matrices

Definici
on 3.2.1 Una matriz de tama
no 1 n se llama matriz fila.
Definici
on 3.2.2 Una matriz de tama
no n 1 se llama matriz columna o
vector.
Definici
on 3.2.3 Sea A = (ij ) Mnn (K) una matriz cuadrada. Se llama
diagonal principal de A al conjunto {11 , 22 , . . . , nn }.
Definici
on 3.2.4 Una matriz cuadrada A = (ij ) Mnn (K) se dice diagonal si todos los coeficientes que no est
an en la diagonal principal son iguales
a cero, es decir, si ij = 0 cuando i 6= j. Si A = (ij ) Mnn (K) es
diagonal, se escribira
A = diag(11 , 22 , . . . , nn ).
Definici
on 3.2.5 Una matriz cuadrada A Mnn (K) se dice una matriz
escalar si es una matriz diagonal con todos los coeficientes de la diagonal
principal iguales, es decir, si es de la forma A = I para alg
un K.

3.2. TIPOS PARTICULARES DE MATRICES

35

Definici
on 3.2.6 Una matriz cuadrada A = (ij ) Mnn (K) se dice triangular superior si ij = 0 cuando i > j y se dice triangular inferior si ij = 0
cuando i < j.
Definici
on 3.2.7 Sea A = (ij ) Mmn (K). Se llama matriz traspuesta
de A, y se denotar
a por At , a la matriz At = (ij ) Mnm (K) definida por
ij = ji , i = 1, 2, . . . , n , j = 1, 2, . . . , m,
es decir, a la matriz que se obtiene de A convirtiendo sus filas en columnas
sin alterar su orden.
Propiedades 3.2.1 Se verifica que:
1. Si A, B Mmn (K), entonces (A + B)t = At + B t .
2. Si un producto de matrices AB tiene sentido, entonces (AB)t = B t At .
Definici
on 3.2.8 Sea A = (ij ) Mmn (K). Se llama matriz adjunta de
A, y se denotar
a por A , a la matriz A = (ij ) Mnm (K) definida por
ij = ji , i = 1, 2, . . . , n , j = 1, 2, . . . , m,
es decir, es la matriz obtenida de A haciendo su traspuesta y conjugando
todos los coeficientes.
Propiedades 3.2.2 Se verifica que:
1. Si A, B Mmn (K), entonces (A + B) = A + B .
2. Si un producto de matrices AB tiene sentido, entonces (AB) = B A .
Definici
on 3.2.9 Sea A Mnn (K). Se define la matriz inversa de A, si
existe, como una matriz A1 Mnn (K) verificando que AA1 = A1 A = I.
Una matriz cuadrada que admita matriz inversa se dir
a inversible, regular o
no singular.
Propiedades 3.2.3 Se verifica que:
1. Si una matriz es inversible, su inversa es u
nica.
2. La inversa de un producto de matrices inversibles es el producto de
inversas en orden cambiado, es decir, (AB)1 = B 1 A1 cuando A,
B Mnn (K) son inversibles.

36

CAPITULO 3. MATRICES Y DETERMINANTES


3. Si A Mnn (K) es inversible, entonces At es inversible y su inversa
est
a dada por (At )1 = (A1 )t .
4. Si A Mnn (K) es inversible, entonces A es inversible y su inversa
est
a dada por (A )1 = (A1 ) .

Definici
on 3.2.10 Una matriz A = (ij ) Mnn (R) se dice simetrica si
t
A = A , es decir, si
ij = ji , i, j = 1, 2, . . . , n.
Definici
on 3.2.11 Una matriz A = (ij ) Mnn (R) se dice antisimetrica
si A = At , es decir, si
ij = ji , i, j = 1, 2, . . . , n.
Observaci
on 3.2.1 Observese que los coeficientes de la diagonal principal
de una matriz antisimetrica son todos nulos.
Definici
on 3.2.12 Una matriz A = (ij ) Mnn (K) se dice hermitiana si

A = A , es decir, si
ij = ji , i, j = 1, 2, . . . , n.
Observaci
on 3.2.2 Observese que los coeficientes de la diagonal principal
de una matriz hermitiana son todos n
umeros reales.
Definici
on 3.2.13 Sea A Mnn (R) una matriz simetrica. Se dice que A
es
definida positiva
semidefinida positiva
definida negativa
semidefinida negativa

x Ax > 0,
x Ax 0,
x Ax < 0,
x Ax 0,

para todo x Rn , x 6= 0
para todo x Rn
para todo x Rn , x =
6 0
n
para todo x R

Definici
on 3.2.14 Sea A Mnn (C) una matriz hermitiana. Se dice que
A es
definida positiva
semidefinida positiva
definida negativa
semidefinida negativa

x Ax > 0,
x Ax 0,
x Ax < 0,
x Ax 0,

para todo x Cn , x 6= 0
para todo x Cn
para todo x Cn , x =
6 0
n
para todo x C

37

3.3. TRAZA

Definici
on 3.2.15 Una matriz A Mnn (R) se dice ortogonal si At A =
AAt = I, es decir, si A1 = At .
Ejemplo:
Para R, la matriz
A=

cos() sen()
sen() cos()

es ortogonal.
Definici
on 3.2.16 Una matriz A Mnn (K) se dice unitaria si A A =
AA = I, es decir, si A1 = A .
Definici
on 3.2.17 Una matriz A Mnn (K) se dice normal si A A =
AA .
Observaci
on 3.2.3 Toda matriz unitaria, ortogonal, simetrica, antisimetrica
o hermitiana es normal.
Definici
on 3.2.18 Una matriz A Mnn (K) se dice nilpotente si existe
p N tal que Ap = AA .p). . A = 0.

3.3

Traza

Definici
on 3.3.1 Sea A = (ij ) Mnn (K). Se llama traza de A a la
suma de los coeficientes de la diagonal principal de A, es decir,
traza(A) = 11 + 22 + + nn .
Propiedades 3.3.1 Sean A, B Mnn (K) y K. Entonces
1. traza(A + B) = traza(A) + traza(B).
2. traza(A) = traza(A).
3. traza(AB) = traza(BA).

CAPITULO 3. MATRICES Y DETERMINANTES

38

3.4

Submatrices

Definici
on 3.4.1 Sea A = (ij ) Mmn (K). Una submatriz de A de
tama
no p q es una matriz de la forma

i1 j1 i1 j2 . . . i1 jq
i j i j . . . i j
2 2
2 q
21
..
.. Mpq (K),
..
.
.
.
ip j1 ip j2 . . . ip jq
donde 1 i1 < i2 < < ip m y 1 j1 < j2 < < jq n.
Ejemplo:
Dada la matriz

1
0 1 2 3
1
1
2
3
4
M45 (R)
A=
0
2
4
6
8
1 1 0 1 1

se tiene que las matrices




1 0
1 1

1 1 3
0 4
8

2 4
, 4 8
0 1

son submatrices de A; en cambio, las matrices



1 2 4
8
6
, 2 6 8
1 1
1 0 1
no lo son.
Definici
on 3.4.2 Sea A = (ij ) Mnn (K). Las n submatrices principales
de A son las n matrices de la forma

11 12 . . . 1k
21 22 . . . 2k

..
..
.. Mkk (K),
.
.
.
k1 k2 . . . kk
con k = 1, 2, . . . , n.

39

3.5. MATRICES POR BLOQUES

3.5

Matrices por bloques

La division de una matriz en filas y columnas es un caso particular de lo que


se llama descomposicion por bloques. En general, podemos partir tanto las
filas como las columnas de una matriz A Mmn (K) para obtener

m1
A11 A12 . . . A1q
A21 A22 . . . A2q m2

A = ..
..
..
..
.
.
.
.
mp
Ap1 Ap2 . . . Apq
n1 n2 . . . nq

es decir, para obtener una division de A en submatrices AIJ , donde I =


1, 2, . . . , p y J = 1, 2, . . . , q.
Esta division se llama descomposicion por bloques de la matriz A. Los
n
umeros m1 , m2 , . . . , mp y n1 , n2 , . . . , nq indican que la submatriz AIJ tiene
tama
no mI nJ , y por tanto verifican que
m1 + m2 + + mp = m y n1 + n2 + . . . nq = n.
En este caso, las submatrices AIJ se diran los bloques de la descomposicion por bloques de A y escribiremos
A = (AIJ ).
Las matrices por bloques se combinan de la misma manera que las matrices con coeficientes escalares, aunque hay que hacer ciertas precisiones sobre
el tama
no de los bloques. Por ejemplo, si B Mmn (K) y consideramos en
B una descomposicion por bloques de la forma

m1
B11 B12 . . . B1q
B21 B22 . . . B2q m2

B = (BIJ ) = ..
..
..
..
.
.
.
.
mp
Bp1 Bp2 . . . Bpq
n1 n2 . . . n q

entonces, A y B se pueden sumar por bloques


C = A + B de tal manera que

C11 C12 . . .
C21 C22 . . .

C = (CIJ ) = ..
..
.
.
Cp1 Cp2 . . .

obteniendose la matriz suma


C1q
C2q
..
.
Cpq

n1 n2 . . . n q

m1
m2
..
.
mp

40

CAPITULO 3. MATRICES Y DETERMINANTES

con CIJ = AIJ + BIJ . Diremos en ese caso que la suma de las matrices A y
B se ha efectuado por bloques.
El producto por bloques es mas complicado.
Supongamos que A Mmr (K) y B Mrn (K), de tal modo que
C = AB Mmn (K). Si para A y B consideramos descomposiciones por
bloques de la forma

A11 A12 . . . A1q


m1
A21 A22 . . . A2q m2

A = ..
..
..
..
.
.
.
.
Ap1 Ap2 . . . Apq
mp
r1 r2 . . . r q

B=

B11 B12 . . . B1t


B21 B22 . . . B2t
..
..
..
.
.
.
Bq1 Bq2 . . . Bqt
n1 n2 . . . nt

r1
r2
..
.
rq

(donde m1 +m2 + +mp = m, r1 +r2 + +rq = r y n1 +n2 + +nt = n),


entonces la matriz producto C = AB admite una descomposicion por bloques
de la forma

m1
C11 C12 . . . C1t
C21 C22 . . . C2t m2

C = ..
..
..
..
.
.
.
.
mp
Cp1 Cp2 . . . Cpt
n1 n2 . . . nt

que verifica, para I = 1, 2, . . . , p y J = 1, 2, . . . , t, que


CIJ = AI1 B1J + AI2 B2J + + AIq BqJ .

Diremos en ese caso que el producto C = AB se ha efectuado por bloques.


Un caso particular de lo anterior es el producto por bloques de una matriz
por un vector. Si

m1
A11 A12 . . . A1q
A21 A22 . . . A2q m2

A = ..
..
..
..
.
.
.
.
mp
Ap1 Ap2 . . . Apq
n1 n2 . . . nq

41

3.5. MATRICES POR BLOQUES


es una descomposicion por bloques de la matriz A Mmn (K) y

v1
n1
v 2 n2

v = ..
..
.
.
vq
nq

es una descomposicion por bloques del vector v Kn (observese que aqu


v1 , v2 , . . . , vq son matrices columna de tama
nos n1 1, n2 2, . . . , nq 1,
respectivamente), entonces el producto
w = Av Mm1 (K) = Km
admite una descomposicion por bloques de

w1
w2

w = ..
.
wp

la forma
m1
m2
..
.
mp

tal que, para I = 1, 2, . . . , p, es


wI = AI1 v1 + AI2 v2 + + AIq vq .
Diremos en ese caso que el producto de la matriz A por el vector v se ha
efectuado por bloques.
Como un primer ejemplo de aplicacion de la teora de matrices por bloques, demostramos el siguiente resultado acerca de matrices simetricas definidas
positivas, que sera usado en la seccion 6.5.
Observaci
on 3.5.1 Si A Mnn (C) es hermitiana (o A Mnn (R) es
simetrica) y definida positiva, entonces la n submatrices principales de A son
definidas positivas. En efecto, pongamos A = (ij ). Si

11 12 . . . 1k
21 22 . . . 2k

Ak = ..
..
.. Mkk (C),
.
.
.
k1 k2 . . . kk

1
2

para k = 1, 2, . . . , n, y si x = .. Ck , x 6= 0, entonces, poniendo


.
k

CAPITULO 3. MATRICES Y DETERMINANTES

42
x =

x
0

Cn y efectuando producto por bloques resulta

x A
x=

Ak



x
0

= x Ak x,

y como x A
x > 0 por ser A definida positiva, se concluye que x Ak x > 0.
Ejemplo:
Sea
A=

A1 A2
A3 A4

M2n2n (R)

una matriz cuadrada de tama


no 2n descompuesta en cuatro bloques A1 , A2 ,
A3 , A4 Mnn (R). Se trata de encontrar una matriz inversible


P1 P2
P =
M2n2n (R)
P3 P4
con P1 , P2 , P3 , P4 Mnn (R), verificando que el producto P A intercambie
la primera y la segunda fila de bloques de la matriz A, es decir, tal que


A3 A4
.
PA =
A1 A2


A3 A4
Efectuando el producto P A por bloques e igualandolo a
A1 A2
llegamos a las ecuaciones
P1 A1 + P2 A3
P1 A2 + P2 A4
P3 A1 + P4 A3
P3 A2 + P4 A4

=
=
=
=

A3
A4
A1
A2

que nos dan como solucion P1 = 0, P2 = I, P3 = I y P4 = 0. Por tanto, la


matriz


0 I
P =
I 0
verifica lo pedido. Para ver que P es inversible podemos tambien utilizar
producto por bloques. Sea


Q1 Q2
Q=
M2n2n (R),
Q3 Q4

43

3.6. RANGO

con Q1 , Q2 , Q3 , Q4 Mnn (R). La igualdad P Q = I escrita por bloques,




 

Q1 Q2
I 0
0 I
,
=
I 0
Q3 Q4
0 I
nos da directamente
Q3 = I , Q4 = 0 , Q1 = 0 , Q2 = I,
de tal modo que
Q=

0 I
I 0

verifica que P Q = I. Es decir, Q = P 1 y P es inversible. Notese que en


este ejemplo es P 1 = P .
Ejercicio: En las condiciones del ejemplo anterior hallense:
1. Una matriz inversible P tal que P A multiplique por la izquierda la
primera fila de bloques de A por una matriz inversible X Mnn (R).
2. Una matriz inversible P tal que P A le sume a la segunda fila de bloques
de A la primera fila de bloques multiplicada por la izquierda por una
matriz X Mnn (R).

3.6

Rango

Definici
on 3.6.1 Se llama rango de un sistema de vectores S en un Kespacio vectorial V al mayor n
umero de vectores linealmente independientes
que se pueden obtener en S; equivalentemente
rango(S) = dim(hSi).
Sea A Mmn (K).
Definici
on 3.6.2 Si se considera cada columna de A como un vector de Km ,
se llama rango de A al rango del sistema de n vectores de Km que constituyen
las columnas de A.
Observaci
on 3.6.1 Denotemos por F1 , F2 , . . . , Fm a las m filas de A. El
rango de A coincide con el rango del sistema de m vectores de Kn dado por
{F1t , F2t , . . . , Fmt }.
Observaci
on 3.6.2 Se verifica que rango(A) = 0 A = 0.

CAPITULO 3. MATRICES Y DETERMINANTES

44

Proposici
on 3.6.1 Una matriz cuadrada A Mnn (K) tiene rango uno si
y s
olo si existen x, y Kn , x 6= 0, y 6= 0, tales que A = xy t .
Demostraci
on:
Si rango(A) = 1, todas las columnas de A son combinacion lineal,
es decir, m
ultiplos, de un vector no nulo x Kn . As, existen escalares 1 ,
2 , . . . , n K (no todos nulos pues sino A = 0) tales que 1 x, 2 x, . . . , n x
son las columnas de A, hecho que denotaremos por
A = (1 x|2 x| . . . |n x).
Si ponemos

x=

y tomamos

y=

se tiene que

xy t =

1
2
..
.
n

1
2
..
.
n
1
2
..
.
n

Kn

Kn

1 2 . . . n

1 1 1 2 . . . 1 n
2 1 2 2 . . . 2 n

..
..
.. = (1 x|2 x| . . . |n x) = A.
.
.
.
n 1 n 2 . . . n n

Si ponemos

entonces

y=

1
2
..
.
n

Kn

A = xy t = (1 x|2 x| . . . |n x),

45

3.6. RANGO
y como x 6= 0 e y 6= 0, se tiene que rango(A) = 1.

Observaci
on 3.6.3 rango(A) = rango(At ).
Proposici
on 3.6.2 Sean P Mmm (K) y Q Mnn (K) inversibles. Entonces
rango(P A) = rango(A) = rango(AQ).
Demostraci
on:
Supongamos que rango(A) = r. Denotemos por C1 , C2 , . . . , Cn Km a
las columnas de A. Supongamos, por comodidad, que {C1 , C2 , . . . , Cr } es
libre (y por tanto, para todo j {r + 1, r + 2, . . . , n} el sistema de vectores
{C1 , C2 , . . . , Cr , Cj } es ligado). Las columnas de la matriz producto P A son
P C1 , P C 2 , . . . , P C n .
Se tiene entonces que {P C1 , P C2 , . . . , P Cr } es libre pues
1 P C1 + 2 P C2 + + r P Cr = 0
P (1 C1 + 2 C2 + + r Cr ) = 0
P 1 P (1 C1 + 2 C2 + + r Cr ) = 0
1 C1 + 2 C2 + + r Cr = 0
1 = 2 = = r = 0.
Ademas, para j {r + 1, r + 2, . . . , n} resulta que el sistema de vectores
{P C1 , P C2 , . . . , P Cr , P Cj } es ligado ya que si Cj = 1 C1 + 2 C2 + + r Cr ,
entonces
P Cj = P (1 C1 + 2 C2 + + r Cr ) =
= 1 P C1 + 2 P C2 + + r P Cr .
As, rango(P A) = r.
Por otra parte, como Qt tambien es inversible,
rango(AQ) = rango(AQ)t = rango(Qt At ) = rango(At ) = rango(A).


46

3.7

CAPITULO 3. MATRICES Y DETERMINANTES

Determinantes

El determinante de una matriz cuadrada A es un escalar, que se denota por


det(A) o por |A|, asociado a la matriz A como se indica a continuacion.
Si A = (11 ) M11 (K) es una matriz cuadrada de tama
no 1, entonces
det(A) = 
11 .

11 12
M22 (K) es una matriz cuadrada de tama
no 2,
Si A =
21 22
entonces det(A)
= 11 22 1221 .
11 12 13

21 22 23 M33 (K) es una matriz cuadrada de


Si A =
31 32 33
tama
no 3, entonces
det(A) = 11 22 33 + 12 23 31 + 13 21 32
13 22 31 11 23 32 12 21 33 .
Este u
ltimo resultado se conoce como regla de Sarrus.
Hasta ahora, hemos definido el determinante para matrices cuadradas de
tama
no 1, 2 o 3. Para definir el determinante para matrices cuadradas de
cualquier tama
no introducimos otros dos conceptos.
Sea A = (ij ) Mnn (K).
Definici
on 3.7.1 El determinante de la matriz cuadrada de tama
no n 1
obtenida de A omitiendo su i-esima fila y su j-esima columna se llama menor
del coeficiente ij y se denota por Mij .
Definici
on 3.7.2 El escalar Aij = (1)i+j Mij se llama cofactor del coeficiente ij de A.
Ahora estamos ya en condiciones de definir el determinante para matrices
cuadradas de cualquier tama
no.
Definici
on 3.7.3 Se define el determinante de A como
det(A) = 11 A11 + 12 A12 + + 1n A1n .
Observaci
on 3.7.1 La definicion que hemos dado de determinante se conoce
como desarrollo del determinante por la primera fila. Se puede probar que
el mismo resultado se obtiene si hacemos el desarrollo del determinante por
cualquier otra fila o por cualquier columna, es decir, si p = 1, 2, . . . , n indica

47

3.7. DETERMINANTES

una fila cualquiera de A = (ij ) Mnn (K) y q = 1, 2, . . . , n indica una


columna, se verifica que
det(A) = p1 Ap1 + p2 Ap2 + + pn Apn =
= 1q A1q + 2q A2q + + nq Anq .
Ejemplo:
Sea

0 1 1 2
1 1 0 2
M44 (R).
A=
1 1
0 1
2 2 3
0

Desarrollando el determinante por la tercera columna obtenemos






0 1
1 1 2
2



|A| = (1)1+3 (1) 1 1 1 + (1)4+3 3 1 1 2 =
1 1 1
2 2 0
= 8 3 3 = 17.

Observaci
on 3.7.2 det(A) = det(At ).
Propiedades 3.7.1 Se verifica que
1. Si todos los elementos de una fila o una columna de la matriz son cero,
su determinante vale cero.
2. Si multiplicamos por un escalar todos los coeficientes de una fila o una
columna de la matriz, el valor del determinante queda multiplicado por
el escalar.
3. Si K, entonces

det(A) = n det(A).

4. Si la matriz tiene dos filas o dos columnas iguales, su determinante es


cero.
5. Si sumamos a una fila un m
ultiplo de otra fila o si sumamos a una
columna un m
ultiplo de otra columna, el valor del determinante no
vara.

CAPITULO 3. MATRICES Y DETERMINANTES

48

6. Si intercambiamos entre s dos filas o si intercambiamos entre s dos


columnas de la matriz, el determinante cambia de signo.
7. Si A, B Mnn (K), entonces det(AB) = det(A)det(B).
Ejemplos:
1) Sea

A=

+ 1
2
3
1
+ 2
3
1
2
+ 3
..
..
..
.
.
.
1
2
3

...
...
...
...

n
n
n
..
.

. . . + n

Mnn (K).

Sumando a la primera columna el resto de columnas



+ 1 + 2 + + n
2
3

+ 1 + 2 + + n + 2
3

+ 1 + 2 + + n
2
+ 3
|A| =

..
..
..

.
.
.

+ 1 + 2 + + n
2
3

obtenemos que

...
n
...
n
...
n

..
...

.

. . . + n

Si ahora le restamos la primera fila a todas las demas



+ 1 + 2 + + n 2 3 . . .


0
0 ...


0
0 ...
|A| =

..
..
...

.
.


0
0 0 ...
= ( + 1 + 2 + + n ) n1 .

resulta que

n
0
0 =
..
.

2) Sea

1 +
1 1 +

1 1 + . .

A=
...
...
...

...

1 +
1 1 +

Mnn (K).

49

3.7. DETERMINANTES

Llamando Dn al determinante de A y desarrollando Dn por la primera


fila resulta que

1+

1




1+1
Dn = (1) (1 + )





1+
1

1+
..
.

..

..

..

..

1+
1














1 + (n1)(n1)


1


1 +


.

1 1 + . .

1+2
+(1) ()
..
..
..

.
.
.


.
. . 1 +



1 1 +

(n1)(n1)


1


1 +


.

1 1 + . .

= (1 + )Dn1 +
..
..
..

.
.
.


..

. 1 +


1 1 +

(n1)(n1)

Si ahora desarrollamos el segundo determinante por la primera columna


queda
Dn = (1 + )Dn1 +

1 +

1 1 +


.

1 1 + . .

1+1
(1) (1)
..
..
..

.
.
.


.
. . 1 +



1 1 +

(n2)(n2)

CAPITULO 3. MATRICES Y DETERMINANTES

50

= (1 + )Dn1 Dn2 .
Aqu, los subndices de la parte inferior derecha de los determinantes
indican el tama
no de las matrices.
La matriz A se dice una matriz tridiagonal y en el calculo de determinantes de este tipo de matrices, la formula
Dn = (1 + )Dn1 Dn2
se llama formula de recurrencia.
Se tiene ademas que
D1 = det(1 + ) = 1 + ,

1 +
D2 =
1 1 +



= (1 + )2 = 1 + + 2 ,

D3 = (1 + )D2 D1 = (1 + )(1 + + 2 ) (1 + ) =
1 + + 2 + 3 .

Probemos, por induccion, que


Dn = 1 + + 2 + + n .
El resultado es cierto para n = 1 (y para n = 2 y n = 3). Supongamos
que
Dn1 = 1 + + 2 + + n1 ,
Dn2 = 1 + + 2 + + n2 .

Entonces
Dn = (1 + )Dn1 Dn2 =

= (1 + )(1 + + 2 + + n1 ) (1 + + 2 + + n2 ) =
= 1 + + 2 + + n1 + + 2 + 3 + + n1 + n
2 n1 =

= 1 + + 2 + + n ,
lo que demuestra el resultado.

51

3.8. MATRICES ELEMENTALES

3.8

Matrices elementales

Definici
on 3.8.1 Se llaman operaciones elementales en las filas (columnas)
de una matriz a cualquiera de las operaciones siguientes:
intercambiar dos filas (columnas)
multiplicar una fila (columna) por un escalar no nulo
sumar a una fila (columna) un m
ultiplo de otra fila (columna)
Definici
on 3.8.2 Se llaman matrices elementales a las resultantes de efectuar operaciones elementales en las filas de la matriz identidad, y son, por
tanto, de tres tipos:
Vpq Mnn (K) consiste en intercambiar las filas p y q de la matriz
identidad,

Vpq

...
1
0 ... ... ...
..
. 1
..
...
.
..
.
1
1 ... ... ...

1
..
.
..
.
..
.
0
1
...
1

Vp () Mnn (K) consiste en multiplicar la fila p de la matriz identidad por el escalar K, 6= 0,

Vp () =

...
1

1
...
1

52

CAPITULO 3. MATRICES Y DETERMINANTES


Vpq () Mnn (K) consiste en a
nadir veces la fila q de la matriz
identidad a la fila p,

Vpq () =

1
...
1 ...
. . . ..
.
1
...
1

Observaci
on 3.8.1 Cada operacion elemental en las filas (columnas) de una
matriz se realiza multiplicando la matriz por la izquierda (derecha) por la
correspondiente matriz elemental.
Observaci
on 3.8.2 De la observacion 3.8.1 se deduce que los tres tipos de
matrices elementales son inversibles, siendo
1
Vpq1 = Vpq , Vp ()1 = Vp ( ), Vpq ()1 = Vpq ().

Por tanto, de la proposicion 3.6.2 se deduce que efectuar operaciones


elementales en las filas o en las columnas de una matriz no altera el rango
de la matriz.
Observaci
on 3.8.3 Sea A Mmn (K) una matriz de rango r. Haciendo
operaciones elementales en las filas y en las columnas de A se puede llegar
siempre a conseguir una matriz de la forma


Ir 0
Mmn (K).
0 0
Equivalentemente, existen P Mmm (K) y Q Mnn (K) inversibles
tales que


Ir 0
Mmn (K).
P AQ =
0 0
En la practica, se parte de un esquema de la forma
In
A Im

53

3.8. MATRICES ELEMENTALES

y se realizan operaciones elementales en las filas y las columnas de este esquema hasta llegar a otro esquema de la forma
Q


Ir 0
0 0

Ejemplo:
De ahora en adelante, cuando deseemos indicar las operaciones elementales que se realizan en un determinado proceso, utilizaremos como notacion Fi
y Cj para referirnos, respectivamente, a las filas y las columnas de la matriz.
Sea

1 1 2 3
A = 0 2 2 1 M34 (R)
1 1 4 4
El proceso descrito en la observacion 3.8.3 se realiza como sigue:

1
0
0
0
1
0
0

1
0
0
0
1
0
1

0
1
0
0
1
2
1

0
1
0
0
1
2
0

0
0
1
0
2
2
0

1
0
0
0
1
0
0

0
1
0
0
1
2
0

1
0
0
0
1
0
0

1
1
0
0
0
2
0

2
0
1
0
0
2
0

2
0
1
0
0
2
0

0
0
1
0
2
2
4

0
0
0
1
3
1
0

3
0
0
1
0
1
0

7/2
1/2
0
1
0
0
0

0
0
0
1
3
1
4

F3 F1

1
0
0

0
1
0

0
0
1

C4 3C1

1
0
1

0
1
1

0
0
1

C2 +C1

1
0
1

0
1
1

0
0
1

C3 C2

1
0
1

0
1
1

0
0
1

1
0
0
0
1
0
0

0
1
0
0
1
2
2

0
0
1
0
2
2
2

0
0
0
1
3
1
1

1
0
0
0
1
0
0

0
1
0
0
1
2
0

0
0
1
0
2
2
0

3
0
0
1
0
1
0

1
1
0
0
0
2
0

2
0
1
0
0
2
0

1
0
0
0
1
0
0

1
0
0
0
1
0
0

1
1
0
0
0
2
0

3
1
1
0
0
0
0

F3 F2

1
0
1

3
0
0
1
0
1
0

7/2
1/2
0
1
0
0
0

0
1
0

0
0
1

C3 2C1

1
0
1

0
1
1

0
0
1

C4 1
C
2 2

1
0
1

0
1
1

0
0
1

1C
2

1
0
1

0
1
1

0
0
1

CAPITULO 3. MATRICES Y DETERMINANTES

54

1
0
0
0
1
0
0

1/2
1/2
0
0
0
1
0

3
1
1
0
0
0
0

7/2
1/2
0
1
0
0
0

1
0
1

0
1
1

0
0
1

As, rango(A) = 2 y las matrices

1 1/2 3 7/2
1
0 0
0 1/2 1 1/2

0
1 0 Q=
P =
0 0
1
0
1 1 1
0 0
0
1

son inversibles y verifican que

1 0 0 0
P AQ = 0 1 0 0 .
0 0 0 0

Definici
on 3.8.3 Sean A, B Mmn (K). Se dice que A y B son equivalentes si existen P Mnn (K) y Q Mmm (K) inversibles tales que
B = QAP .
Notemos
anterior, como P y Q son inversibles, se tiene

que, en el ejemplo
1 0 0 0
que A y 0 1 0 0 son equivalentes. De hecho, se tiene:
0 0 0 0
Proposici
on 3.8.1 Sean A, B Mmn (K). Entonces rango(A) = rango(B)
si y s
olo si A y B son equivalentes.
Teorema 3.8.1 Una matriz cuadrada A Mnn (K) es inversible si y s
olo
si rango(A) = n.
Demostraci
on:
Si existe A1 , entonces A1 A = I, o bien, A1 AI = I con A1 e I
inversibles; luego, A e I son equivalentes y
rango(A) = rango(I) = n.
Si rango(A) = n, entonces A es equivalente a I y existen matrices inversibles P , Q Mnn (K) tales que P AQ = I. Multiplicando esta
igualdad por la izquierda por P 1 y por la derecha por Q1 llegamos a que
A = P 1 Q1 = (QP )1
y A1 = QP .


3.9. METODO
DE GAUSS

3.9

55

M
etodo de Gauss

Dada una matriz A Mnn (K), se trata de encontrar una matriz inversible
M Mnn (K) tal que M A sea triangular superior. Para ello, se realizan
operaciones elementales en las filas de la matriz A, tal y como se indica a
continuacion.
El metodo de Gauss se realiza en n 1 etapas. En la etapa k-esima se
hacen ceros por debajo de la diagonal principal en la columna k-esima.
La explicacion de la etapa k-esima es la siguiente: la matriz de entrada
en la etapa k-esima es de la forma
11 . . . 1 k1
1k
..
..
...

.
.

k1 k1 k1 k

kk

k+1 k

..

.
nk

...
...
...
...
...

1n
..
.

k1 n

kn

k+1 n
..
.
nn

Paso I: Se comprueba si el elemento kk es distinto de cero. Si es distinto


de cero, se pasa al paso II; si kk = 0, se debe intercambiar la k-esima fila
con otra fila j-esima, con j > k, que verifique que jk 6= 0. Si no existiera
una fila en tales condiciones, entonces ya hay ceros por debajo de la diagonal
principal en la columna k-esima y se pasara directamente a la etapa k + 1.
Paso II: La matriz de entrada en este paso II, si ha lugar, despues de
haber efectuado el paso I, es de la forma
11 . . . 1 k1
1k
..
..
...

.
.

k1 k1 k1 k

kk

k+1 k

..

.
nk

...
...
...
...
...

1n
..
.

k1 n

kn

k+1 n
..
.
nn

con kk 6= 0. Para hacer ceros en la columna k-esima por debajo de la


diagonal principal, para cada i = k + 1, k + 2, . . . , n, se le resta a la i-esima
ik
.
fila la k-esima fila multiplicada por kk
Ejemplo:

CAPITULO 3. MATRICES Y DETERMINANTES

56

El metodo de Gauss en la matriz

2 1 1
A= 2 1 3
1 3 1

se realiza

2
2
1

como sigue

2
1
1
2
1
1
1 1
1
F2 F1 , F3 + 2 F2
F2 y F3
0 7 3
0 0 2 intercambio
1 3

2
2
3
7
0 2 2
0 0 2
3 1

La interpretacion matricial de la etapa k-esima del metodo de Gauss es


la siguiente: supongamos que A = (ij ) Mnn (K) es la matriz de entrada
en la etapa k-esima; el paso I consiste en multiplicar A por la izquierda por

I si kk 6= 0

Pk =

V si kk = 0 y se quieren intercambiar las filas k y j,

kj
con j > k y jk 6= 0
La matriz de entrada en el paso II es ahora

Pk Ak = (ij ) Mnn (K)


Cada cero construido en la columna k-esima por debajo de la diagonal
principal se obtiene multiplicando Pk Ak por la izquierda por
Vik (

ik
) i = k + 1, k + 2, . . . , n.
kk

As, el paso II consiste en multiplicar Pk Ak por la izquierda por la matriz


k+2 k
k+1 k
nk
) . . . Vk+2 k (
) Vk+1 k (
)=
kk
kk
kk

...

k+1 k

kk 1
=

k+2 k

kk
1

..
.
.

.
.

Ek = Vnk (

nk
kk


3.9. METODO
DE GAUSS

57

Matricialmente, la etapa k-esima completa consiste en efectuar el producto


Ek Pk Ak .
De esta manera, tras las n 1 etapas, se obtiene que
U = En1 Pn1 . . . E2 P2 E1 P1 A
es triangular superior, siendo
M = En1 Pn1 . . . E2 P2 E1 P1
inversible por ser producto de matrices elementales, que son inversibles.
Observaci
on 3.9.1 Sea A Mnn (K). Sean U Mnn (K) triangular
superior y M = En1 Pn1 . . . E2 P2 E1 P1 Mnn (K) las matrices tales que
U = M A obtenidas al aplicar el metodo de Gauss a la matriz A. Se tiene
entonces que
det(Ek ) = 1

det(Pk ) =

1 si Pk = I

1 si Pk = Vkj

con lo cual, det(M ) = (1)m , siendo m el n


umero de veces que intercambiamos filas al aplicar el metodo de Gauss, y
det(U ) = (1)m det(A).
Observaci
on 3.9.2 Sea A Mnn (K) inversible. Puesto que A1 A = I y
det(I) = 1, se sigue que
det(A1 ) =

1
.
det(A)

Teorema 3.9.1 Sea A Mnn (K). Entonces


rango(A) = n det(A) 6= 0.
Demostraci
on:
Sean U = (ij ) y M tales que U = M A las matrices obtenidas al
aplicar el metodo de Gauss a la matriz A. Como M es inversible,
n = rango(A) = rango(M A) = rango(U ),

CAPITULO 3. MATRICES Y DETERMINANTES

58

y como U es triangular superior, esto supone que 11 , 22 , . . . , nn son no


nulos. Por tanto,
det(U ) = 11 22 . . . nn 6= 0
y det(A) = det(U ) es no nulo.
Supongamos que rango(A) < n. Entonces una columna de A es
combinacion lineal de las demas y, aplicando las propiedades de los determinantes, se sigue que det(A) = 0.

Corolario 3.9.1 Sea A Mnn (K). Entonces A es inversible si y s
olo si
det(A) 6= 0.
Corolario 3.9.2 El rango de una matriz A Mnn (K) es igual al tama
no
de la mayor submatriz cuadrada e inversible que se puede obtener de A.
Observaci
on 3.9.3 Sea A Mnn (K) inversible. Para calcular la inversa
de A se hacen operaciones elementales en las filas de A hasta obtener la
matriz identidad; haciendo las mismas operaciones en las filas de la matriz
identidad obtenemos A1 . En la practica, dichas operaciones elementales se
realizan simultaneamente en las filas de ambas matrices A e I, pasandose de
un esquema de la forma (A|I) a un esquema de la forma (I|A1 ).
Ejemplo:
Sea

1 0 1
A = 1 1 1 M33 (R),
2 0 1

que es inversible pues det(A) = 1 6= 0. Para calcular A1 procedemos como


sigue

1 0 1 1 0 0
F2 F1 ; F3 2F1
(A|I) = 1 1 1 0 1 0

2 0 1 0 0 1

1 0 1 1 0 0
1 +F3
0 1 0 1 1 0 F
0 0
1 2 0 1

1 0 0 1 0 1
F2
0 1 0 1 1 0
0 0 1 2 0 1


3.10. NUCLEO
E IMAGEN

59

1 0 0 1 0 1
0 1 0 1 1 0 = (I|A1 ),
0 0 1 2 0 1

y as,
A1

3.10

1 0 1
= 1 1 0 M33 (R).
2 0 1

N
ucleo e imagen

Sea A = (ij ) Mmn (K). La matriz A define una aplicacion de Kn en Km ,


que seguiremos denotando por la letra A y que esta dada por
A : x Kn Ax Km .

Si x =

1
2
..
.
n

Kn , entonces Ax es el vector

Ax =

11 1 + 12 2 + + 1n n
21 1 + 22 2 + + 2n n
..
.

m1 1 + m2 2 + + mn n

Km .

Observaci
on 3.10.1 La aplicacion A : x Kn Ax Km es una aplicacion lineal, pues verifica que
A(x + y) = Ax + Ay y A(x) = Ax
para x, y Kn y K.
De acuerdo con la definicion 2.8.2 se tiene:
Definici
on 3.10.1 Se definen el n
ucleo y la imagen de la matriz A como
ker(A) = {x Kn ; Ax = 0} Kn ,
Im(A) = {Ax Km ; x Kn } Km ,
respectivamente.

CAPITULO 3. MATRICES Y DETERMINANTES

60

Proposici
on 3.10.1 ker(A) es un subespacio de Kn e Im(A) es un subespacio de Km .
Demostraci
on:
Es consecuencia de la proposicion 2.8.1

Teorema 3.10.1 Supongamos que Bker(A) = {a1 , a2 , . . . , ar } es una base de


ker(A). Por el teorema de compleccion (teorema 2.7.2), existe una base de
Kn de la forma
BKn = {a1 , a2 , . . . , ar , vr+1 , vr+2 , . . . , vn }
Entonces BIm(A) = {Avr+1 , Avr+2 , . . . , Avn } es base de Im(A).
Demostraci
on:
Veamos en primer lugar que hBIm(A) i = Im(A). Sea Ax Im(A), con
x Kn . Expresando x en coordenadas en la base BKn ponemos
x = 1 a1 + 2 a2 + + r ar + r+1 vr+1 + r+2 vr+2 + + n vn .
Entonces
Ax = 1 Aa1 + 2 Aa2 + + r Aar + r+1 Avr+1 + r+2 Avr+2 + + n Avn .
Ahora bien, teniendo en cuenta que a1 , a2 , . . . , ar ker(A) se sigue que
Aa1 = Aa2 = = Aar = 0, y por ello
Ax = r+1 Avr+1 + r+2 Avr+2 + + n Avn hBIm(A) i.
As, hBIm(A) i = Im(A).
Veamos ahora que BIm(A) es libre. Pongamos
r+1 Avr+1 + r+2 Avr+2 + + n Avn = 0,
con r+1 , r+2 , . . . , n K. Entonces
A(r+1 vr+1 + r+2 vr+2 + + n vn ) = 0,
lo que significa que r+1 vr+1 + r+2 vr+2 + + n vn ker(A). Ahora bien,
puesto que Bker(A) es base de ker(A), podemos poner
r+1 vr+1 + r+2 vr+2 + + n vn = 1 a1 + 2 a2 + + r ar ,


3.10. NUCLEO
E IMAGEN

61

con 1 , 2 , . . . , r K. En consecuencia,
1 a1 + 2 a2 + + r ar r+1 vr+1 r+2 vr+2 n vn = 0
y como BKn es base de Kn y por tanto es libre, todos los escalares que aparecen
en la expresion anterior son nulos. En particular
r+1 = r+2 = = n = 0
y BIm(A) es libre.

Corolario 3.10.1 dim(ker(A)) + dim(Im(A)) = dim(Kn ) = n.


Observaci
on 3.10.2 Denotemos por

0
..
.

0

ej = 1 j Kn

0
.
..
0
el j-esimo vector de la base canonica de Kn , para j = 1, 2, . . . , n. Entonces
se verifica que Aej es la j-esima columna de A. Ademas, si Ax Im(A) con

1
2

x = .. = 1 e1 + 2 e2 + + n en Kn
.
n
(aqu, 1 , 2 , . . . , n K son las coordenadas de x en la base canonica de Kn ),
entonces
Ax = 1 Ae1 + 2 Ae2 + + n Aen h{Ae1 , Ae2 , . . . , Aen }i.
De este modo, las columnas de A son un sistema de generadores de Im(A)
y se tiene:
Proposici
on 3.10.2 dim(Im(A)) = rango(A).

CAPITULO 3. MATRICES Y DETERMINANTES

62

Corolario 3.10.2 dim(ker(A)) + rango(A) = dim(Kn ) = n.


Proposici
on 3.10.3 La aplicaci
on A es inyectiva si y s
olo si ker(A) = {0}.
Demostraci
on:
Se sigue de la proposicion 2.8.2

Corolario 3.10.3 Son equivalentes:


i) La aplicaci
on A es inyectiva.
ii) ker(A) = {0}.
iii) dim(ker(A)) = 0.
iv) rango(A) = n.
v) Ax = 0 x = 0, x Kn .
Proposici
on 3.10.4 Son equivalentes:
i) La aplicaci
on A es sobreyectiva.
ii) Im(A) = Km .
iii) rango(A) = m.
Ejemplo:
Sea

1 1 1
2 2 2

A=
0 1 0 M43 (R).
1 1 1

La aplicacion que define la matriz A es la aplicacion

1 2 + 3
1

21 + 22 + 23
x = 2 R3 Ax =

2
3
1 + 2 + 3

R4 .

Vamos a calcular una base y la dimension del n


ucleo y de la imagen de A.
Puesto que rango(A) = 2 (la primera y la u
ltima columna de A son iguales
y las dos primeras forman un sistema libre), entonces
dim(Im(A)) = 2


3.10. NUCLEO
E IMAGEN

63

y, como Im(A) esta engendrado por el sistema de vectores que forman las
columnas de A, por lo dicho antes una base de Im(A) es


1
1
2 2

BIm(A) = {
0 , 1 }.
1
1
Como dim(ker(A)) + dim(Im(A)) = dim(R3 ) = 3, resulta que
dim(ker(A)) = 1.
Ademas,

1
ker(A) = { 2 R3 ;
3

1 2 + 3
21 + 22 + 23
2
1 + 2 + 3

=
=
=
=

0
0
}
0
0

y una base de ker(A) es


Bker(A)

1
= { 0 }.
1

Finalmente, hagamos una particularizacion para el caso de matrices cuadradas.


Sea A Mnn (K). La aplicacion que define A es ahora una aplicacion
de Kn en Kn . De la formula dim(ker(A)) + dim(Im(A)) = dim(Kn ) = n y de
algunas consideraciones anteriores se sigue que:
Proposici
on 3.10.5 Son equivalentes:
i) La aplicaci
on A es biyectiva.
ii) La aplicaci
on A es inyectiva.
iii) La aplicaci
on A es sobreyectiva.
iv) ker(A) = {0}.
v) Im(A) = Kn .
vi) rango(A) = n.
vii) det(A) 6= 0.
viii) A es inversible.

64

CAPITULO 3. MATRICES Y DETERMINANTES

Captulo 4
Sistemas de ecuaciones lineales
4.1

Sistema de ecuaciones lineales

Definici
on 4.1.1 Un sistema de ecuaciones lineales (abreviadamente, un
SEL) es un conjunto de m ecuaciones con n inc
ognitas de la forma
11 1 + 12 2 +
21 1 + 22 2 +
... ... ... ...
m1 1 + m2 2 +

. . . + 1n n =
. . . + 2n n =
... ...
...
...
. . . + mn n =

1
2
...
m

donde los escalares ij K y i K, i = 1, 2, . . . , m, j = 1, 2, . . . , n, se


llaman coeficientes y terminos independientes del SEL, respectivamente, y
donde los valores 1 , 2 , . . . , n , tambien escalares, se llaman inc
ognitas del
SEL.
Definici
on 4.1.2 Una solucion de un SEL de m ecuaciones con n inc
ognitas
1 , 2 , . . . , n es cualquier conjunto de escalares 1 , 2 , . . . , n K que verifiquen las m ecuaciones del SEL.
Observaci
on 4.1.1 El SEL de m ecuaciones con n incognitas
11 1 + 12 2 +
21 1 + 22 2 +
... ... ... ...
m1 1 + m2 2 +

. . . + 1n n =
. . . + 2n n =
... ...
...
...
. . . + mn n =

1
2
...
m

se puede representar de forma matricial mediante una expresion de la forma


Ax = b,
65

66

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

donde

A = (ij ) =

x=

1
2
..
.
n

11
21
..
.

12
22
..
.

. . . 1n
. . . 2n
..
.

Mmn (K),

m1 m2 . . . mn

1
2

b = ..
Kn ,
.

Km .

Definici
on 4.1.3 La matriz A de la observacion 4.1.1 se llama matriz del
SEL; el vector b se llama vector de los terminos independientes y el vector x
se llama solucion del SEL.
Definici
on 4.1.4 Con las
la matriz

11 12
21 22

..
..
.
.
m1 m2

notaciones de la observacion 4.1.1, diremos que

. . . 1n 1
. . . 2n 2

..
.. Mm(n+1) (K),
.
.
. . . mn m

que se denotar
a (A|b), es la matriz ampliada del SEL Ax = b.

4.2

Resoluci
on de un sistema de ecuaciones
lineales

Los SEL se clasifican, atendiendo a su solucion, en sistemas incompatibles,


que son los que no tienen solucion, y sistemas compatibles, que son los que
tienen al menos una solucion. Estos u
ltimos se dividen en sistemas compatibles determinados, que son los que tienen solucion u
nica, y sistemas
compatibles indeterminados, que son los que tienen mas de una solucion.
Consideremos ahora el SEL
Ax = b,

1
1
2
2

con A = (ij ) Mmn (K), x = .. Kn y b = .. Km . Si


.
.
m
n
m
denotamos por C1 , C2 , . . . , Cn K a las columnas de A, entonces el SEL

DE UN SISTEMA DE ECUACIONES LINEALES 67


4.2. RESOLUCION
Ax = b se puede escribir como
1 C1 + 2 C2 + + n Cn = b,
de tal modo que el SEL tiene solucion (es decir, existen 1 , 2 , . . . , n K
tales que 1 C1 + 2 C2 + + n Cn = b) si y solo si b es combinacion lineal
del sistema de vectores {C1 , C2 , . . . , Cn }, es decir, si y solo si
b h{C1 , C2 , . . . , Cn }i.
Se sigue entonces el siguiente resultado:
Teorema 4.2.1 (Teorema de Rouch
e-Fr
obenius) El SEL Ax = b es
compatible si y s
olo si rango(A) = rango(A|b).
Supongamos ahora que el SEL Ax = b es compatible. Si se verifica que
rango(A) = n, entonces {C1 , C2 , . . . , Cn } es libre y, por tanto, es base del
subespacio h{C1 , C2 , . . . , Cn }i. En consecuencia, b se expresa de modo u
nico
como combinacion lineal del sistema de vectores {C1 , C2 , . . . , Cn }, es decir,
existen u
nicos 1 , 2 , . . . , n K tales que
1 C1 + 2 C2 + + n Cn = b
y el SEL Ax = b tiene solucion u
nica, o sea, es compatible determinado.
En cambio, si rango(A) < n, la expresion de b como combinacion lineal
del sistema de vectores {C1 , C2 , . . . , Cn } no es u
nica, y el SEL Ax = b tiene
mas de una solucion, es decir, es compatible indeterminado.
Definici
on 4.2.1 Un SEL se dice homogeneo si el vector de los terminos
independientes es el vector cero. En caso contrario, el SEL se dice no homogeneo o completo.
Definici
on 4.2.2 El SEL homogeneo Ax = 0 se dice sistema homogeneo
asociado al SEL Ax = b.
El conjunto de todas las soluciones del SEL Ax = b se llamara solucion
general de Ax = b mientras que una solucion concreta de Ax = b (es decir,
un vector x Kn tal que Ax = b) se dira una solucion particular de Ax = b.
Proposici
on 4.2.1 La solucion general de Ax = b es igual a una solucion
particular de Ax = b mas la solucion general del SEL homogeneo asociado
Ax = 0; la solucion general del SEL homogeneo asociado est
a dada por
n
{x K ; Ax = 0} = ker(A).

68

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

Definici
on 4.2.3 Dos SEL de m ecuaciones y n inc
ognitas se dicen equivalentes si tienen la misma solucion general.
Cuando el n
umero de ecuaciones de un SEL coincide con el n
umero de
incognitas se tiene lo siguiente:
Teorema 4.2.2 (Teorema de la alternativa) Dado el SEL Ax = b, con
A Mnn (K), x, b Kn , se verifica una de las dos alternativas siguientes,
mutuamente excluyentes:
i) Ax = b tiene solucion u
nica para cualquier b Kn (en ese caso se tiene
que Ax = 0 x = 0).
ii) Ax = 0 tiene soluciones no nulas (en ese caso, si Ax = b tiene solucion,
esta no es u
nica).
Demostraci
on:
Existen dos alternativas para rango(A):
i) Si rango(A) = n, entonces A es inversible y
Ax = b x = A1 b
(es decir, x = A1 b es la solucion u
nica de Ax = b).
ii) Si rango(A) < n, entonces
dim(ker(A)) = n rango(A) > 0,
con lo cual, ker(A) 6= {0} y el SEL homogeneo Ax = 0 tiene soluciones
no nulas.

Para resolver un SEL Ax = b utilizaremos el metodo de Gauss, que se
basa en que realizar operaciones elementales en las filas de la matriz ampliada
b) Mm(n+1) (K),
del SEL no altera su solucion general. Es decir, si (A|
con A Mmn (K) y b Km , es una matriz obtenida de (A|b) mediante
= b
operaciones elementales en sus filas, entonces el SEL Ax = b y el SEL Ax
son equivalentes.
Ejemplo:
Vamos a discutir y a resolver el SEL
1 + 2 + 3 = 2
1 + 2 + 3 = 2
1 + 2 + 23 = 2

DE UN SISTEMA DE ECUACIONES LINEALES 69


4.2. RESOLUCION
en funcion del parametro real .
La matriz ampliada del SEL es

1 1 1 2
(A|b) = 1 1 2 M34 (R).
1 1 2 2
Si a las filas segunda y tercera le restamos la primera fila, obtenemos la
matriz

1
1
1 2
0 1 0 0 ,
0
0
1 0
que nos da las nuevas ecuaciones
1 +

2
+ 3 = 2
( 1)2
= 0
3 = 0

Si 6= 1, resulta que el SEL de partida es compatible determinado con


solucion

2
1
2 = 0 .
0
3
Si = 1, el SEL resultante se reduce a

1 + 2 = 2
3 = 0
que es compatible indeterminado. Una solucion particular del SEL es

2
1
2 = 0 ,
3
0
mientras que la solucion general del SEL homogeneo asociado es

1
h{ 1 }i.
0
As, la solucion general del SEL, cuando = 1, es


2+
1
2
0 + h{ 1 }i = { ; R}.
0
0
0

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

70

4.3

Factorizaciones LU y de Cholesky

Teorema 4.3.1 Sea A =


matrices principales

11
21

..
.
k1

(ij ) Mnn (K) una matriz tal que sus n sub12 . . . 1k


22 . . . 2k
..
..
.
.
k2 . . . kk

Mkk (K),

k = 1, 2, . . . , n, son inversibles. Entonces el metodo de Gauss se puede


aplicar a la matriz A sin necesidad de intercambiar filas. En ese caso, existen una matriz L Mnn (K) triangular inferior con unos en la diagonal
principal y una matriz U Mnn (K) triangular superior tales que
A = LU.
Adem
as, esta factorizacion, llamada factorizacion LU de la matriz A, es
u
nica.
Demostraci
on:
Sea

11 . . . 1 k1
1k
..
..
...

.
.

k1 k1 k1 k

kk
Ak =

k+1 k

..

.
nk

...
...
...
...
...

1n
..
.

k1 n

kn Mnn (K)

k+1 n
..
.
nn

la matriz de entrada en la etapa k-esima del metodo de Gauss aplicado a


la matriz A. Debemos probar que kk 6= 0, pues as no tendremos que
intercambiar la k-esima fila con ninguna otra. Por hipotesis, la submatriz
principal
(11 ) M11 (K)
es inversible. Por tanto, 11 = det(11 ) 6= 0, y por ello
11 = 11 6= 0.
En consecuencia, podemos aplicar el principio de induccion.

71

4.3. FACTORIZACIONES LU Y DE CHOLESKY

Supongamos que el metodo de Gauss aplicado a la matriz A se puede


llevar a cabo, desde la etapa 1 hasta la etapa k 1, sin intercambiar filas. Recordando las notaciones utilizadas para explicar el metodo de Gauss
(seccion 3.10), esto supone que Ak se obtiene de A mediante el producto
Ak = Ek1 Ek2 . . . E2 E1 A,
donde la matriz Ek1 Ek2 . . . E2 E1 es triangular inferior con unos en la diagonal principal por serlo Ek1 , Ek2 , . . . , E2 , E1 . Consideremos las descomposiciones por bloques


A11 A12
k
A=
nk
A21 A22
k

Ak =

A11 A12
A21 A22
k

donde
A11

A11

nk

nk

k
nk

11 12 . . . 1k
21 22 . . . 2k
..
..
..
.
.
.
k1 k2 . . . kk

11 . . . 1 k1
1k

.
..
.
..
..

.
=

k1 k1 k1 k
kk

Consideremos asimismo una descomposicion por bloques de la matriz


Ek1 Ek2 . . . E2 E1 de la forma


E11 E12
k
Ek1 Ek2 . . . E2 E1 =
nk
E21 E22
k

nk

As, la igualdad Ak = Ek1 Ek2 . . . E2 E1 A se lee como



 


A11 A12
E11 E12
A11 A12
=
.
E21 E22
A21 A22
A21 A22

72

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

Como Ek1 Ek2 . . . E2 E1 es triangular inferior con unos en la diagonal


principal, entonces E11 es triangular inferior con unos en la diagonal principal
(lo mismo que E22 ) y E12 = 0. Efectuando el producto por bloques resulta
A11 = E11 A11 + E12 A21 = E11 A11 .
Tomando determinantes nos queda
det(A11 ) = det(E11 A11 ) = det(E11 )det(A11 ) = det(A11 ).
Como por hipotesis A11 es inversible, entonces det(A11 ) 6= 0 y
11 . . . k1 k1 kk = det(A11 ) 6= 0.
En particular, kk 6= 0.
En consecuencia, el metodo de Gauss aplicado a la matriz A se puede
llevar a cabo sin intercambiar filas y existen una matriz
M = En1 En2 . . . E2 E1 ,
que es triangular inferior con unos en la diagonal principal, y una matriz
U = M A triangular superior, que verifican
A = M 1 U = LU,
donde L = M 1 tambien es triangular inferior con unos en la diagonal principal por serlo M .
Esto prueba la existencia. La unicidad de la factorizacion se deja como
ejercicio.

Observaci
on 4.3.1 El proceso descrito en la demostracion anterior para
el calculo de la factorizacion LU de una matriz A Mnn (K) se puede
concretar en lo siguiente: si A Mnn (K) admite factorizacion LU , para
calcularla se hacen operaciones elementales en las filas del esquema (A|I), sin
intercambiar filas, hasta llegar al esquema (U |M ), con U triangular superior
y M triangular inferior con unos en la diagonal principal, y finalmente se
calcula L = M 1 .
Ejemplo:
Dada la matriz

3
0 2 1
3 2
4 3
M44 (R),
A=
3
0 1 7
6 2 5 12

73

4.3. FACTORIZACIONES LU Y DE CHOLESKY


que admite factorizacion LU porque


3 0


3 2 = 6 6= 0,

|3| = 3 6= 0 ,

3 0 2

3 2 4

3 0 1




= 6 6= 0 ,

|A| = 12 6= 0,

para calcularla partimos del esquema

3
0 2 1 1 0
3 2
4 3 0 1
(A|I) =
3
0 1 7 0 0
6 2 5 12 0 0

0
0
1
0

0
0

0
1

y procedemos como sigue:

(A|I)

F2 +F1 F3 F1 F4 2F1

3 0
0 2
F4 +F2

0 0
0 0

3 0 2

2
F4 F3 0 2

0 0 1
0 0 0

de modo que

3
0
U =
0
0

Para calcular L = M 1

1
1
(M |I) =
1
0

1 0
3 0 2 1
0 2
2
2
1 1

0 0
1
6 1 0
0 2 1 10 2 0
1 0
2 1
2 2 1 1
1
6 1 0
1
8 1 1
1 0 0
1
2 1 1 0
6 1 0 1
0 1 1
2

0
0
1
0

0
0

0
1

0 0
0 0

1 0
0 1

0
0
= (U |M ),
0
1

0 2 1
2 2 2
M44 (R).
0 1
6
0 0
2

hacemos:
0 0
1 0
0 1
1 1

0
0
0
1

1
0
0
0

0
1
0
0

0
0
1
0

0
0
1 F3 +F1
F2 F
0
1

74

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

1
0

0
0

1
0

0
0

0 0
1 0
0 1
1 1
0 0
1 0
0 1
0 1

resultando

1 0
0 1

0 0
0 0

L = M 1

0
0
1
0

0
0
4 F2
F
0
1

0 0
0 0
4 +F3
F

1 0
0 1

0
0
= (I|M 1 ),
0
1

0 1 0 0
0 1 1 0
0 1 0 1
1 0 0 0
0 1
0
0 1 1
0 1
0
1 1 1

0 1
0
0 1 1
0 1
0
1 2 1

0
0
1
1

0
0
1
1

1
0
1 1
=
1
0
2 1

0
0
M44 (R).
0
1

Observaci
on 4.3.2 Si A Mnn (K) admite factorizacion LU , su factorizacion LU se puede aplicar tanto a la resolucion de un SEL Ax = b, con x,
b Kn , como al calculo de A1 , pues
para obtener x Kn tal que Ax = b basta resolver sucesivamente los
SEL, con matrices triangulares,
Ly = b y U x = y,
con y Kn .
A1 = (LU )1 = U 1 L1 = U 1 M .
Observaci
on 4.3.3 Sea A Mnn (K) una matriz que admita factorizacion
LU . Los coeficientes de las matrices L y U se pueden calcular tambien
directamente siguiendo el orden que indicamos a continuacion:
coeficientes de la primera fila de U ,
coeficientes de la primera columna de L,
coeficientes de la segunda fila de U ,

75

4.3. FACTORIZACIONES LU Y DE CHOLESKY


coeficientes de la segunda columna de L,
etcetera.
Ejemplo:
Sea de nuevo

3
0 2 1
3 2
4 3
M44 (R).
A=
3
0 1 7
6 2 5 12

Para calcular la

1
21
L=
31
41

factorizacion LU de A pongamos

11 12 13
0
0 0
0 22 23
1
0 0
, U =
0
32 1 0
0 33
42 43 1
0
0
0

14
24
.
34
44

Efectuando el producto de L por U e igualando a A se obtienen


i) coeficientes de la primera fila de U :
3 = 11 , 0 = 12 , 2 = 13 , 1 = 14 ,
ii) coeficientes de la primera columna de L:
3 = 21 11 21 =

3
3
= 1,
=
11
3

3 = 31 11 31 =

3
3
= = 1,
11
3

6 = 41 11 41 =

6
6
= = 2,
11
3

iii) coeficientes de la segunda columna de U :


2 = 21 12 + 22 22 = 2 21 12 = 2 (1) 0 = 2,
4 = 21 13 + 23 23 = 4 21 13 = 4 (1)(2) = 2,
3 = 21 14 + 24 24 = 3 21 14 = 3 (1) 1 = 2,

76

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

iv) coeficientes de la segunda columna de L:


0 = 31 12 + 32 22 32 =
2 = 41 12 + 42 22 42 =

(1) 0
31 12
=
= 0,
22
2

2 41 12
2 2 0
=
= 1,
22
2

v) coeficientes de la tercera fila de U :


1 = 31 13 + 32 23 + 33 33 = 1 31 13 32 23 =
= 1 1 (2) 0 2 = 1,
7 = 31 14 + 32 24 + 34 34 = 7 31 14 32 24 =
= 7 1 1 0 (2) = 6,

vi) coeficientes de la tercera columna de L:


5 = 41 13 + 42 23 + 43 33 43 =

5 41 13 42 23
=
33

5 2 (2) (1) 2
= 1,
1
vii) coeficientes de la cuarta fila de U :
12 = 41 14 + 42 24 + 43 34 + 44
44 = 1241 14 42 24 43 34 = 1221(1)(2)16 = 2.
De este modo resultan

1
0
1 1
L=
1
0
2 1

0
0
1
1

0
0
,
0
1

3
0
U =
0
0

0 2 1
2 2 2
,
0 1
6
0 0
2

como ya sabamos.
Ejercicio: Averiguar si el SEL
1
i1 2 +
23
1
+
23
21 + 2 + (1 2i)3

+ 4
i4
+ 4
+ 4

=
=
=
=

i
i
i
i

4.3. FACTORIZACIONES LU Y DE CHOLESKY

77

se puede resolver utilizando factorizacion LU y resolverlo, en su caso, usando


dicha factorizacion.
Restringiendo la clase de matrices a las que se puede aplicar el teorema
4.3.1 se puede obtener una factorizacion mas sencilla.
Teorema 4.3.2 Sea A = (ij ) Mnn (R) una matriz simetrica verificando
que sus n submatrices principales tienen determinante positivo. Entonces
existe al menos una matriz B Mnn (R) triangular inferior tal que
A = BB t .

Si ademas imponemos que los coeficientes de la diagonal principal de B


sean estrictamente positivos, entonces la factorizacion A = BB t , que se
llama factorazaci
on de Cholesky de A, es u
nica.
Demostraci
on:
Sea A = LU la factorizacion LU de A, que existe pues las n submatrices principales de A son inversibles. Pongamos U = (ij ) Mnn (R).
Consideremos las descomposiciones por bloques
A=

A11 A12
A21 A22
k

nk

k
nk

con

de A,

A11 =

U=

11 12 . . . 1k
21 22 . . . 2k
..
..
..
.
.
.
k1 k2 . . . kk

U11 U12
U21 U22
k

nk

k
nk

con

U11

11 12 . . . 1k

22 . . . 2k

=
. . . ..

.
kk

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

78
de U , y

L=

L11 L12
L21 L22
k

nk

k
nk

de L. De este modo, L11 es triangular inferior con unos en la diagonal


principal (lo mismo que L22 ) y L12 = 0. As, A = LU se escribe como

 


A11 A12
L11 L12
U11 U12
=
.
A21 A22
L21 L22
U21 U22
Efectuando el producto por bloques resulta que
A11 = L11 U11 + L12 U21 = L11 U11 ,
y tomando determinantes se sigue que
det(A11 ) = det(L11 )det(U11 ) = det(U11 ).
Hemos probado as que, para todo k = 1, 2, . . . , n, el determinante de la
submatriz principal de A de tama
no k k coincide con
det(U11 ) = 11 22 . . . kk .
Por hipotesis se sigue que 11 22 . . . kk > 0 para todo k = 1, 2, . . . , n.
Es decir, todos los coeficientes de la diagonal principal de U son positivos.
Consideremos ahora la matriz diagonal

D = diag( 11 , 22 , . . . , nn ) Mnn (R),


que es tal que
D1 = diag(

1
1
1
, ,...,
) Mnn (R).
11
22
nn

Entonces definimos B = LD y C = D1 U . Se tiene as que A = BC.


Ademas, la simetra de A implica que
BC = A = At = C t B t ,
o bien que
C(B t )1 = B 1 C t .

4.3. FACTORIZACIONES LU Y DE CHOLESKY

79

Ahora bien, la inversa de una matriz triangular superior (inferior) es


triangular superior (inferior) y el producto de matrices triangulares superiores
(inferiores) es triangular superior (inferior). De ello se deduce que C(B t )1 es
triangular inferior y que B 1 C t es triangular inferior. Por tanto, la igualdad
C(B t )1 = B 1 C t obliga a que tanto C(B t )1 como B 1 C t sean diagonales.
Por otra parte, los coeficientes de la diagonal principal de C = D1 U son
11 , 22 , . . . , nn y los coeficientes de la diagonal principal de (B t )1 son
11
22
nn
1 , 1 , . . . , 1 . En consecuencia, C(B t )1 es una matriz diagonal con
11
22
nn
unos en la diagonal principal, es decir, C(B t )1 = I y C = B t .
La unicidad en el caso de que los coeficientes de la diagonal principal de
B sean estrictamente positivos se deja como ejercicio.

Observaci
on 4.3.4 Mas adelante (veanse el corolario 6.5.5 y la observacion
6.5.4) se vera que las matrices simetricas que admiten factorizacion de Cholesky
son las que son definidas positivas.
Observaci
on 4.3.5 Si A Mnn (R) es simetrica y admite factorizacion de
Cholesky, la factorizacion de Cholesky A = BB t de A se puede aplicar tanto
a la resolucion de un SEL Ax = b, con x, b Rn , como al calculo de A1 , ya
que
para obtener x Rn tal que Ax = b basta resolver sucesivamente los
SEL, con matrices triangulares,
By = b y B t x = y,
con y Rn .
A1 = (BB t )1 = (B t )1 B 1 = (B 1 )t B 1 .
Ejemplo:
La matriz

1 2 3
A = 2 20 18 M33 (R),
3 18 19

que es simetrica, verifica tambien que los determinantes de sus submatrices


principales son positivos porque


1 2
= 16 > 0, det(A) = 16 > 0.
det(1) = 1 > 0, det
2 20

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

80

Por tanto, A admite factorizacion de Cholesky. Para calcularla, obtenemos en primer lugar la factorizacion LU de A, que es

1 2 3
1 0 0
L = 2 1 0 , U = 0 16 12 .
0 0 1
3 43 1
Si ahora ponemos

D = diag( 1, 16, 1) = diag(1, 4, 1),
entonces A = BB t siendo

1 0 0
B = LD = 2 4 0 .
3 3 1

4.4

M
etodos iterativos

Dada la ineficacia practica de los metodos numericos directos, tales como


la eliminacion gaussiana, para resolver sistemas de ecuaciones lineales de la
forma Ax = b cuando A es una matriz cuadrada de gran tama
no, es necesario
introducir los metodos iterativos para abordar su resolucion. Dentro de los
metodos iterativos, los mas usualues son los llamados metodos lineales, que
responden a la formula
xk+1 = Bxk + c,
con B Mnn (R) y c Rn , y entre ellos cabe destacar los que definen B y
c a partir de una descomposicion A = M N de la matriz A Mnn (R).
Definici
on 4.4.1 Un metodo iterativo lineal para la resolucion de un SEL
Ax = b, con A Mnn (R) y b Rn , es aquel que responde al esquema
xk+1 = Bxk + c,
k0
n
x0 R
arbitrario,

donde B Mnn (R) y c Rn dependen de los datos A y b; es mas, B


solamente depende de A. El metodo se dice convergente si la sucesi
on de
vectores {xk } converge a la solucion del SEL Ax = b para cualquier vector
inicial x0 .
Supongamos entonces que deseamos resolver el SEL Ax = b, con A
Mnn (R) inversible y b Rn . Supongamos que se pueden encontrar una
matriz B Mnn (R) y un vector c Rn tales que


4.4. METODOS
ITERATIVOS

81

i) Existe (I B)1 ,
ii) (I B)x = c Ax = b,
es decir, tales que la matriz I B sea inversible y que el SEL (I B)x = c
tenga la misma solucion que el SEL Ax = b. Se tendra as que x = Bx + c,
que es lo que sugiere el metodo iterativo lineal anteriormente descrito. Dicho
metodo sera convergente si
lim xk = x
n

para todo vector inicial x0 R .


A la matriz B se le llama matriz del metodo iterativo.
A continuacion, vamos a describir tres metodos iterativos clasicos (metodos
de Jacobi, de Gauss-Seidel y de relajacion). Todos ellos son casos particulares
del metodo que exponemos a continuacion.
Supongamos que la matriz inversible A se puede escribir bajo la ley de
descomposicion A = M N , siendo M inversible (en la practica, M debe ser
facilmente inversible, diagonal, triangular, triangular por bloques, etcetera).
Entonces
Ax = b (M N )x = b M x = N x + b x = M 1 N x + M 1 b,
y si ponemos, como en el caso de un metodo iterativo lineal, x = Bx + c,
resultan c = M 1 b y B = M 1 N = M 1 (M A) = I M 1 A, siendo
I B = M 1 A una matriz inversible. El metodo iterativo que se propone
entonces es
xk+1 = M 1 N xk + M 1 b,
k0
n
x0 R
arbitrario.

En la practica lo que se utiliza es

M x+1 = N xk + b,

k 0.

M
etodo de Jacobi:
Sean, en todo lo que resta de seccion, A = (ij ) Mnn (R) una matriz
con ii 6= 0 para cualquier i = 1, 2, . . . , n, y D, E, F Mnn (R) definidas
por D = diag(11 , 22 , . . . , nn ),

...
...


E = . 21 .
...
..
..
n1 . . . n n1

0
..
.
..
.
0

,
F
=

0 12 . . . 1n
..
.. . .
. ...
.
.
..
...
n1 n
.
0 ...
0
0

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

82

de tal forma que


A = D E F = M N,

siendo M = D y N = E + F . La matriz B = M 1 N del metodo iterativo es


B = D1 (E + F )
y el vector c = M 1 b es
c = D1 b.
Notese que D es inversible porque ii 6= 0 para cualquier i = 1, 2, . . . , n.
En consecuencia
Ax = b Dx = (E + F )x + b x = D1 (E + F )x + D1 b
y por tanto, el algoritmo de Jacobi sera
xk+1 = D1 (E + F )xk + D1 b.
Poniendo xk+1 = (1k+1 , 2k+1 , . . . , nk+1 )t y xk = (1k , 2k , . . . , nk )t , la expresion anterior nos da las formulas

ik+1

i1
n
X
X

1
k

ij j
j jk + bi , i = 1, 2, . . . , n, k = 0, 1, . . .
=
ii
j=1
j=i+1

M
etodo de Gauss-Seidel:
El metodo de Jacobi se puede mejorar utilizando las cantidades ya calculadas. Usando las notaciones anteriores, en el metodo de Gauss-Seidel,
para calcular el escalar ik+1 se utilizan los escalares jk+1 , j < i, ya calculados
previamente.
Las formulas

ik+1

i1
n
X
X

1
k+1

ij j
ij jk + bi ,
=
ii
j=1
j=i+1

i = 1, 2, . . . , n, k = 0, 1, . . .

se llaman formulas de Gauss-Seidel. Estas formulas resultan de aplicar el


metodo iterativo A = M N con
M = D E, N = F.


4.4. METODOS
ITERATIVOS

83

En efecto, las formulas anteriores corresponden al producto


xk+1 = D1 (Exk+1 + F xk + b),
de donde
Dxk+1 = (Exk+1 + F xk + b) (D E)xk+1 = F xk + b
xk+1 = (D E)1 F xk + (D E)1 b, k = 0, 1, . . .

lo que prueba que M = D E y N = F . En este caso, la matriz del metodo


es B = (D E)1 F y el vector c = M 1 b es c = (D E)1 b.
M
etodo de relajaci
on:
Se trata de introducir en el algoritmo de Gauss-Seidel un parametro > 0
con el fin de mejorar la velocidad de convergencia. Concretamente, definimos
M =

D
E,

N =

1
D + F,

de tal modo que


M N =

1
D
E
DF =

D D E + D F
D E (1 )D F
=
= DEF = A.

Esta eleccion de M y N proporciona el metodo iterativo de relajacion,


que responde al esquema



D
1
E xk+1 =
D + F xk + b, k 0.

Operando resulta que


1
D
xk+1 =
Dxk + F xk + Exk+1 + b,

y, multiplicando por ,

Dxk+1 = Dxk Dxk Exk+1 F xk + b .

De esta u
ltima expresion se deducen las formulas
i1

ik+1

= (1

)ik

X
X


ij jk+1
ij jk + bi ,
ii
j=1
j=1

para i = 1, 2, . . . , n, k = 0, 1, . . . .

CAPITULO 4. SISTEMAS DE ECUACIONES LINEALES

84

La matriz del metodo por tanto es

B =

1 1
 1
D
E
D + F = (D E)1 [(1 )D + F ],

y el vector c = M1 b es
1
D
E b.

Notemos que si = 1 el metodo que se obtiene es el de Gauss-Seidel.


c =

Captulo 5
Autovalores y autovectores
5.1

Autovalores y autovectores

Sea A Mnn (K) una matriz cuadrada de tama


no n.
Definici
on 5.1.1 Un escalar C se dice autovalor o valor propio de A si
existe un vector x Cn , x 6= 0, tal que
Ax = x.
Definici
on 5.1.2 Un vector x Cn , x =
6 0, se dice autovector o vector
propio de A si existe un escalar C tal que
Ax = x.
Observaci
on 5.1.1 Si Ax = x con C y x Cn , x 6= 0, se dira que el
autovalor esta asociado al autovector x y viceversa.
Observaci
on 5.1.2 Si x Cn , x =
6 0, es un autovector de A, el autovalor
C de A asociado a x es u
nico. En efecto, si fuese
Ax = x y Ax = x,
con C, se tendra que ( )x = 0, y como x 6= 0, entonces = 0 y
= .
En cambio, si C es un autovalor de A, existen infinitos autovectores
de A asociados a . En efecto, si x Cn , x 6= 0, es un autovector de A
asociado a (es decir, si Ax = x) y si C, 6= 0, se sigue que
A(x) = (Ax) = (x) = (x)
y x es tambien autovector de A asociado a .
85

86

CAPITULO 5.

AUTOVALORES Y AUTOVECTORES

Definici
on 5.1.3 El conjunto de autovalores de A se llama espectro de A y
se denota por Sp(A).
Definici
on 5.1.4 El polinomio de grado n en la variable
pA () = det(A I)
se llama polinomio caracterstico de A; la ecuaci
on det(A I) = 0 se llama
ecuaci
on caracterstica de A.
Proposici
on 5.1.1 Los autovalores de A son las races de la ecuaci
on caracterstica pA () = det(A I) = 0.
Demostraci
on:
Si Sp(A), entonces existe x Cn , x 6= 0, tal que Ax = x, o bien, tal
que
(A I)x = 0.
As, x ker(AI), con lo cual, dim(ker(AI)) 1, rango(AI) < n
y det(A I) = 0.
Recprocamente, si C es tal que det(A I) = 0, entonces se tiene
que rango(A I) < n y dim(ker(A I)) 1. Por tanto, existe x Cn ,
x 6= 0, tal que
(A I)x = 0,
o sea, tal que Ax = x, y es un autovalor de A asociado al autovector x.

Ejemplo:
Sea

0 1 2
2 M33 (R).
A= 0 0
1 1
1

El polinomio caracterstico de A es

1 2

2
pA () = det(A I) = 0
1
1 1

= ()()(1 ) 2 2 + 2 = 3 + 2 2.
Como 1 es raz de pA () pues pA (1) = 0, dividimos pA () entre + 1
utilizando la regla de Ruffini. Se tiene

5.1. AUTOVALORES Y AUTOVECTORES

87

1 1 0 2
1
1 2 2
1 2 2 | 0

resultando pA () = ( + 1)(2 + 2 2). Y como


1i

8
2

2i

2 + 2 2 = 0 =
=
=

2
2
1+i
se obtiene que los autovalores de A son
1, 1 i, 1 + i.
Observaci
on 5.1.3 El polinomio caracterstico de A es un polinomio de
grado n; por tanto, tiene a lo sumo n races distintas, o bien, tiene exactamente n races no necesariamente distintas. As, la matriz A Mnn (K)
tiene, a lo sumo, n autovalores distintos, o bien, tiene exactamente n autovalores, no necesariamente distintos.
Proposici
on 5.1.2 Sean 1 , 2 , . . . , n C los autovalores de A. Entonces
traza(A) = 1 + 2 + + n ,
det(A) = 1 2 . . . n .
Definici
on 5.1.5 Sean 1 , 2 , . . . , n C los autovalores de A. Se llama
radio espectral de A, y se denota (A), al modulo del autovalor de A de
mayor modulo, es decir
(A) = max |i |.
i=1,2,...,n

Observaci
on 5.1.4 De la proposicion 5.1.2 se sigue que
|traza(A)| n (A),

|det(A)| ((A))n .

Observaci
on 5.1.5 Si A es diagonal o triangular, los autovalores de A son
los elementos de la diagonal principal de A.
Proposici
on 5.1.3 Si A es inversible, todos sus autovalores son no nulos.
Adem
as,
1
Sp(A) Sp(A1 ).

CAPITULO 5.

88

AUTOVALORES Y AUTOVECTORES

Demostraci
on:
La primera afirmacion se sigue de que el determinante de A es el producto
de los autovalores de A. Ademas,
Sp(A) existe x Cn , x 6= 0, tal que Ax = x
existe x Cn , x 6= 0, tal que

1
1
x = A1 x Sp(A1 ).

5.2

Subespacio propio

Sea A Mnn (K).


Definici
on 5.2.1 Sea Sp(A). El conjunto
E = {x Cn ; Ax = x} = ker(A I),
que es un subespacio puesto que es el n
ucleo de una matriz, se llama subespacio propio asociado al autovalor .
Observaci
on 5.2.1 Sea Sp(A). Se tiene:
1. dim(E ) = dim(ker(A I)) = n rango(A I).
2. dim(E ) 1, porque al ser det(A I) = 0 entonces se verifica que
rango(A I) < n.
Definici
on 5.2.2 Sea Sp(A). Se llama multiplicidad algebraica de ,
y se denota m.a.(), a la multiplicidad de como raz del polinomio caracterstico pA () = det(A I). Se llama multiplicidad geometrica de , y se
denota m.g.(), a la dimensi
on del subespacio propio asociado a , es decir
m.g.() = dim(ker(A I)).
Proposici
on 5.2.1 Sea Sp(A). Entonces
m.g.() m.a.().
Observaci
on 5.2.2 Sea Sp(A). Si m.a.() = 1, entonces m.g.() = 1.

89

5.2. SUBESPACIO PROPIO


Ejemplo:
Sea

0 1 2
2 M33 (R).
A= 0 0
1 1
1

Ya sabemos que
Sp(A) = {1, 1 i, 1 + i}
con
m.a.(1) = m.a.(1 i) = m.a.(1 + i) = 1,
y, por tanto, seg
un la observacion 5.2.2,
m.g.(1) = m.g.(1 i) = m.g.(1 + i) = 1.
Ademas,
E1

0
1 1 2
2 = h{ 2 }i.
= ker(A + I) = ker 0 1
1
1 1
2

Por otra parte,


E1i

1 + i
1
2
0
1 + i 2 =
= ker(A (1 i)I) = ker
1
1
i

1
{ 2 C3 ;
3

(1 + i)1
1

2
23 = 0
(1 + i)2 + 23 = 0 }.
+
2
+ i3 = 0

Ahora bien,
(1 + i)2 + 23 = 0 2 =
2 =

2
3
1 + i

2(1 i)
2(1 i)
3 =
3 = (1 + i)3 .
(1 + i)(1 i)
2

Por otra parte,

(1 + i)1 2 23 = 0
1
+ 2 + i3 = 0

i1 + (2 + i)3 = 0

CAPITULO 5.

90

1 =

AUTOVALORES Y AUTOVECTORES

(2 i)(i)
(2 i)
3 =
3 = (1 2i)3 ,
i
i(i)

de tal modo que


E1i

1 2i
= h{ 1 + i }i.
1

Analogamente se ve que
E1+i

1 + 2i
= h{ 1 i }i.
1

Proposici
on 5.2.2 Sean 1 , 2 , . . . , r r autovalores distintos de A. Sean
x1 , x2 , . . . .xr Cn , x1 6= 0, x2 6= 0, . . . , xr 6= 0, tales que
Ax1 = 1 x1 , Ax2 = 2 xx , . . . , Axr = xr .
Entonces el sistema {x1 , x2 , . . . , xr } es libre.
Demostraci
on:
Haremos la demostracion por induccion en r. Si r = 1, el resultado es
cierto pues, como x1 6= 0, entonces {x1 } es libre.
Supongamos que el sistema {x1 , x2 , . . . , xr1 } es libre. Probaremos que
el sistema {x1 , x2 , . . . , xr1 , xr } es libre. Pongamos
1 x1 + 2 x2 + + r1 xr1 + r xr = 0.
Entonces
0 = (A r I)(1 x1 + 2 x2 + + r1 xr1 + r xr ) =
= 1 (A r I)x1 + 2 (A r I)x2 + + r1 (A r I)xr1 + r (A r I)xr ,
donde, para j = 1, 2, . . . , r 1, es
(A r I)xj = Axj r xj = j xj r xj = (j r )xj
y donde
(A r I)xr = Axr r xr = r xr r xr = 0.
Sustituyendo nos queda
0 = 1 (1 r )x1 + 2 (2 r )x2 + + r1 (r1 r )xr1 ,

5.2. SUBESPACIO PROPIO

91

y como {x1 , x2 , . . . , xr1 } es libre, resulta


1 (1 r ) = 2 (2 r ) = = r1 (r1 r ) = 0.
Ahora bien, los autovalores 1 , 2 , . . . , r1 , r son distintos, y por ello,
1 = 2 = = r1 = 0,
resultando finalmente que r xr = 0, y como xr 6= 0, tambien es r = 0.

Corolario 5.2.1 Sean 1 , 2 , . . . , r r autovalores distintos de A. La suma


E1 + E2 + + Er de los subespacios propios asociados es directa.
Definici
on 5.2.3 Sean A, B Mnn (K). Se dice que A y B son semejantes
si existe P Mnn (K) inversible tal que B = P 1 AP .
Definici
on 5.2.4 Sean A, B Mnn (K). Se dice que A y B son congruentes si existe Q Mnn (K) inversible tal que B = Q AQ.
Observaci
on 5.2.3 Notese que dos matrices A, B Mnn (K) semejantes
o congruentes son equivalentes.
Proposici
on 5.2.3 Si A, B Mnn (K) son semejantes, entonces A y B
tienen el mismo polinomio caracterstico (y tienen, por tanto, los mismos
autovalores).
Demostraci
on:
Supongamos que B = P 1 AP con P Mnn (K) inversible. Entonces
det(B I) = det(P 1 AP I) = det(P 1 AP P 1 IP ) =
= det(P 1 AP P 1 (I)P ) = det(P 1 (A I)P ) =
= det(P 1 )det(A I)det(P ) =
= (det(P ))1 det(A I)det(P ) = det(A I).


CAPITULO 5.

92

AUTOVALORES Y AUTOVECTORES

Observaci
on 5.2.4 El recproco del resultado anterior no es, en general,
cierto. Por ejemplo, si




1 1
1 0
M22 (R),
, B=
I=
0 1
0 1
entonces = 1 es el u
nico autovalor, tanto de I como de B, con multiplicidad
algebraica igual a 2. Por tanto, el polinomio caracterstico, tanto de I como
de B, es
det(I I) = det(B I) = (1 )2 .

Sin embargo, I y B no son semejantes, pues para cualquier matriz inversible P M22 (R) se tiene que P 1 IP = I 6= B; en otras palabras, I y
B no son semejantes ya que I 6= B y la u
nica matriz semejante a la matriz
identidad es la propia matriz identidad.

5.3

Diagonalizaci
on por semejanza

Sea A Mnn (C) una matriz cuadrada de tama


no n.
Definici
on 5.3.1 Se dice que A es diagonalizable por semejanza (o simplemente que A es diagonalizable) si A es semejante a una matriz diagonal, es
decir, si existe P Mnn (C) inversible tal que P 1 AP es diagonal.
Supongamos que A es diagonalizable y sea P Mnn (C) inversible tal
que P 1 AP = D es diagonal. Sean 1 , 2 , . . . , n los autovalores de A.
Como A y D son semejantes, por la proposicion 5.2.3 A y D tienen los
mismos autovalores, es decir
D = diag(1 , 2 , . . . , n ).
Mas aun, si x1 , x2 , . . . , xn Cn denotan las columnas de P , resulta que
P 1 AP = D AP = P D

A(x1 |x2 | . . . |xn ) = (x1 |x2 | . . . |xn )


..

(Ax1 |Ax2 | . . . |Axn ) = (1 x1 |2 x2 | . . . |n xn )


Ax1 = 1 x1 , Ax2 = 2 x2 , . . . , Axn = n xn ,

donde x1 , x2 , . . . , xn son no nulos porque P es inversible. As, las columnas


de P son autovectores de A. Es mas, puesto que las columnas de P deben
formar un sistema libre, se tiene:

POR SEMEJANZA
5.3. DIAGONALIZACION

93

Teorema 5.3.1 A es diagonalizable si y s


olo si existe una base de Cn formada por autovectores de A.
Teorema 5.3.2 A es diagonalizable si y s
olo si
m.a.() = m.g.()
para todo Sp(A).
Demostraci
on:
Sean 1 , 2 , . . . , r los autovalores (distintos) de A. El hecho de que
m.a.(1 ) = m.g.(1 ), m.a.(2 ) = m.g.(2 ), . . . , m.a.(r ) = m.g.(r )
equivale a que
m.g.(1 )+m.g.(2 )+ +m.g.(r ) = m.a.(1 )+m.a.(2 )+ +m.a.(r ) = n,
y como la suma E1 + E2 + + Er de los subespacios propios asociados es
directa, lo anterior ocurre si y solo si E1 E2 Er = Cn , es decir, si y
solo si existe una base de Cn formada por autovectores de A. Basta entonces
aplicar el teorema 5.3.1.

Corolario 5.3.1 Si A tiene n autovalores distintos, entonces A es diagonalizable.
Demostraci
on:
Es debido a que, en ese caso, 1 = m.a.() = m.g.() para todo Sp(A).

Ejemplo:
La matriz

0 1 2
2 M33 (R)
A= 0 0
1 1
1

es diagonalizable pues sus autovalores, que ya sabamos que eran 1, 1 i y


1 + i, son los tres distintos. Es mas, el sistema

1 + 2i
1 2i
0
{ 2 , 1 + i , 1 i }
1
1
1
es una base de C3 formada por autovectores de A.

CAPITULO 5.

94

Ejemplo:
Sea

AUTOVALORES Y AUTOVECTORES

2 0
0
0
0 1
1 1

A=
0 1 2 1 M44 (R).
0 0 1 2

El polinomio caracterstico de A es

2
0
0
0

0
1

1
1
pA () = det(A I) =
1 2 1
0
0
0
1 2

(2 )[(1 )(2 )2 1 (1 ) + 2 ] = (2 )3 (1 ).

As,

Sp(A) = {1, 2}, m.a.(1) = 1, m.g.(2) = 3.

Sin embargo, en este caso se tiene que

0 0
0
0
0 1 1 1

m.g.(2) = 4 rango(A 2I) = 4 rango


0 1 0 1 =
0 0 1 0

= 4 2 = 2 < m.a.(2)

y A no es diagonalizable.
Ejemplo:
Sea A = (ij ) Mnn (R) la matriz definida por
ij = 1
para cualesquiera i, j = 1, 2, . . . , n.
Vamos a calcular el polinomio caracterstico y los autovalores de A de dos
maneras diferentes:
1. Calculamos directamente det(A I). De hecho, si a la
columna le sumamos las demas queda

1
1
1
...
1

1
1
1
...
1

1
1
1

.
.
.
1
pA () = det(A I) =
..
..
..
..
.
..
.
.
.
.

1
1
1
... 1

primera






=



POR SEMEJANZA
5.3. DIAGONALIZACION






=



n
1
1
n 1
1
n
1
1
..
..
..
.
.
.
n
1
1

Y si ahora le restamos la primera



n 1
1

0

0


0
pA () = 0
..
..
..
.
.
.

0
0
0
de tal modo que

95











... 1

...
...
...
...

1
1
1
..
.

fila a las demas resulta



. . . 1
. . . 0
. . . 0 = (n )()n1 ,
. . . ..
.
. . .

Sp(A) = {0, n}, m.a.(0) = n 1, m.g.(n) = 1.


2. Puesto que todas las columnas de A son iguales a (1, 1, . . . , 1)t Rn ,
entonces rango(A) = 1; por tanto, 0 es autovalor de A con
m.g.(0) = n rango(A) = n 1.
Tenemos entonces al menos n 1 autovalores nulos; como la traza de
A es la suma de los autovalores de A, el autovalor que falta es
traza(A) = n.
As,
Sp(A) = {0, n}, m.a.(0) = n 1, m.g.(n) = 1,
y pA () = det(A I) = (n )()n1 .
Por otra parte, ya hemos visto que
m.g.(0) = n 1 = m.a.(0)
y tambien sabemos que
m.a.(n) = 1 m.g.(n) = 1.
De este modo, A es diagonalizable. Es mas, como

CAPITULO 5.

96

E0 = ker(A) = ker

1
1
1
..
.

1
1
1
..
.

AUTOVALORES Y AUTOVECTORES

1
1
1
..
.

...
...
...
...

1
1
1
..
.

1 1 1 ... 1

En = ker(A nI) = ker

= h{

1n
1
1
1
1n
1
1
1
1n
..
..
..
.
.
.
1
1
1

1
1
0
0
..
.
0

1
0
1
0
..
.

1
1
1
..
.

...
...
...
...

1
0
0
..
.

1
1
..
.

,...,

0
0
1

... 1 n

= h{

i,

resulta que la matriz

verifica que

P =

1
1
1 0
0 1
0
0
..
..
.
.
0
0

...
...
...

1
0
0
0
..
.

1
1
1
1
..
.

. . . 1 1

Mnn (R)

P 1 AP = D = diag(0, n1)
. . . , 0, n).
Sea A Mnn (K).
Definici
on 5.3.2 Sea p() = 0 + 1 + 2 2 + + k k un polinomio en la
variable , con 0 , 1 , 2 , . . . , k K. Se define la matriz p(A) Mnn (K)
como
p(A) = 0 I + 1 A + 2 A2 + + k Ak .
Se dice que A es raz del polinomio p si
p(A) = 0.
Teorema 5.3.3 (Teorema de Cayley-Hamilton) Toda matriz cuadrada
es raz de su polinomio caracterstico, es decir, si pA () = det(A I) es el
polinomio caracterstico de A, entonces
pA (A) = 0.

}i,

POR SEMEJANZA
5.3. DIAGONALIZACION

97

Ejemplo:
Sea A = (ij ) Mnn (R) la matriz dada por
ij = 1
para cualesquiera i, j = 1, 2, . . . , n. Se trata de calcular
An+1 nAn .
Ya sabamos que el polinomio caracterstico de A era
pA () = det(A I) = (n )()n1 .
Por el teorema de Cayley-Hamilton,
pA (A) = (nI A)(A)n1 = 0.
Ahora bien,
(nI A)(A)n1 = 0 (1)n1 (nI A)An1 = 0 (nI A)An1 = 0
nAn1 An = 0 An nAn1 = 0.
En consecuencia,
An+1 nAn = A(An nAn1 ) = 0.

98

CAPITULO 5.

AUTOVALORES Y AUTOVECTORES

Captulo 6
Espacios eucldeos
6.1

Producto escalar

El producto escalar (usual) de vectores de Rn es la aplicacion


< , > : Rn Rn R
definida por

es decir, si x = (

< x, y >=

< x, y >= y t x = xt y, x, y Rn ,

1
1
2
2

n
.. , y = .. ) R , entonces
.
.
n
n

1 2 . . . n

1
2
..
.
n

= 1 1 + 2 2 + + n n .

Esta aplicacion tiene las propiedades


< x, y >=< y, x >
< x, y + z >=< x, y > + < x, z >
< x, y >= < x, y >
< x, x > 0 y < x, x >= 0 x = 0
as como
99

CAPITULO 6. ESPACIOS EUCLIDEOS

100

< x + y, z >=< x, z > + < y, z >


< x, y >= < x, y >
para cualesquiera x, y, z Rn , R.

6.2

Producto hermtico

El producto hermtico (usual) de vectores de Cn es la aplicacion


< , > : Cn Cn C
definida por
< x, y >= y x, x, y Cn ,

1
1
2
2

es decir, si x = ( .. , y = .. ) Cn , entonces
.
.
n
n


2
< x, y >= 1 2 . . . n .. = 1 1 + 2 2 + + n n .
.
n

Esta aplicacion tiene las propiedades


< x, y >= < y, x >
< x, y + z >=< x, y > + < x, z >
< x, y >= < x, y >
< x, x > 0 y < x, x >= 0 x = 0
as como
< x + y, z >=< x, z > + < y, z >
< x, y >=
< x, y >
para cualesquiera x, y, z Cn , C.
Notese que la propiedad < x, x > 0, x Cn , tiene sentido porque como
< x, x >= < x, x >, entonces < x, x > R.

101

6.3. NORMA

6.3

Norma

Sea < , > el producto escalar de vectores de Rn o el producto hermtico de


vectores de Cn .
La norma (o norma usual o norma dos) de un vector x Kn es el n
umero
real

kxk = < x, x > R.

1
2

Si x = ( .. Rn , entonces
.
n
q

t
kxk = x x = 12 + 22 + + n2 ,

1
2

mientras que si x = ( .. Cn , entonces


.
n
p

kxk = x x = |1 |2 + |2 |2 + + |n |2 .
La aplicacion norma

k k : x Kn kxk R
verifica las propiedades
kxk 0 y kxk = 0 x = 0
kxk = || kxk
kx + yk kxk + kyk (desigualdad de Minkowski)
para cualesquiera x, y Kn , K.
Definici
on 6.3.1 Un vector x Kn se dice unitario si kxk = 1.
Observaci
on 6.3.1 Sea x Kn , x 6= 0. Entonces los vectores
unitarios.

x
kxk

x
kxk

son

Teorema 6.3.1 (Desigualdad de Schwarz) Si x, y Kn , se verifica que


| < x, y > | kxk kyk.
Teorema 6.3.2 (Regla del paralelogramo) Si x, y Kn , se verifica que
kx + yk2 + kx yk2 = 2(kxk2 + kyk2 ).

CAPITULO 6. ESPACIOS EUCLIDEOS

102

6.4

Ortogonalidad y ortonormalidad

Sea < , > el producto escalar de vectores de Rn o el producto hermtico de


vectores de Cn . Sea k k la aplicacion norma en Kn .
Definici
on 6.4.1 Sean x, y Kn . Se dice que x e y son ortogonales, y se
escribe x y, si
< x, y >= 0.
Definici
on 6.4.2 Sea S = {s1 , s2 , . . . , sp } un sistema de vectores en Kn . Se
dice que S es ortogonal si los vectores s1 , s2 , . . . , sp son ortogonales dos a
dos, es decir, si < si , sj >= 0 para i, j = 1, 2, . . . , p, i 6= j. Se dice que S es
ortonormal si S es ortogonal y ks1 k = ks2 k = = ksp k = 1.
Proposici
on 6.4.1 Un sistema S = {s1 , s2 , . . . , sp } ortogonal (ortonormal)
de vectores no nulos de Kn es libre.
Demostraci
on:
Pongamos 1 s1 + 2 s2 + + p sp = 0, con 1 , 2 , . . . , p K. Entonces,
para cada i = 1, 2, . . . , p se verifica que
0 =< 1 s1 + 2 s2 + + p sp , si >=
= 1 < s1 , si > +2 < s2 , si > + + p < sp , si >= i < si , si >,
y como < si , si > es no nulo por ser si 6= 0, se sigue que i = 0.

Observaci
on 6.4.1 Sea S = {s1 , s2 , . . . , sp } un sistema ortogonal de vectores no nulos de Kn . Entonces el sistema { kss11 k , kss22 k , . . . , ksspp k } es ortonormal.
Teorema 6.4.1 (Proceso de ortonormalizaci
on de Gram-Schmidt)
Sea T = {v1 , v2 , . . . , vp } un sistema libre de vectores de Kn . Entonces existe
un sistema ortonormal S = {u1 , u2 , . . . , up } de vectores de Kn tal que
hSi = hT i.
Demostraci
on:

103

6.4. ORTOGONALIDAD Y ORTONORMALIDAD


El sistema S se construye como sigue:
u1 =
h2 = v2 < v2 , u1 > u1

h3 = v3 < v3 , u1 > u1 < v3 , u2 > u2


.........
k1
X
hk = vk
< vk , uj > uj
j=1

u2 =
u3 =
...
uk =

.........

...

< vp , uj > uj

up =

v1
kv1 k
h2
kh2 k
h3
kh3 k

hk
khk k

p1

hp = vp

X
j=1

hp
khp k

Usando el principio de induccion se demuestra que S es ortogonal (y


por tanto ortonormal, pues sus vectores son unitarios). En consecuencia,
por la proposicion 6.4.1, S es libre. Ademas, por construccion, cada uk es
combinacion lineal de v1 , v2 , . . . , vk1 , vk . As, hSi hT i; y como se verifica
que dim(hSi) = dim(hT i) = p, entonces hSi = hT i.

Ejemplo:
Sea < , > el producto escalar de vectores de R3 . Sea



1
1
1
T = {v1 = 0 , v2 = 1 , v3 = 1 },
1
0
0
que es libre, y por tanto base de R3 . Aplicando el proceso de ortonormalizacion de Gram-Schmidt a T resulta
u1 =

v1
kv1 k

= v1

0
0
h2

1
1
u2 = kh2 k =
h2 = v2 u1 =
0
0


0
0
h3

0 } u3 = kh3 k =
0
h3 = v3 u1 u2 =
1
1

de tal modo que en este caso





0
0
1

0 }
1 , u3 =
0 , u2 =
S = {u1 =
1
0
0
es la base canonica de R3 .

104

CAPITULO 6. ESPACIOS EUCLIDEOS

Corolario 6.4.1 Sea S = {u1 , u2 , . . . , up } un sistema ortonormal de vectores


de Kn , siendo p < n. Entonces existen up+1 , up+2 , . . . , un Kn tales que
{u1 , u2 , . . . , up , up+1 , up+2 , . . . , un }
es una base ortonormal de Kn .
Demostraci
on:
Es una consecuencia inmediata del teorema de compleccion (teorema
2.7.2) y del proceso de ortonormalizacion de Gram-Schmidt (teorema 6.4.1).

Proposici
on 6.4.2 Sea < , > el producto hermtico de vectores de Cn . Sea
A Mnn (C). Entonces
< Au, v >=< u, A v >, u, v Cn .
Demostraci
on:
Como < u, v >= v u para u, v Cn , entonces
< Au, v >= v Au = (A v) u =< u, A v > .

Corolario 6.4.2 Sea < , > el producto escalar de vectores de Rn . Sea
A Mnn (R). Entonces
< Au, v >=< u, At v >, u, v Rn .
Proposici
on 6.4.3 Se verifica que:
i) Los autovalores de una matriz A Mnn (C) hermitiana o A Mnn (R)
simetrica son todos reales.
ii) Los autovalores de una matriz A Mnn (C) hermitiana definida positiva (negativa) o A Mnn (R) simetrica definida positiva (negativa)
son positivos (negativos).
iii) Los autovalores de una matriz A Mnn (C) hermitiana semidefinida
positiva (negativa) o A Mnn (R) simetrica semidefinida positiva
(negativa) son no negativos (menores o iguales que 0).
iv) Los autovalores de una matriz A Mnn (C) unitaria o A Mnn (R)
ortogonal tienen modulo uno.

6.4. ORTOGONALIDAD Y ORTONORMALIDAD

105

Demostraci
on:
Haremos la demostracion solamente para el caso complejo, pues el caso
real se deduce de el.
Sea < , > el producto hermtico de vectores de Cn . Sean Sp(A) y
x Cn , x 6= 0, un autovector de A asociado a . Se tiene que
i) Como
< x, x >=< x, x >=< Ax, x >=< x, A x >=
< x, x >
=< x, Ax >=< x, x >=
y R.
y como < x, x >6= 0, se sigue que =
ii) Veamos solo en que A es definida positiva. Como
0 < x Ax =< Ax, x >=< x, x >= < x, x >
y como < x, x > > 0, entonces > 0.
iii) Sirve la misma demostracion que en el apartado anterior cambiando <
por y > por .
iv) Recordemos que, seg
un se vio en la demostracion de la proposicion
5.1.3, si A es inversible,
Ax = x A1 x =

1
x.

Por tanto, si A es unitaria tenemos que A x = A1 x = 1 x. Teniendo


esto en cuenta se sigue que
1
1
< x, x >=< x, x >=< A x, x >=< x, (A ) x >=

< x, x >,
=< x, Ax >=< x, x >=
y como < x, x >6= 0, nos queda

es decir,
= ||2 = 1 y
= ,

|| = 1.


CAPITULO 6. ESPACIOS EUCLIDEOS

106

6.5

Diagonalizaci
on unitaria

Se trata de estudiar cuando para una matriz A Mnn (C) (A Mnn (R))
existe una matriz unitaria (ortogonal) Q tal que Q1 AQ sea diagonal. La
respuesta la da el siguiente resultado:
Teorema 6.5.1 (Teorema de Schur) Se verifica que
i) Dada A Mnn (C) existe una matriz unitaria Q Mnn (C) tal que
Q1 AQ = Q AQ es triangular superior.
ii) Dada A Mnn (K), se tiene que A es normal si y s
olo si existe una
1

matriz unitaria Q Mnn (C) tal que Q AQ = Q AQ es diagonal.


iii) Dada A Mnn (R), se tiene que A es simetrica si y s
olo si existe una
1
t
matriz ortogonal Q Mnn (R) tal que Q AQ = Q AQ es diagonal.
Observaci
on 6.5.1 En los tres casos, los elementos de la diagonal principal
1
de Q AQ son los autovalores de A.
Observaci
on 6.5.2 En ii) (en iii)) el sistema dado por las columnas de
Q Mnn (C) (de Q Mnn (R)) es una base ortonormal de Cn (de Rn )
formada por autovectores de A.
Notemos que la primera observacion se sigue de que Q1 AQ es semejante
a A. La segunda se sigue de que Q1 AQ es diagonal si y solo si las columnas
de Q son una base de Cn ( o de Rn ) formada por autovectores de A. Pero si
x1 , x2 , . . . , xn denotan las columnas de Q, entonces se tiene que

x1
x

2
Q unitaria Q Q = I .. x1 x2 . . . xn = I
.
xn

xi xj

1 si i = j
< xj , xi >=
0 si i 6= j

1 si i = j

0 si i 6= j

{x1 , x2 , . . . , xn } es ortonormal.
El caso real se prueba del mismo modo.
Vamos a continuacion a dar la demostracion del teorema de Schur.
Demostraci
on:

UNITARIA
6.5. DIAGONALIZACION

107

i) Se probara por induccion en n.



11
C2 un
Sea A M22 (C). Sea Sp(A) y sea x1 =
21
autovector de A asociado a . Podemos suponer que kx1 k = 1 (sino
tomaramos kxx11 k , que seguira siendo autovector de A asociado a
ya que E =
 I) es un subespacio). Por el corolario 6.4.1
 ker(A
12
C2 verificando que {x1 , x2 } es ortonormal. Sea
existe x2 =
22
Q M22 (C) la matriz cuyas columnas son x1 y x2 , es decir,


11 12
.
Q=
21 22


Entonces, por la observacion 6.5.2, Q Q = I y Q es unitaria. Ademas,


la primera columna de Q AQ es
 
1

= Q Ax1 = Q x1 = Q x1 =
Q AQ
0
 
 
   
x1
x1 x1

1
=
x1 =
=
.
=

0
x2
x2 x1
0



es triangular superior.
As, Q AQ =
0

Supongamos cierto el resultado para matrices de tama


no menor o igual
que n 1. Sea A Mnn (C). Sea Sp(A) y sea x1 Cn un
autovector unitario asociado a . Como x1 6= 0, entonces {x1 } es
libre y ortonormal y, por el corolario 6.4.1, existe {x1 , x2 , . . . , xn } base
ortonormal de Cn . Sea Q1 Mnn (C) la matriz cuyas columnas son
x1 , x2 , . . . , xn . As, Q1 Q1 = I porque {x1 , x2 , . . . , xn } es ortonormal, y
Q1 es unitaria. Pongamos B = Q1 AQ1 . La primera columna de B es


1
1
0
0


B .. = Q1 AQ1 .. = Q1 Ax1 = Q1 x1 =
.
.
0
0



x1
x1 x1

1
x
0 0
x x1
2

2
= Q1 x1 = .. x1 = .. = .. = .. .
.
. .
.

0
0
xn
xn x1

CAPITULO 6. ESPACIOS EUCLIDEOS

108

Escribimos entonces B como





Mnn (C),
B=
0 C
con C M(n1)(n1) (C). Por hipotesis de induccion, existe una matriz unitaria Q2 M(n1)(n1) (C) tal que Q2 CQ2 es triangular superior. Sea


1 0
Q3 =
Mnn (C),
0 Q2
que es unitaria por serlo Q2 :



1 0
1 0

=
Q3 Q3 =
0 Q2
0 Q2

 

1
0
0
1
=
= In .
0 Q2 Q2
0 In1
Pongamos Q = Q1 Q3 . Entonces Q es unitaria pues
Q Q = (Q1 Q3 ) Q1 Q3 = Q3 Q1 Q1 Q3 =
= Q3 IQ3 = Q3 Q3 = I.
Finalmente,
Q AQ = Q3 Q1 AQ1 Q3 = Q3 BQ3 =





1 0
1 0
=
=
0 Q2
0 C
0 Q2



,
=
0 Q2 CQ2
que es triangular superior por serlo Q2 CQ2 .
ii) Si Q es la matriz dada en el apartado i), entonces Q AQ es triangular
superior, y ademas, es normal por serlo A, ya que
(Q AQ) (Q AQ) = Q A QQ AQ = Q A AQ,
(Q AQ)(Q AQ) = Q AQQ A Q = Q AA Q,
y si A A = AA , entonces tambien es
(Q AQ) (Q AQ) = (Q AQ)(Q AQ) .
El resultado se sigue entonces de que toda matriz normal y triangular
superior es diagonal.

UNITARIA
6.5. DIAGONALIZACION

109

iii) Veamos cada una de las implicaciones:


Toda matriz A Mnn (R) simetrica es normal. Ademas, A
tiene autovalores y autovectores reales. En consecuencia, la matriz Q
del apartado ii) es real (y por tanto ortogonal) y Qt AQ es diagonal.
Si Qt AQ = D es diagonal, entonces, como Q es ortogonal resulta
A = QDQt , y por tanto
At = (QDQt )t = QDt Qt = QDQt = A,
porque, como D es diagonal, es D = Dt . As, A es simetrica.

Observaci
on 6.5.3 Toda matriz A hermitiana, unitaria, ortogonal o antisimetrica es normal, y por tanto, existe Q Mnn (C) unitaria tal que
Q1 AQ = Q AQ es diagonal.
Corolario 6.5.1 A Mnn (C) normal existe una base ortonormal de
Cn formada por autovectores de A.
Corolario 6.5.2 A Mnn (R) simetrica existe una base ortonormal de
Rn formada por autovectores de A.
Corolario 6.5.3 Sea A Mnn (C) hermitiana o A Mnn (R) simetrica.
Entonces A es definida positiva (semidefinida positiva) si y s
olo si todos los
autovalores de A son positivos (no negativos). An
alogamente, A es definida
negativa (semidefinida negativa) si y s
olo si todos los autovalores de A son
negativos (menores o iguales que 0)
Demostraci
on:
Veamos solo la primera observacion.
Ya se demostro en la proposicion 6.4.3.
Sean 1 , 2 , . . . , n los autovalores de A. Sea Q Mnn (C) unitaria
y tal que
Q1 AQ = Q AQ = D = diag(1 , 2 , . . . , n ).
Entonces A = QDQ1 = QDQ . Sea x Cn , x 6= 0. Si ponemos

1
2

y = Q x = Q x = .. ,
.
n

110

CAPITULO 6. ESPACIOS EUCLIDEOS

resulta que
x Ax = x QDQ x = (Q x) D(Q x) = y Dy =
1 |1 |2 + 2 |2 |2 + + n |n |2 .
Y como todos los autovalores de A son positivos (no negativos) y como
y 6= 0 ya que x 6= 0 y Q1 es inversible, entonces x Ax > 0 (x Ax 0).

Corolario 6.5.4 Si A Mnn (C) es hermitiana (o A Mnn (R) es
simetrica) y definida positiva, entonces det(A) > 0.
Corolario 6.5.5 Una matriz simetrica A Mnn (R) es definida positiva
si y s
olo si los determinantes de las n submatrices principales de A son
positivos.
Demostraci
on:
Es consecuencia inmediata del corolario 6.5.4 y la observacion 3.5.1.
El hecho de que los determinantes de las n submatrices principales
de A sean positivos implica, seg
un la demostracion del teorema 4.3.2, que
existe B Mnn (R) tal que A = BB t . Sea x Rn , x 6= 0. Si || || denota la
norma en Rn , se tiene que
xt Ax = xt BB t x = (B t x)t (B t x) = ||B t x||2 > 0,
porque B ( y por tanto B t ) es inversible y porque x 6= 0. Por tanto, A es
definida positiva.

Observaci
on 6.5.4 El corolario 6.5.5 muestra que una matriz simetrica admite factorizacion de Cholesky si es definida positiva, tal y como se haba
comentado anteriormente en la observacion 4.3.4.
La factorizacion de Cholesky permite tambien evaluar la inversa de una
matriz inversible y resolver, por tanto, sistemas de ecuaciones lineales cuadrados compatibles determinados:
Lema 6.5.1 Si A Mmn (R), entonces At A es simetrica y semidefinida
positiva. Si A Mnn (R) es inversible, entonces At A es simetrica y definida
positiva.

UNITARIA
6.5. DIAGONALIZACION

111

Demostraci
on:
Si A Mmn (R), la matriz At A Mnn (R) es simetrica porque se
verifica que (At A)t = At (At )t = At A. Por otra parte, si x Rn resulta que
xt At Ax = (Ax)t Ax 0
y por tanto, A es semidefinida positiva. Ademas, si A Mnn (R) es inversible, entonces, para x Rn , x 6= 0, es Ax 6= 0 y
xt At Ax = (Ax)t Ax > 0,
con lo cual, si A Mnn (R) es inversible, At A es definida positiva.

Lema 6.5.2 Si A Mnn (R) es inversible, entonces


A1 = (B 1 )t B 1 At ,
siendo BB t la factorizacion de Cholesky de la matriz simetrica y definida
positiva At A.
Demostraci
on:
t
Como A A = BB t , entonces A = (At )1 BB t y
A1 = ((At )1 BB t )1 = (B 1 )t B 1 At .

Ejemplo:
Sea la matriz

0
0 1 2
0 1 0
0
M44 (R),
A=
1 0
0 2
2
0 2 3

que es simetrica (y por tanto existe una matriz ortogonal Q verificando que
Qt AQ = D es diagonal). El espectro de A es
Sp(A) = {1, 5},

m.a.(1) = 3,

m.a.(5) = 1,

y en consecuencia, D = diag(1, 1, 1, 5). Los subespacios


dos a -1 y 5 son

0
1 0 1 2

0 0 0

0
1 ,
=
{
E1 = ker(A + I) = ker
0
1 0 1 2
2 0 2 4
0

propios asocia
1
0

0 0
,
1 2
0
1

},

CAPITULO 6. ESPACIOS EUCLIDEOS

112

1
5 0 1 2

0 6 0
0
0
E5 = ker(A 5I) = ker
1 0 5 2 = { 1
2
2
0 2 2

}.

Para determinar las columnas de Q se aplica el proceso de ortonormalizacion de Gram-Schmidt a los vectores de las bases dadas para E1 y E5 por
separado.
As, si



0
1
0
0
0
1



T = {v1 =
0 , v2 = 1 , v3 = 2 }
1
0
0
y aplicamos el proceso de ortonormalizacion de Gram-Schmidt a T obtenemos
1
1

0
3
2

0
1
0

, u2 = 1 , u3 = 1
S = {u1 =
},

0
3
2
1
0
0
3
y si

1
0

T = {v1 =
1 }
2

y aplicamos el proceso de ortonormalizacion de Gram-Schmidt a T obtenemos


1

06

S = {u1 =
1 }.
6
2
6

Por consiguiente,

Q=

0
1
0
0

1
2

1
2

1
3
1
3

1
6

1 ,

6
2
6

EN VALORES SINGULARES
6.6. DESCOMPOSICION

113

o bien, de modo equivalente,


1
1
1

0
3
6
2

1 0 0 0

{
1 ,
1 }
0 , 1 ,

3 6
2
1
2
0
0
3
6
es una base ortonormal de R4 formada por autovectores de A.
Ejercicio:
1. Sea U = (ij ) Mnn (C) una matriz triangular superior e inversible.
Demostrar que U se puede descomponer en una suma de n matrices,
U = U1 + U2 + + Un ,
tales que para todo i = 1, 2, . . . , n es rango(Ui ) = 1 y Sp(Ui ) = {0, ii },
con m.a.(0) = n 1 y m.a.(ii ) = 1.
2. Sea A Mnn (C) una matriz inversible con autovalores 1 , 2 , . . . , n .
Utilizando el teorema de Schur (teorema 6.5.1), demostrar que A se
puede descomponer en una suma de n matrices,
A = A 1 + A2 + + A n ,
tales que para todo i = 1, 2, . . . , n es rango(Ai ) = 1 y Sp(Ai ) = {0, i },
con m.a.(0) = n 1 y m.a.(i ) = 1.

6.6

Descomposici
on en valores singulares

En lo que sigue, < , > denotara el producto escalar de vectores de Rn y k k


la aplicacion norma en Rn .
Sea A Mmn (R) una matriz de tama
no m n.
Proposici
on 6.6.1 ker(A) = ker(At A) y rango(A) = rango(At A).
Demostraci
on:
Si x ker(A), entonces Ax = 0, con lo cual At Ax = 0 y x ker(At A).
Por otra parte, si x ker(At A), se tiene
At Ax = 0 xt At Ax = 0 (Ax)t Ax = 0 Ax = 0 x ker(A).
Esto prueba que ker(A) = ker(At A). Ademas,

rango(A) = n dim(ker(A)) = n dim(ker(At A)) = rango(At A).




114

CAPITULO 6. ESPACIOS EUCLIDEOS

Corolario 6.6.1 rango(A) = rango(AAt ).


Demostraci
on:
Es debido a que rango(A) = rango(At ) = rango((At )t At ) = rango(AAt ).

Definici
on 6.6.1 Se llaman valores singulares de A a las races cuadradas
no negativas de los autovalores de la matriz At A Mnn (R). Esdet
cir,
si Sp(A
A) = {1 , 2 , . . . , n }, los valores singulares de A son 1 ,
2 , . . . , n . Se suelen denotar por 1 , 2 , . . . , n , y se representan en
orden decreciente, 1 2 n 0.
Observaci
on 6.6.1 Si rango(A) = r, entonces rango(At A) = r y los r
primeros valores singulares de A son positivos, mientras que los nr restantes
son cero.

Observaci
on 6.6.2 A y At tienen los mismos valores singulares no nulos
ya que los autovalores no nulos de At A y de AAt coinciden. En efecto, sea
Sp(At A), 6= 0, y sea x Rn , x 6= 0, tal que At Ax = x. Entonces se
tiene que
(AAt )Ax = A(x) = Ax.
Como Ax = 0 (si fuese Ax = 0 sera At Ax = x = 0, lo cual es falso),
entonces Ax es un autovector de AAt asociado al autovalor . Esto prueba
que
Sp(At A), 6= 0 Sp(AAt ).

La otra implicacion es analoga.


Obviamente, si m 6= n, una de las matrices A o At tiene mas valores
singulares nulos que la otra, pues At A Mnn (R) y AAt Mmm (R).

Observaci
on 6.6.3 Si A Mnn (R) es una matriz simetrica con autovalores {1 , 2 , . . . , n }, entonces sus valores singulares son |1 |, |2 |, . . . , |n |.

Teorema 6.6.1 (Descomposici


on en valores singulares) Supongamos
que r = rango(A). Sean
1 2 r > 0

los valores singulares no nulos de A. Entonces existen P Mmm (R) y


Q Mnn (R) ortogonales tales que

t
1
.
.
P AQ = P AQ =
Mmn (R).
.

r
0
0

EN VALORES SINGULARES
6.6. DESCOMPOSICION

115

Vamos a ver a continuacion el metodo para la construccion de las matrices


P y Q.
En primer lugar, las columnas de Q son una base ortonormal de Rn
formada por autovectores de At A (tal base existe, porque At A es simetrica
y basta aplicar el corolario 6.5.2). Por otra parte, si x1 , x2 , . . . , xn denotan
las columnas de Q e y1 , y2 , . . . , ym denotan las columnas de P , entonces y1 ,
y2 , . . . , ym se construyen del siguiente modo:
Para i = 1, 2, . . . , r, es y =

1
Axi .
i

Las columnas yr+1 , yr+2 , . . . , ym se construyen de tal manera que el


sistema {y1 , y2 , . . . , yr , yr+1 , yr+2 , . . . , ym } sea una base ortonormal de
Rm . Como norma, {yr+1 , yr+2 , . . . , ym } se puede elegir como una base
ortonormal de ker(AAt ), que es tambien una base ortonormal de ker(At )
(vease la proposicion 6.6.1).
Ejemplo:
Vamos a calcular los valores singulares y la descomposicion en valores
singulares de la matriz

2 1
A = 2 1 M32 (R).
4 2


24 12
t
M22 (R), se sigue que
Puesto que A A =
12 6


24 12
t
= 2 30,

pAt A () = det(A A I) =
12 6

resultandoSp(At A) = {30, 0}. En consecuencia, los valores singulares de A


son 1 = 30 y 2 = 0. Construimos a continuacion las matrices P y Q. Se
tiene que




2
6 12
t
}i,
= h{
E30 = ker(A A 30I) = ker
1
12 24
 
1
t
}i,
E0 = ker(A A) = h{
2
  

1
2
>= 0, resulta que una base ortonormal de R2
,
y como <
2
1
formada por autovectores de At A es BR2 = {x1 , x2 }, con


 
2/ 5
1/5
x1 =
, x2 =
.
2/ 5
1/ 5

CAPITULO 6. ESPACIOS EUCLIDEOS

116
De este modo
Q=

2/ 5 1/5
M22 (R).
1/ 5 2/ 5

Por otra parte, rango(A) = 1 < 3 = m. Entonces, si y1 , y2 , y3 denotan


las columnas de P , resulta que


1/ 6
2 1 
1
1
2/ 5
= 1/ 6 .
y1 = Ax1 = 2 1
1/ 5
1
30
4 2
2/ 6
Ademas,
ker(At ) = ker

2 2 4
1 1 2


1
0

=< { 1 , 2 } > .
0
1

Aplicando el proceso de ortonormalizacion de Gram-Schmidt a la base


que hemos dado de ker(At A) obtenemos

1/2

y2 =
1/ 2 ,
0

1/2
0
1
0
1/2
h = 2 < 2 , 1/ 2 > 1/ 2 = 1 ,
1
1
1
0
0


1/ 3
h
y3 =
= 1/3 .
khk
1/ 3

As,

P =

1
6
1

6
2
6

1
2
1
2

y P y Q son tales que

P t AQ =

3
1
3
1
3

M33 (R),

30 0
0 0 M32 (R).
0 0

EN VALORES SINGULARES
6.6. DESCOMPOSICION

117

Teorema 6.6.2 Sea A Mmn (R) una matriz de rango r. Sean


1 2 r > 0
los valores singulares no nulos de A y sean P Mmm (R) y Q Mnn (R)
ortogonales tales que

...
P t AQ = P 1 AQ =
Mmn (R).

r
0
0
Sean x1 , x2 , . . . , xr las r primeras columnas de Q e y1 , y2 , . . . , yr las r
primeras columnas de P . Entonces
A = 1 y1 xt1 + 2 y2 xt2 + + r yr xtr .
Demostraci
on:
Sea sigue de desarrollar la igualdad

...
A=P

r
0

0 t
Q .

0


Definici
on 6.6.2 Con las notaciones anteriores, sean A Mmn (R) con
rango(A) = r y
A = 1 y1 xt1 + 2 y2 xt2 + + r yr xtr .
Para k = 1, 2, . . . , r 1, se llama aproximaci
on de rango k de A a la
suma de los k primeros sumandos del miembro de la derecha de la igualdad
anterior, es decir, a la matriz
1 y1 xt1 + 2 y2 xt2 + + k yk xtk Mmn (R).

118

6.7
6.7.1

CAPITULO 6. ESPACIOS EUCLIDEOS

Aplicaciones del
algebra lineal
Mnimos cuadrados y proyecci
on ortogonal

Sean A Mmn (R) y b Rm . Consideremos el SEL Ax = b, x Rn .


Ya sabemos que el SEL es incompatible si b
/ Im(A) = {Ay / y Rn }.
Nos planteamos ahora encontrar una solucion aproximada de Ax = b cuando
Ax = b sea incompatible, es decir, se trata de encontrar un vector z Rn tal
que v = Az Rm este lo mas proximo posible a b.
Definici
on 6.7.1 Sea U un subespacio de Rm ; diremos que v U es la
mejor aproximaci
on de b Rm por vectores de U en el sentido de los mnimos
cuadrados si
kv bk = min ku bk.
uU

Observaci
on 6.7.1 El nombre de mnimos cuadrados se debe a que minimizar ku bk es equivalente a minimizar ku bk2 , siendo
2

ku bk =

m
X
i=1

(i i )2 ,

con u = (1 , 2 , . . . , m )t y b = (1 , 2 , . . . , m )t .
Proposici
on 6.7.1 El vector v U es la mejor aproximaci
on de b por vecm
tores del subespacio U R en el sentido de los mnimos cuadrados si v b
es ortogonal a todos los vectores de U , es decir, si
< v b, u >= 0 , para todo u U.
Demostraci
on:
Dado u U , si v b es ortogonal a todos los vectores de U se tiene que
ku bk2 = ku v + v bk2 =

=< (uv)+(vb), (uv)+(vb) >= kuvk2 +kvbk2 +2 < uv, vb >=


= ku vk2 + kv bk2 .

Puesto que ku vk2 0, resulta entonces que

kv bk2 ku bk2 , u U,

o bien,
kv bk ku bk , u U,

y v es la mejor aproximacion de b por vectores de U en el sentido de los


mnimos cuadrados.



6.7. APLICACIONES DEL ALGEBRA
LINEAL

119

Definici
on 6.7.2 Diremos que un vector z Rn es una solucion del problema de mnimos cuadrados para el SEL Ax = b si Az es la mejor aproximaci
on de b por vectores del subespacio Im(A) en el sentido de los mnimos
cuadrados.
Teorema 6.7.1 El conjunto de soluciones del problema de los mnimos cuadrados para el SEL Ax = b coincide con el conjunto de soluciones del SEL
At Ax = At b.
Demostraci
on:
Sea z Rn una solucion del problema de mnimos cuadrados para el SEL
Ax = b. Entonces, Az b es ortogonal a cualquier vector del subespacio
Im(A) = {Ay / y Rn }. Por tanto,
0 =< Az b, Ay >= (Ay)t (Az b) = y t At (Az b) =
y t (At Az At b) =< At Az At b, y >

para todo y Rn ; esto ocurre si y solo si At Az At b = 0, es decir, si y solo


si
At Az = At b.

Observaci
on 6.7.2 Las ecuaciones derivadas del SEL At Ax = At b se conocen con el nombre de ecuaciones normales del problema.
Observaci
on 6.7.3 Sea r = rango(A). Sea BU = {v1 , v2 , . . . , vr } una base
del subespacio U = Im(A). Ortonormalizando BU podemos obtener una
base ortonormal CU = {u1 , u2 , . . . , ur } de U = Im(A), que podemos ampliar
a una base ortonormal BRm = {u1 , u2 , . . . , ur , ur+1 , ur+2 , . . . , um } de Rm . Si
escribimos
b = 1 u1 + 2 u2 + + r ur + r+1 ur+1 + r+2 ur+2 + + m um ,
entonces el vector
w = 1 u1 + 2 u2 + + r ur U = Im(A)
verifica que w b = r+1 ur+1 r+2 ur+2 m um es ortogonal a
cualquier vector de U = Im(A).
Observaci
on 6.7.4 El SEL At Ax = At b es siempre compatible, pues la
proyeccion ortogonal w de b sobre Im(A), que siempre existe, es una solucion
del problema de mnimos cuadrados para el SEL Ax = b.

120

CAPITULO 6. ESPACIOS EUCLIDEOS

Observaci
on 6.7.5 Si At A es inversible, el problema de mnimos cuadrados
para el SEL Ax = b tiene solucion u
nica igual a
x = (At A)1 At b.
Si At A no es inversible, el problema de mnimos cuadrados para el SEL
Ax = b tiene infinitas soluciones, que estan dadas (vease la proposicion 6.6.1)
por
z + Ker(At A) = z + ker(A),
donde z Rn es una solucion particular del problema, es decir, una solucion
particular del SEL At Ax = At b.
Sea ahora, en general, U un subespacio r-dimensional de Rm . Sea b Rm .
Definici
on 6.7.3 Se llama proyeccion ortogonal de b sobre U al u
nico vector
w U que verifica que w b es ortogonal a todos los vectores de U .
Observaci
on 6.7.6 El vector w de la observacion 6.7.3 es la proyeccion
ortogonal de b sobre U = Im(A).
Proposici
on 6.7.2 Sea BU = {u1 , u2 , . . . , ur } una base ortonormal de U .
La proyeccion ortogonal de b sobre U est
a dada por
< b, u1 > u1 + < b, u2 > u2 + + < b, ur > ur .
Demostraci
on:
Sean x Rm y B = {a1 , a2 , . . . , am } una base ortonormal de Rm . Entonces, la expresion de x en coordenadas en la base B es
x =< x, a1 > a1 + < x, a2 > a2 + + < x, am > am .
En efecto, si x = 1 a1 + 1 a2 + + m am , entonces para cada i =
1, 2, . . . , m se tiene que
< x, ai >=< 1 a1 + 1 a2 + + m am , ai >=
= 1 < a1 , ai > +2 < a2 , ai > + + m < am , ai >= i ,
porque B es ortonormal.
Usando el corolario 6.4.1, sea
BRm = {u1 , u2 , . . . , ur , ur+1 , ur+2 , . . . , um }


6.7. APLICACIONES DEL ALGEBRA
LINEAL

121

una base ortonormal de Rm . Entonces


b =< b, u1 > u1 + < b, u2 > u2 + + < b, ur > ur +
+ < b, ur+1 > ur+1 + < b, ur+2 > ur+2 + + < b, um > um
y se tiene que el vector w =< b, u1 > u1 + < b, u2 > u2 + + < b, ur > ur
verifica que
w b = < b, ur+1 > ur+1 < b, ur+2 > ur+2 < b, um > um .
Es decir, w b < {ur+1 , ur+2 , . . . , um } > y como BRm es ortonormal,
entonces w b es ortogonal a todos los vectores de U y w es la proyeccion
ortogonal de b sobre U .

Ejemplo:
Se considera el SEL Ax = b siendo

1 2 1
1 2 2

A=
1 2 2 M43 (R),
1 2 1

4
6
4

b=
1 R .
2

Es facil ver que el SEL es incompatible. Se trata de encontrar el conjunto


de soluciones del problema de mnimos cuadrados para el SEL Ax = b. Se
tiene que

13
4 8 0
At A = 8 16 0 , At b = 26 .
12
0 0 10
Por tanto, poniendo x = (1 , 2 , 3 )t resulta que

13
1
4 8 0
At Ax = At b 8 16 0 2 = 26
12
3
0 0 10

41 +

82 = 13
103
= 12

y el conjunto de soluciones es

2
13/4
0 + < { 1 } >,
0
6/5

CAPITULO 6. ESPACIOS EUCLIDEOS

122

2
donde < { 1 } >= ker(At A) = ker(A).
0
Ejemplo:
Se considera el SEL Ax = b siendo

3 1 3
1 1 1

A=
1 1 1 M43 (R),
3 1
3

3
1
4

b=
5 R .
5

Observemos, ante todo, que ahora rango(A) = 3, con lo cual, rango(At A) =


3 y el problema de mnimos cuadrados tiene solucion u
nica. Se tiene que

20
20 0 16
At A = 0 4 0 , At b = 8 .
28
16 0 20
Por tanto, si x = (1 , 2 , 3 )t resulta

201 + 163 = 20
42 = 8
At Ax = At b

161 + 203 = 28

1/3
1
201 + 43 = 5
2 = 2 x = 2 = 2 .

5/3
3
41 + 53 = 7

6.7.2

Ajuste polin
omico

El problema de ajuste polinomico consiste en calcular un polinomio que


ajuste a una serie de puntos del plano (1 , 1 ), (2 , 2 ), . . . , (m , m ). Es
decir, se trata de obtener un polinomio q de tal manera que para todo
i = 1, 2, . . . , m, q(i ) esta lo mas proximo posible a i . Si el polinomio
es de grado uno, se hablara de ajuste lineal, y si es de grado dos, se hablara
de ajuste cuadratico o parabolico. En general, si queremos encontrar el polinomio de grado n 1,
q() = 0 + 1 + 2 2 + + n1 n1 ,

que mejor ajuste los datos (1 , 1 ), (2 , 2 ), . . . , (m , m ), se plantea el SEL


0 + 1 1 + 2 21 +
0 + 1 2 + 2 22 +
... ... ... ... ... ...
0 + 1 m + 2 2m +

. . . + n1 1n1 = 1
. . . + n1 2n1 = 2
... ...
...
n1
. . . + n1 m
= m


6.7. APLICACIONES DEL ALGEBRA
LINEAL

123

que, matricialmente, se escribe como

1n1
2n1

1 1 21 . . .
1 2 22 . . .
.. ..
..
..
. .
.
.
2
n1
1 m m . . . m

0
1
2
..
.
n1

0
1
2
..
.
m

El SEL es, en general, incompatible, y por lo tanto, buscaremos la solucion


del problema de mnimos cuadrados asociado.
Ejemplo:
Se desea determinar el ajuste parabolico optimo para la tabla de datos
i 0 1/2 1 3/2 2
i 0 1/2 1 1/2 0
Pongamos q() = 0 + 1 + 2 2 . Si ponemos

0
1 0
0

1/2
1 1/2 1/4

1 ,
1
A=
, b = 1 , x =
1 1
1/2
1 3/2 9/4
2
0
1 2
4
resulta que el SEL Ax = b es incompatible.
modo que

5
5
t

5
15/2
AA=
15/2 25/2

Ademas, rango(A) = 3, de tal

15/2
25/2
177/8

es inversible. Puesto que

2
At b = 2
9
4

se tiene que la solucion del problema de mnimos cuadrados para el SEL


Ax = b es

1/35
x = (At A)1 At b = 12/7 ,
6/7
de tal modo que
q() =

1 12
6
+ 2
35
7
7

124

CAPITULO 6. ESPACIOS EUCLIDEOS

es la parabola que mejor ajusta los datos.


Ejemplo:
Se trata ahora de aproximar por una parabola los puntos (0, 1), (1, 3),
(2, 4) y (3, 4). Para ello, consideremos la tabla
i 0 1 2 3
i 1 3 4 4
y pongamos q() = 0 + 1 + 2 2 . Sean

1
1 0 0
3
1 1 1

A=
1 2 4 , b = 4
4
1 3 9

0
x = 1 .
2

Ahora bien, en este caso, el SEL Ax = b es compatible determinado, pues

0
= 1

0 + 1 + 2 = 3

Ax = b
0 + 21 + 42 = 4

0 + 31 + 92 = 4

0
= 1

5
1
1 + 2 = 2
0 = 1, 1 = , 2 = .

21 + 42 = 3

2
2

31 + 92 = 3

En consecuencia, la parabola buscada es q() = 1 + 52 12 2 , y pasa por


los cuatro puntos (0, 1), (1, 3), (2, 4) y (3, 4).
Observaci
on 6.7.7 La aproximacion en el sentido de los mnimos cuadrados
por un polinomio q() de los puntos (1 , 1 ), (2 , 2 ), . . . , (m , m ) minimiza
la suma de los cuadrados de las distancias de q(i ) a i , i = 1, 2, . . . , m, es
decir, se minimiza d21 + d22 + + d2m .
Observaci
on 6.7.8 Si i 6= j para i 6= j, i, j = 1, 2, . . . , m, entonces
existe un u
nico polinomio q() de grado menor o igual que m 1, tal que
q(i ) = i , i = 1, 2, . . . , m. Esto es debido a que en ese caso la matriz del
SEL es cuadrada y su determinante esta dado por



1

1
1
.
.
.
1

1 1 2 . . . m1
1
1

1

.
.
.

2
3
m
m1
2
Y

1 2 . . .
2
2
2
2
2
2

2
3 . . . m =
(j i ),
1
.. ..
..
.. =
..
. .
.. i<j
..
..
.
.
.

.
.
.
m1
1 m 2m . . . m
m1 m1
m1
m1
1
2
3
. . . m


6.7. APLICACIONES DEL ALGEBRA
LINEAL

125

que es no nulo. Este determinante se conoce con el nombre de determinante


de Vandermonde.

6.7.3

Formas cuadr
aticas

Definici
on 6.7.4 Una forma cuadratica sobre Rn es una aplicaci
on de la
forma
: x Rn (x) = xt Ax R
donde A Mnn (R) es una matriz simetrica, que se dir
a matrix asociada a
la forma cuadratica, o simplemente, matriz de la forma cuadr
atica.
Sean A = (ij ) Mnn (R) simetrica y : x Rn (x) = xt Ax R
una forma cuadratica. Si x = (1 , 2 , . . . , n )t Rn , entonces
(x) =

n
X

i,j=1

ij i j =

n
X

ii 2i +

i=1

2ij i j .

1i<jn

n
t
Si una forma P
cuadratica sobre
P R esta dada, para x = (1 , 2 , . . . , n )
n
2
R , por (x) = i=1 ii i + 1i<jn 2ij i j , entonces existe una u
nica
matriz simetrica A Mnn (R), que es precisamente A = (ij ), verificando
que (x) = xt Ax, x Rn .
Ejemplo:
La matriz de la forma cuadratica sobre R3 definida por
n

: x R3 (x) = 421 + 61 2 + 922 + 23 R

4 3 0
es A = 3 9 0 .
0 0 1

Proposici
on 6.7.3 Se verifica que:
i) (0) = 0.
ii) (x) = 2 (x), para cualquier R.
Definici
on 6.7.5 La forma cuadratica se dice no degenerada si se verifica
que rango(A) = n, es decir, si det(A) 6= 0; en caso contrario se dice
degenerada.

CAPITULO 6. ESPACIOS EUCLIDEOS

126

Las formas cuadraticas se clasifican atendiendo a las caractersticas de


las matrices simetricas que se dan en la definicion 3.2.13. En concreto, la
forma cuadratica (x) = xt Ax se dice definida positiva, semidefinida positiva,
definida negativa o semidefinida negativa si la matriz simetrica A es definida
positiva, semidefinida positiva, definida negativa o semidefinida negativa respectivamente. Si la matrix A no es ni definida positiva, ni semidefinida
positiva, ni definida negativa, ni semidefinida negativa, la forma cuadratica
se dice indefinida.
Del corolario 6.5.3 se sigue:
Proposici
on 6.7.4 La forma cuadratica (x) = xt Ax es
i) definida positiva si y s
olo si todos los autovalores de A son positivos.
ii) semidefinida positiva si y s
olo si todos los autovalores de A son no
negativos.
iii) definida negativa si y s
olo si todos los autovalores de A son negativos.
iv) semidefinida negativa si y s
olo si todos los autovalores de A son menores
o iguales que 0.
v) indefinida en otro caso.
Si una forma cuadratica es definida positiva o definida negativa, entonces
es no degenerada. Si una forma cuadratrica es semidefinida positiva y no
es definida positiva, o es semidefinida negativa y no es definida negativa,
entonces es degenerada. Si una forma cuadratica es indefinida, entonces
puede ser degenerada o no degenerada.
Ejemplo:
La forma cuadratica
: x R3 (x) = 421 + 61 2 + 922 + 23 R
del ejemplo 6.7.3 es definida positiva (y por tanto no degenerada), pues


4

3
0



9
0 = (1 )(36 13 + 2 9)0
det(A I) = 3
0
0
1

61
13
+
61
13

= (1 )(2 13 + 27) = (1 )(
)(
),
2
2

y sus tres autovalores, 1,

13+ 61
2

13 61
2

son positivos.


6.7. APLICACIONES DEL ALGEBRA
LINEAL

127

Ejemplo:
Consideremos la forma cuadratica
: x R3 (x) = 21 21 2 + 22 + 21 3 + 23 R,
cuya matriz es

1 1 1
A = 1 1 0 .
1
0 1

1
La forma cuadratica es indefinida, pues por ejemplo, 0 = 1 > 0
0

1/2

1/2 = 14 < 0. De hecho, A tiene dos autovalores positivos,


y
1/2

que son 1 y 1 + 2, y uno negativo, que es 1 2. Ademas, puesto que


0
/ Sp(A), resulta que rango(A) = 3 y A es no degenerada.

128

CAPITULO 6. ESPACIOS EUCLIDEOS

REFERENCIAS
[1] P. G. Ciarlet, Introduction `
a lanalyse numerique matricielle
et `
a loptimisation.
Collection Mathematiques Appliquees pour la Matrise. Paris:
Masson (1998).
[2] G. H. Golub; C. F. Van Loan, Matrix computations.
Johns Hopkins Series in the Mathematical Sciences, 3. Baltimore
etc.: The Johns Hopkins University Press, (1989).
[3] P. Lancaster; M. Tismenetsky The theory of matrices.
Computer Science and Applied Mathematics. Orlando etc.: Academic Press (Harcourt Brace Jovanovich, Publishers), (1985).
[4] K. Nomizu Fundamentals of linear algebra
Maidenhead, Berkshire: McGraw-Hill Publishing Comp., Ltd,
(1966).

129

You might also like