You are on page 1of 17

Tema 2

Matrices y Determinantes

2.1 Introducci
on
Presentaremos en este tema las matrices y los determinantes, centr
andonos en particualar
en el caso de matrices constituidas por n
umeros reales.

2.2 Matrices. Conceptos Fundamentales


Definicion: Dado un conjunto C, una matriz A de orden m n de elementos de C es
toda coleccion de mn elementos de C colocados en m filas y n columnas, de la forma:

a11 a12 ... a1n
a
21 a22 ... a2n
A = (aij ) =
.. .. ... ..
am1 am2 ... amn

Donde i = 1, . . . , m, y j = 1, . . . , n. La notacion usual es por tanto aij para representar


la componente fila-i columna-j de la matriz.
Al conjunto de las matrices de orden mn con componentes en el conjunto C se le denota
por Mmn (C). Consideraremos en este tema esencialmente matrices de n umero reales,
es decir el conjunto Mmn (R), si bien la mayor parte de las propiedades y definiciones
que expondremos seran validas para cualquier otro tipo de conjunto.
Definiciones b
asicas:
Sea A una matriz de orden m n de n
umeros reales, A Mmn (R), A = (aij ),
i = 1, . . . , m, j = 1, . . . , n.

1. Si n = 1, entonces A es una matriz columna. Si m = 1, A es una matriz fila.

2. Si aij = 0, i, j, entonces A es la matriz nula de orden m n.

13
14 MATRICES Y DETERMINANTES

3. Si m = n la matriz A es cuadrada, en caso contrario es una matriz rectangular.

4. La matriz opuesta de A = (aij ), que denotamos por: A, es la que tiene como


componentes a los opuestos de los de A, es decir A = (aij ).

5. Dada una matriz A de orden m n se llama matriz traspuesta de A a la matriz At


de orden n m en la que se intercambian las filas de A con sus columnas. Es decir
el elemento que ocupa la posicion (ij) en A pasa ocupar la posicion (ji) en At . De
esta forma: si A = (aij ), entonces At = (atij ) = (aji ). Evidentemente (At )t = A.

Para el caso particular de las matrices cuadradas, A Mnn (R), definiremos a su vez:

1. La diagonal principal de A son los elementos de la forma aii , con i = 1, . . . , n, es


decir: a11 , a22 ,..., ann .

2. A es triangular superior si aij = 0 para todas las componentes tales que i > j.

3. A es triangular inferior si aij = 0, i < j.

4. A es una matriz diagonal si aij = 0 para i 6= j. Las matrices diagonales a veces


se presentan especificando u nicamente los elementos no necesariamente nulos, es
decir: A = diag {a11 , a22 , . . . , ann }.

5. A es simetrica si para cualquier i, j se verifica que aij = aji . Equivalentemente, A


sera simetrica si At = A.

6. A es antisimetrica si para cualquier i, j se verifica que aij = aji . Equivalente-


mente: At = A.

7. Se denomina traza de una matriz A a la suma de los elementos de la diagonal


principal, es decir:
n
X
tr A = aii
i=1

2.3 El Espacio Vectorial (Mmn (R), +, R)


El conjunto de matrices de n umero reales de m filas y n columnas, Mmn (R), tiene
estructura de espacio vectorial real (de dimension m n) con las operaciones suma y
producto por escalares definidas de la forma siguiente:

Suma: Dadas dos matrices A = (aij ) y B = (bij ) de orden m n, se define la matriz


suma: A + B, como la matriz m n cuyos elemento ij es: aij + bij , A + B = (aij + bij ).
Es decir, la suma se realiza elemento a elemento.
MATRICES Y DETERMINANTES 15

Producto por un escalar: Dados R y una matriz A Mmn (R), A = (aij ), se


define A Mmn (R) como la matriz cuyos elementos son: A = (aij ), es decir la
matriz que se obtiene al multiplicar por todos y cada uno de los elementos de A.

Es trivial comprobar que con estas definiciones (Mmn (R), +, R) verifica las ocho
propiedades de la definicion de espacio vectorial. Evidentemente el elemento neutro de
la suma sera la matriz nula, mientras que el elemento opuesto de una matriz no es mas
que su matriz opuesta. La dimension del espacio vectorial real (Mmn (R), +, R) es
obviamente igual a mn.

Desde otro punto de vista, una matriz A Mmn (R) puede ser interpretada como
un sistema de m vectores (vectores fila) del espacio vectorial Rn , o bien como un sistema
de n vectores (vectores columna), de Rm , veamos:

a11 . . . a1n f~1
. ..
A = (aij ) = .. ..
. . = ... = ~c1 . . . ~cn

am1 . . . amn f~m
n o
siendo Sc = {~c1 , ~c2 , . . . , ~cn } y Sf = f~1 , . . . , f~m los sistemas de vectores columna y de
vectores fila de A respectivamente. ~c1 , . . . , ~cn Rm , f~1 , . . . , f~n Rn .

~cj = (a1j , a2j , . . . , amj ) , j = 1, . . . , n


f~i = (ai1 , ai2 , . . . , ain ) , i = 1, . . . , m

2.4 Producto de Matrices. Matrices Invertibles


En el conjunto de las matrices es posible definir una operacion de tipo multiplicaci
on, el
producto de matrices, cuando el n umero de filas de una matriz coincide con el n umero
de columnas de la otra. Veamos:

Producto de matrices: Sea A una matriz de m filas y p columnas, A Mmp (R),


y sea B con p filas y n columnas, B Mpn (R), es decir el n umero de columnas de
A coincide con el n
umero de filas de B. En tal situacion, se define la matriz producto
C = A B, con C Mmn (R), como la matriz C = (cij ) con elementos:
p
X
cij = aih bhj = ai1 b1j + ai2 b2j + ... + aip bpj
h=1

Desde el punto de vista citado en el apartado anterior, mediante el cual vemos una
matriz de n
umeros reales como un sistema de vectores fila (o de vectores columna),
el producto de matrices puede interpretarse de la siguiente forma: para construir el
16 MATRICES Y DETERMINANTES

producto A B consideremos A como un sistema de vectores fila y B como un sistema


de vectores columna:

f~1A
.
C = AB =
.. ~cB
1 . . . ~
cB
n = (cij )
f~mA

Dadas las condiciones del producto, tanto las filas de A como las columnas de B son vec-
tores del espacio vectorial Rp . Introduciremos ahora el producto escalar estandar en Rp ,
al que nos referiremos con mucho mas detalle en un tema proximo. Si ~v1 = (x1 , . . . , xp )
y ~v2 = (x01 , . . . , x0p ) son dos vectores del espacio vectorial Rp , entonces llamaremos pro-
ducto escalar estandar (o simplemente producto escalar) de ~v1 y ~v2 , y lo denotamos por
~v1 ~v2 , (o alternativamente: h~v1 |~v2 i) al numero real:

~v1 ~v2 = x1 x01 + x2 x02 + . . . + xp x0p

De esta forma, concluimos con que el producto de las matrices A y B puede expresarse
de la siguiente forma:

C = A B = (cij ) , cij = f~iA ~cB


j

! !
1 2 1 2 3
Ejemplo: Sean A = yB= .
0 1 0 1 2
En primer lugar, es facil concluir que no existe B A, pues el n
umero de columnas de B no
coincide con el n
umero de filas de A. Sin embargo A B s que esta bien definido y sera una
matriz de orden 2 3 (notese que: A22 B23 = C23 ). Aplicando la definicion:
! ! !
1 2 1 2 3 1 4 7
AB = =
0 1 0 1 2 0 1 2

Propiedades del producto de matrices:


1. Asociativa. El producto de matrices es asociativo. Sean A Mmp (R), B
Mpq (R) y C Mqn (R), entonces (A B) C = A (B C).
2. El producto de matrices no es conmutativo. Evidentemente, tal y como se ha definido
el producto, no puede ser conmutativo pues puede existir la matriz A B y no hacerlo la
correspondiente B A (ver el ejemplo anterior donde se presenta esta situacion). Aunque
existieran ambos productos, seran matrices de diferentes tamanos (excepto en el caso de
tratarse de matrices cuadradas). Finalmente, incluso en el caso de matrices cuadradas:
A Mnn (R), B Mnn (R), entonces existen A B y B A, y ambas son matrices
n n, pero no tienen porque ser iguales.
MATRICES Y DETERMINANTES 17

3. Distributiva. Se verifica la propiedad distributiva del producto con respecto a la


suma. Sean A Mmp (R), B Mpn (R), C Mpn (R), entonces:

A (B + C) = A B + A C

Y analogamente para el producto: (A + B 0 ) C = A C + B 0 C, siendo B 0 Mmp (R).


4. Matriz Identidad. Se llama matriz identidad In Mnn (R) a la matriz diagonal
In = diag{1, 1, . . . , 1}. Otra notacion habitual es In = (ij ), siendo ij la delta de
Kronecker, smbolo que representa:
(
1 si i = j
ij = i, j = 1, . . . , n
0 si i 6= j

La matriz identidad verifica, para cualquier matriz A Mmn (R):

Im A = A , A In = A

Normalmente se escribe simplemente I para la matriz identidad, sobre-entendiendose el


sub-ndice que determina el tama
no en cada caso.
Teniendo en cuenta las propiedades anteriores, el conjunto de matrices cuadradas
Mnn (R) con las operaciones suma y producto de matrices es un anillo unitario no
conmutativo.
5. Sean A Mmp (R) y B Mpn (R). Entonces:

(A B)t = B t At

6. Si A y B son dos matrices cuadradas triangulares superiores (o inferiores), entonces


su producto A B tambien es triangular superior (respectivamente inferior).
7. Si A Mnn (R) es una matriz cuadrada, entonces tiene sentido plantear el concepto
de potencias de dicha matriz:

A2 = A A , A3 = A A A , ...

de manera que se verifican trivialmente las propiedades habituales de la exponenciancion:


Aa Ab = Aa+b , etc. Por definicion tomaremos: A0 = In .

Matrices Invertibles
Definicion: Una matriz cuadrada A Mnn (K) es invertible si existe otra matriz de
no, llamada inversa de A y que denotaremos A1 , que verifica:
igual tama

A A1 = A1 A = In
18 MATRICES Y DETERMINANTES

Propiedades de las matrices invertibles:


1. Si A es una matriz invertible, entonces su inversa es u
nica.
2. Si A es invertible, entonces A1 tambien lo es, y obviamente: (A1 )1 = A, es decir
la inversa de la matriz inversa de A es la propia matriz A.
3. Si A y B son invertibles, entonces su producto AB tambien es invertible, verific
andose:

(A B)1 = B 1 A1

4. Si A es invertible, entonces su traspuesta At tambien lo es, y ademas: (At )1 =


(A1 )t .
5. Para las matrices invertibles tiene sentido definir las potencias negativas, de forma
evidente:
A2 = A1 A1 , A3 = A1 A1 A1 . . .

6. El conjunto de las matrices invertibles con la operacion producto de matrices tiene


estructura de grupo no conmutativo.
Nota: Es interesante comentar que en la practica, para comprobar que dos matrices dadas
son una inversa de la otra, basta con hacerlo u nicamente en uno de las dos ordenaciones
posibles. Es decir: Si A y B son matrices cuadradas del mismo orden y ademas AB = I,
entonces necesariamente B = A1 , no es necesario por tanto comprobar que B A = I.
Bastara as con definir matriz inversa por la derecha (o por la izquierda) para que una
matriz fuera invertible. Existe una demostracion ingeniosa de este hecho, partiendo de
que existe B tal que A B = I, y dando por demostrado que la inversa por la derecha
es u
nica, se define: C = B A I + B, y se calcula A C, concluyendose que B A = I
necesariamente.

2.5 Transformaciones elementales. Matrices elementales.


En el tema anterior se definieron las transformaciones elementales en un sistema de
vectores. Gracias a ellas podamos aplicar el metodo de eliminacion Gaussiana en los
sistemas de vectores de Rn , con los consiguientes resultados practicos de gran utilidad.
Las transformaciones elementales por filas o por columnas en una matriz van a ser
exactamente las mismas, sin mas que interpretar a la matriz A Mmn (R) como un
sistema de vectores fila o un sistema de vectores columna, respectivamente.
Tendremos por tanto que las transformaciones elementales por filas en una matriz
son las siguientes:

Intercambiar el orden entre las filas i-esima y j-esima de la matriz. Se denota por
Fij .
MATRICES Y DETERMINANTES 19

Multiplicar la fila i-esima por un n


umero real escalar k 6= 0. Fi (k).

Sumar a la fila i-esima la fila j-esima multiplicada por k R. Fij (k).

y analogamente para las columnas, es decir: Cij , Ci (k) y Cij (k).


Centraremos todo el analisis que viene a continuaci
on en las transformaciones elemen-
tales por filas, si bien es completamente equivalente el analisis de las transformaciones
elementales por columnas (salvo peque nos detalles que se especificaran).
Definici on: Se llama matriz elemental a la que resulta de aplicar una transformacion
elemental a la matriz identidad. Si la transformacion es por filas, tendremos una matriz
elemental por filas, y analogamente para el caso de columnas.
Dado que hay tres tipos de transformaciones elementales, tendremos entonces tres
diferentes tipos de matrices elementales, que denotaremos: Eij , Ei (k), Eij (k), con no-
tacion heredada de la transformacion elemental correspondiente.

Ejemplo: Algunas matrices elementales por filas para el caso de n = 3:



1 0 0 7 0 0 1 0 0

E23 = 0 0 1 , E1 (7) = 0 1 0 , E31 (5) = 0 1 0
0 1 0 0 0 1 5 0 1

Proposici on: Sea A una matriz A Mmn (R). Sea E una matriz elemental (por filas)
de orden m m. Entonces la matriz producto E A es igual a la matriz que se obtiene
al realizar en A la transformacion elemental por filas correspondiente a la matriz E.
Nota: Esta proposicion es cierta para transformaciones por columnas, pero en ese caso
el producto debe realizarse por la derecha, es decir: A E.
Proposici on: Las matrices elementales son invertibles y sus inversas son de nuevo
matrices elementales del mismo tipo. Es facil deducir (utilizando la proposicion anterior)
cuales son las inversas de las matrices elementales (tal y como se ha especificado antes
nos referiremos siempre, salvo que se especifique lo contrario, a matrices elementales por
filas).
- Matrices Eij . Si a la matriz Eij se le aplica la transformacion elemental Fij se obtiene
obviamente la identidad, as tendremos:

1
Eij Eij = I Eij = Eij

- Matrices Ei (k). De manera analoga, aplicando Fi ( k1 ) a la matriz Ei (k) se obtiene la


identidad (recordemos que k 6= 0 necesariamente). Entonces:
1 1
Ei ( ) Ei (k) = I Ei (k)1 = Ei ( )
k k
20 MATRICES Y DETERMINANTES

- Matrices Eij (k). Si se aplica Fij (k) a Eij (k) resulta nuevamente la identidad.

Eij (k))1 = Eij (k)

Definicion: Una matriz A0 es equivalente por filas a otra matriz A si A0 se obtiene


aplicando un numero finito de transformaciones elementales por filas en A.
De esta forma, si A0 se obtiene aplicando p transformaciones elementales por filas en
A, tendremos que existen p matrices elementales: E1 , E2 , . . . , Ep de tal manera que:

A0 = Ep Ep1 . . . E1 A

La matriz:
P = Ep Ep1 . . . E1

recibe el nombre de matriz de paso de A a A0 . En general, por tanto, una matriz de


paso no es mas que una matriz producto de matrices elementales (evidentemente nos
referimos a matrices de paso por filas, de manera analoga se definiran las matrices de
paso por columnas).
Proposicion: Si P es una matriz de paso, entonces es invertible, y su inversa es la
matriz de paso de la transformacion inversa. Es decir:

A0 = P.A A = P 1 .A0

Teniendo en cuenta las propiedades de las matrices invertibles, se obtiene de manera


directa:
P = Ep Ep1 . . . E1 P 1 = E11 E21 . . . Ep1

La consecuencia inmediata de los razonamientos anteriores es que si A0 es equivalente


por filas a A, entonces A tambien lo es a A0 . De hecho se trata de una relacion de
equivalencia (como puede comprobarse trivialmente) en el conjunto de las matrices de
un tama no dado, y lo denotaremos de la forma: A A0 .
Definici on: Sea A Mmn (R) una matriz n umero de filas menor o igual que de
columnas, es decir: m n. Se dice que A es una matriz escalonada por filas si cada
vector fila de A comienza con un n umero de ceros superior a la fila anterior. En el caso
de matrices con mayor n umero de filas que de columnas, m > n, la definicion anterior
es valida para las primeras n filas, siendo necesariamente nulas las m n filas restantes.
Para el caso particular de matrices cuadradas, de la definicion anterior se deduce que
una matriz escalonada por filas es necesariamente triangular superior.
El concepto de matriz escalonada por filas es completamente analogo al de sistema de
vectores escalonado que fue introducido en el tema anterior. De hecho una matriz es
MATRICES Y DETERMINANTES 21

escalonada por filas si su sistema de vectores fila es un sistema escalonado. Las tecnicas
de eliminacion gaussiana que planteamos entonces para los sistemas de vectores son ahora
igualmente validas, y as, trivialmente, toda matriz (del tama
no que sea) es equivalente
por filas a una matriz escalonada por filas.
Teorema: Sea A Mnn (R) una matriz cuadrada. La condicion necesaria y suficiente
para que A sea una matriz invertible es que sea equivalente po filas a la matriz identidad.
Demostraci
on: Como es logico, separaremos la demostracion en dos partes:
A es invertible A es equivalente por filas a la matriz identidad.
Por medio de elimacion gaussiana la matriz A es equivalente por filas a una matriz escalonada U
(dado que es cuadrada, de hecho es triangular superior). Demostremos que entonces los elementos
diagonales de U deben ser no nulos necesariamente. Si alguno de los elementos diagonales fuera
nulo, entonces la u
ltima fila de U sera completamente nula, dado que esta escalonada por filas.
Pero entonces U no podra ser una matriz invertible (una matriz invertible no puede tener una fila
nula, pues su producto con otra matriz cualquiera generara siempre una fila nula en el resultado,
lo cual impide la obtencion de la matriz identidad). Sin embargo, tenemos que:

U = Ep Ep1 . . . E1 A

y as U es igual al producto de p + 1 matrices invertibles, luego es invertible. Concluimos por


tanto que uii 6= 0, i = 1, . . . , n.
Aplicando enotnces las n transformaciones elementales por filas Fi ( u1ii ) a U , convertiremos
la matriz en una cuya diagonal principal sea enteramente de unos. A continuacion, basta con
utilizar la eliminacion gaussiana hacia arriba (habitualmente llamado remonte), comenzando
por la ultima fila y eligiendo como pivotes los elementos de la diagonal. El proceso concluira al
obtenerse la matriz identidad.
A es equivalente por filas a la matriz identidad A es invertible.
Si A I, entonces existen r matrices elementales de manera que:

I = Er Er1 . . . E1 A I = P A , P = Er Er1 . . . E1

pero entonces es evidente que la matriz de paso P no es mas que la matriz inversa de A, y en
consecuencia A es invertible. Q.E.D.

M etodo de C alculo de la Matriz Inversa: Una posible manera de calcular la matriz


inversa de una matriz invertible A se deduce directamente del Teorema anterior. La
matriz inversa es simplemente la matriz de paso que lleva de A a la identidad mediante
transformaciones elementales por filas. Si escribimos (I|A), es decir la matriz identidad
y la matriz A como si constituyeran una matriz n (2n), y aplicamos transformaciones
elementales a dicha matriz doble hasta llegar a que A se convierta en la identidad,
entonces, trivialmente, la matriz identidad original, bajo las mismas transformaciones,
se convertira en la matriz de paso, es decir, la matriz inversa de A

(I|A) . . . (A1 |I)


22 MATRICES Y DETERMINANTES

Ejemplo: Obtener la inversa de la matriz:



1 0 1

A= 1 2 2
0 1 1

Se tiene que:

1 0 1 1 0 0 1 0 1 1
0 0 1 0 1
1 0 0

1 2 2 0 1 0 0 1 1 0 0 1 0 1 1 0 0 1

0 1 1 0 0 1 1 2 2 0 1 0 0 2 1 1 1 0

1 0 1 1 0 0 1 0 1 1 0 0 1 0 0
0 1 2

0 1 1 0 0 1 0 1 1 0 0 1 0 1 0 1 1 1

0 0 1 1 1 2 0 0 1 1 1 2 0 0 1 1 1 2

0 1 2

A1 = 1 1 1
1 1 2

Factorizaci
on L U
Una interesante aplicacion de las matrices elementales es la descomposicion L U de una
matriz cuadrada A. Se trata de encontrar dos matrices, una triangular inferior, L, y
otra triangular superior, U , de tal manera que A = L U . Esta descomposicion tiene
especial utilidad en la resolucion de sistemas de ecuaciones lineales, que veremos en un
tema posterior.
Como veremos a continuacion, no siempre es posible esta descomposicion. Analice-
mos el caso A M33 (R): buscamos una matriz L = (lij ) triangular inferior, lij = 0,
i < j, y tal que todos los elementos diagonales sean igual a 1: lii = 1, i = 1, 2, 3:

a11 a12 a13 1 0 0 u11 u12 u13

a21 a22 a23 = l21 1 0 0 u22 u23
a31 a32 a33 l31 l32 1 0 0 u33

Desarrollando el producto tendremos, para la primera fila:

a11 = u11 ; a12 = u12 ; a13 = u13

es decir, la primera fila de U coincide con la primera de A. Si observamos ahora la


primera columna del producto, y suponemos que a11 6= 0, tendremos:
a21 a31
a21 = l21 u11 l21 = ; a31 = l31 u11 l31 =
a11 a11
MATRICES Y DETERMINANTES 23

y as l21 y l31 son calculables en terminos de los coeficientes aij (siempre y cuando
a11 6= 0). Pasemos a la segunda fila:

a22 = l21 u12 + u22 u22 = a22 l21 u12 ; a23 = l21 u13 + u23 u23 = a23 l31 u13

y conoceremos entonces la segunda fila de U como funcion de cantidades conocidas.


Continuando con el razonamiento, para la segunda columna de L y posteriormente para
la tercera de U , obtendremos todos los coeficientes de L y U con el u nico requisito de
que a11 y a22 sean no nulos. Sin embargo, si por ejemplo a11 = 0 la descomposicion ya
no sera posible. En la practica aplicaremos el siguiente razonamiento:
Si la matriz A puede ser convertida en una matriz triangular superior utilizando
exclusivamente transformaciones elementales de los tipos: Fi () y Fij (), siempre con
i > j, entonces las matrices elementales involucradas son necesariamente triangulares
inferiores, y sus inversas tambien, de esta manera:

U = Ep Ep1 ... E1 A A = (Ep Ep1 ... E1 )1 U

y dado que el producto de matrices triangulares inferiores es tambien triangular inferior,


tendremos que L viene dadad directamente por el producto:

L = (Ep Ep1 ... E1 )1

Para el caso general pueden demostrarse los siguientes resultados interesantes:


Proposici on 1: Si A es una matriz invertible y factorizable como producto L U (con
lii = 1, i), entonces esa factorizacion es u
nica.
Proposici on 2: Si A es invertible, siempre es posible encontrar una matriz de per-
mutacion de filas P tal que P A sea factorizable LU .
Finalmente, anticiparemos un u ltimo resultado importante, que utiliza el concepto de
menor principal que sera definido en una proxima seccion de este tema:
Proposici on 3: Una condicion necesaria y suficiente para que una matriz invertible sea
factorizable LU es que todos los menores principales de la matriz sean no nulos.
Ejemplo: Encontrar la factorizacion LU de la matriz

1 1 0

A1 = 1 2 1
0 1 2


1 1 0 1 1 0 1 1 0
F21 (1) F32 (1)
A = 1 2 1 0 1 1 0 1 1 = U
0 1 2 0 1 2 0 0 1
24 MATRICES Y DETERMINANTES

1 1
A1 = (F32 (1)F21 (1))1 U = F21 (1)F32 (1)U = F21 (1)F32 (1)U L = F21 (1)F32 (1)

1 0 0 1 1 0

A = L U = 1 1 0 0 1 1
0 1 1 0 0 1

2.6 Rango de una matriz


Definici
on: Se llama rango por filas de una matriz A Mmn (R) al rango del
sistema de vectores fila de A, rf (A) = rango(Sf ) = dim L(Sf ), con Sf = {f~1 , . . . , f~m }.
Evidentemente, coincide con el n umero de filas linealmente independientes que aparecen
en la matriz A.

De manera equivalente se define el rango por columnas de A, considerando ahora,


logicamente, el sistema de vectores columna de A: Sc = {~c1 , . . . , ~cn }. rc (A) = rango(Sc ) =
dim L(Sc ).

Teorema del Rango: (primera versi on). Dada una matriz A Mmn (R), su rango
por filas y su rango por columnas coinciden.

Demostraci on. Demostraremos que si el rango por filas de una matriz A es rf (A) = r, y el
rango por columnas es rc (A) = r0 , entonces se cumple necesariamente que: r0 r.
Supongamos que la matriz A esta presentada de manera que son precisamente las r primeras filas
las que son linealmente independientes (intercambiando filas si fuera necesario, lo que obviamente
no afecta al rango por filas).

a11 a12 a1r a1,r+1 a1n

a21 a22 a2r a2,r+1 a2n



A=
ar1 ar2 arr ar,r+1 arn

a ar+1,2 ar+1,r ar+1,r+1 ar+1,n
r+1,1


am,1 am,2 am,r am,r+1 am,n

Entonces el resto de filas, m r, son combinacion lineal de las anteriores:


r
X
f~i = k f~k ,
(i)
i = r + 1, ..., m
k=1

o equivalentemente, para las componentes de dichas filas:


r
X (i)
aij = k akj , i = r + 1, ..., m ; j = 1, ..., n
k=1
MATRICES Y DETERMINANTES 25

Consideremos ahora un vector columna generico de A, ~cj , j = 1, . . . , n. Se tiene:

~cj = (a1j , a2j , ..., arj , ar+1,j , ..., amj ) =


Xr r
X
(r+1) (m)
= (a1j , a2j , ..., arj , k akj , ..., k akj ) =
k=1 k=1
(r+1) (m) (r+1) (m)
= a1j (1, 0, ..., 0, 1 , ..., 1 ) + a2j (0, 1, ..., 0, 2 , ..., 2 ) + ... +
+arj (0, 0, ..., 1, (r+1)
r , ..., (m)
r )

y por tanto cualquier columna puede expresarse como una combinacion lineal de r vectores. Esto
significa que el rango del sistema de columnas, es decir r0 , es necesariamente menor o igual que
r, puesto que todas las columnas pertenecen a un subespacio generado por r vectores.
Repitiendo el mismo razonamiento pero comenzando el mismo con las columnas deduciramos
que r0 r, y as, en definitiva, tendremos que r = r0 . Q.E.D.

2.7 Determinantes. Definici


on
Dada una matriz cuadrada Mnn (R), definiremos su determinante como un n umero real
asociado a ella. Para el caso de matrices 2 2, el determinante puede ser definido de
una forma muy sencilla:
!
a b a b

det = = ad bc
c d c d

Sin embargo, para tama nos superiores, la definicion no es tan trivial, de manera que
debemos recordar como paso previo algunos conceptos acerca del conjunto de permuta-
ciones posibles de los elementos de un conjunto dado.

Grupo Sim
etrico
Denominemos N al conjunto de los n primero n umero naturales: N = {1, 2, ..., n}.
Llamaremos Sn al conjunto de todas las permutaciones posibles de dichos n
umeros.
Definici
on: Llamaremos permutaci on de n elementos a toda aplicacion biyectiva del
conjunto N = {1, 2, ..., n} en s mismo:
!
1 2 ... n
:N N ,
(1) (2) ... (n)

se trata por tanto de todo reordenamiento posible de los elementos que pertenecen al
conjunto N . Suele utilizarse una notacion abreviada, escribiendo: = ((1) . . . (n)).

Ejemplo: El grupo simetrico S3 tiene los siguientes elementos:



1 = 1 2 3 2 = 1 3 2 3 = 2 1 3
26 MATRICES Y DETERMINANTES


4 = 2 3 1 5 = 3 1 2 6 = 3 2 1

Recordemos que el n umero de permutaciones de n elementos, es decir el cardinal de Sn ,


es el factorial de n, n!.

Composici on (Producto) de permutaciones: Dadas dos permutaciones 1 y 2 de


los elementos del conjunto N , se define el producto de permutaciones, que denotaremos
como 2 1 , como la simple composicion de ambas aplicaciones, es decir, la permutaci
on:
! !
1 2 ... n 1 2 ... n
2 1 =
2 (1) 2 (2) ... 2 (n) 1 (1) 1 (2) ... 1 (n)
!
1 2 ... n
=
2 (1 (1)) 2 (1 (2)) ... 2 (1 (n))

Obviamente a partir de la operacion producto de permutaciones se puede definir la


permutaci on inversa 1 como aquella que verifica que 1 = 1 = Id, siendo
Id la permutacion identidad.
Es facil dmostrar que el conjunto de las permutaciones Sn de un conjunto N con la
composicion posee estructura de Grupo, el cual recibe el nombre de Grupo simetrico.

Trasposiciones: Se llama trasposicion a la permutaci on consistente en el intercambio


de solo dos elementos en el conjunto N . De forma generica se tiene que,
!
1 ... i ... j ... n
:N N ,
1 ... j ... i ... n

Con cierta frecuencia se utiliza la notacion ij para denotar la trasposicion anterior.

Proposici on: Toda permutacion puede escribirse como el producto (composicion) de


trasposiciones, esto es, Sn se verifica que = p p1 ... 1 .

Proposici on: Si una permutacion puede descomponerse en el producto de p trasposi-


ciones, con p par, entonces todas las descomposiciones posibles de requieren un n
umero
par de trasposiciones, y analogamente si p es impar.
Se dice que una permutacion es par si descompone en un n umero par de trasposi-
ciones. En caso de que dicho n umero sea impar hablaremos de permutaciones impares.

Definici
on: El signo de una permutaci
on, que denotaremos por sign() es,
(
+1 si es par
sign() =
1 si es impar
MATRICES Y DETERMINANTES 27

Definicion de Determinante
Definici
on: Dada una matriz cuadrada A de n umeros reales, A = (aij ), se llama
determinante de A, |A| o det(A), al n
umero real:
X
det(A) = |A| = sign() a1(1) a2(2) ... an(n)
Sn

En la definicion anterior se ha elegido que en cada termino de la suma esten fijadas


las filas y se permuten los numeros de columna. Es posible definir alternativamente el
determinate intercambiando dichos papeles entre filas y columnas. Aclararemos esta idea
a continuacion, en las propiedades de los determinantes. En cualquier caso, la definicion
alternativa sera:
X
det(A) = |A| = sign() a(1)1 a(2)2 ... a(n)n
Sn

Determinantes de orden 2: Si A es de orden 2, es evidente que la definicion nos


conduce a la expresion que ya haba sido introducida en el apartado anterior:
X
|A| = sign() a1(1) a2(2) = 1 a11 a22 + (1) a12 a21 = a11 a22 a12 a21
S2

Determinantes de orden 3: De manera analoga, para el caso 3 3 se tiene:


X
|A| = sign() a1(1) a2(2) a3(3) =
S3
= 1a11 a22 a33 1a11 a23 a32 1a12 a21 a32 + 1a12 a23 a31 1a13 a22 a31 + 1a13 a21 a32 =
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 (a13 a21 a32 + a12 a21 a33 + a11 a23 a32 )

que frecuentemente es llamada Regla de Sarrus.

2.8 Propiedades de los determinantes


Presentaremos a continuacion una serie de propiedades basicas de los determinantes,
cuyas demostraciones son sencillas (aunque no las incluiremos):
Sea A una matriz cuadrada de orden n n. Denotaremos:

f~1
~
f2
A = (aij ) =
..

.
f~n

y as f~1 , . . . , f~n son los vectores fila de A.


28 MATRICES Y DETERMINANTES

1. El determinante de la matriz A y el de su traspuesta At coinciden, es decir: |A| = |At |.


Esta propiedad tiene como consecuencia que todo lo que se exponga a continuaci on
relativo a las filas de un determinante sera valido tambien para las columnas.

2. El determinante es lineal en cada fila y cada columna (suele utilizarse entonces el


termino multilineal). Esto significa que se verifican las siguientes relaciones:

f~ + f~0 f~ f~0 f~ f~
1 1 1 1 1
. . .1 . .
.. = .. + .. , .. = ..

~ ~
f~n f~n f~n fn fn

y analogamente para cualquiera de las restantes filas.

3. Si la matriz A tiene una fila nula, entonces |A| = 0.

4. Si la matriz A0 se obtiene intercambiando en A el orden de dos filas, entonces |A0 | =


|A|, es decir el determinante cambia de signo bajo una transformacion elemental por
filas de tipo Fij . Como consecuencia directa de esta propiedad, si una matriz tiene dos
filas iguales automaticamente su determinante es nulo.

5. Si la matriz A0 se obtiene aplicando una transformacion elemental por filas de tipo


Fi (k) en la matriz A, entonces: |A0 | = k |A|. Notese que esta propiedad esta incluida
en la anteriormente expuesta Propiedad 2.

6. Si la matriz A0 se obtiene aplicando en A una transformacion elemental de tipo Fij (k),


entonces sus determinantes coinciden, es decir: |A0 | = |A|.
7. Si A es una matriz triangular (superior o inferior), entonces el determinante de A
es igual al producto de los elementos de la diagonal principal de A. En particular,
evidentemente, esta propiedad se aplica a las matrices diagonales.

8. El determinante del producto de dos matrices A y B es igual al producto de los


determinantes de cada matriz, es decir: |A B| = |A| |B|.

9. Si una de las filas de la matriz A depende linealmente de las demas, entonces |A| = 0.
Entonces evidentemente, si |A| 6= 0, el sistema de vectores fila de A es un sistema libre.

10. Una matriz A es invertible si y solo si su determinante es distinto de cero. Ademas,


el determinante de la matriz inversa es igual al inverso del determinante de la matriz A.

2.9 Menores, adjuntos y Matriz adjunta


Definici on: Dada una matriz A de orden m n, llamaremos menor de orden p de A
al determinante de cualquier submatriz que se obtenga a partir de A por la intersecci
on
de p filas y p columnas.
MATRICES Y DETERMINANTES 29

Definici on: Dada una matriz cuadrada A se llama menor complementario ij de la


posicion ij al menor de orden n 1 que se obtiene al eliminar en A la fila iesima y la
columna jesima.
Definici
on: Sea A una matriz cuadrada de orden n, se llama adjunto del elemento ij
al n
umero real:
Aij = (1)i+j ij

Definici on: Sea A una matriz cuadrada de orden n. Se llama matriz adjunta de la
matriz A, y de denota por Ad(A) a la matriz que tiene como elementos a los adjuntos
de los elementos de la matriz A: Ad(A) = (Aij )
Proposici
on: Sea A Mnn (R) una matriz invertible, entonces se verifica:
1 1
A1 = Ad(At ) = (Ad(A))t
|A| |A|

Proposicion. Desarrollo de un determinante por una fila o columna. Sea A Mnn (R)
una matriz cuadrada, entonces se verifica:
n
X
|A| = aij Aij j = 1, . . . , n
i=1
Xn
|A| = aij Aij i = 1, . . . , n
j=1

La primera expresion es lo que se conoce como desarrollo del determinante por la columna
jesima, mientras que la segunda es el desarrollo por la fila iesima. Esta propiedad de
los determinantes (llamada a veces Desarrollo de Lagrange) nos indica que es posible re-
ducir el calculo de un determinante de orden n a una combinaci on lineal de determinantes
de orden n 1 (los que aparecen en los adjuntos correspondientes). En particular, una
elecci
on adecuada de la fila o columna por la que se va a desarrollar permite simplificar
mucho el calculo final.

2.10 Teorema del Rango


En una seccion anterior se deficio el rango por filas y el rango por columnas de una matriz
A Mmn (R). Definiremos ahora una tercera posibilidad, el rango por menores:
Definici
on: Se llama rango por menores de una matriz A Mmn (R) al mayor de los
ordenes de los menores no nulos contenidos en dicha matriz.
Teorema del Rango. Dada una matriz A Mmn (R), su rango por filas, su rango
por columnas y su rango por menores coinciden.
Gracias a este Teorema toda matriz de numeros reales tiene un u
nico rango definido
que puede ser calculado independientemente por filas, por columnas o por menores.

You might also like