You are on page 1of 39

1

MATRICES Y ALGEBRA LINEAL

Definición de matriz
Una matriz A=  a ij  m ,n es un arreglo rectangular de elementos aij ubicados en m filas y
n columnas

 a11 a12 ... a1n 


a a ... a 
A= 
21 22 2n 
(2.1)
.................... 
 
a a
 m1 m 2 mn ... a
Donde a ij es el elemento ubicado en la i-ésima fila y la j-ésima columna. Los elementos
que forman la matriz pueden ser números complejos o magnitudes de cualquier campo
físico con una estructura aún más compleja. En particular si los a ij son números reales,
entonces A es denominada una matriz real.
La dimensión de A es mxn y cuando m=n se dice que A es una matriz cuadrada. Si
n=1, diremos que A es una matriz columna o un vector columna (más específicamente
un vector columna m-dimensional). Si a la inversa m=1, A es una matriz fila. Cuando
m=n=1 A se reduce a un solo elemento o a un escalar. Si aij =0 para todo i y j,
entonces A es la matriz nula.

3.1 Operaciones con matrices

Igualdad de matrices: Dos matrices A=  aij  m ,n y B=  bij  m , n del mismo orden (es
decir con igual número de filas y columnas) son iguales, A=B, si y sólo si aij = bij
para todo i y j.

Multiplicación de una matriz por un escalar: Sea  un número complejo y sea A=


 aij  m,n una matriz de dimensiones mxn; entonces, el producto  A es una nueva
matriz C=  cij  m , n , tal que cij   aij para todo i y j.

Adición y sustracción de matrices: Si dos matrices A=  a ij  m ,n y B=  bij  m , n tienen el


mismo orden (dimensión) definimos la suma o diferencia de matrices, C=A  B, como
una nueva matriz C=  cij  m , n , tal que cij  a ij  bij para todo i y j. La adición de
matrices es una operación conmutativa, es decir A+B=B+A, o en una forma más
general A+B+C = (A+B )+C = A +(B +C ), no ocurre lo mismo con la sustracción.

Multiplicación de matrices: Sea A=  aij  m ,n (de dimensión mxn) y B=  bij  n , p (de


dimensión nxp), se define el producto entre matrices, A B ó A  B, como una nueva
matriz C=  cij  m , p (de dimensión mxp), donde

1
2

n
cij   aik bkj (2.2)
k 1
Ejemplo1:

a11 a12  b11 b12 


A=
a a  b b 
B=

 21 22   21 22 
a11b11  a12b21 a11b12  a12b22  a11b11  a21b12 a12b11  a22b12 
AB=
a b  a b a b  a b  BA=
a b  a b a b  a b 
 21 11 22 21 21 12 22 22   11 21 21 22 12 21 22 22 
Ejemplo 2:

1 0 4
1 0 1   2  1 4  i 
B= 2 i 0 
A=
2 i 3  ,

, AB=
11  2i 2 8  3i
  3 1 i  
Debemos hacer notar que la multiplicación AB está definida si y sólo si el número de
columnas de A es igual al número de filas de B. En este caso se dice que ambas
matrices son conformables en el orden indicado (AB). En general el producto entre
matrices no es conmutativo (ver Ejemplo 1), es decir: AB  BA. Si A=  a ij  m ,n y B=
 bij  n, p , entonces AB está definido, pero BA no lo está a menos que m=p. Sin embargo,
si m=p, AB y BA son de distinto orden, a menos que m=n. Si A y B son matrices
cuadradas (igual número de filas que de columnas) y del mismo orden, entonces el
producto conmuta, AB=BA.

2
3

1 2  3  2
Ejemplo 3: A=
3 4 y B=
 3 0 , entonces AB=BA

   
Resulta consistente con las definiciones anteriores, el dividir una matriz en submatrices
menores. Este proceso es conocido como partición de una matriz y resulta muy útil en
programación, especialmente cuando se trabaja con matrices de grandes dimensiones.
Por ejemplo, si partimos simétricamente una matriz cuadrada A de orden tres de la
forma

a11 a12  a13 


a a  a   B B 
 21 22 23  11 12
   
A= 

  B21 B22 
a31 a32  a33 
Donde los elementos de la partición son las submatrices

a1 a12  a13 


B1    , B12    , B21   a31 a32  y B22   a33 

 a 21 a 2  a23 
Si hacemos una partición similar para una matriz cuadrada C de orden tres

c11 c12  c13 


c c  c 
 21 22 23 
D11 D12 
C=
 

D D 
   21 22 
c31 c32  c33 

3
4

Se verifica que la suma o diferencia y el producto de ambas matrices puede ser


expresado en función de sus submatrices como:

B11  D11 B12  D12  B11D11 B12 D12 


A  B=
B  D B  D  y AB=
B D B D  (2.3)

 21 21 22 22   21 21 22 22 
En general se puede afirmar que, si partimos dos matrices conformables en un
producto, serán condiciones necesarias y suficientes para aplicar la definición siguiente:
(‘la adición, sustracción y producto de dos matrices puede ser obtenida a partir de la
adición, sustracción y producto de sus correspondientes submatrices’ ) que a cada
línea vertical de partición que separe las columnas k y k+1 del primer factor,
corresponda una línea de partición horizontal que separe las filas k y k+1 del segundo
factor, y que en el segundo factor no haya líneas de partición horizontal adicionales.

Las particiones, pueden hacerse independientemente en columnas, filas o combinadas


como en el caso anterior.
Supongamos que tenemos las matrices A y D, tales que:

a11 a12  d11 d12 


A=
a a  D=
d d  y

 21 22   21 22 
a11d11  a12d21 a11d12  a12d22 
AD=F=
a d  a d a d  a d 
 21 11 22 21 21 12 22 22 
Si partimos en columnas las matrices D y F

4
5

d11 d12 
D=
d d  
= DI DII  y

 21 22 
a11d11  a12d21  a11d12  a12d22 
F=
a d  a d  a d  a d  = FI FII 

 21 11 22 21 21 12 22 22 
tendremos un hecho ya conocido de que cada columna de F puede ser obtenida
premultiplicando la columna correspondiente de D por la matriz A. Es decir
FI =A DI y FI =A DII
De una manera similar, si partimos en filas las matrices A y F veremos que cada fila de
F es el resultado de postmultiplicar las filas correspondientes de A por la matriz D .

Lo anterior resulta sumamente útil en el caso de matrices grandes como ocurre en


meteorología, oceanografía y en la geofísica en general, donde la longitud de las series
de datos, como el número de localidades donde se toman los mismos, es grande (en la
práctica es frecuente trabajar con matrices de datos con dimensiones cercanas a 1000 x
1000).
Particionar las matrices al confeccionar un programa implica una gran economía tanto
en memoria como en tiempo de ejecución.

3.2 Definiciones

Transpuesta de una matriz: Al intercambiar las filas y columnas de una matriz A=


 aij  m,n se obtienen la denominada matriz traspuesta de A, AT. Es decir, AT=  aij'  n,m
donde aij  a ji para todo i y j. Debemos hacer notar que la dimensión de AT es de nxm.
'

Matrices simétricas y antisimétricas: Una matriz cuadrada A=  aij  m , m es simétrica


si A= AT y asimétrica si A= -AT.

Matriz conjugada: Sea a ij el complejo conjugado de aij , entonces la matriz


conjugada de A=  a ij  m ,n es Ā   a ij  .

Matriz traspuesta conjugada: La traspuesta conjugada de A=  a ij  m ,n , es A*= Ā T.

5
6

Matrices hermíticas y antihermíticas: Si una matriz cuadrada A=  aij  m , m satisface


que A= Ā T, entonces se dice que A es hermética. Si A= -Ā T entonces se dice que A es
antihermítica.

Traza de una matriz: Sea una matriz cuadrada A=  aij  m , m , entonces la diagonal
principal de A esta formada por los elementos a ij tales que i=j. Se define como traza
m
de la matriz A la suma de los elementos de la diagonal principal ( trA=  a ii ).
i 1

Matriz diagonal: A es una matriz diagonal si a ij =0 para i  j.

Matriz triangular superior: A es una matriz triangular superior si aij =0 para i<j y
estrictamente triangular superior si a ij =0 para i  j.

Matriz triangular inferior: A es una matriz triangular inferior si aij =0 para j>i y
estrictamente triangular inferior si aij =0 para j  i.

Matriz identidad: Se define como matriz identidad(o unitaria), I=  aij  m , m = I n ,


aquella matriz que satisface las condiciones que a ii =1 para i=1,…,m y aij =0 si i  j.
Frecuentemente resulta útil la notación que utiliza la denominada delta de Kronecker:

0 cuando i  j
 ij   (2.4)

1 cuando i  j
Utilizando esta notación, podemos escribir la matriz identidad en la forma
I=  ij  (2.5)
Matriz normal: Se dice que A es una matriz normal si A A*= A*A.

Matriz unitaria: Se dice que una matriz A es unitaria si satisface que A A*= A*A=I.

Matriz indempotente: Se dice Se que A es una matriz indempotente si A2=AA=A  I.

Matriz nilpotente: Si r>0 es el menor entero que satisface que Ar=0, donde
Ar=AA ….. A (r veces), entonces A es nilpotente con índice r.

3.3 Algunas propiedades de las matrices

De las operaciones y definiciones anteriores el lector podrá deducir algunas


propiedades interesantes de las matrices:

- Para cualquier matriz A, las matrices definidas como A A* y A*A son herméticas y
tr(A A*)=tr(A*A)=   aij , donde
2
2
aij  aij a ij .
i j

- Si A=  aij  np y B=  bij  pn , entonces tr(AB)=tr(BA).

- Cuando el producto AB está definido, entonces (AB)*=B*A*.

6
7

- La matriz identidad satisface que: AI=IA=A e I n=I para cualquier n>0.

- Si A es una matriz hermética, entonces iA es anti-hermítica.

- Cualquier matriz cuadrada A puede ser expresada como la suma de una matriz
simétrica 1/2 (A+ AT) y una asimétrica 1/2 (A- AT).

- Cualquier matriz cuadrada A puede ser expresada como la suma de una matriz
hermética 1/2 (A+ A*) y una antihermítica 1/2 (A- A*).

- Sea una matriz cuadrada A=(1/m)  aij  m , m , donde aij =1 para todo i,j, entonces A es
indempotente.

- (A+B)T=AT+BT , (AB)T=BTAT , (AT)T=A

3.4 Determinantes

Sea una matriz cuadrada A=  a ij  n , n , definimos como determinantede orden n a un


número asociado a A que indicaremos por det(A)= A  a ij

a11 a12 ......a1n


a21 a22 ......a2n
det(A)= A (2.6)
........................
an1 an2 .......ann
Para definir el valor de un determinante necesitamos introducir algunos conceptos

Menor: Dado un elemento a jk de det(A), asociamos un nuevo determinante de orden


(n-1) que se obtendrá luego de remover todos los elementos de la fila j-ésima y de la
columna k-ésima. Este nuevo determinante se llamará menor correspondiente al
elemento a jk , que designaremos como Mjk.
Ejemplo:
El menor correspondiente al elemento a 22 del determinante det(A) se obtiene en la
siguiente forma (eliminando la fila y columna marcadas con  y  )

7
8


a11 a12 a13............ a1n

det (A)= A A   a21  a22  a23 ...  ... a2n  entonces

...............  ...........................
an1 an 2 an3........... ann

a11 a13  a1n
a21 a23  a2 n
M22=
   
an1 an 3  anm
Cofactor: Si multiplicamos el menor Mij por (-1)i+j, el resultado se denomina cofactor de
a ij y la designaremos como Aij.
Ejemplo 4:

 5 2 0  2 0
 3 1  2  4 2
A=
  entonces A21=(-1)2+1
  = -M21
  1 4 2

Matriz adjunta(o adjunta de una matriz). La adjunta de una matriz cuadrada A es la


traspuesta de la matriz que se obtiene al sustituir cada elemento de la misma por su
cofactor. Es decir:

a11 a12 ....... a1n 


a a ....... a 
A= 
21 22 2n 
entonces
  
 
an1 an2 ....... ann 

8
9

T
 A11 A12 ...... A1n   A11 A21 ...... An1 
 A A ...... A   A A ....... A 
=
n2 
Adj(A)= 
21 22 2n  12 22

.........................  ....................... 
   
 An1 An2 ...... Ann   A1n A2n ......... Ann 
Determinante. El valor del determinante de una matriz cuadrada A de orden n, se define
como la suma de los productos de los elementos de una fila fila (o columna) cualquiera
de dicha matriz por sus correspondientes cofactores. Esto nos conduce a las
denominadas fórmulas de desarrollo de Laplace.
n n
det(A)=  a ik Aik o det(A)=  a kj Akj (2.7
k 1 k 1
a,b)
para cualquier valor de i o j.

Comentemos algunas propiedades de los determinantes, las que simplifican mucho la


evaluación de los mismos.

1.- Si todos los elementos de una fila (o columna) son iguales a cero, el determinante
es nulo.

2.- El valor de un determinante no cambiará si se intercambian sus filas y columnas.


Es decir det(A)=det(AT).

3.- det(I)=1

4.- Sea  un escalar y A una matriz cuadrada de orden n, entonces det(  A)=  n
det(A)

5.- El intercambio de dos filas (o dos columnas) cualesquiera cambia el signo de su


determinante.

6.- Si los elementos correspondientes a dos filas (o columnas) son iguales o


proporcionales, el determinante será nulo.

7.- Si A y B son matrices cuadradas del mismo orden, entonces:

det(AB)=det(A) det(B)

3.5 Desarrollo por filas o columnas

9
10

Un caso especial de las fórmulas de Laplace es el desarrollo de un determinante por una


cierta fila o columna. El desarrollo por la i-ésima fila de una matriz cuadrada A de orden
n, es de acuerdo a (2.7)
n n

det(A)=  ik  (1) a kj M kj =  ik  a kj Akj


k j

j 1 j 1

(2.8a)
Similarmente si desarrollamos por la j-ésima columna
n n
det(A)=  jk  (1) a ik M ik   jk  a ik Aik
ik

i 1 i 1
(2.8b)

La comprobación de las propiedades 1 a 4 es una cuestión sencilla a partir de (2.8a) o


(2.8b)

Para comprobar la propiedad 5 procederemos inductivamente:

i) Las columnas que se permutan son consecutivas (la k-ésima con la (k+1)-
ésima) columna

j= 1 2 … k k+1 … n j= 1 2 … k k+1… n
         

a11 a12 ... a1k a1( k 1) ....a1n  a11 a12 ... a1( k 1) a1k ....a1n 
   
 a21 a22 ...a2k a2( k 1) ....a2n   a21 a22 ...a2( k 1) a2k ....a2n 
Sea A= y A’=
......................................  ...................................... 
   
an1 an 2 ...ank an( k 1) .....ann  an1 an 2 ...an( k 1) ank .....ann 
(2.9)

Desarrollando A por la k-ésima columna (2.8b)


n n n
det(A)=  jk  (1) aij M ij   (1) aik M ik   aik Aik
ik ik

i 1 i 1 i 1
(2.10)
Desarrollando A’ por la (k+1)-ésima columna
n n
det(A’)=  j ( k 1)  ( 1) a ij M ' i ( k 1)   a i ( k 1) A'i ( k 1)
i  k 1

i 1 i 1
(2.11)
para cualquier valor de i, cada k en las sumatorias (2.10) y (2.11) verifica que:
( 1) i  k a ik M ik  ( 1)(1) i  k a i ( k 1) M ' i ( k 1)
Dado que los a ik  a i ( k 1) y M ik  M ' i ( k 1) para cada i,k

10
11

Por lo tanto det(A)= - det(A’)

ii) Suponemos válida la propiedad para permutaciones entre las columnas k-ésima y
(k+h)-ésima (columnas separadas h lugares), es decir que se verifica que det(A)= -
det(A’).

a11 a12 ... a1( k h) ... a1k .... a1n 


 
 a 21 a 22 ...a 2( k h ) ... a2 k ....a2 n 
det(A) = (-1) det
................................................
 
a n1 a n 2 ...a n( k h) ... a nk .....ann 
iii) Debemos demostrar que también se verifica para permutaciones entre las
columnas k-ésima y (k+h+1)-ésima

a11 a12 ... a1k a1(k 1) ... a1(k h) a1(k h1) .... a1n 
 
 a21 a22 ...a2k a2(k 1) ... a2(k h) a2(k h1) .... a2n 
det =
................................................................ 
 
an1 an 2 ...ank .... an(k 1) ... an(k h) an(k h1) ..... ann 
 

a11 a12 ... a1(k 1) a1k ... a1(k h) a1(k h1) .... a1n 
 
 a21 a22 ...a2(k 1) a2k ... a2(k h) a2(k h1) .... a2n 
= (-1) det =
................................................................ 
 
an1 an 2 ...an(k 1) .... ank ... an(k h) an(k h1) ..... ann 
Por ( i) (se permutaron dos columnas consecutivas, indicadas con  )
 

11
12

a11 a12 ... a1(k 1) a1(k h1) ... a1(k h) a1k .... a1n 
 
 a21 a22 ...a2(k 1) a2(k h1) ... a2(k h) a2k .... a2n 
= det =
................................................................ 
 
an1 an2 ... an(k 1) .... an(k h1) ... an(k h) ank ..... ann 
por (ii) (se permutaron dos columnas separadas por h posiciones, indicadas con  )

 

a11 a12 ... a1(k h1) a1(k 1) ... a1(k h) a1k .... a1n 
 
a a ...a
 21 22 2(k h1) 2(k 1) a ... a a
2( k  h) 2k .... a 2n 
= (-1) det
................................................................ 
 
an1 an2 ... an(k h1) .... an(k 1) ... an(k h) ank ..... ann 
Por (i) (se permutaron dos columnas consecutivas, indicadas con  ), quedando
demostrado iii).

La propiedad 5 se obtiene como una consecuencia de la propiedad 4

El resto de las propiedades de demuestran fácilmente y quedan como ejercicio para el


lector.
Si en (2.7 a) reemplazamos a ik por a rk , el resultado  a rk Aik debe ser el
determinante de una nueva matriz, donde los elementos de la fila i estén reemplazados
por los elementos correspondientes a la fila r. Por consiguiente debe anularse si i  r
por la propiedad 7. Se obtienen un resultado similar si reemplazamos a rj por a ks en
(2.7 b) cuando s  j . De esta forma además de (2,7 a,b) tendremos las relaciones:
n n

a
k 1
rk Aik  0 ( r  i ) , a
k 1
ks Akj  0 (s  j) (2.12
a,b)

2.7 La matriz inversa

Definiremos en primer lugar Demostraremos que una matriz cuadrada tiene inversa si y
sólo si su determinante es distinto de cero.
Sea A una matriz cuadrada de orden n la que suponemos que posee inversa. Entonces
existe una cierta matriz B, tal que

12
13

AB=BA=I (2.13)
Entonces
det( AB)= det(BA) =det( I )

Según las propiedades 6 y 1

det(A) det(B)= det(B) det(A)= 1 (2.14)

En consecuencia det(A)  0, pues en caso contrario su producto con det(B) sería nulo y
no igual a 1.

Previamente necesitaremos probar una propiedad del deteminante:

9- Cualquiera sea la matriz cuadrada A, de orden n, se verifica que:

A Adj(A)=Adj(A) A=det(A) I (2.15)

Aplicando la definición de matriz adjunta tenemos que:

a11 a12 ....... a1n   A11 A21 ...... An1 


a a ....... a   A A ....... A 
2 n   12 22 n2 
A Adj(A)= 
21 22
=
   ....................... 
  
an1 an2 ....... ann   A1n A2n ......... Ann 
n n n

 a1 j A1 j j1 1 j 2 j j1 1 j nj 
a A  . a A
 j 1 
n n n 
 a2 j A1 j j1 a2 j A2 j  j1 a2 j Anj 

= j 1
 donde los términos fuera de la

   
n 
 n n

 anj A1 j j1 anj A2 j  j1 anj Anj 
 j 1 
diagonal principal son nulos en virtud de(1.8 a)

13
14

A 0  0
 
 0 A 0
=
    por la propiedad 8

 
 0 0  A 

1 0  0 
0 1  0
= A  = det(A) I
  
 
0 0  1
En forma análoga se comprueba que
Adj(A) A=det(A) I.

Entonces si det(A) es un escalar distinto de cero, dividiendo por el en (2.15) tendremos

A Adj(A)(det(A))-1=Adj(A) A (det(A))-1=I

Entonces por definición existe A-1 y es

A-1= Adj(A) (det(A))-1 (2.16)

Si una matriz no tiene inversa se dice que es una matriz singular. Una matriz A tiene
inversa, si y sólo si det(A)  0. En forma equivalente, una matriz A es no-singular, si y
sólo si det(A)  0.
En particular si A y B son dos matrices no singulares se verifica que su producto es
también no singular.

Si AB=C con det(A)  0 y det(B)  0 , entonces (2.17)

det(AB)= det(A) det(B) (de acuerdo a la propiedad 7)= det(C)  0

Por otra parte, para determinar la inversa de un producto de matrices cuadradas no


singulares, partimos de
AB=C
Premultiplicando ambos lados de la ecuación sucesivamente por A-1 y B-1

B-1(A-1A) B= B-1 A-1C


I= B-1 A-1C

14
15

Posmultiplicando ambos lados de la ecuación por C-1

I C-1= B-1 A-1


Es decir
C-1= B-1 A-1 (2.18)

2.8 Rango de una matriz

Definimos el rango de una matriz A (nxs), como el orden de la submatriz cuadrada más
grande al particionar A cuyo determinante no se anula. Es decir

a11 a12  a1r a1s    a1s 


  
   R  
A= a a  a a  =  
  ars 
r1 r 2 rr rs

    
an1 an2  anr ans  an1 an2  anr ans 
tal que, r es el máximo valor ( s>r, n>r) para el que se verifica que det(R)  0 .
Entonces r es el rango de A.

2.9 Matrices ortogonales

Una matriz real A (es decir que todos sus elementos son reales, aij  R ) es una matriz
ortogonal si su traspuesta (AT ) es igual a su inversa (A -1). Es decir:

AT= A -1 o AT A=I (2.19)

2.10 Espacio vectorial lineal

Tal como en el caso de las matrices podemos restringir el resultado (2.19) al caso de los
denominados vectores numéricos. En el análisis vectorial convencional dos vectores
 
A  ( a1 , a 2 , a 3 ) y B  (b1 , b2 , b3 ) , se consideran perpendiculares si su producto
escala es nulo ( a1b1  a 2 b2  a3 b3 )  0 ). Desde el punto de vista matricial podemos
considerar a los vectores como matrices columnas

15
16

a1  b1 
 
A= a
 
B= b
 2  2
y (2.20)

a3  b3 
Frecuentemente se denominan a las matrices columnas como vectores numéricos para
distinguirlos de los vectores geométricos o físicos, tal como una fuerza o una
aceleración). Entonces, definimos el producto escalar (o interno) de dos vectores reales
A y B  R3 como ATB
ATB= a1b1  a 2 b2  a 3b3 (2.21)

y decimos que son ortogonales si ATB=0. Podemos ver que el producto escalar (ATB)
 
es equivalente, en notación matricial, al producto escalar A B del análisis vectorial.
Es convenirte generalizar este resultado de la ortogonalidad al caso de vectores cuyos
elementos son complejos, en tal caso en lugar de utilizar la traspuesta empleamos la
traspuesta conjugada. Es decir, dos vectores A y B son ortogonalesen el sentido
hermético si su producto interno, definido como ĀTB, es nulo.
En particular un vector cero es ortogonal a todos los vectores de la misma dimensión.
Sea un vector de dimensión n

a1 
a 
A= 
2


 
a n 
(2.22)
Definimos el cuadrado de la longitud de A como el producto escalar ATA. Es decir

long2(A)= a12  a 22    a n2 (2.23)

Decimos que un vector es un vector unidad cuando su longitud es igual a la unidad, de


manera que ATA=1. Tal como en el caso del análisis vectorial se comprueba la
desigualdad de Schwarz. Sean A y B  R n entonces

( AT B )  ( AT A)1 / 2 ( B T B )1 / 2
(2.24)

donde significa el valor absoluto.


Es decir que la magnitud del producto escalar entre A y B no es mayor que el producto
de las longitudes de A y B.

16
17

De forma análoga al caso del análisis vectorial obtenemos que


AT B
cos   (     ) (2.24)
( A A) ( B T B )1 / 2
T 1/ 2

Lo que proporciona una interpretación para el ángulo  entre los vectores A y B  R n,


para el caso general de n dimensiones..
Cuando los vectores son complejos, las propiedades de ángulo y longitud tienen en
general un significado limitado y es conveniente definirlos en una forma mmás
apropiada, para que se reduzcan a (2.22) y (2.24) en el caso real. Definimos en general
el cuadrado de la longitud hermitiana de un vector A  C n como la cantidad real y
positiva

long2H(A)=Ā TA= a1 a1  a 2 a 2    a n a n

donde Ā T es la conjugada traspuesta de A.


De manera similar definimos el ángulo hermitiano  H comprendido entre A y B como
una cantidad real definida por la relación
T T
( A B )  ( B A)
cos  H  T T
(   H   ) (2.25)
2( A A)1 / 2 ( B B )1 / 2

Decimos que un conjunto de k vectores A1 , A2 , … , Ak es linealmente independiente si


no existe ningún conjunto de constantes c1 , c 2 ,  , c k , de las cuales alguna sea
distinta de cero, tal que:
c1 A1  c 2 A2    c k Ak  0
(2.26)
Es decir c1 ,  c 2    c k  0

Definíamos en álgebra un espacio vectorial R n (de vectores reales de dimensión n), al


conjunto de vectores de la forma (2.21) que satisfacen los siguientes axiomas:
1.- Existe una operación (+) sobre los vectores tal que si A y B  R n entonces
A+B=B+A=C  R n.

a1  b1  a1  b1 


a  b  a  b 
A+B= 
2   2   2 2
+ = =B+A=C
       
     
a n  bn  an  bn 
El elemento identidad es el vector 0, tal que

17
18

0
0
0=  
 
 
 0
2.- Para cada escalar  y A  R n, existe otro vector  A  R n

a1   a1 
a   a 
 A=   2=  2 
   
   
a n   an 
Además
a)  (  A)=(  )A b) 1 A= A
c)  (A+B)=  A+ B d) (    )A=  A+  A

Si A1 , A2 , … , Am es un conjunto de vectores de dimensiones n, tal que todos los


vectores del espacio vectorial pueden expresarse como combinación lineal de los
vectores A1 , A2 , … , Am, entonces se dice que dicho conjunto es un sistema generador.
Además el conjunto A1 , A2 , … , Am se dice que es una base de R n si y sólo si no
solamente es un sistema generador sino también linealmente independiente.

Ejercicios:

1
1.a) Calcular la matriz A  B , sabiendo que
3

 3 0 3   1 1 0 
A  y B 
 6 0 1  2 0 2

18
19

x1 x12 x13 


1.b) Determinar la matriz X   sabiendo que X  B  I

x21 x22 x23 


1.c) Sean las matrices

1 1 1  1 1
C  0 1 0 y D   0 0
3 1 2  2 2
Calcular: c.1) C 2
c.2) CD
c.3) C T D T
c.3) (C T  I )(C  I )
1.d) Resolver la ecuación E 2  X 2  I , donde todas son matrices de dimensiones 2x2 y

i 1 
E 
1  i
1.e) Demostrar que si A y B son matrices diagonales en R nxn, entonces AB es diagonal
y AB=BA.

0  i 
1.f) Demostrar que la matriz A  es hermética

i 0 
1.g) Demostra que si A  R nxn
e I es la matriz identidad de orden n, entonces
IA=AI=I

1.h) Sabiendo que en R nxn se verifica que XA=I y AY=I, demostrar que X=Y.

19
20

1.i) Utilizar la definición del desarrollo de un determinante por filas o columnas (2.8
a,b) para evaluar el determinante de

3  2 2 
a1 a12 
A  y B  1 2  3
 a 21 a 2  4 1 2 
1,j) Resolver la siguiente ecuación

1   0  2 

det 0   0  =0
 
  2 0 4   
1,k) Sea la matriz

 0 3 4

A   2 0 3

 2 1 0
Resolver la ecuación det(A-  I)=0

1, m) Obtener las matrices inversas de

1 0 a 0 
A  y B  con a  0 y b  0

a 1  0 b 
1,n) Sean las matrices

20
21

3 2 4 1 
A  2 1 1 y B  0
1 2 3 3
Hallar X sabiendo que AX=B

1,o) Verificar la siguiente identidad

1 1 1
 
det x y z  (x  y)( y  z)(z  x)
 
 yz xz xy

cos  sen 
1.p) Verificar que A  es una matriz ortogonal

sen cos 
1,q) Determinar el ángulo entre los vectores

1 1
1  0
A=   y B=  
1  0
   
1 1

2.11 Sistemas de ecuaciones lineales

21
22

De finimos un sistema de m ecuaciones lineales con n incógnitas ( x1 , x 2 ,  , x n ) en


la forma

a11 x1  a12 x2    a1n xn  c1


a x  a x    a x  c
 21 1 22 2 2n n 2
 (2.27)

a m1 x1  a m 2 x2    a mn xn  cm
Todo conjunto de números x1 , x 2 ,  , x n que verifique el sistema de ecuaciones
(2.27) es una solución del sistema. En forma matricial el sistema (2.27) puede ser
escrito en la forma:

x1  c1 
a a ....... a     
a a ....... a  x c
11 12 1n

 21 22  2   2 2n
(2.28)

    
  

a a ....... a 
m1 m2
 mn

 x n  c n 
O en una forma matricial
A X=C (2.29)

a
k 1
ik x k  ci (i  1, 2,  , m) (2.30 a)

n 
 aik x k    ci  (2.30
 k 1 
b)

Es común encontrar en la bibliografía estas ecuaciones escritas utilizando la convención


de Einstein, la cual implica que la sumatoria se realiza sobre los subíndices repetidos sin
necesidad de utilizar el símbolo  . Por ejemplo en esta convención la (2.30 a) toma
una forma más simple
a ik x k  ci ( k  1,  , n ; i  1,  , m) (2.30
a)

22
23

Si los términos independientes en (2.27) o (2.28) son ceros, c1  c 2    c m  0 , el


sistema se llama homogéneo. En este caso se verifica que cualquier solución X del
sistema homogéneo (es decir cualquier solución homogénea) es ortogonal a cada uno de
los n vectores columnas de A.

2.11.1 La reducción de Gauss-Jordan

Trataremos de hallar soluciones de (2.27) mediante el cálculo directo siguiendo un


procedimiento que se denomina reducción de Gauss-Jordan. Suponiendo que (2.27)
tiene solución la reducción se lleva a cabo sigueiendo una serie de pasos.

Paso1. Supongamos que a11  0 (en caso contrario será necesario reordenar las
ecuaciones o variables para que esto ocurra). Dividimos ambos miembros de la primera
ecuación de (2.27) por a11 , para obtener una ecuación equivalente

x1  a12
'
x 2    a1' n x n  c1' (2.31)
a12 a c
dnde a12  ,  , a1' n  1n y c1'  1
'

a11 a11 a11


Multiplicando ambos miembros de (2.31) sucesivamente por a 21 , a31 ,  , a m1 ,
obtenemos un conjunto de m-1 ecuaciones

a 21 x1  (a12' a 21 ) x 2    (a1' n a 21 ) xn  c1' a 21



a31 x1  (a12 a31 ) x2    (a1n a31 ) x n  c1a31
' ' '

 (2.32)
 
a x  ( a ' a ) x    ( a ' a ) x  c ' a
 m1 1 12 m1 2 1n m1 n 1 m1

Entonces, mantenemos la (2.31) como primera ecuación de un nuevo sistemma,


mientras que las ecuaciones restantes (m-1) se obtienen restando las ecuaciones
respectivas de (2.32) de la segunda, tercera, …., m-ésima ecuación del sistema (2.31),
para llegar a la forma reducida

 x1  a12' x2    a1' n xn  c1'


 '
 a22 x2    a 2n xn  c2
' '

 (2.33)
 
 a ' x   a ' x  c '
 m2 2 mn n m
donde ahora
'
a 22  ( a 22  a12
'
a 21 ) ,  , a 2' n  ( a 2 n  a1' n a 21 ), c 2'  c 2  a 21 c1'

a m' 2  (a m 2  a12
' '
a m1 ) ,  , a mn  ( a mn  a1' n a m1 ), c m'  c m  a m1c1'

23
24

Paso 2 Supongamos que a 22 '


 0 (en caso contrario reordenamos las ecuaciones o las
variables para que así sea). Dividimos ambos miembros de la segunda ecuación del
'
sistema (2.33) por a 22 , de forma tal que esta ecuación adquiere la forma

x 2  a 23" x3    a 2" n x n  c 2"


(2.34)

donde
' '
a 23 a2
"
a 23  '
,  , "
a2 n  '
a 22 a2
y
'
c2
c "
2  '
a 22
La ecuación (2.34) quedará como segunda ecuación del nuevo sistema, pero la
utilizamos como en el Paso 1, para eliminar el coeficiente de x 2 en todas las otras
ecuaciones del sistema (2.33), multiplicando sucesivamente la (2.34) por
' ' '
a12 , a 32 , a 42 ,  , a m' 2 y restamos las ecuaciones resultantes respectivamente de la
primera, tercera, cuarta, ….. , m-ésima ecuaciones de (2.33). El sistema (2.33) se
convierte en

 x1  "
a13 x3 

 x 2  a "
23 x3


"
a 33 x3 
 

 a "
x3 
 m 3

(2.35)

Pasos restantes. Repetimos el proceso k veces hasta terminar, es decir hasta que k=m o
hasta que los coeficientes de todas las variables x1 , x 2 ,  , x n sean iguales a cero en
todas las ecuaciones siguientes a la k-ésima ecuación. Llamaremos a estas m-k
ecuaciones remanentes, cuando m>k, con el nombre de ecuaciones residuales.
Sin embargo existen dos alternativas con los resultados. En primer lugar puede ocurrir
que, siendo m>k, el miembro de la derecha de una o más de las ecuaciones residuales
sea distinto de cero y la ecuación (o ecuaciones) sea por consiguiente del tipo 0  c r( k ) ,
con r>k (pero en realidad c r( k )  0 ). En este caso la suposición previa que existe
solución del sistema (2.27) es contradictoria y, por consiguiente no existe solución. Se
dice que en este caso el sistema (2.27) es incompatible.
En el caso contrario, es decir que los términos independientes de las ecuaciones
residuales sean nulos, no existe contradicción alguna y el sistema (2.27) se reduce de m
ecuaciones a un sistema de k ecuaciones que, después de efectuar alguna transposición,
se puede escribir en la forma

24
25

 x1  1   11 xk 1     1( nk ) x n

 x2   2   21 xk 1     2( n k ) x n
 (2.36)

x     x   
 k k k1 k 1 k ( nk ) xn
donde las  y las  son constantes relacionadas con los coeficientes de (2.27). Como
cada unos de los pasos utilizados para reducir el sistema (2.27) al (2.36) es reversible,
se concluye que ambos sistemas son equivalentes, en el sentido que cada uno de ellos
implica al otro. En consecuencia, en este caso la solución más general de (2.27) expresa
cada una de las k variables x1 , x 2 ,  , x k como una constante más una combinación
lineal específica de las restantes n-k variables, cada una de las cuales pueden tener
valores arbitrarios.
En particular, cuando k=n se obtiene una solución única. En caso contrario decimos que
existe una familia de n-k parámetros como soluciones. Al número de ecuaciones
residuales (n-k) se lo denomina defecto del sistema (2.27). Obsérvese que si el sistema
(2.27) es compatible y k <m, se pueden omitir m-k ecuaciones (aquellas que
corresponden a las ecuaciones residuales), las cuales deben estar implícitas en la
restantes k ecuaciones.
Ejemplo:
Ilustraremos la reducción de Gauss-Jordan considerando el sistema de cuatro ecuaciones
simultáneas siguiente:
 x1  2 x 2  x3  2 x4  1 ecuación.1
2 x  x  x  x  4 ecuación.2
 1 2 3 4
 (2.37)
 x1  x2  2 x3  x4  5 ecuación.3
 x1  3x2  2 x3  3x4   3 ecuación 4
Luego de dos pasos de reducción se obtiene el siguiente sistema equivalente:
 x1  x3 3
 x  x  x  2
 2 3 4
 (2.38)
 0 0
 0 0
Por consiguiente el sistema tiene un defecto de dos. Si escribimos x3  C1 y x 4  C 2 ,
se podrá expresar la solución general del sistema en la forma
x1  3  C1 , x 2  2  C1  C 2 , x3  C1 , x 4  C 2 (2.39 a)
donde C1 y C 2 son constantes arbitrarias. Matricialmente podemos escribir esta
familia de soluciones biparamétrica en la forma

25
26

x1 3 1 0


x       
2 2  1 1
  1 CC 2
x3 0  1 0
(2.39 b)

   
x 4 0  0 1
Se deduce que las ecuaciones tercera y cuarta de (2.36) no son independientes. En
5
efecto la ecuación 3=ecuación 2 –ecuación 1; mientras que ecuación 4=
3
1
(ecuación1)- (ecuación 1).
3

2.12 Teorema de Cramer

“Si A es una matriz real y cuadrada de orden n que además es no-singular, entonces el
sistema AX=C (2.29) admite una única solución, y el valor de cada variable
x1 , x 2 ,  , x n estará dado por el cociente entre el determinante que se obtiene al
sustituir, en el determinante del sistema, la columna de coeficientes de la variable por la
columna de los términos independientes, y el determinante del sistema”.

26
27

Sea el sistema dado por la (2.29)


A X=C (2.40)
Como A es no-singular, premultiplicamos por su inversa

A-1 (AX)= A-1C


Entonces, asociando
(A-1 A)X= A-1C
IX= A-1C
Por lo tanto
X= A-1C
es la única solución del sistema (2.29)
Como det(A)  0, por la propiedad 7, las n columnas de A son linealmente
independientes, pueden ser vistos como n vectores linealmente independientes en el
espacio R n y conformar una base del mismo. Es decir, haciendo uso de la notación
utilizada en (2.20) para vectores

a1k 
a 
donde cada A   
2k
A=( A1 A2  An ) con k=1,…, n son vectores
k
 
 
ank 
columnas de R n
Por consiguiente cualquiera que sea el vector C  R n (o C 

R n), existen escalares
x1 , x 2 ,  , x n , únicos, tales que
n
C=  xi Ai con xi  R n
i 1
entonces
 
det  A1 A 2  C  An 
xj    donde C ocupa el lugar de la
det( A)
columna j.
En efecto:
n
det( A1 A2  C  An )=det( A1 A2   xi Ai  An )=
i 1

= x1 det( A1 A2  A1  An )+ x 2 det( A1 A2  A2  An )+ …
+ x j det( A1 A2  A j  An )+…+ x n det( A1 A2  An  An )= x j det(A)
Por la propiedad 5 el único término distinto de cero es el correspondiente a x j .
Luego
 
det  A1 A 2  C  An 
xj   
det( A)

27
28

Cuando el determinante de la matriz A es distinto de cero, el sistema de ecuaciones


(2.40) tiene una solución única. El valor de cualquier x j puede ser expresado como el
cociente entre dos determinantes, siendo el denominador el determinante de la matriz
de los coeficientes y el numerador el determinante de la matriz obtenida al reemplazar
la columna de los coeficientes de x j de la matriz de coeficientes por la columna de los
miembros de la derecha.
Decimos que el sistema de ecuaciones es homogéneo cuando todos los miembros de la
derecha, ci , son iguales a cero. En este caso, evidentemente una solución será la
solución trivial, x1 , x 2 ,  , x n  0 . El resultado anterior nos indica que está es la única
solución posible cuando det(A)  0 , de forma tal que un conjunto de n ecuaciones con n
incógnitas no puede tener una solución distinta de la trivial a menos que el
determinante de la matriz de coeficientes sea nulo.

2.13 Ecuaciones lineales y espacio vectorial

Veremos ahora la interpretación de los resultados básicos de la Sección (2.11),


correspondientes a un sistema de m ecuaciones algebraicas con n incógnitas, en base a
la terminología utilizada en la Sección 2.10. Sea un sistema de ecuaciones como el
visto en (2.27)
a11 x1  a12 x2    a1n xn  c1
a x  a x    a x  c
 21 1 22 2 2n n 2
 (2.27)

a m1 x1  a m 2 x2    a mn xn  cm
Que puede ser escrito en la forma (2.28)

x1  c1 
a a ....... a     
a a ....... a  x c
11 12 1n

 21 22   2   2
2n
(2.28)

    
  

a a ....... a 
m1 m2
 mn

 x n  c n 
28
29

En notación matricial en la forma (2.29)


A X=C (1.29)
De esta forma podemos interpretar cada una de las ecuaciones (2.27) como el producto
escalar de dos vectores

2.13 Autovalores y autovectores

Para una matriz cuadrada A, un problema que surge frecuentemente en la práctica es el


de determinar los valores de cierta constante (  ) para los cuales un sistema de la
forma

AE1=  E1 (2.41 a)
donde  es un escalar

a11 a12 ....... a1n  e1 


a a ....... a  e 
A= 
21 22 2n   2
y E1=
    
   
an1 an2 ....... ann  e n 
tenga soluciones no triviales. Es decir, que el sistema homogéneo de la forma

a11 (e1  e1 )  a12 e2    a1n en  0


a e  a ( e   e )    a e  0
 21 1 22 2 2 2n n
 (2.41 b)

a m1e1  am 2 e2    amn (en  en )  0

tenga soluciones no trivales. Los valores de  para los cuales el sistema (2.32 a o b)
tiene soluciones no triviales se denominan autovalores o valores característicos de la
matriz A. En muchos de ls casos que se presentan en la práctica, la matriz A es real y
simétrica, de manera tal que
a ij  a ji (2.42)
O en una forma más general, cuando los coeficientes de A son complejos los casos más
importantes son aquellos en que los elementos simétricos, respecto a la diagonal
principal, son complejos conjugados. Es decir que A es una matriz hermítica
a ij  a ji (2.43)
Nos limitaremos al estudio del caso de matrices reales.
La ecuación (2.41 b) tendrá soluciones no triviales si y sólo si

29
30

a11   a12  a1n 


a a    a 
det 
21 22 2n 
=0 (2.44)
  
 
a n1 an2  ann   
que no es otra cosa que una ecuación polinómica de grado n para la incógnita  . A
cada autovalor le corresponderá una solución X  0 , es decir una solución no trivial, que
se denominará autovector o vector característico. La ecuación (2.44) también puede
escribirse en la forma
det(A- I )=0 (2.44
a)

y se la denomina ecuación característica. Las n soluciones, 1 ,  2 ,  ,  n no


necesariamente deben ser todas diferentes.
Sean 1 y  2 , dos autovalores diferentes de la matriz A y E1 y E2 los autovectores
respectivos. En consecuencia se satisface el siguiente par de ecuaciones
A E1= 1 E1 (2.45 a)
A E2=  2 E2 (2.45 b)
con ( 1   2 )
Si postmultplicamos la transpuesta de (2.44 a) por E2 obtenemos

(A E1)TE2= 1 ( E1)T E2 (2.46)

La propiedad vista en la Sección (2.4) ((AB)T=BTAT)

( E1)TAT E2= 1 ( E1)T E2 (2.47)

Premultiplicando la (1.45 b) por (E1)T obtenemos

(E1)T A E2=  2 (E1)T E2 (2.48)

Como en el caso de una matriz simétrica AT=A, el resultado de restar (2.47) de (2.48)
es:
(  2  1 ) (E1)T E2=0 (2.49)

Dado que habíamos supuesto que 1  2 , se concluye que E1 y E2 son ortogonales.


Dos autovectores de una matriz simétrica y real que corresponden a autovalores
diferentes son ortogonales.

30
31

Un segundo resultado muy importante es que los autovalores de una matriz real y
simétrica son siempre reales. Para demostrarlo supondremos que 1    i (con
 y   R ) es una raíz de (2.44). Si E1 es el autovector característico, tendremos
A E1= 1 E1
y, por consiguiente el conjugado de dicha ecuación es:
A E 1  1 E 1
Pues A es real y el conjugado del producto es el producto de los conjugados. Si
premultiplicamos la primera ecuación por ( E 1 ) T y postmultiplicamos la traspuesta de
la segunda ecuación por X1, obtendremos

( 1  1 ) ( E 1 ) T E1 = ( E 1 ) T A E1 -(A E 1 ) T E1 =0
(2.50)

Dado que el producto ( E 1 ) T E1 es una cantidad positiva ( long 2 (E1)), se deduce que (
1  1 )= 2i debe ser nulo, en consecuencia   0 . Es decir que 1  R. Todos los
autovalores de una matriz simétrica y real son reales. Es sencillo comprobar a partir de
este resultado que todos los autovectores de una matriz real y simétrica también son
reales.

2.14 Reducción de una matriz a su forma diagonal

Una expresión de segundo grado de la forma

Z  a11 x1  a 22 x 2    a nn x n  2a12 x1 x 2  2a13 x1 x3    2a( n 1) n x n 1 x n


2 2 2

(2.51)

Se denomina una forma cuadrática de x1 , x 2 ,  , x n . Supondremos que a ij y xi 


R. Geométricamente en un espacio R2 la ecuación Z=constante representa una curva d
segundo grado (cónica) con centro en el origen, mientras que en R3 Z=constante
representa una superficie cuádrica con centro en el origen. Muchos problemas en que
intervienen estas ecuaciones están íntimamente relacionados con sistemas de ecuaciones
lineales.
Observemos en primer lugar que si escribimos
1 Z
yi  (i  1, 2 ,  , n)
2 xi
obtendremos el sistema
a11 x1  a12 x2    a1n xn  y1
a x  a x    a x  y
 21 1 22 2 2n n 2
 (2.52)

a m1 x1  am 2 x2    amn xn  y m
También podemos escribir este sistema de ecuaciones en la forma

ZX=Y (2.53)

31
32

donde es una matriz real y simétrica Z ( z ij  z ji ), y

 x1  a11 x1  a12 x2   a1n xn 


x  a x  a x    a x 
Y= 
2n n 
X= 
2 21 1 22 2
e
    
   
 xn  a 1n x1  a2n x2   ann xn 
(2.54)
Es sencillo apreciar que la forma cuadrática (2.50) es equivalente a la relación

Z  XTY
(2.55)

En consecuencia podemos escribir la (2.50) en la forma

Z  XT Z X (2.56)

En muchos casos es conveniente expresar x1 , x 2 ,  , x n como combinaciones


lineales de nuevas variables x '1 , x ' 2 ,  , x' n de forma tal que Z quede reducida a una
combinación lineal solamente de cuadrados de las nuevas variables, es decir
eliminándose cualquier término con productos cruzados ( x ' i x' j ) . Esta nueva forma se
denomina forma canónica. Expresaremos el vector X en términos de X’ mediante la
ecuación
X=Q X’ (2.57)

donde Q es una matriz cuadrada de orden n. Al introducir (2.57) en (2.56) obtendremos

Z=(QX’)TA Q X’=(X’)TQTA Q X’ (2.58)


o
Z= (X’)TZ’ X’ (2.59)

donde la nueva matriz Z’ está definida por la relación

Z’=QT Z Q (2.60)

Es decir, que si Z’ debe involucrar únicamente cuadrados de las variables x' i ,


tendremos que elegir la matriz Q en (2.57) de forma tal que QT Z Q sea una matriz
diagonal, es decir, una matriz en la que todos los elementos con i  j sean nulos.
Demostraremos que es muy sencillo formar una matriz Q con esta propiedad si
conocemos los autovalores y los correspondientes autovectores de la matriz real y
simétrica. Sea A una matriz general, real y simétrica,, con los autovalores
1 ,  2 ,  ,  n , donde aún cuando haya posibles raíces repetidas de la ecuación
característica (1.44 o 2.44a) todas llevan subíndices diferentes. El conjunto de los
correspondientes autovectores será E1 E2 …. En (que supondremos unitarios, es decir

32
33

normalizados de forma tal que long 2 (E1)=1). Entonces podemos escribir las siguientes
relaciones

A E1= 1 E1 , A E2=  2 E2 , …… , A En =  n En
(2.61)

Formamos una matriz Q donde los autovectores representan columnas de dicha matriz

E1 E 2  E n

e11 e12  e1n 


e e  e 
Q=[E E …. E ]= 
21 22 2n 
(2.62)
   
1 2 n

 
e n1 en2  enn 
Entonces utilizando las relaciones (2.61), vemos fácilmente que

1e11 2 e12  n e1n 


 e  e   e 
AQ= 
1 21 2 22 n 2n 
(2.63)
    
 
1en1 2 en2  n enn 
o

 1 0  0 

AQ=Q . 0   0

 2 
(2.64)

    n 
Esta última relación se deduce en forma directa con sólo observar que el producto de A
por la k-ésima columna de Q es la k-ésima columna del miembro de la derecha de
(2.63). Como los vectores E1 E2 …. En son linealmente independientes, es evidente que
det(Q)  0 . Por consiguiente existirá inversa, Q-1, y premultiplicando ambos miembros
en (2.64) por Q-1 obtendremos

33
34

 1 0  0 
 
Q A Q= 0   0 =     (i 1, 2 ,  , n)
 2 
-1
i ij (2.65)

    n 
De esta forma se ha diagonalizado la matriz A mediante las operaciones indicadas,
siendo los elementos diagonales los correspondientes autovalores.
Sin embargo existen ciertas propiedades de la matriz Q que es necesario destacar por su
utilidad.
En primer lugar
QT=Q-1 o QTQ=I (2.66)

El término característico del producto QTQ es de la forma:


n
p ij   eki ekj (2.67)
k 1
donde

e1 j 
 
 e2 j 
E=

j

 
enj 
y, como los E1 E2 …. En son ortogonales las sumatorias en (2.67) se anulan excepto
cuando i  j , en cuyo caso son iguales a la unidad pues los autovectores son unitarios.
Entonces deducimos que pij   ij es decir que QTQ=I.
Además, puesto que det(Q)=det(QT), la (1.65) nos permite obtener un resultado muy
útil
(det(Q))2=1 lo que implica que det(Q)=  1
(2.68)

En resumen, dedujimos que la matriz Q definida por (2.61) tiene la propiedad de que la
forma cuadrática:
A=XTA X (2.69)

se reduce mediante el siguiente cambio de variables:

X=Q X’ (2.70)
a la forma:
A=(X’)TA’ X’ donde A’=  i  ij 

34
35

es decir, a la forma:
A= 1 ( x1' ) 2   2 ( x 2' ) 2     n ( x n' ) 2 (2.71)
donde los números i son los autovalores de la matriz A.

2.15 Kernel o espacio nulo

En matemáticas la palabra kernel tiene distintos significados. En particular en álgebra


lineal se define el Kernel o espacio nulo de una matriz A, de dimensiones m  n , al
 
conjunto de vectores x para los cuales se satisface que A x =0.
Formalmente:
 
  

Kernel(A) or Null(A) =  x  R : A x  0 
n
(2.72)

donde 0 representa el vector nulo con m componentes (que por simplicidad notaremos
como “0” ). El espacio nulo será un subespacio lineal y Euclideo de dimensiones n-1.

La ecuación matricial A x =0 es equivalente al sistema de ecuaciones lineales
homogéneo

a11 x1  a12 x2    a1n xn  0



a21 x2  a22 x2    a2 n xn  0

Ax =0

  (2.73)
    
a x  a x    a a  0
 m1 1 m 2 2 mn n

Desde este punto de vista, el espacio nulo de la matriz A es el conformado por el


conjunto de soluciones del sistema homogéneo (2.73).
Ejemplo:

 235
Consideremos la matriz A=
4 2 3  . El espacio nulo de esta matriz consistirá del

 
conjunto de vectores ( x, y , z )  R 3 para los cuales se satisface

35
36

 x 0
 2 35   
y  0
 4 2 3
z 0
Lo anterior puede ser escrito como un sistema homogéneo de ecuaciones lineales que
involucran a x, y y z.
2 x  3 y  5z  0
 4 x  2 y  3z  0
Fácilmente obtenemos como soluciones
x  0.0625 z
y  1.625 z

Ahora podemos escribir el espacio nulo (soluciones de A x =0) en términos de z (que es
nuestra variable libre), como

  0.625 
  1.625  donde  es un escalar

 1 
El espacio nulo de A es precisamente una recta que pasa por el origen en R3.

2.15.1 Propiedades del espacio nulo

Hemos mencionado que el espacio nulo de una matriz de dimensiones m  n es un


subespacio de R n . Entonces, el subconjunto Null(A) tendrá las siguientes propiedades,
propias de un espacio vectorial:
1. Null(A) siempre contendrá l vector cero

36
37

  
Esto se prueba muy fácilmente porque A 0  0  0  Null ( A)
   
2. Si x e y  Null ( A)  x  y  Null ( A)
     
Sencillamente si x  Null ( A) e y  Null ( A)  A x  0 y A y = 0 . En
      
consecuencia A ( x  y )  A x  A y  0  0  0
  
3. Si A x  0 y b es un escalar, entonces b x  Null ( A)
   
A(b x )  b A x  b 0  0

2.15.2 Ecuaciones no-homogéneas

El espacio nulo juega un papel muy importante en la solución de sistemas no-


homogéneos de ecuaciones lineales. Sea el siguiente caso:

a11 x1  a12 x2    a1 n xn  c1

a21 x2  a22 x2    a 2 n xn  c2

 
Ax  c ó (2.74)
    
a x  a x    a a  c
 m1 1 m2 2 mn n m
 
Si u y v son dos posibles soluciones de (2.74), entonces
      
A (u  v )  A u  A v  c  c  0 (2.75)
 
Entonces, la diferencia de dos soluciones de la ecuación A x  c , es un elemento de
 
Null(A). En base a lo anterior, vemos que cualquier solución de la ecuación A x  c

puede ser expresad como la suma de una solución particular de (2.75), digamos v , y un
elemento cualquiera del espacio Null(A). Formalmente decimos que el conjunto de
     
 
soluciones de la ecuación A x  c es  
v  x : x  Null ( A)  , donde
 v es una solución
particular de (2.75). Geométricamente se puede interpretar como que el conjunto de
  
soluciones de A x  c consiste en la traslación del espacio Null(A) por un vector v .
De una forma simular podemos definir el espacio nulo de una transformación. Si V y W
son espacios vectoriales, el espacio nulo (o kernel) de una transformación lineal T:V 
W es el conjunto de todos los vectores en V que cuya transformación es cero. Es decir:
 
  

kernel(T)=  v  V : T ( v )  0  (2.76)
Si representamos la transformación lineal por una matriz, entonces el kernel de la
transformación es precisamente el espacio nulo de la matriz.

Ejercicios:

1.r) Resolver el sistema de ecuaciones

37
38

3x1  2 x2  2 x3  10

 x1  2 x2  3x3   1
4 x  x  2 x  3
 1 2 3

por el método de Cramer

1.s) Resolver por el método de Cramer


 2 x1  5 x2  3x3  3

 x1  2 x2  x3  2
 7 x  4 x  3x  12
 1 2 3
1.t) ¿ Para qué valores de k ocurre que el sistema siguiente tiene soluciones triviales?
 2 x  ky  z  0

 (k  1) x  y  2 z  0
 4x  y  4z  0

1.u) Encontrar los autovalores de la matriz

 5 7 5

A= 0 4  1

 
 2 8  3
1.v) a) Encontrar los autovectores que correspondan a los autovalores de la matriz A del
problema (1.u)
b) Determinar un conjunto de autovectores unitarios.

1.w) Encontrar los autovalores y autovectores de la matriz

 cos  sen 
A=
 sen cos 
 
Bibliografía recomendada

38
39

Arfken G.: Mathematical methods for physicists, Academia Press, New Cork, 1970, 815
pp.

Byron F. W. and R. W. Fuller: Mathematical of classical and quantum physics, Vol. I,


Addison-Wesley Publishing Co., Reading, 1969, 310 pp.

Cotlar M. y C. R de Sadosky: Introducción al Algebra, Editorial Universitaria de


Buenos Aires, Buenos Aires , 1962, 216 pág.

Hildebrand F. B.: Métodos de la matemática aplicada, Editorial Universitaria de Buenos


Aires, Buenos Aires, 1973, 465 pág.

Pearson C.E.: Handbook of applied mathematiccs, Van Nostrand Rinhold Co., New
York, 1974, 1265 pp.

Rojo A.O.: Algebra II, El Ateneo, Buenos Aires, 1973, 395 pág..

Spiegel M. R. Matemáticas superiores para ingenieros y científicos, Serie de


Compendios Schaum, McGraw Hill, México 1971, 415 pp.

39

You might also like