You are on page 1of 100

Notas de Algebra Lineal

Edwin Giovanny Villalba Urrea


Ivan Leonardo Galeano Saavedra
Julian Ariel Romero Barbosa

Julio 2008
ii
Indice

1 Espacios Vectoriales 1
1.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Cuerpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Independencia Lineal . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 Sistema de Generadores . . . . . . . . . . . . . . . . . . . 15
1.4.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4.3 F.L.M. y S.M.G. . . . . . . . . . . . . . . . . . . . . . . . 26
1.4.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5 Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . 30
1.5.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2 Transformaciones Lineales 37
2.1 Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . 37
2.1.1 Teorema Fundamental del Algebra Lineal . . . . . . . . . 44
2.1.2 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2 Transformaciones Lineales y Matrices . . . . . . . . . . . . . . . 53
2.2.1 Forma Normal Natural . . . . . . . . . . . . . . . . . . . . 63
2.2.2 Forma normal de Hermite . . . . . . . . . . . . . . . . . . 64
2.2.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3 Determinantes 75
3.1 El Grupo Simétrico . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.1.1 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.2 Formas n-lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.3 El Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

A Algunas aplicaciones en Derive 87

iii
iv INDICE
Introducción

La matemática actual se caracteriza por el predominio del álgebra, incluso


los expertos hablan de la algebrización de todas las ramas tradicionales de la
matemática, tendencia que como es sabido se originó con los geniales trabajos
de Galois en donde nació la noción de grupo. Mas tarde aparecieron la teorı́a
abstracta de grupos y otras teorias como la de los cuaterniones de Hamilton o
la de matrices, a partir de las cuales se fue edificando lo que acutalmente se
conoce como Algebra Lineal.

El Algebra Lineal es paradójicamente una de las ramas de las matematicas


mas antigua y una de las más nuevas, pues aborda problemas que datan desde
los tiempos de los babilónios como lo son los sistemas de ecuaciones lineales y
curiósamente uno de sus conceptos fundamentales, el de espacio vecotrial sólo
vió la luz hasta 1888 de manos del matemático italiano Giussepe Peano.

La mayoria de los matemáticos importantes del los siglos XVII y XIX es-
tan vinculaddos de una u otra manera con las ideas y conceptos mas impor-
tantes del Algebra Lineal pero el papel protagónico lo ocuparon definitivamente
William Hamilton, Hünter Grasmmann , Charles Hermite, y especialmente
Jhosep Sylvester y Arthur Cayley.

Actualmente existe la tendencia de omitir las partes engorrosas en la pre-


sentación de una teorı́a para concentrarse fundamentalmente en los resultados,
esto con la intención de facilitar y agilizar su comprención por parte del es-
tudiante. Sin embargo el curso de Algebra Lineal impartido por el profesor
Iván Castro en la Univerisdad Nacional prueba que este objetivo solo puede ser
obtenido por medio de una exposición clara, detallada, pausada y sin omisiones
de los contenidos que la conforman la teoria en cuestión (Algebra Lineal en nue-
stro caso), además de un intenso y constante trabajo por parte del estudiante.

Las presentes notas constituyen en términos generales un resumen de los temas


fundamentales a tratar en un primer curso de Algebra Lineal. Aunque, como
el mismo Hilbert lo diria, axiomatizar una teorı́a es saber realmente de lo
que se está hablando, siempre que es posible, los temas que son tradicional-
mente introducidos axiomaticamente (determinantes por ejemplo) tienen aqui
un tratatamiento constructivo.

v
vi INTRODUCCIÓN

Oigo y olvido
Leo y entinedo...
Hago y aprendo
George Polya.
Capı́tulo 1

Espacios Vectoriales

El Algebra Lineal es tal vez unos de los temas más trascendentales (por no decir
difı́ciles) de un estudiante de primeros semestres de Matemáticas, llenándolo de
Teoremas y Definiciones que no son tan palpables a primera vista (como tal vez
lo es un curso de Cálculo I en sus inicios) y los cuales están en una terminologı́a
casi nueva, generando en el estudiante los primeros pasos dentro del denominado
Refléjo Simbólico. Debido a esto, este capı́tulo es de vital importancia para que
el estudiante de Álgebra Lineal empiece con el pie derecho sus estudios, y logre
completar exitosamente el curso. Daremos a continuación unas preliminares
para tener muy buenas bases y solidificar la teorı́a que se va a desarrollar.

1.1 Preliminares
Definición 1 - 1 - 1 Una Ley de Composición Interna en un conjunto A
es una aplicación
∗ : A × A −→ A
(a, b) 7−→ a ∗ b

Tal como el estudiante encontró en sus primeros cursos de matemática, decimos


que ∗ es asociativa si a ∗ (b ∗ c) = (a ∗ b) ∗ c y conmutativa si a ∗ b = b ∗ a para
todos a, b, c ∈ A.

Ejemplo 1 - 1 - 1 Sea A = {], [, \} definimos

∗: A×A −→ A
(a, b) 7−→ [

Es ∗ asociativa y/o conmutativa?

Ejemplo 1 - 1 - 2 Las operaciones suma y producto usuales en R , son leyes


de composición interna.

1
2 CAPÍTULO 1. ESPACIOS VECTORIALES

1.1.1 Anillos
Definición 1 - 1 - 2 Sea A un conjunto, y +,· dos leyes de composición in-
ternas sobre A. Un Anillo es una terna (A, +, ·), que cumple las siguientes
condiciones:
1. a + (b + c) = (a + b) + c para todo a, b, c de A.
2. a + b = b + a para todo a, b de A.
3. Existe un elemento 0 en A tal que a + 0 = a para todo a en A.
4. Para todo a en A existe −a, tambien en A, tal que a + (−a) = 0.
5. a · (b · c) = (a · b) · c para todo a, b, c en A.
6. a · (b + c) = a · b + a · c y (a + b) · c = a · c + b · c para todo a, b, c en A.

Hay que resaltar que los sı́mbolos + y · no siempre se utilizan como la suma y
producto ( aunque los llamaremos ası́ por comodidad ) usuales de R, se usaran
para cualquier terna (A, +, ·) sin implicar que los operadores sean siempre los
mismos. Llamaremos Neutro al 0 de A e Inverso Aditivo de a el elemento −a,
estos dos elementos son únicos puesto que si 0 y 0’ son neutros de A, entonces
0 = 0 + 00 = 00 + 0 = 00 , y si -a y b son inversos aditivos de a, entonces
b = 0+b = (−a)+a+b = (−a)+0 = −a. En general notaremos a+(−b) = a−b.
Ejemplo 1 - 1 - 3 Sea A = Z2 = {0, 1}, definimos

+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1

La tripla (Z2 , +, ·) es un anillo. La demostración se deja al lector como ejercicio.


Observe que en el anterior ejemplo se cumple que 1 · 0 = 0 = 0 · 1, y además
que 1 · 1 = 1, las cuales son propiedades muy importantes, tan importantes que
merecen dar una definición.
Definición 1 - 1 - 3 Sean (A, +, ·) un anillo,
• Si a · b = b · a para todo a, b ∈ A, decimos que el Anillo es Conmutativo.
• Si existe 1 ∈ A tal que para todo a ∈ A, 1 · a = a entonces decimos que el
Anillo es Unitario.

Ejemplo 1 - 1 - 4 Sea A = {], [, \}, definimos

+ \ ] [ · \ ] [
\ \ ] [ \ \ \ \
] ] [ \ ] \ ] [
[ [ \ ] [ \ [ ]

(A, +, ·) es un anillo conmutativo y unitario. Cuáles son 1 y 0 en A?.


1.1. PRELIMINARES 3

Definición 1 - 1 - 4 Sean (A, +, ·) un anillo unitario y a ∈ A, si existe b ∈ A


tal que a·b = 1, decimos que a es una Unidad. En particular, a b lo denotaremos
como a−1 y lo llamaremos inverso de a.
Note que si b y a−1 son inversos de a, entonces b = b·1 = b·a·a−1 = 1·a−1 = a−1 ,
además que si a ∈ A, 0a = (0 + 0)a = 0a + 0a implicando 0a = 0, de donde es
imposible que 0 sea una unidad.
Definición 1 - 1 - 5 (A, +, ·) es un Anillo de División, si es unitario, con
1 6= 0 donde todo elemento de A es una unidad exceptuando al cero.
Ejemplo 1 - 1 - 5 (A, +, ·) del Ejemplo 1-1-4 es un anillo de división.
Ejemplo 1 - 1 - 6 Sea Z3 = {0, 1, 2} y (A, +, ·) del Ejemplo 1-1-4. Definimos
σ: Z3 −→ A τ: A −→ Z3
0 7 →
− \ \ 7−→ 0
1 7−→ ] ] 7−→ 1
2 7−→ [ [ 7−→ 2
Por lo tanto, sean
⊕: Z3 × Z3 −→ Z3 ¯: Z3 × Z3 −→ Z3
(a, b) 7−→ τ (σ(a) + σ(b)) (a, b) 7−→ τ (σ(a) · σ(b))
(Z3 , ⊕, ¯) es un anillo de división. Por qué?.

1.1.2 Cuerpos
Definición 1 - 1 - 6 Llamamos Cuerpo a un Anillo de División Conmuta-
tivo. Notaremos en general a los cuerpos con la letra K.
Note que si K es un cuerpo y a, b, c ∈ K con a 6= 0, entonces
ab = ac
a−1 ab = a−1 ac
b = c
De donde, si a 6= 0, entonces ab = 0 implica ab = a0, por lo tanto b = 0. Y no
existen a, b ∈ K ambos diferentes de cero, tales que ab = 0.
Ejemplo 1 - 1 - 7 Los conjuntos R y Q son un cuerpos.
Ejemplo 1 - 1 - 8 La tripla (Z4 , +, ·) con Z4 = {0, 1, 2, 3}, donde
+ 0 1 2 3 · 0 1 2 3
0 0 1 2 3 0 0 0 0 0
1 1 2 3 0 1 0 1 2 3
2 2 3 0 1 2 0 2 0 2
3 3 0 1 2 3 0 3 2 1
No es un Cuerpo, puesto que 2 no es una Unidad
4 CAPÍTULO 1. ESPACIOS VECTORIALES

Hemos visto que se han utilizado los conjuntos Z2 , Z3 , Z4 , estos conjuntos son
la base de la llamada Aritmética Módulo n. Decimos que a ≡ b (mod n) (dicho
como, a congruente con b módulo n) si y solo si a = b + kn para algún k ∈ Z,
por ejemplo 1 ≡ 1566 (mod 1565). Si formamos el conjunto
ā = {x ∈ Z| x ≡ a (mod n)}
a ā lo llamamos clase de equivalencia, o Clases residuales módulo n. Note que
si a 6= b entonces ā ∩ b̄ = ∅, si a ≡ b (mod n) entonces ā = b̄ y que
Z = 0̄ ∪ 1̄ ∪ . . . ∪ n − 1
Por lo tanto, al denotar
Zn = {0̄, 1̄, . . . , n − 1}
y definir la leyes de composición internas
+: Zn × Zn −→ Zn ·: Zn × Zn −→ Zn
(ā, b̄) 7−→ a + b (ā, b̄) 7−→ a · b
De donde la tripla (Zn , +, ·) es un anillo conmutativo.
Teorema 1 - 1 - 1 Sea n > 1 un natural no primo, la tripla (Zn , +, ·) no es
un cuerpo.
Dem.
Como n no es primo, existen a, b entre 1 y n tales que n=ab, de donde āb̄ = 0̄,
lo cual inmetiatamente impide que (Zn , +, ·) sea un cuerpo.
Ejemplo 1 - 1 - 9 Se puede demostrar que si p es primo, la tripla (Zp , +, ·)
es un cuerpo, donde Zp = {1, 2, . . . , p − 1}, pero sale del objetivo principal del
libro. Si el estudiante desea una prueba, la puede consultar en (biblio... TNpP
Jimenez Gordillo Rubiano, pag 112)
La definición de Cuerpo es la mas corta que hemos dado hasta ahora, pero a su
vez, era el objetivo principal de esta sección, puesto que de esta vamos a construir
la principal definición de nuestra siguiente sección, Espacios Vectoriales.

1.1.3 Ejercicios
1. Demuestre que (Zn , +, ·) es un anillo conmutativo.
2. Demuestre que (Z5 , +, ·) es un cuerpo, sin utilizar lo enunciado en el Ejem-
plo 1-1-9.
3. Demuestre que la tripla (Q0 , +, ·) no es un cuerpo, donde Q0 representa al
conjunto de los Irracionales. Cuales propiedades de cuerpo no se cumplen?
4. Halle todas las soluciones posibles sobre Z3 a la ecuación
x+y+z = 2
x+y = 1
1.2. ESPACIOS VECTORIALES 5

5. Llamamos Ley de Composición Externa definida en A, con operadores


de B a toda aplicación
∗: B×A −→ A
(b, a) 7−→ b∗a
De 2 ejemplos de leyes de composicion externa.
6. Sea B ⊂ A de un anillo (A, +, ·). Se dice que B es un subanillo de A si
• a − b ∈ B, ∀a,b∈B
• a · b ∈ B, ∀a,b∈B

(a) Muestre que el conjunto B = {1, 2, 3} no es un subanillo de (Z4 , +, ·).


(b) Demuestre que si 0 ∈
/ B, B ⊂ A no puede ser un subanillo de (A, +, ·).

1.2 Espacios Vectoriales


Definición 1 - 2 - 1 Sean V un conjunto no vacio, K un cuerpo y
+: V ×V −→ V ·: K ×V −→ V
(v, w) 7−→ v+w (α, v) 7−→ α · v = αv
Leyes de Composición Interna y Externa respectivamente (Ver ejercicio (5) de
la seccion Preliminares). Llamamos a la tripla (V, +, ·) como K-espacio Vec-
torial V, si y solo si, para todos x, y, z ∈ V y α, β ∈ K se cumple:
1. (x+y)+z=x+(y+z)
2. Existe 0 ∈ V tal que x + 0 = x
3. Existe −x ∈ V tal que x + (−x) = 0.
4. x + y = y + x
5. α(x + y) = αx + αy
6. (α + β)x = αx + βx
7. α(βx) = (αβ)x
8. Existe 1 ∈ K tal que 1 · x = x
Más aún, si el lector está familiarizado con el concepto de Grupo, podriamos
haber definido a un Espacio Vectorial como (V, +, ·), donde (V, +) es un grupo
abeliano que además cumple con las propiedades (5) hasta (8) sobre el cuerpo
K. En general, llamaremos a los elementos v ∈ V como vectores y a los α ∈ K
como escalares. Note que las propiedades (1) a (4) son las mismas dadas en
la defnición de anillo para la ley de composición interna +, de donde podemos
concluir que los elementos 0 y (−v) (para cada v) de V son únicos. El siguiente
teorema es una consecuencia inmediata de la definición de espacio vectorial.
6 CAPÍTULO 1. ESPACIOS VECTORIALES

Teorema 1 - 2 - 1 Sea V un K-espacio vectorial, entonces:


1. α · 0 = 0 para todo α ∈ K.
2. 0 · v = 0 para todo v en V .
3. Si α · v = 0 entonces α = 0 ó v = 0
4. (−1)v = −v para tado v ∈ V
Dem.

1.

α(0) = α(0 + 0)
= α(0) + α(0)
0 = α(0)

2.

(0)v = (0 + 0)v
= (0)v + (0)v
0 = (0)v

3. • Si α 6= 0 entonces

αv = 0
−1
α αv = α−1 0
1v = 0
v = 0

• Si v 6= 0, entonces

αv = 0
= v−v
(α + 1)v = v
α+1 = 1
α = 0

4. Puesto que el inverso es único, bastarı́a demostrar que v + (−1)v = 0. Por


lo tanto

v + (−1)v = (1 + (−1))v
= (0)v
= 0
1.2. ESPACIOS VECTORIALES 7

Ejemplo 1 - 2 - 1 Espacio vectorial Trivial es la tripla ({0}, +, ·).


Ejemplo 1 - 2 - 2 La tripla ({1}, +, ·), con la suma usual, y el producto es-
calar de R no es un R-espacio vectorial puesto 0 · 1 = 0 y 0 ∈
/ V.

Ejemplo 1 - 2 - 3 Sea V = {(x, y)/ y = mx} Donde m es cualquier real dado


y x es un número real arbitrario
V consiste en todas los puntos sobre la recta y = mx que pasa por el origen y
posee pendiente m.
Suponga (x1 , y1 ) y (x2 , y2 ) ∈ V . Entonces y1 = mx1 y y2 = mx2 .
(x1 , y1 ) + (x2 , y2 ) = (x1 , mx1 ) + (x2 , mx2 )
= (x1 + x2 , m(x1 + x2 ))
Tenemos que (x1 + x2 , m(x1 + x2 )) ∈ V . El axioma (I) de esta manera se
cumple. Axiomas II, III y IV son obvios.
Tenemos −(x, mx) = (−x, −mx) = (−x, m(−x)) ∈ V
Además (x, mx) + (−x, m(−x)) = (0, 0) = 0 ∈ V
Las otras propiedades son de fácil verificación, por lo tanto V es un espacio
vectorial.

Ejemplo 1 - 2 - 4 Sea V = {(x, y)/ y ≥ 0}, V consistente de los puntos en


R2 en los dos primeros cuadrantes.
Si y1 ≥ 0 y y2 ≥ 0 entonces y1 + y2 ≥ 0. Dado (x1 , y1 ) ∈ V y (x2 , y2 ) ∈ V ,
entonces (x1 + x2 , y1 + y2 ) ∈ V .
De lo anterior V no es un espacio vectorial, puesto que, dado el vector (1, 1) ∈ V ,
por ejemplo, no posee inverso (−1, −1) ∈ / V . Aun más el axioma VI falla cuando
(x, y) ∈ V entonces α(x, y) ∈ / V si α < 0.
Ejemplo 1 - 2 - 5 Sea V = Rn = {(x1 , x2 , . . . , xn )/ xi ∈ R ∀i = 1, 2, . . . n}

Los espacios de la forma Rn , son comunmente denominados Espacios Euclı́deos,


debido tal vez a que en estos espacios la representación vectorial cobra un sentido
muy geométrico, es por esto que la mayoria de textos de algebra lineal (mas que
todo de aplicación y de igenierı́a) ponen a este espacio como el pilar de su teoria.
Ahora mostraremos ejemplos que no siempre son puestos en estos textos.
Ejemplo 1 - 2 - 6 Sea
F(A, B) = {f : A → B| f es función }
la tripla (F, +, ·) es un K-espacio vectorial.
8 CAPÍTULO 1. ESPACIOS VECTORIALES

Es de fácil comprobación, donde (f + g)(a) = f (a) + g(a) y · es el producto


por escalar. En particular veremos un tipo muy importante de fuciones, las
Transformaciones Lineales, las cuales discutiremos profundamente en el Capı́tulo
2.

Ejemplo 1 - 2 - 7 En particular, si (V, +, ·) es un K-espacio vectorial, el con-


junto
V m = {(v1 , v2 , . . . , vm )| vi ∈ V ∀i=1,2,...,m }
(V m , +, ·) es un espacio vectorial, donde

+: Vm×Vm −→ Vm
((v1 , v2 , . . . , vm ), (w1 , w2 , . . . , wm )) 7−→ (v1 + w1 , v2 + w2 , . . . , vm + wm ))

·: K ×Vm −→ Vm
(α, (w1 , w2 , . . . , wm )) 7−→ (αw1 , αw2 , . . . , αwm ))

Note que V puede ser cualquier espacio vectorial y que además podemos formar
infinitos espacios vectoriales.

Definición 1 - 2 - 2 Una matriz es una coleccion de objetos dispuestos en


forma rectangular, con cierto número de filas y columnas. Denotaremos a las
matrices con letras mayúsculas A, B, C, . . ., diremos que A = (aij )n×m es una
matriz de n filas y m columnas con elementos aij ∈ K ∀i=1,2,...,n ∀j=1,2,...,m
donde el elemento aij se encuentra en la fila i-ésima columna j-ésima.

Denotaremos al conjunto de todas la matrices de orden n × m como K n×m , y


definiremos la suma A + B = (aij + bij )×m y el producto por escalar α · A = (α ·
aij ), entonces la tripla (K n×m , +, ·) será un K-espacio vectorial, la importancia
de este espacio se dara a notar en el siguiente capı́tulo, donde podremos definir
el producto entre matrices y veremos propiedades importantes.

1.2.1 Ejercicios
1. Demuestre que cualquier cuerpo es un espacio vectorial sobre si mismo.

2. Demuestre todos los ejemplos dados son efectivamente espacios vectoriales.

3. Comúnmente se nota al conjunto de todos los polinomios de variable x


de grado menor o iual a n ∈ N como Kn [x], donde K es un cuerpo.
Demuestre que la tripla (Kn [x] , +, ·) es un K-espacio vectorial.

4. Sea V = {(x, y) | x, y ∈ K} con K un cuerpo cualquiera. Defina para


α ∈ K y (x1 , y1 ), (x2 , y2 ) ∈ V

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) α ∗ (x1 , y1 ) = (x1 , 0)

Es la tripla (V, +, ∗) un espacio vectorial?


1.3. DEPENDENCIA LINEAL 9

1.3 Dependencia Lineal


Definición 1 - 3 - 1 Sean v1 , v2 , . . . , vn vectores en un espacio vectorial V .
Entonces alguna expresión de la forma a1 v1 + a2 v2 + · · · + an vn es una
Combinación Lineal, donde a1 , a2 , . . . , an son escalares. Es llamada Combi-
nación Lineal de los vectores v1 , v2 , . . . , vn .

1.3.1 Independencia Lineal


Definición 1 - 3 - 2 Sea A = {v1 , v2 , . . . , vn } ⊆ V diremos que A es Lin-
ealmente Dependiente si existen λ1 , λ2 , . . . , λn escalares no todos nulos tales
que:
Xn
λ i vi = 0
i=1

Definición 1 - 3 - 3 Sea A ⊆ V diremos que A es Linealmente independi-


ente si no es Linealmente Dependiente.
Para los conjuntos Linealmente Dependientes los notaremos con las iniciales
L. D. y para los conjuntos Linealmente Independientes los notaremos con las
iniciales L. Ind.
Ejemplo 1 - 3 - 1 Sea V = {f / f : R −→ R, f es derivable} y A =
{f1 , f2 , f3 }.
Tenemos entonces que f1 (x) = sin2 x, f2 (x) = cos2 x, f3 (x) = α donde este α
es un escalar.
(−α)f1 + (−α)f2 + f3 = 0
(−α) sin2 x + (−α) cos2 x + α = 0
(−α)(sin2 x + cos2 x) + α = 0

De donde vemos claramente que A es L. D.

Ejemplo 1 - 3 - 2 Sea A = {ei / ei = (0, . . . , 0, |{z}


1 , 0, . . . , 0) ∀i = 1, . . . , n}
P uesto i
donde A ⊆ K n .
Sean λ1 , λ2 , . . . , λn ∈ K tales que:
n
X
λ i ei = 0
i=1
Xn
λ i ei = (λ1 , λ2 , . . . , λn )
i=1
Xn
λ i ei = (0, 0, . . . , 0)
i=1
10 CAPÍTULO 1. ESPACIOS VECTORIALES

Entonces λi = 0 ∀i = 1, . . . , n de donde A es L. Ind.

Ejemplo 1 - 3 - 3 Sea A = {0, v2 , . . . , vn } ⊆ V .


Tenemos de esta manera 1 · 0 + 0 · v2 + · · · + 0 · vn = 0. En donde es evidente
que como los escalares no son todos nulos A es L. D.

Ejemplo 1 - 3 - 4 Sea el conjunto vacı́o φ.


Supongamos que sea linealmente dependiente, entonces deberı́an existir vectores
en él tales que exista una combinación de escalares no todos nulos que sea igual
a cero. Pero esto es imposible porque en el vacı́o no podemos encontrar vectores
de modo que hay una contradicción →←.
Como no hay nadie que incumpla la definición este conjunto es L. Ind.

Ejemplo 1 - 3 - 5 Sea A = {v1 , −v1 , v2 , . . . , vn } ⊆ V .


enemos de esta manera 1 · v1 + 1 · (−v1 ) + 0 · v2 + · · · + 0 · vn = 0. En donde es
evidente que como los escalares no son todos nulos A es L. D.

Ejemplo 1 - 3 - 6 Tenemos que V = {f / f : R −→ R, f es derivable}


Sean α1 , α2 , α3 ∈ R, cumplen que αi 6= αi , ∀i 6= ∀j
Funciones definidas f1 (x) = eαx , f2 (x) = eαx , f3 (x) = eαx y A = {f1 , f2 , f3 }.

Sean λ1 , λ2 , λ3 ∈ R tales que:

λ1 f1 (x) + λ2 f2 (x) + λ3 f3 (x) = 0

λ1 eαx + λ2 eαx + λ3 eαx = 0


λ1 α1 e + λ2 α2 eαx + λ3 α3 eαx
αx
= 0 (Derivando)
λ1 α12 eαx + λ2 α22 eαx + λ3 α32 eαx = 0 (Derivando)

Evaluando en x = 0

λ1 + λ 2 + λ 3 = 0 (1.3.1)
λ1 α1 + λ 2 α2 + λ 3 α3 = 0 (1.3.2)
λ1 α12 + λ2 α22 + λ3 α32 = 0 (1.3.3)

Realizando α1 · (1) − (2):

(α1 − α2 )λ2 + (α1 − α3 )λ3 = 0 (1.3.4)


1.3. DEPENDENCIA LINEAL 11

Realizando α12 · (1) − (3):

(α12 − α22 )λ2 + (α12 − α32 )λ3 = 0 (1.3.5)

Realizando −(α1 + α2 ) · (4) − (5):

(−(α1 + α2 )(α1 + α3 ) + (α12 − α32 ))λ3 = 0


(α1 α3 − α1 α2 + α2 α3 − α32 )λ3 = 0
(α3 (α1 − α3 ) − α2 (α1 − α3 ))λ3 = 0
(α3 − α2 )(α1 − α3 )λ3 = 0

Esto se tiene por la condición inicial Sii λ3 = 0.


En (4) (α1 − α2 )λ = 0 ⇐⇒ λ2 = 0
En (1) λ1 + λ2 + λ3 = 0 ⇐⇒ λ1 = 0
Por lo tanto A es L. Ind.

Teorema 1 - 3 - 1 Si existe un vector en A que es Combinación Lineal de


otros vectores de A, entonces A es Linealmente dependiente.

Dem.
Sea A = {v1 , . . . , vn }. Existe vj ∈ A tal que es combinación lineal de los otros
vectores de A.
Existen escalares λ1 , . . . , λj−1 , λj+1 , . . . , λn tales que:
j−1
X n
X
vj = λ i vi + λ i vi
i=1 j+1

Luego
j−1
X n
X
λi vi + (−1)vj + λ i vi = 0
i=1 j+1

De donde A es L. D.

Teorema 1 - 3 - 2 A es linealmente dependiente Sii existe un vector en A que


es combinación lineal de los anteriores.

Dem.

⇒) Probaremos que existe por lo menos un vector en A que es combinación


lineal de los otros:
12 CAPÍTULO 1. ESPACIOS VECTORIALES

Sea A = {v1 , v2 , . . . , vn }, existen λ1 , λ2 , . . . , λn escalares no todos nulos tales


que:
λ 1 v1 + λ 2 v2 + · · · + λ n vn = 0
Sea J = max{i ∈ In / λi 6= 0}, tenemos ası́:

λ1 v1 + · · · + λj−1 vj−1 + λj vj = 0
j−1
X
λ j vj = (−λi )vi
i=1
j−1
X
vj = ((λ−1 )(−λi )) vi
| {z }
i=1
αi
j−1
X
λ j vj = (−λi )vi
i=1
j−1
X
vj = α i vi
i=1

⇐)Si vj es combinación lineal de los anteriores entonces existen λ1 , . . . , λj−1


escalares tales que:
j−1
X
λi )vi = vj
i=1

Luego
j−1
X
λi )vi + (−1)vi = 0
i=1

Entonces tenemos que A es L. D.

Teorema 1 - 3 - 3 Si un conjunto A es Linealmente Independiente entonces


todos sus subconjuntos también lo son.

Dem.
Supongamos que existe B ⊆ A, donde B es linealmente dependiente.
Sea B = {v1 , . . . , vs } y sea A = {v1 , . . . , vs , vs+1 , . . . , vn }

Como B es Linealmente dependiente, existen escalares λ1 , . . . , λs , estos escalares


son no todos nulos tales que:

λ 1 v1 + · · · + λ s vs = 0
1.3. DEPENDENCIA LINEAL 13

Extendiendo tenemos:
λ1 v1 + · · · + λs vs + 0 · vs+1 + · · · + 0 · vn = 0
De donde A es L. D., Esto contradice las condiciones del teorema →←.
¥

Corolario 1 - 3 - 1 Si un subconjunto B de A es linealmente dependiente A


es linealmente dependiente.
Dem.
La demostración sigue en esencia la misma idea de la demostración del teorema
anterior por ello nos permitimos oviarla.
¥

Pn 1 - 3 - 4 Si A = {v1 , v2 , . . . , vn } es Linealmente Independiente y


Teorema
v = i=1 λi vi en donde los λi ∈ K ∀i ∈ In entonces los λi son únicos.
Dem.
Supongamos que existen α1 , . . . , αn ∈ K tales que:
n
X
v= α i vi
i=1

Entonces:
n
X n
X
α i vi = λ i vi
i=1 i=1

Luego
n
X n
X
α i vi − λ i vi = 0
i=1 i=1
n
X
(αi vi − λi vi ) = 0
i=1
Xn
(αi − λi )vi = 0
i=1

Como A es Linealmente Independiente entonces (αi − λi ) = 0 ∀i de donde


(αi = λi ) ∀i .
14 CAPÍTULO 1. ESPACIOS VECTORIALES

Definición 1 - 3 - 4 Un conjunto A es Infinito si existe B ⊆ A en donde


B 6= A y una función ϕ : B −→ A biyectiva.
Definición 1 - 3 - 5 Un conjunto Infinito A es linealmente independiente si:
∀(B ⊆ A), σ(B) < +∞ es Linealmente Independiente.
Ejemplo 1 - 3 - 7 : Sea A = {xn / n ∈ N}, demostraremos que A es Lineal-
mente Independiente.
Dem.
Sea B ⊆ A tal que σ(B) < +∞. Existe n ∈ N tal que B ⊆ An donde
An = {1, x, . . . , xn }. Veamos que es linalmente independiente:
Sean α0 , α1 , . . . , αn escalares tales que:
α0 + α 1 x + · · · + α n x n = 0
En particular evaluamos en x = 0. De donde −→ (α0 = 0)
Derivando hasta llegar a la derivada enésima:
α1 x + · · · + α n x n = 0 (donde −→ (α1 = 0))
..
.
αn = 0
Como todos los escalares son nulos tenemos que A es L. Ind.

1.3.2 Ejercicios
1. Determine si el primer vector de cada conjunto de tres vectores de R3 y
R2 [x] se puede expresar como combinacion de los otros dos restantes

• (1, 0, 0), (0, 1, 0), (0, 24, 78)


696 635
• ( −4652
79 , 79 , − 158 ), (24, 48, 35), (224, 48, 68)
• 1, x, 24x + 78x2
• x + x2 , 2x − x2 , 34x2

2. Puede econtrar el lector un conjunto L.D., tal que ningun vector sea mul-
tiplo de otro del mismo conjunto?
3. Muestre que las matrices
µ ¶ µ ¶ µ ¶ µ ¶
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1
Son L.Ind.
1.4. BASES 15

4. Demuestre que el conjunto {fp (x) = epx , fs (x) = esx } es linealmente in-
dependienete en el espacio F(R, R).( Sugerencia: Recuerde que la indepe-
dencia lineal se tiene para todo x ∈ R, en particular para x = 0 y que
puede derivar ).

1.4 Bases
1.4.1 Sistema de Generadores
Definición 1 - 4 - 1 Sea V un K-espacio vectorial, un conjunto A = {v1 , v2 , . . . , vn } ⊆
V es un Sistema de Generadores de V, si para todo v ∈ V existen escalares
λ1 , λ2 , . . . , λn en K tales que
n
X
v= λ i vi
i=1

En general, si A = {v1 , v2 , . . . , vn }, llamaremos Generado de A al conjunto


n
X
hAi = { λi vi λi ∈ K∀i=1,...,n }
i=1

Teorema 1 - 4 - 1 Si A ⊆ B, entonces hAi ⊆ hBi

Dem.
Sea v ∈ hAi, por lo tanto existen v1 , v2 , . . . , vn en A y λ1 , λ2 , . . . , λn en K tales
que
X n
v= λ i vi
i=1

Pero como A ⊆ B, entonces v1 , v2, . . . , vn ∈ B, de donde


n
X
v= λ i vi ∈ hBi
i=1
hAi ⊆ hBi

Teorema 1 - 4 - 2 hAi = hhAii

Dem.
Por el teorema anterior, la inclusión hAi ⊆ hhAii es inmediata. Ahora, sea
w ∈ hhAii, por lo tanto existen w1 , w2 , . . . , wm ∈ hAi y α1 , α2 , . . . , αm en K
tales que
Xm
w= αi wi
i=1
16 CAPÍTULO 1. ESPACIOS VECTORIALES

para cada j existen λ1j , λ2j , . . . , λnj j en K y v1j , v2j , . . . , vnj j en A tales que
nj
X
wj = λ i j j vi j j
ij =1

De donde
m nj
X X
w = αj λ i j j vi j j
j=1 ij =1
nj
m X
X
= α j λ i j j vi j j
j=1 ij =1

Por lo tanto w ∈ hAi, hhAii ⊆ hAi, y

hAi = hhAii

Teorema 1 - 4 - 3 Si vj es combinación lineal de los vectores v1 , v2 , . . . , vj−1


y A = {v1 , v2 , . . . , vn }, entonces

hAi = hA − {vj }i

Dem.
⇒)
Claramente A − {vj } ⊆ A, de donde hA − {vj }i ⊆ hAi.
⇐)
Sea v ∈ hAi, existen α1 , α2 , . . . , αn en K tales que
n
X
v= α i vi
i=1

Como
j−1
X
vj = λ i vi
i=1
Para algunos escalares λi i = 1, . . . , j − 1, entonces
j−1
X j−1
X n
X
v = α i vi + α j ( λ i vi ) + α i vi
i=1 i=1 i=j+1
j−1
X n
X
= (αi vi + αj λi )vi + α i vi
i=1 i=j+1

Y por lo tanto v ∈ hA − {vj }i, hAi ⊆ hA − {vj }i y

hAi = hA − {vj }i
1.4. BASES 17

Corolario 1 - 4 - 1 Si un conjunto A es L.D. entonces existe v ∈ A tal que

hAi = hA − {v}i

Dem.
Consecuencia inmediata del anterior teorema.

Definición 1 - 4 - 2 Sea V un K-espacio vectorial y A ⊆ V , se dice que A es


un Sistema de Generadores de V si

hAi = V

Ejemplo 1 - 4 - 1 Sea

A = {ei | i = 1, . . . , n}

ei = (01 , . . . , 0i−1 , 1i , 0i+1 , . . . , 0n )

Demostrar que hAi = K n

Dem.
Sean λ1 , λ2 , . . . , λn ∈ K y V = (a1 , a2 , . . . , an ) ∈ K n , si hacemos
n
X
λi ei = (λ1 , λ2 , . . . , λn )
i=1

Bastaria con poner


λi = a i i = 1, . . . , n
Implicando que A sea un sistema de generadores de K n

Ejemplo 1 - 4 - 2 Sea

B = {Ei | i = 1, . . . , n}

Ei = (1, 2, 3, . . . , i, 0, . . . , 0)

Demostrar que hBi = K n

Dem. Sean λ1 , λ2 , . . . , λn ∈ K y V = (a1 , a2 , . . . , an ) ∈ K n , si hacemos


n
à n n n
!
X X X X
λ k Ek = kλk , kλk , . . . , kλk , nλn
k=1 k=1 k=2 k=n−1
18 CAPÍTULO 1. ESPACIOS VECTORIALES

Al poner
n
X
kλk = ai i = 1, . . . , n
k=i

Donde es claro que ∀1≤h≤n−1


n
X n
X
kλk = hλh + kλk = hλh + ah+1 = ah
k=h k=h+1

Por lo tanto, si hacemos


(
ai −ai+1
i si i ≤ n − 1
λi = an
n si i = n

Queda demostrado que hBi = K n

Ejemplo 1 - 4 - 3 Sea

D = {1, (x + 1), (x + 1)2 , . . . , (x + 1)n , . . .}

Demuestre que D es un sistema de generadores de K [x]

Dem.
Sean λ0 , λ1 , . . . , λn ∈ K y a0 + a1 x + a2 x2 + . . . + an xn ∈ K [x], si hacemos

λ0 · 1 + λ1 · (x + 1)1 + . . . + λn · (x + 1)n + 0 · (x + 1)n+1 + 0 · (x + 1)n+2 + . . . =


= λ0 + λ1 · (x + 1)1 + . . . + λn · (x + 1)n

Que gracias al Teorema del Binomio es


µ ¶ µ ¶ µ ¶ µ ¶ µ ¶
1 1 2 2 2
λ0 + λ1 + λ1 x + λ2 + λ2 x + λ2 x 2 + . . .
1 0 2 1 0
µ ¶ µ ¶ µ ¶ µ ¶
n n n n−1 n
... + λn + λn x + . . . + λn x + λn x n
n n−1 1 0

Y al factorizar
n n µ ¶ n µ ¶ n µ ¶
X X i 2
X i n−1
X i
λi + x · λi + x · λi + . . . + x · λi + x n λn
i=0 i=1
i − 1 i=2
i − 2 i=n−1
1

Ahora, al poner
n µ ¶
X i
λi = a k k = 1, . . . , n
i−k
i=k
1.4. BASES 19

Es claro que

λn = a n

Y si 1 ≤ h ≤ n − 1, tenemos que
n µ ¶ n µ ¶
X i X i
ah = λi = λ h + λi
i−h i−h
i=h i=h+1

n µ ¶
X i
ah+1 = λi
i−h−1
i=h+1

Luego
n ·µ ¶ µ ¶¸
X i i
ah − ah+1 = λh + − λi
i−h−1 i−h−1
i=h+1

Luego podemos definir los λk de forma recursiva asi:

λk = a k si k = n
Si k ≤ n − 1
à n ·µ ¶ µ ¶¸ !
X i i
λk = ak − ak+1 − − λi
i−k−1 i−k−1
i=k+1

Y como de esta manera se pueden encontrar todos los λk , D es un Sistema de


Generadores de K [x]

Teorema 1 - 4 - 4 Si un espacio vectoral tiene un sistema de generadores hAi,


existe B ⊆ A tal que B genera al espacio vectorial y B es L.Ind.

Dem.
La demostracion se deja al lector, como sugerencia, realice el procedimiento
realizado en el Teoema 1-4-3 hasta que quede un conjunto L.Ind, recuerde que
el vacı́o es L.Ind.

1.4.2 Bases
Definición 1 - 4 - 3 Un subconjunto de un espacio vectorial es una Base si y
solo si es un Sistema de Generadores que ademas es L.Ind.
20 CAPÍTULO 1. ESPACIOS VECTORIALES

La anterior definición hace parte de los conceptos ’importantes’ que enmarcare-


mos a lo largo del libro. Es importante que el estudiante entienda la trascenden-
cia de este concepto puesto que esta definición se van a utilizar en la mayoria de
los teoremas dados, de aqui hasta el final del libro. Existen una clase de bases
especiales que son de mucha ayuda debido a su fácil manejo, por ejemplo, si
V = Rn sabemos que cualquier v ∈ V lo podemos expresar como (a1 , a2 , . . . , an )
con ai ∈ R ∀i=1,2,...,n , pero

v = (a1 , a2 , . . . , an ) = a1 (1, 0, . . . , 0) + (0, a2 , . . . , an )


= a1 (1, 0, . . . , 0) + a2 (0, 1, 0, . . . , 0) + (0, 0, a3 , . . . , an )
..
.
n
X
= a i ei
i=1

1 , 0, . . . , 0). Observe que en general el conjunto


Donde ei = (0, 0, . . . , 0, |{z}
Puesto i
B = {e1 , . . . , en } es L.Ind, además, como pudimos expresar a v en combinación
lineal de los ei , entonces B es una base de Rn . Observe la simplicidad de los ei ,
solo 1s y 0s!!, por ello merece bautizo, con lo cual la llamaremos Base Canónica
de Rn . El lector podrá ahora intuir una base canónica para Rn [x] (los polinomios
de grado n en la variable x), el conjunto B = {1, x, x2 , . . . , xn }. Lo siguiente
será dar ejemplos que no sean tan simples como lo es la base canónica.

Ejemplo 1 - 4 - 4 Encuentre 5 bases para K n .

Solución.
Sea V = (v1 , v2 , . . . , vn ) ∈ K n para todas las cinco bases.

1. Dado un vector W = (w1 , w2 , . . . , wn ) wi 6= 0 ∀i=1,2,...,n y 2 ≤ n podemos


definir INFINITAS bases como sigue. Sea

$ = {Wi |i = 1, 2, . . . , n} Wi = (w1 , w2 , . . . , wi−1 , 0, wi+1 , . . . , wn )

Claramente si hacemos λ1 , λ2 , . . . , λn ∈ K,

 
n
X n
X n
X n−1
X
λj Wi = w1 λj , w2 (λ1 + λj ), . . . , wn λj 
j=1 j=2 j=3 j=1

Ahora supongamos para a1 , a2 , . . . , an ∈ K


1.4. BASES 21

w1 (λ2 + λ3 + . . . + λn ) = a1
w2 (λ1 + λ3 + . . . + λn ) = a2
..
.
wn (λ1 + λ2 + . . . + λn−1 ) = an

De donde para todo aj


à n
!
aj X
= λm − λj
wj m=1

Además tenemos
n n
X am X
= (n − 1) · λm
w
m=1 m m=1

Y con ambas ecuciones obtenemos


à Pn am
!
aj m=1 wm
= − λj
wj (n − 1)

De donde para todo λj


à Pn am
!
m=1 wm aj
λj = −
(n − 1) wj

Ahora, CLARAMENTE! si hacemos aj = 0 ∀j entonces λj = 0 ∀j de


donde $ es l.ind, además si hacemos aj = vj ∀j entonces $ es una base
de K n .

2. Sea ξ = {Hi |i = 1, 2 . . . , n}, entonces

Hi = (01 , 02 , . . . , 0i−1 , 1, 2, . . . , n)

Sean tambien λ1 , λ2 , . . . , λn ∈ K, luego


n
à n
!
X X
λi Hi = λ1 , 2λ1 + λ2 , . . . , (n + 1 − i)λi
i=1 i=1

Luego si igualamos para a1 , a2 , . . . , an ∈ K, tenemos

λ1 = a 1 , λ2 = a2 − 2a1
22 CAPÍTULO 1. ESPACIOS VECTORIALES

y para todo ai con 3 ≤ i ≤ n,


ai = iλ1 + (i − 1)λ2 + . . . + λi
Que podemos simplificar a
i
X
ai = ai−1 + λm
m=1

Luego
i−1
X
λi + λm = ai − ai−1
m=1
λi + (ai−1 − ai−2 ) = ai − ai−1
λi = ai − 2ai−1 + ai−2
Que claramente prueba, haciendo lo mismo que en (1), que ξ es l.ind y
además es base de K n .

3. Sea ϕ = {Si |i = 1, 2 . . . , n} donde


Si = (21 , 22 , . . . , 2i , 0, . . . , 0)
Claramente si hacemos λ1 , λ2 , . . . , λn ∈ K,
n
X
λj Si = (2λ1 + . . . + 2λn , 22 λ2 + . . . + 22 λn , . . . , 2n λn )
j=1

Y si suponemos para a1 , a2 , . . . , an ∈ K
2(λ1 + λ2 + . . . + λn ) = a1
22 (λ2 + λ3 + . . . + λn ) = a2
..
.
2n−1 (λn−1 + λn ) = an−1
2n (λn ) = an

Que podemos expresar


a1
λ1 + λ 2 + . . . + λ n =
2
a2
λ2 + λ 3 + . . . + λ n = 2
2
..
.
an−1
λn−1 + λn = n−1
2
an
λn = n
2
1.4. BASES 23

De donde, para todo i ≤ n − 1


ai+1 ai
− i = λi
2i+1 2
Que claramente prueba, haciendo lo mismo que en (1), que ϕ es l.ind y
además es base de K n .

4. y (5) Bastaria con tomar el vector Y = (1, 1, 1, . . . , 1); y los vectores


Zp = (1, 2, 1, 2, . . . , 1, 2) o Zi = (1, 2, 1, 2, . . . , 2, 1) dependiendo de n par o
impar (respec.) y tomarlos en (1) para formar bases de K n .
.

Ejemplo 1 - 4 - 5 Encuentre 5 bases para K [x].


Solución. Sea V = v0 +v1 x+v2 x2 , . . . , vn xn ∈ K [x] para todas las cinco bases.

1. Sean ρ = {1, x, 2x2 , . . . , nxn } = {R0 , R1 , R2 , . . . , Rn } y λ0 , λ1 , . . . , λn ∈


K, al hacer
n
X
λi Ri = λ0 + λ1 x + . . . + nλn
i=0
= a 0 + a 1 x + a 2 x2 + . . . + a n xn

Obtenemos que
λ0 = a 0
ai
λi =
i

Luego al hacer ai = 0 para todo i, obtenemos λi = 0, por lo tanto ρ es


l.ind., además es fácil ver que es una base de K [x] cambiando ai = vi

2. Sean ψ = {1, 1+x, 1+x+x2 , . . . , 1+x+x2 +. . .+xn } = {P0 , P1 , P2 , . . . , Pn }


y λ0 , λ1 , . . . , λn ∈ K, al hacer
n
X
λi Pi = λ0 + (λ1 + λ1 x) + . . . + (λn + λn x + . . . + λn xn )
i=0
= (λ0 + . . . + λn ) + (λ1 + . . . + λn )x + . . . + λn x2
= a 0 + a 1 x + a 2 x2 + . . . + a n xn

Obteniendo
λn = a n
24 CAPÍTULO 1. ESPACIOS VECTORIALES

Y para i ≤ n − 1
n
X n
X
λk = a i = λ i + λk = λi + ai−1
k=i k=i+1

λi = ai − ai−1
Que muestra que, haciendo como en (1),ψ es l.ind. y además es base de
K [x].
3. Sea θ = {Ti |i = 0, . . . , n}, donde
n
(
X
f (k) k 2 si ∃m∈N tal que x = i − 2m
Ti = (−1) x f (x) =
k=i
1 en otro caso

y λ0 , λ1 , . . . , λn ∈ K, entonces al hacer
n
X n
X
λk Tk = (λ0 ) + (λ1 − λ0 )x + (λ2 − λ1 + λ0 )x2 + . . . + ( (−1)f (k) λk )xn
k=0 k=0

Y al igualar con a1 , a2 , . . . , an ∈ K, tenemos el sistema


λ0 = a 0
λ1 − λ 0 = a 1
λ2 − λ 1 + λ 0 = a 2
..
.
n−1
X
(−1)f (k) λk = an−1
k=0
Xn
(−1)f (k) λk = an
k=0

Y para 1 ≤ i tenemos
i
X i−1
X
f (k)
(−1) λk = a i = λ i + (−1)f (k) λk = λi − ai−1
k=0 k=0

Luego
λi = ai + ai−1

De donde claramente podemos deducir que θ es l.ind. y además es una


base de K [x].
1.4. BASES 25

Ejemplo 1 - 4 - 6 Encuentre 3 bases para K n×m .

Solución. Encontraremos una forma de tener INFINITAS bases para K n×m ,


dada una matriz W n×m = (vij ) con vij 6= 0 ∀ij , y 2 ≤ n · m.

Definimos Φ = {Wls |1 ≤ l ≤ n 1 ≤ s ≤ m} con


(
0 si i = l y j = s
Wls = (wij ) wij =
vij en otro caso

Sean, An×m = (aij ) y, λij con 1 ≤ i ≤ n 1 ≤ j ≤ m, si hacemos


n X
X m
λls Wls = A
l=1 s=1

Claramente para todo apq ,


n X
X m
apq = vpq λij − vpq λpq
i=1 j=1
 
n X m
apq X
= λij  − λpq
vpq i=1 j=1

Y además  
m
n X m
n X
X aij X
= (nm − 1)  λij 
i=1 j=1
vij i=1 j=1

De donde, reemplazando
Pn Pm aij
i=1 j=1 vij apq
λpq = −
(nm − 1) vpq

Que nos deja demostrar muy fácilmente la independencia lineal de Φ, además


de mostrar que es una base de K n×m , exceptuando el caso de n = m = 1.
1. Si hacemos W = (vij ) con vij = 1 para todo ij, dada la matriz An×m
anterior y λij con 1 ≤ i ≤ n 1 ≤ j ≤ m, la forma de los λij usando el
conjunto Φ seria: P n Pm
f =1 g=1 af g
λij = − aij
(nm − 1)
26 CAPÍTULO 1. ESPACIOS VECTORIALES

2. Si hacemos W = (vij ) con vij = i + j, y con lo mismo que en el anterior,


tenemos que la forma de los λij usando el conjunto Φ seria:
Pn Pm a f g
f =1 f =1 f +g aij
λij = −
(nm − 1) i+j

3. Si hacemos W = (vij ) con vij = ji , y con lo mismo que en el anterior,


tenemos que la forma de los λij usando el conjunto Φ seria:
Pn Pm g·af g
f =1 f =1 f j · aij
λij = −
(nm − 1) i
.

Teorema 1 - 4 - 5 La expresión de un vector como combinación lineal de los


vectores de una base finita es única

Dem.
Sea A = {v1 , v2 , . . . , vn } una base de V . Si v ∈ V , existen escalares λ1 , λ2 , . . . , λn
en K tales que
X n
v= λ i vi (1)
i=1

Supongamos que existan α1 , α2 , . . . , αn en K tales que


n
X
v= α i vi (2)
i=1

Entonces, de (1) y (2) se tiene que


n
X n
X
v= λ i vi = α i vi
i=1 i=1
n
X
(λi − αi )vi = 0
i=1

Y como A es una base, λi − αi = 0, implicando λi = αi ∀i=1,2,...,n


¥

1.4.3 F.L.M. y S.M.G.


Definición 1 - 4 - 4 Sea A = {v1 , v2 , . . . , vn } ⊆ V
1. A es una Familia Libre Maximal si
1.4. BASES 27

(a) A es L.Ind.

(b) ∀vi ∈A ∀i=1,...,n , v 6= vi , A ∪ {v} es L.D.

Denotaremos a una familia libre maximal como F.L.M.

2. A es un Sistema Minimal de Generadores si

(a) hAi = V

(b) ∀vi ∈A hA − {vi }i 6= V

Notaremos a un sistema minimal de generadores como S.M.G.

Teorema 1 - 4 - 6 A es base si y sólo si es sistema minimal de generadores

Dem.
Sea A = {vi . . . , vn }. Demostraremos primero que si A es base, entonces es
un sistema minimal de generadores. En efecto, por ser base es un sistema de
generadores. Falta ver que es mı́nimo. Pero como A es base, es linealmente inde-
pendiente; por tanto, para algún vj ∈ A, A − {vj } es linealmente independiente.
Ahora,

V = hAi
n
X
= { αi vi | αi ∈ K ∧ vi ∈ A}
i=1
k−1
X X
6= { αi vi + 0.vk + i = k + 1n αi vi | αi ∈ K ∧ vi ∈ A}
i=1
k−1
X n
X
= { α i vi + α i vi | α i ∈ K ∧ v i ∈ V }
i=1 i=k+1
= hAi − {vk }

Por tanto, hAi − {vk } 6= B. Ası́ que si A es una base, entonces es un sistema
minimal de generedores. Ahora tenemos que mostrar que si A es un sistema
minimal de generadores, entonces es una base. La demostración consistirá en
mostar la independencia lineal de A. Prueba por contradiccón.
Pn Supongamos que
A es linealmente dependiente. Supongamos que v1 = i=2 αi vi ∈ A. Podemos
28 CAPÍTULO 1. ESPACIOS VECTORIALES

decir que λi = β1 αi + βi ∀i = 2, . . . , n. Veamos que


n
X
hA − v1 i = { λ i vi }
i=2
Xn
= { (αi + βi )vi }
i=2
Xn n
X
= { α i vi + β i vi }
i=2 i=2
n
X
= {v1 + β i vi }
i=2
n
X
= { βi vi } = hAi
i=1

Lo que supone una contradicción porque A es un S.M.G . Por tanto, A es lineal-


mente independiente. Ya que A es un sistema de generadores y es linealmente
independiente, es un base.

Teorema 1 - 4 - 7 A es base si y sólo si es una familia libre maximal

Dem.
Al igual que en el teorema anterior es necesario demostrar dos cosas. En primer
lugar, supongamos que A es una base, entonces es P linealmente independiente.
n
Por ser base, para todo v en V , se tiene que v = i=1 αi vi . Por tanto ∀v ∈
V − A, A ∪ v es linealmente dependiente por el corolario 1.1. Ahora debemos
demostrar que si A es una familia libre maximal, entonces es una base. Lo que
se reduce a mostrar que A es un sistema de generadores. Como A es familia
Pn para todo v en V − A A ∪ {v} es linealmente dependiente. De
libre maximal,
donde, v = i=1 λi vi . Por tanto,

V = hAi

Teniendo que A es una base.

Corolario 1 - 4 - 2 A es base sii es F.L.M sii es S.M.G.

Teorema 1 - 4 - 8 Sea A ⊆ V con A = {wi . . . , wn } L.Ind, y B = {vi . . . , vn }


una base caulqiera de V . Entonces

n≤m
1.4. BASES 29

Definición 1 - 4 - 5 Si un espacio vectorial V tiene un base con n elementos,


diremos que la Dimensión del espacio es n. Esto lo notaremos como
dim V = n
Teorema 1 - 4 - 9 Si dim V = n y B = {w1 , . . . , wm } es L.Ind., entonces
existen n − m vectores en V wm+1 , wm+2 , . . . , wn tales que
B ∪ {wm+1 , wm+2 , . . . , wn }
es una base de V
Dem. Supongamos que no es posible que existan, luego si añadimos un vector
w ∈ V diferente de cualquier vector de B, entonces
B1 = B ∪ {w} es L.D.
por lo tanto B seria una F.L.M., lo cual es una contradicción, suponiendo n < m.
De donde
B1 es L.Ind
Definimos w = wm+1 . Ahora, supongamos que el conjunto
Bk = {w1 , w2 , . . . , wm , wm+1 , . . . , wk }
con k < n − m es L.Ind. Demostremos que Bk+1 es tambien L.Ind.
Supongamos que para todo w ∈ V − Bk ,
Bk+1 = Bk ∪ {w} es L.D.
por lo tanto Bk seria una F.L.M., lo cual es una contradicción, suponiendo
k < n − m. De donde
Bk+1 es L.Ind
Definimos luego w = wk+1 . Gracias al PIM, existirán n−m vectores wm+1 , wm+2 , . . . , wn
en V tales que
B ∪ {wm+1 , wm+2 , . . . , wn } es L.Ind
Y por lo tanto una base de V
¥

1.4.4 Ejercicios
1. Genera el conjunto {x3 + 2x2 + 3x, 1 + 2x + 3x2 , 3x + 4x3 } a R3 [x]?
2. Trate de extender el Ejemplo 1-4-6 para crear infinitas bases del conjunto
de las matrices em la m-dimensión M n1 ×n2 ×...×nm .
3. Suponga que el conjunto {x1 , x2 , x3 } es una base del espacio V . Demuestre
que el conjunto {x1 + x2 + x3 , x2 + x3 , x3 } es una base de V. Podrı́a
generalizar este resultado para un espacio n-dimensional
4. De dos ejemplos de parejas conjuntos A, B en las cuales podriamos hallar
bases para el conjunto F(A, B).
5. De un ejemplo de un espacio infinito-dimensional.
30 CAPÍTULO 1. ESPACIOS VECTORIALES

1.5 Subespacios Vectoriales


Sea V un k−espacio vectorial y S ⊆ V

Definición 1 - 5 - 1 S es un subespacio vectorial de V si (S, +, ·) es un espacio


vectorial.

Teorema 1 - 5 - 1 S es un subespacio vectoial de V ⇐⇒ :

1. ∀u,v ∈ S se tiene que u + v ∈ S

2. ∀λ ∈ K ∧ ∀u ∈ S se tiene que λu ∈ S

Dem:
⇒) Se tiene por definición de subespacio.
⇐) Falta probar modulativa e invertiva puesto:

1. Las propiedades asociativa y conmutativa para la suma se tienen por ser


invariantes

2. Sea u ∈ S como 0 ∈ K por la segunda condición del teorema 0 · u ∈ S


pero 0 · u = 0 es decir 0 ∈ S.

3. Como −1 ∈ K entonces (−1) · u ∈ S de donde obtenemos que −u ∈ S.

4. las propiedades del producto por escalar se tienen porque se cumplen en


V

Los subespacios vectoriales los notaremos de la siguiente manera S ¹ V en


donde S es subespacio de V .

Corolario 1 - 5 - 1 S ¹ V ⇐⇒ ∀λ,µ ∈ K ∧ ∀u,v ∈ S se tiene que


λu + µv ∈ S

Dem:
⇒) Se tiene por definición de subespacio.
⇐)

1. Sean λ = µ = 1 y u, v ∈ S tenemos que u + v = λu + µv ∈ S

2. Sea µ = 0 entonces λu + 0 = µv + λu ∈ S

bla....
S1 , S2 ¹= {s1 + s2 / s1 ∈ S1 ∧ s2 ∈ S2 }
1.5. SUBESPACIOS VECTORIALES 31

Teorema 1 - 5 - 2 S1 + S2 ¹ V

Dem:
Sean s1 y s∗1 ∈ S1 s2 y s∗2 ∈ S2 tenemos:

λ(s1 + s2 ) + µ(s∗1 + s∗2 ) = λ(s1 + µs∗1 ) µ(s∗1 + s∗2 )


| {z } | {z }
∈S1 ∈S2

Luego λ(s1 + µs∗1 ) + µ(s∗1 + s∗2 ) ∈ (S1 + S2 ), de donde S1 + S2 ¹ V


¥
Pn
Teorema 1 - 5 - 3 i=1 Si ¹ V

Dem: Pn
u y v en i=1PSi y λ, µ ∈ K. Existen si y s∗i ∈ Si ∀i = 1, . . . , n tales que
SeanP
n n
u = i=1 si y v = i=1 s∗i .

n
X n
X
λu + µv = λ si + µ s∗i
i=1 i=1
n
X
= λsi + µs∗i
i=1


Pn Si ¹ V entoncesλs
Pero como

Pn i + µsi ∈ Si ∀i = 1, . . . , n.
Luego i=1 λsi + µsi ∈ i=1 Si , lo cual implica que
n
X
λu + µv = Si
i=1
Pn
de donde i=1 Si ¹ V .
¥

Teorema 1 - 5 - 4 hAi ¹ V

Dem:
∗ ∗
Sean u, w ∈ hAi yP
α, β ∈ K. Existen
Pvn1 , v2∗, . . . , vn ∈ A y λ1 , . . . , λn , λ1 , . . . , λn ∈
n
K tales que u = i=1 λi vi y w = i=1 λi vi .
n
µX ¶ n
µX ¶
αu + βw = α λ i vi +β λ∗i vi
i=1 i=1
n
X
= (αλi + βλ∗i )vi
i=1

luego αu + βw ∈ hAi de donde hAi ¹ V .


32 CAPÍTULO 1. ESPACIOS VECTORIALES

¥
T
Teorema 1 - 5 - 5 Si Si ¹ V ∀i ∈ I entonces i∈I Si ¹ V

Dem: T
Sean u, v ∈ i∈I Si y λ, µ ∈ K.
Entonces u y v estan en Si ∀i∈I , pero como Si ¹ V ∀i∈I ,
entonces λu + µv ∈ Si ∀i∈I , de donde
\
λu + µv ∈ Si
i∈I

esto es Si ¹ V .
Note que si tenemos y1 = mx y y2 = nx en donde n 6= m 6= 0, los dos
subespacios en R2 (prueba para el lector), al realizar la diferencia entre ellos el
resultado no es subespacio, puesto que y1 ¹ R2 y y2 ¹ R2 pero tenemos que
y1 − y2 = {v ∈ y1 / v ∈ / y2 } de manera que el único vector que pertenece a la
intersección es el cero, de manera que no puede ser un subespacio puesto que le
harı́a falta dicho vector. De manera similar dejamos al lector hacer el análisis
de cual es el motivo de que la unión de subespacios no puede ser subespacio.

Teorema 1 - 5 - 6 Si S1 y S1 son subespacios de V , entonces

dim(S1 + S2 ) = dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 )

.
Dem.

Sea A = {v1 , v2 , . . . , vn } una base de S1 ∩ S1 , luego existen w1 , w2 , . . . , wm


en S1 tales que

B = A ∪ {w1 , w2 , . . . , wm } es una base de V

y existen u1 , u2 , . . . , us en S2 tales que

C = A ∪ {u1 , u2 , . . . , us } es una base de V

Luego, sea D = A ∪ {w1 , w2 , . . . , wm } ∪ {u1 , u2 , . . . , us }, demostraremos que D


es una base de S1 + S2 .

• (hDi = S1 + S2 )

Sean k1 ∈ S1 y k2 ∈ S2 , por lo tanto existen escalares λi ,ηj ,βi y δp


con i = 1, . . . , n, j = 1, . . . , m, p = 1, . . . , s, tales que
n
X m
X
k1 = λ i vi + η i wi
i=1 i=1
1.5. SUBESPACIOS VECTORIALES 33

n
X s
X
k2 = β i vi + δi u i
i=1 i=1

n
X m
X s
X
k1 + k 2 = (λi + βi )vi + η i wi + δi u i
i=1 i=1 i=1

Y por lo tanto hDi = S1 + S2

• (D es l.indep.)
Supongamos que D es l.dep., por lo tanto existen escalares λ1 , λ2 , . . . , λn , β1 , β2 , . . . , βm ,
µ1 , µ2 , . . . , µs , no todos nulos tales que
n
X m
X s
X
λ i vi + βi wi + µi u i = 0
i=1 i=1 i=1

De donde
n
X m
X s
X
s= λ i vi + βi wi = − µi u i
i=1 i=1 i=1

s ∈ S1 s ∈ S2
Por lo tanto s ∈ S1 ∩ S2 , y puesto que A es base de S1 ∩ S2 , existen
escalares α1 , α2 , . . . , αn , tales que
n
X n
X m
X s
X
s= α i vi = λ i vi + βi wi = − µi u i
i=1 i=1 i=1 i=1

Y por lo tanto
n
X s
X
α i vi + µi u i = 0
i=1 i=1

Con escalares no todos nulos; →← pues C es l.ind.

Por lo tanto D es l.indep. y además es una base de S1 + S2 , luego

dim(D) = a + m + s = (a + m) + (a + s) − a = dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 )

Ejemplo 1 - 5 - 1 Sea S ∩ T = {0} si dim(S + T ) = dim S + dim T entonces


tenemos S ⊕ T
34 CAPÍTULO 1. ESPACIOS VECTORIALES

Dem:
Tomamos B = {v1 , . . . , vn } Linealmente indepediente en donde dim V = n,
Además m ≤ n.
Si m < n existen vm+1 , . . . , vn vectores en V tales que D = {B ∪ {vm+1 , . . . , vn }
en donde D es una base de V .
Sea S1 = hBi y S2 = h{vm+1 , . . . , vn }i de manera que

S1 ∩ S2 = {0}S1 + S2 = V

de manera que obtenemos que S1 ⊕ S2 = v.

Claramente observamos que siempre que se tenga un conjunto L.Ind sumán-


dole un subespacio de V esta nueva suma (Directa) genera el espacio V .

Definición 1 - 5 - 2 El espacio S2 es un espacio suplementario,

Después de que el estudiante tenga una formación en teorı́a de conjuntos por


medio del Axioma de Elección podremos probar que Todo espacio vectorial
tiene una Base.

Ejemplo 1 - 5 - 2 Tomemos v1 6= 0, dim V = n y v1 ∈ V

Sea {v1 , v2 } donde v2 ∈


/ h{v1 }i. Llamemos D1 = h{v1 , v2 i de maera que deno-
tamos S2 = h{v2 }i. Por lo tanto D1 = S1 ⊕ S2 .
Si D1 6= V, ∃v3 ∈ V tal que v3 ∈ / D.
Tenemos que D2 = {v1 , v2 , v3 } son linealmente independientesde donde D1 ⊕
h{v3 }i. Entonces
| {z }
S3
D2 = S 1 ⊕ S 2 ⊕ S 3
De manera que podemos generalizar este resultado de la siguiente manera (de-
jando como un bonito ejercicio la prueba de dicho resultado)
n
X
Dim V = dim Sj
J=1

Ejemplo 1 - 5 - 3 Sean S1 , T, T ∗ tres subespacios de V la dimensión de V es


finita entonces se satisface:

1. S1 ∩ T = S ∩ T ∗

2. S + T = S + T ∗

3. T ⊆ T ∗
1.5. SUBESPACIOS VECTORIALES 35

Dem:

dim(S + T ) = dim(S + T ∗ )
dim S + dim + T − dim(S ∩ T ) = dim S + dim + T ∗ − dim(S ∩ T ∗ ) (Simplificando)
dim T = dim T ∗

ComoT ⊆ T ∗ y el espacio V es finito dimensional ambas serı́an bases del mismoV


Por lo tanto T = T ∗ .

Por lo tanto para la segunda parte S ⊕ T = S ⊕ T ∗ Sin que T = T ∗ entonces


serı́a el caso que hemos visto de las rectas. La tercera parte ya es evidente por
lo visto en la primera.

Ejemplo 1 - 5 - 4 Si V = w1 ⊕w2 demostraremos que se tiene w = (w ∩w1 )⊕


(w ∩ w2 ) si partimos de

1. w ¹ V

2. w1 ¹ w

Dem:

{0} = w 1 ∩ w2 (1)
= w1 ∩ (w ∩ w2 )
= (w1 ∩ w2 ) ∩ w
= {0} ∩ w
= {0}

w ⊇ w ∩ w1 (2)
= w1 ∩ (w ∩ w2 )
= (w ∩ w2 ) + (w ∩ w1 ) (I)

Si w ∈ W entonces w ∈ V pero como V = w1 ⊕ w2 . etonces ∃w1 ∈


W1 ∧ ∃w2 ∈ W2 tales que w = w1 + w2 .

Entonces w1 ∈ (w1 ∩ w) porque W1 ⊆ W . Además w2 = w − W1 ∈ W de


donde podemos deducir que w2 ∈ (W ∩ W2 ), de manera que w ∈ (w ∩ w2 ) +
(w ∩ w1 ) es decir W ⊆ (w ∩ w2 ) + (w ∩ w1 )(II); de manera que por (I), (II)
se tiene que W = (W ∩ W1 ) + (W ∩ W2 ) podemos afirmar hora que:

(W ∩ W1 ) ⊕ (W ∩ W2 ) = W
36 CAPÍTULO 1. ESPACIOS VECTORIALES

1.5.1 Ejercicios
1. Sea W un subespacio de un K-espacio vectorial V . Si v ∈ V , demuestre
que el conjunto {v} + W es un subespacio de V sii v ∈ W . A este conjunto
se le suele llamar como Co-conjunto de W que contiene a v y se nota
simplemente como v + W .

2. (Continuación) Demuestre que

v1 + W = v2 + W ⇐⇒ v1 − v2 ∈ W

3. (Continuación) Sea S = {v + W | v ∈ V }, definamos las operaciones

⊕: S×S −→ S ¯: K ×S −→ S
(v1 + W, v2 + W ) 7−→ (v1 + v2 ) + W (α, v + W ) 7−→ αv + W

Demuestre que la tripla (S, ⊕, ¯) es un K-espacio vectorial. Este espacio


se denomina como Espacio Cociente de V módulo W y se expresa
mediante V /W .

4. (Continuación) Encuentre una base para el espacio V /W .


Capı́tulo 2

Transformaciones Lineales

En este capı́tulo daremos definición a un concepto que venı́a evolucionando


desde desde el siglo XVIII con los trabajos de Cauchy, Weierstrass y Kronecker,
entre otros, y que adoptarı́a su forma actual en 1918 de la mano del matemático
alemán Hermann Weyl (1885-1955), este concepto es el de Transformación Lin-
eal.

2.1 Transformaciones Lineales


Sean U y V espacios vectoriales sobre el mismo cuerpo K.
Definición 2 - 1 - 1 Una Transformación Lineal σ de U hacia V es una
aplicación uniforme de U en V que asocia a cada elemento a ∈ U , un elemento
único σ(a) ∈ V tal que, para todos a, b ∈ U y todos α, β ∈ K, se tiene

σ(αa + βb) = ασ(a) + βσ(b)

Definición 2 - 1 - 2 Llamaremos

L(U, V ) = {σ|σ es una Transformación Lineal de U a V }

Teorema 2 - 1 - 1 Sea σ ∈ L(U, V ), entonces


1. σ(0) = 0
2. σ(u − v) = σ(u) − σ(v)
Pn Pn
3. σ( i=1 λi ui ) = i=1 λi σ(ui )
Dem.

37
38 CAPÍTULO 2. TRANSFORMACIONES LINEALES

1.

σ(0) = σ(0 + 0)
= σ(0) + σ(0)
0 = σ(0)

2. Para demostrar (2), mostraremos lo siguiente

0 = σ(0)
= σ(v + (−v))
= σ(v) + σ(−v)
−σ(v) = σ(−v)

Por lo tanto

σ(u − v) = σ(u + (−v))


= σ(u) + σ(−v)
= σ(u) − σ(v)

3. Esta demostración la haremos por inducción.

• Para n = 2 claramente se tiene (por definición de T.L)


• Supongamos que
n−1
X n−1
X
σ( λi ui ) = λi σ(ui )
i=1 i=1

• Tenemos que
n
X n−1
X
σ( λi ui ) = σ(λn un + λi ui )
i=1 i=1
n−1
X
= λn σ(un ) + λi σ(ui )
i=1
n
X
= λi σ(ui )
i=1

Y por principio de inducción matemática, se tiene para todo n > 1


con n ∈ N.

¥
2.1. TRANSFORMACIONES LINEALES 39

Note que de (3) del teorema anterior podemos concluir lo siguiente. Sea
B = {u1 , u2 , . . . , un } una base del espacio vectorial U , y σ ∈ L(U, V ); si u ∈ U ,
existen escalares λ1 , λ2 , . . . , λn tales que
n
X
u= λi ui
i=1
n
X
σ(u) = λi σ(ui )
i=1
Lo cual nos indica que bastarı́a con conocer las imagenes de la base del espacio
de salida para conocer la transformación lineal. Esto nos podrá ayudar a crear
una base para el espacio vectorial L(U, V ), la cual veremos más adelante (la
demostración de que L(U, V ) es un espacio vectorial se deja al lector).
Ahora nos dispondremos a dar ejemplos para familiarizar al lector con el con-
cepto de Transformación Lineal.
Ejemplo 2 - 1 - 1 Homotecia vectorial de razón α. Sea α ∈ K, definimos
σ: U −→ U
u 7→ σ(u) = αu
Vemos claramente que σ(λ1 u1 +λ2 u2 ) = α(λ1 u1 +λ2 u2 ) = λ1 (αu1 )+λ2 (αu2 ) =
λ1 (σ(u1 )) + λ2 (σ(u2 ))
Ejemplo 2 - 1 - 2 Inyeccion canónica de K n en K m con n < m. Definimos
σ: Kn −→ Km
(x1 , x2 , . . . , xn ) 7→ σ((x1 , x2 , . . . , xn )) = (x1 , x2 , . . . , xn , 0, . . . , 0)
Sean u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) ∈ K n , y α, β ∈ K, entonces
σ(αu + βv) = (αx1 + βy1 , . . . , αxn + βyn , 0, . . . , 0)
= (αx1 , αx2 , . . . , αxn , 0, . . . , 0) + (βy1 , βy2 , . . . , βyn , 0, . . . , 0)
= α(x1 , x2 , . . . , xn , 0, . . . , 0) + β(y1 , y2 , . . . , yn , 0, . . . , 0)
= α(σ(u)) + β(σ(v))
Ejemplo 2 - 1 - 3 Sea n > m, entonces
σ: Kn −→ Km
(x1 , x2 , . . . , xn ) 7→ σ((x1 , x2 , . . . , xn )) = (x1 , x2 , . . . , xm )
Es una T.L.
Sean u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) ∈ K n , y α, β ∈ K, entonces
σ(αu + βv) = (αx1 + βy1 , . . . , αxm + βym )
= (αx1 , αx2 , . . . , αxm ) + (βy1 , βy2 , . . . , βym )
= α(x1 , x2 , . . . , xm ) + β(y1 , y2 , . . . , ym )
= α(σ(u)) + β(σ(v))
40 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Ejemplo 2 - 1 - 4 Sea A = (aij )n×m en K n×m , demuestre que

σA : Km −→ Kn
v 7→ σA (v) = A · v
es una T.L.

Sean u = (x1 , x2 , . . . , xm ), v = (y1 , y2 , . . . , ym ) ∈ K m , y α, β ∈ K, entonces


σ(αu + βv) = A · (αu + βv)
= A · (αx1 + βy1 , . . . , αxm + βym )
Xm
= (bi )n×1 con bi = aij (αxj + βyj )
i=1

Pero
m
X
bi = aij (αxj + βyj )
i=1
Xm m
X
= α aij xj + β aij yj
i=1 i=1
= αci + βdi
De donde
σ(αu + βv) = (αci + βdi )n×1
= (αci )n×1 + (βdi )n×1
= α(ci )n×1 + β(di )n×1
= α(σ(u)) + β(σ(v))
Teorema 2 - 1 - 2 Sean U y V K-espacios vectoriales de dimensión n y m,
respectivamente. Sean A = {a1 , a2 , . . . , an } una base de U y B = {b1 , b2 , . . . , bn }
una base de V . Sea σij la transformación lineal de U hacia V tal que
½
0 si k 6= j
σij (ak )
bi si k = j
Entonces el conjunto {σij |i = 1, 2, . . . , m; j = 1, 2, . . . , n}, es una base del espa-
cio L(U, V ).
Dem.
Del Teorema 2-1-1 habı́amos concluido que dada una transformación lineal τ ∈
L(U, V ), ésta se podia definir conociendo una base de U y las imagenes según τ
de los componentes de tal base. Es claro entonces, que si B es una base de V ,
τ estará definida por los βik escalares, en donde para cada ak ∈ A
m
X
τ (ak ) = βik bi
i=1
2.1. TRANSFORMACIONES LINEALES 41

Definamos
m X
X n

τ (u) = λij σij (u)
i=1 j=1

donde los λij son escalares (esta es una combinación lineal de los σij ), podemos
ver claramente que

X n
m X m
X
τ ∗ (ak ) = λij σij (ak ) = λik bi
i=1 j=1 i=1

Si hacemos
λik = βik ∀i=1,2,...,m ∀k=1,2,...,n
Tenemos que para todo ak ∈ A
m X
X n
τ (ak ) = βij σij (ak )
i=1 j=1

Esto implica h{σij |i = 1, 2, . . . , m; j = 1, 2, . . . , n}i = L(U, V ), es trivial ver que


este conjunto es linealmente independiente (si el estudiante no lo ve, entonces
demuestrelo utilizando a σ = 0 y concluyendo que los escalares λij son todos
cero), por lo tanto {σij |i = 1, 2, . . . , m; j = 1, 2, . . . , n} es una base de L(U, V ).

Definición 2 - 1 - 3 Sea σ ∈ L(U, V ), definimos Imagen de σ (Im (σ)) y


Núcleo o Kernel de σ (N( σ)) como sigue

Im(σ) = {v ∈ V |∃u∈U con σ(u) = v}

N (σ) = {u ∈ U |σ(u) = 0}

Estas dos definiciones son de importante cuidado, el estudiante debe tener claro
que no siempre el Kernel de una transformación es 0. Por ejemplo en la transfor-
mación lineal σ ∈ L(R2 , R) tal que σ(x, y) = x − y, N (σ) = {(x, y) ∈ R2 |x = y}.
Observe, que si nos hubieran pedido hallar todas las soluciones reales al sistema

2x + y = 0
x − 2y = 0
3x − y = 0

Es lo mismo que hallar N (σ) con σ ∈ L(R2 , R3 ) tal que σ(x, y) = (2x + y, x −
2y, 3x − y) y viceversa, osea, hallar la solución al sistema es hallar el kernel de
la transformación ‘asociada al sistema’ (si es que existe esta asociación, esto lo
discutiremos en la siguiente sección).
42 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Teorema 2 - 1 - 3
Im(σ) ¹ V

Dem.
Sean v1 , v2 ∈ Im(σ) y λ1 , λ2 ∈ K, por lo tanto, existen u1 , u2 ∈ U tales que

v1 = σ(u1 ) y v2 = σ(u2 )

luego

λ 1 v1 + λ 2 v2 = λ1 σ(u1 ) + λ2 σ(u2 )
= σ(λ1 u1 ) + σ(λ2 u2 )
= σ(λ1 u1 + λ2 u2 )

Por lo tanto λ1 v1 + λ2 v2 ∈ Im(σ), esto demuestra que Im(σ) ¹ V .

Teorema 2 - 1 - 4
N (σ) ¹ U

Dem.
Sean u1 yu2 en N (σ), y λ1 , λ2 en K, luego

σ(λ1 u1 + λ2 u2 ) = σ(λ1 u1 ) + σ(λ2 u2 )


= λ1 σ(u1 ) + λ2 σ(u2 )
= 0

Luego λ1 u1 + λ2 u2 ∈ N (σ), lo cual demuestra que N (σ) ¹ U .

Definición 2 - 1 - 4 Sea v0 ∈ Im(σ), llamamos Imagen Inversa de v0 a

σ −1 (v0 ) = {u ∈ U |σ(u) = v0 }

Teorema 2 - 1 - 5 Sea σ(u0 ) = v0 , entonces,

σ −1 (v0 ) = {u0 + u|u ∈ N (σ)}

Dem.
Llamemos N (σ) + {u0 } = {u0 + u|u ∈ N (σ)},
⇒)
2.1. TRANSFORMACIONES LINEALES 43

Sea w ∈ N (σ) + {u0 }, entonces, existe u ∈ N (σ) tal que w = u + u0 , luego


σ(w) = v0 , esto implica w ∈ σ −1 (v0 ), y por lo tanto
N (σ) + {u0 } ⊆ σ −1 (v0 )

⇐)
Sea w ∈ σ −1 (v0 ), definamos u = w − u0 , de donde
σ(u) = σ(w − u0 )
= v0 − v0
= 0
por lo tanto, u ∈ N (σ), y u0 + u = u0 + w − u0 = w ∈ N (σ) + {u0 }, esto implica
σ −1 (v0 ) ⊆ N (σ) + {u0 }
De donde concluimos
σ −1 (v0 ) = N (σ) + {u0 }
¥
Ahora, el lector podrá fácilmente (teoricamente hablando) resolver las ecua-
ciones del estilo
2x + y = 35
x − 2y = 1258
3x − y = 1293
hallando una solución particular, y teniendo en cuenta el resultado anterior.
Teorema 2 - 1 - 6 Sea σ ∈ L(U, V ), luego
σ es uno a uno sii N (σ) = {0}
Dem.
⇒)
Sea σ uno a uno, luego si u1 , u2 ∈ U , entonces
σ(u1 ) = σ(u1 ) =⇒ u1 = u2
Luego, sea u ∈ N (σ), por lo tanto
σ(u) = 0 = σ(0) =⇒ u = 0
Esto implica N (σ) = {0}.
⇐)
Sea N (σ) = {0}, por lo tanto, si u1 , u2 ∈ U y ademas
σ(u1 ) = σ(u2 )
σ(u1 − u2 ) = 0
u1 − u 2 = 0
u1 = u2
44 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Y σ es uno a uno, de donde podemos concluir


σ es uno a uno sii N (σ) = {0} ¥

2.1.1 Teorema Fundamental del Algebra Lineal


Teorema 2 - 1 - 7 Teorema Fundamental del Algebra Lineal (T.F.A.L).
Sea σ ∈ L(U, V ), si dim U < ∞, entonces
dim N (σ) + dim Im(σ) = dim U
Dem. Sea A = {u1 , u2 , . . . , us } una base de N (σ), puesto que N (σ) ⊆ U ,
existen vectores w1 , w2 , . . . , wp tales que
B = A ∪ {w1 , w2 , . . . , wp } es una base de U
Demostraremos que el conjunto D = {σ(w1 ), σ(w2 ), . . . , σ(wp )} es una base de
Im(σ).
1. Sea v ∈ Im(σ), por lo tanto, existe un u ∈ U , y escalares α1 , α2 , . . . , αs , β1 , β2 , . . . , βp
tales que
v = σ(u)
s
X p
X
= σ( αi ui + βj wj )
i=1 j=1
s
X p
X
= σ( αi ui ) + σ( βj wj )
i=1 j=1
p
X
= βj σ(wj )
j=1

esto es, hDi = Im(σ).


2. Sean β1 , β2 , . . . , βp escalares tales que existen α1 , α2 , . . . , αs escalares, con
p
X
0 = βj σ(wj )
j=1
p
X
= σ( βj wj )
j=1
s
X p
X p
X
αi ui = βj wj (pues βj wj ∈ N (σ) )
i=1 j=1 j=1
s
X p
X
0 = (−αi )ui + βj wj
i=1 j=1
2.1. TRANSFORMACIONES LINEALES 45

De donde concluimos βj = 0 ∀j=1,...,p pues B es base de U , y ademas


concluimos que D es linealmene independiente.
De 1) y 2) concluimos que D es una base de Im(σ), dim Im(σ) = p y

dim N (σ) + dim Im(σ) = dim U

Teorema 2 - 1 - 8 Sean σ ∈ L(U, V ) y τ ∈ L(V, W ), entonces

τ ◦ σ ∈ L(U, W )

Dem.
* Denotaremos τ ◦ σ simplemente como τ σ
Sean u1 , u2 ∈ U y λ1 , λ2 ∈ K, luego

τ σ(λ1 u1 + λ2 u2 ) = τ (λ1 σ(u1 ) + λ2 σ(u2 ))


= λ1 τ σ(u1 ) + λ2 τ σ(u2 )

Esto es
τ σ ∈ L(U, W )
¥

Teorema 2 - 1 - 9 Sean σ ∈ L(U, V ) y τ ∈ L(V, W ), entonces

ρ(σ) = ρ(τ ◦ σ) + dim(Im(σ) ∩ N (τ ))

Dem.
Definimos
τ0 : Im(σ) −→ W
v 7→ τ 0 (v) = τ (v)

Luego τ 0 ∈ L(Im(σ), W ), de acuerdo con el T.F.A.L

dim(Im(σ)) = dim(N (τ 0 )) + dim(Im(τ 0 ))

ρ(σ) = dim(N (τ 0 )) + dim(Im(τ 0 ))

Pero

N (τ 0 ) = {v ∈ Im(σ) | τ 0 (v) = 0}
= {v ∈ Im(σ) | τ (v) = 0}
= Im(σ) ∩ N (τ )
46 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Además

Im(τ 0 ) = {τ (v) | v ∈ Im(σ)}


= {τ (σ(u)) | u ∈ U }
= {τ σ(u) | u ∈ U }
= Im(τ σ)

Por lo tanto
ρ(σ) = ρ(τ σ) + dim(Im(σ) ∩ N (τ ))
¥

Corolario 2 - 1 - 1

ρ(τ σ) = dim(Im(σ) + N (τ )) − ϑ(τ )

Dem.
Tenemos que

dim(Im(σ) + N (τ )) = dim(Im(σ)) + dim(N (τ )) − dim(Im(σ) ∩ N (τ ))

por Teorema 3 - 8

dim(Im(σ) + N (τ )) = ρ(τ σ) + dim(N (τ ))

De donde se concluye

ρ(τ σ) = dim(Im(σ) + N (τ )) − ϑ(τ )

Corolario 2 - 1 - 2 Si N (τ ) ⊆ Im(σ) entonces

ρ(σ) = ρ(τ σ) + ϑτ

Dem.
Como N (τ ) ⊆ Im(σ)
N (τ ) ∩ Im(σ) = N (τ )
Y por Teorema 3 - 8
ρ(σ) = ρ(τ σ) + dim(N (τ ))
ρ(σ) = ρ(τ σ) + ϑ(τ )
¥
2.1. TRANSFORMACIONES LINEALES 47

Corolario 2 - 1 - 3
ρ(τ σ) ≤ min(ρ(τ ), ρ(σ))

Dem.
Es claro que si
ρ(σ) = ρ(τ σ) + dim(Im(σ) ∩ N (τ ))
Entonces
ρ(τ σ) ≤ ρ(σ)
Ahora, tenemos que

Im(σ) ⊆ V
τ (Im(σ)) ⊆ τ (V )
τ (σ(U )) ⊆ τ (V )
dim(τ σ(U )) ≤ dim(τ (V ))
dim(Im(τ σ)) ≤ dim(Im(τ ))
ρ(τ σ) ≤ ρ(τ )

En conclusión,
ρ(τ σ) ≤ min(ρ(τ ), ρ(σ))

Corolario 2 - 1 - 4 Si σ es un epimorfismo, entonces

ρ(τ σ) = ρ(τ )

Dem.

σ(U ) = V
τ σ(U ) = τ (V )
Imτ σ = Imτ
ρ(τ σ) = ρ(τ )

Corolario 2 - 1 - 5 Si τ en uno a uno, entonces

ρ(τ σ) = ρ(σ)
48 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Dem.
Puesto que τ es uno a uno
N (τ ) = 0

Pero

ρ(σ) = ρ(τ σ) + dim(Im(σ) ∩ N (τ ))


= ρ(τ σ) + dim({0})
= ρ(τ σ)

Corolario 2 - 1 - 6 No se cambia el rango de una transformación lineal si se


multiplica por un isomorfismo por cuaquiera de los lados.

Dem.
Consecuencia inmediata de los Corolarios 3 - 4 y 3 - 5.

Teorema 2 - 1 - 10 Sea σ ∈ L(U, V ) y τ ∈ L(V, W ), entonces

τ es uno a uno, sii, τ σ ⇒ σ = 0.

Dem.
⇒) Supongamos τ σ = 0, pero σ 6= 0, para alguna σ ∈ L(U, V ). Entonces, existe
u ∈ U tal que σ(u) 6= 0, luego

(τ σ)(u) = 0
= τ (σ(u)) 6= 0
−→←−

Por lo tanto σ = 0

⇐) Supongamos que τ σ = 0 ⇒ σ = 0, pero τ no es uno a uno, luego existe


v0 ∈ V , con v 6= 0 tal que
τ (v0 ) = 0

Sea A = {u1 , u2 , . . . , un } una base de U , y sea

χ: U −→ V
u 7→ χ(u)
2.1. TRANSFORMACIONES LINEALES 49

Pn Pn
Tal que si u = i=1 λi ui , entonces χ(u) = i=1 λi v0
χ ∈ L(U, V )*, pero, χ 6= 0, pues χ(u1 ) = v0 6= 0, y

(τ χ)(u) = τ (χ(u))
Xn
= τ( λ i v0 )
i=1
n
X
= λi τ (v0 )
i=1
Xn
= λi · 0
i=1
= 0

Es decir τ χ = 0, lo cual contradice la hipotesis. Por lo tanto τ es uno a uno,


quedando demostrado el teorema.
¥

Teorema 2 - 1 - 11 Sean σ ∈ L(U, V ) y τ ∈ L(V, W ), entonces


σ es epimorfismo, sii, τ σ = 0 ⇒ τ = 0

Dem.
⇒) Supongamos que exista τ ∈ L(V, W ) tal que τ σ = 0 pero τ 6= 0. Luego
existe v ∈ V tal que τ (v) 6= 0. Como σ es sobreyectiva, existe u ∈ U tal que
σ(u) = v, luego

(τ σ)(u) = τ (σ(u))
= τ (v) 6= 0
→←

Luego τ = 0

⇐) Supongamos que τ σ = 0 ⇒ τ = 0, pero que σ no es sobreyectiva, esto


es
Im(σ) ( V
Sea B = {v1 , v2 , . . . , vs } una base de Im(σ), existen vectores vs+1 , vs+2 , . . . , vn
en V , tales que
B ∪ {vs+1 , vs+2 , . . . , vn } es base de V
Sea w0 ∈ W , w0 6= 0, si v ∈ V , existen λ1 , λ2 , . . . , λn escalares tales que
s
X n
X
v= λ i vi + λ i vi
i=1 i=s+1
50 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Sea
τ: V −→ W Pn
v 7−→ τ (v) = i=s+1 λi w0
Es fácil ver que τ ∈ L(V, W ), claramente τ 6= 0 pues τ (vs+1 ) = w0 6= 0.
Sea u ∈ U , entonces σ(u) ∈ Im(σ), existen escalares λ1 , λ2 , . . . , λs tales que
s
X
σ(u) = λ i vi
i=1

τ (σ(u)) = 0
→←
Por lo tanto σ es un epimorfismo.

Corolario 2 - 1 - 7 Si σ1 y σ2 están en L(U, V ) y τ ∈ L(V, W ), entonces,

τ es monomorfismo, sii, τ σ1 = τ σ2 ⇒ σ1 = σ2

Dem: Sea σ ∗ = σ1 − σ2 ∈ L(U, V )

τ es monomorfismo ↔ τ σ ∗ = 0 ⇒ σ ∗ = 0
↔ τ (σ1 − σ2 ) = 0 ⇒ σ1 − σ2 = 0
↔ τ σ1 − τ σ 2 = 0 ⇒ σ 1 − σ 2 = 0
↔ τ σ1 = τ σ 2 ⇒ σ1 = σ 2

Corolario 2 - 1 - 8 Si σ ∈ L(U, V ) y τ1 y τ2 están en L(V, W ), entonces,

σ es epimorfismo, sii, τ1 σ = τ2 σ ⇒ τ1 = τ2

Sea τ ∗ = τ1 − τ2 ,

σes epimorfismo ↔ τ ∗ σ = 0 ⇒ τ ∗ = 0
↔ (τ1 − τ2 )σ = 0 ⇒ τ1 − τ2 = 0
↔ τ1 σ − τ 2 σ = 0 ⇒ τ 1 − τ 2 = 0
↔ τ1 σ = τ 2 σ ⇒ τ 1 = τ 2

¥
2.1. TRANSFORMACIONES LINEALES 51

Teorema 2 - 1 - 12 Sean U, V espacios vectoriales, A = {u1 , u2 , . . . , un } una


base de U , y B = {v1 , v2 , . . . , vn } ⊆ V . Existe una única σ ∈ L(U, V ) tal
∀i=1,2,...,n σ(ui ) = vi
Dem. Pn
Sea u ∈ U , luego existen λ1 , λ2 , . . . , λn ∈ K escalares tales que u = i=1 λi ui .
Definimos
σ : U −→ V Pn
u 7−→ σ(u) = i=1 λi vi
1. σ es una función
Sea u = u∗ ∈ U , de donde existen escalares λ1 , λ2 , . . . , λn , α1 , α2 , . . . , αn ∈
K, tales que
n
X n
X
u= λi ui = αi ui = u ∗
i=1 i=1
n
X n
X
λi ui − αi ui = 0
i=1 i=1
n
X
(λi − αi )ui = 0
i=1
λi = αi ∀i=1,2...,n (Pues A es base de U )
Por lo tanto
σ(u) = σ(u∗ )
Y σ es una función de U en V .
2. σ ∈ L(U, V )
0
Sean u, u ∈ U , β,P
χ ∈ K, existen escalares
Pn λ 1 , λ2 , . . . , λ n , α1 , α2 , . . . , α n ∈
n 0
K, tales que u = i=1 λi ui y u = i=1 αi ui . Tenemos que
n
X
0
σ(βu + χu ) = (βλi + χαi )vi
i=1
Xn n
X
= β λ i vi + χ α i vi
i=1 i=1
0
= βσ(u) + χσ(u )
Luego σ ∈ L(U, V ).
3. Veamos que para todo i = 1, 2, . . . , n
n
X
ui = δij uj
j=1
Xn
σ(ui ) = δij vj
j=1
= vi
52 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Luego σ cumple con la condición dada.

4. σ es única
Supongamos que exista τ ∈ L(U, V ) tal que ∀i=1,2,...,n τ (ui ) = vi . Sea
u ∈ U , luego existen escalares λ1 , λ2 , . . . , λn ∈ K tales que.
n
X
τ (u) = τ( λi ui )
i=1
n
X
= λi τ (ui )
i=1
Xn
= λ i vi
i=1
= σ(u)
τ = σ

Corolario 2 - 1 - 9 Si B es L.Ind entonces σ es monomorfismo.

Corolario 2 - 1 - 10 Si B es una base de V , entonces σ es biyectiva

Corolario 2 - 1 - 11 Sea U un K-espacio vectorial, si dim U = n entonces U


es isomorfo a K n . Esto se nota como

U∼
= Kn

2.1.2 Ejercicios
1. Supóngase D denota el operador de derivación

dy d2 y
D(y) = , D2 (y) = D[D(y)] = 2 , etc.
dx dx
Demuestre que D n es una transformación lineal y también que p(D) es
una transformación lineal si p(D), es un polinomio en D con coeficientes
constantes.

2. Demuestre los Corolarios 2-1-9, 2-1-10 y 2-1-11.

3. Sea V un espacio vectorial y sea σ : V → V . Se dice que un subespacio


W de V es σ-invariante, si
σ(W ) ⊆ W
Demuestre que los subespacios {0}, V, N (σ), Im(σ) son todos σ-inveriantes.
2.2. TRANSFORMACIONES LINEALES Y MATRICES 53

4. (Continuación) Sea W un subespacio de V que además es σ-invariante,


definamos
σW : W −→ W
x 7−→ σW (x) = σ(w)
Demuestre que σW es una transformación lineal, luego halle N (σw ) e
Im(σw ).

2.2 Transformaciones Lineales y Matrices


Las matrices surgieron como consecuencia del estudio del estudio de los de-
terminates (materia del siguiente capı́tulo) como una manera mas cómoda de
representarlos. La palabra matriz fué empleada por primera vez por Sylvester.
Actualmente es común encontrar que muchos objetos son representados por
medio de matrices como es el caso de los sistemas de ecuaciones o los grafos. En
esta sección serán introducias a partir de las transformaciones lineales.

Sean σ ∈ L(U, V ), A = {u1 , u2 , . . . , un } y B = {v1 , v2 , . . . , vm } bases de U


y V respetivamente. Existen escalares aij ∈ K ∀i=1,...,m ∀j=1,...,n tales que
m
X
σ(uj ) = aij vi
i=1

definamos  
a1j

 a2j 

σ(uj ) =  .. 
 . 
amj
Y construyamos la siguiente matriz

σ (u1 ) σ (u2 ) · · · σ (un )


 ↓ ↓ ↓ 
a11 a12 · · · a1n

 a21 a22 · · · a2n 
 .. .. .. ..  = MAB (σ)
 . . . . 
am1 am2 · · · amn
Definición 2 - 2 - 1 Llamaremos Matriz Asociada a σ mediante las bases
A y B a la matriz
MAB (σ)
Ejemplo 2 - 2 - 1 Sean
σ: R2 −→ R3
(x, y) 7→ (2x − 3y, x + y, y − x)
A = {(1, 1), (1, −1)} B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}
54 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Observe que

σ(1, 1) = (−1, 2, 0) σ(1, −1) = (5, 0, −2)

De otra parte, al resolver el sistema

α+β+χ = x
α+β = y
α = z

obtenemos que β = y − z y χ = x − y, de donde

σ(1, 1) = 0(1, 1, 1) + 2(1, 1, 0) − 3(1, 0, 0)


σ(1, −1) = −2(1, 1, 1) + 2(1, 1, 0) + 5(1, 0, 0)

Y por lo tanto
 
0 −2
MAB (σ) =  2 2 
−3 5

Ejemplo 2 - 2 - 2 Halle MAA (id) donde id ∈ L(U, U ) es la identica, y A =


{u1 , u2 , . . . , un } es una base de U .

Es claro que, para todo ui ∈ A, se tiene


n
X
id(ui ) = δij uj
j=1

por lo tanto  
1 0 ··· 0
0 1 ··· 0
MAA (id) =  .
 
.. .. .. 
 .. . . .
0 0 0 1

Ejemplo 2 - 2 - 3 Sea σ ∈ L(R4 , R3 ), con

σ(x, y, z, w) = x(2, 5, −1) + y(−3, 1, 4) + z(4, −6, −7) + w(−1, −2, 8)

Sean

A = {e1 , e2 , e3 , e4 }
A0 = {(1, 1, 1, 1), (1, 1, 1, 0), (1, 1, 0, 0), (1, 0, 0, 0)}
B = {e1 , e2 , e3 }
B0 = {(1, 2, 1), (3, −1, 0), (1, 0, 0)}

Halle todas las posibles matrices asociadas a σ por las bases dadas anteriormente
2.2. TRANSFORMACIONES LINEALES Y MATRICES 55

Tenemos que

σ(e1 ) = (2, 5, −1) = −1(1, 2, 1) − 7(3, −1, 0) + 24(1, 0, 0)


σ(e2 ) = (−3, 1, 4) = 4(1, 2, 1) + 7(3, −1, 0) − 28(1, 0, 0)
σ(e3 ) = (4, −6, −7) = −7(1, 2, 1) − 8(3, −1, 0) + 35(1, 0, 0)
σ(e4 ) = (−1, −2, 8) = 8(1, 2, 1) + 18(3, −1, 0) − 63(1, 0, 0)

Por lo tanto
   
2 −3 4 −1 0
−1 4 −7 8
MAB (σ) =  5 1 −6 −2 MAB (σ) = −7 7 −8 18 
−1 4 −7 8 24 −28 35 −63

Ahora

σ(1, 1, 1, 1) = (2, −2, 4) = 4(1, 2, 1) + 10(3, −1, 0) − 32(1, 0, 0)


σ(1, 1, 1, 0) = (3, 0, −4) = −4(1, 2, 1) − 8(3, −1, 0) + 31(1, 0, 0)
σ(1, 1, 0, 0) = (−1, 6, 3) = 3(1, 2, 1) + 0(3, −1, 0) − 4(1, 0, 0)
σ(1, 0, 0, 0) = (2, 5, −1) = −1(1, 2, 1) − 7(3, −1, 0) + 24(1, 0, 0)

Por lo tanto
   
2 3 −1 2 0
4 −4 3 −1
MAB0 (σ) = −2 0 6 5 MAB0 (σ) =  10 −8 0 −7
4 −4 3 −1 −32 31 −4 24

Ejemplo 2 - 2 - 4 Sea σθ ∈ L(R2 , R2 ) tal que

σθ (x, y) = (x cos θ − y sen θ, x sen θ + y cos θ)

Sea A = {e1 , e2 }. Halle MAA (σθ ) , MAA (σθ σα ) , MAA (σθ ) · MAA (σα ).
Tenemos que

σθ (1, 0) = (cos θ, sen θ)


σθ (0, 1) = (−sen θ, cos θ)

Por lo tanto µ ¶
cos θ −sen θ
MAA (σθ ) =
sen θ cos θ
Ahora, sabemos que

σθ σα (1, 0) = (cos (θ + α), sen (θ + α))


σθ σα (0, 1) = (−sen (θ + α), cos (θ + α))

Y por lo tanto
µ ¶
cos (θ + α) −sen (θ + α)
MAA (σθ σα ) =
sen (θ + α) cos (θ + α)
56 CAPÍTULO 2. TRANSFORMACIONES LINEALES

y es facil verificar que


MAA (σθ σα ) = MAA (σθ ) · MAA (σα )
La utilidad de la matriz asociada a una transformación lineal recae en el hecho
de que por medio de ella se puede encontrar la imagen de cualquier elemento del
espacio de partida, o por lo menos su representación como combinación lineal
de los elementos de la base de llegada como mostramos a continuación.

Sea
σ: U −→ V
u 7→ σ(u)
y A = {u1 , . . . , un }, B = {v1 , . . . , vn } bases de U y V repectivamente.
Pn
Si u ∈ U , existen escalares λ1 , . . . , λn en K tales que u = j=1 λj uj , y además
Pm
como σ(uj ) ∈ V , existen escalares a1j , a2j , . . . , amj tales que σ(uj ) = i=1 aij ,
es decir
n
X n
X m
X
σ(u) = λj σ(uj ) = λj aij vi
j=1 j=1 i=1
el ultimo término de estas igualdades puede ser escrito como
 
Xm Xn
 aij λj  vi (3.1)
i=1 j=1

Siendo σ(u) un elemento de V, existen escalares α1 , . . . , αm tales que


m
X
σ(u) = α i vi (3.2)
i=1

por (3.1) y (3.2) se tiene que


m
X
αi = aij vj
i=1

es decir
α1 = a11 λ1 + a12 λ2 + · · · + a1n λn
α2 = a21 λ1 + a22 λ2 + · · · + a2n λn
..
.
α1 = am1 λ1 + am2 λ2 + · · · + amn λn
de donde     
α1 a1 a12 ··· a1n λ1

 α2  
  a21 a22 ··· a2n 
 λ2 

 .. = .. .. .. ..  .. 
 .   . . . .  . 
αm am1 am2 ··· amm λn
2.2. TRANSFORMACIONES LINEALES Y MATRICES 57

Con lo cual hemos mostrado que σ(u) = MAB (σ) · u

Se preguntará el lector que matriz se asocia a una transformación obtenida


de la adición y composición de dos transformaciones lineales. Observe que si
τ, σ ∈ L(U, V ) y A = {u1 , . . . , un } y B = {v1 , . . . , vn } son bases de U y V
repectivamente. Existen escalares a1j , · · · , amj y b1j , · · · , bmj tales que

m
X m
X
σ(uj ) = aij vj y τ (uj ) = bij vj
i=1 i=1

luego
m
X
(σ + τ )(uj ) = (aij + bij )vj
i=1

de donde concluimos que

(σ + τ )(uj ) = σ(uj ) + τ (uj )

es decir, cada elemento cij de MAB (σ + τ ) se obtiene sumando los correspondi-


entes aij y bij de MAB (σ) y MAB (τ ) respectivamente.

Estudiaremos ahora la cuestion de la matriz que representa la tranformación


obtenida de la composición de otras dos. Tomemos σ ∈ L(U, V ) y τ ∈ L(V, W ).
Sean
A = {u1 , . . . , un }, B = {v1 , . . . , vm } y C = {w1 , . . . , ws }

bases de U, V y W respectivamente. Puesto que σ(uj ) ∈ V ∀j=1,...,n existen


escalares a1j , . . . , amj los cuales forman la j-ésima columna de MAB (σ) y son
tales que
m
X
σ(uj ) = aij vi
i=1

tambien existen escalares b1i , . . . , bsi ∀i=1,...,m los cuales forman la i-esima columna
de MBC (τ ) y son tales que
s
X
τ (vi ) = bli wl
l=1

De otra parte, puesto que (τ σ)(uj ) ∈ W , existen escalares c1j , . . . , csj tales que

s
X
(τ σ)(uj ) = clj wl
l=1
58 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Pero ademas (τ σ)(uj )=τ (σ(uj )) que es lo mismo que


Ãm ! m
X X
τ aij vi = aij τ (vi )
i=1 i=1
m
à s
!
X X
= aij bli wl
i=1 l=1
s
Ãm !
X X
= bli aij wl
l=1 i=1
Pm
De donde se concluye que clj = ( i=1 bli aij ). Es decir, elemento de la l-ésima
fila y j-ésima columna de MAC (τ σ) se obtiene multiplicando témino a término los
elemetos de la l-ésima fila de MBC (τ ) y la j-esima columna de MAB (σ) y efectuando
su suma. Hemos definido pues, el producto de matrices como consecuencia de
la comoposoción de matrices. Simbólicamente se expresara como:

MAC (τ σ) = MBC (σ) · MAB (σ)

Segurmente el lector encontrará mas satisfactorio desde el punto de vista matemático


la construcción de las operaciones suma y producto entre matrices aqui dada, que
si simplemente se hubiesen definido (injustificadamente) la manera de ralizarlas.

Ejemplo 2 - 2 - 5 Sea σ ∈ L(R3 , R2 ),τ ∈ L(R2 , R4 ) con

σ(x, y, z) = x(3, 4)+y(−2, 1)+z(1, −1) τ (x, y) = x(2, −5, 3, −1)+y(1, 1, 1, 4)

Sean

A = {(1, 1), (−1, 1)}


B = {(1, 2, 3), (1, 3, 0), (2, 0, 0)}
C = {(1, 1, 1, 1), (1, 1, 1, 0), (1, 1, 0, 0), (1, 0, 0, 0)}

Halle
MAC (τ ) NBA (σ) C
OB (τ σ) P =M ·N

Tenemos que
5 1
σ(1, 2, 3) = (2, 3) = (1, 1) + (−1, 1)
2 2
σ(1, 3, 0) = (−3, 7) = 2(1, 1) + 5(−1, 1)
σ(2, 0, 0) = (6, 8) = 7(1, 1) + 1(−1, 1)

Por lo tanto µ5 ¶
2 7
NBA (σ) = 2
1
2 5 1
2.2. TRANSFORMACIONES LINEALES Y MATRICES 59

Ahora

τ (1, 1) = (3, −4, 4, 3) = 3(1, 1, 1, 1) + 1(1, 1, 1, 0) − 8(1, 1, 0, 0) + 7(1, 0, 0, 0)


τ (−1, 1) = (−1, 6, −2, 5) = 5(1, 1, 1, 1) − 7(1, 1, 1, 0) + 8(1, 1, 0, 0) − 7(1, 0, 0, 0)

Por lo tanto  
3 5
C
1 −7
MA (τ ) = 
−8

8
7 −7
Faltaria por hacer

τ σ(1, 2, 3) = (7, −7, 9, 10) = 10(1, 1, 1, 1) − 1(1, 1, 1, 0) − 16(1, 1, 0, 0) + 14(1, 0, 0, 0)


τ σ(1, 3, 0) = (1, 22, −2, 31) = 31(1, 1, 1, 1) − 33(1, 1, 1, 0) + 24(1, 1, 0, 0) − 21(1, 0, 0, 0)
τ σ(2, 0, 0) = (20, −22, 26, 26) = 26(1, 1, 1, 1) + 0(1, 1, 1, 0) − 48(1, 1, 0, 0) + 42(1, 0, 0, 0)

De donde  
10 31 26
C
 −1 −33 0 
OB (τ σ) = 
 
−16 24 −48
14 −21 42
Y finalmente es claro que
   
3 5 µ5 ¶ 10 31 26
 1 −7 2 7  −1 −33 0 
MAC (τ )NBA (σ) = 
−8
 · 21 =
−16

8 2 5 1 24 −48
7 −7 14 −21 42

MAC (τ )NBA (σ) = OB


C
(τ σ)

Sean A y B bases de U un espacio vecorial.


Definición 2 - 1 - 5 la matriz MAB (id) recibe el nombre de matriz de paso
de la base A a la base B, donde id es la tranformacion que a cada vector de U
lo envia en sı́ mismo
Según acabamos de ver si A y B son bases de un espacio vectorial, enonces
MAB (id) · MBA (id) = MBB (id · id), esto último a su vez, es lo mismo que MBB (id)
donde segun el ejemplo 3-6
 
1 0 0 ··· 0
 0 1 0 ··· 0 
 
MB (id) =  0 0 1 · · · 0 
B  
 .. .. .. . . .. 
 . . . . . 
0 0 0 ··· 1
60 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Matriz que se notará como In . Según se mencionó en el ejemplo 2-6, k n×n es un


espacio vectorial. Sin embargo sólo ahora, con las operaciones suma y producto
definidas, esta afirmacin puede ser comprobada, ası́ como que la matriz I n es el
módulo para el producto.De ahi que
¡ B ¢−1
MA (id) = MBA (id)

0 0
Sean σ ∈ L(U, V ), A y A bases de U , B y B bases de V. Tomemos MAB (σ) y
MAA0 (id). se tiene que

MAB (σ) · MAA0 (id) = MAB0 (σ × id) = MAB0 (σ)


0
tomemos ahora MBB (id) y MAB (σ), se tiene que
0 0
MBB (id) · MAB (σ) = MAB (id · σ) = MAB (σ)

Esto muestra cómo, dada MAB (σ), con σ ∈ L(U, V ), obtener matrices que rep-
resenten la misma tranformación lineal pero respecto a diferentes bases en
U o en V.

Teorema 2 - 2 - 1 K m×n es isomorfo a L(k n , K m )


Dem.
Sean A y B bases de K n y K m respectivamente y

µ : L (K n , K m ) → K m×n
σ → µ (σ) = Q = MAB σ

1. µ es función pues claramente si σ = τ , σ(uj ) = τ (uj ) para todo j =


1, · · · , n, luego MAB (σ) = MAB (τ )
2. µ es lineal, para verlo tomemos σ, τ ∈ L(K n , K m ), por definición

MAB (ασ + βτ ) es αMAB (σ) + βMAB (τ )

3. µ es biyectiva
(a) µ es uno a uno, pues si MAB (σ) = MAB (τ ), entonces las respectivas
columnas de estas matrices son iguales, es decir σ(uj ) = τ (uj )∀uj ∈A;j=1,...,n ,
lo que a su vez implica que σ(u) = τ (u) ∀u ∈ K n
2.2. TRANSFORMACIONES LINEALES Y MATRICES 61

(b) µ es sobre. Dada Q = (aij )m× n se define.


m
X
wj = aij vi
i=1

donde los vi son los elementos de la base B de K m , según el teorema


3-11 existe una unica transformación lineal σ tal que σ(uj ) = wj ,
claramente Q = MAB (σ) para σ ası́ definida
Ası́ termina la demostración
¥
Sea σ ∈ L(U, U ) transformación lineal biyectiva. se tiene que σ −1 es lineal,
pues, dados u1 , u2 ∈ U , existen únicos v1 , v2 ∈ U tales que σ(v1 ) = u1 y
σ(v2 ) = u2 , luego

σ −1 (αu1 + βu2 ) = σ −1 (ασ(v1 ) + βσ(v2 ))


= σ −1 (σ(αv1 + βv2 ))
= αv1 + βv2
= ασ −1 (u1 ) + βσ −1 (u2 )

Tomemos ahora C una base de U , MCC (σ) y MCC (σ −1 ), vemos que

MCC (σ) · MCC (σ −1 ) = MCC (σ · σ −1 )


= MCC (id)
= MCC (σ −1 · σ)
= MCC (σ −1 ) · MCC (σ)

Lo que significa que


¡ ¢−1
MCC (σ −1 ) es MCC (σ)

Teorema 2 - 2 - 2 Sean σ ∈ L(K n , K m ), y MAB (σ) su matiz asociada para


A y B bases de K n y k m respectivamente. Dada Q una matriz no singular de
orden m existe D base de K m tal que

Q · MAB (σ) = MAD (σ)

Dem.

Sea B = {v , . . . , vm }, tomemos Q−1 = (qij )m× m y hagamos D = {w1 , . . . , wm }


P1 m
con wj = i=1 qij vi . Veamos que D es linealmente independiente:
62 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Supongamos que D es l. dep., esto es, que existen λ1 , . . . , λm , escalares no


todos nulos tales
Xm
λj wj = 0
j=1

es decir à !
m
X m
X
λj qij vi =0
j=1 i=1

o lo que es lo mismo  
m
X m
X
 λj qij  vi = 0
i=1 j=1

en donde por la independencia lineal de B, debe ser


m
X
λj qij = 0 ∀i
j=1

de donde
   λ q + λ q + ··· + λ q 
0 1 11 2 12 m 1m
 0   λ1 q21 + λ2 q22 + · · · + λm q2m 
 = ..

 0   
 . 
0 λ1 qm1 + λ2 qm2 + · · · λm qmm
     
q11 q12 q1m
 q21   q22   q2m 
     
= λ1  .  + λ2  .  + · · · + λ m  . 
 ..   ..   .. 
qm1 qm2 qmm

esto último es una evidente contradicción pues se trata de las columnas de una
matriz no singular.

Luego D es una base de K m , entonces Q−1 ası́ definida resulta ser MD


B
(id),
D
por lo que Q = MB (id) quedando demostrado el teorema.

Teorema 2 - 2 - 3 Sean σ ∈ L(K n , K m ), y MAB (σ) su matiz asociada para A


y B bases de K n y K m respectivamente. Dada Q una matriz no singular de
orden m existe E base de k n tal que

MAB (σ) · Q = MEB (σ)

Dem julian o ejercicio propuesto para el lector


2.2. TRANSFORMACIONES LINEALES Y MATRICES 63

Definición 2 - 2 - 2 dos matrices M y N se denominan semejantes si y solo


existe Q matriz no singular tal que
M = QN Q−1
Note el lector que el que dos matrices sean semejantes significa que estan
asociadas a la misma transformaión lineal pero respecto a bases distintas.

2.2.1 Forma Normal Natural

Si A ∈ K m× n y A es una base de K n , existen σ ∈ L(K n , K m ) y B base de


K m tales que
A = MAB (σ)

Recuerde que si ademas A0 y B 0 son bases de K n yK m respetivamente entonces


0 0
MAB0 (σ) = MBB (id) · MAB (σ) · MAA0 (id)

0
siendo MBB (id) y MAA0 (id) matrices no singulares.

Sea N = {v1 , . . . , vϑ } una base de N (σ), existen u1 , . . . , uρ tales que


A0 = {u1 , . . . , uρ } ∪ N es una base de K n

Tenemos que I = {σ(u1 ), . . . , σ(uρ )} es una base de Imσ, por lo que existen
w1 , . . . , wm−ρ vectores en K m tales que
B 0 = I ∪ {w1 , . . . , wm−ρ }
es una base de K m .
Para A0 y B 0 asi construidos encotraremos que
 
1 0 0 ... 0 0 ... 0
 0 1 0 ... 0 0 ... 0 
 
 0 0 1 ... 0 0 ... 0 
 
 .. .. .. . . . .. . . .. 
. ..
0
B
MA0 (σ) =  . . . . . . 

fila ρ →  0 0 0 ... 1 0 ... 0 

 0 0 0 ... 0 0 ... 0 
 
 . . . .
. . ... .. . . .. 
 .. .. .. . . . 
0 0 0 ... 0 0 ... 0

Diremos que esta matriz esta en la forma normal natural


64 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Definición 2 - 2 - 3 Sea A una matriz, llamaremos rango de la matriz al


numero de filas con elementos no todos nulos de su forma normal natural.

Note que el rango de la matriz coincide con el rango de la trasformacin lineal


que representa

2.2.2 Forma normal de Hermite

Sea σ ∈ L(U, V ) tal que dim(U )=n y dim(V )=m y A = {u1 , . . . , un } una
base de U .
Llamemos In al conjunto {1, 2, . . . , n } y definamos los Ki como sigue:

K1 = min{i ∈ In \σ(ui ) 6= 0}
/ huk1 i}
K2 = min{i ∈ In \i > k1 ∧ σ(ui ) ∈
K3 = min{i ∈ In \i > k2 ∧ σ(ui ) ∈
/ huk1 , uk2 i}
..
.
© ­ ®ª
Kρ = min i ∈ In \i > ρ − 1 ∧ σ(ui ) ∈/ uk1 , . . . , ukρ−1

Definamos vj = σ(ukj ). Puesto que D = {v1 , . . . , vρ } es una base de Im(σ),


existen en V vectores vρ+1 , . . . , vm tales que B = D ∪ {vρ+1 , . . . , vm } es una
base de V .

Tomemos j ∈ In , si j = Ki para algún i ∈ Iρ , se tiene que

 
0
 .. 
 . 
 
 0 
 
 1  ← puesto j
σ(uj ) =  
 0 
 
 . 
 .. 
0
2.2. TRANSFORMACIONES LINEALES Y MATRICES 65

Si por el contrario j 6= ki ∀i∈Iρ se toma l = máx ({i\ki < j}), luego


 
a1j
 .. 
 . 
 
 al−1j 
 
 ← puesto l
 alj
σ(uj ) =  
 0 
 
 . 
 .. 
0

Esto indica que MAB tiene la siguienta forma.


Note además que si σ es biyectiva, entonces

MAB (σ) = In

Por lo tanto si A = MAD (σ), entonces


B
In = MD (id) · MAD (σ)
= QA

es decir, si A representa a σ tranformaión lineal biyectiva, entonces existe A −1 .

A continuación mostraremos que de hecho, la matriz de la forma normal de


Hermirte de una matriz, puede ser obtenida por medio del producto por una
matriz no singular.

Teorema 2 - 2 - 4 Dada una matriz A ∈ K m× n de rango ρ, existe Q ∈ K m× m


invertible tal que para A0 = QA se cumple que:

1. Existe al menos un elemento difente de 0 en cada una de las priemras ρ


filas de A0 , las restantes m − ρ filas tienen todos sos elementos iguales a 0

2. Existen k1 , . . . , kρ ∈ N tales que 1 6 k1 < k2 < · · · < kρ 6 n y el único


elemento distinto de 0 en la columna ki es un 1 que está en la fila i ∀i=1,...,ρ

3. El primer elemento distinto de 0 en la fila i (i 6 ρ) es un 1 que está en la


columa ki

4. A0 queda determnada de manera única por A


66 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Dem.
Sean A y B bases de k n y k m respectivamente, según el teorema 3-13, existe
σ ∈ L(K n , K m ) tal que A = MAB (σ), y según la construcción anterior, eixste D
base de K m tal que MAD (σ) satisface las condiciones del teorema, siendo
MAD (σ) = MBD (id)MAB (σ) = QA

Supongamos que existen A0 y A00 en K m× n que satisfacen las condiciones del


teorema, existen entonces B = {v1 , . . . , vm } y B 0 = {w1 , . . . , wm } bases de K m
tales que
MAB (σ) = A0
0
MAB (σ) = A00
Sean 1 6 k1 < · · · < kρ 6 n las columnas pivote de A0 y 1 6 h1 < · · · < hρ 6 n
las columnas pivote de A00

• Para i < k1 se tiene que σ(ui ) = 0 además σ(uk1 ) = v1


Para i < h1 se tiene que σ(ui ) = 0 además σ(uh1 ) = w1

Ahora si suponemos que h1 < k1 se tendrı́a w1 = σ(uh1 ) = 0 lo que


es una contradicción. O si k1 < h1 , entonces v1 = σ(uk1 ) = 0 que también
es contradictorio. Ası́ pues se tiene que
h1 = k 1 y v 1 = w 1

• Si k1 < i < k2 , entonces σ(ui ) = a1i v1 , además σ(uk2 ) = v2


Si h1 < i < h2 , entonces σ(ui ) = a01i w1 , además σ(uh2 ) = w2

Si suponemos que h2 < k2 se tendrı́a


σ(uh2 ) = a1i v1
= a1i w1
= w2 →←
Si suponemos que k2 < h2 se tendrı́a
σ(uk2 ) = a01i w1
= a01i v1
= v2 →←
De donde se concluye que
h2 = k 2 y v 2 = w 2
2.2. TRANSFORMACIONES LINEALES Y MATRICES 67

• Supongamos ahora que ∀i=1,...,j−1 se cumple que vi = wi y hi = ki , se


tiene entonces que:
Pj−1
Si kj−1 < l < kj , entonces σ(ul ) = k=1 akl vk y σ(ukj ) = vj
Pj−1
Si hj−1 < l < hj , entonces σ(ul ) = t=1 btl wt y σ(uhj ) = wj

Por lo tanto si hj < kj


j−1
X
σ(uhj ) = athj vt
t=1
j−1
X
= athj wt
t=1
= wj →←
O si kj < hj
j−1
X
σ(ukj ) = btkj wt
t=1
j−1
X
= btkj vt
t=1
= vj →←

Por lo tanto se concluye que


hj = k j
∀i=1,...,ρ
wj = v j
De aqui es inmediato A0 = A00 .

La matiz A0 , que a cada matriz A le corresponde de manera biunı́voca se


denomina matriz de la forma normal de Hermite

Surge entonces la pregunta de cómo, dada una matriz A, obtener la matriz Q


tal que QA da la forma normal de Hermite (en adelante FNH). Cuestón cuya
solución se presenta a continuación.

Sea A = (aij )n× m . Es claro que


n X
X m
als Els = A
l=1 s=1
68 CAPÍTULO 2. TRANSFORMACIONES LINEALES

siendo Els = (αij )n× m con αij = δil δsj.

Claramente
 
0 0 ··· 0
 .. .. .. .. 
 .
 . . . 

 as1
Els A =  as2 ··· asm  ← fila l − ésima

 . .. .. .. 
 .. . . . 
0 0 ··· 0

Por lo tanto
 
a11 a12 ··· a1m
 .. .. .. .. 

 . . . . 

 al1 + λas1
(Im + λEls ) A =  al2 + λas2 ··· alm + λasm  ← fila l − ésima

 .. .. .. .. 
 . . . . 
as1 as1 ··· as1

es la igual a la matriz A salvo que los elementos de la fila l son los de la original
mas λ veces los correspondientes de Els A.

Observe el lector que

(Im + λEls )(Im − λEls ) = (Im − λEls )(Im + λEls ) = Im

Definamos Fls (λ) = Im + λEls , de modo que (Fls (λ))−1 = Fls (−λ)

Se comprueba también que

Esl A + Els A − Ell A − Ess A + Im A = (Esl + Els − Ell − Ess + Im )A

produce en la matriz A un intercambio de sus filas l-ésima y j-ésima como se


muestra en el siguiente esquema.
 
a11 a12 ··· a1m
 .. .. .. .. 
 .
 . . . 

 as1 as2
 ··· asm   ← fila l − é sima
(Els + Esl − Ell − Ess + Nm ) A =  ... .. .. 

 . . 
 al1 al2 ··· alm  ← fila s − é sima
 
 . .. .. .. 
 .. . . . 
an1 an2 ··· anm

Definamos entonces Tls = Esl + Els − Ell − Ess + Im . Note que Tls tiene inversa,
y que esta es Tsl
2.2. TRANSFORMACIONES LINEALES Y MATRICES 69

Por último es facil comprobar que

(Im + (λ − 1)Ell )A

produce una matriz ”similar” a A pero con su fila l-ésima multiplicada por λ

Se llamara Rl (λ) a la matriz Im + (λ − 1)Ell . Rl (λ) tiene inversa (cual?).

Realizar el producto de alguna de las matrices Fls (λ), Tls o Tls por una matriz
dada es los que comunmente se denominan operaciones elementales. Para
ello Dada una matriz A ∈ K m× n se le adjunta Im y a la matriz obtenida y
se efectuan las convenientes operaciones elementales de modo que para A se
obtenga la FNH, la matriz resultante en donde se empieza con Im es la matriz
Q tal que QA = A0 . Se ilustra el procedimietno mediante el siguiente ejemeplo

Ejemplo 2 - 2 - 6 Sea
 
4 2 3 6 1 −1
 5 10 4 8 3 −1 
A=
 −2

−4 −2 −4 −1 2 
11 22 6 12 4 1

Formamos la matriz
 ¯ 
4 2 3 6 1 −1 ¯
¯ 1 0 0 0
 5
 10 4 8 3 −1 ¯
¯ 0 1 0 0 

 −2 −4 −2 −4 −1 2 ¯ 0 0 1 0 
¯
11 22 6 12 4 1 ¯ 0 0 0 1

A partir de la cual
 ¯  R1 (1/4)
4 2 3 6 1 −1 ¯ 1 0 0 0
¯ F12 (−5)
 5
 10 4 8 3 −1 ¯
¯ 0 1 0 0 
 F13 (2)
 −2 −4 −2 −4 −1 2 ¯ 0 0 1 0 
¯ F14 (−11)
11 22 6 12 4 1 ¯ 0 0 0 1

 3 3 1
¯  R2 (4)
1 2 4 2 2− 41 ¯¯ 14 0 0 0
 0 0 1 1 1 1 ¯ −5 1 F21 (−3/4)
 4 2 2 4 ¯ 14 0 0 
 F23 (1/8)
 0 0 − 21 −1 0 3
2 ¯ 211 0
¯ 1 0 
F24 (9/4)
0 0 − 49 − 29 − 32 15 ¯ − 0 0 1
4 4 ↓
 ¯ 
1 2 0 0 −1 −1 ¯¯ 4 −3 0 0 F31 (1)
 0 0
 1 2 2 1 ¯¯ −5 4 0 0  F32 (−2)

 0 0 0 0 1 2 ¯¯ −2 2 1 0  F34 (−3)
0 0 0 0 3 6 ¯ −14 −9 0 1 ↓
70 CAPÍTULO 2. TRANSFORMACIONES LINEALES

Aplicaciones de la forma normal de Hermite


• Determinar el Nucleo de una Tranformación Lineal

Dada σ ∈ L(k n , k m ) con A y B bases de k n y k m respectivamente, medi-


ante la FNH de la matriz asociada es posible determinar N (σ).

Sea σ ∈ L(k n , k m ). Si σ(v) = 0, es porque MAB (σ) ·v = 0. Por lo tanto se


| {z }
A
debe hallar v tal que
Av = 0
Puesto que existe Q no singular tal que A0 = QA está en la FNH es sitema
a resolver es entonces
A0 x = 0
en donde  
x
 .. 

 . 

 xk1 −1 
 
 γ1 
 
 xk1 +1 
 
x= .. 

 . 

 xk −1 
 ρ 
 γρ 
 
 .. 
 . 
xn
© ª
siendo γi ∈ hHi ∀i con H = {x1 , . . . , xn } − xk1 , . . . , xkρ

Ejemplo 2 - 1 - 5 Sea

σ : R6 → R4
v → σ(v)

con

σ(v) = x1 (4, 5, −2, 11) +


x2 (8, 10, −4, 22) +
x3 (3, 4, −2, 6) +
x4 (6, 8, −4, 12) +
x5 (−2, 3, −1, 4) +
x6 (−1, −1, 2, 1)
2.2. TRANSFORMACIONES LINEALES Y MATRICES 71

Se empieza por encontrar la matriz asociada respecto a las bases canónicas


esta es  
4 8 3 6 −2 −1  

 5
 10 4 8 3 −1   A
 −2 −4 −2 −4 −1 2 


11 22 6 12 4 1
la matriz de la FNH es
 
1 2 0 0 0 1 


 0 0 1
 2 0 −3 
 A0
 0 0 0 0 1 2 

0 0 0 0 0 0

Tenemos que resolver A0 x = 0, donde las variables dependientes son


x1 , x3 , x5 siendo el resto las independientes. Cláramente

dimN (σ) = 3

Al realizar A0 x = 0 se encuentra que

x1 + 2x2 + x6 = 0
x3 + 2x4 − 3x6 = 0
x5 + 2x6 = 0

de donde

x1 = −2x2 − x6
x3 = −2x4 + 3x6
x5 = −2x6

por lo tanto, el núcleo de la transformación es

{(x1 , . . . , x6 )/x1 = −2x2 − x6 ; x3 = −2x4 + 3x6 ; x5 = −2x6 }

En ralidad hallar x tal que Ax = 0 hace parte de el problema más general


de dada σ tranformación lineal hallar σ −1 (v0 ) para cualquier v0 del codo-
minio de la transformación. Estudieos más detenidamente la situación.

• Hallar la imágen inversa de un elemento de codominio

Sea σ ∈ L(k n , k m ) y A = MAB (σ) su matriz asociada para A y B bases


de k n y k m respectivamente. Hallar v tal que σ(v) = w, es equivalente a
hallar v tal que Av = w. para ello se construye la matriz

(A |v )
72 CAPÍTULO 2. TRANSFORMACIONES LINEALES

formada al adjutarle a A la columna w. Note que hallar v tal que σ(v) = w


se convierte ahora en el problema de hallar v 0 = (x1 , . . . , xn+1 ) ∈ k n+1
con xn+1 = −1 tal que
(A |v ) v 0 = 0
Se empieza por hallar la FNH de (A |v ) (que llamaremos A0 ).
ρ(A) no puede ser mayor que ρ(A0 ) y si ρ(A) < ρ(A0 )), es porque existe
j; ρ < j 6 m tal que ajn+1 6= 0. En este caso el problema no tiene solucion
pues el producto A0 v 0 no será nunca nulo pues su j-ésima componente es
−ajn+1 .

Si finalmente ρ(A) = ρ(A0 ), entonces A0 v 0 con v 0 = (x1 , . . . , xn , −1) da


lugar un sistema de la forma.

x k1 + +0+ + ··· + +0+ = b01

x k2 + + ··· + +0+ = b02


..
.
x kρ + = b0ρ

Note que
x0 = (0, . . . , 0, b01 , 0, . . . , 0, ’r ho, . . . , 0)
¯
es una solución del problema.

• A partir de un sistema de generadores de W 4 V , hallar una base


de W

Sean V un k-espacio vectorial, W 4 V , B = {w1 , . . . , wm } un sistem


de generadores de W y A = {u1 , . . . , un } una base de V . se tiene que:
n
X
wi = aij vj ∀i=1,...,m
j=1

Construimos la matriz
 
a11 a12 ··· a1n

 a21 a22 ··· a2n 
 .. .. .. 
 . . . ... 
A= 
 ai1
 ai2 ··· ain 
 . .. .. .. 
 .. . . . 
am1 am2 ··· amn

en la que la i-ésima fila correponde a las coordenadas de wi respecto a la


base A.
2.2. TRANSFORMACIONES LINEALES Y MATRICES 73

Sea Q la matriz no singular tal que A0 = QA está en la FNH, se tiene


que B 0 = {w10 , . . . , wρ0 } es una base de W siendo wi0 la i-ésima fila de A0

Ejemplo 2 - 1 - 6 Sea B{(1 + x)2 , (2 − x)3 , (1 − x)4 }, hallar una base de


hBi.

Se tiene que
w1 = 1 + 2x + x2
w2 = 8 − 12x + 6x2 − x3
w3 = 1 − 4x + 6x2 − 4x3 + x4
Por lo tanto tomando E como la base canónica de R5 [x] se halla que
 
1 2 1 0 0 0
A= 8 −12 6 −1 0 0 
1 −4 6 −4 1 0
matriz cuya FNH es
 10 3

1 0 0 19 − 19 0
13 1
A0 =  0 1 0 152 − 76 0 
0 0 1 − 53
76
7
38 0
por lo que
© 10 3 3 4 13 3 1 4 2 53 3 7 4
ª
C = 1+ 19 x − 19 x , x + 152 x − 76 x , x − 76 x + 38 x

es una base de hBi

2.2.3 Ejercicios
1. Sea σ ∈ L(R3 ), R3 y B = {e1 , e2 , e3 }, tenemos que
 
a + 2b a − b − 3c a − b + 3c
MBB (σ) =  a − b + c a + 2b + c a − b − 2c 
a − b − c a − b + 2c a + 2b − c
Sean b1 = e1 + e2 + e3 , b1 = e1 − e2 , b3 = e1 − e3
(a) Demuestre que B 0 = {b1 , b2 , b3 } es una base de R3
0 0
(b) Halle MBB0 (σ),MBB0 (σ) y MBB (σ)
2. Solucione el sistema
   
1 1 −3   −1
a
 2
 1 −2   1
 b  = 


 1 1 1   3 
c
1 2 −3 1
74 CAPÍTULO 2. TRANSFORMACIONES LINEALES

3. Considerese el sistema de ecuaciones lineales

AX = B (∗)

Donde A es una matriz cuadrada. Demostrar que (∗) tiene solución única
para todo valor de B si y sólo si el sisitema homogeneo AX = 0 no tiene
más solución que la trivial.

4. Sea σ ∈ L(R3 ), R3 y B la base canónica.


 
1 2 1
MBB (σ) =  0 −1 1 
1 1 2

Encuentre bases para N (σ) e Im(σ).


Capı́tulo 3

Determinantes

3.1 El Grupo Simétrico


Definición 3 - 1 - 1 Sea In = {1, 2, . . . , n}, una Permutación es una fun-
ción biyectiva
σ : I n → In

Por convención, es mas fácil notar a una permutación como la matriz


µ ¶
1 2 ··· n
σ=
σ(1) σ(2) · · · σ(n)

Recuerde que en el Capı́tulo 1, hablamos de poder dar una definición ‘alter-


nativa’ para Espacios Vectoriales, y utilizamos la palabra Grupo, más aún uti-
lizamos la palabra Abeliano. Un Grupo es una pareja (G, ∗), con G un conjunto
y ∗ una ley de composición interna, tales que existe néutro e en G, ∗ es asociativa
y todo elemento de G tiene inverso. Por ejemplo, considere el conjunto

Sn {σ/ σes permutación en In }

Es claro que si σ, τ ∈ Sn tenemos que στ ∈ Sn y existe id ∈ Sn , donde


µ ¶
1 2 ··· n
id =
1 2 ··· n

Además, note que para cada σ ∈ Sn existe σ −1 ∈ Sn . Como la composición es


asociativa, la conclusión es obvia: la pareja (Sn , ◦) es un grupo, que llamaremos
Grupo Simétrico.
Ejemplo 3 - 1 - 1 Construimos el grupo simétrico de permutaciones S2 =
{id, τ } de la siguiente manera
µ ¶ µ ¶
1 2 1 2
id = τ=
1 2 2 1

75
76 CAPÍTULO 3. DETERMINANTES

Ejemplo 3 - 1 - 2 Construimos el grupo simétrico de permutacionesS3 = {id, τ1 , τ2 , τ3 , τ1 τ2 , τ1 τ3 }


de la siguiente manera
µ ¶ µ ¶ µ ¶
1 2 3 1 2 3 1 2 3
id = τ1 = τ2 =
1 2 3 2 1 3 1 3 2
µ ¶ µ ¶ µ ¶
1 2 3 1 2 3 1 2 3
τ3 = τ1 τ2 = τ1 τ3 =
3 2 1 2 3 1 3 1 2

La tabla de multiplicar de S3

◦ id τ1 τ2 τ3 τ1 τ2 τ1 τ3
id id τ1 τ2 τ3 τ1 τ2 τ1 τ3
τ1 τ1 id τ 1 τ2 τ1 τ3 τ2 τ3
τ2 τ2 τ1 τ3 id τ 1 τ2 τ3 τ1
τ3 τ3 τ1 τ2 τ1 τ3 id τ1 τ2
τ1 τ2 τ1 τ2 τ3 τ1 τ2 τ1 τ3 id
τ1 τ3 τ1 τ3 τ2 τ3 τ1 id τ 1 τ2

Definición 3 - 1 - 2 τ ∈ Sn es una Transposición si existen i, j ∈ Sn ∴


i 6= j tales que: 
 i si k = j
τ (k) = j si k = i

k si k 6= i ∧ k 6= j
Como consecuencia inmediata de la definición, observe que si τ es una trasposi-
ción entonces τ τ = id. En el Ejemplo 3-1-2 vimos que habian dos permutaciones
que podı́amos escribir como composición de dos transposiones, esto no es nada
raro. Imagine el lector una matriz que represente una permutación cualquiera
de Sn , busque el número 1 en la segunda fila e intercambielo con el número que
se encuentra en la primera columna segunda fila por medio de una transposición,
ahora intercambie la posición en la cual se encuentra el número 2 e intercambielo
con el número que se encuentra en la segunda columna segunda fila por medio
de una transposición, . . . , hasta que al final obtenga la permutación id. Si σ
denota la permutación inicial, este proceso lo podrı́amos haber visto como

στ1 τ2 . . . τm = id

de donde
σ = τm τm−1 . . . τ1
Ohhh, esto nos lleva al siguiente teorema.

Teorema 3 - 1 - 1 Toda permutación en Sn es el producto de un número finito


de trsposiciones.

Dem.
1) Si n = 2 tenemos id = τ τ además τ = τ τ τ
3.1. EL GRUPO SIMÉTRICO 77

2) Supongamos que se tiene para n − 1 veámoslo para n:


0 0
Sea σ ∈ Sn 2.1) Si σ(n) = n, sea σ ∈ Sn−1 tal que σ (k) = σ(k) ∀k ∈ In−1 .
0 0 0
Por H.I. existen τ1 , τ2 , . . . , τn trasposiciones en Sn−1 tales que
0 0 0 0
σ = τ 1 , τ2 , . . . , τ m
Sea 1 ≤ j ≤ m, definimos:
½ 0
τi (k) si 1 ≤ k ≤ n − 1
τi (k) =
n si k = n
Entonces τi es una trasposición con:
½ 0
0 0 0 σ (k) si 1 ≤ k ≤ n − 1
(τ1 , τ2 , . . . , τm )(k) =
n si k = n
0 0 0
De manera que σ(k) = (τ1 , τ2 , . . . , τm ) ∀k ∈ In .
2.2) Si σ(n) = j ∴ j 6= n definimos τ ∗ ∈ Sn tal que

 j si k = n
τ ∗ (k) = n si k = j

k si k 6= n ∧ k 6= j

τ@ = τ ∗σ
τ @ (n) = (τ ∗ σ)(n)
= τ ∗ (σ(n))
= τ ∗ (j)
= n
Por lo visto en 2.1) tenemos que existen τ1 , τ2 , . . . , τm trasposiciones en Sn tales
que
τ@ = τ 1 , τ2 , . . . , τ m
τ ∗σ = τ 1 , τ2 , . . . , τ m

σ = τ ∗ τ1 , τ 2 , . . . , τ m
De donde σ es un producto de trasposiciones .
¥

Definición 3 - 1 - 3 Sea σ ∈ Sn , definimos


Y
ξ(σ) = σ(j) − σ(i)
i<j

Si ξ(σ) > 0, entonces σ es una Permutación Par


Si ξ(σ) < 0, entonces σ es una Permutación Impar
78 CAPÍTULO 3. DETERMINANTES

Definición 3 - 1 - 4 Llamamos Signo de una permutación σ a


|ξ(σ)|
sig σ =
ξ(σ)

Ejercicio: Por qué ξ(σ) 6= 0 ?


El siguiente Teorema es un resultado, al parecer muy ‘intuitivo’ que nos ayudará
a encontrar una propiedad muy importante para las transposiciones en S n
Teorema 3 - 1 - 2 Si σ, τ ∈ Sn , entonces

sig(τ σ) = sig(τ )sig(σ)

Dem.
En general, con i < j solo podemos formar estas 4 clases de conjuntos:

A1 = {(i, j) ∈ In × In | σ(i) < σ(j) , (τ σ)(i) < (τ σ)(j)}


A2 = {(i, j) ∈ In × In | σ(i) < σ(j) , (τ σ)(i) > (τ σ)(j)}
A3 = {(i, j) ∈ In × In | σ(i) > σ(j) , (τ σ)(i) < (τ σ)(j)}
A4 = {(i, j) ∈ In × In | σ(i) > σ(j) , (τ σ)(i) > (τ σ)(j)}

Ahora, veamos cual es la cantidad de signos negativos aportados para cada ξ(σ),
ξ(τ ) y ξ(τ σ) (notado por #f ac(−)(ξ)(φ))de los anteriores conjuntos.

Conjunto #f ac(−)(σ) #f ac(−)(τ ) #f ac(−)(τ σ)


A1 0 0 0
A2 0 #(A2 ) #(A2 )
A3 #(A3 ) #(A3 ) 0
A4 #(A4 ) 0 #(A4 )

Por lo tanto

#f ac(−)(σ) = #(A3 ) + #(A4 )


#f ac(−)(τ ) = #(A2 ) + #(A3 )
#f ac(−)(τ σ) = #(A2 ) + #(A4 )
#f ac(−)(σ)#f ac(−)(τ ) = #(A2 ) + #(A4 ) + 2#(A3 )

Por consiguiente, el número de factores negativos de ξ(σ)ξ(τ ) difiere del número


de factores negativos de ξ(τ σ) de un número par, por lo tanto

sig(τ σ) = sig(τ )sig(σ)

¥
.
3.1. EL GRUPO SIMÉTRICO 79

Teorema 3 - 1 - 3 Si τ ∈ Sn es una transposición, entonces sig(τ ) = −1


Dem.
Existen i, j ∈ In n, i < j tales que τ (i) = j,τ (j) = i y τ (k) = k ∀k6=j,k6=i

Mostraremos que el producto


Y
²(τ ) = (τ (l) − τ (s))
l<s

tiene un número impar de signos negativos. Tenemos siete opciones:


1. l 6= i, l 6= j, s 6= i y s 6= j
De donde
τ (s) − τ (l) = s − l > 0

2. 1 ≤ l < i, s = i
De donde
τ (s) − τ (l) = j − l > 0

3. 1 ≤ l < i, s = j
De donde
τ (s) − τ (l) = i − l > 0

4. l = i y i < s ≤ j
De donde
τ (s) − τ (l) = s − j < 0
Y hay j − i factores negativos
5. l = i, j < s
De donde
τ (s) − τ (l) = s − j > 0

6. i < l < j y s = j
De donde
τ (s) − τ (l) = i − l < 0
Y hay (j − i) − 1 factores negativos
7. l = j, j < s
De donde
τ (s) − τ (l) = s − i > 0

Por lo tanto, el número de factores negativos de ²(τ ) es de 2(j −i)−1. De donde

sig(τ ) = −1
80 CAPÍTULO 3. DETERMINANTES

Corolario 3 - 1 - 1 Sean φ ∈ Sn y τ1 , τ2 , . . . , τm transposicones tales que

φ = τ 1 τ2 . . . τ m

Entonces
sign(φ) = (−1)m

3.1.1 Ejercicios
1. Cuántas transposiciones hay en Sn ?

2. Haga la tabla de multiplicar de S4 y S5 .

3.2 Formas n-lineales


Definición 3 - 2 - 1 Sea V un k-espacio vectorial, llamamos Espacio Dual
de V al conjunto
V ∗ = L(V, K)

Donde si σ ∈ V ∗ , llamamos a σ como Forma Lineal

Definición 3 - 2 - 2 Sea V n = {(v1 , v2 , . . . , vn )|vi ∈ V ∀i=1,2...,n }. La fun-


ción
µ : V n −→ K

se deomina Forma n-lineal si µ es lineal en cada una de las variables vi .

Esto mas claramente significa que si considermos a (v1 , . . . , vi−1 , x, vi+1 , . . . , vn ) ∈


V n y hacemos
µi (x) = µ(v1 , . . . , vi−1 , x, vi+1 , . . . , vn )

entonces, para todo i, para todo α, β ∈ K y x, y ∈ V

µi (αx + βy) = αµi (x) + βµi (y)

Sea B = {e1 , e2 , . . . , en } una base de V y µ n-lineal, entonces existen escalares


aij j ∀j=1,...,n ∀ij =1,...,n tales que

n
X
vj = a i j j ei j
ij =1
3.2. FORMAS N-LINEALES 81

Donde
n
X n
X n
X
µ(v1 , . . . , vj , . . . , vn ) = µ( a i 1 1 ei 1 , . . . , a i j j ei j , . . . , a i n n ei n )
i1 =1 ij =1 in =1
n
X n
X n
X
= ai1 1 µ(ei1 , . . . , a i j j ei j , . . . , a i n n ei n )
i1 ij =1 in =1
n
X n
X n
X
= ai 1 1 ai 2 2 . . . ain n µ(ei1 , ei2 , . . . , ein ) (1)
i1 i2 in

Definición 3 - 2 - 3 Una forma nlineal µ de V n en K, se llama Alternada


si siempre que vi = vj con i < j, se tiene

µ(v1 , v2 , . . . , vi , . . . , vj , . . . , vn ) = 0

Note que si µ es n-lineal alternada, la ecuacion (1) que determinada por las
permutaciones de todos los ei , más aún, hagamos

In = {i1 , i2 , . . . , in }

Existe por lo tanto φ ∈ Sn tal que φ(k) = ik ∀k=1,...,n , y podemos escribir a (1)
de la siguiente manera
X
aφ(1)1 aφ(2)2 . . . aφ(n)n µ(eφ(1) , eφ(2) , . . . , eφ(n) )
φ∈Sn

Teorema 3 - 2 - 1 Sea µ una forma n-lineal, entonces µ es alternada si y solo


si
µ(v1 , . . . , vi , . . . , vj , . . . , vn ) = −µ(v1 , . . . , vj , . . . , vi , . . . , vn )

Dem.
⇒)

0 = µ(v1 , . . . , vi + vj , . . . , vj + vi , . . . , vn )
= µ(v1 , . . . , vi , . . . , vj + vi , . . . , vn ) +
µ(v1 , . . . , vj , . . . , vj + vi , . . . , vn )
= µ(v1 , . . . , vi , . . . , vj , . . . , vn ) +
µ(v1 , . . . , vj , . . . , vj , . . . , vn ) +
| {z }
0
µ(v1 , . . . , vi , . . . , vi , . . . , vn ) +
| {z }
0
µ(v1 , . . . , vj , . . . , vi , . . . , vn )
µ(v1 , . . . , vi , . . . , vj , . . . , vn ) = −µ(v1 , . . . , vj , . . . , vi , . . . , vn )
82 CAPÍTULO 3. DETERMINANTES

⇐)
Sea vi = vj = x, entonces

µ(v1 , . . . , x, . . . , x, . . . , vn ) = −µ(v1 , . . . , x, . . . , x, . . . , vn )
2µ(v1 , . . . , x, . . . , x, . . . , vn ) = 0
µ(v1 , . . . , x, . . . , x, . . . , vn ) = 0

Y por lo tanto µ es una forma n-lineal alternada.


¥

3.3 El Determinante

Los determinantes surgieron como consecuencia del estudio de las ecuaciones


lineales, pero su tratamiento moderno se le debe en gran parte a Cayley quien
resume la situación en las siguientes palabras:”‘Lógicamente la idea de matriz
precede a la de determinante, pero historicamente el orden fué inverso, esto
se debe a que las propiedades básicas de las matrices ya estaban claras cuando
fueron introducidas”’

Sea τ ∈ Sn una traspasición y µ una forma n-lineal alternada. Es claro que


¡ ¢
µ vtau(1) , . . . , vtau(n) ) = −µ(v1 , . . . , vn

de donde si ϕ ∈ Sn es una permutación y ϕ = τ1 , . . . , τm donde las τi son


trasposiciones, entonces
¡ ¢
µ vϕ(1) , . . . , vϕ(n) = (−1)m µ (v1 , . . . , vn )

luego ¡ ¢
µ vϕ(1) , . . . , vϕ(n) = sig(ϕ)µ (v1 , . . . , vn )

Tomemos ahora una base B = {e1 , . . . , en } de V . Se tiene entonces por defini-


ción de forma n-lineal alternada que

X ¡ ¢
µ(v1 , . . . , vn ) = aϕ(1)1 , . . . , aϕ(n)n µ vϕ(1) , . . . , vϕ(n)
ϕ∈Sn
X
= µ(e1 . . . , en ) aϕ(1)1 , . . . , aϕ(n)n
ϕ∈Sn
X
= α aϕ(1)1 , . . . , aϕ(n)n
ϕ∈Sn
3.3. EL DETERMINANTE 83

P
Definición 3 - 3 - 1 detB (v1 , . . . , vn ) = ϕ∈Sn aϕ(1)1 , . . . , aϕ(n)n

Es inmediato a partir de la definicion que si vj = 0 para algún j ∈ In . entonces


detB (v1 , . . . , vn ) = 0
Teorema 3 - 3 - 1 detB es una forma n-lieal alternada
Dem.
1. detB es forma n-lineal
Sea B = {e1 , . . . , vn } una base de V y (v1 , . . . , vn ) ∈ V n . Supongamos
que vj = αx + βy para algunos x, y ∈ V ,j ∈ In y α, β ∈ K. Tendremos
entonces que
X
detB (v1 , . . . , vj , . . . , vn ) = sig(ϕ)aϕ(1)1 , . . . , aϕ(j)j , . . . , aϕ(n)n
ϕ∈Sn
X
= sig(ϕ)aϕ(1)1 , . . . , (αxϕ(j)j + βyϕ(j)j ), . . . , aϕ(n)n
ϕ∈Sn
X
= sig(ϕ)aϕ(1)1 , . . . , αxϕ(j)j , . . . , aϕ(n)n +
ϕ∈Sn
X
sig(ϕ)aϕ(1)1 , . . . , βxϕ(j)j , . . . , aϕ(n)n
ϕ∈Sn
= αdetB (v1 , . . . , x, . . . , vn ) + βdetB (v1 , . . . , y, . . . , vn )

2. detB es alternada
ejercicio para el lector (solo hace falta demostrar que detB (v1 , . . . , vi , . . . , vj , . . . , vn ) =
−detB (v1 , . . . , vj , . . . , vi , . . . , vn ), porque? )

Una consecuencia interesante y futuramente útil de este teorema es el siguiente


Corolario 3 - 3 - 1 detB (v1 , . . . , vi , . . . , vj . . . . , vn ) = detB (v1 , . . . , vi +αvj , . . . , vj , . . . , vn )

Cuando se halla detB (v1 , . . . , vn ), este depende de la reprenetación de v1 , . . . , vn


como combinaciónes lineales de B asi que de ahora en adelante notaremos
detB (v1 , . . . , vn ) como detB (A) siendo A la matriz cuyas columnas son las coor-
denadas de los correspondientes, diremos que A es la matriz de coeficientes
vi . Con esta notación los resultados anteriores se traducen como sigue:
• Si A y A0 son matrices y A0 se obtiene permutando dos columnas de A,
entonces detB (A) = −detB (A0 )
• Si i 6= j, y A0 se obtiene a partir de A cambiando la columna i-ésima por
esta sumada a la j-ésima, entonces detB (A) = detB (A0 )
84 CAPÍTULO 3. DETERMINANTES

Sea A = (aij )n× n , recuerde que

AT = (bij )n× n ; bij = aji

entonces
X
det(AT ) = sig(ϕ)bϕ(1)1 , . . . , bϕ(n)n
ϕ∈Sn
X
= sig(ϕ)a1ϕ(1) , . . . , anϕ(n)
ϕ∈Sn

.
Ahora, puesto que sig(στ )=sig(σ)sig(τ ) y además ϕϕ−1 = id, se sigue que

sig(ϕ) = sig(ϕ−1 )

por lo tanto
X X
sig(ϕ)a1ϕ(1) , . . . , anϕ(n) = sig(ϕ−1 )aϕ−1 (ϕ(1))ϕ(1) , . . . , aϕ−1 (ϕ(n))ϕ(n)
ϕ∈Sn ϕ∈Sn

Permutando de manera adecuada esto puede ser escrito como


X
sig(ϕ−1 )aϕ−1 (1)1 , . . . , aϕ−1 (n)n
ϕ−1 ∈Sn

que es lo mismo que


X
sig(ϕ)aϕ(1)1 , . . . , aϕ(n)n = det(A)
ϕ∈Sn

con lo cual hemos probado el siguiente teorema:

Teorema 3 - 3 - 2 det(A) = det(AT )

Esto significa que las propiedades anteriormete deducidas del determinante de


una matriz respecto a sus filas son válidas también para sus columnas. El sigu-
iente resultado es útil también en la práctica

Teorema 3 - 3 - 3 Si A = (aij )n×n es una matriz diagonal, es decir, con


aij = 0 si j < i, entonces det(A) es igual al producto de los elementos de la
diagonal principal
Dem. Consecuencia inmediata de la definición

Teorema 3 - 3 - 4 Sea B = {v1 , . . . .vn } ⊆ V y A = {e1 , . . . , en } una base.


detA (v1 , . . . .vm ) = 0 si y solo si B es linealmente dependiente
3.3. EL DETERMINANTE 85

⇐ Sea C la matriz de coeficientes de B, luego detA (v1 , . . . , vm ) = detA (B).


Tomamos B T y hallamos su forma normal de Hermite, (B T )0 . Por hipótesis esta
deberá tener alguna fila con elementos nulos luego detA ((B T )0 ) = 0 , es decir
detA (B) = detA (B T ) = detA ((B T )0 ) = 0

⇒ supongamos que B es linealmente independiente, luego B es una base, de


esta manera
à n n n
!
X X X
det (e1 , . . . , en ) = det a i 1 1 vi 1 , a i 2 2 vi 1 , · · · a i n n vi n
i1 =1 i2 =1 in =1
n
X n
X n
X
= ai 1 1 ai 2 2 · · · ain n det (vi1 , vi2 , · · · , vin )
i1 =1 i2 =1 in =1
X ¡ ¢
= aσ(1)1 aσ(2)2 · · · aσ(n)n det vσ(1) , vσ(2) , · · · , vσ(n)
σ∈Sn
X
= det (v1 , · · · , vn ) sig (σ) aσ(1)1 aσ(2)2 · · · aσ(n)n
σ∈Sn

luego si detA (B) = 0 se tendı́a detA (A) = 0 →←


¥
A continuación, nos dispondremos a dar una propiedad muy importante de
determinantes. Sea σ ∈ L(V, V ) y B = {e1 , e2 , . . . , en } una base de V, definimos
σ: Vn −→ Vn
(v1 , v2 , . . . , vn ) 7−→ (σ(v1 ), σ(v2 ), . . . , σ(vn ))
Claramente σ es una transformación n-lineal, por lo tanto tomemos detB : V n →
V n y hagamos
detB σ : Vn −→ K
(v1 , v2 , . . . , vn ) 7−→ detB (σ(v1 ), σ(v2 ), . . . , σ(vn ))
entonces detB σ es una forma n-lineal, además observe que como σ es transfor-
mación lineal, por lo tanto función, de donde si vi = vj entonces σ(vi ) = σ(vj )
de donde (detB σ)(v1 , . . . , vi , . . . , vj , . . . , vn ) = 0 y detB σ es alternada. Esto nos
indica que existe α ∈ K tal que
detB σ = αdetB
Lo cual nos lleva a pensar en el valor de α, veamos que
(detB σ)(e1 , e2 , . . . , en ) = αdetB (e1 , e2 , . . . , en )
= α·1
detB (σ(e1 ), σ(e2 ), . . . , σ(en )) =
detB (MBB (σ)) = α
86 CAPÍTULO 3. DETERMINANTES

Y por lo tanto
detB σ = detB (MBB (σ)) · detB
Si A ∈ K n×n existe σA ∈ L(K n , K n ) tal que
σA = A · v = (MCC (σA )) · v
donde C es la base canónica de K n . Sean B ∈ K n×n y σB la transformación
que la representa, por lo visto en el capı́tulo anterior
σA σB = σAB
Teorema 3 - 3 - 5
σA σB = σAB
Dem.

σA σB (v1 , . . . , vn ) = σA (σA (v1 , . . . , vn ))


= σA (σB (v1 ), . . . , σB (vn ))
= (σAB (v1 ), . . . , σAB (vn ))
= σAB (v1 , . . . , vn )
Y por lo tanto
σA σB = σAB
¥
Aunque parece bastante obvio el anterior resultado, nos brinda este importan-
tı́simo colorario.
Corolario 3 - 3 - 2
det(AB) = det(A)det(B)
Dem.

detC σAB = detC σA σB


= (detC σA ) σB
= (det(MCC (σA ))detC )σB
= (det(A)detC )σB
= det(A)(detC σB )
= det(A)(det(B)detC )
det(AB)detC = det(A)det(B)detC
Evaluando a ambos lados por elementos de C (e1 , . . . , en ), se tiene lo querido
det(AB) = det(A)det(B)
¥
Apéndice A

Algunas aplicaciones en
Derive

Elprograma derive es una poderosa herramienta de cálculo si la sabemos mane-


jar ya que este es un programa de álgebra computacional con el cual podemos
llevar a simplificar los procesos de cálculo de una manera eficiente y sobre todo
teniendo en cuenta la facilidad para trabajar con el.
En este orden de ideas para trabajar en dicho programa debemos conocer unos
comandos básicos para la programación de este, a continuación mostraremos los
comandos básicos y unos pequenos ejemplos que pueden clarificar su empleo.

Podemos construir vectores en forma implı́cita de la siguiente manera:


V ECT OR(f (k), k, m, n, s)
En este caso diremos que la componente k-ésima del vector es f (k), adi-
cionalmente toma los valores comprendidos entre m y n incrementados de s en
s. Cuando el programador omite el S, Derive asume que s = 1.
Ejemplo A - 1 Expanda el siguiente vector: V ECT OR(3k 3 −5k 2 +17k, k, −14, 37, 3)
DERIVE muestra
[−9450, −4785, −1992, −585, −78, 15, 180, 903, 2670, 5967,
11280, 19095, 29898, 44175, 62412, 85095, 112710, 145743]
Ahora vamos a mostrar algunos comandos que son muy útiles en la práctica
en las operaciones matriciales de manera que dados dos vectores v ∈ C y w ∈ C
el producto escalar se calcula mediante la siguiente instrucción
v · w.
Ejemplo A - 2 Sean V := V ECT OR(k 2 −3k, k, 1, 25) y W := V ECT OR(2k 3 +
5k, k, 1, 25) calcule v · w.
DERIVE nos muestra V W = 78994630

87
88 APÉNDICE A. ALGUNAS APLICACIONES EN DERIVE

Sean v ∈ C3 y w ∈ C3 el producto vectorial se calcula mediante la istrucción

CROSS(v, w).

Ejemplo A - 3 Sean f := [a, b, c] y g := [a, , ?] calcule CROSS(f, g) DERIVE


nos muestra CROSS(f, g) = [b? − c, ca − a?, a − ba]

Sean v ∈ C3 y w ∈ C3 el producto exterior se calcula mediante la istrucción

OU T ER(v, w).

Ejemplo A - 4 Sean f := [a, b, c] y g := [a, , ?] calcule OU T ER(f, g) DERIVE


nos muestra OU T ER(f, g) = [aa, a, a?; ba, b, b?; ca, c, c?]

Nuestro problema ahora es como identificar un elemento n en un vector v


que le hemos dado a expandir a derive, de esta manera el rpoblema se soluciona
por medio de la instrucción:

ELEM EN T (v, n).

Ejemplo A - 5 Calcule el elemento 7 de v := V ECT OR(3k 3 −5k 2 +17k, k, −14, 37, 3).
DERIVE nos muestra ELEM EN T (v, 7) = 180.

Para calcular la dimensión de un vector V , se emplea la siguiente instrucción

DIM EN SION (v).

Ejemplo A - 6 Calcule la dimensión delvector del ejercicio anterior.


DERIVE nos muestra DIM EN SION (v) = 18

Para calcular el módulo (o norma) de un vector v se emplea la instrucción.

DIM EN SION (v).

Ejemplo A - 7 Calcule la norma de a := [3, −7, 4, −8, 9, 5].


DERIVE nos muestra |a| = 2v61

Para construir matrices en forma implı́cita tenemos

V ECT OR(V ECT OR((f (k, t), k, m, n, s), t, p, q, r).

Ejemplo A - 8 Construya en derive la siguiente aplicacion y diga M(6):


E(i, n) := V ECT OR(IF (k = i, 1, 0), k, 1, n)
M (n)V ECT OR(E(i, n), i, 1, n)
89

En este momento vamos a aprender a operar matrices con Derive. Sean A


y B dos matrices de ordenes tales que las operaciones que a continuación se
presentan son permitidas tenemos entonces:

SUMA: A + B
PRODUCTO POR ESCALAR: α · B, en donde α ∈ C
PRODUCTO: A · B
DETERMINANTE: DET (A)
TRAZA: T RACE(A)
TRASPUESTA: A‘
MATRIZ INVERSA: (A)( − 1)
MATRIZ (A)n con n ∈ Z: (A)n
NORMA DE LA MATRIZ A: ABS(A)

Para solucionar el sistema Ax = B a su forma escalonada reducida, se em-


plea la instrucción:

ROW REDU CE(A, B)

Para calcular el polinomio caracterı́stico de una Matriz A escribiremos:

CHARP OLY (A, x)

Para calcular los valores caracteristicos de una Matriz tenemos:

EIGEN V ALU ES(A, x)

Para obtener el elemento aij de una matriz A tenemos la siguiente instruc-


ción:

ELEM EN T (A, i, j)

Ejemplo A - 9 sea la Matriz A := [1, 1; 1, 0] construya:

F IBON ACCI(n) := ELEM EN T (An , 1, 1)


F IBON ACCI S(M ) := V ECT OR(F IBON ACCI(n), n, 0, m)

Ahora con la función calculamos para m = 16 y obtenemos F IBON ACCI S(16) =


[1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597]

Para poder nombrar una fila de una matriz tenemos:

F ILA(A, k, m) := V ECT OR([ELEM EN T (A, k, I)], i, 1, m)‘


90 APÉNDICE A. ALGUNAS APLICACIONES EN DERIVE

Para obtener una columna de una matriz tomamos:

COLU M N A(B, k, n) := V ECT OR([ELEM EN T (B, i, k)], i, 1, n)

Para tener los vectores de la base canónica de mathbbR3 derive los nota:

i := [1, 0, 0]
j := [0, 1, 0]
k := [0, 0, 1]

Ejemplo A - 10 construya la siguiente función f (x, y, z) := (3x − 2y + z)i +


(4x − y − z)j + (−2x + 3y − z)k
Simplifique f (a, a, a):de donde DERIVE nos muestra f (a, a, a) = [2a, 2a, 0]

Otra función muy interesante es

KRON ECKER(i, j) := IF (i = j, 1, 0)

Construyendo las siguientes funciones tenemos:

γ(i, j, k, s) := KRON ECKER(i, k)KRON ECKER(j, s)


E(k, s, n, m)?V ECT OR(V ECT OR(?(i, j, k, s), j, 1, m), i, 1, n)

Ejemplo A - 11 Simplifique E(2, 3, 3, 4):de donde DERIVE nos muestra

E(2, 3, 3, 4) = [0, 0, 0, 0; 0, 0, 1, 0; 0, 0, 0, 0]

Sean u, v vector es de la misma dimensión o matrices del mismo orden, la


función siguiente nos permite agregar en forma matricial al vector u y al vector v:

AP P EN D(u, v)

Ejemplo A - 12 Costruya las siguientes funciones:

F (a, b) := AP P EN D([a‘; b‘])‘


G(a, b, c, d) := AP P EN D([F (a, b); F (b, d)])
θ(α, i, r, k) := If (k = i + r, α, 0)
M (α, r, n) := V ECT OR(V ECT OR(θ(α, i, r, k), k, 1, n), i, 1, n) +
IDEN T IT YM AT RIX(n)
H(α, β, δ, σ, r, s, t, p, n) := G(M (α, r, n), M (β, s, n),
M (δ, t, n), M (σ, p, n))
91

Ejemplo A - 13 Construya la siguiente función

D(q, i, j) := SIN (p/q(i − 1))KRON ECKER(j, q − i + 2)


M M 3(q) := V ECT OR(V ECT OR(D(q, i, j), i, 1, q), j, 1, q)
C(q, i, j) := COS(p/q(i − 1))KRON ECKER(i, j)
M M 4(q) := V ECT OR(V ECT OR(C(q, i, j), i, 1, q), j, 1, q)
R(q) := M M 3(q) + M M 4(q)
R(q) := M M 3(q) + M M 4(q)
M AT 2(q) := f (IDEN T IT YM AT RIX(q), R(q))
M AT 3(q) := f (IDEN T IT YM AT RIX(q), −R(q))
M 0(q) := AP P EN D([M AT 2(q); M AT 3(q)])
H(q) := f (M 0(q), 0IDEN T IT YM AT RIX(2q), M 0(q))
T (q) := f (0IDEN T IT YM AT RIX(2q), M 0(q))
M 0(q) := AP P EN D([M AT 2(q); M AT 3(q)])
H2(q) := f (M 1(q), 0IDEN T IT YM AT RIX(4q))
T 2(q) := f (0IDEN T IT YM AT RIX(4q), M 1(q))
M 2(q) := AP P EN D([H2(q); T 2(q)])v
M (n, q) := If (n = 0, M 0(q), AP P EN D([f (M (n − 1, q), 0IDEN T IT YM AT RIX(2n q));
f (0IDEN T IT YM AT RIX(2n q), M (n − 1, q))]))
HH(k, Q) := If (k = 2, M (0, 2( Q − 1))M (1, 2( Q − 2)), HH(k − 1, Q)M (k − 1, 2( Q − k)))
HR(q) := 1/2q IF (q = 1, M (0, 1), HH(q, q))
92 APÉNDICE A. ALGUNAS APLICACIONES EN DERIVE
Bibliografı́a

[1] Jimenez L., Gordillo J., Rubiano G., Teorı́a de Números [Para Prin-
cipiantes], Universidad Nacional de Colombia, Pro-Offset Editorial Ltda,
Bogotá, D.C., 2a Edición, 2004
[2] Friedberg S.,Insel A., Spence L.: Algebra Lineal, Illinois State Univer-
sity, Publicaciones Cultural S.A., 1a Edición,

[3] Ibort A., Rodriguez M.: Notas de Algebra Lineal, Universidad Com-
plutense de Madrid, Madrid , (2001).

[4] Ivorra C.: Algebra, Universidad Complutense de Madrid.

[5] Luzardo D., Peña A.: Historia del Algebra Lineal hasta los Albores
del Siglo XX, Universidad del Zulia, Maracaibo, Venezuela, Divulgaciones
Mateműaticas Vol. 14 No. 2(2006), pp. 153170 , (2006).

[6] Kline M.,: El pensamiento matemático de la Antigüedad hasta nuestros


dı́as, II, Oxford University Press, (1972).

[7] Bourbaki N.,: Elementos de Histoia de las Matematicas, Editeurs des Sci-
ences et des Arts, Parı́s , (1969).

[8] Nering E.: Algebra Lineal y Teorı́a de Matrices, México, Limusa (1977).

[9] Castro I. : Cómo hacer matemáticas con DERIVE, Reverté Colombiana


(1992).

93
94 BIBLIOGRAFÍA

You might also like