You are on page 1of 208

Metodos Matematicos Aplicados a la Fsica

Jes
us Garca Ortiz

ii

Indice general
I

Espacios Vectoriales

1. Espacios Vectoriales
1.1. Definiciones . . . . . . . . . .
1.2. Espacio Vectorial . . . . . . .
1.3. Subespacios y Suma Directa .
1.4. Independencia y Dependencia

II

. . . .
. . . .
. . . .
Lineal,

. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
Bases y Dimension

.
.
.
.

.
.
.
.

Aplicaciones Lineales
. . . . .
. . . . .
. . . . .
de Base
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

Producto interior

3. Producto Interior
3.1. Cotensores . . . . . . .
3.2. Producto Interior . . .
3.2.1. Ortogonalidad
3.3. Espacios de Hilbert . .
3.4. Operadores . . . . . .

3
3
6
17
22

33

2. Aplicaciones Lineales
2.1. Definiciones . . . . . . . . . . . . . . .
2.2. Propiedades de las transformaciones .
2.3. Isomorfismos . . . . . . . . . . . . . .
2.4. Representacion de Vectores y Cambios
2.5. Espacio Dual y Base Dual . . . . . . .
2.6. Cambio de Base en V . . . . . . . . .
2.7. Operadores Lineales y Operador Dual
2.7.1. Producto Tensorial . . . . . . .
2.7.2. Matrices . . . . . . . . . . . . .

III

.
.
.
.

35
35
43
51
54
58
61
66
71
72

85
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

iii

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

87
87
95
99
110
116

INDICE GENERAL

iv

IV

Teorema espectral

127

4. Teorema espectral
4.1. Ecuacion Av = v . . . . . . . . . . . . . . . . . . . .
4.1.1. Polinomio Caracterstico . . . . . . . . . . . . .
4.1.2. Matrices Similares . . . . . . . . . . . . . . . .
4.1.3. Relacion entre los Valores Propios y las Races
Caractersticas . . . . . . . . . . . . . . . . . .
4.1.4. Operadores de Proyecci
on . . . . . . . . . . . .
4.1.5. Subespacios Invariantes . . . . . . . . . . . . .
4.1.6. Descomposicion Espectral . . . . . . . . . . . .
4.1.7. Diagonalizacion de Matrices . . . . . . . . . . .
4.2. Forma Cuadratica . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

Tensores

5. Tensores
5.1. k-Cotensor . . . . . . . . .
5.2. Tensores . . . . . . . . . . .
5.3. Subida y Bajada de Indices
5.4. Contraccion de Tensores . .
5.5. Tensores Alternantes . . . .
5.6. Elemento de Volumen . . .
5.7. Producto Exterior . . . . .

VI

129
. . . . 129
. . . . 129
. . . . 131

Grupos

133
134
137
139
149
151

157
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

159
159
163
171
173
175
180
181

185

6. Grupos
187
6.1. Grupo, Subgrupos y Grupo Cociente . . . . . . . . . . . . . . 187
6.2. Homomorfismos, Isomorfismos y Representaciones . . . . . . 196
6.3. Representaciones . . . . . . . . . . . . . . . . . . . . . . . . . 199

Parte I

Espacios Vectoriales

Captulo 1

Espacios Vectoriales
1.1.

Definiciones

Nos iniciamos dando la definicion y ejemplos de algunas estructuras


algebraicas simples, las cuales facilitaran la comprension del tema central
de este captulo y en general del texto relativo a Espacios Vectoriales de
Dimension Finita.
Definici
on.- Un Grupo G es un conjunto no vaco con una operacion,
mapeo, regla o ley bien definida, tal que a toda pareja ordenada (u, v)
de G le asocia el elemento uv de G, ademas debe de cumplir con las
siguientes propiedades :
i. Asociativa : u(vw) = (uv)w, para todo u, v, w G.
nico e G, tal que
ii. Existencia del Elemento Identidad : Existe un u
para todo u G, ue = eu = u.
iii. Existencia del Elemento Inverso : Para cada u G, existe un u
nico
0
0
0
u G, tal que uu = u u = e.
Ejemplos
1. El conjunto de los n
umeros enteros Z, bajo la operacion usual de suma
forma un grupo, donde el elemento identidad es el cero, y el inverso
del entero s es s.
2. Las flechas en un plano con origen com
un, con la operacion usual
de suma de flechas, conocida como ley del paralelogramo, forman un
3

1.Espacios Vectoriales
grupo, donde el elemento identidad es la flecha de magnitud cero y el
inverso de una flecha es una flecha de la misma magnitud y sentido
opuesto.
3. El conjunto de los n
umeros reales R, bajo la operacion usual de suma
forma un grupo, donde el elemento identidad es el cero, y el inverso
del real s es s.
= R {0} bajo la operacion usual producto de reales
4. El conjunto R
forma un grupo, donde el elemento identidad es el uno y el inverso de
es 1 .
un s R
s
5. El conjunto de operadores hermticos bajo la operacion usual suma de
operadores forma un grupo, donde el elemento identidad es el operador
cero y el inverso aditivo de todo operador hermtico A es A.
6. El conjunto de rotaciones en m
ultiplos de 2 radianes en torno de un
eje perpendicular a un cuadrado y que pasa por su centro forma un
grupo, donde el elemento identidad es una rotacion de cero radianes y
el inverso de una rotacion R es aquella rotacion R0 que al ser aplicada
a continuacion de R lleva al cuadrado a la posicion que tena cuando
se aplico R.

Definici
on.- Se dice que un grupo G es Abeliano o Conmutativo si bajo
la operacion , uv = vu para todo u, v G.
Ejemplos.- Todos los grupos se
nalados anteriormente son Abelianos.
Por ahora se
nalaremos que siempre que se hable de un grupo se debe
especificar ademas de un conjunto una operacion binaria. En el captulo 6
haremos un estudio mas amplio de este tema.
Ejercicios : Secci
on 1.1
1. Las siguientes operaciones pueden aplicarse a cualquier elemento de
R2 .
Sea (x, y) perteneciente a R2 , se definen A1 , A2 , A3 y A4 como :
i. A1 (x, y) = (x, y).
ii. A2 (x, y) = (x, y).

1.1 Definiciones

iii. A3 (x, y) = (x, y).


iv. A4 (x, y) = (x, y).
Mostrar que estas cuatro operaciones bajo la operacion de aplicar una
a continuacion de otra forman un grupo, especificar explcitamente el
inverso de cada operacion.
2. Mostrar que el conjunto de matrices unitarias 22, cuyo determinante
es igual a uno, bajo la operacion usual de producto de matrices forma
un grupo.
Lo interesante de este grupo es que surge en Fsica y se conoce como
el SU(2). Vease cap. IV Mecanica Clasica H.Golstein Edit. Reverte.
3. Mostrar que el siguiente conjunto de matrices 2 2 forma un grupo,
bajo la operacion usual de producto de matrices

1 0
0 1
I=
, A1 =
,
0 1
1
0

A2 =

1
0
0 1

, A3 =

0 1
1 0

Definici
on.- Un Campo o Cuerpo K es un conjunto no vaco con dos
operaciones binarias + y tal que :
i. K bajo la operacion + es un grupo Abeliano.
ii. K {0} bajo la operacion es un grupo Abeliano.
iii. Para toda a, b, c K; a(b+c) = ab+ac conocida como ley distributiva
del producto respecto a la suma.
Ejemplos
1. El conjunto de los n
umeros racionales Q, bajo las operaciones usuales
de suma y producto forma un campo.
2. El conjunto de los n
umeros reales R, bajo las operaciones usuales de
suma y producto forma un campo.

1. Espacios Vectoriales
3. El conjunto de los n
umeros complejos C, bajo las operaciones usuales
de suma y producto forma un campo.

A los elementos de un campo se les conoce como escalares.


Los campos o cuerpos seran simbolizados con las letras may
usculas K,
R, C o K1 , K2 , etc. y los elementos de un campo con las primeras letras
min
usculas del alfabeto a, b, c, . . . o a1 , a2 , . . . .

1.2.

Espacio Vectorial

En la literatura existen diversas definiciones de un espacio vectorial


(e.v.), todas equivalentes, a continuaci
on daremos tres; una de ellas relacionada con las estructuras antes definidas.
1ra Definici
on.- Un Espacio Vectorial V bajo el campo K es un conjunto
no vaco con dos operaciones y (esta u
ltima, conocida como producto
por un escalar) bien definidas; de tal manera que V bajo la operacion es un
grupo Abeliano y bajo la operacion se cumplen las siguientes propiedades
:
i. Para todo u V y a K se cumple que au V .
ii. Para todo u V se cumple que 1u = u siendo el 1 el elemento identidad
de la operacion producto en K.
iii. Para todo u V y a, b K
a(bu) = (ab)u

(ley asociativa).

iv. Para todo u, v V y a K


a(u + v) = au + av

(una forma de la ley distributiva).

v. Para todo u V y a, b K
(a + b)u = au + bu

(otra forma de la ley distributiva).

2a Definici
on.- Un Espacio Vectorial V es un conjunto de objetos, no
vaco, con dos operaciones y , la operacion , usualmente conocida como
suma, y la operacion , conocida como producto por un escalar.
Bajo la operacion se deben cumplir las siguientes propiedades :

1.2 Espacio Vectorial

i. Para todo u, v V , se cumple que uv = w V, conocida como ley de


la cerradura.
ii. Para todo u, v V uv = vu

llamada ley conmutativa.

iii. Para todo u, v, w V , u(vw) = (uv)w llamada ley asociativa.


iv. La existencia de un elemento e V llamado el elemento identico o cero
bajo la operacion , el cual es u
nico y cumple la siguiente propiedad
: para todo u V, ue = eu = u
nico elemento v 0 V llamado
v. Para cada elemento v V , existe un u
0
0
inverso aditivo, tal que vv = v v = e.
Bajo la operacion se debe cumplir :
i. Para todo u V , y cualquier a K, au V
ii. Para todo u, v V y cualquier a K, a(uv) = auav conocida como
ley distributiva del producto con respecto a la operacion .
iii. Para todo u V , y a, b K,
la ley distributiva.

(a + b)u = au + bu

otra forma de

iv. Para todo a, b K y v V , a(bv) = (ab)v conocida como ley asociativa


con respecto al producto.
v. Para todo v V, 1v = v.
3ra Definici
on.- Sea V un conjunto no vaco y una operacion que
nos manda el producto cartesiano de V en V , es decir : V V V (a
esta operacion se le conoce usualmente como suma); y una operacion que
nos manda el producto cartesiano de K y V en V , es decir : K V V
(a esta operacion se le conoce usualmente como producto por un escalar).
Entonces V es un Espacio Vectorial respecto a estas dos operaciones (si se
cumplen todas las propiedades, antes se
naladas, respecto a y producto
por un escalar).
En esta definicion el producto cartesiano de V
V V = {(u, v) | u V y v V }
por lo que
K V = {(a, v) | a K y v V }
En base a lo anterior

1. Espacios Vectoriales
: (u, v) uv

: (a, v) av.

A los elementos de un e.v. se les llama vectores. Dependiendo de que


K sea el campo de los reales o de los complejos, tendremos e.v. reales o
complejos.
Siempre que se hable de un e.v. V , ademas del conjunto V se debe definir,
en forma clara, la operacion y el campo bajo el cual se cumple la operacion
.
Los e.v. seran simbolizados con las u
ltimas letras may
usculas del alfabeto
U, V, . . . , o U1 , U2 , . . . ; los elementos de un e.v. seran simbolizados con las
u
ltimas letras min
usculas del alfabeto. Esta notacion sera seguida en general
a reserva de que se diga otra cosa.
Antes de realizar algunos ejercicios, veamos algunas consecuencias inmediatas de las propiedades o axiomas antes se
nalados.
1. La unicidad del elemento e V bajo .
Demostracion : Supongamos que existe otro e0 V con la misma
propiedad de e, esto es :
e0 e = e0 por la propiedad de e
e0 e = e por ser e0 un elemento de V que cumple con la propiedad de
e.
Puesto que el miembro izquierdo de ambas igualdades es el mismo,
concluimos que e0 = e y por lo tanto e es u
nico.
2
Nota : Al elemento e bajo la operacion suma usualmente se le simboliza por 0 vector, La operacion es usualmente denotada por +.
2. Veamos ahora lo referente a la unicidad del elemento inverso aditivo.
Demostracion : Sea v V y v 0 su inverso aditivo, por lo que
vv 0 = e; supongamos ahora que existe w V tal que si v V ,
vw = e, puesto que el miembro derecho de ambas igualdades es el
mismo vv 0 = vw sumando v 0 por la izquierda a cada miembro
de esta igualdad, v 0 (vv 0 ) = v 0 (vw), aplicando la ley asociativa
(v 0 v)v 0 = (v 0 v)w, de aqu ev 0 = ew, infiriendose v 0 = w, de
donde se concluye que el inverso es u
nico.
.
2

1.2 Espacio Vectorial

Nota : Al elemento inverso aditivo de v, v 0 , usualmente se le simboliza


por v.
3. Probemos que 0u = 0 (donde el cero del miembro izquierdo, es el cero
de K y el cero del miembro derecho es el vector cero y u V ).
Demostracion : Sumemos al miembro del lado izquierdo de la igualdad anterior el vector u, es decir
u(0u) = (1u)(0u)

por axioma v de

(1u)(0u) = (10)u

por axioma iii de

y puesto que 10 corresponde a la suma tanto de reales como de complejos, es decir, 10 = 1 + 0 = 1, sustituyendo en la u
ltima igualdad
u(0u) = (10)u = u
la cual nos dice que 0u = 0 ya que el elemento 0 es u
nico.
2
4. Probemos ahora que a0 = 0 donde en ambos miembros 0 es el vector
cero y a K.
Demostracion : Sumemos al miembro del lado izquierdo de la igualdad
dist.
anterior el elemento au, es decir, aua0 = a(u0) = au, lo cual nos
dice que a0 = 0 ya que el elemento cero es u
nico.
.
2
Ejercicios :Secci
on 1.2.1 .- Para todo u, v V y a, b K mostrar :
i. (1)v = v.
ii. Si au = 0, entonces a = 0 o u = 0.
[iii.]Si au = av con a 6= 0, entonces u = v.
[iv.]Si au = bu con u 6= 0, entonces a = b.
v. (a)u = a(u) = (au)
vi. (uv) = (u)(v).

10

1. Espacios Vectoriales

vii. uu = 2u, uuu = 3u, etc.


Observe que todas estas propiedades no dependen de la definicion precisa
de la operacion , por lo que su validez se extiende a todo e.v. .
Ejemplos de espacios vectoriales.
1. K n = {(a1 , a2 , . . . , an ) con ai K} con las operaciones usuales de
suma de eneadas y producto de un escalar por una eneada es un e.v.
Veamos, sabemos que si u, v K n , u, v son de la forma u = (b1 , b2 ,
. . . , bn ), v = (c1 , c2 , . . . , cn ), por lo que :
def

v +u = (c1 , c2 , . . . , cn )+(b1 , b2 , . . . , bn ) = (c1 +b1 , c2 +b2 , . . . , cn +bn ).


De aqu se observa que se cumple la ley de la cerradura.
Acerca del cero.
El elemento e o 0 de K n es la eneada de ceros : 0 = (0, 0, . . . , 0)
| {z }
n

Acerca del inverso


Para todo u K n , existe u0 = u tal que si u = (a1 , . . . , an ),
u = (a1 , . . . , an ) = (a1 , . . . , an ).
Las leyes conmutativa y asociativa son inmediatas, se deja como ejercicio la prueba de ellas.
Con respecto a la operacion producto por un escalar la definicion de
este es :
Si a K y u K n con u = (a1 , a2 , . . . , an ),
def

au = a(a1 , a2 , . . . , an ) = (aa1 , . . . , aan )


de aqu se observa facilmente que au K n .

1.2 Espacio Vectorial

11

Combinando las dos operaciones se ve que se cumplen las demas propiedades, concluyendose que K n es un e.v. .
3
2. El conjunto de flechas sobre un plano con origen com
un, bajo las operaciones usuales de suma (ley del paralelogramo) y multiplicaci
on por un
i
n
umero complejo z =| z | e . Es evidente que bajo la operacion suma
se cumple la ley de la cerradura y las propiedades correspondientes a
esta (trace flechas en un plano con origen com
un y aplique la ley del
paralelogramo).
La multiplicacion de una flecha por un n
umero complejo z = | z | ei
es interesante, toda vez que, al realizar esta operacion | z |, aumenta
o disminuye la magnitud de la flecha y ei rota o gira a la flecha en
un angulo con respecto a su posicion inicial, puesto que la regla
esta dada, todas las propiedades con respecto al producto se cumplen
facilmente. Por lo que el conjunto de flechas antes mencionado es un
e.v. sobre los complejos.
3
3. Los polinomios con coeficientes en K de grado menor o igual a n, con
las operaciones usuales de suma de polinomios y multiplicaci
on por
escalares, forman un e.v. sobre K.
3
4. El conjunto de soluciones de una ecuacion diferencial de la forma
y 00 + ay 0 + by = 0 con a, b C, es un e.v. complejo, bajo las operaciones usuales de suma de funciones, y producto de una funcion
por un escalar.
Es claro que el conjunto de soluciones cumple con la cerradura, ya
que si 1 y 2 son soluciones de la ecuacion, 1 + 2 tambien es
solucion, esta u
ltima afirmacion se observa al sustituir 1 + 2 en la
ecuacion y aplicar la derivaci
on correspondiente, las demas propiedades
con respecto a la suma se cumplen trivialmente.
Con respecto al producto por un escalar si s C y 1 es solucion de la
ecuacion, veremos que s1 tambien es solucion, sustituyendo s1 en

12

1. Espacios Vectoriales
la ecuacion nos da :
(s1 )00 + a(s1 )0 + b(s1 ) = s001 + as01 + bs1
= s[001 + a01 + b1 ]
= s0
= 0.
Las demas propiedades con respecto al producto son inmediatas. Por
tanto, el conjunto de soluciones de la ecuacion diferencial es un e.v.
complejo.
3

5. El conjunto V = {0} el cual consiste de un solo elemento, con la operacion usual de suma y producto de un elemento de K por cero es un e.v. .
3
6. El conjunto de elementos de R2 que representa a puntos que se encuentran sobre una recta que pasa por el origen, bajo las operaciones
usuales de suma de parejas y producto de un escalar por una pareja,
forma un e.v.
Demostracion : Sea
V = {(x, y) R2 | y = x, = cte.}
i. Observemos que se cumple la ley de la cerradura.
Sean u = (x1 , y1 ) y v = (x2 , y2 ) V, por probar que u+v V,
veamos :
u + v = (x1 , y1 ) + (x2 , y2 ) = (x1 , x1 ) + (x2 , x2 )
= (x1 + x2 , x1 + x2 ) = (x1 + x2 , (x1 + x2 )) V.
ii. Observemos que se cumple la ley conmutativa
Sean u = (x1 , y1 ) y v = (x2 , y2 ) V , por probar que u+v = v+u,
veamos :
u + v = (x1 , y1 ) + (x2 , y2 ) = (x1 , x1 ) + (x2 , x2 )
= (x1 + x2 , x1 + x2 ) = (x2 + x1 , x2 + x1 )
= (x2 , x2 ) + (x1 , x1 )
= v + u.

1.2 Espacio Vectorial

13

iii. Observemos que se cumple la ley asociativa


Sean u = (x1 , y1 ) , v = (x2 , y2 ) y w = (x3 , y3 ) V , por probar
que u + (v + w) = (u + v) + w, veamos :
u + (v + w) = (x1 , x1 ) + (x2 + x3 , (x2 + x3 ))
= (x1 + (x2 + x3 ), x1 + (x2 + x3 ))
= ((x1 + x2 ) + x3 , (x1 + x2 ) + x3 )
= [x1 + x2 , (x1 + x2 )] + (x3 , x3 )
= (u + v) + w.
iv. Existencia del elemento cero en V.
El elemento (0, 0) R2 tambien esta en V ya que (0, 0) = (0, 0),
por lo que para toda u = (x, y) V
u + 0 = (x, x) + (0, 0) = (x + 0, x + 0) = (x, x) = u.
v. Existencia del inverso
Por probar que si u V , existe u0 V , tal que u + u0 = 0.
Sea u = (x, y) V , por lo que u = (x, y) = (x, x) =
(x, x) tambien esta en V y
u + (u) = (x, x) + (x, x) = (x + (x), x + (x))
= (0, 0) = e.
Con respecto a la operacion producto por un escalar
i. Observemos que para todo u = (x, y) V y a R, au V,
veamos :
au = a(x, y) = a(x, x) = (ax, ax) = (ax, ax) V.
ii. Observemos que para todo u = (x1 , y1 ), v = (x2 , y2 ) V y a R,
a(u + v) = au + av, veamos :
a(u + v) = a[(x1 , y1 ) + (x2 , y2 )] = a[(x1 , x1 ) + (x2 , x2 )]
= a[x1 + x2 , x1 + x2 ] = [a(x1 + x2 ), a(x1 + x2 )]
= [ax1 + ax2 , ax1 + ax2 ] = (ax1 , ax1 ) + (ax2 , ax2 )
= a(x1 , x1 ) + a(x2 , x2 )
= au + av.

14

1. Espacios Vectoriales
iii. Observemos que para todo u = (x1 , y1 ) V y a, b K,
(a + b)u = au + bu, veamos :
(a + b)u = (a + b)(x1 , y1 )
= (a + b)(x1 , x1 )
= ((a + b)x1 , (a + b)x1 )
= (ax1 + bx1 , ax1 + bx1 )
= (ax1 , ax1 ) + (bx1 , bx1 )
= a(x1 , x1 ) + b(x1 , x1 )
= au + bu.
iv. Observemos que para todo u = (x, y) V y a, b R,
a(bu) = (ab)u, veamos :
a(bu) = a[b(x, x)] = a(bx, bx) = (abx, abx)
= (ab)(x, x)
= (ab)u.
v. Observemos que para todo u = (x, y) V y 1 R,
1u = u, veamos :
1u = 1(x, x) = (1x, 1(x)) = (x, x) = u.
3
Si bien es cierto que el conjunto de elementos de R2 que representa a puntos que estan sobre la recta y = x forma un e.v., no
todo conjunto de puntos que estan sobre una recta forma un e.v.
bajo las operaciones definidas en R2 .
Es claro que para probar que un conjunto es un e.v. se requiere
comprobar los diez axiomas de la 2a definici
on; en futuras demostraciones, solo se comprobaran aquellos axiomas que parezcan
menos evidentes.

7. El conjunto de elementos de R3 que representa a puntos sobre un plano


que pasa por el origen, bajo las operaciones usuales de suma de tradas
y producto de un escalar por una trada, forma un e.v. .
Demostracion : Sea
V = {(x, y, z) R3 | y = ax + by + cz = 0, a, b, c R, fijos}

1.2 Espacio Vectorial

15

En relacion a la suma.
i. Observemos que se cumple la ley de la cerradura.
Sean u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ) V , por probar que
u + v V , veamos :
u + v = (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 )
y esta es una trada que se encuentra en V , ya que
a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 )
= ax1 + ax2 + by1 + by2 + cz1 + cz2
= (ax1 + by1 + cz1 ) + (ax2 + by2 + cz2 )
= 0 + 0 = 0.
v. Sea u = (x, y, z) V, u = (x, y, z) = (x, y, z) por suma
de tradas sabemos que u es el inverso de u, por otra parte,
queremos observar si u satisface la ecuacion del plano, lo cual
es evidente.
Del producto por un escalar.
i. Observemos que para toda u = (x1 , y1 , z1 ) V y R , u V ,
veamos :
u = (x, y, z) = (x, y, z) y esta es una trada que se encuentra sobre el plano, ya que :
a(x) + b(y) + c(z) = (ax + by + cz) = 0 = 0.
La prueba de los demas axiomas se deja como ejercicio al lector.
3
Sin embargo no todos los conjuntos de R3 , que representan a puntos
sobre un plano, forman un e.v. .
8. El conjunto de funciones continuas W, definidas sobre el intervalo
[a, b] R, bajo las operaciones usuales de suma de funciones y producto de un escalar real por una funcion forma un e.v. .

16

1. Espacios Vectoriales
Demostracion : Sean F, G W y R, sabemos que :
(F + G)x = F (x) + G(x)

(F )x = (F (x))

i. Observemos que la ley de la cerradura con respecto a la adicion se


cumple, ya que la suma de funciones continuas es continua.
iv. Nuestro elemento identidad es la funcion cero tal que : 0(x) = 0.
v. El inverso de F es F tal que : (F )x = (F (x))
Las demas propiedades se verifican facilmente.
3
9. El conjunto de matrices de r renglones y s columnas sobre R, simbolizado por Mrs (R), bajo las operaciones usuales de suma de matrices
y producto de un escalar por una matriz constituye un e.v. .
Demostracion : Sean (aij ) y (bij ) Mrs (R) y R, sabemos que :
def

(aij ) + (bij ) = (aij + bij )

y que

def

(aij ) = (aij ).

Con respecto a la suma


i. Observemos que la ley de cerradura se cumple trivialmente de la
definicion de suma de matrices.
iv. El cero corresponde a aquella matriz 0 Mrs (R) constituida por
ceros.
Del producto por un escalar
i. Observemos que la ley de la cerradura se sigue de la definicion de
producto por un escalar.
Las demas propiedades se verifican facilmente.
3
Ejercicios : Secci
on 1.2.2
En los siguientes problemas, determine cuando el conjunto dado es un
e.v. , en caso de no serlo, se
nale los axiomas que no se cumplen.

1.3 Subespacios y Suma Directa

17

1. El conjunto S1 = {(a, b) R2 : a 0} , bajo las operaciones de suma


de parejas y producto de un escalar por una pareja.
2. El conjunto S2 = {(a, b) R2 : a = b} , bajo las operaciones usuales
de suma y producto de un escalar por una pareja.
3. El conjunto de matrices diagonales de nn, bajo la operacion producto
de matrices y producto de un escalar por una matriz.
4. El conjunto de polinomios de grado cinco bajo las operaciones usuales
de suma de polinomios y producto de un escalar por un polinomio.
5. El conjunto de polinomios de grado cinco con termino independiente
mayor que cero, bajo las operaciones del ejercicio 4.
6. El conjunto de polinomios de grado cinco con termino independiente
igual a cero, bajo las operaciones del ejercicio 4.
7. El conjunto de funciones continuas definidas en el intervalo cerrado
[a, b], tal que si f es una de ellas con f (a) = f (b) = 0, bajo las
operaciones usuales de suma de funciones y producto de un escalar
por una funcion.
8. El conjunto de funciones continuas en el intervalo cerrado [a, b], tal que
si f es una de ellas f (c) = 0 con a < c < b, bajo las operaciones usuales
de suma de funciones y producto de un escalar por una funcion.
9. El conjunto de puntos en R3 situados sobre la recta
{3x y 3 = 0

y 3z 3 = 0},

bajo las operaciones usuales de suma de tradas y producto de un


escalar por una trada.
10. El conjunto de funciones continuas y derivables en el intervalo cerrado
[a, b], bajo las operaciones usuales de suma de funciones y producto de
un escalar por una funcion.

1.3.

Subespacios y Suma Directa

Definici
on.- Se dice que M es un Subespacio de V , si M es un
subconjunto de V , el cual es en s mismo un subespacio vectorial, bajo las
mismas operaciones de V y bajo el mismo campo.

18

1. Espacios Vectoriales
Lema.- Un subconjunto M de V es un Subespacio de V si :

i. u M y a K au M
ii. u, v M, uv M .
Veamos a continuaci
on que estas dos propiedades son suficientes para ver
que M es un e.v. .
La ley de la cerradura se cumple de ii).
Las leyes conmutativa y asociativa se cumplen por ser los elementos de
M elementos de V .
La existencia del elemento identico o cero bajo la suma se cumple de i).
La existencia del inverso aditivo se cumple de i).
Las propiedades correspondientes al producto por un escalar se cumplen
trivialmente de la definicion de las operaciones.
Una forma alternativa para ver que un subconjunto M de V es un subespacio de V , consiste en probar que u, v M y a1 , a2 K una combinacion lineal de u, v esta en M, es decir (a1 u + a2 v) M .
Ejercicios : Secci
on 1.3.1.- Probar que los siguientes conjuntos son
subespacios de R3 .
1. M1 = {(a, b, c) R3 : c = 0}
2. M2 = {(a, b, c) R3 : b = 0}
3. M3 = {(a, b, c) R3 : a = 0}
4. L1 = {(a, b, c) R3 : a = b = 0}
5. L2 = {(a, b, c) R3 : a = c = 0}
6. L3 = {(a, b, c) R3 : b = c = 0}
7. N = {(a, b, c) R3 : a = b = 2c}
Toda vez que se puede probar facilmente que los subconjuntos anteriores
son subespacios de R3 , daremos algunas definiciones de conjuntos de V ,
aparentemente mas complicados, y veremos que son subespacios de V .
Sean M y N dos subespacios vectoriales de V
M + N = {v V : v = v1 + v2 , v1 M y v2 N }

1.3 Subespacios y Suma Directa

19

M N = {v V : v M y v N }
Demostraremos que M + N y M N son subespacios de V .
Demostracion : Para M + N
Sean w, u M + N, lo cual implica que w = w1 + w2 con w1 M y
w2 N ; u = u1 + u2 con u1 M y u2 N ; y sean a1 , a2 K
a1 w + a2 u = a1 (w1 + w2 ) + a2 (u1 + u2 )
= a1 w1 + a1 w2 + a2 u1 + a2 u2
= (a1 w1 + a2 u1 ) + (a1 w2 + a2 u2 ) M + N
ya que :
a1 w1 + a2 u1 M
a1 w2 + a2 u2 N

por ser M y N subespacios de V.


2
Demostracion : Para M N
Sean u, v M N, lo cual implica que u, v M y u, v N, y sean
a1 , a2 K, por probar que : a1 u + a2 v M N, lo cual es inmediato, ya
que (a1 u + a2 v) M y (a1 u + a2 v) N.
2
Ejercicios : Secci
on 1.3.2.En los ejercicios siguientes determinar si el subconjunto dado, del espacio
vectorial que se indica, es un subespacio vectorial.
1. S1 = {(x, y) R2 : x = 2y}
2. S2 = {(x, y, z) R3 : x + y + z = 0}
3. S3 = {(x, y, z) R3 : x = y, 2y = z}
4. S4 = {(aij ) Mnn : aij = aji }
5. S5 = {(aij ) Mnn : aij = 0 cuando i 6= j}

a b
6. S6 = (aij ) M22 : (aij ) =
b a

20

1. Espacios Vectoriales

7. S7 =

x
0
(aij ) M22 : (aij ) =
0 x+2

8. S8 = {(aij ) M33 : aij = 0 cuando i = j}


9. S9 = {P P3 : grado P = 3}
10. S10 = {P Pn : Pn (0) = 0}
11. S11 = {f C[a, b] : f (a) = f (b) = 0}
12. S12 = {f C[a, b] : f (c) = 0, a < c < b}
Rb
13. S13 = {f C[a, b] : a f (x)dx = 0}

Rb
14. S14 = {f C[a, b] : a f (x)dx = 2}
15. Hallar las sumas e intersecciones de los subespacios L1 , L2 , L3 , M1 ,
M2 , M3 y N , antes se
nalados.
16. Sean N1 y N2 subconjuntos de M22 tales que :
N1 = {(aij ) M22 : a12 = 0}

N2 = (aij ) M22 : (aij ) =

a b
b a

Mostrar :
i. N1 y N2 son subespacios de M22 .
ii. N1 + N2 es un subespacio de M22 .
iii. N1 N2 es un subespacio de M22 .
Debido a que R3 = M1 + M2 , cualquier vector w R3 se puede poner
como la suma de un vector en M1 y otro en M2 pero de muchas formas
diferentes, por ejemplo :

1
1
a, b, 0 +
a, 0, c
(a, b, c) = (0, b, 0) + (a, 0, c) =
2
2
= (a + d, b, 0) + (d, 0, c). con d R arbitrario.
Si M y N son subespacios de V, entonces 0 M y 0 N, por lo que
siempre 0 M N.

1.3 Subespacios y Suma Directa

21

Supongamos ahora que M N contiene solo al vector cero (M N = {0}),


tomemos ahora w M + N y escribamoslo de dos maneras diferentes, i.e.
w = u1 + u2 con u1 M y u2 N y w = v1 + v2 con v1 M y v2 N, se
tiene entonces que u1 + u2 = v1 + v2 o u1 v1 = v2 u2 , donde el vector de
la izquierda esta en M y el de la derecha en N ; debido a la igualdad, dichos
vectores estan tanto en M como en N , sin embargo sabemos que el u
nico
vector que esta en M y N es el cero, por lo que:
u1 v1 = 0 u1 = v1

u2 v2 = 0 u2 = v2

concluyendose que si M N = {0}, cualquier vector w M + N tiene descomposicion u


nica como suma de vectores, uno en M y otro en N . Cuando
esto u
ltimo sucede, se dice que M + N es la suma directa de M y N y se
escribe M + N = M N .
Recprocamente, si todo vector de M + N tiene descomposicion u
nica y
tomamos un vector w M N , este se puede escribir como :
w = w + 0 con w M y 0 N y w = 0 + w con 0 M y w N
puesto que w tiene descomposicion u
nica, esto implica que w = 0 y por
tanto M N = {0}, de aqu inferimos el siguiente teorema :
Teorema.- M + N = M N M N = {0}.
Ahora extendemos las definiciones anteriores diciendo que si M1 , M2 ,
. . . , Mn son subespacios de V entonces M = M1 + M2 + + Mn es un
subespacio de V, y si w M, entonces w = w1 + w2 + + wn , wi Mi .
Similarmente se define M1 M2 Mn , como los w V tal que
w Mi para toda i.
Definici
on.- M1 + M2 + + Mn = M1 M2 Mn si cada vector
w M1 + M2 + + Mn , tiene descomposicion u
nica, es decir si

w = w1 + + wn con wi Mi
vi = wi
w = v1 + + vn con vi Mi
en otras palabras M1 + M2 + + Mn = ni=1 Mi Mi Mj = {0}, sin
embargo la recproca no se cumple ya que
si (x, y, z) M1 + L1 + N y M1 L1 N = {0}, con M1 , L1 yN subespacios
(ver pag. 14 y 15)
(x, y, z) = (x 2z + 2, y 2z + 2, 0) + (0, 0, ) + (2z 2, 2z 2, z )
exprecion que es cierta para todo valor de ,por lo que (x, y, z) no tiene de
descomposicion u
nica.

22

1. Espacios Vectoriales

1.4.

Independencia y Dependencia Lineal, Bases y


Dimensi
on

Sea V un e.v. con cada elemento v V podemos formar conjuntos


cuyos elementos sean de la forma av con a K, a estos conjuntos los
simbolizaremos como Lv .
Ejercicio.- Mostrar que Lv es un subespacio de V .
Definici
on.- Se dice que un conjunto de vectores {u1 , u2 , . . . , un } =
{ui }ni=1 V son Linealmente Independientes (L.I.), si Lu1 +Lu2 + +Lun =
Lu1 Lu2 Lun . Si Lu1 + Lu2 + + Lun 6= Lu1 Lu2 Lun , se
dice que los vectores son Linealmente Dependientes (L.D.).
Definici
on.- Si w Lu1 + Lu2 + + Lun , se dice que w es una Combinaci
on Lineal de los vectores {u1 , . . . , un }, esto es, w = w1 + w2 + + wn
con wi Lui .
En base a esta definicion decimos que un conjunto de vectores {u1 , u2 ,
. . . , un } son linealmente independientes si w Lu1 + Lu2 + + Lun , con
w = a1 u1 + a2 u2 + + an un
w = b1 u1 + b2 u2 + + bn un

ai = bi

de esta definicion se implica que


0 = w w = (a1 b1 )u1 + (a2 b2 )u2 + + (an bn )un
lo cual dice que la u
nica posibilidad que se tiene de formar al vector cero
como una combinacion lineal de los vectores {u1 , u2 , . . . , un }, los cuales son
L.I., es que todos los coeficientes de la combinaci
on deben ser necesariamente
cero. Es decir, si {u1 , u2 , . . . , un } son L.I.
0 = a1 u1 + a2 u2 + + an un ai = 0 con i = 1, . . . , n.
De no ser as, decimos que el conjunto de vectores es L.D., es decir, si en la
construccion del vector cero como una combinaci
on lineal de {u1 , u2 , . . . ,
un } cuando menos uno de los coeficientes es diferente de cero, el conjunto
{u1 , u2 , . . . , un } es L.D. .
Ejemplos

1.4 Independencia y Dependencia Lineal, Bases y Dimension

23

1. Mostrar que los vectores (5, 0, 0), (0, 1, 0) y (0, 0, 12 ) son L.I. .
Solucion :
1
(0, 0, 0) = a1 (5, 0, 0) + a2 (0, 1, 0) + a3 (0, 0, )
2
a3
= (5a1 , 0, 0) + (0, a2 , 0) + (0, 0, )
2
a3
= (5a1 , a2 , )
2

a1 = 0
5a1 = 0
a2 = 0

a2 = 0

a3
=
0

a3 = 0
2
3
2. Mostrar que si {x, y, z} son vectores de V , L.I. entonces { x + y, y z,
2x z } son L.I.
Solucion :
0 = a1 (x + y) + a2 (y z) + a3 (2x z)
= a1 x + a1 y + a2 y a2 z + 2a3 x a3 z
= (a1 + 2a3 )x + (a1 + a2 )y (a2 + a3 )z
puesto que por hipotesis {x, y, z} son L.I.

a1 + 2a3 = 0
a1 + a2 = 0

a2 + a3 = 0

a1 = a2 = a3 = 0
3

3. Mostrar que si {x, y} son L.I. entonces el conjunto { x + y, y, x }


es L.D. .
Solucion :
0 = a1 (x + y) a2 y a3 x = a1 x + a1 y a2 y a3 x
= (a1 a3 )x + (a1 a2 )y
y

24

1. Espacios Vectoriales

a1 a3 = 0
a1 a2 = 0

a3 = a1
a2 = a1

por lo que
0 = a1 (x + y) a1 y a1 x para toda ai K
de donde concluimos que { x + y, y, x } son L.D. .
3
Ejercicio.- Mostrar que si { 1, x, x2 } son tres vectores de V , L.I., entonces el conjunto de polinomios { 1 + x, x2 1, 1 + x + x2 }, con coeficientes
complejos, de grado menor o igual a dos son L.I. .
Como consecuencia de la definicion de vectores L.I., tenemos el siguiente
resultado :
Lema.- Si {u1 , u2 , . . . , uk } V son L.I. y uk+1 V pero
uk+1 6 Lu1 + Lu2 + + Luk {u1 , u2 , . . . , uk , uk+1 } es L.I. .
Demostracion : Supongamos por contradicci
on que {u1 , u2 , . . . , uk+1 }
es L.D., desde luego que si esta propuesta nos lleva a alguna contradicci
on,
la propuesta correcta es la contraria.
Construyamos el 0 como combinaci
on lineal del u
ltimo conjunto
0 = a1 u1 + a2 u2 + + ak uk + buk+1 , de aqu observamos que b no puede ser
cero, de serlo tendramos que 0 = a1 u1 + a2 u2 + + ak uk ai = 0, con
i = 1, . . . , k ya que por hipotesis {ui }ki=1 son L.I. y por tanto el conjunto {u1 ,
u2 , . . . , uk+1 } sera L.I., contrario a lo supuesto. Por otra parte, si b 6= 0,
tendramos que uk+1 = 1b (a1 u1 + + ak uk )

1.4 Independencia y Dependencia Lineal, Bases y Dimension

25

uk+1 Lu1 + Lu2 + + Luk lo cual contradice la hipotesis inicial, por


lo tanto {u1 , u2 , . . . , uk+1 } son L.I. .
3
Explotando un poco este resultado, llegaremos a otro resultado de interes.
Sea {u1 , u2 , . . . , uk } V L.I. y sea uk+1 V pero uk+1 6 Lu1 + Lu2 + +
Luk
{u1 , u2 , . . . , uk , uk+1 } son L.I., si al continuar as este proceso
termina decimos : El espacio V es de dimension finita y su dimension es
igual al n
umero de vectores L.I. .
1. El conjunto de vectores en donde termino el proceso es una base de V .
En caso de que el proceso no termine decimos que el espacio vectorial
V es de dimension infinita.
Definici
on.- Si {u1 , u2 , . . . , ur } es un conjunto de vectores L.I. y V =
Lu1 + Lu2 + + Lur decimos que {u1 , u2 , . . . , ur } es una Base de V y
que la dimension de V es r, la cual se simboliza por D(V)=Dim(V)=r.
Otra manera de decirlo es :
Si V = Lu1 + Lu2 + + Lur = Lu1 Lu2 Lur , entonces
{u1 , u2 , . . . , ur } es una base de V
Lo anterior es equivalente a la siguiente definicion.
Definici
on.- Se dice que un conjunto de vectores {v1 , v2 , . . . , vn } es una
Base del e.v. V si :
i. {v1 , v2 , . . . , vn } V.
ii. {v1 , v2 , . . . , vn } generan V.
iii. {v1 , v2 , . . . , vn } son L.I. .
Sin embargo si {v1 , v2 , . . . , vn } V es tal que V = Lv1 + Lv2 + + Lvn
esto no significa que {v1 , v2 , . . . , vn } sean L.I., lo que esto significa es que
{v1 , v2 , . . . , vn } es un generador de V. Por lo tanto un generador de V puede
estar constituido por un conjunto de vectores L.I. o L.D. .

26

1. Espacios Vectoriales

A partir de lo anterior desprenderemos un teorema que tiene que ver con


la dependencia lineal.
Teorema.- Sea {vi }ni=1 un conjunto de vectores de V , el conjunto {vi }1i=1
o sea el conjunto formado de un solo elemento, el v1 , es L.D. si y solo si
v1 = 0; si n > 1 y v1 6= 0, el conjunto {vi }ni=1 es L.D. si y solo si vk es una
combinacion lineal de aquellos que le preceden, siendo vk un elemento del
conjunto.
Demostracion :
1ra Parte
Supongamos que el conjunto {vi }1i=1 es L.D. por lo que al construir el
vector cero como una combinaci
on lineal de este conjunto, es decir 0 = av1 ,
se implica que v1 = 0 y a 6= 0. Recprocamente si v1 = 0, entonces av1 = 0
para todo a k por lo que {vi }1i=1 es L.D. .
2da Parte
Bajo las condiciones establecidas en el teorema supongamos que {vi }ni=1
es L.D., esto significa que
0 = a1 v1 + a2 v2 + + ak vk + ak+1 vk+1 + + an vn ,
Sea ak el coeficiente de las vk a partir de las cuales los demas coeficientes
son cero, por lo que vk = a1k (a1 v1 + a2 v2 + + ak1 vk1 ) implicandose
que vk es una combinaci
on lineal de aquellos que le preceden.
Recprocamente si vk es una combinaci
on lineal de aquellos que le preceden,
tendremos que : vk = b1 v1 + b2 v2 + + bk1 vk1 por lo que el cero se puede
poner como 0 = b1 v1 + b2 v2 + + bk1 vk1 vk y hemos construido el
vector cero como una combinaci
on lineal de {v1 , v2 , . . . , vk } con no todos los
coeficientes iguales a cero, por lo que el conjunto {v1 , v2 , . . . , vn } es L.D. .
2
En base a lo anterior y teniendo en cuenta la definicion de base, mostraremos que toda base de un espacio vectorial V tiene el mismo n
umero de
elementos.
Demostracion : Sean {v1 , v2 , . . . , vn } y {w1 , w2 , . . . , wr } dos bases
de V , con r mayor que n, por lo que, cualquier elemento de una base
se puede
como combinaci
on lineal de los elementos de la otra, i.e.
Pr poner
Pn
j
s
vi = j=1 ci wj y wk = s=1 dk vs , en particular, w1 = d11 v1 + + dn1 vn implicando que el conjunto {w1 , v1 , . . . , vn } es L.D. y por el teorema anterior vk

1.4 Independencia y Dependencia Lineal, Bases y Dimension

27

con k = 1, . . . , n es una combinaci


on lineal de aquellos que le preceden, por
lo que el conjunto {w1 , v1 , . . . , vk1 , vk+1 . . . , vn } sigue generando V ; y por
tanto w2 se puede poner como combinaci
on lineal del u
ltimo conjunto y {w2 ,
w1 , v1 , . . . , vk1 , vk+1 , . . . , vn } sigue siendo un generador de V , L.D., por
lo que, existe en el conjunto un vt que es una combinaci
on lineal de aquellos
que le preceden, por lo que si lo quitamos, el conjunto que nos queda sigue
generando V , i.e. {w2 , w1 , v1 , . . . , vt1 , vt+1 , . . . , vk1 , vk+1 , . . . , vn }, este
proceso a lo mas lo podemos realizar n veces, i.e. cuando se hayan sacado
todas las vs , quedando {w1 , w2 , . . . , wn } el cual seguira siendo un generador
de V , y puesto que por hipotesis r > n el resultado anterior implicaria que,
wn+1 , wn+2 , . . . , wr se pueden poner en terminos de {w1 , w2 , . . . , wn } lo cual
no puede ser, toda vez que las r ws forman una base de V para que esto no
suceda es necesario que r = n.
2
Teorema.- Si M y N son subespacios de V , entonces
D(M + N ) = D(M ) + D(N ) D(M N )
Demostracion : Para la demostracion de esta afirmacion supongamos
que {w1 , w2 , . . .,wr } es una base de M N , por ser M N un subespacio
de M , podemos agregarle a la base de M N, m
as vectores v M , pero,
v 6 Lw1 + + Lwr , hasta formar una base de M , sea esta {w1 , w2 , . . . ,
wr , v1 , v2 , . . . , vs }, en forma similar, podemos agregar a la base de M N
vectores Mi N , hasta formar una base de N , sea esta {w1 , w2 , . . . , wr ,
u1 , u2 , . . . , um }, ahora bien, puesto que ya tenemos las bases de M y N , en
principio ya podemos proponer una base de M + N , observemos que esta
puede ser :
{w1 , w2 , . . . , wr , v1 , v2 , . . . , vs , u1 , u2 , . . . , um }
quedandonos por ver si efectivamente, el conjunto anterior es una base de
M + N . Veamos, formemos el cero como una combinaci
on lineal de la base
anterior, i.e.
0 = a1 w1 + + ar wr + b1 v1 + + bs vs + c1 u1 + + cm um
Si x Lw1 + + Lwr + Lu1 + + Lum y x Lv1 + Lv2 + + Lvs ,
entonces x M N, lo cual implica que x Lw1 + Lw2 + + Lwk , puesto

28

1. Espacios Vectoriales

que {w1 , w2 , . . . , wk } son L.I., por tanto, x en terminos de los subespacios


{Lw1 , Lw2 , . . ., Lwk } tiene descomposicion u
nica, por lo que la u
nica posibilidad que nos queda es que x = 0, de donde se concluye que para toda
ai = bj = ck = 0 se cumple que :
D(M + N ) = D(M ) + D(N ) D(M N ) = k + m + k + n k.
2
Como un corolario de este resultado tendremos
M + N = M N D(M + N ) = D(M ) + D(N )
Ejercicios : Secci
on 1.4.En cada uno de los ejercicios siguientes, poner el vector indicado como
una combinacion lineal del conjunto dado.
1. Poner (a, b) R2 en terminos de { (1, 2), (2, 4), (1, 2) }
2. Poner (x, y, z) R3 en terminos de { (1, 1, 1), (0, 2, 2), (0, 0, 3) }
3. Poner (x, y, z) R3 en terminos de
{ (1, 1, 1), (0, 2, 2), (0, 0, 3), (1, 2, 3) }
4. Poner

1 2
M22 en terminos de
3 4

2 0
2 2
2 2
2 2
,
,
,
0 0
0 0
2 0
2 2
5. Poner 1 2x + x2 P2 en terminos de {1, 1 + x, 2 + x2 }
6. Poner (a1 , a2 , . . . , an ) Rn en terminos de
{e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) }
|
| {z }
| {z }
{z
}
n

7. Poner (2, 3i, 5i) C 3 en terminos de

1.4 Independencia y Dependencia Lineal, Bases y Dimension

29

{e1 = (1, 0, i), e2 = (1 + i, 1 i, 1), e3 = (i, i, i)} C 3


8. Poner f (t) como una combinaci
on lineal de { et , et } tal que f (0) = 1
0
y f (0) = 2.
9. Poner f (t) como una combinaci
on lineal de { sen x, cos x, ex } tal que
f (0) = 0, f 0 (0) = 1 y f 00 (0) = 1.
10. Expresar (3+i, i) como una combinaci
on lineal de (1+i, 2i) e (i, 1i).
En cada uno de los ejercicios siguientes determine cuando el conjunto
dado genera o no el espacio vectorial que se indica.
11. Sea T1 = { (a, a), (b, b) } R2 .
12. Sea T2 = { (a, 0, 0), (0, a, 0), (0, 0, a) } R3 .

a 0
a a
a a
a a
,
,
,
M22
13. Sea T3 =
0 0
0 0
a 0
a a

14. Sea T4 =

a 0
0 0

a a
a a
,
,
M22
0 0
a 0

15. Sea T5 = { 1, 2x, 3x2 } P2 .


16. Sea T6 = { 1, x, x + 1 } P1 .
17. Sea T7 = { 1, x, x + 1 } P2 .
En cada uno de los ejercicios siguientes, determine si el conjunto dado
de vectores es linealmente dependiente o independiente.
18. Sea { (a, b), (c, d), (e, f ) } R2 .
19. Sea { (a, b), (a, b + 1) } R2 .
20. Sea { (a, b, c), (a, b, c), (1, 1, 1) } R3 .
21. Sea { (1, 1, 1), (0, 2, 2), (0, 0, 3) } R3 .

1 1
1 0
1 0
22. Sea
,
,
M22
1 1
1 1
0 1

1 2
2
3
2 4
1 1
23. Sea
,
,
,
M22
1 3
2 5
2 6
1 1

30

1. Espacios Vectoriales

24. Sea

25. Sea

1 0
0 0
0
3




1 1
1 1
1 1
,
,
M22
,
1 0
1 1
0 0
1

1
0
2
2
,
M22
0
0 3

26. Sea { 5, 1 + x, x2 } P2 .
27. Sea { 1 + x, 1 + x2 , 3x2 } P2 .
28. Sea { x, 2x2 , 3x3 } P3 .
29. Sea { 2, 2 + x, 3 x2 + 2x, x3 x2 + x + 1 } P3 .
30. Sea { sen x, cos x } de las funciones continuas en el intervalo [a, b].
31. Sea { sen x, sen 2x } de las funciones continuas en el intervalo [a, b].

32. Sea { 2x, 3 x, 4 3 x } de las funciones continuas en el intervalo


[a, b].
33. Sea { ex , e2x } de las funciones continuas en el intervalo [a, b].
34. Suponga que f1 y f2 son soluciones de la ecuacion diferencial f 00 +
f = 0 y si f1 (0) = 1, f10 (0) = 0, f2 (0) = 0, f20 (0) = 1. Demuestre
que f1 y f2 son L.I. . Deduzca de esto que sen x y cos x son L.I. .
35. a) Un conjunto de vectores independientes. Puede contener el vector
cero ?.
b) Suponga que {u1 , u2 , . . . , un } son independientes, Son independientes {u2 , . . . , un } ?.
36. Que condicion debe cumplir el conjunto
{ (a1 , a2 , a3 ), (b1 , b2 , b3 ), (c1 , c2 , c3 ) } R3
i. Con objeto de que el conjunto dado de vectores sea L.I. .
ii. Con objeto de que el conjunto dado de vectores sea L.D. .
37. Para que valores de el conjunto de vectores
{ (1, 1, 1), (1, , 0), (, 1, 1) } R3
son

1.4 Independencia y Dependencia Lineal, Bases y Dimension

31

i. Linealmente Independientes.
ii. Linealmente Dependientes.
38. Mostrar que tres polinomios arbitrarios de P3 no pueden generar P3 .
39. Mostrar que cinco polinomios arbitrarios de P3 son L.I. .
40. Mostrar que si {v1 , v2 , . . . , vn } es L.I., entonces si r < n el conjunto
{v1 , v2 , . . . , vr } es L.I. .
41. Mostrar que si { v1 , v2 , v3 } es L.I., entonces el conjunto { v1 + v2 , v1 +
v3 , v2 + v3 } es L.I. .
42. Hallar un tercer polinomio que forme con { 1 x2 , 1 + x } un conjunto
L.I. .
43. Sea el espacio vectorial C 2 sobre C. Demuestre :
a) (1 + i, 2i)

b) (1, i)

(i, 1) son L.D.

(i, 1 i) son L.I.

Hallar la dimension y alguna base de los siguientes espacios vectoriales.


44. K n = {(a1 , a2 , . . . an ) K}, con las operaciones usuales de suma de
eneadas y producto de un escalar por una eneada.
45. El conjunto de flechas sobre un plano con origen com
un, bajo las operaciones usuales de suma (ley del paralelogramo), y multiplicaci
on
i
por un n
umero complejo de la forma z =|z | e .
46. Los polinomios con coeficientes en K de grado menor o igual a n,
con las operaciones usuales de suma de polinomios y multiplicaci
on de
polinomios por un escalar.
47. El conjunto de soluciones de una ecuacion diferencial de la forma y 00 +
ay 0 + by = 0 con a, b C, bajo las operaciones usuales de suma de
funciones y producto de una funcion por un escalar.
48. Suponga que V es el espacio de polinomios de grado menor o igual a
tres.
a) Cual es la dimension de V ?

32

1. Espacios Vectoriales
b) Halle una base de V tal que las coordenadas de f con relacion a
esta base sean f (0), f (1), f (2), f (3).
c) Halle una base de V tal que las coordenadas de f con relacion a
esta base sean f (2), f (1), f (1), f (2).

49. Sea V = K 3 para alg


un campo K. Sea W el subespacio generado
por (1, 0, 0) y sea U el subespacio generado por (1, 1, 0) y (0, 1, 1) .
Demostrar que V es la suma directa de W y U.

Parte II

Aplicaciones Lineales

33

Captulo 2

Aplicaciones Lineales
2.1.

Definiciones

Definici
on.- Una Aplicaci
on Lineal o Transformaci
on Lineal A es
una regla o mapeo entre dos espacios vectoriales V, W (definidos sobre el
mismo campo), la cual cumple con dos propiedades :
i) Para toda v1 , v2 V
ii) Para toda v V y a K

A(v1 + v2 ) = A(v1 ) + A(v2 ).


A(av) = aA(v).

Observese que dicho mapeo, preserva las operaciones de suma y producto


por un escalar, i.e. a la suma de dos vectores de V, corresponde la suma de
las imagenes respectivas, bajo A; y al producto de un escalar por un vector,
corresponde el producto del escalar por la imagen respectiva del vector.
Tambien se observa que dicho mapeo preserva el cero y el elemento inverso,
i.e. al cero de V lo manda al cero de la imagen, i.e. al cero de W , y al inverso
de v V , lo manda al elemento inverso de la imagen de V .
Al conjunto de aplicaciones de V en W le podemos dar estructura de
espacio vectorial, definiendo la suma de aplicaciones y el producto por un
escalar, de la siguiente manera :
Para toda A1 , A2 que estan en el conjunto de aplicaciones de V en W,
para toda v V y a K
def

1. (A1 + A2 )v = A1 v + A2 v
2. (aA1 )v = a[A1 (v)]
35

36

2.Aplicaciones Lineales

Desde luego a la aplicacion o elemento cero de V en W, la podemos


definir, como aquel mapeo que a todo v V lo manda al cero de W ; este
elemento por lo general se simboliza por O.
Al elemento inverso aditivo de una aplicacion A : V W lo simbolizamos por A, tal que A A = O.
Desde luego que no basta definir la suma y el producto por un escalar, es
necesario comprobar que la suma de aplicaciones lineales, el producto de un
escalar por una aplicacion, as como el cero y el inverso de una aplicacion; son
aplicaciones lineales, ademas de que se cumplen el resto de las propiedades
que definen un e.v. . Al espacio vectorial de las aplicaciones de V en W se
le simboliza por Hom(V, W ).
A continuacion probaremos :
Si A1 , A2 Hom(V, W ), entonces (A1 + A2 ) Hom(V, W ).
Demostracion : Sean A1 y A2 Hom(V, W ) y v1 , v2 elementos cualesquiera de V y a K. Por probar que (A1 + A2 )(v1 + v2 ) = (A1 + A2 )v1 +
(A1 + A2 )v2 y que (A1 + A2 )(av1 ) = a(A1 + A2 )v1 .
Lo cual se cumple, ya que :
(A1 + A2 )(v1 + v2 ) = A1 (v1 + v2 ) + A2 (v1 + v2 )
= A1 v1 + A1 v2 + A2 v1 + A2 v2
= A1 v1 + A2 v1 + A1 v2 + A2 v2
= (A1 + A2 )v1 + (A1 + A2 )v2 .
y que
(A1 + A2 )(av1 ) = A1 (av1 ) + A2 (av1 ) = aA1 (v1 ) + aA2 (v1 )
= a[A1 (v1 ) + A2 (v1 )] = a[(A1 + A2 )v1 ]
= a(A1 + A2 )v1 .
2
Ejercicios .i) Probar que para toda a K y A Hom(V, W ), entonces
(aA) Hom(V, W ).
ii Probar que la aplicacion o elemento 0 Hom(V, W ).
iii) Probar que el inverso aditivo de una aplicacion es una aplicacion lineal.

2.1 Definiciones

37

Si bien es cierto que Hom(V, W ) es un e.v., es instructivo determinar a


lo menos una base y la dimension de dicho espacio, antes de determinar esta
demostraremos el siguiente lema :
Lema.- Una aplicacion lineal A Hom(V, W ) queda completamente
determinada cuando se conocen las imagenes bajo A de una base de V .
Demostracion: Veamos que esta afirmacion es cierta. Sea {vi }ni=1 una
base de V y A Hom(V, W ) tal que conocemos {A(v1 ), A(v2 ), . . . , A(vn )}
por lo que v V , v = a1 v1 +a2 v2 + +an vn y A(v) = A[a1 v1 +(a2 v2 + +
an vn )] = a1 Av1 + A(a2 v2 + + an vn ) = = a1 Av1 + a2 Av2 + + an Avn .
Puesto que conocemos {A(vi )}ni=1 esto significa que conocemos lo que
hace A a cualquier elemento de V , como una consecuencia de este resultado
tendremos :
Si tambien B Hom(V, W ) tal que A(vi ) = B(vi ), con i = 1, 2, . . . , n,
por el lema anterior se implica que A = B.
Construyamos a continuacion una base para el conjunto de aplicaciones
que nos manda elementos de V en W .
Sea {vi }ni=1 una base de V y {wj }rj=1 una base de W tal que :
11 (v1 ) = w1 ,
11 (v2 ) = 0
..
.

21 (v1 ) = 0 ,
21 (v2 ) = w1
..
.

11 (vn ) = 0

21 (vn ) = 0

12 (v1 ) = w2 ,
12 (v2 ) = 0
..
.

22 (v1 ) = 0 ,
22 (v2 ) = w2
..
.

12 (vn ) = 0

22 (vn ) = 0

...,

n1 (v1 ) = 0 .
n1 (v2 ) = 0 .
..
.
n1 (vn ) = w1 .

...,

n2 (v1 ) = 0 .
n2 (v2 ) = 0 .
..
.
n2 (vn ) = w2 .

..
.
1r (v1 ) = wr ,
1r (v2 ) = 0
..
.

2r (v1 ) = 0 ,
2r (v2 ) = wr
..
.

1r (vn ) = 0

2r (vn ) = 0

...,

nr (v1 ) = 0 .
nr (v2 ) = 0 .
..
.
nr (vn ) = wr .

38

2.Aplicaciones Lineales

por lo tanto hemos construido n r transformaciones de la forma :

0
si j 6= k con j = 1, . . . , n
ji vk =
= wi kj
wi si j = k con i = 1, . . . , r
Veamos que tales transformaciones forman una base, para lo cual necesitamos probar :
i) Estan,
ii) generan y
ii) son L.I.

Demostracion : i)

Se cumple trivialmente, por la forma en que estan definidas ademas de


estar bien definidas.
2
Demostracion : ii)
Sea cualquier A Hom(V, W ), si A actua sobre una base de V , tendremos :
P
A(v1 ) = a11 w1 + a21 w2 + + ar1 wr = rj=1 aj1 wj
P
A(v2 ) = a12 w1 + a22 w2 + + ar2 wr = rj=1 aj2 wj
..
..
.
.
P
A(vn ) = a1n w1 + a2n w2 + + arn wr = rj=1 ajn wj
P
de tal manera que : Avk = rj=1 ajk wj
P P
Sea B = ri=1 nj=1 aij ji y hagamoslo actuar sobre vk , quedandonos
B(vk ) = [
=

r X
n
X

i=1 j=1
n
r
XX

aij ji vk =

i=1 j=1

aij ji ] vk =

r
X
i=1

aik wi

r X
n
X
(aij ji )vk

i=1 j=1
n
r
XX
aij wi kj
i=1 j=1

2.1 Definiciones

39

ya que Avk = Bvk implica que cualquier A Hom(V, W ), es generado por


las n r aplicaciones lineales de la forma {ij }i=1,...,n
j=1,...,r .
2
Demostracion : iii)
Por u
ltimo veamos que son L.I., para lo cual construimos la aplicacion
cero, como una combinacion lineal de la n r {ij }.
P Pr
j i
0= m
i=1
j=1 ci j por lo que :
0 = 0(vk ) = (

m X
r
X

cji ij )vk =

i=1 j=1

r
X

cjk wj

m X
r
m X
r
X
X
(cji ij )vk =
cji wj ki
i=1 j=1

i=1 j=1

cjk = 0

j=1

haciendo lo mismo para todos los posibles valores de k, observamos que


todas la cik = 0 con i = 1, . . . , r y k = 1, . . . , n. {ji }j=1,...,n
i=1,...,r son L.I. .
2
Por cumplirse i), ii) y iii), decimos que {ji }j=1,...,n
i=1,...,r forman una base de
Hom(V, W ).
Como un corolario tendremos que
D[Hom(V, W )] = D(V )D(W )

Ejercicios : Secci
on 2.1 .En los ejercicios siguientes determine si la transformacion que nos indican
es o no una transformacion lineal.
1. Sea A : C M22 (R) definida por

A(a + ib) =

a b
b a

2. Sea Re : C R2 definida por


Re (a + ib) = (a, b)

40

2.Aplicaciones Lineales

3. Sean T1 , T2 , T3 , T4 , T5 , T6 , T7 transformaciones de R2 en R2 definidas por :


i.- T1 [(a, b)] = (ca, cb),

c R.

ii.- T2 [(a, b)] = (b, a)


iii.- T3 [(a, b)] = (a, 0)
iv.- T4 [(a, b)] = (0, b)
v.- T5 [(a, b)] = (b, a)
vi.- T6 [(a, b)] = (a + 1, b + 1)
vii.- T7 [(a, b)] = (a + b, a b)
4. Sea A : Mrn Mrs dada por
A(aij ) = (aij )(bij ) con (bij ) Mnr
5. Sea A : Mnn Mnn dada por
A(aij ) = (aij )T (aij )
6. Sea A : M31 M31 dada por
A(aij ) = (Rij )(aij ) siendo

cos 0 sen

1
0
(Rij ) = 0
sen 0 cos
7. Sea A : P4 P3 dado por
A(a0 x4 + a1 x3 + a2 x2 + a3 x + a4 ) = 4a0 x3 + 3a1 x2 + 2a2 x + a3
8. Sea A : Pn Rn+1 dado por
A[a0 xn + a1 xn1 + + an ] = (a0 , a1 , . . . , an )
9. Sea A : R3 P2 dado por
A(a0 , a1 , a2 ) = a0 x2 + a1 x + a2
10. Sea A : C[0, 1] C[0, 1] dada por
A[f (x)] = f (x) + 1

2.1 Definiciones

41

11. Sea A : C[0, 1] C dada por


Z

A[f (x)] =

f (x)dx
0

12. Sea Tr : Mnn (K) K dado por


Tr (aij ) =

n
X

aii

i=1

13. Sea T rans : Mnn (K) Mnn (K) dado por


T rans(aij ) = (aij )T
= (aji )
14. Sea A : C 1 [0, 1] [0, 1] dada por
A[f (x)] = f 0 (x)
15. Sea A : Mnn R dada por
A[(aij )] = det[(aij )]
En los siguientes ejercicios determine geometricamente la accion de la
transformacion.
16. Sea T : R2 R2 dada por :
i.- T [(x, y)] = (x, y)
ii.- T [(x, y)] = (x, y)

x
x
0
iii.- T
=
y
0 y

x
x
0
iv.- T
=
y
0 y


x
cos sen 0
x
cos 0 y
v.- T y = sen
z
0
0 1
z


x
1
0
0
x
vi.- T y = 0 cos sen y
z
0 sen
cos
z

42

2.Aplicaciones Lineales


x
1 0 0
x
vii.- T y = 0 1 0 y
z
0 0 1
z


x
1
0 0
x

y
0 1 0
y
viii.- T
=
z
0
0 1
z


x
1
0 0
x
ix.- T y = 0 1 0 y
z
0
0 1
z


x
1
0
0
x
0 y
x.- T y = 0 1
z
0
0 1
z
En los siguientes ejercicios determine la forma de la transformacion
lineal.
17. i.- Sea T : R2 R3 tal que :

1
0

1
= 2
3

0
1

1
= 4
6

ii.- Sea T : R2 R2 tal que : T [(1, 0)] = (1, 1) y T [(0, 1)] = (1, 1)
iii.- Hallar una transformacion lineal de M22 M33 .
iv.- Hallar una transformacion lineal de M33 M22 .
18. Sean {vi }ni=1 y {wj }rj=1 bases de V y W respectivamente y A : V en
W una aplicacion lineal.
i.- Es cierto que si r < n, el conjunto de vectores {A(vi )}ni=1 es
L.I. ?
ii.- Es cierto que si r > n, el conjunto de vectores {A(vi )}ni=1 es
L.D. ?
iii.- Si r = n, c
omo es el conjunto de vectores {A(vi )}ni=1 ?
19. Sean A1 , A2 , A3 aplicaciones lineales de V en W, mostrar que
A1 + A2 + A3 es una aplicacion lineal de V en W .
20. Completar la prueba de que el conjunto de aplicaciones lineales de V
en W forma un espacio vectorial.

2.2 Imagen - N
ucleo - Propiedades de las transformaciones

43

21. Sea V un e.v. y sean f, g Hom(V, R), sea la transformacion


F : V R2 definida por F (v) = (f (v), g(v)). Demostrar que
F Hom(V, R2 ).

2.2.

Propiedades de las transformaciones

Sean V y W dos e.v. y {w1 , . . . , ws } un conjunto arbitrario de vectores de W y {v1 , . . . , vs } un conjunto de vectores L.I. en V , en estas condiciones siempre es posible encontrar o definir una A Hom(V, W ) tal que
{A(v1 ) = w1 , A(v2 ) = w2 , . . . , A(vs ) = ws }, observese que es necesario que
{v1 , . . . , vs } sea L.I., de no ser as, el conjunto {w1 , . . . , ws } deja de ser arbitrario, veamos, supongamos que {v1 , . . . , vs } son L.D, entonces vk se puede
poner como una combinacion lineal de los demas, i.e.
vk = a1 v1 + a2 v2 + + ak1 vk1 + ak+1 vk+1 + + as vs
por lo que
A(vk ) = wk = A[a1 v1 + + ak1 vk1 + ak+1 vk+1 + + as vs ]
= a1 A(v1 ) + + ak1 A(vk1 ) + ak+1 A(vk+1 ) + + as A(vs )
= a1 w1 + + ak1 wk1 + ak+1 wk+1 + + as ws ,
lo cual implica que wk ya no es un vector arbitrario, sino que depende del
resto de las ws .
Ejercicio.- Sea A Hom(V, W ) y {vi }ri=1 una base de V y {wj }sj=1 una
base de W, si r > s, entonces, el conjunto de vectores {A(v1 ), . . . , A(vr )}
es L.D. .
Teorema.- Si A Hom(V, W ) y U un subespacio de V , entonces
A(U ) = {w W | w = A(u), u U } es un subespacio de W.
Demostracion : Sean w1 y w2 A(U ) y a1 y a2 K, hagamos una
combinacion lineal de w1 y w2 y determinemos donde se encuentra.

44

2. Aplicaciones Lineales

a1 w1 + a2 w2 = a1 A(u1 ) + a2 A(u2 ) = A(a1 u1 + a2 u2 ) puesto que U es


subespacio de V , entonces a1 u1 +a2 u2 U por lo que (a1 w1 +a2 w2 ) A(U ).
2
En forma similar
Teorema.- Si A Hom(V, W ) y U un subespacio de W , entonces
A1 (U ) = {v V | A(v) = w, w U } es un subespacio de V.
Demostracion : Sean v1 y v2 A1 (U ) y a1 y a2 K, por demostrar
que : a1 v1 + a2 v2 A1 (U ).
Puesto que v1 , v2 A1 (U ) entonces A(v1 ) = u1 y A(v2 ) = u2 U por
ser U un subespacio de W, una combinaci
on lineal de A(v1 ) y A(v2 ) se
encuentra en U i.e. a1 A(v1 ) + a2 A(v2 ) = A(a1 v1 + a2 v2 ) U entonces
(a1 v1 + a2 v2 ) A1 (U ).
2
Teniendo como base los teoremas anteriores, hacemos las siguientes definiciones.
Definici
on.- Si A Hom(V, W ), la imagen de V bajo A se define como
A(V ) de acuerdo a lo anterior, la imagen de V bajo A es un subespacio de
W y A(V ) se simboliza por Imagen de A = Im(A).
En forma similar definimos :
Definici
on.- El Ker, Kernel o N
ucleo de A Hom(V, W ), simbolizado
por Ker(A) = Kernel de A = N
ucleo de A = A1 {0}, formado por
todos los vectores de V, los cuales bajo A van al cero de W , desde luego el
Ker de A es un subespacio de V.
En base a estas definiciones, decimos que :
Definici
on.- A Hom(V, W ) es sobreyectiva, suprayectiva o suryectiva
si y solo si I(A) = W, la cual tambien nos dice que w W, esta proviene
al menos de un elemento v V bajo A.

2.2 Imagen - N
ucleo - Propiedades de las transformaciones

45

Definici
on.- A Hom(V, W ) es inyectiva si y solo si para cualquier par
de vectores de V , digamos v1 , v2 ,el que A(v1 ) = A(v2 ) significa que v1 = v2 ,
esta definicion tambien nos dice que todo elemento de V bajo A, con A
inyectiva, tiene imagen u
nica.
Definici
on.- A Hom(V, W ) es biyectiva o uno a uno si y solo si A es
inyectiva y sobreyectiva. Definicion que tambien nos dice que todo elemento
de W , proviene con A biyectiva de uno y solo un elemento de V bajo A.
Algunos teoremas que se desprenden de las definiciones anteriores :
Teorema.- Si A Hom(V, W ) es sobreyectiva y {vi }ni=1 es una base de
V , entonces {A(vi )}ni=1 generan W .
Demostracion : Puesto que A es sobreyectiva entonces Im(A) =
A(v) = W , ademas sabemos que cualquier elemento de W , proviene al menos
de un elemento de V bajo A, por lo que para toda w W,
w = A(v) = A(a1 v1 + + an vn ) = a1 A(v1 ) + + an A(vn )
entonces {A(v1 ), A(v2 ), , A(vn )} genera W .
2
Teorema.- A Hom(V, W ) es inyectiva si y solo si Ker(A) = {0}.
Demostracion : Supongamos que A es inyectiva, esto significa que todo
elemento de la imagen de V bajo A, proviene de uno y solo un elemento de
V tal que A(v) = 0 mplica v = 0 por lo que Ker(A) = {0}. Si Ker(A) =
{0}, entonces para todo v1 , v2 V tal que A(v1 ) = A(v2 ), significando
que A(v1 ) A(v2 ) = 0 = A(v1 v2 ), puesto que Ker(A) = {0} entonces
v1 v2 = 0 por lo que A es inyectiva.
2
Teorema.- Si A Hom(V, W ) es inyectiva y {vi }ni=1 es base de V ,
entonces {A(vi )}ni=1 son L.I. .
Demostracion : Puesto que A es inyectiva, significa que dos elementos diferentes de la base V , bajo A tienen imagenes diferentes, ya que de
tener la misma imagen significara por definicion de inyectividad, hablar de

46

2. Aplicaciones Lineales

los mismos elementos de la base. Hagamos una combinaci


on lineal de las
n
{A(vi )}i=1 igualadas al cero de W .
0 = a1 A(v1 ) + a2 A(v2 ) + + an A(vn )
por linealidad, 0 = A(a1 v1 + a2 v2 + + an vn ), por ser A inyectiva,
tendremos a1 v1 + a2 v2 + + an vn = 0, por ser {vi }ni=1 base de V, entonces
ai = 0, con i = 1, . . . , n; finalmente {A(v1 ), A(v2 ), . . . , A(vn )} = {A(vi )}ni=1
es L.I. .
2
Teorema.- Si {vi }ni=1 es una base de V y A Hom(V, W ) es biyectiva,
entonces {A(vi )}ni=1 es una base de W .

A es sobreyectiva
Demostracion : Ya que A es biyectiva, entonces
A es inyectiva
Por ser sobreyectiva, entonces {A(vi )}ni=1 genera W (ver el teorema anterior).
Por ser inyectiva, entonces {A(vi )}ni=1 es L.I. (ver el teorema anterior).
Puesto que {A(vi )}ni=1 est
a genera W y ademas es L.I. , entonces
{A(vi )}ni=1 es una base de W (recordar definicion de base).
2
Como un corolario de estos resultados, tenemos que
Corolario.- Si A Hom(V, W ) con A biyectiva, A nos enva bases de
V en bases de W . i.e. si {vi }ni=1 es una base de V , {A(vi )}ni=1 es una base
de W .
Sea A Hom(V, W ) biyectiva y {vi }ni=1 ,una base de V por lo que
{A(vi )}ni=1 es una base de W . En estas condiciones siempre podemos definir
una aplicacion B de W en V definida como B[A(v1 )] = v1 ,B[A(v2 )] = v2 ,
. . . ,B[A(vn)] = vn
Antes de continuar definiremos la composicion de aplicaciones lineales:
Definici
on.-Si A Hom[V, W ] y F Hom[W, U ] se define la composicion
o producto de aplicaciones como:
(F A)v = F [A(v)] = (F A)v

2.2 Imagen - N
ucleo - Propiedades de las transformaciones

47

La cual se lee A seguido de F o F compuesto con A.


Ejercicio: Mostrar que la composicion F A es otra aplicacion,Donde
esta F A?.
Observacion, notar que el orden de las aplicaciones es importante.
Continuando con B[A(vi )] = vi con i = 1, . . . , n notemos que para toda
vV

(B A)v = B[A(v)] = B[A(a1 v1 + . . . + an vn )]


= B[a1 A(v1 ) + . . . + an A(vn )]
= a1 B[A(v1 )] + . . . + an B[A(vn )]
= a1 v1 + . . . + an vn = v,
por lo que la composicion B A corresponde a la aplcacion identidad en V.
En forma similar la composicion A B es la composicion identidad en
W.
Ejercicio : Mostrar esta ultima afirmacion.
Puesto que B A = E en V y A B = E en W se dice que B es la
transformacion inversa de A y se smboliza como A1 .
Observese que A1 nos manda bases en bases;es decir, A1 toma una
base de W y la manda a una base de V por lo que A1 es biyectiva.
Definici
on.- Si A Hom(V, W ) y existe A1 se dice que A es regular,
de no ser as se dice que A es singular.
As hemos encontrado que A es regular, si y solo si A es biyectiva.
Teorema.- Si A Hom(V, W ) , entonces
D(V ) = D(Ker(A)) + D(Im(A))
Demostracion : Sea {v1 , v2 , . . . , vr } una base del Ker(A), puesto que
Ker(A) es un subespacio de V , podemos agregar vr+1 V pero vr+1 6
Lv1 + + Lvr repitiendo este procedimiento hasta formar una base de V ;
sea esta {v1 , v2 , . . . , vr , vr+1 , . . . , vr+s } siendo D(V ) = r + s, ahora bien,
cualquier vector v V , se puede poner como :
v = a1 v1 + a2 v2 + + ar vr + + ar+s vr+s

48

2. Aplicaciones Lineales

sabemos que
A(v) = A[a1 v1 + a2 v2 + + ar vr + + ar+s vr+s ]
= [a1 A(v1 ) + a2 A(v2 ) + + ar A(vr )
+ar+1 A(vr+1 ) + + ar+s A(vr+s )] Im(A).
A(v) = ar+1 A(vr+1 ) + + ar+s A(vr+s )
implicando que
{A(vr+1 ), , A(vr+s )} genera Im(A).
Veamos si este conjunto es L.I.
b1 A(vr+1 ) + b2 A(vr+2 ) + + bs A(vr+s ) = 0
por linealidad tendremos :
A[b1 vr+1 + b2 vr+2 + + bs vr+s ] = 0
infiriendo que
b1 vr+1 + b2 vr+2 + + bs vr+s Ker(A)
lo cual es una contradicci
on, toda vez que los elementos del Ker de A, son
una combinacion lineal de {v1 , . . . , vr }, ahora bien, para que no exista esta
es necesario que
b1 vr+1 + b2 vr+2 + + bs vr+s = 0
y puesto que por construccion {vr+1 , . . . , vr+s } son L.I. tendremos que {bi =
0}ni=1 , implicando que el conjunto {A(vr+k )}sk=1 es una base de Im(A).
Puesto que D(V ) = r + s, D(Ker(A)) = r y D(Im(A)) = s tendremos
que D(V ) = D(Ker(A)) + D(Im(A))
2
Definici
on.- D(Ker(A)) = nulidad de A y D(Im(A)) = rango de A.

2.2 Imagen - N
ucleo - Propiedades de las transformaciones

49

Ejercicios : Secci
on 2.2 .1. Las siguientes aplicaciones T1 , T2 , T3 , T4 , T5 pertenecen a Hom(R2 )
T1 [(a, b)] = (ca, cb),

c R.

T2 [(a, b)] = (b, a)


T3 [(a, b)] = (a, 0)
T4 [(a, b)] = (0, b)
T5 [(a, b)] = (b, a)
Hallar su n
ucleo, imagen, rango y nulidad.
2. Sean V y W e.v. y F Hom(V, W ), sea U un subconjunto de V , tal
que
U = {v V : F (v) = 0}. Demostrar que U es un subespacio de V.
3. Sea v un vector no nulo de R2 , sea F Hom(R2 , W ) tal que F (v) =
0, demostrar que la la imagen de F es una linea recta o {0}.
4. Sea F Hom(V, W ) y Ker(F ) = {0}. Supongase que V y W tienen
la misma dimension. Demostrar que ImF = W.
5. Sea L Hom(R2 ) tal que L 6= 0, pero L2 = L L = 0. Demostrar que
existe una base {v1 , v2 } de R2 tal que L(v1 ) = v2 y L(v2 ) = 0.
6. Sea V un e.v. y sean P1 y P2 aplicaciones lineales de V en s mismo.
Supongase que se satisfacen las siguientes condiciones :
a.- P1 + P2 = I
b.- Pi Pj = ij Pj

(aplicaci
on identidad)
i, j = 1, 2.

Demostrar que V es igual a la suma directa de las imagenes de P1 y


P2 respectivamente.
7. Manteniendo la notacion como en el ejercicio anterior demostrar que
la imagen de P1 es igual al n
ucleo de P2 .
Un camino que puede ser u
til para la prueba es :
i.- La imagen de P1 esta contenida en el n
ucleo de P2 .
ii.- El n
ucleo de P2 esta contenido en la imagen de P1 .

50

2. Aplicaciones Lineales

8. Hallar una transformacion lineal A : R3 en R3 tal que :


Ker(A) = {(x, y, z) | 3x + 2y z = 0}.
9. Hallar una transformacion lineal A : R3 en R3 tal que :
Im(A) = {(x, y, z) | 3x + 2y z = 0}.
10. Sea A Hom[Mnn , Mnn ] definida por A(aij ) = (aij ) (aij )T .
i.- Mostrar que Ker(A) = { matrices simetricas de n n}
ii.- Mostrar que Im(A) = { matrices antisimetricas de n n}
11. Sea A Hom(C 1 [a, b], C 1 [a, b]) definida por Af (x) = xf 0 (x). Determinar el n
ucleo y la imagen de A.
12. Sea H un subespacio de V , tal que la D(H) = k y la D(V ) = n.
Suponga que U Hom(V ) con la propiedad de que si T U, T (h) = 0
para toda h H.
i.- Demuestre que U es un subespacio de HomV .
ii.- Calcular dimU
13. Sean A, B Hom(V ) tal que AB es la transformacion cero. Como
es la tranformacion BA ?
14. Sea D(V ) = D(W ), sea A Hom(V, W ) tal que Ker(A) = {0}.
Demostrar que existe A1 Hom(W, V ).
15. Sean F y G Hom(V ), regulares, demostrar que :
(F G)1 = G1 F 1 .
16. Sea B Hom(R3 ) dada por
B(x, y, z) = (x y, x + z, x + y + 2z),
demostrar que existe B 1 Hom(R3 ).
17. Sea A Hom(V ) tal que A2 = 0. Demostrar que (E A) Hom(V )
es regular, siendo E la aplicacion identidad que pertenece a Hom(V ).

2.3 Isomorfismos

2.3.

51

Isomorfismos
Definici
on.- Si A Hom(V, W ) es biyectiva, se llama Isomorfismo.

Definici
on.- V, W son Isomorfos
si existe A Hom(V, W ) que sea isomorfismo,
si y solo si existe A1 Hom(W, V ) biyectiva,
si y solo si existe A Hom(V, W ) regular.
En cierta forma el que dos espacios vectoriales sean isomorfos significa
que son equivalentes, solo difieren por aquellos objetos que los forman, esta
es la razon por la cual se busca siempre un e.v. canonico. Esto es, si V es de
dimension n, este es equivalente o isomorfo al e.v. Rn , por lo que, mas que
trabajar con los elementos mismos de V , trabajamos con las eneadas.
Teorema.- Sean V y W dos e.v. sobre el mismo campo; V, W son isomorfos si y solo si D(V ) = D(W )
Demostracion : Si V, W son isomorfos, esto significa que existe un
isomorfismo A Hom(V, W ), el cual envia bases de V en bases de W , por
lo que D(V ) = D(W ).
Recprocamente :
Sean V y W dos e.v. definidos sobre el mismo campo, tales
D(V ) = D(W ) y sean {vi }ni=1 y {wj }nj=1 bases de V y W respectivamente,
por lo que siempre es posible establecer A Hom(V, W ) dada por A(vi ) =
wi con i = 1, . . . , n, veamos que A definido as es un isomorfismo.
Probemos que A es inyectiva, i.e. que Ker(A) = {0}, sea v Ker(A)
por lo que A(v) = 0, ya que v = a1 v1 + + an vn tendremos que
A(v) = A(a1 v1 + + an vn ) = a1 A(v1 ) + + an A(vn )
= a1 w1 + + an wn = 0
por lo que a1 = a2 = = an = 0 entonces v = 0, lo que implica que
Ker(A) = {0}.
Probemos ahora que A sobreyectiva, esto es que Im(A) = W , esto es
que cualquier elemento de W proviene al menos de un elemento de V bajo
A.
Sea w W, por lo que
w = b1 w1 + b2 w2 + + bn wn = b1 A(v1 ) + + bn A(vn )
= A(b1 v1 + + bn vn )

52

2. Aplicaciones Lineales

lo que implica que todo elemento de W proviene al menos de un elemento


de V bajo A.
2
En uno de los ejercicios propuestos en la seccion 1.4, se encuentra que
la dimension de K n (el e.v. sobre k de las n-adas de n
umero, de k) es
precisamente n; y por tanto podemos establecer el siguiente corolario :
Corolario.- Si V es un e.v. sobre K de dimension n, entonces es isomorfo
a K n.
Si {v1 , v2 , . . . vn } es una base de V , podemos dar un isomorfismo de V
en K n , dado por v = (a1 v1 + a2 v2 + + an vn ) 7 (a1 , . . . an ).
Ejercicios : Secci
on 2.3 .1. Probar que la transformacion
v = a1 v1 + a2 v2 an vn 7 (a1 , . . . an ).
es un isomorfismo.
2. Los n
umeros complejos (n
umeros de la forma a + ib; a, b R) considerado como e.v. sobre los reales tienen dimension 2, por lo que es
isomorfo a R2 . Probar que la transformacion dada por a + ib 7 (a, b)
es un isomorfismo.
3. Mostrar que si A Hom(V, W ) y B Hom(W, U ) son isomorfismos,
entonces,
i.- A1 es un isomorfismo.
ii.- B A es un isomorfismo.
4. Sea T Hom(C[0, 1], C[3, 4]) esta definida por T f (x) = f (x 3).
Muestre que T es un isomorfismo.
5. Sea D(V ) > D(W ). Sea L : V W una aplicacion lineal. Demostrar
que el n
ucleo de L no es {0}.
ucleo
6. Sea D(V ) = D(W ). Sea L : V W una aplicacion lineal cuyo n
es {0}. Demostrar que L tiene una aplicacion lineal inversa.

2.3 Isomorfismos

53

7. Sean F y G aplicaciones lineales invertibles de un espacio vectorial V


en si mismo. Demostrar que : (F G)1 = G1 F 1 .
8. Sea L : R2 R2 la aplicacion lineal definida por L(x, y) = (2x +
y, 3x 5y), demostrar que L es invertible.
9. Sea L : V V una aplicacion lineal tal que L2 = 0. Demostrar que
I L es invertible (I es la aplicacion identidad definida sobre V ).
10. Sea A una aplicacion lineal de un e.v. en si mismo y supongase que
A2 A + I = 0 (donde I es la aplicacion identidad). Demostrar que
A1 existe y que es igual a I A.
11. Sean V y W dos e.v. de dimension n y sean {ei }ni=1 y {
ej }nj=1 bases de
V y W respectivamente, mostrar que A : V W es un isomorfismo
si y solo si det(Aij ) 6= 0, siendo (Aij ) la representaci
on de A relativa a
las bases de V y W.
12. Que valor de s hace que el conjunto de las matrices simetricas de
r r sea isomorfo a Rs ?
13. Sea A : C[0, 1] C[4, 5] definida por Ag(x) = g(x 4). Mostrar que
A es un isomorfismo.
14. Sea T : Mnm Mnm , definida por T A = AB con B una matriz
invertible, mostrar que T es un isomorfismo.
15. Mostrar que si T : Rn en Rn se define por T v = Av, y si T es un
isomorfismo, entonces A es invertible y la transformacion inversa T 1
esta dada por T 1 x = A1 x.
16. Sea A Hom(V ) regular, mostrar que la transformacion fA de Hom(V )
en Hom(V ) dada por fA (B) = AB es un automorfismo (un isomorfismo de un e.v. sobre si mismo).
17. Sea A Hom(V, W ) B Hom(W, U ) definimos B A mediante
(B A)v = B[A(v)] v V
i.- Mostrar que B A Hom(V, U ).
ii.- Mostrar que si A y B son inyectivas, entonces B A es inyectiva.
iii.- Mostrar que si A y B son isomorfismos, entonces, B A es isomorfismo.

54

2. Aplicaciones Lineales

2.4.

Representaci
on de Vectores y Cambios de Base

Utilizando los resultados de la seccion anterior, tenemos que un


vector, puede ser representado mediante sus componentes con respecto a
alguna base.
Por ejemplo si V es un e.v. de dimension n y {e1 , e2 , . . . en } es una base
de V , tal que v V se puede poner en terminos de la base dada como
v = {c1 e1 + c2 e2 + + cn en }; la representaci
on de v con respecto a esta
base, sera (c1 , c2 , . . . cn ) K n .
En lo que sigue es benefico utilizar la notacion de Einstein, en esta, en
todos los terminos en donde aparezcan ndices repetidos arriba y abajo, se
implica la suma sobre todos los valores posibles del ndice, por ejemplo la
n
P
suma sobre r
tr fr = tr fr , por lo que la expresion tji fji corresponde a
r=1

una doble suma, en esta notacion nuestro vector v V del ejemplo anterior
se puede poner como v = {c1 e1 + c2 e2 + + cn en } = cr er donde las
componentes de v en lugar de llevar el ndice abajo lo llevan arriba.
Sean {ei }ni=1 y {e0j }m
j=1 bases de V y W respectivamente y
A Hom(V, W ) por lo que,
A(e1 ) = w1 = w1r e0r
A(e2 ) = w2 = w2r e0r
..
.

A(ei ) = wir e0r = Ari e0r

A(en ) = wn = wnr e0r

hemos hecho wir = Ari

Los nm elementos de la forma Ari corresponden a una representaci


on de
la aplicacion A respecto a las bases dadas, esta realmente corresponde a una
matriz de mn, simbolizada como (Ari ) donde el ndice superior corresponde
a renglones y el inferior a columnas, notese que si cambiamos alguna de las
bases, cambia la representaci
on.
Sobre este mismo escenario, veamos que relacion guardan las componentes de un vector con las componentes de la imagen de este con respecto
a A.
Sea v V, por lo que v = v i ei y w W por lo que w = wr e0r
w = A(v) = A(v i ei ) = v i Aei = v i Aji e0j = wr e0r
v i Aji e0j = wr e0r = wj e0j

v i Aji = wj ,

2.4 Representacion de Vectores y Cambios de Base

55

esto es, la representacion de A es la que nos manda de las componentes de la


base no primada a las componentes de la base primada. Supongamos ahora
que {ei }ni=1 y {
ej }nj=1 son bases de V, esto significa que er = ckr ek y que
es = dls el nos preguntamos ahora como estan relacionados los elementos o
las matrices de cambio de base, veamos, puesto que er = ckr ek = ckr dlk el , la
u
nica posibilidad que nos queda para que esto se cumpla es que :

dlk ckr =

0 si l 6= r
1 si l = 1

este hecho o propiedad queda expresado mediante la ji de Kromecher, la


cual :

0 si i 6= j
i
j =
por lo que
dlk ckr = rl
1 si i = j
Ejercicio .- Escriba todos los terminos de la matriz (rl ). Aprovechando
la respuesta de este problema y poniendo dlk ckr = rl en forma matricial, i.e.
(dlr )(clr ) = (rl ), observemos que (dlr ) corresponde a la matriz inversa de (clr )
y recprocamente.
Como corolario observemos que la matriz (cij ) de cambio de base, que
nos conecta la base con barra con la que no tiene barra, tiene determinante
diferente de cero.
Recprocamente, si (cij ) es una matriz cuadrada de orden n n cuyo
determinante es diferente de cero y {
ei }ni=1 es una base de V, el conjunto
j
{ei }ni=1 en donde ei = ci ej es una base de V, veamos que esto es cierto,
formemos el cero, ai ei = 0 = ai cji ej , entonces ai cji = 0, y ya que det(cij ) 6= 0,
entonces ai = 0, y en consecuencia {ei }ni=1 son L.I.
Ademas puesto que {ei }ni=1 son L.I., estos generan un subespacio de V
de dimension n, razon por la cual {e1 , . . . , en } es una base de V .
Hemos obtenido que :
Teorema .- Dada una base {
ei }ni=1 , el conjunto {ei }ni=1 , formado mej
diante ei = ci ej es una base si y solo si det(cij ) 6= 0.
Demostracion: Se haba encontrado que dadas dos bases {ei }ni=1 y
de V y W respectivamente, una transformacion lineal esta representada por una matriz (aij ), tal que A(ei ) = Aji ej podemos investigar como se
{
ej }m
j=1

56

2. Aplicaciones Lineales

modifica dicha representaci


on al hacer un cambio de base, tanto en V como
en W .
Sean {e0j }nj=1 y {
e0k }m
k=1 las nuevas bases de V y W respectivamente.
Por un lado sabemos que :
ei = cji e0j por lo que e0j = crj er
y que

A(ei ) = Aji ej

(1)

Sea ek = dsk e0s por lo que e0s = dps ep por lo que


A(e0j ) = Bjk e0k

(2)

a partir de (1) tendremos, utilizando los demas resultados


A(ei ) = A(cji e0j ) = cji Ae0j = cji Bjk e0k = Aji ej = Aji dkj e0k
por lo que
cji Bjk = Aji dkj = dkj Aji = Bjk cji
este u
ltimo resultado puesto en forma matricial nos queda
(dki )(Aki ) = (Bik )(cki )

(Bik ) = (dki )(Aki )(cki )1

la nueva representaci
on de A en terminos de la anterior, la cual depende de
la matriz de cambio de base realizado en V y W .
Si un vector esta representado en terminos de una base {e1 , . . . , en } por
n escalares {v 1 , . . . , v n } (esto es v = v i ei ), al hacer un cambio de base,
0
mediante ei = cji e0j , el vector v puede expresarse como v = v j e0 j , entonces
0
v = v i e0i = v j ej = v j ckj e0k , lo cual implica por independencia lineal que
0
v i = cij v j .
2
Observese que mientras ei = cji e0j , v i = cij v j esto es que la matriz
(cij ), que nos transforma o cambia de la base primada a la no primada,
tambien nos transforma o cambia las componentes de la base no primada a
las componentes de la base primada, cuando esto sucede se dice que la matriz
de transformacion actua en forma contraria, podemos decir en nuestro caso
0

2.4 Representacion de Vectores y Cambios de Base

57

que las componentes se transforman contravariantemente,posteriormente


veremos que la contravariancia esta relacionada con los superndices y que
las cantidades con subndices obedecen la misma ley de transformacionque
los vectores base son covariantes.
Ejercicios : Secci
on 2.4 .1. Sean F1 y F2 Hom(V, W ), {ei }ni=1 y {
ej }m
j=1 bases de V y W respectivamente. Mostrar que la representaci
on de F1 + F2 con respecto
a las bases dadas es igual a la suma de las representaciones de F1 y
F2 .
2. Sean F1 y F2 Hom(V ), {ei }ni=1 base de V . Mostrar que la representacion de F1 F2 = F1 F2 con respecto a las base dada es igual al
producto de las representaciones de F1 y F2 .
3. Sean {e1 = (1, 1, 1), e2 = (0, 1, 1), e3 = (0, 0, 1)}y{e01 = (1, 0, 0), e02 =
(1, 1, 0), e03 = (1, 1, 1)} bases de V determinar la matriz de transformacion de cambio de base que nos permite poner la base primada
en terminos de la no primada y tambien la correspondiente al caso
contrario.
4. Sea {e1 , e2 } la base canonica de R2 y {e01 , e02 } la nueva base que se
obtiene al girar la anterior en un angulo . Hallar la representaci
on de
la transformacion correspondiente al cambio de base.
5. Sean
I1 = {e1 = (1, 1, 1), e2 = (0, 2, 2), e3 = (0, 0, 3)} e
I2 = {e01 = (2, 2, 0), e02 = (0, 2, 2), e03 = (2, 0, 2)} bases de V e
I3 = {
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)}
I4 = {
e01 = ( 12 , 13 , 14 ), e02 = (0, 31 , 14 ), e03 = (0, 0, 41 )} bases de
W, A Hom(V, W ) tal que
A(e1 ) = (1, 3, 5), A(e2 ) = (1, 2, 6), A(e3 ) = (2, 2, 4),
A(e01 ) = (
e01 + e02 ), A(e02 ) = (
e02 e03 ), A(e03 ) = (
e01 e03 )
Hallar :
i.- La matriz de transformacion de cambio de base en V , de la primada en terminos de la no primada.

58

2. Aplicaciones Lineales
ii.- La matriz de transformacion de cambio de base en W , de la primada en terminos de la no primada.
iii.- La representaci
on de A en terminos de las bases no primadas,
i.e. en terminos de I1 e I3 .
iv.- La representaci
on de A en terminos de las bases primadas.
v.- Encontrar la relacion entre ambas representaciones.

6. En los ejercicios siguientes, hallar la representaci


on de la transformacion, correspondiente al cambio de base que se indica.
Sea {e1 , e2 } la base canonica de R2 y {e01 , e02 } la base que se obtiene :
i.- Al trasladar la base {e1 , e2 } a lo largo de e1 una cantidad .
ii.- Al trasladar la base {e1 , e2 } a lo largo de e2 una cantidad .
iii.- Al reflejar la base {e1 , e2 } con respecto a la recta y = x.
iv.- Al reflejar la base {e1 , e2 } con respecto al eje x.
v.- Al reflejar la base {e1 , e2 } con respecto al eje y.
vi.- Al reflejar la base {e1 , e2 } con respecto al origen.
vii.- Al experimentar {e1 , e2 } una doble reflexion, primero respecto
al eje x y a continuaci
on con respecto al eje y.
viii.- Al experimentar {e1 , e2 } una doble traslacion,la primera a lo
largo de e2 una cantidad y a continuaci
on a lo largo de e2 una
cantidad .

2.5.

Espacio Dual y Base Dual

Hemos visto que el conjunto de aplicaciones lineales entre dos e.v.


V y W definidos sobre el mismo campo, forma un e.v., dicho espacio fue
simbolizado por Hom(V, W ).
En particular si W = K, al espacio de aplicaciones lineales, Hom(V, K)
se le conoce como espacio dual del e.v. V y se simboliza por Hom(V, K) =
V , a los elementos de este espacio, los cuales son aplicaciones lineales de
V K, se les conoce funcionales lineales o covectores. Tambien vimos
que D[Hom(V, W )] = D(V )D(W ), en nuestro caso D[Hom(V, K)] =
D(V )D(K) = D(V ) por lo que D(V ) = D(V ), resultado que nos dice que
V y V son isomorfos, ademas que entre V y V existe un isomorfismo.
Se vio que si {vi }ri=1 y {wj }sj=1 son bases de V y W respectivamente, el
... ,r
j
j
conjunto de las {ji }j=1,
i=1, ... ,s con i (vk ) = wi k es una base de Hom(V, W ).

2.5 Espacio Dual y Base Dual

59

En el caso de V , donde W = K y la base de K es el 1, tendremos


que j1 (vk ) = 1 kj = kj , puesto que todos los elementos de esta base
son acompa
nados del 1, podemos prescindir de este y tener simplemente
j (vk ) = kj , el n
umero total de ellas sera igual a la dimension de V . Por
lo tanto una base de V esta constituida por r funcionales, {l }l=1
r , desde
luego cualquier otro elemento V , se puede poner en terminos de esta
base.
Definici
on.- Sea {ei }ni=1 una base de V, el conjunto de elementos
en V es una Base Dual del conjunto {e1 }ni=1 si y solo

{ r }r=1
que esta
n
si k (es ) = sk .

En el caso anterior {k }k=1


son o constituyen la base dual de {vi }ri=1 .
r
j=1
j

Sea { }n base en V , por lo que para toda V


= 1 1 + 2 2 + + n n = j j con {j }nj=1 escalares
A manera de ejemplo veremos el siguiente lema :
Lema.- Si {ei }ni=1 es una base de V y {j }j=1
es su base dual en V ,
n
con, = j j , entonces j = (ej ).
Demostracion : La demostracion es inmediata ya que al aplicar a
cualquier elemento er de la base {ei }ni=1 tendremos :
(er ) = [1 1 + 2 2 + + r r + r+1 r+1 + + n n ]er
= 1 1 (er ) + 2 2 (er ) + + r r (er ) + r+1 r+1 (er ) + + n n (er )
= r por lo que r = (er )
2
En base a este lema y considerando las bases anteriores, tenemos que
para toda v V, v = v j ej , implica que v j = j (v).
Tomando en consideracion los resultados anteriores tendremos que :
= (ej )j y

que v = j (v)(ej )

Ejemplo :
Sea {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} una base de R3 y sean
{1 , 2 , 3 } su base dual en [R3 ] por lo que :

60

2. Aplicaciones Lineales
1 (e1 ) = 2 (e2 ) = 3 (e3 ) = 1
1 (e2 ) = 1 (e3 ) = 2 (e1 ) = 2 (e3 ) = 3 (e1 ) = 3 (e2 ) = 0

por lo que para todo (a, b, c) R3


1 (a, b, c) = 1 [a(1, 0, 0), +b(0, 1, 0), +c(0, 0, 1)]
= a1 (1, 0, 0), +b1 (0, 1, 0), +c1 (0, 0, 1) = a
de manera similar 2 (a, b, c) = b

3 (a, b, c) = c

Es de observarse que la accion de una funcional sobre un vector es un


escalar, esto es, si v V y V , (v) k, este escalar se puede escribir
de diversas maneras : (v) =< , v >= (| >, |v >); y en notacion de
Dirac a las funcionales lineales se les simboliza por los llamados bra, cuyo
smbolo es < |, para distinguir un bra de otro se utilizan letras o n
umeros,
i.e. < |a, < |b, < |c, . . ., o < 1|, < 2|, . . ..
Se haba visto que : si V y {i }i=1
es base de V
n
= 1 1 + 2 2 + + n n = i i con i = 1, . . . n
en notacion de Dirac y utilizando la convenci
on de Einstein
= i i = i < i| = (< |)(|i >) < i| =< ||i >< i| =< |i >< i|
Si v V y V (v) = (< |)(|v >) =< ||v >=< |v > si ademas
{ei }ni=1 es base de V y {j }j=1
es una base dual en V , tendremos
n
(v) = < |v >= (j < j|)(v k |k >) = j (< j|(v k |k >))
= j v k (< j||k >) = j v k < j|k >= j v k kj = j v j = k v k ,
lo cual tambien pudo ser obtenido directamente
(v) = (i i )(v k ek ) = i [i (v k ek )] = i [v k i (ek )] = i v k ki
= i v i
Si U es un subconjunto de V, no necesariamente un subespacio, se define
el anulador de U, el cual se simboliza por U 0 , y se define como :
U 0 = { V | (u) = 0, u U }
Ejercicio : Mostrar que U 0 es un subepacio de V .

2.6 Cambio de Base en V

61

Teorema.- Si U es un subespacio de V, entonces D(V ) = D(U )+D(U 0 ).


Demostracion : Sea {e1 , e2 , . . . er } una base de U, puesto que U es
un subespacio de V, podemos agregar a la base de U vectores L.I. que estan
en V, pero no en U, hasta formar una base de V, sea D(V ) = n, por lo que
tenemos que agregar n r vectores L.I. hasta formar una base de V , sea
esta {e1 , e2 , . . . er , er+1 , . . . , en } y sea {1 , 2 , . . . , n } su base dual en
V , esto es k (es ) = sk
Sea U puesto que U es un subespacio de V
= 1 1 + 2 2 + + r r + r+1 r+1 + + n n
pero sabemos que i = (ei ) y puesto que {e1 , e2 , . . . , er } U y U ,
entonces (ei ) = 0, i = 1, . . . , r, por lo que = r+1 r+1 + + n n ,
de aqu observamos que {r+1 , . . . , n } genera U , adem
as estan en U ya
r+1
r+2
n
que (ei ) = (ei ) = = (ei ) = 0,
para toda ei , i = 1, . . . r.
r+1
n
Por construccion { , . . . } son L.I., lo cual implica que este conjunto es una base de U , cuya dimension D(U ) = n r, por u
ltimo

D(U ) + D(U ) = r + n r = n = D(V ), entonces :


D(V ) = D(U ) + D(U ).
2
Ejercicio.- Mostrar que si V = M N, entonces V = M N .

Cambio de Base en V

2.6.

Sea {ei }ni=1 base de V, y sea {j }j=1


su base dual en V , i.e. k (er ) =
n
rk . Si efectuamos un cambio de base, digamos de {ei }ni=1 a {e0j }nj=1 , dado
por ei = cji e0j o por e0j = dkj ek , entonces e0j = dkj ek = dkj clk e0l , lo cual implica
que dkj clk = jl .
Podemos hallar el cambio de base correspondiente en V . Sea { j }j=1
n
0

la base dual de {e0i }ni=1 entonces j (e0i ) = ij .


0

j k
j m k
m
j (e0i ) = ij = (Fkj k ) (dm
i em ) = Fk [ (di em )] = Fk di em
j k
j
k
= Fkj dm
i m = Fk di = i

entonces comparando vemos Fkj = cjk por lo tanto j = cjk k .


0

62

2. Aplicaciones Lineales

La siguiente tabla nos ayuda a resumir y aplicar un poco lo anterior


ei = cji e0j

e0k = dm
k em

k = Frk r

s = dsr r

y encontramos que k = ckr r por lo que s = dsr r puesto que sabemos


que (cji ) = (dji )1 tendremos finalmente que
ei = cji e0j

e0k = cm
k em

k = ckr r

s = csr r

A continuacion haremos un ejemplo, en el que se aplica lo antes visto.


Ejemplo : Sean {e1 = (1, 0), e2 = (0, 1)} y {e01 = (1, 1), e02 = (1, 1)}
bases de R2 (primero veremos que la matriz de cambio de base, de las
no primadas a las primadas, es la misma que nos transforma o cambia las
componentes respecto a la base primada en las componentes respecto a la
base no primada) por lo que :
e0i = aji ej = a1i e1 + a2i e2
(1, 1) = e01 = a11 e1 + a21 e2 = a11 (1, 0) + a21 (0, 1) entonces :
1 = a11 y 1 = a21
(1, 1) = e02 = a12 e1 + a22 e2 = a12 (1, 0) + a22 (0, 1) entonces :
1 = a12 y 1 = a22
Siendo la matriz de cambio de base de la no primada a la primada

(aij )

1
1
1 1

Sea v R2 por lo que v = v i ei = v 1 e1 + v 2 e2 v = wj e0j = w1 e01 + w2 e02


entonces :
(v 1 , v 2 ) = w1 (1, 1) + w2 (1, 1) = (w1 + w2 , w1 w2 )
y en consecuencia:
v 1 = w1 + w2
por lo tanto :

v 2 = w1 w2

2.6 Cambio de Base en V

63

v1
v2

1
1
1 1

w1
w2

q.e.d.
Podemos tambien expresar la base no primada en terminos de la primada, esto es, ei = dji e0j ,
e1 = d11 e01 + d21 e02
d21 (1, 1) ,

1 = d11 + d21
0 = d11 d21

(0, 1) = d12 (1, 1) + d22 (1, 1) ,

1 = d12 + d22
0 = d12 d22

(1, 0) =

d11 (1, 1)

d11 = 12 , d21 =

1
2

en forma similar
e2 = d12 e01 + d22 e02

d12 = 12 , d22 = 12

por lo que

(dij )

1
2
1
2

1
2
12

Sean {1 , 2 } y { 1 , 2 } las bases duales de {e1 , e2 } y {e01 , e02 } respectivamente por lo que
1 (a, b) = a,

2 (a, b) = b

ab
a+b
a+b
(1, 1) +
(1, 1)] =
2
2
2
a+b
ab
ab
0
0
2 (a, b) = 2 [
(1, 1) +
(1, 1)] =
2
2
2
1
2
1
2
(a, b) + (a, b)

0
1 (a, b) =
=[
+
](a, b)
2
2
2
0

1 (a, b) = 1 [

2 (a, b) =

1 (a, b) 2 (a, b)
1 2
=[

](a, b)
2
2
2
0

1
0
2

1
2
1
2

1
2
21

1
2

64

2. Aplicaciones Lineales
Otra manera de hacerlo sera.

Sean: {e1 = (1, 0), e2 = (0, 1)} y {e01 = (1, 1), e02 = (1, 1) } bases de R2
por lo que
e01 = dj1 ej = d11 (1, 0) + d21 (0, 1) = (1, 1)
(d11 , d21 ) = (1, 1)

d11 = 1, d21 = 1

e02 = dj2 ej = d12 (1, 0) + d22 (0, 1) = (1, 1)


(d12 , d22 ) = (1, 1)

d12 = 1, d22 = 1

En forma similar
e1 = cj1 e0j = c11 (1, 1) + c21 (1, 1) = (1, 0)
1 1
c11 + c21 = 1
c1 = 2

c11 c21 = 0
c21 = 12
e2 = cj2 e0j = c12 (1, 1) + c22 (1, 1) = (1, 0)
1
1
c12 + c22 = 0
c2 =
2

c12 c22 = 1
c22 = 12
1

1
2
2
(cij ) =
1
1
2 2
Ahora observemos que es lo que sucede con la matriz de cambio de base
en el espacio dual.
j = Fkj k sabemos que
0

1 = 1 (1, 1) = (F11 1 + F21 2 )(1, 1) = F11 + F21


0

0 = 1 (1, 1) = (F11 1 + F21 2 )(1, 1) = F11 F21


1
1

F11 = ,
F21 =
2
2
0

0 = 2 (1, 1) = (F12 1 + F22 2 )(1, 1) = F12 + F22


0

1 = 2 (1, 1) = (F12 1 + F22 2 )(1, 1) = F12 F22


1
1

F12 = ,
F22 =
2
2
por lo que

2.6 Cambio de Base en V

65

(Fji ) =

1
2
1
2

1
2
12

Ejercicios : Secci
on 2.6 .1. Encontrar una base para el anulador de {(1, 1, 1), (1, 2, 3)} R3 .
2. Encontrar una base para el anulador de {1, 2, 3, 4} R4 .
3. Sea P1 el conjunto de polinomios de grado menor o igual a uno y sean
1 , 2 P1 tal que :
Z 1
1
[g(t)] =
g(t)dt
0

Z
2 [g(t)] =

g(t)dt
0

Hallar una base de P1 la cual sea base dual de 1 , 2 .


4. Sean
I = { e1 = (1, 1, 1), e2 = (0, 1, 1), e3 = (0, 0, 1) }

II = { e01 = (1, 0, 0), e02 = (1, 1, 0), e03 = (1, 1, 2) }


dos bases de R3 y sean {1 , 2 , 3 } y { 1 , 2 , 3 } las bases duales
respectivas de I y II. Hallar la matriz de cambio de base de las s a
las s , es decir, k = Flk l .
5. Sean e1 = (1 + i, 1 i) y e2 = (2, 2 i).
i.- Mostrar que {e1 , e2 } es base de C 2 .
ii.- Hallar las coordenadas de un vector arbitrario (a, b) C 2 en esta
base.
iii.- Sean {1 , 2 } la base dual de {e1 , e2 }, hallar 1 [(a, b)] y 2 [(a, b)]
para un vector arbitrario (a, b) en C 2 .
6. Sea {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} una base de R3 y sea
{1 , 2 , 3 } su base dual en (R3 ) .
Hallar la base dual de {e01 = (1, 1, 1), e02 = (0, 1, 1), e03 = (0, 0, 1)} en
terminos de {1 , 2 , 3 } , es decir, si k e0r = rk , hallar { 1 , 2 , 3 }
tal que i = aji j .

66

2. Aplicaciones Lineales

2.7.

Operadores Lineales y Operador Dual

Ahora nos restringiremos a las transformaciones lineales de un e.v.


sobre s mismo, las cuales se conocen como operadores, el conjunto de ellas
simbolizado por Hom(V ), forma, por lo visto anteriormente, un e.v. de dimension igual a (D(V ))2 en particular si D(V ) = n,entonces, D(Hom(V )) =
n2 , ademas podemos definir otra operacion, esta nueva operacion se llama
producto o composici
on de operadores.
Definici
on.- Sean A, B Hom(V ), el producto A B o AB, el cual
tambien muchas veces se lee como B seguido de Ao B compuesto con
Ase define mediante :
(AB)v = A[B(v)] v V
De esta definicion se sigue que, si v1 , v2 V y a1 , a2 K.
(AB)(a1 v1 + a2 v2 ) = A[B(a1 v1 + a2 v2 )] = A[a1 B(v1 ) + a2 B(v2 )]
= a1 A[B(v1 )] + a2 A[B(v2 )] = a1 (AB)v1 + a2 (AB)v2

AB Hom(V ).

Ejercicio .- Mostrar que (AB)C = A(BC);

A, B, C Hom(V ).

Ejemplo .-Si A, B, C Hom(V ), mostraremos que:


[A(B + C)] = AB + BC
[A(B + C)]v = A[(B + C)v] = A[Bv + Cv] = A[Bv] + A[Cv]
= (AB)v + (AC)v = (AB + AC)v
entonces A(B + C) = AB + AC, similarmente (A + B)C = AC + BC.
Ejercicio .- Mostrar que A(aB) = (aA)B = a(AB) y que A0 = 0.
Podemos introducir una transformacion de V en V definida por Ev = v
v V, por lo que E(a1 v1 + a2 v2 ) = a1 v1 + a2 v2 = a1 E(v1 ) + a2 E(v2 ) es
decir E Hom(V ), ademas
(AE)v = A[E(v)] = A(v) y
es decir AE = EA, en general AB 6= B.

(EA)v = E(Av) = A(v).

2.7 Operadores Lineales y Operador Dual

67

Definici
on.- Sea A Hom(V ), A es un operador escalar si A = aE
para alg
un a K.
Definici
on.- Un operador A Hom(V ), es Regular si existe A1
Hom(V ), tal que AA1 = A1 A = E. Si A no es regular, se llama Singular.
Se haba visto que si
A Hom(V, W ), D(V ) = D(Ker(A)) + D(Im(A)),
en este caso, si A Hom(V ), tanto Ker(A) como Im(A) son subespacios
de V.
Si A es biyectiva, es inyectiva por lo que Ker(A) = {0} o nulidad de
A = D(Ker(A)) = 0 y ademas A es sobreyectiva, o sea Im(A) = V o rango
de A = D(Im(A)) = D(V ).
Teorema.- A Hom(V ) es regular si se cumple alguna de las siguientes
proposiciones :
i.) A Hom(V ) es inyectiva o nulidad de A = 0
ii.) A Hom(V ) es subyectiva o rango de A = D(V )
Demostracion : Si A es inyectiva ello equivale a que nulidad de A = 0 y
de la identidad
nulidad de A + rango de A = D(V )
se sigue que rango de A = D(V ), puesto que Im(A) es un subespacio de V,
cuya dimension es igual a D(V ), se sigue que Im(A) = V o sea que A es
suryectiva, por lo que A es biyectiva o regular.
Similarmente si A es suryectiva, Im(A) = V, por lo que D(Ker(A)) =
D(V )D(Im(A)) = 0, o sea Ker(A) = {0} lo que implica que A es inyectiva
y en consecuencia biyectiva o regular.
2
Definici
on.- Si A Hom(V ) es regular se le llama automorfismo, por
lo que un automorfismo es un isomorfismo de un e.v. sobre s mismo.
En secciones anteriores se vio que si A Hom(V, W ) es biyectiva y
{ei }ni=1 es una base de V, entonces {A(ei )}ni=1 es una base de W, en forma similar si A Hom(V ), regular y {ei }ni=1 es una base de V, entonces

68

2. Aplicaciones Lineales

{A(ei )}ni=1 es otra base de V ; desde luego la prueba de esta u


ltima afirmacion es simple.
Tambien se vio que si si A Hom(V, W ) y {ei }ni=1 base de V, y {
ej }nj=1
es base de W, con A biyectiva, la representaci
on de A en terminos de estas
bases, es una matriz cuyo determinante es diferente de cero. En nuestro caso,
o en el caso de operadores, un resultado similar se tiene ecxepto que no se
requiere de dos bases, con una es suficiente.
Recprocamente, dada una base {ei }ni=1 de V y A Hom(V ), definiendo
aji mediante Aei = aji ej , si det(aij ) 6= 0, sabemos que {A(ei )}ni=1 es base de
V,(ver teorema relativo a cambio de base)a la vez que A nos manda bases
en bases,por lo que Ker(A) = {0}, infiriendose que A es regular.
Teorema.- Sea (e1 , e2 , . . . , en ) una base cualquiera de V y sea
A Hom(V ), definiendo los n2 escalares aji mediante Aei = aji ej , entonces
A es biyectiva, regular o automorfismo, si y solo si det(aji ) 6= 0.
Demostracion: Sea A Hom(V ) y V , consideremos la composicion A, la cual mapea V en K, si v1 , v2 V y a1 , a2 K
( A)[a1 v1 + a2 v2 ] = [A(a1 v1 + a2 v2 )] = [a1 A(v1 ) + a2 A(v2 )]
= a1 (A(v1 )) + a2 (A(v2 ))
= a1 ( A)v1 + a2 ( A)v2
de donde ( A) V . Esta funcional ( A) se puede denotar por A =
A ,
de aqu se intuye que A : V V , veamos si efectivamente esto es
cierto.
Sean 1 , 2 V y a1 , a2 K
def

A (a1 1 + a2 2 ) = (a1 1 + a2 2 ) A
por ser esta composicion una funcional, actua sobre elementos de V , por lo
que, su accion sobre v V
[A (a1 1 + a2 2 )]v = [(a1 1 + a2 2 ) A]v = (a1 1 + a2 2 )[A(v)]
= a1 1 [A(v)] + a2 2 [A(v)]
= a1 (1 A)v + a2 (2 A)v
= [a1 (1 A) + a2 (2 A)]v
entonces

2.7 Operadores Lineales y Operador Dual

69

A (a1 1 + a2 2 ) = a1 A 1 + a2 A 2 )
y por tanto A Hom(V ).
2
Definici
on.- Sea A Hom(V ), definimos el operador dual, adjunto o
conjugado de A, A mediante A = A, es decir, para toda v
V, (A )v = ( A)v, en notacion de parentesis rectangulares tendremos
< A , v >=< , Av > . Sea (e1 , e2 , . . . , en ) una base de V y A Hom(V ).
Sabemos que una representacion de A est
a dada por n2 escalares de la forma
j
on de
aij y estos provienen de A(ei ) = ai ej , en forma similar la representaci
j k

j
A proviene de n escalares a j los cuales provienen de A = a k ,
siendo {i }i=1
la base dual en V de {ej }nj=1 .
n
Veamos como estan relacionados aij y a ij .
Puesto que
[A j ]ek = (j A)ek = j [Aek ] = j ask es = ask j es = ask sj = ajk
y por otra parte [A j ]ek = (a jr r )ek = a jr kr = a jk , observamos en
principio que ajk = a jk , existiendo una ligera diferencia, la cual proviene del
hecho que al actuar A sobre las e, actua sobre ndices inferiores, contrario
a la accion de A sobre las , qued
andonos finalmente a jk = akj .
Esta u
ltima afirmacion puede verse facilmente, veamos
Aei = aji ej

A k = a km m
A 1 = a 11 1 + + a 1n n
..
.


A ... =
n

A n = a n1 1 + + a nn n
Ae1 = a11 e1 + + an1 en
..
.
Aen = a1n e1 + + ann en

a 11
..
.

a 1n

a n1

a nn

1
e1
a1
..
..
A . = .
en
an1

1
..
.
n

e1
..
.
n
an
en
a1n

70

2. Aplicaciones Lineales

Ejemplo : Sea { e1 = (2, 0), e2 = (0, 3) } una base de R2 , {1 , 2 }


su base dual en R2 y A Hom(R2 ) dada por A(a, b) = (3a b, a + 2b),
por lo que
A(2, 0) = (6, 2) = aj1 ej = a11 (2, 0) + a21 (0, 3)
= (2a11 , 3a21 )
a11 = 3, a21 =

2
3

A(0, 3) = (3, 6) = aj2 ej = a12 (2, 0) + a22 (0, 3)


= (2a12 , 3a22 )
a12 = 32 , a22 = 2

por tanto

(aij )

3
2

3
2
3

3
3
2

2
3

Por otra parte sabemos que i (ej ) = ji , por lo que :


(A k )e1 = (a kr r )e1 = [a k1 1 + a k2 2 ]e1 = a k1
2
= (k A)e1 = k [A(e1 )] = k (6, 2) = k [3e1 + e2 ]
3
si k = 1 tendremos que a 11 = 3, si k = 2 tendremos que a 21 =

2
3

en forma similar
(A k )e2 = (a kr r )e2 = (a k1 1 + a k2 2 )e2 = a k2
= (k A)e2 = k [A(e2 )] = k (3, 6) = k
con k = 1,

a 12 = 32 ,

con k = 2,

por lo que

(a ij )

3
2
3

3
2

3
e1 + 2e2
2

a 22 = 2

2.7 Operadores Lineales y Operador Dual

71

resultado que coincide con lo esperado.


Ejercicios: Secci
on 2.7.- Si A, B Hom(V ) y a K probar :
i.- (A + B) = A + B .
ii.- (aA) = aA .
iii.- (AB) = B A .
iv.- E tiene un comportamiento similar en V al que tiene E en V.
v.- Sea V el espacio vectorial de todas las funciones polinomio sobre el
campo de los n
umeros reales. Sean a y b dos numeros reales fijos y sea

f V definido por:
Z b
f (p) =
p(x)dx
a

Si D es el operador derivaci
on sobre V, que es o donde esta D f .

2.7.1.

Producto Tensorial

Sea V y v V, se define el Producto Tensorial de v y , como


aquella operacion o transformacion que al actuar sobre un elemento de V
nos manda a elementos de V, esto es, para toda u V (v )u = [(u)]v,
por lo que, la operacion v actua sobre vectores y nos manda a vectores;
veamos si efectivamente v Hom(V ) :
Sean u1 , u2 , v V, a1 , a2 K y V
(v )(a1 u1 + a2 u2 ) = [(a1 u1 + a2 u2 )]v = (a1 u1 + a2 u2 )v
= a1 (u1 )v + a2 (u2 )v
= a1 (v )u1 + a2 (v )u2
lo cual implica que v Hom(V ).
Ejercicios: Secci
on 2.7.1.- Si v1 , v2 V ; 1 , 2 V y a K demostrar :

i.- v1 (1 + 2 ) = v1 1 + v1 2
ii.- (av1 ) 1 = v1 a1 = a(v1 1 )

72

2. Aplicaciones Lineales

iii.- (v1 + v2 ) 1 = v1 1 + v2 1
Ahora bien, nosotros sabemos que si {v1 , v2 , . . . , vr } y si {w1 , w2 , . . .,
ws } son bases de V y W respectivamente, una base de Hom(V, W ) esta dada
por las r s ij tal que ij (vr ) = wj ri , siguiendo el mismo camino que nos
llevo a construir una base de Hom(V, W ), podemos construir una base de
Hom(V ). Sin embargo esta la construiremos en terminos de productos tensoriales, veamos, sea A Hom(V ), {ei }ni=1 una base de V y {j }nj=1 su base
dual en V , ya que A(ei ) = aji ej = ajk ik ej = ajk [k (ei )]ej = ajk [ej k ]ei ,
entonces A = ajk ej k , lo que implica que los n2 productos tensoriales
ej k generan Hom(V ).
A continuacion veremos que son L.I. para lo cual construimos el operador
cero, 0 = ckj ek j , por lo que para toda v V,
0(v) = 0 = ckj (ek j )v = ckj [j (v)]ek = ckj [j (v r er ]ek = ckj v r rj ek = ckj v j ek
puesto que las e son L.I., esto implica que ckj v j = 0, puesto que este
resultado es valido para toda v V, entonces ckj = 0, k = 1, . . . , n.
Anteriormente mostramos que los productos tensoriales son elementos
de Hom(V ), entonces los n2 productos tensoriales de ei j forman una
base de Hom(V ).

2.7.2.

Matrices

Definici
on.- Una Matriz es un arreglo rectangular de escalares, los
cuales para especificar su posicion se les hace acompa
nar de dos ndices,
uno superior y otro inferior, o bien dos ndices inferiores (superiores), esto
es, el escalar aij ocupa el renglon i y la columna j, este mismo elemento
simbolizado con ndices inferiores es aij .
Estas surgen al resolver un sistema de ecuaciones lineales, surgen como
representacion de aplicaciones lineales, pueden surgir en la representaci
on
de algunas funciones especficas, por ejemplo :
Sea

a11 x + a12
,
a21 x + a22

a11 a12
a esta funcion le podemos asociar el arreglo
,
a21 a22
este arreglo no es u
nico, ya que si c 6= 0 (real)
y=

sin embargo

2.7 Operadores Lineales y Operador Dual

73

y=

a11 c+a12 c
a21 c+a22 c

con

ca11 ca12
ca21 ca22

entonces dos matrices de este tipo representan a la misma funcion si los


elementos de una son iguales a alg
un m
ultiplo (fijo) de los elementos de la
otra.

a11 = 1 a12 = 0
x+a12
Observemos que si y = aa11
con
, y=x
21 x+a22
a21 = 0 a22 = 1
la matriz asociada es la matriz identidad.
Si y =

a11 x+a12
a21 x+a22

z =

y z=

b11 y+b12
b21 y+b22

x+a12
b11 aa11
+ b12
21 x+a22
x+a12
b21 aa11
21 x+a22

+ b22

por lo que

a11 b11 x + b11 a12 + a21 b12 x + a22 b12


a11 b21 x + b21 a11 + a21 b22 x + a22 b22

a11 b11 + a21 b12


b21 a11 + b22 a21

b11 a12 + b12 a22


b21 a11 + b22 a22

la matriz asociada a esta composicion corresponde al producto usual de


matrices (bji ) por (aij ) .
Los ndices que acompa
nan a los elementos de una matriz pueden tomar
un n
umero finito o infinito de valores. En caso de que los ndices tomen
valores finitos, se habla de una matriz de orden finito, de no ser as, se habla
de una matriz de orden infinito.
Si la matriz es de orden finito y el n
umero maximo de renglones es n y
n
umero de columnas m, se dice que el orden de la matriz es n m o bien
que la dimension de la matriz es n m.
Al conjunto de matrices de orden m n. se le simboliza por Mmn (K),
si se sobreentiende el campo sobre el cual esta definida la matriz, el conjunto
se simboliza simplemente por Mmn .
Definici
on.- Si A Mmn (K) esta se simboliza por (aij ). Sean (aij ) y
Mmn (K), se define la suma de (aij ) y (bij ) como aquella matriz cuyos
elementos son de la forma aij + bij y esta se simboliza por (aij + bij ). Esta nos
dice que el elemento del i-esimo renglon y la j-esima columna proviene de la
suma usual de elementos del i-esimo renglon y la j-esima columna de cada
una de las matrices.
(bij )

74

2. Aplicaciones Lineales

La matriz que pertenece a Mmn (K) cuyos elementos son todos ceros la
denotaremos por 0.
Definici
on.- Sea (bij ) Mmn (K) y a K, definimos la multiplicaci
on
i
de apor la matriz (bj ) como aquella matriz cuyos elementos son de la
forma abij y la simbolizamos por (abij ).
Puesto que ya hemos definido la suma de matrices y el producto de un
escalar por una matriz, ademas de tener definida la matriz cero, con esto
como base ya podemos probar que el conjunto Mmn (K) forma un e.v. .
Mostraremos a continuaci
on que la transformacion
T : Hom(V, W ) Mmn (K)
es un isomorfismo definido por T (A) = (aij ) donde A Hom(V, W ) y (aij )
m de V, esto es, Ae = aj e0
es la representacion de A respecto a la base {ei }i=1
i
i j
n
donde {e0j }j=1
es base de W.
Demostracion :
Probaremos primero que T Hom({Hom(V, W ), Mmn (K)}) .
Sean A, B Hom(V, W ), tal que
A(ei ) = aji e0j

B(ei ) = bji e0j

por lo que T (A) = (aji ) y T (B) = (bji ), por otra parte sabemos que
(A + B)ei = Aei + Bei = aji e0j + bji e0j = (aji + bji )e0j por lo que
T (A + B)ei = aij + bij = (aij ) + (bij ) = T (A) + T (B)
Tambien sabemos que (aA)ei = aAei = a(aji e0j ) = aaji e0j por lo tanto :
T (aA) = a(aji ) = aT A
Ahora veremos que T es inyectiva.
Sea A Ker(T ) entonces T (A) = 0 = (aij ), por otra parte A(ei ) =
0 entonces A = 0, por lo que Ker(T ) = {0}. Por u
ltimo, para toda
(cji ) Mmn (K), esta siempre puede representar a una aplicacion C
Hom(V, W ), esto es, C(ei ) = cji e0j por lo que T (C) = (cji ).
Esto significa que
D(Mmn (K)) = D(V )D(W ) = mn.

2.7 Operadores Lineales y Operador Dual

75
2

Existe otra operacion llamada multiplicaci


on entre matrices. Sean (aij ) y
(bij ) Mmn (K), se define el producto de (aij ) y (bij ) como aquella matriz
cuyos elementos del renglon i y columna j son de la forma aik + bkj , la matriz
umero de
producto sera (aik bkj ). En esta definicion esta implcito que el n
columnas de la primera matriz sea igual al n
umero de renglones de la segunda
. De aqu es claro que si las matrices son de orden nn, o sea n2 , la definicion
se aplica facilmente, de no ser as el producto (aij )(bij ) se logra si (aij ) Mrs
y (bij ) Msk y solo en este orden, i.e. el producto (bij )(aij ), no esta definido,
excepto que k = r.
A continuacion supondremos que (aij ) y (bij ) Mnn (K) por lo que
(aij )(bij ) = (aik bkj ).
Ejercicio : Demostrar que si

{(aij ), (bij ), (cij )} Mnn (K)

entonces

i) (aij )[(bij )(cij )] = [(aij )(bij )](cij ).


ii) (aij )[(bij ) + (cij )] = (aij )(bij ) + (aij )(cij ).
iii) si d K,

d(aij )(bij ) = (daij )(bij ) = (aij )(dbij ).

Definici
on.- La matriz (ji ) Mnn (K) es la u
nica matriz que al multiplicarse por cualquier otro elemento de Mnn (K), no afecta o no transforma
a la matriz por la cual se multiplica, esto es :
Si (aij ) Mnn (K) y (ji ) Mnn (K)
def

(aij )(ji ) = (aik jk ) = (aij )

(ji )(aij ) = (ki akj ) = (aij )

Definici
on.- (aij ) Mnn (K) se dice Invertible si existe (bij ) Mnn (K)
tal que (aij )(bij ) = (bij )(aij ) = (ji ), a la matriz (bij ) se le conoce como la
inversa de la matriz (aij ) y se le simboliza por (aij )1 ; al elemento del iesimo
renglon y jesima columna de la matriz (aij )1 lo simbolizaremos por a
ij .
Supongamos que (aij ) es invertible, esto es, existe (aij )1 por lo que
(aij )(aij )1 = (aik a
kj ) = (ji )

76

2. Aplicaciones Lineales

el elemento del renglon i y columna j del producto corresponde a :


aik a
kj = ji

(A)

para una j fija, digamos j = 1, y una i que vara de 1 a n, tendremos que la


expresion (A) corresponde al sistema de ecuaciones
i=1
i=2
..
.

a11 a
11 + a12 a
21 + + a1n a
n1 = 11 = 1
a21 a
11 + a22 a
21 + + a2n a
n1 = 12 = 0

i=n

an1 a
11 + an2 a
21 + + ann a
n1 = 1n = 0

Esto corresponde a un sistema de n ecuaciones lineales con n inc


ognitas {
a11 , a
21 , . . . , a
n1 }. Para que este sistema de ecuaciones tenga solucion es
necesario que

a11 a12
..
..
det .
.
an1 an2

a1n

6= 0

ann

ademas, si det(aij ) 6= 0 entonces

a
11 =

a
k1 =

a11
a21
..
.

1 a12
0 a22
.. ..
. .
0 an2
det(aij )

a12
a22
..
.












n
an

a1n
a2n

1
0
..
.

an1 an2

det(aij )

(1)1+1 M11
det(aij )












n
an

a1n
a2n

(1)1+k Mk1
det(aij )

siendo Mk1 el menor correspondiente al elemento del renglon 1 y columna k


de la matriz (aij ), si en lugar de haber desarrollado este sistema de ecuaciones
para j = 1, lo hubieramos hecho para j = s, los elementos seran

2.7 Operadores Lineales y Operador Dual

a
ks =

77

(1)k+s Mks
,
det(aij )

en base a esta expresion podemos construir todos los elementos de (aij )1 .


Como un corolario de esta definicion tenemos que :
Corolario.- (aij ) Mnn (K) es invertible si y solo si det(aij ) 6= 0. En
caso de que det(aij ) = 0, la matriz (aij ) se llama singular y desde luego no
invertible.
Ejercicios : Secci
on 2.7.2.1 .1. Determinar la matriz inversa de

1 3 0
a b
1 3 ;
(aij ) =
;
(bij ) = 2
b a
0
0 2

I
0
0 I

1
0
=
0
0

0
0
0
1
0
0
;
0 1
0
0
0 1

0 i
i 0

para los casos en que i = 1, 2, 3, siendo

1 =

0 1
1 0

2 =

0 i
i
0

3 =

1
0
0 1

2. Mostrar que si (aij ) y (bij ) Mnn (K) son invertibles, la inversa del producto es igual al producto de sus inversas puestas en orden contrario
al original, esto es :
[(aij )(bij )]1 = (bij )1 (aij )1
3. Mostrar que el mapeo J : C M22 (R) dado por

J(a + i b) =

a b
b a

78

2. Aplicaciones Lineales
esta en Hom[C, M22 (R)].
J es inyectiva ?,

J es sobreyectiva ?,

J es isomorfismo ?

Definici
on.- Dada (aij ) Mnn (R), definimos la transpuesta de la mai
triz (aj ) como aquella matriz cuyos elementos del i-esimo renglon y j-esima
columna corresponde al elemento aji de la matriz original, dicho de otra forma, el elemento del renglon i y columna j de la matriz transpuesta de (aij )
se simboliza por aij t = aji , la transpuesta de (aij ) se simboliza por (aij )T .
Ejemplo

1 2 3
1 2
2
1
i )T =
.
Si
(aij ) = 2 i
(a
2
i
,6
j
2
1
2 ,6
7
3 2
7
Definici
on.- Dada (aij ) Mnn (C) definimos la Adjunta Hermitiana de la
matriz (aij ), como aquella matriz cuyo elemento del i-esimo renglon y j-esima

columna corresponde al elemento a


ji de la matriz original, esto es a
ji = a ij ,
la adjunta hermitiana de (aij ) se simboliza por (aij ) , y los elementos de

esta por aij .

Definici
on.- Si (aij ) Mnn (R) es tal que (aij ) = (aij )T se le llama
simetrica.
Definici
on.- Si (aij ) Mnn (C) es tal que (aij ) = (aij ) se le llama
hermtica o autoadjunta.
Definici
on.- Si (aij ) Mnn (R) es invertible, tal que (aij )T = (aij )1 se
le llama ortogonal.
Definici
on.- Si (aij ) Mnn (C) es invertible, tal que (aij ) = (aij )1 se le
llama unitaria.
Para algunas demostraciones el uso de matrices con ndices arriba y abajo
puede resultar poco claro, haciendo todo mas facil trabajando matrices con
dos ndices abajo.
Definici
on.- La Transpuesta de (aij ) es (atij ) o (aij )t donde atij = aji .
Definici
on.- La adjunta Hermitiana de (aij ) es (aij ) o (aij ) , donde

aij = a
ji .

2.7 Operadores Lineales y Operador Dual

79

Ejemplos:
1. La transpuesta de un producto es el producto de las transpuestas con
el orden invertido.
def P
Demostracion : Sea (cij ) = (aij )(bij ), por lo que cij =
k aik bkj , la
transpuesta de (cij ) esta dada por (cij )T cuyo elemento
ctij = cji =

P
k

ajk bki =

P
k

t bt =
akj
ik

t t
k bik akj

siendo este el elemento i j del producto (bij ) T (aij ) T , por lo que


(cij )T = [(aij )(bij )]T = (bij ) T (aij ) T .
2. La adjunta hermitiana de un producto es el producto de las adjuntas
hermitianas puestas en orden contrario.
P
Demostracion : Sea (cij ) = (aij )(bij ), por lo que cij = k aik bkj ,
sabemos que :
cij

= cji =
=

X
k

ajk bki =

k

akj bik

ajk bki =

k

bik akj

a
jkbki

este elemento corresponde al elemento ij-esimo del producto :


(bij )(aij ) = (bij ) (aij )
por lo que

(cij ) = [(aij )(bij )] = (bij ) (aij ) .

Ejercicios
1. Mostrar que el producto de matrices ortogonales es una matriz ortogonal.
2. Mostrar que el producto de matrices unitarias es otra matriz unitaria.
Definici
on.- La traza de una matriz cuadrada (aij ) = (aij ), es el escalar
P
traza(aij ) = traza(aij ) = tr(aij ) = tr(aij ) = i aii = aii , en donde la hemos
definido, tanto para ndices arriba y abajo, como para ndices abajo.
Es el mapeo tr : Mnn (K) K lineal ?

80

2. Aplicaciones Lineales

Demostracion : Sean (aij ) y (bij ) Mnn (K), por lo que (cij ) = (aij ) +
(bij ) = (aij + bij ), siendo cij = aij + bij
tr(cij ) =
=

n
X
i=1
n
X

cii =
aii +

i=1

n
X
(aii + bii )
i=1
n
X

bii

i=1

= tr(aij ) + tr(bij ).
Sea (cij ) = a(aij ) con a K, entonces cij = aaij .
tr(cij ) =

Pn

i=1 cii

Pn

i=1 aaii

=a

Pn

i=1 aii

= atr(aij )

por lo tanto tr Hom[Mnn (K), K].


2
Definici
on.- La adjh de una matriz (aij ) Mnn (C), es la matriz (aij ) .
Es el mapeo adjh : Mnn (C) Mnn (C) lineal ?
Demostracion : Sean (aij ) y (bij ) Mnn (C), por lo que :
(cij ) = (aij ) + (bij ) = (aij + bij ), siendo cij = aij + bij
adjh(cij ) = adjh[(aij ) + (bij )] = adjh(aij + bij )
cij = cji = aji + bji = a
ji + bji = aij + bij
el cual corresponde al elemento ij-esimo de la suma (aij ) + (bij ) , por lo
que
adjh(cij ) = adjh[(aij ) + (bij )] = [(aij ) + (bij )] = (aij ) + (bij ) .
Sea (cij ) = a(aij ) con a C, entonces cij = aaij
cij = cji = aaji = a
a
ji = a
a+
ij
por lo tanto [a(aij )] = a
(aij ) , por lo que, adjh 6 Hom[Mnn (C), C], sin
embargo es biyectiva.
2

2.7 Operadores Lineales y Operador Dual


i

81

Mostrar que [e(aj ) ] = e(aj )

Demostracion : puesto que [e(aj ) ] = [


es lineal con respecto a la suma
i

[e(aj ) ] = [

X (aij )k
k

k!

P
k

] =

(aij )k
k! ]

pero sabemos que adjh

X (aij )k
k

k!

ademas sabemos que la adjh de un producto es igual al producto de las adjh


puestas en orden contrario, en este caso puesto que la matriz esla misma no
habra diferencia quedando

82

2. Aplicaciones Lineales

[e(aj ) ] = [

X (aij )k
k

k!

] =

X (aij ) k
k

k!

= e(aj ) .
2

Ejercicios : Secci
on 2.7.2
on.- Si (aij ) es invertible y (
aij ) es su inversa, definimos
1. Definici
(aij )n = (
aij )n
Mostrar que [b(aij )]n = bn (aij )n con n Z.
2. Definici
on.- Si P () es un polinomio en de grado n con coeficientes en K, esto es :
P () = P0 n + P1 n1 + + Pn ; con Pi K
y (aij )n Mnn (K), definimos :
P [(aij )] = P0 (aij )n + P1 (aij )n1 + + Pn (ji )
i

Definici
on.- e(aj ) = exp[(aij )] =

1
0
i
i.- Hallar exp 2
0 1

(aij )k
k
k!

ii.- Mostrar que si (aij ) y (bij ) conmutan, entonces


i

e(aj ) e(bj ) = e[(aj )+(bj )]


3. Sea (aij ) Mnn (C) arbitraria, definimos
1
(h(1) ij ) = [(aij ) + (aij ) ]
2

1
(h(2) ij ) = [(aij ) (aij ) ]
2

Que clase de matrices son (h(1) ij ), (h(2) ij ), (aij ) (aij ) ?


4. Si (aij ) Mnn (K), se define :
(aij ) = (ji ), (aij )1 = (aij ), (aij )2 = (aij )(aij ), . . . , (aij )m = (aij )m1 (aij ).

2.7 Operadores Lineales y Operador Dual

83

i.- Demostrar que (aij )m (aij )n = (aij )m+n .


ii.- Demostrar que [(aij )m ]n = (aij )mn .
i

5. Mostrar que si (aij ) es hermtica, entonces ei (aj ) es unitaria.


6. Mostrar que el inverso de una matriz es u
nico.
7. Mostrar que si el determinante de una matriz es cero, entonces la
matriz no tiene inversa.
8. Mostrar que [(aij )T ]1 = [(aij )1 ]T .
9. Mostrar que (aij )1 = 1 (aij )1 con 6= 0.
10. Mostrar que la inversa de una matriz diagonal no singular es diagonal.
11. Mostrar que la inversa de una matriz simetrica no singular es simetrica.
12. Suponiendo que las matrices (aij ) y (bij ) son hermticas, y las matrices
(cij ) y (dij ) son unitarias. Probar que :
i.- (cij )1 (aij )(cij ) es hermtica.
ii.- (cij )1 (dij )(cij ) es unitaria.
iii.- i[(aij )(bij ) (bij )(aij )] es hermtica.
13. Demostrar las siguientes afirmaciones :
i.- La inversa de una matriz ortogonal (unitaria), es una matriz ortogonal (unitaria).
ii.- El producto de dos matrices ortogonales (unitarias), es una matriz
ortogonal (unitaria).
iii.- El producto de dos matrices simetricas (hermticas), es una matriz simetrica (hermtica), si y solo si estas conmutan.
14. Si A y B son matrices hermticas, demostrar que AB + BA
e i(AB BA) son tambien hermticas.
15. Dos matrices U y H estan relacionadas por U = eiaH , con a real,
i.- Si H es hermtica, demostrar que U es unitaria.
ii.- Si U es unitaria, demostrar que H es hermtica.

84

2. Aplicaciones Lineales



16. Sea bij Mnn (K) y T Hom[Mnn (K)] definida por T aij =
i i

aj bj bij aij , si T r corresponde a la transformacion traza
de una matriz,que es o donde esta T T r y donde esta T .

Parte III

Producto interior

85

Captulo 3

Producto Interior
3.1.

Cotensores

Definici
on.- Sea V un e.v. sobre K, un 2-tensor g en V o un 2cotensor o un 2-tensor covariante, es un mapeo g : V V K, el cual
ademas es bilineal, es decir si v1 , v2 , u1 , u2 V y a1 , a2 , b1 , b2 K,
i) g(v1 , v2 ) K.
ii) g(a1 v1 + a2 v2 , u1 ) = a1 g(v1 , u1 ) + a2 g(v2 , u1 ) propiedad que se conoce
como linealidad por la izquierda.
iii) g(v1 , b1 u1 + b2 u2 ) = b1 g(v1 , u1 ) + b2 g(v1 , u2 ) propiedad que se conoce
como linealidad por la derecha.
Si {ei }ni=1 es base de V, para toda v, w V
g(v, w) = g(v i ei , wj ej ) = v i wj g(ei , ej ) = v i wj gij
resultado que se obtiene despues de aplicar n veces y sistematicamente la
linealidad por la izquierda y por la derecha.
Ejercicio.- Probar que :
i) g(0, u) = 0
ii) g(u, 0) = 0

para toda u V
para toda u V
87

88

3. Producto Interior

Definici
on.- Si f y g son dos, 2-cotensores en V, se define la suma de
ellos como :
(f + g)(u, v) = f (u, v) + g(u, v)
y el producto de f por un escalar a K, como:
(af )(u, v) = af (u, v).
En base a estas operaciones, demuestre que el conjunto de 2-cotensores
forma un e.v. .
El e.v. correspondiente se simboliza por T 0, 2 (V ).
Definici
on.- Si f T 0, 2 (V ) y u, v V, se dice que u y v son ortogonales
si f (u, v) = 0.
En base a esta definicion se observa que el u
nico vector que es ortogonal
a todos es el vector cero.
Definici
on.- Un 2-tensor f en V se dice regular si u V, el que
f (v, u) = 0 implica que v = 0 o bien que u V, el que f (u, v) = 0
implica que v = 0.
Si , V y u, v V, se define el Producto tensorial de y como
( )(u, v) = (u)(v).
Ejercicio.- Mostrar que ( ) es un 2-tensor en V.
A continuacion construiremos una base de T 0, 2 (V ), sea {ei }ni=1 una base
de V y {j }j=1
su base dual en V , sabemos que i j es un 2-tensor
n
covariante. Sea g T 0, 2 (V ) por lo que:
g(u, v) = g(ui ei , v j ej ) = ui v j g(ei , ej ) = gij ui v j
= gij i (u)j (v) = gij (i j )(u, v)
g = gij (i j )
lo cual implica que los n2 productos tensoriales generan T 0, 2 (V ), veamos
ademas que son L.I.
0 = cij (i j ), donde el cero es nuestro 2-cotensor cero, por lo que
0(u, v) = 0 = cij i j (u, v) = cij ui v j , resultado valido para cualquier
elemento de V V por tanto cij = 0, i = 1, . . . , n; j = 1, . . . , n.

3.1 Cotensores

89

Como un corolario observamos que


D(T 0, 2 (V )) = (D(V ))2 = n2
Teorema.- g T 0, 2 (V ) es regular si y solo si gij es regular.
Demostracion : Supongamos que g es regular, entonces para toda
u V, el que g(w, u) = 0 implica que w = 0, si {ei }ni=1 base de V y {j }j=1
n
su base dual en V , tendremos 0 = g(w, u) = g(wi ei , uj ej ) = wi uj gij ,
resultado valido para toda u, por tanto wi gij = 0, puesto que g es regular
w = 0, siendo desde luego sus componentes cero, lo que implica que el
sistema de ecuaciones 0 = wi gij solo admite la solucion trivial, para lo cual
es necesario que det(gij ) 6= 0 lo que implica que (gij ) es regular.
Si (gij ) es regular, entonces det(gij ) 6= 0 por lo que el sistema de ecuaciones wi gij = 0 solo admite la solucion trivial, y para toda v V v i wi gij =
0, implica que g(v, w) = 0 para toda v V, puesto que w = 0, concluimos
que g es regular.
2
Ejemplos
Sea {e1 , e2 , e3 } una base de V y {1 , 2 , 3 } su base dual en V .
De los siguientes tres 2-tensores covariantes sobre V , veremos cual de
ellos es regular y por que.
1. g = 3(1 2 ) + 2(2 3 ) 5(3 2 )
2. h = 1 1 + 2 2 + 3 3
3. f = 12 1 2 42 2

0
3 0
0 2 puesto que det(gij ) = 0 enEn el caso 1.- (gij ) = 0
0 5 0

tonces g es singular.
3

1 0 0
En el caso 2.- (hij ) = 0 1 0 puesto que det(hij ) 6= 0 entonces
0 0 1

90

3. Producto Interior
h es regular.
3

1
0
2 0
En el caso 3.- (fij ) = 0 4 0 puesto que det(fij ) = 0 en0
0 0
tonces f es singular.
3

Mostraremos empleando otro metodo que para el caso 2, h es regular.


Puesto que h = 1 1 + 2 2 + 3 3 sabemos que para toda
v V, el que h(u, v) = 0 implica que u = 0, veamos que esto es cierto
h(u, v) = 0 = [1 1 +2 2 +3 3 ](u, v) = u1 v 1 +u2 v 2 +u3 v 3 = 0
resultado que es valido para toda v V, por lo que tambien se
cumplira cuando v = u, esto es (u1 )2 + (u2 )2 + (u3 )2 = 0 implica
que (ui )2 = 0 ui = 0 y por tanto concluimos que h es regular.
3
Ejercicio.- Siguiendo este camino, mostrar que en los casos 1 y 3, f
y g no pueden ser regulares.
4. Sea f : R2 R2 R dada por
1 1
u v
f (u, v) = 2 2 donde
u v

u = (u1 , u2 )
v = (v 1 , v 2 )

i) Mostrar que f es un 2-tensor covariante en R2 .


on de f.
ii) Determinar la representaci
Demostracion : De i) Para mostrar que f es un 2-tensor covariante,
debemos mostrar :
a) Que f (u, v) R, lo cual es evidente de la definicion.

3.1 Cotensores

91

b) Que f es bilineal, es decir lineal por la izquierda y por la derecha. Probemos la linealidad por la izquierda, dejandose al lector la prueba de la
linealidad por la derecha, la cual es similar.
Sean v1 , v2 , w R2 y a1 , a2 R por lo que v1 = (v11 , v12 ), v2 = (v21 , v22 )
y w = (w1 , w2 )

a1 v11 + a2 v21 w1
a1 v11 w1
a2 v21 w1

f (a1 v1 + a2 v2 , w) =
=
+
a1 v12 + a2 v22 w2
a1 v12 w2
a2 v22 w2

1
1
v2 w 1
v1 w1

+ a2
= a1 2
v 2 w2 = a1 f (v1 , w) + a2 f (v2 , w)
v1 w2
2
por lo tanto f es lineal por la izquierda.
ii) La representacion de f, es la matriz cuyos elementos i, j son de la
forma fij = f (ei , ej ) siendo las ej elementos de la base {ei }2i=1 de R2 .

1 1
0 1
= 0 f2 1 = f (e2 , e1 ) =

f1 1 = f (e1 , e1 ) =
1 0 = 1
0 0

1 0
0 0

= 0
f1 2 = f (e1 , e2 ) =
= 1 f2 2 = f (e2 , e2 ) =
0 1
1 1
quedando

(fij ) =

0 1
1 0

es decir

fij

1
1

si
si
si

i, j es una permutaci
on par del orden 1,2
i, j es una permutaci
on impar del orden 1,2
i=j
3

Tambien observe que


1

1 1
v w1
w v

f (v, w) = 2
=
2
w2 v 2 = f (w, v) ,
v w
cuando esto sucede decimos que f es un 2-cotensor antisimetrico
f

= f11 1 1 + f12 1 2 + f21 2 1 + f22 2 2


= 1 2 2 1 .

92

3. Producto Interior

Si definimos, para toda , V = [ ]/2, vemos


que f = 2(1 2 ) donde es conocido como producto tilde, exterior o
wedge.
Si g T 0, 2 (V ) es regular este induce un isomorfismo Ig : V V dado
por (Ig (v), w) = g(v, w) donde v, w V. Veamos que Ig es un isomorfismo,
para lo cual hay que probar que :
1.- Es lineal

2.- Es biyectiva

1. Sean v1 , v2 , w V y a1 , a2 K
(Ig (a1 v1 + a2 v2 ), w) = g(a1 v1 + a2 v2 , w)
= a1 g(v1 , w) + a2 g(v2 , w)
= a1 (Ig (v1 ), w) + a2 (Ig (v2 ), w)
= (a1 Ig (v1 ) + a2 Ig (v2 ), w)
Ig (a1 v1 + a2 v2 ) = a1 Ig (v1 ) + a2 Ig (v2 )
Ig Hom(V, V ).
2. Veamos ahora que Ig es biyectiva,
i) Que Ig sea inyectiva.- Sea v Ker(Ig ) entonces Ig (v) = 0, tomando
def

en cuenta este hecho, tendremos que para toda w V (Ig (v), w) =


g(v, w) = 0, puesto que este resultado es valido para toda w V y g
es regular, lo cual implica que v = 0, por lo que Ker(Ig ) = {0}, de
donde se concluye que Ig es inyectiva.
ii) Ig es sobreyectiva.- Del teorema que nos dice que
D(V ) = D(Ker(Ig )) + D(Im(Ig ))
tenemos que D(V ) = D(V ) = D(Im(Ig )), por ser Im(Ig ) un subespacio de V con la misma dimension, concluimos que Im(Ig ) = V ,
por tanto Ig es sobreyectiva.
De donde finalmente Ig es un isomorfismo de V en V
Una pregunta inmediata es si {ei }ni=1 es una base de V y {j }j=1
es su
n
base dual en V Cual es la representaci
on de Ig la cual depende de las

3.1 Cotensores

93

bases antes se
naladas ?, i.e. de que forma son los n2 escalares aij tales
que Ig ei = aij j ? veamos : (Ig ei , ek ) = g(ei , ek ) = gi k por otra parte
(Ig ei , ek ) = (aij j , ek ) = aij kj = ai k por lo que, la representaci
on de Ig
esta formada por las componentes gij del 2-tensor covariante g respecto a la
base dada.
su base
Ejemplo.- Demostrar que si {ei }ni=1 es una base de V y {j }j=1
n
dual en V , entonces Ig (v) = gij v i j
para toda g T 0, 2 (V ).
Demostracion : Sabemos que
(Ig (v), w) = g(v, w) = g(v i ei , wj ej ) = v i wj g(ei , ej ) = v i wj gij
= v i j gij w
y por tanto
Ig (v) = gij v i j .
3
Ejercicio.- Demostrar que : Ig ei = gij j
Hemos visto que a partir de un 2-cotensor g en V regular, podemos
construir un isomorfismo, la recproca tambien es cierta, es decir si I es un
isomorfismo entre V y V podemos observar a que 2-cotensor g en V regular
corresponde.
Teorema.- Si I es un isomorfismo de V en V entonces existe un 2-tensor
en V regular, g, tal que, g(u, v) = (I(u), v) para u, v V.
Demostracion : Veamos primeramente que g es bilineal
g(a1 u1 + a2 u2 , v) = (I(a1 u1 + a2 u2 ), v)
Por ser I isomorfismo, esta es lineal por lo que : g( a1 u1 + a2 u2 , v) =
(a1 Iu1 + a2 Iu2 , v) = a1 (Iu1 , v) + a2 (Iu2 , v) = a1 g(u1 , v) + a2 g(u2 , v) lo cual
implica que g es lineal por la izquierda, en forma similar se puede observar
la linealidad por la derecha.
Ahora demostraremos que g es un 2-cotensor regular en V . Puesto que
I es inyectiva, entonces Ker(I) = {0} por lo que si v Ker(I), I(v) = 0
por lo que para toda w V se cumple que
0 = (I(v), w) = g(v, w)

94

3. Producto Interior
lo cual implica que g es regular.
2

Ejemplos
P i i
1. Se ha visto que I : V V dado por I(v i ei ) =
es un
iv
isomorfismo, podemos preguntarnos a que 2-cotensor regular corresponde.
Solucion : Para toda w V
X
X
g(v, w) = (I(v), w) = (I(v i ei ), w) =
v i i , w =
v i (i (w))
X
X
X
=
vi wi =
i (v)i (w) =
(i i )(v, w)
i

= ij (i j )(v, w).
por tanto

g = ij i j .
3

Sea {ei }ni=1 una base de V, si g T 0, 2 (V ) sus coordenadas con respecto


a la base de V ser
an gij = g(ei , ej ), si cambiamos de base, as que
0 = g(e0 , e0 ) = g(cl e , cs e ) = cl cs g(e , e )
e0i = cji ej tendremos que gij
l s
i j
i l j s
i j
= cli csj gl s , notemos que en este caso cji transforma las bases de la no
primada a la primada y en el caso de los 2-tensores covariantes en V,
actua nuevamente igual de las no primadas a las primadas, i.e. gij se
transforma covariantemente.
2. Sea V un e.v. real de dimension dos, sea {e1 , e2 } una base de V y
(1 , 2 ) su dual, tenemos que g = 1 1 + 2 2 = ij i j .
Si e01 = cos e1 + sen e2

e02 = sen e1 + cos e2 .

Hallar la forma explcita de g, respecto a la nueva base.


0

0 i j donde g 0 = g(e0 , e0 ) = g(ck e , cs e ) =


Solucion : g = gij
ij
i j
i k j s
P
cki csj g(ek , es ) = cki csj k s = k cki ckj = c1i c1j + c2i c2j por lo que

g10 1 = c11 c11 + c21 c21 = cos2 + sen2 = 1


g10 2 = c11 c12 + c21 c22 = cos sen sen cos = 0

3.2 Producto Interior

95

g20 1 = c12 c11 + c22 c21 = 0


g20 2 = c12 c12 + c22 c22 = sen2 + cos2 = 1

1 0
0
(gij ) =
= (ij ) = (gij )
0 1
quedandonos

g = ij i j
|
{z
}
3

3.2.

Producto Interior

Definici
on.- Sea V un e.v. sobre R, un producto interior, escalar o
interno en V, es un mapeo ( , ) : V V R, tal que este mapeo es :
i) Simetrico, esto es, (u, v) = (v, u).
ii) Definido positivo, esto es, (u, u) 0 cumpliendose la igualdad solo
cuando u = 0.
iii) Bilineal.
Otra manera de definirlo sera : Un producto interior de V que esta sobre
R es un elemento de T 0, 2 (V ) el cual ademas es simetrico y definido positivo.
Ejemplo
Mostrar que g T 0, 2 (V ) es simetrico

gij es simetrica.

Demostracion :
=) Supongamos que g T 0, 2 (V ) es simetrico, esto es que g(u, v) =
g(v, u) lo cual implica que g(ei , ej ) = g(ej , ei )
y por tanto que gij = gj i de donde se concluye que (gi j ) es simetrica, para
toda base {ei }ni=1 de V.
=) Por otro lado, si (gij ) es simetrica, tendremos que
g(u, v) = gij i j (u, v) = gji i (u)j (v) = gji j (v)i (u)
= gji (j i )(v, u) = g(v, u)

96

3. Producto Interior
de donde se concluye que g es simetrico.
3

n
n
Ejercicio.- Mostrar que el mapeo
Pnde Ri i R R dado por
n
1
2
n
. . . , a ), (b , b , . . . , b )] = i=1 a b es un producto interior;al cual
se refiere uno como el producto interior canonico en Rn .

[(a1 , a2 ,

Definici
on.- Sea V un e.v. sobre C, un producto interior, escalar o interno en V, es un mapeo de V V C, tal que este mapeo cumple :
i) (u, v) = (v, u) donde la barra significa conjugacion.
ii) (u, u) 0, siendo 0 solo cuando u = 0, n
otese que tiene sentido compararlo con el cero, toda vez que (u, u) = (u, u) es un n
umero real.
iii (u, a1 v1 + a2 v2 ) = a1 (u, v1 ) + a2 (u, v2 ), es decir, el mapeo es lineal por
la derecha.
Ejemplos :
1. Mostraremos que el conjunto de funciones continuas
Z
2
L = { : R C |
(x)(x) dx < }

bajo el mapeo ( , ) : L2 L2 C, dado por (, ) =


es un producto interior.

(x)(x) dx

Demostracion :
Prueba de i) Puesto que
Z
Z
(, ) =
(x)(x) dx =

(x)(x) dx =

(x)(x) dx

= (, ).

R
R
Prueba de ii) (, ) = (x)(x) dx = | (x) |2 dx 0 cumpliendose la igualdad en el caso de que (x) = 0.

Prueba de iii) Sean , 1 , 2 L2 y a1 , a2 K

3.2 Producto Interior

97

Z
(, a1 1 + a2 2 ) =

(x)(a1 1 + a2 2 )(x) dx
[(x)a1 1 (x) + (x)a2 2 (x)]dx

= a1 (, 1 ) + a2 (, 2 )

cumpliendose la igualdad por la derecha.


2. Sean V y W espacios vectoriales sobre K,supongamos que (,) es un producto interno sobre W. Si T es una transformacion lineal no singular de
V en W ,entonces, la igualdad PT (v1 , v2 ) = (T v1 , T v2 ) define un producto interior PT sobre V.
Demostracion:
Prueba de i)
PT (v1 , v2 ) = ( T v1 , T v2 ) = (T v2 , T v1 ) = PT (v2 , v1 ).
Prueba de ii) Puesto que PT (v1 , v1 ) = (T v1 , T v1 ) 0 siendo cero
solo cuando T v1 = 0, resultado que es cierto para toda v V , por lo
que v1 KerT lo cual nos dice que v1 = 0 ya que KerT = {0}, por
tratarse de una transformacion no singular.
Prueba de iii)
PT (v1 , a1 w1 + a2 w2 ) = (T v1 , T (a1 w1 + a2 w2 )
= (T v1 , a1 T w1 + a2 T w2 )
= a1 (T v1 , T w1 ) + a2 (T v1 , T w2 )
= a1 PT (v1 , w1 ) + a2 PT (v1 , w2 )
cumpliendose la igualdad por la derecha.

Ejercicios
1. Mostrar que (av + bw, u) = a(v, u) + b(w, u), esto es, es antilineal en
el primer argumento.

98

3. Producto Interior

2. Mostrar que el mapeo de C n C n C dado por


[(a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn )] =

n
X

ai bi

i=1

es un producto escalar;conocido como producto interior canonico en


Cn.
Notese que el produto escalar sobre o en un espacio vectorial complejo
no es bilineal ; en este caso se dice que es una vez y media lineal.
3. Sea (, ) el producto interno canonico sobre <3 :
i.- Sea { v1 = (1, 1, 1), v2 = (0, 1, 1), v3 = (0, 0, 1) } <3 y w <3 ,
tal que (v1 , w) = 1, (v2 , w) = 2, (v3 , w) = 3 hallar w.
ii.- Mostrar que para cualquier w <3 , tendremos
w = (e1 , w)e1 + (e2 , w)e2 + (e3 , w)e3 , siendo {e1 , e2 , e3 } la base
canonica en <3 .
4. Sean P1

P2 dos productos interiores de V (K);

i.- Demostrar que P1 + P2 es un producto interno sobre V (K).


ii.- Demostrar que si es un escalar positivo , P1 es un producto
interior sobre, en, de V (K).
iii.- Es P1 P2 un producto interior?.
5. Poner de manera explicita , todos los productos interiores de < y de
C.
6. Sean u,v elementos de <2 , con u = (a1 , b1 ) y v = (a2 , b2 ) , y sea (, ) :
<2 < dado por (u, v) = a1 a2 b1 a2 a1 b2 + 4b1 b2
i.- Mostrar que (, )corresponde a un producto interior.
ii.- Hallar la representaci
on de este producto interno respecto a la
2
base canonica en < .
7. Sea V un e.v. y {vi }i=n
i=1 una base de V ,sea (, ), un producto interior en
i=n
V . Si {ai }i=1 son n escalares arbitrarios,demostrar que existe un u
nico
vector w V , tal que (vk , w) = ak , k = 1, . . . , n.
8. i.- Mostrar que el mapeo ( , ) : Mnn (C) M\\ (C) C, dado por
[(aij ), (bij )] = T r[(aij )dagger (bij )], es un producto interior.

3.2.1 Ortogonalidad

99

ii.- Determinar bajo este producto interior la norma de

1
i
1i 3

Sea V un e.v. y {ei }i=1 una base de V la cual puede ser finita o no, pero
discreta, es decir numerable.
Si v V, v = v i ei , extendiendose la suma a todos los elementos de la
base.
Si la base no esR discreta, sino continua, en lugar de suma tendremos una
x
integral, i.e. v =
f (t) dt donde los f corresponden a las coordenadas de
v, las cuales son funcion de t.
Regresando a nuestra base finita o infinita, pero discreta, tendremos que
si {ei }i=1 es una base de V y v V, el producto interior es :
(ej , v) = (ej , v k ek ) = v k (ej , ek ) = gj k v k
Las expresiones (ej , ek ) son escalares reales o complejos que podemos denotar
por gj k , es decir gj k en el caso de espacios vectoriales reales corresponden a
las coordenadas de un 2-tensor covariante g, el cual es simetrico. En el caso
de espacios vectoriales complejos las gjk son los elementos de una matriz
hermtica.
Ahora bien si para todo w V, (v, w) = 0 = v i wj (ei , ej ) =v i wj gij , lo
que implica que v = 0, por lo que det(gij ) 6= 0 y el sistema de ecuaciones
(ej , w) = gjk wk no homogeneo, admite una solucion para wk , siendo esta :
wk =

(ej , w)
(ej , w)
=
gjk
(ej , ek )

Esta expresion nos permite determinar los coeficientes de aquellas funciones


a desarrollarse en terminos de un conjunto ortogonal, como sera visto en
breve.

3.2.1.

Ortogonalidad

Tanto en espacios vectoriales reales como complejos, se define la


norma de un vector como la raz cuadrada positiva del producto interior del
vector con s mismo, i.e. si v V la norma de v la cual se simboliza por kvk
p
def
se define como : kvk = + (v, v)
Ejemplo.- Mostrar que si a K y v V
kavk = | a |kvk

100

3. Producto Interior
Demostracion : Por definicion
p
p
p
kavk = + (av, av) = + aa(v, v) = + | a |2 (v, v) = | a |kvk.
3

Definici
on.- Se dice que dos vectores u, v V son ortogonales si (u, v) =
0. De aqu se infiere que si a, b K; au y bv seguir
an siendo ortogonales.
Definici
on.- Se dice que un conjunto de vectores {v1 , v2 , . . . }, finito o
no, es ortogonal, si cualquier par de ellos es ortogonal.
Mostraremos a continuaci
on que un conjunto de vectores ortogonales
{v1 , v2 , . . . , vn }, que no contienen al vector cero, son L.I. .
Demostracion : Sea 0 = a1 v1 + a2 v2 + + an vn por lo que
0 = (vr , 0) = (vr , a1 v1 + a2 v2 + + an vn )
= a1 (vr , v1 ) + a2 (vr , v2 ) + + an (vr , vn )
= ar (vr , vr )

ar = 0,

r = 1, . . . , n

de donde se concluye que


{vi }ni=1 es L.I.
3
Ejemplo.- Mostrar que el u
nico vector ortogonal a todo vector de V es
el vector cero.
Demostracion : Sea w cualquier vector de V y v el vector que es
ortogonal a todos los elementos de V, por lo que (v, w) = 0 y puesto que
v V sera ortogonal a s mismo, por lo que (v, v) = 0, igualdad que se
cumple solo en el caso de que v = 0.
3
Ejemplo de conjunto ortogonal
Sea el conjunto { e0 = 1, e1 = sen x, e2 = cos x, e3 = sen 2x, . . . } =
{ e0 = 1, e2n1 = sen nx, e2n = cos nx}, { n = 1, 2, . . . }

3.2.1 Ortogonalidad

101

R
y tomemos el producto escalar : (ei , ej ) = ei ej dx por lo que
R
(e2n1 , e2n0 1 ) = (sen nx, sen n0 x) = sen nx sen n0 x dx
i
e
= cos + i sen
ya que
i

e
= cos i sen
tendremos que
(

ei + ei = 2 cos cos = e +e
2
i
i
ei ei = 2i sen sen = e e
2i

por lo que
Z

(e2n1 , e2n0 1 ) =
=

=
=
=
por lo que

1
0
0
(einx e inx ) (ein x e in x ) dx
4

Z
1 h i(n+n0 )x
0
e
ei(nn )x

4
i
0
0
ei(nn )x + ei(n+n )x dx

Z
Z
1
0
0

2 cos(n + n )x dx
2 cos(n n )x dx
4

1
2
2
0

sen(n
+
n
)x|

sen(n

n
)x|

4 n + n0
n n0
0

(e2n1 , e2n0 1 ) = 0
Z

(e2n1 , e2n1 ) =
=
=
=
=
=

con n y n0 enteros y n 6= n0

sen nx sen nx dx

(einx e inx ) (einx e inx )


dx
2i
2i

Z
1 2inx
(e
e0 e0 + e 2inx ) dx

(2 cos 2nx 2) dx
4

1 2
2
x

sen 2nx | + x | = |
4 2n
4
2
2
=
2

102

3. Producto Interior
Z

(e2n , e2n0 ) =
=
=
=
=

cos nx cos n0 x dx

(einx + e inx ) (ein x + e in x )


dx
2
2

Z h
i
1
0
0
0
0
ei(n+n )x + ei(nn )x + e i(nn )x + e i(n+n )x dx
4
Z
1
[2 cos (n + n0 )x + 2 cos (n n0 )x] dx
4

sen (n n0 )x
1 sen (n + n0 )x
| +
| = 0
2
n + n0
n n0

con n 6= n0

R
2nx
(e2n , e2n ) = 14 (2 cos 2nx + 2) dx = 12 sen
| + x| =
2n
R
(e0 , e0 ) = 1 1 dx = x| = 2
Z
(e2n , e2n1 ) =
cos nx sen nx dx

Z
=

1
4i

einx + einx einx einx


dx
2
2i

2i sen 2inx dx = 0

(e0 , e2n ) = 0 con n 6= 0 (e0 , e2n1 ) = 0


por lo que

si n 6= n0
si n = n0
0 si n 6= n0
(e2n1 , e2n0 1 ) =
si n = n0
(e0 , e0 ) = 2 lo cual implica que el conjunto
{ e0 = 1, e2n1 = sen nx, e2n = cos nx} con n = 1, 2, . . . es ortogonal.
(e2n , e2n0 ) =

3
Ejemplo : Serie de Fourier .- Relacionado con la expresion
wk =

(ej , w)
(ej , w)
=
gjk
(ej , ek )

deducida anteriormente. Sabemos que el conjunto

3.2.1 Ortogonalidad

103

{ e0 = 1, e2n1 = sen nx, e2n = cos nx}

con n = 1, 2, . . .

R
es un conjunto ortogonal
bajo
el
producto
interior
(e
,
e
)
=
i
j
ei ej por lo
P
P
que f (x) = a0 + n=1 bn sen nx + n=1 cn cos nx corresponde, al de una
funcion f (x) expresada en terminos del conjunto ortogonal, a dicho desarrollo se le conoce como desarrollo en Serie de Fourier. La determinacion de
a0 es inmediata, solo es necesario realizar el producto interior de f (x) con
e0 , obteniendo :
R
(f (x), e0 ) = (a0 , e0 ) = a0 (e0 , e0 ) = a0 1 1 dx = a0 2 de donde
0)
a0 = (f (x),e
, los demas terminos son cero, debido a la ortogonalidad del
2
conjunto. La determinacion de bi es similar, excepto que ahora se hara el
producto interior de f (x) con sen ix, i.e :
Z
X
X
(sen ix, f (x)) = (sen ix,
bn sen nx) =
sen ix
bn sen nx dx

X
n

Z
bn

sen ix sen nx dx = bi

lo cual implica que :


1
1
bi = (sen ix, f (x)) =

f (x) sen ix dx

en forma similar
1
1
ci = (cos ix, f (x)) =

f (x) cos ix dx

a las expresiones a0 , bi , ci se les conoce como coeficientes de Fourier.


3
Observese que la determinacion de estos se ha reducido a un problema
de integracion.
Ejemplo
A continuacion determinaremos los primeros cinco coeficientes de Fourier
de f (x) = x2 .
R 2
2
1
1 x3
a0 = 2
x dx = 2 3 | = 3
R
b1 = 1 x2 sen x dx = 0

104

3. Producto Interior
c1 =
b2 =
c2 =

R
R

x2 cos x dx = 4

x2 sen 2x dx = 0

x2 cos 2x dx = 1

por lo que :
f (x) = x2 =

2
4 cos x cos 2x +
3
3

Ejercicio :
Determinar los primeros cinco coeficientes de Fourier de las siguientes
funciones :
i) f (x) = x3
ii) f (x) = ex
iii) f (x) = x2
iv) f (x) = sen5 x

1
v) f (x) =
1

0<<
< < 2

la cual es una funcion impar.

Teorema de Pit
aP
goras.- Sea
P {v1 , v2 , . . . } un conjunto de vectores
ortogonales, entonces k i vi k2 = i kvi k2 .
Demostracion : La demostracion es inmediata, toda vez que
X
X
X
XX
k
vi k2 = (
vi ,
vj ) =
(vi , vj )
i

y tomando en consideracion la ortogonalidad, esta u


ltima expresion es igual
a:
XX
X
X
(vi , vj )ij =
(vi , vi ) =
kvi k2 .
i

3.2.1 Ortogonalidad

105

y por tanto se demuestra que :


X
X
k
vi k2 =
kvi k2
i

2
Definici
on.- Un vector v esta normalizado si kvk = 1, as si w 6= 0,
w
esta normalizado.
entonces el vector kwk
Definici
on.- Un conjunto de vectores es ortonormal si es ortogonal y cada uno de los vectores esta normalizado. Es decir, {v1 , v2 , . . . } es ortonormal
si (vi , vj ) = ij .
Puesto que el vector cero no puede ser normalizado, un conjunto ortonormal no contiene al vector cero, y por uno de los ejercicios anteriores se
infiere que todo conjunto ortonormal es L.I. .
Como consecuencia de lo anterior, tenemos la desigualdad de Bessel, la desigualdad de Cauchy Schwartz, la desigualdad del triangulo, etc. .
Teorema : Desigualdad de Bessel.- SiP{v1 , v2 , . . . } es un conjunto
ortonormal de V y w V, entonces, kwk2 i=1 |(vi , w)|2 .
Demostracion : Puesto que w V, este tambien se puede poner como
P
P
oP
n observemos el prow = w i=1 (vi , w)vi + i=1
P(vi , w)vi , a continuaci
ducto interior de vj con w i=1 (vi , w)vi : (vj , w) i=1 (vi , w)(vj , vi ) y
tomando
en consideracion la ortonormalidad, podemos igualarlo a (vj , w)
P
i=1 (vi , w)j i = (vj , w) (vj , w) = 0, resultado que nos dice que el conjunto
P
{w i=1 (vi , w)vi , v1 , v2 , . . . }
es ortogonal, puesto que
kwk2 = kw

i=1 (vi , w)vi

2
i=1 (vi , w)vi k

aplicando el teorema de Pitagoras tendremos :


X
X
kwk2 = kw
(vi , w)vi k2 + k
(vi , w)vi k2
i=1

i=1

X
X
= kw
(vi , w)vi k2 +
k(vi , w)vi k2
i=1

i=1

i=1

i=1

i=1

i=1

X
X
= kw
(vi , w)vi k2 +
| (vi , w) |2 kvi k2
X
X
(vi , w)vi k2 +
| (vi , w) |2
= kw

106

3. Producto Interior

puestoPque la norma de un vector es estrictamente positiva, entonces :


kw i=1 (vi , w)vi k2 0 y por lo tanto
X
kwk2
| (vi , w) |2 .
i=1

2
Teorema : Desigualdad de Cauchy-Schwartz.- Si v, w son dos elementos cualesquiera de un e.v. V, entonces |(v, w)| kvk kwk.
w
Demostracion : Puesto que { kwk
} es un conjunto ortonormal de un
solo elemento, aplicando la desigualdad de Bessel, tendremos :

kvk2 | (

w
1
1
, v) |2 = |
(w, v) |2 =
|(w, v)|2
kwk
kwk
kwk2

kvk2 kwk2 |(w, v)|2 |(w, v)| kwkkvk.


2

Teorema : Desigualdad del Tri


angulo.- Si v, w son dos elementos cualesquiera de un e.v. V, entonces kv + wk kvk + kwk.
Demostracion : Sea u = v + w, puesto que
kuk2 = (v + w, v + w) = (v, v) + (v, w) + (w, v) + (w, w)
= kvk2 + kwk2 + (v, w) + (v, w) = kvk2 + kwk2 + 2<(v, w)
ademas sabemos que <(v, w) |(v, w)| kvkkwk, por lo que
kuk2 kvk2 + kwk2 + 2kvk kwk = (kvk2 + kwk2 ) kuk kvk + kwk, lo
cual nos demuestra que :
kv + wk kvk + kwk .
2
Ejemplo : Sabemos que el conjunto
{ e0 = 1, e1 = sen x, e2 = cos x, e3 = sen 2x, e4 = cos 2x, . . . }
= { e0 = 1, e2n1 = sen nx, e2n = cos nx},

para n = 1, 2, . . .

3.2.1 Ortogonalidad

107

R
bajo el producto interior (ei , ej ) = ei ej dx es un conjunto ortogonal,
por lo que apartir de ellos podemos construir un conjunto ortonormal ya

que ke0 k = 2, ke2n k = , ke2n1 k = , por lo tanto, el conjunto


n
o n
o
e0
e1
e2
1 , sen
x , cos
x , sen
2x ,
,
,
.
.
.
=
ke0 k ke1 k ke2 k,

2
es ortonormal con el producto interior dado.
3
Dado un conjunto arbitrario de vectores L.I. podemos formar un conjunto
ortonormal, por el proceso de Gram-Schmidt.
Teorema.- Dado un conjunto de vectores L.I., {v1 , v2 , . . . } (finito o no),
podemos construir un conjunto ortonormal {e1 , e2 , . . . }.
Demostracion : Puesto que {v1 , v2 , . . . } es L.I. cada vector tiene norma diferente de cero, por lo que kv11 k esta bien definido, a la vez que kvv11 k = e1
tiene norma uno, a continuacion escribimos e02 = v2 ae1 (con a real o complejo), deseamos que e02 sea ortogonal a e1 , es decir
0 = (e1 , e02 ) = (e1 , v2 ae1 ) = (e1 , v2 ) a(e1 , e1 ) = (e1 , v2 ) a
por lo que a = (e1 , v2 ) o sea e02 = v2 (e1 , v2 )e1 , si ahora hacemos e2 =
e02
, el cual esta bien definido, toda vez que ke02 k 6= 0, ya que de no ser
ke02 k
as significara que 0 = v2 ae1 lo cual nos dice que v1 y v2 son L.D.,
contrario a la hipotesis; por lo que el conjunto {e1 , e2 } es ortonormal.
Continuando con este procedimiento, construimos
el conjunto { e1 , e2 ,
Pk
0
. . . , ek } ortonormal, tomemos ek+1 = vk+1 i=1 (ei , vk+1 )ei , entonces, e0k+1
sera ortogonal a e1 , e2 . . . , ek pues para 1 j k
(ej , e0k+1 ) = (ej , vk+1 )

k
X
(ei , vk+1 )(ej , ei )
i=1

k
X
(ei , vk+1 )ij
= (ej , vk+1 )
i=1

= (ej , vk+1 ) (ej , vk+1 ) = 0.


si finalmente hacemos ek+1 =

e0k+1
,
ke0k+1 k

el conjunto {e1 , e2 . . . , ek+1 } es orto-

normal, lo cual garantiza la construccion del conjunto que se quiera.

108

3. Producto Interior
Ejemplo Sea { 1, x, x2 , . . . } y el producto interior dado por
(f, g) =

R1
1

f (x)g(x) dx

a partir de estos datos queremos construir un conjunto ortonormal.


1
k1k ,

Solucion : Sea 0 (x) =


1

k1k = (1, 1) 2 =

donde
hR
1
1

1 1 dx

i 1

2,

as 0 (x) = 12 ; continuando, tomemos ahora 01 (x) = x a0 (x), entonces, si (0 (x), 01 (x)) = 0 se tiene
(0 (x), x a0 (x)) = (0 (x), x) a(0 (x), 0 (x)) = (0 (x), x) a = 0, o
R1
2
sea a = (0 (x), x) = 1 12 x dx = 12 x2 |11 = 0, es decir 01 (x) = x y
q
R1
R1
1
1
k01 (x)k = [ 1 x x dx ] 2 = [ 1 x2 dx ] 2 = 23 ; definiendo
1 (x) =

01 (x)
k01 (x)k

qx

2
3

; continuando, tomemos ahora,

02 (x) = x2 b 1 (x) c 0 (x) , si 02 (x) es ortogonal a 1 (x) y a 0 (x)


tendremos :
(0 (x), 02 (x)) = (0 (x), x2 ) b(0 (x), 1 (x)) c(0 (x), 0 (x))
= (0 (x), x2 ) c = 0
lo cual implica que c = (0 (x), x2 ) y
(1 (x), 02 (x)) = (1 (x), x2 ) b(1 (x), 1 (x)) c(1 (x), 0 (x))
= (1 (x), x2 ) b = 0
lo cual implica que b = (1 (x), x2 ), es decir

Z 1
Z 1 r
2
3 3
1 2
x dx =
y
b=
x dx = 0
c=
3
2
2
1
1
quedando
02 (x)

1
2 1
= x2
=x
3
3
2

y
02 (x)
2 (x) =
=
k02 (x)k

45
8

1
3 5
1
2
2
x
=
x
3
2 2
3

en forma similar construimos 3 (x), 4 (x), . . . .

3.2.1 Ortogonalidad

109
3

A partir de estas expresiones se definen los Polinomios de Legendre,


P0 (x), P1 (x), P2 (x), . . . mediante :
r
Pn (x) =
por lo que P0 (x) =
q
x

P2 (x) =

2 3
5 2

2
n (x)
2n + 1

q
q

20 (x) = 2 12 = 1, P1 (x) = 23 1 (x) = 23

5
2

(x2 13 ) =

3
2

qx

2
3

(x2 31 ), . . .

Ejercicios
1. Sea V un subespacio de <3 ,formado por todos los vectores ortogonales
a ( 1, 2, 3 ). Hallar una base de V
2. Utilizando el metodo de Gram Schmidt construir a partir del conjunto
{ e1 = (1, 2, 3), e2 = (0, 1, 0), e3 = (1, 0, 1) } y utilizando el producto
interno canonico en <3 , una base ortonormal en <3 .
3. Hallar una base ortonormal para el subespacio generado por
{ e1 = (1 + i, 0, 1), e2 = ( 2, i, 0) } C 3 .
4. Sea V un espacio vectorial, con producto interior ,sean u, v elmentos de
V . Demostrar que u = v, si y solo si, para toda w V (w, u) = (w, v).

5. i.- Utilizando el producto interior dado por (A, B) = T r(AB


) sien-
1
i
do A, B elementos de Mnn (C). Determinar la norma de
1i 3

ii.- Utilizando
interior del inciso i , mostrar que)el con( el producto


1 0
0 i
0
0
0 0
junto
,
,
,
0 0
0 0
1+i 0
0 3
es un conjunto ortogonal.
iii.- Aplicando el metodo de Gram Schmidt,construya a partir de este
conjunto, un conjunto ortonormal.

110

3. Producto Interior

3.3.

Espacios de Hilbert

Tanto en espacios vectoriales reales como complejos, el producto


interior de los kets es lineal por la derecha, i.e. sean {|u >, |v1 >, |v2 >} V
y a1 , a2 K por lo que
(|u >, a1 |v1 > +a2 |v2 >) = a1 (|u >, |v1 >) + a2 (|u >, |v2 >).
Esto en cierta forma nos dice que la transformacion o mapeo que a cada
ket |v1 > V lo manda en (|u >, |v1 >) con |u > fijo es una funcional,
esta transformacion nos permite identificar a el ket |u > con el bra < u|,
i.e. (|u >, |v >) = < u|v >, en cierto sentido podemos considerar el bra
< u| como el dual del ket |u > .
En particular si {|1 >, |2 >, |3 > . . . } es una base ortonormal de V,
los bra asociados {< 1|, < 2|, < 3| . . . } corresponden a una base dual de
{|1 >, |2 >, |3 > . . . } de V , i.e., < i|j > = ij .
Si la base {|e1 >, |e2 >, . . . } no es ortonormal, el
{< e1 |, < e2 |, . . . } V
no corresponde a la base dual de {|ei >}i=1 , en este caso < ei |ej > = gij
Ejercicio.- Mostrar que si |w > = a1 |v1 > +a2 |v2 > entonces
< w| = a1 < v1 | + a2 < v2 |.
Definici
on.- Sean |u >, |v > dos ket de V, se define la distancia entre
dichos kets, la cual se simboliza por d(|v >, |u >), como la norma de su
diferencia, i.e., d(|v >, |u >) = k |v > |u > k
Ejemplo.- Mostrar que :
i.- d(|v >, |u >) = d(|u >, |v >).
ii.- d(|v >, |u >) 0 la igualdad se cumple solo cuando |u >= |v > .
iii.- d(|v >, |u >) d(|v >, |r >) + d(|r >, |u >).
Demostracion : Para i)
d(|v >, |u >)

Para ii)

def

k |v > |u > k = k (|u > |v >)k

| 1| k |u > |v > k = k |u > |v > k

d(|u >, |v >).

3.3 Espacios de Hilbert-Clasificacion de Operadores

111

def

d(|u >, |v >) = k |u > |v > k > 0


en el caso de que |u > = |v > tendremos :
d(|u >, |u >) = k |u > |u > k = 0
por tanto se cumple que d(|v >, |u >) 0
Para iii)
def

d(|v >, |u >) = k |v > |u > k = k |v > +|r > |r > |u > k
y por la desigualdad del triangulo sabemos que
k |v > |r > +|r > |u > k k |v > |r > k + k |r > |u > k
lo cual implica que d(|v >, |u >) d(|v >, |r >) + d(|r >, |u >).

Definici
on.- Se dice que un conjunto es un espacio metrico si a toda
pareja (r, s) de elementos o puntos del conjunto, le podemos asociar un
n
umero (r, s), llamado la distancia, el cual cumple con las siguientes propiedades :
i.- (r, s) = (s, r).
ii.- (r, s) 0 cumpliendose la igualdad solo en el caso de que r = s.
iii.- (r, s) (r, q) + (q, s).

Ejercicios
1. Sea V un espacio metrico y sea {ei }ni=1 una base ortonormal de V . Demostrar que para todo u, v V
(u, v) =

n
X

(ei , u)(ei , v).

i=1

2. Sea V un espacio metrico de dimension finita, y sea {ei }ni=1 una base
ortonormal de V . Demostrar que si T Hom(V ) y (aij ) es la
representacion de T en la base dada. Demostrar que aij = (ei , T (ej )).

112

3. Producto Interior

Si V es un e.v. con un producto interior, V es un espacio metrico. Por lo que


la teora de Analisis Matematico correspondiente a espacios metricos puede
ser utilizada. Solo tomaremos de esta los conceptos de lmite y completez.
Definici
on.- Sea V un espacio metrico, se dice que la sucesion
{|v1 >, |v2 >, . . . } V
es una sucesion convergente, si existe |v > V, tal que para cada > 0, existe
un entero M, tal que si n > M, entonces (|vn >, |v >) < , simbolizando
este hecho como
lm |vn > = |v >
n

Ejemplo : Los n
umeros racionales Q forman un e.v. sobre si mismos y
con el producto interior en Q, definido como (p, q) = pq, p, q Q, es un
espacio metrico, por lo que
p
(p, q) = kp qk = (p q, p q)1/2 = (p q)2 = |p q|
Sea la sucesion {1, 1,7, 1,73, 1,732, 1,7320, . . . } Q, esta sucesi
on no es
convergente, ya que a
un cuando observamos que tiende a 3, 3 6 Q.
Sin
embargo esta misma sucesion en R es una sucesion convergente ya que
3 R.
3
Definici
on.- Sea V un espacio metrico, se dice que la sucesion
{ |v1 >, |v2 >, . . . } V
es una sucesion de Cauchy, si para cada > 0, existe un entero M tal que
si n, r > M, entonces (|vn >, |vr >) < .
Del ejemplo anterior observamos que la sucesion
{ 1, 1,7, 1,73, 1,732, 1,7320, . . . } Q, aunque no es convergente, es una
sucesion de Cauchy. Es casi evidente que toda sucesion convergente es una
sucesion de Cauchy, veamos la casi evidencia.
Demostracion : Sea {|v1 >, |v2 >, . . . } una sucesion en V, la cual es
convergente, esto significa que existe |v > V tal que si > 0, existe n N ,
tal que
(|v >, |vs >) <

con s > n

3.3 Espacios de Hilbert-Clasificacion de Operadores

113

tambien
(|v >, |vr >) <
esto significa que para

con r > n

> 0 existe m N , tal que

(|v >, |vl >) <

con l > m

con o > n

y
(|v >, |vo >) <
tal que
(|v >, |vl >) + (|v >, |vo >) <
ademas sabemos que (|vl >, |vo >) (|vl >, |v >) + (|v >, |v0 >) lo cual
implica que (|vl >, |v0 >) < , de donde se concluye que la sucesion es de
Cauchy.
3
Por lo tanto toda sucesion convergente es una sucesion de Cauchy, sin embargo la recproca no es cierta.
Definici
on.- Se dice que un espacio metrico es completo, si toda sucesion
de Cauchy es convergente.
En base a esta definicion notamos que Q como espacio metrico no es
completo, sin embargo, aunque no lo demostraremos, Rn es completo.
A continuacion daremos una u
ltima definicion, aunque no nos detendremos a analizar todas sus consecuencias y ejemplos.
Definici
on.- Un espacio de Hilbert, es un espacio vectorial complejo con
un producto interior, el cual como espacio metrico es completo.
Ejemplos : No probaremos la completez, solo daremos el resultado o
contraejemplos).
1. El espacio vectorial C n , con el producto interior definido anteriormente,
es un espacio de Hilbert.

114

3. Producto Interior

2. Consideremos el espacio vectorial complejo de todas las funciones continuas sobre un intervalo cerrado[a, b], con el producto interior (f, g) =
Rb
a f (x) g(x) dx , este espacio no es completo y por lo tanto no es de
Hilbert, un ejemplo de esto es la sucesion de funciones definidas en
1 x 1 como

1
nx
fn (x) =

1 x < n1
n1 x n1
1
n <x1

n = 1, 2, . . . Un elemento de la

sucesion tiene por grafica :


6
,
,
,

y el lmn fn (x) se representa graficamente por :


6

En la grafica se observa que aunque cada funcion es continua, el lmite


cuando n no lo es.
A continuacion veamos que la sucesion es de Cauchy, calculemos
d(fn , fm ) y hagamos tender n, m a infinito. La grafica de las funciones
fn (x) y fm (x) se muestra en la figura.

3.3 Espacios de Hilbert-Clasificacion de Operadores

115

6
,
,
,
,
,
,

No olvidar que

(f, g) =

Rb
a

1
nx
fn (x) =

f (x) g(x) dx y

1 x < n1
n1 x n1
1
n <x1

n = 1, 2, . . .

d(fn , f m ) = kfn fm k = [fn fm , fn fm ]1/2

Z 1
=
[(fn (x) fm (x))(fn (x) fm (x)) dx ]1/2
1

1/2

=
1

|fn (x) fm (x)| dx

Z 1
1/2
2
= 2
(fn (x) fm (x)) dx
0
"Z
1/m

= 21/2
0

(fn (x) fm (x))2 dx


Z

1/n

+
1/m

(fn (x) fm (x))2 dx


Z

+
1/n

#1/2
(fn (x) fm (x))2 dx

116

3. Producto Interior

"Z
= 21/2

1/n

Z
(nx mx)2 dx +

1/n

#1/2
(1 mx)2 dx

1/m

1/2
3
(1 mx)3 1/n
2 x 1/n
= 2
(n m)
|
+
|1/m
3 0
3m

1/2
(1 (m/n))3
1/2
2 1
= 2
(n m)
+
3n3
3m
1/2

=
=

21/2
3
1/2
2
3

1
n
(n m)2
n3
m
1
m 2
1
m
n

por lo que para m y n suficientemente grandes, esto puede hacerse


arbitrariamente peque
no. As la sucesion es de Cauchy, pero su lmite
no pertenece al espacio vectorial dado de funciones continuas.
3
3. El espacio L2 [a, b], de todas las funciones de [a, b] C, tales que
Rb
| f (x) |2 f (x) f (x) es integrable sobre [a, b], (es decir que a | f (x) |2 dx
Rb
es finita) con el producto interior (f, g) = a f (x) g(x) dx es un espacio
completo y por tanto de Hilbert (teorema de Riesz-Fisher).
3
Un espacio de Hilbert, H, es pues una pareja formada por: un espacio
vectorial complejo y un producto interior ( , ) definido en el, de tal manera
que como espacio metrico es completo.

3.4.

Operadores

Puesto que un producto interior nos permite identificar V con V (pues


induce un isomorfismo entre ellos), en la misma forma todo operador de
Hom(V ) puede identificarse con uno de Hom(V ), en particular para el operador dual A , podemos definir un operador asociado que actua en o sobre
V, llamado adjunto hermitiano,el cual se simboliza por A .

3.4 Operadores

117

Definici
on.- Sea un espacio vectorial, con producto interior, para
A Hom(V ) definimos , A , su adjunto hermitiano mediante :
(u, A(v)) = (A (u), v)

para u, v V

Tenemos entonces (u, A(v)) = (v, A (u)) (en un espacio vectorial real
podemos considerar la conjugacion como una operacion identidad, es decir,
a = a para a R).
En notacion de Dirac, con u | u >, v | v >, A(v) = A | v >;
(u, A(v)) (| u >, A|v >) = < u | A | v > y (v, A (u)) = < v|A |u >,
luego A esta definida por < u|A|v >= < v|A |u > o < u|A|v > =
< v|A |u >
Ejemplo : Mostrar que A Hom(V ).
Solucion : Sean |u >, |v > V, a, b C y sea < | V arbitrario,
tomemos |w > = a|u > +b|v > por lo que
< |A (a|u > +b|v >) >=< |A |w >= < w|A| >
de un ejercicio anterior sabemos que

< w| = a < u| + b < v|

luego :

< |A (a|u > +b|v >) > = (a < u| + b < v|, A| >)
= a < u|A| > +b < v|A| >
y por la definicion de suma de funcionales lineales, esta u
ltima expresion es
igual a
= a< u|A| > + b< v|A| > = a < |A |u > +b < |A |v >
= < |a A |u > + < |b A |v >
3
Ejercicio.- Mostrar que si A, B Hom(V )
i.- (A + B) = A + B
ii.- (a A) = a A
iii.- (AB) = B A
iv.- (A ) = A

118

3. Producto Interior

Definici
on.- Un operador es hermtico o autoadjunto si es igual a su adjunto
hermitiano, i.e., A Hom(H) es hermtico si y solo si A = A .
Teorema.- Los operadores hermticos de Hom(H) forman un subespacio
real de Hom(H) que contiene a la transformacion identidad.
Demostracion : Sean A, B Hom(H) hermticos, es decir A = A ,
B = B entonces si a, b R
(a A + b B) = (a A) + (b B) = a A + b B = a A + b B
luego los operadores hermticos forman un subespacio vectorial sobre los
reales. E Hom(H) es hermtico pues si |u >, |v > H
< u|E |v >= < v|E|u > = < v|u > =< u|v >=< u|E|v > .
2
Teorema.- Sean A, B Hom(H) hermticos, AB es hermtico, si y
solo si [A, B] = 0, (donde [A, B] = AB BA ).
Demostracion : =) Supongamos que AB es hermtico, es decir
(AB)

= AB, entonces puesto que (AB) = B A = BA, tenemos


BA = AB, es decir [A, B] = 0.
=) Supongamos que [A, B] = 0, es decir

AB = BA, entonces (AB) = B A = BA = AB por lo que (AB) es


hermtico.
2
Ejercicio.- Sea A Hom(H), mostrar que :
i.- AA y A A son hermticos.
ii.- A + A es hermtico y A A es antihermtico.
iii.- Si A es hermtico, iA es antihermtico.
iv.- Mostrar que todo operador se puede escribir como la suma de un operador hermtico y otro antihermtico.
v.- Si A es antihermtico, iA es hermtico.

3.4 Operadores

119

Teorema.- Si A es un operador tal que (v, A(v)) = 0 para toda v H,


entonces A = 0.
Demostracion : Sea w = au + bv, entonces :
0 = (w, Aw) = (au + bv, A(au + bv))
= (au, A(au)) + (au, A(bv)) + (bv, A(au)) + (bv, A(bv))
= (au, aA(u)) + (bv, bA(v)) + (au, bA(v))) + (bv, aA(u))
= | a |2 (u, A(u)) + | b |2 (v, A(v)) + ab(u, A(v)) + ba(v, A(u))
ab(u, A(v)) = ba(v, A(u))

en esta igualdad si a = 1 y b = 1 tendremos que


(u, A(v)) = (v, A(u))

(I)

si a = i y b = 1 tendremos que :
i(u, A(v)) = i(v, A(u))

(II)

Sustituyendo II en I, observamos que (u, A(v)) = (u, A(v)) resultado


que es cierto para toda u H, lo cual implica que A(v) = 0, resultado que
tambien es cierto para toda v H, de donde se concluye que A = 0.
2
Ejemplo : En mecanica cuantica, el estado de un sistema esta dado por un
ket de estado; | >, que esta normalizado, es decir < | >= (| >, | >) = 1.

La transformacion G = T
es un operador, pues

(a|u > +b|v >) = a |u > +b |v >


t
t
t
= aG|u > +bG|v >

G(a|u > +b|v >) =

si | > es un ket normalizado

< | >= (| >, | >)


t
t

= ( | >, | >) + (| >, | >)


t
t
= (G| >, | >) + (| >, G| >) = (| >, G | >) + (| >, G| >)

0 = G < | >=

(| >, (G + G)| >) = 0

120

3. Producto Interior

por el u
ltimo teorema tendremos que G = G, lo cual implica que G es
antihermtico, por lo que multiplicando a G por i lo hacemos hermtico, lo
multiplicaremos por (i
h)
i
hG = H = i
h

veamos que efectivamente H es hermtico. H = (i


h G) = i
h G = i
hG =

i h G = H, lo cual implica que H = H, siendo H hermtico, H recibe el


nombre de operador Hamiltoniano, a la expresion
H | >= i
h

| >
t

se le conoce como ecuacion de Schr


odinger.
3
Teorema.- Un operador A en Hom(H) es hermtico si y solo si
(v, A(v)) R para toda v H.
Demostracion : = ) Supongamos que A es hermtico, entonces
A = A, por lo que (v, A v) = (v, A(v)) = (v, A(v)) y por tanto (v, A(v))
R. = ) Supongamos que (v, A(v)) R, entonces (v, A(v)) = (v, A(v)) lo
cual implica que (v, A(v)) = (v, A v) de donde (v, (A A )v) = 0, y por
tanto, A A = 0 implica que A = A .
2
Ejemplo : Mostrar que un operador A es antihermtico si y solo si (v, A(v))
es imaginario puro para toda v H.
Demostracion : = ) Supongamos que A es antihermtico, entonces
A = A, por lo que (v, A v) = (v, A(v)) = (v, A(v)) lo que implica que
(v, A(v)) = (v, A(v)), de donde se concluye que (v, A(v)) es imaginario
puro. = ) Supongamos que (v, A(v)) es imaginario puro, esto es que :
(v, A(v)) = (v, A(v)) = (v, A v) lo cual implica que (v, (A + A )v) = 0,
lo cual nos dice que A + A = 0 y finalmente, concluimos que A = A.
3

3.4 Operadores

121

Definici
on.- Un operador A es normal, si conmuta con su adjunto hermitiano, i.e. si [A, A ] = 0.
Se sabe que todo operador A, se puede poner como la suma de un
operador hermtico y otro antihermtico, ademas sabemos que un operador
antihermtico es i veces un operador hermtico por lo que
A = A1 + iA2

con

A1 y A2 operadores hermticos.

Mostrar que A Hom(H) es normal, si y solo si [A1 , A2 ] = 0.


Demostracion : Puesto que (A1 + iA2 ) = A1 iA2 por lo que
[A, A ] = [A1 + iA2 , A1 iA2 ]
= [A1 , A1 ] i[A1 , A2 ] + i[A2 , A1 ] + [A2 , A2 ]
= 2 i [A2 , A1 ]
por lo que si A es normal, entonces [A1 , A2 ] = 0 y si [A1 , A2 ] = 0, entonces
A es normal.
3
Sabemos que |a > < b| es un operador y ahora nos preguntamos como es
su adjunto hermitiano.
Sea
(|u >, (|a >< b|) |w >)
= (|w >, |a > < b| |u >) = (|w >, < b|u > |a >)
= < b|u >< w|a > = < b|u > < w|a >
= < a|w >< u|b >= (|u >, < a|w > |b >)
= (|u >, |b >< a| |w >)

(|a >< b|) = |b >< a|.


Resultado que nos dice que (|a >< b|) , es hermtico solo cuando |a >= |b >
o cuando < b| =< a|, es decir,
(|a >< a|) = |a >< a| es hermtico.
Ejercicio.- Mostrar que si A, B, C Hom(H), y a, b, c C

122

3. Producto Interior

i.- [A, B] = [B, A] ,

[A, A] = 0.

ii.- [C, aA + bB] = a[C, A] + b[C, B].


iii.- [A, BC] = B[A, C] + [A, B]C y [AB, C] = A[B, C] + [A, C]B.
iv.- [A, [B, C]] + [C, [A, B]] + [B, [C, A]] = 0.
v.- [A, B] = [B , A ].
vi.- Si A, B son hermticos, [A, B] es antihermtico.
vii.- Mostrar (por induccion) que si A y B conmutan con [A, B] entonces
[A, B n ] = nB n1 [A, B].
Sea {|ei >}ni=1 una base de H y A Hom(H) sabemos que una representacion de A esta dada por n2 escalares aji tales que A|ei >= aji |ej >,
ahora nos preguntamos como es la representaci
on de A , puesto que A

k
Hom(H), A |ej >= bj |ek >, ahora bien
(|er >, A |ej >) = (|er >, bkj |ek >) = (|ej >, A|er >) = (|ej >, asr |es >)
bkj grk = asr gsj , si la base es ortonormal bkj rk = asr sj y en consecuencia
brj = brj = ajr = ajr = arj ,
entonces la representaci
on de A , cuando la base es ortonormal, corresponde
a la matriz adjunto hermitiana de la representaci
on de A. Sin embargo la
recproca no es cierta, es decir si la representaci
on de A corresponde a la
matriz adjunta hermitiana de la representaci
on de A, la base no necesariamente es ortonormal.
Ejemplo : Sea {|e1 >, |e2 >, . . . } una base ortogonal de H y sea el
operador F = |e1 >< e1 |, por lo que
F |ei >= Fij |ej >= (|e1 >< e1 |)|ei >=< e1 |ei > |e1 >= g1i |e1 >
por ser la base ortogonal, solo es diferente de cero el elemento cuando i = 1,
por lo que F |e1 >= F1j |ej > = g11 |e1 >
F11 = g11 y todos los
demas cero, i.e.,

g11 0 . . .

(Fji ) = 0 0 . . .
.. ..
. .

3.4 Operadores

123

ahora bien F = |e1 >< e1 | por lo que su representaci


on sera la misma,
i
ademas la adjunta hermitiana de (Fj ) es ella misma.
3
Definici
on.- U Hom(H) es unitario si y solo si U 1 = U .
Si U es unitario preserva tanto productos interiores como normas, es
decir
[U (v), U (w)] = (v, w)
y
kU (v)k = kvk
veamos
[U (v), U (w)] = (v, U U (w)) = (v, Ew) = (v, w)
p
p
kU (v)k = (U (v), U (v)) = (v, v) = kvk
2
Si en un espacio de dimension finita se tiene la relacion de operadores
BA = E, significa que si {e1 , e2 , . . . , en } es una base de V y e01 = A(e1 ), e02 =
A(e2 ), . . . , e0n = A(en ); entonces, e1 = Be01 , e2 = Be02 , . . . , en = Be0n por
tanto, tal y como se presento en el pasado, si CA = E, puesto que tanto B
como C tienen la misma imagen, entonces B = C.
Lema.- En un espacio de dimension finita, si A, B Hom(V ) son tales
que BA = E, entonces AB = E.
Demostracion : Ya que BA = E, multiplicamos por la izquierda,
por A y tendremos ABA = AE = A, sumando a esta expresion la anterior,
ABA+BA = A+E, de donde ABA+BAEA = E y (AB +B E)A = E,
por lo discutido anteriormente, AB + B E = B, por lo tanto AB E = 0,
lo cual implica que AB = E.
2
Sin embargo este resultado que se cumple para espacios de dimension finita,
en general no es valido para espacios de dimension infinita, por ejemplo si
tomamos los operadores D e I Hom(C 2 [0, 1]) definidos por
Z
df
Df =
,
I(f ) =
f (x) dx
dx

124

3. Producto Interior

donde en esta integral indefinida se toma la constante de integraci


on igual a
cero, entonces DI = E pero ID 6= E, veamos Supongamos que f (x) = x2 ,
por lo que
3
Z
d
x
x3
y
D(I(f )) = (D I)f =
= x2
I(f ) =
x2 dx =
3
dx
3
d
dx

(x2 ) = 2x por lo que


Z
2x2
I(D(F )) = I(2x) =
2x dx =
+ cte. = x2 + cte.
2

sin embargo

por lo que

D(f ) =

DI 6= ID.

Teorema.- Sea V un espacio de dimension finita con un producto interior. Sea {e1 , e2 , . . . , en } una base ortonormal de V y U Hom(V ), entonces
los vectores {e01 = U (e1 ), . . . , e0n = U (en )} forman una base ortonormal de
V, si y solo si U es unitario.

Demostracion : = ) Supongamos que los vectores {e01 = U (e1 ), . . . , e0n


= U (en )} forman una base ortonormal de V, entonces
(e0i , e0j ) = ij = (ei , ej ) = (U ei , U ej ) = (ei , U U ej ) = (ei , Eej )
por tanto (ei , (U U E)ej ) = 0 para toda ei lo que implica que
(U U E)ej = 0, para toda ej , de donde U U = E, y en consecuencia se
concluye que U es unitario. = ) Suponiendo que U es unitario, tendremos
que (e0i , e0j ) = (U ei , U ej ) = (ei , ej ) = ij , lo cual implica que el conjunto
{e0i }ni=1 es ortonormal.
2
A continuacion, deduciremos la representaci
on de un operador unitario, en
terminos de una base ortonormal. Sea {ei }ni=1 una base ortonormal de H,
por lo que U Hom(H), U (ei ) = bki ek , sabemos que U Hom(H) por lo
que U (ej ) = arj er
(U (ei ), U (ej )) = (ei , U bkj ek )
= bkj (ei , ark er ) = ij = bkj ark (ei , er )
= bkj ark ir = aik bkj

3.4 Operadores

125

por tanto la representacion de U corresponde a la inversa de la representaci


on

1
de U , lo cual implica que la matriz que representa a U y U es unitaria.
Un operador unitario es a la vez un operador normal.

126

3. Producto Interior

Parte IV

Teorema espectral

127

Captulo 4

Teorema espectral
4.1.

Ecuaci
on Av = v

En fsica, la relacion mas simple entre dos vectores x, y es tal que,


~ = E;
~
y corresponde a un m
ultiplo de x, por ejemplo : en electrostatica D
~
en magnetostatica, en los materiales paramagneticos y diamagneticos B =
m 0 H. La relacion lineal general es mas complicada. Sin embargo, pueden
existir vectores especiales para los cuales esta relacion se reduce a una mas
simple, y = x ( un escalar).
Por ejemplo, supongamos que en alguna representaci
on, la matriz (aij ) de
A es diagonal, lo cual significa que aij 6= 0 solo si i = j, entonces si {ei }ni=1
es una base de V, tendremos Aei = aji ej = aii ei (un solo elemento, ya no es
valida la notacion de Einstein).
En la expresion anterior, el operador A simplemente transforma al vector
ei en un m
ultiplo de ei .
Si la matriz no es diagonal, el problema se reduce a encontrar ciertos
vectores que satisfacen Av = v; y este es el problema que a continuaci
on
analizaremos.

4.1.1.

Polinomio Caracterstico

Sea A Hom(H) y v un vector diferente de cero, tal que Av = v


con un escalar, cuando esto sucede, se dice que v es un vector propio o eigen
vector de A y que es un valor propio o eigen valor de A correspondiente
al vector v. Pol. Caracterstico!t. espectral
Sea {ei }ni=1 una base de H, tal que Aei = aji ej y v = v r er por lo que
Av = Av r er = v r Aer = v r ajr ej
129

130

1.Teorema Espectral

y
v = v r er
igualando v r ajr ej = v r er tenemos que
v r ajr ej = v r rj ej

v r ajr = v r rj
v r (ajr rj ) = 0

debido a que v 6= 0 el sistema de ecuaciones v r (ajr rj ) = 0 admite una


solucion diferente de la trivial solo cuando
1

a1
a12

a1n

a2
a22
a2n
1

det(ajr rj ) =
= 0,
..
..
..
..

.
.
.
.

n
n
an
a
a
1

uno de los terminos del determinante es :


(a11 )(a22 ) (ann ) = (1)n n +(1)n1 n1 (a11 +a22 + +ann )
+ terminos en de grado menor.
Observando el desarrollo de det(ajr rj ), nos damos cuenta que este es
un polinomio en , cuya maxima potencia es n, i.e.
det(ajr rj ) = () = a0 n + a1 n1 + + an
donde
a0 = (1)n
a1 = (1)n1 (a11 + a22 + + ann ) = (1)n1 tr(aij )
..
.
an = det(ajr )
A la expresion () = det(ajr rj ) = det[(ajr ) (rj )] se le conoce
como polinomio caracterstico de la matriz (aij ), desde luego a () = 0 se
le conoce como ecuaci
on caracterstica y a las races de esta ecuacion, races
caractersticas.
De acuerdo con el teorema fundamental del algebra, el n
umero
Q de races
de () = 0 es n, tal que () = (1 )(2 ) (n ) = ni=1 (i )

1.1 Ecuacion Av = v

131

Definici
on.- Sea A Hom(H) y (aij ) la matriz que representa a A respecto a alguna base, se define el polinomio caracterstico de la matriz (aji )
como
() = det(aij ji ) = det((aij ) (ji ))
= a0 n + a1 n1 + + an

4.1.2.

Matrices Similares

Definici
on.- Sean (aij ) y (bij ) Mnn (K) se dice que (aij ) y (bij ) son
similares si existe (cij ) Mnn (K) regular, tal que
(aij ) = (cij )1 (bij )(cij ) o

(bij ) = (cij )(aij )(cij )1

r
en terminos de elementos matriciales aij = cim bm
r cj .

Teorema.- Si (aij ) y (bij ) son similares, sus polinomios caractersticos


son iguales.
Demostracion : Puesto que
() = | ((aij ) (ji )) |
= | ((cij )1 (bij )(cij ) (ji )) |
= | ((cij )1 (bij )(cij ) (cij )1 (ji )(cij )) |
= | (cij )1 [(bij ) (ji )](cij ) |
= det[(bij ) (ji )].
donde hemos empleado el hecho de que el determinante de un producto
de matrices es igual al producto de los determinantes de cada una de las
1
matrices, tambien se uso el hecho de que det(cij )1 = det(c
i).
j

2
Corolario.- Si dos matrices (aij ) y (bij ) son similares, entonces su polinomio caracterstico, su traza, su determinante, sus races caractersticas;
son iguales, i.e. dos matrices similares son casi equivalentes.
Teorema.- Dos matrices (aij ) y (bij ) son similares, si y solo si representan
al mismo operador en bases diferentes.
Demostracion :

132

1.Teorema Espectral

= ) Sean (aij ) y (bij ) dos matrices similares, tal que (aij ) representa al
operador A Hom(H), respecto a la base {ei }ni=1 de H y sea {j }j=1
su
n
j

i
base dual en H , por lo anterior tendremos que A = ai ej , puesto que
(aij ) y (bij ) son similares, entonces aij = cik bkr crj con (cij ) regular, sustituyendo
tendremos que
A = aji ej i = cjk bkr cri ej i
por ser (cij ) regular tendremos que e0k = cjk ej es otra base de H, ver teoremas
referentes a cambios de base; ahora veamos la accion de (cri i )e0k = cri i (
cjk ej )
0
= cri cjk ji = cri cik = kr lo cual implica que {cri i = r }nr=1 corresponden a la
base dual de {e0k }nk=1 por lo que
0

A = aji ej i = bkr e0k r


lo cual implica que (aij ) y (bij ) representan al mismo operador, con respecto
a bases diferentes.
= ) Supongamos que (aij ) y (bij ) representan al mismo operador A res0
pecto a bases diferentes {ei }ni=1 y {e0j }nj=1 siendo {i }i=1
y { j }j=1
sus
n
n
bases duales respectivas en V , por lo que
0

A = aij ei j = bij e0i j


= bij cri er cjm m = cri bij cjm er m
cambiando en el primer miembro a i por r y j por m tendremos :
A = arm er m = cri bij cjm er m
lo cual implica que
arm = cri bij cjm
por tanto (aij ) y (bij ) son matrices similares.
2
Si observamos, para todo A Hom(H), su representaci
on (aij ) respecto a
i
alguna base, el polinomio caracterstico () = det[(aj ) (ji )], la ecuacion
caracterstica () = 0, las races caractersticas, el determinante de (aij ),
la traza de (aij ); no dependen de la base elegida, sino que dependen del
operador, por lo que tiene sentido la siguiente definicion.

1.1 Ecuacion Av = v

133

Definici
on.- Si A Hom(H), se define su polinomio caracterstico como
i
det[(aj ) (ji )], su ecuacion caracterstica () = 0, las races de () = 0
como sus races caractersticas, su traza como tr (aij ), su determinante como
det(aij ) donde (aij ) es la representaci
on de A respecto a alguna base.

4.1.3.

Relaci
on entre los Valores Propios y las Races
Caractersticas

Ahora veremos que relacion existe entre los eigen valores, o valores
propios de un operador, y sus races caractersticas.
Sea un valor propio de A Hom(H), correspondiente al vector v, por
lo que Av = v, si {ei } es una base de H tendremos que Av = v j akj ek = v j ej
= v j jk ek lo cual implica que v j akj = v j jk por tanto v j [(akj ) (jk )] = 0
puesto que v es diferente de cero, entonces
() = k(akj ) (jk )k = 0
tiene por una de sus soluciones a , por tanto corresponde a una raz
caracterstica.
Recprocamente si r es una raz caracterstica entonces
(r ) = k(aij ) r (ji )k = 0
implica que el sistema de ecuaciones
v j (aij r ji ) = 0
admite para v soluciones diferentes de la trivial, por lo que
v j aij = v j r ji
v j aij ei = v j r ji ei
v j Aej = Av = r v
lo cual nos dice que r es un eigen valor de A.
De esta forma, los eigen valores del operador A son las races de la
ecuacion cartacterstica de A, calculada en cualquier base.
Las races de ()Q= 0 pueden ser en general complejas y aparecer mas
de una vez, () = ni=1 (i ) si la raz i aparece ni veces, decimos
que ni es la multiplicidad de la raz, (notese que ni 1) y podemos escribir

134

1.Teorema Espectral

Q
ni con m < n, m igual al n
() = m
umero de races diferentes
i=1 (i )
de () y que n1 + n2 + + nm = n
Designaremos con Mi al conjunto de vectores que son eigen vectores de
A con eigen valor i .
Ejercicios
i) Mostrar que Mi es un subespacio de H.
ii) Mostrar que Mi Mj = {0} si i 6= j.
De i) se infiere que con cada raz i tenemos asociado un subespacio
Mi de H. Si hay un total de m races diferentes, tendremos un total de m
subespacios M1 , M2 , . . . , Mm . Si solamente hay dos subespacios M1 , M2 (es
decir, solo dos de las races de () = 0 son diferentes), de ii) junto con el
hecho de que H = M1 + M2 , muestran que H = M1 M2 siempre y cuando
todo elemento de H sea suma de eigen vectores de A. Se podra conjeturar
que esto es cierto, mas a
un, que en general H = M1 M2 Mm , sin
embargo no es as si A es un operador arbitrario. Mostraremos que si A es
normal, es posible una reduccion completa. [Para el caso general, o sea para
espacios de dimension infinita vease por ejemplo el libro Smirnov].

4.1.4.

Operadores de Proyecci
on

Sea N un subespacio de H, y sea e1 , , er una base ortonormal


para N ; podemos a
nadir vectores er+1 , er+2 , , en hasta tener una base
{ei }ni=1 para todo H. Si {j }j=1
es su base dual, podemos formar el open
1
r
rador PN = e1 + + er , se tiene entonces para un vector v H
arbitrario v = v i ei , que
PN (v) = v i PN (ei ) = v i [e1 1 + e2 2 + + er r ]ei
= v 1 e1 + v 2 e2 + + v r er ,
es decir ImPN = N, adem
as PN2 = PN , es decir PN , llamado operador de
proyecci
on sobre N es un operador idempotente, ademas PNn = PN .
Ejemplo .- Mostrar que PN = PN , es decir PN es autoadjunto o hermtico.
Demostracion : Puesto que PN (ei ) = PN ji ej

1.1 Ecuacion Av = v

135

PN (e1 ) = PN j1 ej = PN 11 e1 + + PN n1 en = e1

PN 11 = 1, PN 21 = 0, , PN n1 = 0

PN (e2 ) = PN j2 ej = PN 12 e1 + PN 22 e2 + + PN n2 en = e2

PN 12 = 0, PN 22 = 1, , PN n2 = 0

PN (er ) = PN jr ej = PN 1r e1 + + PN nr en = er

PN 12 = 0, , PN r1
= 0, PN rr = 1, PN r+1
= 0, , PN nr = 0
r
r

PN (en ) = PN jn ej = PN 1n e1 + + PN nn en = 0

PN 1n = 0, PN 2n = 0, , PN nn = 0

Por tanto la representacion de PN es :

1 0
0 1
..
..
.
.
0 0
0 0
..
.
0 0

0 0
0 0
..
.

0
0
..
.

1 0
0 0
.. .. . .
.
. .
0 0

0
0
..
.

y la representacion de PN sera la misma, ya que esta matriz es hermtica,


y puesto que la base es ortonormal, tendremos que PN = PN .
3
Decimos que un vector v H es ortogonal al subespacio N, v N, si
v es ortogonal a todo vector de N (es decir (v, u) = 0 para toda u N ).
Analogamente diremos que un subespacio N 0 es ortogonal a N si todo
vector de N 0 es ortogonal a N (en otras palabras, (v, u) = 0 para toda
v N 0 , y para toda u N ).
Designaremos mediante N el conjunto de todos los vectores ortogonales
a N, por tanto N N.
Ejercicio.- Mostrar que Ker(PN ) = N .
Puesto que Ker(PN ) = N , entonces N es subespacio de H.

136

1.Teorema Espectral
Ejemplo.- Mostrar que si N es un subespacio de H, H = N N
Por demostrar :

i) N N = {0}
ii) v H, v = v1 + v2 , v1 N y v2 N .
Demostracion :
De i) : Sea v N N lo cual implica que v N y v N por lo que
(v, v) = 0, y por tanto v = 0, de donde se concluye que N N = {0}
De ii) : Sea v H, podemos escribir v como v = v PN (v) + PN (v),
pero sabemos que PN (v) N, ahora veamos en donde esta v PN (v), sea
u N, por lo que
(u, v PN v) = (u, v) (u, PN v) = (u, v) (PN u, v)
= (u, v) (Pn , v) = (u, v) (u, v) = 0
lo cual implica que (v PN v) N .
De i) y ii) se sigue que
H = N N
3
A N se le conoce como complemento ortogonal de N.
Ejercicios
1. Sean P , R, dos operadores de proyecci
on de H sobre M y N respectivamente: Mostrar que la composicion o producto de los operadores
P y R es un operador de proyecci
on, si y solo si P R = RP .
2. Mostrar que si PN Hom(H) es un operador de proyecci
on, que
proyecta a los elementos de H en N , entonces I PN , proyecta a los
elementos de H en N .
3. Sea PN un operador de proyecci
on que esta en Hom(H). Demostrar
que (I + PN ) es invertible; hallar (I + PN )1 .
4. Cual es el complemento ortogonal de H ? esto es H =
5. Cual es el complemento ortogonal del {0} ? es decir {0} =

1.1 Ecuacion Av = v

4.1.5.

137

Subespacios Invariantes

Definici
on Sea M un subespacio de H y T Hom(H) se dice que
M es un subespacio invariante de T , si para toda u M ,sucede que T (u)
M , es decir T (M ) M . De la definicion se infiere que si T es cualquier
operador sobre H ,entonces :
i.- H es invariante bajo T .
ii.- El {0} de H es invariante bajo T .
iii.- Im(T ) y Ker(T ) son invariantes bajo T .
Ejercicio Sea T Hom(H) ,sea S cualquier operador sobre H que
conmuta con T es decir T S = ST , sea M la imagen de S y sea N el
Ker de S, entonces M y N son subespacios invariantes de T .
Regresemos ahora a nuestro operador normal A y los subespacios Mi , tal
que si v Mi , Av = i v, puesto que Mi es un subespacio y i un escalar,
i v Mi , lo cual implica que A(Mi ) Mi , por lo que Mi es un subespacio
invariante bajo A.
Ejemplo.- Mostrar que si A Hom(H) es normal y v N, tal que
Av = v, entonces A v = v
Demostracion : Puesto que Av = v entonces Av v = 0, esto es
(A E)v = 0, entonces ((A E)v, (A E)v) = 0 y por tanto
((A E) (A E)v, v) = 0

(1)

Ahora bien, trabajando por separado tendremos que :


(A E) (A E) = (A E )(A E)
= A A EA AE + EE
= (A E)A (A E)E
= (A E)(A E )
sustituyendo en (1) tendremos :
(1) = ((A E)(A E) v, v)
= ((A E) v, (A E) v)
= 0

138

1.Teorema Espectral

(A E) v = 0

A v = v
3

Este resultado tambien nos dice que A (N ) N, esto es que N es


invariante bajo A .
Ejemplo.- Mostrar que si ,N es invariante bajo A, entonces N es
invariante bajo A a
un cuando A no sea normal.
Demostracion : Puesto que N es invariante bajo A, implica que para
toda v N, Av = v o que A(N ) N.
Sea u N y v N, por lo que
(v, A u) = (Av, u) = (v, u) = (v, u) = 0
A (N ) N

A u N
3

Por u
ltimo si A Hom(H) es normal y N es invariante bajo A, entonces
N es invariante bajo A.
Demostracion : Sea v N y u N por lo que
(v, Au) = (A v, u) = (v, u) = (u, v) = 0
A(N ) N

Au N

concluyendose que si A es normal, entonces N y N son invariantes tanto


para A como para A .
3
Ejercicios
1. Utilizando que H = Mi Mi , si v H, entonces v puede descomponerse en forma u
nica como v = u + w con u Mi y w Mi
apliquemos a v los operadores Pi A y APi : entonces APi = Pi A.
2. Mostrar que si PN A = APN , entonces N es invariante bajo A.
Analogamente, dado que Mi y Mi son invariantes bajo A se halla:
A Pi = Pi A .

1.1 Ecuacion Av = v

139

Teorema.- Si A es normal, entonces Mi Mj

si i 6= j.

Demostracion : Sean vi y vj en Mi y en Mj , respectivamente, tales


que Avi = i vi y Avj = j vj por lo que
j (vi , vj ) = (vi , j vj ) = (vi , Avj ) = (A vi , vj )
= (i vi , vj ) = i (vi , vj )
(j i )(vi , vj ) = 0 como i 6= j

(vi , vj ) = 0

Mi Mj
2

Puesto que Mi Mj , esto implica que Mi Mj , que a su vez implica


que Mi Ker(Pj ) ya que Ker(Pj ) = Mj . Utilizando estos resultados
tendremos que para toda v H

(Pj Pi )v = Pj (Pi v) =

0
Pi v

si i 6= j
si j = i

por lo que Pj Pi = Pi ij

4.1.6.

Descomposici
on Espectral

Sea M = M1 + M2 + + Mn donde {Mi }ni=1 son todos los subespacios invariantes bajo A, esto es, solo en M se encuentran todos los eigen
vectores bajo A, Si P = P1 +P2 + +Pn siendo Pi el operador de proyecci
on
sobre Mi , tendremos :
a)
P = (P1 + P2 + + Pn ) = P1 + P2 + + Pn
= P1 + P2 + + Pn = P

P = P

b)
P 2 = (P P ) = (P1 + P2 + + Pn )(P1 + P2 + + Pn )
= P12 + P22 + + Pn2 = P1 + P2 + + Pn = P

P2 = P

140

1.Teorema Espectral

De a) y b) concluimos que P es un operador de proyecci


on.
Para toda v H
P (v) = (P1 + P2 + + Pn )v
= ( P1 v + P2 v + + Pn v ) M
|{z} |{z}
|{z}
M1

M2

Mn

lo cual implica que P proyecta a cualquier vector de H en M.


Por otra parte, con A Hom(H) normal
AP

= A(P1 + P2 + + Pn ) = AP1 + AP2 + + APn


= P1 A + P2 A + + Pn A = (P1 + P2 + + Pn )A
= PA

AP = P A

por lo que para toda v H (P A)v = P (Av) (P A)v M lo que implica que [AP (v)] M ya que (AP )v = A[P (v)] implica que M es invariante
bajo A.
En forma similar, puesto que P A = A P implica que M es invariante
bajo A y por el lema antes probado tendremos que M es invariante bajo
A y A .
Ahora bien, utilizando un lema, ejercicio anterior, tendremos que H =
M M sin embargo, observemos que M no puede ser diferente de cero, ya
que de serlo en este encontraramos eigen vectores correspondientes a nuevos
eigen valores, pero se haba dicho que todos los subespacios invariantes de
A eran el conjunto {Mi }ni=1 por lo que M = {0} y por lo tanto H = M =
M1 + M2 + + Mn .
De este hecho y de que Mi Mj se implica que
H = M1 M2 Mm
Demostracion : Por demostrar, usando la informacion que nos dan,
que para toda v H, este tiene descomposicion u
nica.
Supongamos que v = v1 + v2 + + vm con vi Mi , i = 1, . . . , m.
v = w1 + w2 + + wm con wi Mi , i = 1, . . . , m. lo cual implica que

1.1 Ecuacion Av = v

141

(v1 w1 ) + (v2 w2 ) + + (vm wm ) = 0


esto es,
0 = (u,

k (vk

k (vk

wk ) = 0 por lo que para toda u Mj , se cumple que :

wk )) = (u, vj wj )

vj wj = 0

vj = wj

y por lo tanto, v tiene descomposicion u


nica, con lo que hemos demostrado
que
H = M1 M2 Mm
3

Ahora bien, supongamos que tenemos una base de M1 , por el proceso de


Gram Schmidt, la podemos hacer ortonormal, sea esta {e1 , e2 , . . . , en1 } de
tal manera que D(M1 ) = n1 , en forma similar podemos tener y construir
una base ortonormal para M2 , la cual es, ortogonal a M1 , ya que M1 M2 ,
continuando as, se tiene una base ortonormal para toda H.
Sea esta {e1 , . . . , en1 , en1 +1 , . . . , en1 +n2 , . . . , en1 +n2 ++nm } obviamente se
debe tener que n1 + n2 + + nm = n la dimension de H. Formemos el
operador A0 = 1 P1 + + m Pm y apliquemoslo a alguno de los vectores
de la base ortonormal construida, ese vector pertenecera a alguno de los
subespacios Mi , digamos Mk , al aplicarle A0 , todas las proyecciones, excepto
Pk , enviaran a ese vector al cero, y el resultado sera k veces el vector dado,
pero eso es precisamente lo que hace A, pues Av = k v para toda v Mk lo
cual implica que A = A0 , el operador A en esta base esta representado por
la matriz

1
1

..

.
2

..

.
m

donde cada i aparece tantas veces como sea su multiplicidad en la ecuacion


caracterstica. Si A es un operador que se pueda escribir como

142

1.Teorema Espectral
A = 1 P1 + 2 P2 + + m Pm ;

entonces A es normal (con Pi operador de proyecci


on).
Demostracion : Puesto que A = 1 P1 + + m Pm y

1P + +
m Pm
1 P1 + +
m Pm
A =
=
1

entonces
m Pm Pm
1 P1 P1 + + m
AA = 1
2
1 1 P + +
m m P 2
=
1

= AA

AA = A A

y por tanto se concluye que A es un operador normal.


3

1.1 Ecuacion Av = v

143

Ejercicios
i) Mostrar que los eigen valores de un operador hermtico son reales.
ii) Mostrar que los eigen valores de un operador antihermtico son imaginarios puros.
iii) Mostrar que los eigen valores de un operador unitario tienen modulo 1.
Estos mismos resultados se obtienen de la descomposicion de un operador
normal
A = 1 P1 + 2 P2 + + m Pm
Observaci
on : En mecanica cuantica el estado de un sistema se caracteriza o simboliza por un ket de estado | > el cual esta normalizado, es
decir, < 1 >= 1, a la vez toda cantidad fsica medible u observable, tal
como la energa cinetica, la energa potencial, el momento angular, etc. se
simboliza mediante un operador hermtico el cual actua sobre kets de estado
en un espacio de Hilbert de dimension infinita, por lo que los resultados
encontrados hasta ahora, no se pueden aplicar directamente, sin embargo, H
se puede seguir poniendo como la suma directa de los subespacios invariantes
del operador, esto es, H = M1 M2 Puesto que la representaci
on de un
operador depende de la base elegida, se busca siempre una representaci
on con
respecto a una base ortonormal formada por los eigen vectores del operador,
desde luego que en terminos de esta base, la representaci
on del operador
corresponde a una matriz diagonal, en cuya diagonal principal se encuentran
los eigen valores del operador, tantas veces como sea la multiplicidad de las
races caractersticas del operador.
Ejemplo.- En mecanica cuantica las partculas del spin uno estan caracterizadas mediante los operadores Sx , Sy , Sz ; la representaci
on de Sy con
respecto a una base ortonormal {e1 , e2 , e3 } esta dada por

0 i
0
0 i
(Sy ji ) = h2 i
0
i
0
esta matriz es autoadjunta, por tanto, dado que {e1 , e2 , e3 } es ortonormal,
Sy es un operador hermtico o autoadjunto. Su polinomio caracterstico es :

144

1.Teorema Espectral

() = det

0
i
h

0
i
h

2
0

i
h

2
0
i
h

que (2 h2 ) = 0

2
h
2

3
+ h
h2 = (2
h2 ) y el
2 = +
1 = 0
2 = h
implica que

3 =
h

= 3 +

notese que los coeficientes de 2 y 0 son cero, toda vez que tr(Sy ji ) y | (Sy ji ) |
son cero. Si e02 es un eigen vector correspondiente al eigen valor 2 = h, esto
es si Sy (e02 ) = 1 e02 = h e02 , represent
andolo como una combinaci
on lineal de
las {e1 , e2 , e3 } tendremos e02 = ci2 ei , por lo que
Sy e02 = Sy cj2 ej = cj2 Sy jr er = 2 e02
= 2 cj2 ej = hcj2 jr er

cj2 Sy jr = hcr2

y por tanto si

r=1

Sy 11 c12 + Sy 21 c22 + Sy 31 c32 = hc12

r=2

Sy 12 c12 + Sy 22 c22 + Sy 32 c32 = hc22

r=3

Sy 13 c12 + Sy 23 c22 + Sy 33 c32 = hc32

de donde obtenemos el sistema

i
h 1

c
2 2

i
h 2

c
2 2
i
h 2

c
2 2

i h 2
1

= 0

2 c2 hc2
i
h 1
i
h 3
2
c 2 c2
hc2 = 0

2 2


i
h 2
3
c hc2
= 0
2 2

i
h 3

c
2 2

= h
c12
= h
c22
= h
c2 3

1
i 2
= 0

2 c2 c2
i
i
1
3
2
c c c

2 = 0
2 2
2 2

i c2 c3
= 0
2
2 2

1.1 Ecuacion Av = v

145

1
i 2

2 c2 c2

i2 c22 c12 + c12 c32

i 2
c c32
2 2

1
i 2
= 0

2 c2 c2
2
i
2
2
3

2 c2 c2 + i 2c2 = 0

i c2 c3
= 0
2
2 2

2 2
i c2

= 0
= 0
= 0

i 2
c c12
= 0


2 2
i
2
3

2c c = 0
i 2 2 2 3 2

c c2
= 0
2 2

lo cual implica que una combinaci


on de las ecuaciones (1) y (2) nos dan la
ecuacion (3), por lo que solo resolveremos las dos primeras
(

c12 = i2 c22
i () i c2
2
2 2

i c3
2 2

= c22

c32 =

i c2
2 2

quedandonos
i
i
e02 = c22 e1 + c22 e2 + c22 e3
2
2

i
i
2
= c2 e1 + e2 + e3
2
2

i
i
i
i
0
2
k e2 k = c2 e1 + e2 + e3 , e1 + e2 + e3
2
2
2
2
1/2

1
1
= c22
+1+
= | c22 | 2
2
2
por lo que el vector buscado sera :
e002 =

e02
k e02 k

i
e2
i
e002 = e1 + + e3
2
2 2

1
=
i e1 + 2e2 + i e3
2
1/2

1
k e002 k =
i e1 + 2 e2 + i e3 , i e1 + 2 e2 + i e3
2
2
1
(1 + 2 + 1)1/2 = = 1
=
2
2

146

1.Teorema Espectral

Sy (e01 ) = Sy ck1 ek = ck1 Sy ek = ck1 Sy kr er = 0

r=1

Sy 11 c11 + Sy 21 c21 + Sy 31 c31 = 0

r=2

Sy 12 c11 + Sy 22 c21 + Sy 32 c31 = 0

r=3

Sy 13 c11 + Sy 23 c21 + Sy 33 c31 = 0

de donde obtenemos el sistema

i
h 1

c
2 1

i
h 2

c
2 1
i
h 2

c
2 1

i
h 3

c
2 1

= 0
= 0
= 0

(1)
(2)
(3)

Puesto que en este caso (1)= - (3) tendremos que solo nos bastan las dos
primeras ecuaciones, de donde obtenemos
i
h 3
i
h 1
c =
c lo cual implica que c11 = c31 quedandonos
c21 = 0 y que
2 1
2 1
e01 = c11 e1 + c11 e3

k e01 k = c11 [(e1 + e3 , e1 + e3 )]1/2 = | c11 |(2)1/2
e1 + e2
1
1
e01
=
= e1 + e3
e001 =
ke01 k
2
2
2

2
1
k e001 k = (e1 + e3 , e1 + e3 )1/2 = = 1
2
2

Sy (e03 ) = ck3 Sy kr er =
hcr3 er

r=1

Sy 11 c13 + Sy 21 c23 + Sy 31 c33 = hc13

r=2

Sy 12 c13 + Sy 22 c23 + Sy 32 c33 =


hc23

r=3

Sy 13 c13 + Sy 23 c23 + Sy 33 c33 =


hc33

de donde obtenemos el sistema

1.1 Ecuacion Av = v

i
h 1

c
2 3

i
h 2

c
2 3
i
h 2

c
2 3

i
h 3

c
2 3

147
=
hc13
=
hc23
=
hc33

1
i 2

c3 2 c3
i
c1 + c2

3
2 3

i c2 + c3
3
2 3

1 i h 2
hc3 2 c3


i
h 1

c + hc23

2 3


i
h 2
c + hc33
2 3

i c3
2 3

= 0
= 0
= 0

i
h 3

c
2 3

= 0
= 0
= 0

(1)
(2)
(3)

de donde observamos que

c13

2
i 2 2
i 2
2 2
i 2 2
3
1
3
c3 + c3 =
c3 + i 2c3 + c3 =
c3 + c33
c3 c3
i
2
2
2

y como (3) es una combinacion de (1) y (2) podemos trabajar solo con (1)
y (2) de donde tendremos que

i i
c23
2 2
1
c23 + c23
2

quedandonos

de (1) c13 =

i c2
2 3

y sustituyendo en (2)

i
c33 = 0
2
i
c23 = 0
2
1 2
i
c = c33
2 3
2

i 2 2
i
3
c3 =
c = c23
2 3
2

148

1.Teorema Espectral

e03

k e03 k =
=
e003 =
k e003 k =
=

i
i
e1 + e2 e3
2
2

1/2
2 i
c3 e1 + e2 i e3 , i e1 + e2 i e3
2
2
2
2

1/2
2 1

1
c3
+1+
= c23 (2)1/2
2
2
0

e3
1
=
(i
e
+
2e2 i e3 )
1
ke0 3k
2
i1/2

1h
i e1 + 2e2 i e3 , i e1 + 2e2 i e3
2
1
[1 + 2 + 1]1/2 = 1
2
c23

por lo tanto los eigen vectores normalizados son :

e001 =
e002 =
e003 =

1
1
e1 + e3
2
2

1
i e1 + 2e2 + i e3
2

1
i e1 + 2e2 i e3
2

notese que

1
2
2i
i
2

1
2
i

1
2
i
2
2i

2
2
2
2

+ 12

i
= 2 2 + 2
2
i
i

2 2
2 2

1
2

1
2

i
2
2
2
2i

i
i
2
+ 2
2
2
2
1
1
4 + 4 + 4
41 + 24 14

1 0 0
= 0 1 0
0 0 1

2i

2
2
i
2

i
i

2
2 2
2
41 + 24 41
1
2
1
4 + 4 + 4

1.1 Ecuacion Av = v

1
2
2i
i
2

1
2
i
2
2i

2
2
2
2

i
i

i
2
i
2

2
2

i
2
i
2

149

1
0 i
0
2
h

i
0 i 0
2
1
0
i
0

i
2
2
2
2i

i2 +
21
1
1
2 + 2

42
42 +

i
2
1
2

1
2


2
i
2 0
1
i 22
2

2
2
2
2

2
4
2
4

2
4
2
4

i
2
2
2
2i

2
2
2
2

2
2
i
2

2i

2
2
i
2

2i

+
+

2
4
2
4

0
0
0
0
0 0

h 0
= h2 0 2 0 = 0
0
0 h

0
0
2
3

4.1.7.

Diagonalizaci
on de Matrices

Si bien es cierto que la representaci


on de Sy en terminos de una
base ortonormal formada por los eigen vectores, del operador, es una matriz
diagonal. Como podramos mostrar formalmente que esto debe ser as ?
Demostracion : Sea A Hom(H) normal o cuando menos hermtico,
sea (aij ) la representacion de A con respecto a una base ortonormal {e1 , e2 ,
. . .}, y queremos encontrar la representaci
on de A en terminos de una base
ortonormal formada por los eigen vectores de A, sea esta {e01 , e02 , . . ., e0n },
por lo que
Ae0i = e0i = Fik e0k
que es igual a
j m r 0
A cji ej = cji A ej = cji am
m er
j em = ci aj c

lo cual implica que

150

1.Teorema Espectral
i) Fik e0k = cji am
rm rk e0k de donde obtenemos que
j c
j
Fik = ckm am
j ci

y que
ii) e0i = cji am
rm e0r lo cual implica que ir e0r = cji am
rm e0r esto es
j c
j c
j
r
que cji am
rm = i ir y ordenando crm am
j c
j ci = i i puesto en forma matricial
on es una matriz diagonal.
(Fji ) = (i ir ) es decir, la representaci
(Fji ) = (cij )1 (aij )(cij )
3
El siguiente teorema extendido al caso de espacios de dimension infinita,
es de gran importancia en mecanica cuantica.
Teorema.- Si A y B son operadores normales, existe una base ortonormal con respecto a la cual, las representaciones de A y B son matrices
diagonales si y solo si [A, B] = 0.
Demostracion : = ) Sea {ei }ni=1 una base ortonormal con respecto a
la cual las representaciones de A y B son matrices diagonales, esto significa
que Aej = j ej y Bej = 0j ej por lo que
(AB)ej

= A0j ej = 0j Aej = 0j j ej
= j 0j ej = j Bej = B(j ej ) = B(Aej )

AB = BA

[A, B] = 0

= ) Supongamos ahora que [A, B] = 0 y sea {ei }ni=1 una base ortonormal tal que Bei = 0i ei , por otra parte, sea v H un eigen vector de A, por
lo que Av = v, lo cual implica que (A E)v = 0, con
v = c1 e1 + c2 e2 + + cn en =

Pn
i

ci ei .

Formemos el vector uj = (A E)cj ej y apliquemosle B, esto es Buj =


B(A E)cj ej = (A E)cj Bej , ya que B conmuta con B y A, por lo que
Buj = (A E)cj 0j ej = 0j [(A E)cj ej ] = 0j uj
lo cual implica que uj es un eigen vector de B, ademas

4.2 Forma Cuadratica


Pn

j=1 uj

151
=

Pn

j=1 (A

E)cj ej = (A E)v = 0

puesto que cada uj se encuentra en subespacios diferentes


Pn

j=1 uj

= u1 + u2 + + un

lo cual implica que ui = 0, i = 1, . . . , n por lo que (A E)cj ej = 0 implica


que (A E)ej = 0 y por tanto que Aej = ej de donde concluimos que los
eigenvectores ortonormales de B lo son tambien de A.
2

4.2.

Forma Cuadr
atica

Asociado con cada operador A existe una forma cuadratica la cual


es un mapeo de H en C, dado por :
vH

v (v, Av) C,

Si v = v1 + v2
(v1 + v2 , A(v1 + v2 )) = (v1 + v2 , Av1 + Av2 )
= (v1 , Av1 ) + (v1 , Av2 ) + (v2 , Av1 ) + (v2 , Av2 )
la aparicion de los terminos (v1 , Av2 ) y (v2 , Av1 ) nos dice que el mapeo no es
lineal sino cuadratico. De singular importancia es el caso cuando (v, Av)
R, en este caso sabemos que A es hermtica y la forma cuadratica se llama
hermtica.
Si {ei }ni=1 es una base de H.
(v, Av) = (v i ei , Av j ej ) = v i v j (ei , Aej )
= v i v j (ei , akj ek ) = v i v j akj (ei , ek )
si la base es ortonormal, tendremos (v, Av) = v k v j akj
En el caso particular de que A sea normal o a lo menos hermtica, podemos hallar una base ortonormal en donde la representaci
on de A, aij = 0

152

4. Teorema Espectral

si i 6= j, esto es, sea una matriz diagonal por lo que, en este caso la forma
cuadratica quedara como :
X
(v, Av) =
|vi |2 aii = |v 1 |2 a11 + |v 2 |2 a22 + + |v n |2 ann
Ejercicios
on con respecto a la base orto1. Sea T Hom(R2 ), cuya representaci
normal (e1 , e2 ) es

1 1
2
2
i.- Demostrar que los u
nicos subespacios de R2 invariantes de T son
2
R y el subespacio nulo.
ii.- Si U Hom(C 2 ), cuya representaci
on con respecto a la base
{e1 = (1, 0), e2 = (0, 1)} es A. Demostrar que U tiene un subespacio unidimensional invariante.
2. Sea T Hom(V ). Si todo subespacio de V es invariante bajo T,
entonces T es un m
ultiplo del operador identidad.
3. P
Sea {e1 , . . . , en } un conjunto ortonormal, y sea P dado por P (v) =
m
i=1 (ei , v)ei . Mostrar que :
i.- P es un operador de proyecci
on.
ii.- Los eigen valores de P son 0 y 1.
4. Sea V un espacio vectorial de dimension n sobre K, Cual es el polinomio caracterstico del operador identidad E sobre V ? Cual es el
polinomio caracterstico para el operador cero ?
5. Encontrar el polinomio caracterstico, los eigen valores, los eigen vectores normalizados y la forma diagonal de las siguientes matrices.

2 0
i.- A1 =
4 5

0 1 0
ii.- A2 = 1 0 0
0 0 0

4.2 Ejercicios

153

0 0 c
iii.- A3 = 1 0 b
0 1 a
en particular, muestre que el polinomio caracterstico es
() = 3 a2 b c.

1
1
0 0
1 1
0 0

iv.- A4 =
2 2
2 1
1
1 1 0
en particular, muestre que el polinomio caracterstico es
() = 2 ( 1)2 .

0 i 0 0
0 0 i 0

v.- A5 =
0 0 0 i
i 0 0 0
6. Si el operador A tiene como valores propios
y 2 = 1,
1 = 0
1
2
correspondientes a los vectores propios
y
. Mostrar
2
1
que la matriz (aij ) asociada a A, la cual tiene por eigen valores y eigen
vectores los antes se
nalados es :
i.- Simetrica.
ii.- Cual es su traza y determinante ?
iii.- Cual es (aij ) ?
iv.- Cuales son los valores propios y vectores propios de A2 ?
7. Sea A una matriz n n con polinomio caracterstico
() = ( c1 )d1 ( ck )dk ,
demostrar que T raza(A) = c1 d1 + + ck dk .
8. Sea A una matriz n n con polinomio caracterstico
() = ( c1 )d1 ( ck )dk .
Sea V el espacio de las matrices n n, B, tales que AB = BA. Demostrar que la dimension de V es d21 + + d2k .

154

4. Teorema Espectral

9. Si (aij ) es similar a (bij ), mostrar que (aij )2 es similar a (bij )2 .


10. Es cierto que dos matrices similares tienen el mismo rango ?
11. Dos matrices hermticas o hermitianas A y B tienen los mismos eigen
valores. Demostrar que A y B est
an relacionadas por una transformacion de similaridad.
12. Es cierto que una matriz invertible es diagonalizable ?
13. Sea V = Mnn (K) y A Mnn (K). Sean T y U Hom(V ) definidos
por
T (B) = AB
y
U (B) = AB BA
i.- Es verdadero o falso que si A es diagonalizable, entonces T es
diagonalizable ?
ii.- Es verdadero o falso que si A es diagonalizable, entonces U es
diagonalizable ?
14. Diagonalizar las siguientes matrices por medio de una matriz unitaria
o una matriz ortogonal.

4 0 3
0
i.- (aji ) = 0 5
3 0
4

3(1+i)
3
3

(1

i)

2
2 2
3 2

j
5
i

ii.- (bi ) = 2 (1 + i)
3

3 2

i
11

3(1+i)
6
2 2
3 2

0
0
1
0
0
0
0 2(1 i)

iii.- (cji ) =
1

0
0
0

0 2(1 + i)
0
0
15. La matriz de cierto operador lineal con respecto a la base {e1 =
(1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} es :

1 1 0
1 1
(aji ) = 2
2
0 1

4.2 Ejercicios

155

Demostrar
on del mismo operador con
0 que la2 representaci
respecto a
1 2
1 2
2
2 2 1
0
0
la base e1 = ( 3 , 3 , 3 ), e2 = ( 3 , 3 , 3 ), e3 = ( 3 , 3 , 3 ) es :

(bji ) =

17
9
11
9
29

4
9
19
10
9

1
9
20
9
11
9

16. Demostrar las siguientes afirmaciones :


i.- Una matriz simetrica permanece simetrica despues de una transformacion de similaridad por una matriz ortogonal.
ii.- Una matriz unitaria permanece unitaria despues de una transformacion de similaridad por una matriz unitaria.
iii.- Una matriz hermtica permanece hermtica despues de una transformacion de similaridad por una matriz hermtica.

156

4. Teorema Espectral

Parte V

Tensores

157

Captulo 5

Tensores
5.1.

k-Cotensor

En captulos anteriores se definio lo que se entiende por un 2-tensor


g en V covariante o por un 2-cotensor en V, este es una transformacion
g : V V K, ademas la transformacion es bilineal, esto es, es lineal en
cada uno de los argumentos, al espacio vectorial formado por estos objetos
lo simbolizamos por T 0, 2 (V ).
En base a la definicion que se hizo para los elementos de T 0, 2 (V ) podemos observar que una funcional lineal es un 1-tensor en V, o un 1-cotensor
en V y el e.v. formado por estos simbolizarlo como T 0, 1 (V ).
Siguiendo este orden de ideas, definimos un r-tensor T en V covariante o
un r-cotensor en V como una transformacion T : |V V
{z V} K, la
r veces

cual ademas es multilineal, es decir, es lineal en cada uno de sus argumentos,


esto es:

i. T (v1 , v2 , . . . , vr ) K
ii. T es multilineal, esto es, si ws V, con 1 s r y a1 , a2 K,
entonces

T (v1 , v2 , . . . , a1 ws + a2 vs , . . . , vr )
= a1 T (v1 , v2 , . . . , ws , . . . , vr ) + a2 T (v1 , v2 , . . . , vs , . . . , vr )
159

160

5.Tensores
Si T1 y T2 estan definidos en V
V} K, se define la suma de
| {z

T1 + T2 como :

r veces

(T1 + T2 )(v1 , v2 , . . . , vr ) = T1 (v1 , . . . , vr ) + T2 (v1 , . . . , vr )


y el producto de un escalar a K por T1 como :
(aT1 )(v1 , v2 , . . . , vr ) = aT1 (v1 , . . . , vr )
el cero de los r-cotensores en V, como :
0(v1 , . . . , vr ) = 0
donde el cero de la derecha es el escalar cero.
Veamos ademas que la suma de T1 + T2 , el producto por un escalar aT1 y
la transformacion cero como fue definida, es cada una de ellas un r-cotensor
en V.
Demostracion :
El inciso i) se cumple para cada una de las transformaciones a partir de
su definicion.
Prueba de ii)
Para la suma : Sea nuevamente ws V, con 1 s r, apliquemos
T1 + T2 a la erreada de vectores de V, esto es
(T1 + T2 )(v1 , . . . , a1 vs + a2 ws , . . . , vr )
def

= T1 (v1 , . . . , a1 vs + a2 ws , . . . , vr ) + T2 (v1 , . . . , a1 vs + a2 ws , . . . , vr )

ya que T1 y T2 son transformaciones multilineales, esta u


ltima expresion es
igual a :
= a1 T1 (v1 , . . . , vs , . . . , vr ) + a2 T1 (v1 , . . . , ws , . . . , vr )
+ a1 T2 (v1 , . . . , vs , . . . , vr ) + a2 T2 (v1 , . . . , ws , . . . , vr )
puesto que tenemos la suma de cuatro escalares, los podemos conmutar y
agrupar, quedando :
= a1 [T1 (v1 , . . . , vs , . . . , vr ) + T2 (v1 , . . . , vs , . . . , vr )]
+ a2 [T1 (v1 , . . . , ws , . . . , vr ) + T2 (v1 , . . . , ws , . . . , vr )]
= a1 [(T1 + T2 )(v1 , . . . , vs , . . . , vr )] + a2 [(T1 + T2 )(v1 , . . . , ws , . . . , vr )]

5.1 k-Cotensor

161

lo cual implica que T1 + T2 es un r-cotensor de V.


3
Ejercicios.1. Probar que el producto por un escalar y la transformacion cero, son
r-cotensores en V.
2. Teniendo en consideracion lo anterior, probar que, bajo las operaciones
antes definidas, el conjunto de r-cotensores en V es un e.v. . Dicho e.v.
se simboliza por T 0, r (V ).
Tomando como base la definicion de una funcional lineal, podemos definir
una transformacion que nos manda de V en K, dada por : v() (v) para
toda V y v V ademas si 1 , 2 V y a1 , a2 K
v(a1 1 + a2 2 ) = (a1 1 + a2 2 )v = a1 1 v + a2 2 v
= a1 v(1 ) + a2 v(2 )

v HomV

de este hecho podemos inferir dos resultados


i) Que V = V
ii) Que as como los elementos de V se identifican con los 1-tensor covariantes en V, o 1-cotensores en V ; los elementos de V se identifican con
los 1-tensor cotravariantes en V, o 1-cotratensores en V ; o bien como
un 1-tensor covariante en V o un 1-cotensor en V ; y dependiendo de
como lo interpretemos, sera la manera de simbolizarlo, esto es, en este
caso
T 0, 1 (V ) = T 1, 0 (V )
Este hecho nos permite tener varias alternativas, tales como : formar
nuevos productos tensoriales, uno de ellos sera el de :
Si 1 y 2 V y v V, [1 v]2 = (v2 )1 el cual correspondera
a un operador, otro sera
Si v1 , v2 V y 1 y 2 V tenemos que
(v1 v2 )(1 , 2 ) = v1 (1 )v2 (2 )

162

5.Tensores

correspondiendo el papel de este producto tensorial a un 2-cotensor en V .


Tal argumentacion la podemos extender para los r-cotensores o r-contratensores en V, la definicion de un r-contratensor en V se infiere de lo antes
planteado.
Definici
on.- Un r-contratensor en V (o un r-tensor contravariante), es
un mapeo que enva al |V V {z . . . V } K adem
as el mapeo es lineal en
r veces

cada uno de sus r argumentos.

Comparando la definicion de un r-cotensor en V con la de un r-contratensor en V, vemos que la de un r-contratensor en V es equivalente a la de


un r-cotensor en V .
En la seccion (2.7) definimos el operador dual o conjugado, que podemos
generalizar como sigue :
Consideremos A Hom(V, W ) y sea W , entonces si v V, tiene
sentido la expresion (A(v)) que es un escalar. Definimos el operador A
mediante (A )v = (A(v)), esto nos invita a pensar que (A ) V y
que A Hom(W , V ) en la nueva notacion (A ) T 0, 1 (V ) y A
Hom[T 0, 1 (W ), T 0, 1 (V )].
Tomemos ahora un r-cotensor en W, T, y sean {v1 , . . . vr } V y A
Hom(V, W ), por lo que {A(v1 ), . . . , A(vr )} W, por tanto T (Av1 , . . . , Avr )
es un escalar bien definido, escribiendo
T )(v , . . . , v ) = T (Av , . . . , Av ),
(A(r)
1
r
1
r
T ) T 0, r (V ) y utilizando la suma de r-cotensores
se tiene entonces que (A(r)
es lineal, veamos
en W, nos damos cuenta que A(r)

[A(r)
(T1 + T2 )](v1 , . . . , vr ) = (T1 + T2 )(Av1 , . . . , Avr )

= T1 (Av1 , . . . , Avr ) + T2 (Av1 , . . . , Avr )

= (A(r)
T1 )(v1 , . . . , vr ) + (A(r)
T2 )(v1 , . . . , vr )

A(r)
(T1 + T2 ) = A(r)
T1 + A(r)
T2

[A(r)
(aT )](v1 , . . . , vr ) = (aT )(Av1 , . . . , Avr )

= aT (Av1 , . . . , Avr ) = a(A(r)


T )(v1 , . . . , vr )

5.2 Tensores

163

A(r)
(aT ) = aA(r)
T

A(r)
Hom(T 0, r (W ), T 0, r (V ))

T ) T 0, r (V ).
Ejercicio : Probar que (A(r)

Mostraremos que si B Hom(V, W ) y A Hom(W, U ), entonces


= B A .
(AB)(r)
(r) (r)
Demostracion : Sea T T 0, r (W ) y S T 0, r (U ) por lo que

(B(r)
T ) T 0, r (V ) y

(A(r)
S) T 0, r (W )

y por tanto se cumple que :

[(AB)(r)
S](v1 , v2 , . . . , vr ) = S[(AB)v1 , (AB)v2 , . . . , (AB)vr ]

= S[A(Bv1 ), A(Bv2 ), . . . , A(Bvr )]

= (A(r)
S)(Bv1 , Bv2 , . . . , Bvr )

= [B(r)
(A(r)
S)](v1 , v2 , . . . , vr )

(AB)(r)
(S) = B(r)
(A(r)
S)

(AB)(r)
= B(r)
A(r)

3
A continuacion veremos un tipo mas general que corresponde al concepto
de tensor.

5.2.

Tensores

Definici
on.- Un Tensor es una transformacion multilineal T que
enva el producto cartesiano generalizado de espacios vectoriales sobre el
mismo campo, en K; esto es T : V1 V2 Vn K, donde los espacios vectoriales Vi no son necesariamente diferentes, entendiendose la multilinealidad como la linealidad en cada uno de sus argumentos, en smbolos
tendremos :
T : V1 V2 Vn K es un tensor si cumple con las dos condiciones
siguientes :

164

5. Tensores

i) Si para v1 V1 , v2 V2 , . . . , vn Vn

T (v1 , v2 , . . . , vn ) K.

ii) Si ademas ws Vs y a1 , a2 K, con 1 s n


T (v1 , v2 , . . . , a1 vs + a2 ws , . . . , vn )
= a1 T (v1 , v2 , . . . , vs , . . . , vn ) + a2 T (v1 , v2 , . . . , ws , . . . , vn ).
Notese que la u
nica exigencia que ponemos sobre los espacios vectoriales
Vi es que todos se encuentran definidos sobre el mismo campo, esto en cierta
forma nos dice que el tensor T es algo que al actuar sobre eneadas de vectores
de diferentes espacios vectoriales nos manda a escalares, es como si fuera una
maquina trituradora que todo lo convierte en una misma cosa.
Si T y S son dos tensores definidos en V1 V2 Vn y si
v1 V1 , v2 V2 , . . . , vn Vn , definimos la suma
(T + S)(v1 , . . . , vn ) = T (v1 , . . . , vn ) + S(v1 , . . . , vn )
y si a K, definimos el producto (aT ) como :
(aT )(v1 , . . . , vn ) = aT (v1 , . . . , vn ).
Mostraremos que S + T = T + S.
Demostracion : Puesto que
(S + T )(v1 , . . . , vn )

S(v1 , . . . , vn ) + T (v1 , . . . , vn )

T (v1 , . . . , vn ) + S(v1 , . . . , vn )

def

(T + S)(v1 , . . . , vn )

S+T =T +S
3

Ejercicio .- Mostrar que si


V1 V2 Vn
i) a(bT ) = (ab)T.
ii) (T + S) + R = T + (S + R).

T, S

son tensores definidos en

5.2 Tensores

165

Mostraremos a continuacion que si T y S son dos tensores definidos en


V1 V2 Vn , T + S es tambien un tensor.
Demostracion : Por demostrar que
i) (T + S)(v1 , . . . , vn ) K lo cual se cumple, por definicion de suma
de tensores.
ii) (T + S) es multilineal. Sea a1 , a2 K y ademas ws Ws , con
1 s n, tendremos entonces que
(T + S)(v1 , . . . , a1 vs + a2 ws , . . . , vn )
= T (v1 , . . . , a1 vs + a2 ws , . . . , vn ) + S(v1 , . . . , a1 vs + a2 ws , . . . , vn )
= a1 T (v1 , . . . , vs , . . . , vn ) + a2 T (v1 , . . . , ws , . . . , vn )
+ a1 S(v1 , . . . , vs , . . . , vn ) + a2 S(v1 , . . . , ws , . . . , vn )
= a1 (T + S)(v1 , . . . , vs , . . . , vn ) + a2 (T + S)(v1 , . . . , ws , . . . , vn )
lo cual implica que (T + S) es multilineal.
Por la prueba de i) y ii) hemos demostrado que
(T + S) es un tensor definido en V1 V2 Vn .
3

Ejercicio.- Probar que (aT ), con a K y T un tensor definido en


V1 V2 Vn , es un tensor definido en V1 V2 Vn .
Probaremos ahora que el mapeo O : V1 V2 Vn K dado por
O(v1 , v2 , . . . , vn ) = 0 (escalar cero) y vi Vi , i = 1, . . . , n. es un tensor.
Demostracion : Por demostrar que
i) O(v1 , v2 , . . . , vn ) = 0 K, lo cual es evidente de la definicion de O.
ii) O es una transformacion multilineal. Sea ws Vs con 1 s n y
a1 , a2 K.
def

O(v1 , . . . , a1 vs + a2 ws , . . . , vn ) = 0 = 0 + 0
= a1 O(v1 , . . . , vs , . . . , vn ) + a2 O(v1 , . . . , ws , . . . , vn )
3

166

5. Tensores

Ejercicio.- En base a las operaciones anteriores y tomando en consideracion al O tensor, mostrar que el conjunto de tensores definidos sobre
V1 V2 Vn forman un espacio vectorial.
Al espacio vectorial de los tensores definidos en V1 V2 Vn se le
simboliza por V1 V2 Vn
Sean T y S dos tensores que estan definidos en V1 V2 Vr , y
W1 W2 Wq respectivamente, se define el producto tensorial T S
con vi Vi y wj = Wj como :
(T S)(v1 , . . . , vr , w1 , . . . , wq ) = T (v1 , . . . , vr )S(w1 , . . . , wq )
Mostrar que el producto tensorial de T y S es un tensor definido en
V1 V2 Vr W1 W2 Wq .
Demostracion : Por demostrar que
i) (T S)(v1 , . . . , vr , w1 , . . . , wq ) K, lo cual se infiere de la definicion
de producto tensorial.
ii) (T S) es multilineal. Esta demostracion tiene dos partes, una que
tiene que ver con la multilinealidad de T y otra con la de S.
Supongamos que existe uk Vk con 1 k n, y a1 , a2 K por lo que
(T S)(v1 , . . . , vr , w1 , . . . , wq )
def

= T (v1 , . . . , a1 vk + a2 vk , . . . , vr )S(w1 , . . . , wq )
= [a1 T (v1 , . . . , vk , . . . , vr ) + a2 T (v1 , . . . , uk , . . . , vr )]S(w1 , . . . , wq )
= a1 T (v1 , . . . , vk , . . . , vr )S(w1 , . . . , wq )
+ a2 T (v1 , . . . , uk , . . . , vr )S(w1 , . . . , wq )
= a1 (T S)(v1 , . . . , vk , . . . , vr , w1 , . . . , wq )
+ a2 (T S)(v1 , . . . , uk , . . . , vr , w1 , . . . , wq )

de manera similar se prueba la multilinealidad para los argumentos de la


derecha. Con esto se demuestra que T S es un tensor definido en V1 V2
Vr W1 W2 Wq .
3
Ejercicio.- Mostrar que si T1 y T2 son dos tensores definidos en V1
V2 Vr , y S1 y S2 son dos tensores definidos en W1 W2 Wq ,
y R es un tensor definido en U1 U2 Up ; entonces se cumplen las
siguientes igualdades :

5.2 Tensores

167

i) (T1 + T2 ) S1 = T1 S1 + T2 S1 .
ii) T1 (S1 + S2 ) = T1 S1 + T1 S2 .
iii (aT1 ) S1 = T1 ) (aS1 ) = a(T1 S1 ) a K.
iv) T1 (S1 R) = (T1 S1 ) R.
Notese que no tiene sentido preguntar si el producto tensorial es conmutativo, pues T1 S1 y S1 T1 estaran definidos en
V1 Vr W1 Wq y W1 Wq V1 Vr
respectivamente.
Si 1 V1 , 2 V2 , . . . , k Vk , entonces 1 2 k es el
tensor en V1 V2 Vk dado por
(1 k )(v1 , . . . , vk ) = 1 (v1 ) k (vk )
con v1 V1 , . . . , vk Vk
D(V )

Teorema.- Si {eir }ir =1r una base de Vr , con r = 1, . . . , k, entonces


todos los productos tensoriales i1 i2 ik forman una base para
r =1
los tensores definidos en V1 V2 Vk , donde {ir }iD(V
es la base dual
r)
D(V )

de {eir }ir =1r .


Demostracion : Puesto que ir Vr , esto es, ir es un tensor definido
en Vr , es claro que i1 i2 ik son tensores definidos en V1 V2
Vk .
Sea T un tensor definido en V1 V2 Vk , i.e. T (v1 , v2 , . . . , vk ) con
vi Vi , para i = 1, . . . , k, puesto que v1 = v1i1 ei1 , v2 = v2i2 ei2 , . . . , vk = vkik eik
(con suma implcita de ir de 1 a D(vr ) se tiene
T (v1 , v2 , . . . , vk ) = T (v1i1 ei1 , v2i2 ei2 , . . . , vkik eik )
= v1i1 v2i2 . . . vkik T (ei1 , ei2 , . . . , eik )
por otra parte sabemos que

ir (ejr ) = jirr

y que

ir (vr ) = ir vrjr ejr = vrjr ir ejr = vrjr jirr = vrir

168

5. Tensores

este resultado nos dice que


T (v1 , v2 , . . . , vk ) = i1 (v1 )i2 (v2 ) ik (vk )T (ei1 , ei2 , . . . , eik )
= Ti1 i2 ...ik (i1 i2 ik )(v1 , . . . , vk )

T = Ti1 i2 ...ik i1 i2 ik

lo que muestra que los productos tensoriales de la forma i1 i2 ik ,


cuyo n
umero es igual a (D(V1 ))(D(V2 )) (D(Vk )), generan el espacio de los
tensores definidos en V1 V2 Vk .
Para mostrar la independencia lineal, formemos el tensor cero definido
en V1 V2 Vk como la combinaci
on lineal
0 = ci1 i2 ...ik i1 i2 ik
entonces,
0 = 0(ej1 , ej2 , . . . , ejk ) = ci1 i2 ...ik i1 i2 ik (ej1 , ej2 , . . . , ejk )
= ci1 i2 ...ik ji11 ji22 jikk = cj1 j2 ...jk
lo cual implica que todas las coordenadas del tensor son cero, esto es
cj1 j2 ...jk = 0 con jr = 1, . . . , D(Vr ) y

r = 1, . . . , k.

Puesto que estan, generan y son L.I., los (D(V1 ))(D(V2 )) (D(Vk )) productos tensoriales de la forma i1 i2 ik forman una base de los
tensores definidos en V1 V2 Vk .
2
Como un corolario inmediato, la dimension de los tensores definidos en
V1 V2 Vk es (D(V1 ))(D(V2 )) (D(Vk )), al conjunto de tensores
definidos en V1 V2 Vk se les simboliza por V1 V2 Vk , el cual
tiene estructura de espacio vectorial y lo llamaremos producto tensorial de
los espacios V1 , V2 , , Vk .
Ahora nos restingiremos a los tensores definidos en V1 V2 Vn
donde cada uno de los Vi con 1 i n son V o V [puesto que podemos
interpretar a v V como un elemento de V , tal que su accion sobre un
elemento de V nos manda a K].
Supongamos que T esta definido en V1 V2 Vn , en donde V
aparece r veces y V aparece s veces, a r + s = n se le conoce como rango
del tensor; en este caso se dice que el tensor es r veces covariante y s veces
contravariante.

5.2 Tensores

169

Ejemplos.1. Consideremos como ejemplo el espacio V V V V V, que consta


de los tensores definidos en V V V V V , los cuales son de rango
5, 2 veces covariantes y 3 veces contravariantes. Si T V V V
V V, entonces se puede escribir T = Ti1 i2 i3i4 i5 i1 ei2 ei3 i4 ei5
tal que
T (ej1 , j2 , j3 , ej4 , j5 )
= Ti1 i2 i3i4 i5 i1 ei2 ei3 i4 ei5 (ej1 , j2 , j3 , ej4 , j5 )
= Ti1 i2 i3i4 i5 ji11 ij22 ij33 ji44 ij55 = Tj1 j2 j3j4 j5
Si {e0i }ni=1 es otra base de V, relacionada con {ei }ni=1 a traves de la
0
matriz regular (cji ) : e0i = cji ej , entonces si { j }j=1
es su base dual en
n
0j
j 0

i
V , se tiene que = ck ek , donde (
cj ) es la inversa de (cij ).
En terminos de las bases primadas, un tensor T que este en V V
V V V se escribira
0

T = Ti1 i2 i3i4 i5 i1 e0i2 e0i3 i4 e0i5


0

Ti1

i2 i3 i5
i4

= T (e0i1 , i2 , i3 , e0i4 , i5 )
= T (cji11 ej1 , cij22 j2 , cij33 j3 , cji44 ej4 , cij55 j5 )
= cji11 cij22 cij33 cji44 cij55 T (ej1 , j2 , j3 , ej4 , j5 )
=

cji11 cij22 cij33 cji44 cij55 Tj1 j2 i3j4 j5


3

2. Hallar la relacion que existe entre las coordenadas de los tensores T y


S, con las de aT + bS y T S.
Sean T y S tensores definidos en V V V V V por lo que si
su base dual en V , tendremos que las
{ei }ni=1 es una base de V y {j }i=1
n
i2 i3 i5
coordenadas de T y S seran : Ti1 i4 y Si1i2 i3i4i5 por lo que
(aT + bS)(ei1 , i2 , i3 , ei4 , i5 )
= aT (ei1 , i2 , i3 , ei4 , i5 ) + bS(ei1 , i2 , i3 , ei4 , i5 )
= aTi1 i2 i3i4 i5 + bSi1i2 i3i4i5

170

5. Tensores

llamando

aT + bS = R, tendremos que
Ri1i2 i3 i4i5 = aTi1 i2 i3i4 i5 + bSi1i2 i3i4i5

Si T V V V V , S V V V V, con {ei }ni=1 una base de


V y {j }j=1
su base dual en V , tendremos que las coordenadas de T S
n
seran :
(T S)[i1 , i2 , ei3 , ei4 , ej1 , j2 , ej3 , j4 )]
0
= T (i1 , i2 , ei3 , ei4 )S(ej1 , j2 , ej3 , j4 )
= T i1 i2i3 i4 Sj1j2j3j4
llamando T S = R, tendremos que
Ri1 i2i3 i4 j1 j2j3 j4 = T i1 i2i3 i4 Sj1j2 j3j4
3
Consideraremos ahora un tensor de trascendencia en fsica. Sea V un
e.v. de dimension finita con un producto interior. Sea {ei }ni=1 una base
ortonormal para V, si v1 , v2 , . . . , vn son n vectores de V, cada uno de ellos se puede escribir como vi = vij ej , con i = 1, . . . , n. Definiremos el mapeo
: V
{z V} K, mediante
| V
n veces

(v1 , . . . , vn ) = det(vij )
Siendo det(vij ) el determinante de la matriz formada con las coordenadas de
cada uno de los vij colocados en el orden en que se encuentran los vectores
en la n ada. De las propiedades de los determinantes se deduce que

V
V } , esto es, es un n cotensor en V.
| {z
n veces

Ademas
(v1 , v2 , . . . , vi , . . . , vj , . . . , vn ) = (v1 , v2 , . . . , vj , . . . , vi , . . . , vn )
o sea que es antisimetrico, en particular (v1 , . . . , vn ) = 0 cuando alg
un
vector aparece repetido.
Las coordenadas de est
an dadas por

5.3 Subida y Bajada de Indices

171

i1 in = (ei1 , . . . , ein )

= det

i11
i21
..
.

i12
i22
..
.

..
.

i1n
i2n
..
.

in1

in2

inn

1 si (i1 , . . . , in ) es una permutaci


on par de (1,. . . ,n)
1 si (i1 , . . . , in ) es una permutaci
on impar de (1,. . . ,n)
=

0 si alg
un subndice aparece repetido
donde ei1 = ij1 ej
Usualmente se

1
1
k1 k2 kn =

define el smbolo de Levi-Civita k1 k2 kn como :


si (k1 kn ) es una permutaci
on par de (1,. . . ,n)
si (k1 kn ) es una permutaci
on impar de (1,. . . ,n)
si alg
un subndice aparece repetido

Vemos as que en la base ortonormal {ei }ni=1 tiene por coordenadas los
smbolos de Levi-Civita por lo que
= i1 i2 in i1 i2 in
donde {j }j=1
es la base dual de la base ortonormal {ei }ni=1 .
n
Ejercicio.- Mostrar que si {e0i }ni=1 es otra base de V, ortonormal o no,
relacionada con {ei }ni=1 mediante e0i = cji ej , entonces respecto a esta nueva
base las coordenadas de estan dadas por
i01 in = j1 j2 jn (det(cji ))

5.3.

Subida y Bajada de Indices

Si V es un espacio vectorial real de dimension finita con un producto


interior, sabemos que su producto interior es un 2-tensor en V, regular y
simetrico, g, el cual induce un isomorfismo Ig : V V , dado por :
(Ig (v))w = g(v, w)

w V, con v V,

Este isomorfismo nos permite definir nuevos tensores a partir de otros, si


T V V V, entonces T (v, w, ) R, con v, w V y V , si u es
otro vector de V, Ig (u) V , por lo que T (v, w, Ig (u)) esta bien definido;
si ahora definimos T (v, w, u) = T (v, w, Ig (u)) vemos que si a1 , a2 K y
u 1 , u2 V

172

5. Tensores

T (v, w, a1 u1 + a2 u2 ) T (v, w, Ig (a1 u1 + a2 u2 ))


= T (v, w, a1 Ig (u1 ) + a2 Ig (u2 ))
= a1 T (v, w, Ig (u1 )) + a2 T (v, w, Ig (u2 ))
= a1 T (v, w, u1 ) + a2 T (v, w, u2 )
T VVV

esto es, a partir de T V V V hemos construido T V V V .


es su base
Ejemplo.- Mostrar que si {ei }ni=1 base de V y {j }j=1
n

dual en V , con T V V V
y T V V V ; entonces
T ijk = Tij r gkr
Demostracion : Puesto que

T ijk = T (ei , ej , ek ) = T (ei , ej , Ig (ek ))


= Ti1 i2i3 i1 i2 ei3 (ei , ej , Ig (ek ))
= Ti1 i2i3 i1 (ei )i2 (ej )ei3 (Ig (ek ))
= Ti1 i2i3 ii1 ji2 g(ek , ei3 ) = Tiji3 g(ek , ir3 er )

T ijk = Tij r gkr


3

De manera similar, puesto que Ig es un isomorfismo, existe Ig1 : V V,


tal que si T V V V, T (u, v, ) con u, v V y V est
a bien
1
definido, llamando o haciendo T (u, , ) = T (u, Ig (), ) con V ,
tendremos que T esta bien definido, por lo que si a1 , a2 R, y 1 , 2 V ,
con Ig (1 ) = v1 e Ig (2 ) = v2 entonces
T (u, a1 1 + a2 2 , ) = T (u, Ig1 (a1 1 + a2 2 ), )
= T (u, a1 Ig1 (1 ) + a2 Ig1 (2 ), )
= T (u, a1 v1 + a2 v2 , )
= a1 T (u, v1 , ) + a2 T (u, v2 , )
= a1 T (u, Ig1 (1 ), ) + a2 T (u, Ig1 2 ), )
= a1 T (u, 1 , ) + a2 T (u, 2 )

5.4 Contraccion de Tensores

173

9T V V V

3
esto es, a partir de T V V V, construimos T V V V.
su base dual en V ,
Ejemplo.- Si {ei }ni=1 es una base de V y {j }j=1
n
jk

mostrar que T i = Tir k g jr


Demostracion :
jk

Ti

= T (ei , j , k ) = T (ei , Ig1 (j ), k )


= Ti1 i2i3 i1 i2 ei3 (ei , Ig1 (j ), k )
= Ti1 i2i3 i1 (ei )i2 (Ig1 (j ))ei3 k
= Ti1 i2i3 ii1 i2 (Ig1 (j ))ik3
= Tii2 k (Ig1 (j ))i2 = Tii2 k g(j , i2 )
= Tii2 k g(j , ri2 r ) = Tii2 k ri2 g(j , r ) = Tir k g jr

Ti

jk

= Tir k g jr
3

Esto nos permite poner


Ti jk = Tirk g jr
Ti jk = T rsk gir g js
Ti jk = T rs m gir g js gkm
A este proceso se le llama subida y bajada de ndices.

5.4.

Contracci
on de Tensores

Existe otra operacion entre tensores, llamada contracci


on, la cual
consiste en disminuir el rango del tensor en dos unidades, veamos :
Si T V V V V, {ei }ni=1 es una base de V y {j }j=1
es su base
n
dual en V , si v V y V , entonces T (v, i , ei , ) esta bien definido;
def

si ademas hacemos S(v, ) = T (v, i , ei , ) (puesto que tenemos ndices


iguales arriba y abajo, nuestra convenci
on de suma sigue valiendo) vemos
que si a1 , a2 , b1 , b2 K; v1 , v2 V y 1 , 2 V :

174

5. Tensores

S(a1 v1 + a2 v2 , b1 1 + b2 2 )
= T (a1 v1 + a2 v2 , i , ei , b1 1 + b2 2 )
= T (a1 v1 , i , ei , b1 1 + b2 2 ) + T (a2 v2 , i , ei , b1 1 + b2 2 )
= a1 T (v1 , i , ei , b1 1 + b2 2 ) + a2 T (v2 , i , ei , b1 1 + b2 2 )
= a1 T (v1 , i , ei , b1 1 ) + a1 T (v1 , i , ei , b2 2 )
+ a2 T (v2 , i , ei , b1 1 ) + a2 T (v2 , i , ei , b2 2 )
= a1 b1 T (v1 , i , ei , 1 ) + a1 b2 T (v1 , i , ei , 2 )
+ a2 b1 T (v2 , i , ei , 1 ) + a2 b2 T (v2 , i , ei , 2 )
= a1 b1 S(v1 , 1 ) + a1 b2 S(v1 , 2 ) + a2 b1 S(v2 , 1 ) + a2 b2 S(v2 , 2 )

S VV

en el presente caso pudimos haber contraido el primer y segundo argumento,


o el primero y el cuarto, o bien el tercero y el cuarto.
Sea {ei }ni=1 una base de V, {j }j=1
su base dual en V y T V
n
V V V por lo que si V , y v V, entonces T (ei , , v, i ) esta bien
definido y por la definicion anterior
S(, v) = T (ei , , v, i ) = Ti1 i2i3 i4 i1 ei2 i3 ei4 (ei , , v, i )
= Ti1 i2i3 i4 ii1 ei2 ()i3 (v)ii4 = Ti
= Ti

j i
k (ej

S = Ti

i2 i j
i3 k
i3 i2 ej ()k (v)

k )(, v)

j i
k (ej

k ) , (con suma implcita sobre i)

por este hecho decimos que cuando en la representaci


on de un tensor aparecen ndices repetidos arriba y abajo, estos se cancelan disminuyendo el rango
del tensor en dos unidades, siendo el nuevo tensor comparado con el original,
una vez menos covariante y una vez menos contravariante.
En las secciones correspondiente a operadores (3.3, 3.4), se vio que si
A Hom(V ) {ei }ni=1 es una base de V y {j }j=1
es su base dual en
n
j

V , tal que A(ei ) = ai ej , la representaci


on de A en terminos de productos
tensoriales esta dada por A = aji ej i , sin embargo, por la discusion
hecha en este captulo, vemos que a nuestro operador tambien lo podemos
representar como un tensor definido en V V, esto es, que A V V , el
que podamos hacer esto, se debe a que Hom(V ) y V V son isomorfos.
Para interpretar a A como tensor definido en V V, lo hacemos de la
siguiente forma : si V y v V, (Av) es un escalar bien definido, y

5.5 Tensores Alternantes

175

tenemos un mapeo de V V K, dado por (, v) (A(v)), el cual


es bilineal. Se deja como ejercicio demostrar que esta u
ltima afirmacion es
cierta.
Recprocamente, si T es un tensor definido en V V, sea w V, tal que
T (, v) = (w) para toda V y v V fijo. Puesto que T es bilineal, w
depende linealmente de V, es decir, el mapeo de V en V dado por I(v) = w
es lineal.
Ejercicios
1. Hallar el isomorfismo natural entre V W y Hom(V, W ), donde V
y W son espacios vectoriales sobre un mismo campo.
2. Un tensor T V1 Vk , definido en V1 V2 Vk , donde cada
uno de los espacios V1 , V2 . . . , Vk es un e.v. normado (de dimension
finita o no) sobre R o C, es acotado si existe M R, positivo, tal
que | T (v1 , . . . , vk ) | M k v1 k . . . k vk k, en este caso decimos que M
es una cota para T. Al nfimo de las cotas de T (si T es acotado) se
le llama la norma de T y se denota por k T k, k T k es el n
umero mas
peque
no tal que | T (v1 , . . . , vk ) | k T k k v1 k . . . k vk k.
Mostrar que si T es acotado, entonces
i) k aT k = |a| k T k
ii) k T + S k k T k + k S k
iii) k T S k k T kk S k
iv) Si k T k = 0 implica que

T =0

3. Sea V un e.v. de dimension finita sobre R con un producto interior, el


cual sabemos es un 2-cotensor en V, simetrico y regular. Sea {ei }ni=1
una base ortonormal de V y sea {j }j=1
su base dual en V , si
n
0,
4
T T (V ), mostrar que las componentes de T en la base dada se
pueden poner como :
i) Tijkr = gjl grs Ti lks
ii) T ijk r = g li gks Tlj

5.5.

sr

Tensores Alternantes

Un k-cotensor T en V se dice que es alternante (o completamente


antisimetrico) si cambia de signo cuando se intercambian dos de sus argumentos, esto es :

176

5. Tensores
T (v1 , . . . , vi , . . . , vj , . . . , vk ) = T (v1 , . . . , vj , . . . , vi , . . . , vk )

con v1 , v2 , . . . , vk V ; y por tanto T (v1 , . . . , vk ) = 0 cuando alguno de los


argumentos aparece repetido, ya que si el i-esimo es igual al j-esimo
T (v1 , . . . , vi , . . . , vj , . . ., vk ) = T (v1 , . . . , vj , . . . , vi , . . . , vk )
pero ya que T es alternante
T (v1 , . . . , vi , . . . , vj , . . . , vk ) = T (v1 , . . . , vj , . . . , vi , . . . , vk )
lo cual implica que T (v1 , . . . , vk ) = 0.
Al conjunto de los k-cotensores alternantes en V lo denotaremos por

k (V ). De hecho, k (V ) es un subespacio de V
V } . Para comprobar
| {z
k veces

esto basta ver que k (V ) es cerrado bajo la suma y la multiplicaci


on por

k
escalares, definidas en V
V }, veamos, tomemos T, S (V ) y
| {z
a K, entonces :

k veces

(T + S)(v1 , . . . , vi , . . . , vj , . . . , vk )
= T (v1 , . . . , vi , . . . , vj , . . . , vk ) + S(v1 , . . . , vi , . . . , vj , . . . , vk )
= T (v1 , . . . , vj , . . . , vi , . . . , vk ) S(v1 , . . . , vj , . . . , vi , . . . , vk )
= (T + S)(v1 , . . . , vj , . . . , vi , . . . , vk )
y
(aT )(v1 , . . . , vi , . . . , vj , . . . , vk ) = a[T (v1 , . . . , vi , . . . , vj , . . . , vk )]
= a[T (v1 , . . . , vj , . . . , vi , . . . , vk )]
= (aT )(v1 , . . . , vj , . . . , vi , . . . , vk )
lo que muestra que T + S y aT k (V ) (observe que el k-cotensor cero es
trivialmente alternante).
Sea {ei }ni=1 una base de V, entonces si v1 , v2 , . . . , vk V, ellos se pueden
escribir como vi = vij ej donde vij K (con i = 1, . . . , k y j = 1, . . . , n), por
tanto si T k (V )
T (v1 , . . . , vk ) = T (v1i1 ei1 , v2i2 ei2 , . . . , vkik eik )
= v1i1 v2i2 vkik T (ei1 , ei2 , . . . , eik )
de este desarrollo vemos que si k > n, entonces T (v1 , v2 , . . . , vk ) = 0, ya que
en cada uno de los factores T (ei1 , ei2 , . . . , eik ) al menos uno de los ei aparece

5.5 Tensores Alternantes

177

repetido, pues solamente hay n de ellos diferentes. Es decir si T k (V )


con k > D(V ), entonces T = 0, o k (V ) = {0} para k > n.
Para k = n existen cotensores alternantes diferentes de cero, uno de ellos
es el tensor definido en la seccion anterior.
Lema.- Si D(V ) = n, entonces D(n (V )) = 1.
Demostracion : n (V ) 6= {0}, por lo que D(n (V )) > 0. Para ver que
de hecho D(n (V )) = 1, basta mostrar que cualquier par de n-cotensores
alternantes en V son linealmente dependientes.
Sea {ei }ni=1 una base de V, si T n (V ), entonces si (v1 , v2 , . . . , vn ) V
con vi = vij ej , se tiene que T (v1 , v2 , . . . , vn ) = v1i1 v2i2 vnin T (ei1 , ei2 , . . . , ein ),
pero debido a que T es alternante T (ei1 , ei2 , . . . , ein ) = i1 i2 in T (e1 , . . . , en ),
por lo tanto T (v1 , v2 , . . . , vn ) = i1 i2 in v1i1 v2i2 vnin T (e1 , . . . , en ).
Si S es otro n-cotensor alternante, entonces se tiene para la combinacion lineal : [T (e1 , . . . , en )]S [S(e1 , . . . , en )]T (la cual tambien pertenece
a n (V ))
{[T (e1 , . . . , en )]S [S(e1 , . . . , en )]T }(v1 , . . . , vn )
= i1 in v1i1 vnin {[T (e1 , . . . , en )]S [S(e1 , . . . , en )]T }(e1 , . . . , en )
= i1 in v1i1 vnin {T (e1 , . . . , en )S(e1 , . . . , en ) S(e1 , . . . , en )T (e1 , . . . , en )}
=0
lo que muestra que la combinaci
on lineal [T (e1 , . . . , en )]S [S(e1 , . . . , en )]T
es igual al n-cotensor cero.
2

El siguiente lema establece una peculiaridad de los cotensores alternantes


de rango igual a la D(V ).
Lema.- Sea T n (V ), diferente del n-cotensor cero, entonces
T (v1 , . . ., vn ) = 0 si y solo si el conjunto {v1 , . . . , vn } es linealmente dependiente.
Demostracion :
= ) Supongamos que {v1 , . . . , vn } es linealmente dependiente, entonces
alguno de ellos es combinaci
de los que aparecen antes que el (ver
P on lineal
j v , y por lo tanto :
captulo 1), digamos vi = i1
a
j
j=1

178

5. Tensores

T (v1 , . . . , vn ) = T (v1 , . . . , vi1 , vi , vi+1 , . . . , vn )


i1
X
= T (v1 , . . . , vi1 ,
aj vj , vi+1 , . . . , vn )
j=1

i1
X

aj T (v1 , . . . , vi1 , vj , vi+1 , . . . , vn )

j=1

= 0
ya que vj aparece repetido en T (v1 , . . . , vi1 , vj , vi+1 , . . . , vn ).
= ) Para probar la implicacion en este sentido, supongamos que
(v1 , . . . , vn ) es linealmente independiente. Esto significa que {v1 , . . . , vn } es
una base de V, si T (v1 , . . . , vn ) = 0, entonces para cualesquiera n vectores
w1 , . . . , wn V, si wi = wij vj se tiene que :
T (w1 , . . . , wn ) = w1i1 wnin T (vi1 , . . . , vin )
= i1 in w1i1 wnin T (v1 , . . . , vn )
= 0
luego T es el n-cotensor cero, contrario a la hipotesis.
2
k veces

Si A Hom(V ), se tiene un mapeo A(k)

}|
{
z
Hom V V dado por
k veces

(A(k) T )(v1 , . . . , vk )
vk V.

}|
{
z
T (Av1 , . . . , Avk ), para T V V y v1 , . . .,

A continuacion mostraremos que k (V ) es un subespacio invariante bajo


A(k) , ya que si T k (V ) se tiene :
(A(k) T )(v1 , . . . , vi , . . . , vj , . . . , vk ) = T (Av1 , . . . , Avi , . . . , Avj , . . . , Avk )
= T (Av1 , . . . , Avj , . . . , Avi , . . . , Avk )
= (A(k) T )(v1 , . . . , vj , . . . , vi , . . . , vk )
lo que muestra que A(k) T k (V ).
En particular para k = n, A(n) es un mapeo lineal de n (V ) en si mismo.

5.5 Tensores Alternantes

179

Puesto que D[n (V )] = 1, si tomamos alg


un T n (V ) diferente de
cero, cualquier elemento de n (V ) es un m
ultiplo de T. Ahora A(n) T
n

(V ), por lo tanto podemos escribir A(n) T = aT


Si S es otro n-cotensor alternante, S = bT con b K, entonces :
A(n) S = A(n) (bT ) = bA(n) T = baT = aS
es decir A(n) S = aS para toda S n (V ) (el mismo a, independientemente
del n-cotensor que se elija).
Podemos hallar explcitamente cual es el escalar a que aparece en la
u
ltima relacion. Tomemos una base de V , {ei }ni=1 , entonces :
(A(n) S)(e1 , . . . , en ) = S(Ae1 , . . . , Aen ),
y si Aei = aji ej , tenemos que
(A(n) S)(e1 , . . . , en ) = S(ai11 ei1 , . . . , ainn ein ) = ai11 ainn S(ei1 , . . . , ein )
= i1 in ai11 ainn S(e1 , . . . , en )
pero (A(n) S)(e1 , . . . , en ) = aS(e1 , . . . , en ), por lo que a = i1 in ai11 ainn =
det (aij ).
2
As pues se ha demostrado el siguiente lema.
Lema.- Si A Hom(V ), entonces A(n) S = (detA)S para toda
S n (V ).
Corolario.- Si A, B Hom(V ), entonces det(AB) = (detA)(detB).
A ,
Esto es claro ya que (AB)(n) S = det(AB)S, pero (AB)(n) = B(n)
(n)
por tanto

(AB)(n) S = B(n)
(A(n) S) = B(n)
(detA)S

= (detA)B(n)
S = (detA)(detB)S

det(AB) = (detA)(detB)
3

Si A Hom(V ) es tal que detA = 0, y S n (V ) es diferente de cero,


entonces para cualesquiera v1 , v2 , . . . , vn V

180

5. Tensores
(A(n) S)(v1 , . . . , vn ) = S(Av1 , . . . , Avn ) = (detA)S(v1 , . . . , vn ) = 0

es decir S(Av1 , . . . , Avn ) = 0, lo que implica que {Av1 , . . . , Avn } es linealmente dependiente, para cualesquiera eleccion que se haga de v1 , . . . , vn , por
tanto A no es inyectiva. Este resultado fue encontrado por metodos elementales (ver captulo 2).

5.6.

Elemento de Volumen

Sea V un e.v. de dimension finita (igual a n) sobre R con un producto interior; tal producto interior es un 2-cotensor simetrico en V, al cual
denotaremos por g.
Si {ei }ni=1 es una base ordenada de V ortonormal, definimos el elemento de volumen, , asociado a g, como el n-cotensor alternante, tal que
(e1 , . . . , en ) = 1.
Si v1 , . . . , vn V, (v1 , . . . , vn ) se puede interpretar (o definir) como el
volumen generado por los vectores v1 , . . . , vn . Esta medida de volumen
esta normalizada, tal como lo hemos definido, de manera que el volumen
generado por los vectores e1 , . . . , en sea 1. Debido a que (v1 , . . . , vn ) no
siempre es positivo, se debe considerar como volumen su valor absoluto.
El signo de (v1 , . . . , vn ) indica la orientaci
on de los vectores v1 , . . . , vn . Si
(v1 , . . . , vn ) > 0 diremos que {v1 , . . . , vn } tiene la misma orientaci
on que
{e1 , . . . , en }, y si (v1 , . . . , vn ) < 0, diremos que {v1 , . . . , vn } tiene la orientacion opuesta a la de {e1 , . . . , en }. As por ejemplo, {e2 , e1 , e3 , . . . , en } tiene
la orientacion opuesta a la de {e1 , e2 , e3 , . . . , en }.
Si {e0i }ni=1 es otra base ordenada ortonormal de V, podemos escribir
0
ei = Cei , lo que define completamente al operador C. Entonces :
)(e , . . . , e ) = det C.
(e01 , . . . , e0n ) = (Ce1 , . . . , Cen ) = (C(n)
1
n

Para hallar det C, utilizamos la condicion de que (e01 , . . . , e0n ) es ortonormal;


ji

= g(e0i , e0j ) = g(Cei , Cej ) = g(cki ek , clj el )


i

= cki clj g(ek , el ) = cki clj kl = ct k ckj


donde hemos escrito cei = cji ej y (ct )ij es la matriz transpuesta de (cij ).
Luego
1 = det(ji ) = det[(ct )ik ckj ] = [det(cij )]2 o bien det(cij ) = 1

5.7 Producto Exterior

181

(ya que det(ct )ij = det(cij )), y por lo tanto (e01 , . . . , e0n ) = 1.
Este u
ltimo resultado muestra que para definir el elemento de volumen
se puede usar cualquier base ortonormal que pertenezca a una orientaci
on
dada. esta definida entonces, una vez que se da el producto interior g, y
se ha elegido una orientacion en V.

5.7.

Producto Exterior

Tomemos n 1 vectores en V : v1 , . . . , vn1 , y consideremos el


mapeo de V en R dado por w (w, v1 , . . . , vn1 ). Debido a la multilinealidad de , este mapeo es lineal, por lo tanto si escribimos v1 ,...,vn1 (w)
(w, v1 , . . . , vn1 ), vemos que v1 ,...,vn1 V .
El producto interior, g, induce un isomorfismo entre V y V (al que
hemos denotado por Ig1 , ver captulo 3) dado por (u) = g(Ig1 (), u) para
toda u V y para toda V . A la imagen de la funcional v1 ,...,vn1
definida en el parrafo anterior , bajo Ig1 la llamaremos producto exterior de
v1 , . . . , vn1 y la denotaremos por v1 . . .vn1 . Se tiene entonces v1 . . .
vn1 = Ig1 (v1 ,...,vn1 ), y por tanto g(v1 . . .vn1 , u) = (u, v1 , . . . , vn1 ).
Definici
on.- Sea V un espacio vectorial sobre R de dimension n, con
un producto interior, g, y sea un elemento de volumen asociado a g. Si
v1 , . . . , vn1 V, el producto exterior de v1 , . . . , vn1 denotado por v1
. . . vn1 (de acuerdo a la orientaci
on dada por ) es aquel vector en V tal
que :
g(v1 . . . vn1 , u) = (u, v1 , . . . , vn1 ) para toda u V.
El producto exterior de v1 , . . . , vn1 es un vector ortogonal a todos ellos,
ya que :
g(v1 . . . vn1 , vi ) = (vi , v1 , . . . , vn1 ) = 0 para; i = 1, . . . , n 1
porque vi aparece repetido.
Otras propiedades de v1 . . . vn1 se derivan directamente de las de
.
Ejercicio.- Mostrar que :
i) El producto exterior es distributivo, esto es que
v1 . . . (aui + bwi ) . . . vn1
= a(v1 . . . ui . . . vn1 ) + b(v1 . . . wi . . . vn1 )

182

5. Tensores

ii) El producto exterior es alternante, esto es que


v1 . . . vi . . . vj . . . vn1
= v1 . . . vj . . . vi . . . vn1
iii) Es linealmente dependiente,es decir:
v1 . . . vn1 = 0 {v1 , . . . , vn1 } es L.D.
Si {ei }ni=1 es una base cualquiera de V, y escribimos v1 = v1i ei ,
k e , y v ...v
i
v2 = v2j ej , . . . , vn1 = vn1
1
n1 = (v1 . . . vn1 ) ei , se
k
l
tiene para un vector u = u el arbitrario :
i

n1
g((v1 . . . vn1 )i ei , uj ej ) = (uj ej , v1i1 ei1 , . . . , vn1
ein1 )
i
i
n1
(v1 . . . vn1 )i uj g(ei , ej ) = uj v11 vn1 (ej , ei1 , . . . , ein1 )
in1
(v1 . . . vn1 )i uj gij = uj v1i1 vn1
ji1 ...in1

por tanto, puesto que u es arbitrario :


i

n1
(v1 . . . vn1 )i gij = v1i1 vn1
(ej , ei1 , . . . , ein1 )

o multiplicando por g jk , donde (g jk ) es la matriz inversa de (gij ) es decir


gij g jk = ik , quedando
i

n1
(v1 . . . vn1 )k = g jk ji1 ...in1 v1i1 vn1

Si en particular {ei }ni=1 es ortonormal y tiene la orientaci


on definida por
(es decir (e1 , . . . , en ) > 0), entonces gij = ij , y j1 j2 ...jn = j1 j2 ...jn , y
i

n1
(v1 . . . vn1 )k = ki1 ...in1 v1i1 vn1

o sea que los componentes de v1 . . . vn1 respecto a una base ortonormal


orientada positivamente (o a derechas) estan dadas por los determinantes
de las matrices (n 1) (n 1) que se obtienen de

v11
v12
..
.
v1n

v21
v22
.. . .
.
.
n
v2

1
vn1
2
vn1
..
.
n
vn1

5.7 Producto Exterior

183

al eliminar uno de los renglones.


A la magnitud de v1 . . .vn1 se le puede interpretar, consistentemente,
como medida de la hipersuperficie generada por v1 , . . . , vn1 ; con lo que
v1 . . . vn1 sera un vector ortogonal al subespacio de V generado por
v1 , . . . , vn1 , y cuya magnitud representa la hipersuperficie generada por
v1 , . . . , vn1 .
Ejercicios: Secci
on 5.7
1. Sea { e1 = (1, 0, 0) , e2 = (0, 1, 0) , e3 = (0, 0, 1) } una base ortonormal de V y {j }j=1
su base dual en V ; si T V V V dado
3
por T = 33 2 e1 21 1 e3 + 3 3 e2 y { e01 =
(1, 1, 1, ) , e02 = (0, 2, 2) , e03 = (0, 0, 3) } determinar la representaci
on
de T respecto a la base primada.Es decir determine todos los Ti01 i2 i3 .
2. Determinar el n
umero de elementos que tiene la representaci
on de
T V V V V si:
i.- dim(V ) = 5
ii.- dim(V ) = 4
iii.- dim(V ) = 3
iv.- dim(V ) = 2
3.

i.- Sea V un e.v. cuya dimension es 4 y 4 (V )


si {v1 , v2 , v3 } V Cu
antas componentes tiene v1 v2 v3 ?.
ii.- Si dim(V ) = 5. Cuantas componentes tiene v1 v2 v3 ?.

4. Si V es un espacio vectorial sobre los reales con un producto interior


g .Es cierto que :
i.- Si T V , entonces , T (ek ) = T r grk .
ii.- Si v V , entonces , v(s ) = vm g ms .
El producto exterior como ha sido definido, depende del producto interior dado en V, as como de la orientaci
on que defina. Si {ei }ni=1 es una
base orientada positivamente seg
un ( (e1 , . . . , en ) > 0), entonces tiene la
orientacion opuesta a la dada por (pues ()(e1 , . . . , en ) < 0 ). Cuando se pasa de la orientacion dada por a la dada por , los productos
exteriores cambian de signo.

184

5. Tensores

A los vectores que (como v1 . . . vn1 ) cambian de signo al cambiar


la orientacion se les llama pseudovectores o vectores axiales. A los vectores
que no cambian de signo se le llama vectores polares. Si se toma el producto
escalar de un pseudovector con un vector polar, se obtiene un escalar que
cambia de signo al invertir la orientaci
on. A los escalares con esta caracterstica se les llama pseudoescalares. El producto interior de dos vectores
axiales o de dos vectores polares es un escalar verdadero (no cambia de
signo al invertir la orientaci
on).

Parte VI

Grupos

185

Captulo 6

Grupos
6.1.

Grupo, Subgrupos y Grupo Cociente

Dentro de la Fsica Matematica, la teora de grupos aparece al estudiar conjuntos de transformaciones, respecto de las cuales alguna variable
de interes no cambia. As por ejemplo el electron de un atomo de hidrogeno
se mueve en un campo que (despreciando el espin) es invariante bajo rotaciones alrededor del n
ucleo. Similarmente el campo que siente un electron
en un cristal perfecto es invariante bajo ciertas transformaciones.
En las teoras compatibles con la relatividad especial, se exige que las
ecuaciones sean invariantes bajo las transformaciones de Lorentz.
La invariancia de un sistema bajo alg
un conjunto de transformaciones,
tanto en Mecanica Clasica como Cuantica, implica la existencia de alguna
variable que se conserva(teorema de Noether).
Repetiremos ahora una definicion dada en el captulo 1.
Definici
on.- Un Grupo G es un conjunto no vaco con una operacion,
mapeo, regla o ley bien definida, tal que a toda pareja ordenada (u, v)
de G le asocia el elemento uv de G, ademas debe de cumplir con las
siguientes propiedades :
Asociativa: u(vw) = (uv)w, para todo u, v, w G.
Existencia del Elemento Identidad: Existe un u
nico e G, tal que
para todo u G, ue = eu = u.
nico
Existencia del Elemento Inverso: Para cada u G, existe un u
u0 G, tal que uu0 = e.
187

188

6. Grupos
Ejercicio.- Mostrar que e y a1 son u
nicos.

Un grupo es finito si consta de un n


umero finito, h, de elementos; h es
llamado el orden del grupo.
Si la operacion es conmutativa, el grupo es abeliano.
Ejemplos
1. Tratando el tiempo como una cuarta coordenada, cada evento esta descrito por las cuatro coordenadas cartesianas :
x0 = ct, x1 = x, x2 = y, x3 = z
y el conjunto de eventos forma el llamado espacio-tiempo.
En cada punto del espacio-tiempo se pueden elegir cuatro direcciones,
una en la cual solamente vara la coordenada x1 , una en la cual solamente vara la coordenada x2 , otra en la cual solo vara la coordenada
x3 y otra en la cual solo vara x0 .
En estas direcciones podemos colocar los vectores e1 , e2 , e3 y e0 respectivamente. Si {1 , 2 , 3 , 0 } es una base dual, el tensor
= 0 0 + 1 1 + 2 2 + 3 3
se llama tensor metrico.
Escribiendo = ij i j , se encuentra que las coordenadas del
2-cotensor estan dadas en esta base por :

1
0
(ij ) =
0
0

0
1
0
0

0
0
1
0

0
0

0
1

La matriz (cji ) de cambio de base : e0j = ckj ek , corresponde (por definicion) a una transformacion de Lorentz si las coordenadas de en la
nueva base son iguales a las coordenadas ij de la base original, es
0 = (e0 , e0 ) son iguales a , de manera expl
decir, si ij
cita, puesto
ij
i j
que
0
ij

= (e0i , e0j ) = (cki ek , clj el )


= cki clj (ek , el ) = cki clj kl

por tanto (cji ) corresponde a una transformacion de Lorentz si

6.1 Grupo, Subgrupos y Grupo Cociente

189

ij = cki clj kl

Definamos ahora el producto en la forma usual, si (cij ) y (dij ) definen


dos transformaciones de Lorentz, el producto de ellas es la transformacion dada por la matriz cuyos elementos son de la forma bij = cik dkj ,
y ahora
r
l m
k r
lm bli bm
= (clk dki )(cm
j
r dj )lm = (ck cr )(di dj )lm

= (dki drj )kr = ij


por tanto el producto de matrices que representan transformaciones
de Lorentz, representa otra transformacion de Lorentz.
Dado que la ley asociativa se cumple para el producto de matrices,
para nuestro caso tambien se cumple.
La matriz (ij ) claramente satisface (ji )(cij ) = (cij )(ji ) = (cij ) y pertenece
al conjunto de matrices que representan transformaciones de Lorentz,
ya que ij = il jm lm .
Por u
ltimo veremos que cada una de estas matrices posee una inversa,
la cual tambien pertenece al conjunto de representaciones correspondientes a las transformaciones de Lorentz. Veamos, si (cij ) pertenece a
este conjunto se tiene que: ij = cki clj kl , y tomando el determinante
de ambos lados se encuentra
1 = [det(cji )]2 (1)

[det(cji )] = 1 6= 0.

Por lo tanto la matriz (cji ) es invertible. Denotando por (


cij ) la inversa
de (cij ) se tiene cik ckj = cik ckj = ji , y por lo tanto
ij

= il jm lm = (clk cki )(cm


rj )lm
r c
= cki crj (clk cm
ki crj kr = ij
r )lm = c

lo que muestra que (


cij ) pertenece tambien al conjunto.
2

190

6. Grupos

2. El conjunto de operaciones de simetra de la molecula de agua consta


de las operaciones E, , 0 y c2 ; la operacion E deja fija la molecula,
efectua una reflexion en el plano de la molecula, 0 efectua una
reflexion en el plano vertical, perpendicular al plano de la molecula y
c2 realiza una rotacion por radianes alrededor del eje de la molecula.
(ver fig.)
***
Tomando como operacion la composicion de transformaciones, se encuentra
EE = = 0 0 = c2 c2 = E
E = c2 0 = 0 c2 = E =
E 0 = 0 E = c2 = c2 = 0
Ec2 = c2 E = 0 = 0 = c2
De aqu que el conjunto {E, , 0 , c2 } con la operacion de composicion
forma un grupo abeliano de orden 4, la identidad es E y cada elemento
es su propio inverso. Este grupo es llamado c2v .
Ejercicio.- Mostrar que los siguientes conjuntos con la operacion dada
forman grupos :
i) Los operadores lineales unitarios con la operacion usual de composicion.
ii) Los operadores lineales hermticos con la operacion usual de suma.
Teorema.- Sea a G, el mapeo La de G en s mismo dado por
La (b) = ab, es 1 a 1.
Demostracion : Consideremos el mapeo La1 , entonces
(La La1 )(b) = La (La1 (b)) = La (a1 b) = aa1 b = eb = b
y
(La1 La )(b) = La1 (La (b)) = La1 (ab) = a1 ab = eb = b
y por tanto los mapeos compuestos La La1 y La1 La son la aplicacion
identica de G sobre s mismo, y en consecuencia La debe ser 1 a 1.
2

6.1 Grupo, Subgrupos y Grupo Cociente

191

Similarmente, si definimos Ra : G G por Ra (b) = ba, este mapeo


es uno a uno.
Para un grupo finito es usual dar la operacion del grupo mediante una
tabla.
a1
a2
..
.

a1
a21
a2 a1
..
.

ah ah a1

a2
a1 a2
a22

ah
a1 ah
a2 ah
..
.

ah a2

a2h

en el i-esimo renglon aparecen los elementos Lai (a1 ), Lai (a2 ), . . . , Lai (ah ),
por el resultado del teorema anterior, en cualquier renglon aparecen todos
los elementos del grupo sin repeticiones. Similarmente en la j-esima columna aparecen los elementos Raj (a1 ), Raj (a2 ), . . . , Raj (ah ); los cuales deben
agotar los elementos del grupo, desde luego sin repeticiones posibles.
Directamente en la tabla se puede ver si el grupo es abeliano, observando
si la tabla es simetrica respecto a la diagonal principal.
Por ejemplo, para el grupo c2v la tabla sera :
E

0
c2

E
E
E
0 c2
c2 0

0
0
c2
E

c2
c2
0

en este caso la tabla es simetrica y el grupo es abeliano. Ademas cada elemento es su propio inverso ya que E aparece en la diagonal principal.
Ejercicio.- Mostrar que si a2 = e para todo a G, entonces G es
abeliano.
Ejemplo.- Consideremos un grupo de orden 3, con elementos a1 , a2 y
a3 , alguno de ellos y( solamente uno) es elemento identidad, digamos que
a1 = e, la tabla de multiplicar sera de la forma :
a1
a2
a3

a1 a2 a3
a1 a2 a3
a2
a3

192

6. Grupos

En el segundo renglon no puede aparecer nuevamente a2 , y a1 , a3 , deben


aparecer solamente una vez, ya sea que se tenga a2 , a1 , a3 , o a2 , a3 , a1 ; la
primera opcion no puede ser, pues entonces a3 aparecera dos veces en la
tercera columna, para el u
ltimo renglon solamente se puede tener a3 , a1 , a2
y la tabla es finalmente
a1
a1 a1
a2 a2
a3 a3

a2
a2
a3
a1

a3
a3
a1
a2

Por tanto todo grupo de orden 3 debe tener esta tabla de multiplicar.
Por decirlo as solamente existe un grupo de orden 3. Este grupo es abeliano
y ademas todos los elementos del grupo se pueden obtener como potencias
de a2 o a3 : a21 = a1 , a22 = a3 , a23 = a1 , a31 = a3 , a32 = a2 , a33 = a1 .
Grupos con esta caractertica se llaman cclicos y claramente son abelianos.
Ejercicio.- Hallar las dos posibilidades para la tabla de multiplicar de
un grupo de orden 4, y ver cual de ellas corresponde la del grupo c2v .
Es alguno de ellos cclico ? (sugerencia, use el hecho de que en un grupo
finito de orden par, existe cuando menos un elemento a 6= e tal que a2 = e,
afirmacion que demostraremos posteriormente).
Definici
on.- Dado un grupo G, un subgrupo de G es un subconjunto de
G que es un grupo con la operacion en G.
G y {e} son siempre subgrupos de G, y son llamados subgrupos impropios.
En un grupo finito, para un elemento a arbitrario, la sucesion a, a2 , a3 , . . .
debe estar dentro del grupo, por lo que deben existir diferentes potencias
de a que sean iguales : an = am , y multiplicando esta igualdad n veces por
a1 , se encuentra que e = amn .
El mnimo entero positivo k para el cual ak = e se llama el orden de a.
Los k elementos a, a2 , a3 , . . . , ak = e; forman el periodo de a, indicado
por {a}.
Ejercicio.- Mostrar que el periodo de un elemento es un subgrupo abeliano.
En un grupo abeliano es usual escribir a + b en lugar de ab, y na en lugar
de an . Esto coincide con la notacion usada para los espacios vectoriales (que
son grupos abelianos).

6.1 Grupo, Subgrupos y Grupo Cociente

193

En la teora de espacios vectoriales, una clase lateral de un subespacio


vectorial M, es el conjunto que se obtiene al sumar un vector fijo u a todos
los elementos de M, y a tal conjunto se le simboliza por M + u.
En un grupo arbitrario, debido a la no conmutatividad, en general es
necesario distinguir entre los conjuntos que se obtienen multiplicando todos
los elementos de un subgrupo H por un elemento fijo a G, ya sea por la
izquierda o por la derecha [La (H) y Ra (H)].
Denotaremos por aH al conjunto La (H) que se obtiene multiplicando
todos los elementos del subgrupo H por a por la izquierda, al que llamaremos clase lateral izquierda. Similarmente Ha sera el conjunto Ra (H) que
se obtiene multiplicando todos los elementos del subgrupo H por a, por la
derecha, y sera una clase lateral derecha.
Claramente, en un grupo abeliano aH = Ha (tal como sucede en los
espacios vectoriales, donde no hay distincion entre clases laterales izquierdas
y derechas).
Teorema.- Dos clases laterales izquierdas (derechas) de H en G, son
iguales o no tienen elementos en com
un. Una clase lateral izquierda (derecha)
de H, contiene el mismo n
umero cardinal de elementos que H.
Demostracion : Si aH y bH no tienen elementos en com
un, nada hay
que probar. Supongamos por el contrario que existe alg
un elemento c com
un
a aH y bH, entonces existen dos elementos de H, h1 y h2 , tales que c = ah1 =
1
bh2 , por tanto a = bh2 h1
1 . Dado que H es un subgrupo (h2 h1 )H = H1 y
1
1
aH = (bh2 h1 )H = b(h2 h1 )H = bH.
El mapeo de H en aH dado por h ah es (de la definicion de aH)
sobreyectivo y ademas inyectivo pues si h1 y h2 tuviesen la misma imagen,
es decir si ah1 = ah2 , entonces (multiplicando por a1 por la izquierda)
h1 = h2 . Por tanto H y aH tienen la misma cardinalidad.
2
Puesto que e H, ae = a aH y ea = a Ha, por lo que cualquier
elemento de grupo G pertenece a alguna clase lateral derecha y a alguna
clase lateral izquierda de H. As G es la union disjunta de clases laterales
izquierdas (o derechas) de cualquiera de sus subgrupos.
Sea, por ejemplo, G el conjunto Z de los n
umeros enteros con la operacion usual de suma, entonces G es un grupo abeliano de orden infinito.
Sea H = {. . . , 16, 12, 8, 4, 0, 4, 8, 12, 16, . . .}, H es un subgrupo de
G, por ser abeliano, las clases laterales izquierdas de H son iguales a las
derechas; puede verse que solamente hay cuatro clases laterales diferentes :

194

6. Grupos
H
H
H
H

+0=0+H
+1=1+H
+2=2+H
+3=3+H

=H
= {. . . , 15, 11, 7, 3, 1, 5, 9, 13, . . .}
= {. . . , 14, 10, 6, 2, 2, 6, 10, 14, 18, . . .}
= {. . . , 13, 9, 5, 1, 3, 7, 11, 15, 19, . . .}

G es la unon disjunta de ellas, es decir cualquier elemento de G pertenece


a una y solamente a una de estas clases laterales.
Corolario.- (Teorema de Lagrange) Si H es un subgrupo de G, cuyos
ordenes son k y h respectivamente, entonces k es divisor de h, el entero
n = hk se llama el ndice de H en G.
Demostracion : G es la union de H y sus clases laterales diferentes, las
cuales no se intersectan, cada clase lateral posee k elementos, por lo que el
orden del grupo debe ser m
ultiplo del orden de H.
2
Corolario.- Si G es un grupo de orden h, entonces el orden de cualquier
elemento de G es un factor de h.
Esto es claro ya que : Si a G, el periodo {a} de a es un subgrupo de
G, cuyo orden es el orden de a, que debe ser un factor del orden del grupo.
2
Corolario.- Un grupo de orden primo no tiene subgrupos propios y debe
ser cclico.
Veamos : Si H es subgrupo de un grupo de orden primo, el orden de
H debe ser subm
ultiplo del orden del grupo y por tanto solamente puede
ser 1 o igual al orden del grupo, en el primer caso H = {e} y en el segundo
H es el grupo completo los cuales son subgrupos impropios.
Si a es un elemento cualquiera del grupo, su periodo {a} es un subgrupo
y por tanto {a} = {e} o {a} es el grupo completo, en el primer caso a debe
ser precisamente e; por tanto si a 6= e el grupo es generado por a.
2
Definici
on.- Sea H un grupo de G, H es un subgrupo invariante o
divisor normal si aH = Ha.
Claramente tanto G como e son subgrupos (impropios) invariantes.

6.1 Grupo, Subgrupos y Grupo Cociente

195

Si un grupo no posee subgrupos invariantes propios se llama simple.


En un grupo abeliano todo subgrupo es invariante.
Podemos hacer una construccion completa semejante a la del espacio
cociente.
Si H es un un subgrupo invariante de G, consideraremos el conjunto
compuesto por H y sus clases laterales; si Ha y Hb son dos clases laterales
de H, definimos el producto de ellas mediante : (Ha)(Hb) = H(ab), el cual
es tambien una clase lateral de H.
Este conjunto con esta operacon se denota por G/H, se puede ver que
es un grupo, llamado grupo cociente.
Ejercicio.- Mostrar que G/H es un grupo, y que si el orden de G es h
y el de H es k, el orden de G/H es h/k.
Definici
on.- Sean a, b G, b es conjugado de a si existe c G tal que
b = cac1 .
Ejercicios.1. Mostrar que la relacion : ser conjugado de, es una relacion de equivalencia.
2. Mostrar que dos elementos conjugados entre s son del mismo orden.
Definici
on.- El conjunto de todos los elementos conjugados con a es la
clase de a.
Para determinar el n
umero de elementos correspondientes a una clase
(arbitraria) a, consideraremos el conjunto Na formado por todos los elementos de G que conmutan con a.
Si n1 y n2 pertenecen a Na , entonces
a(n1 n2 ) = (an1 )n2 = (n1 a)n2 = n1 (n2 a) = (n1 n2 )a
es decir (n1 n2 ) Na . Na es un subgrupo de G, llamado el normalizador de
a.
Si bNa es una de las clases laterales izquierdas de Na y c bNa ,
entonces existe un n Na tal que c = bn
cac1 = (bn)a(bn)1 = b(nan1 )b1 = bab1

196

6. Grupos

puesto que nan1 = ann1 = a, ya que n Na .


En consecuencia, dos elementos pertenecientes a una misma clase lateral
izquierda de Na transforman a a en un mismo elemento.
Si deseamos hallar todos los elementos en la clase de a, esto es, todos
los elementos conjugados con a, podemos considerar todos los elementos de
la forma cac1 ; no todos ellos seran diferentes, si cac1 = dad1 , entonces
(d1 c)a = a(d1 c), de donde d1 c Na (es decir d1 c = n, donde n Na )
o c = dn para alg
un elemento n Na , es decir c dNa , o de otra forma c y
d deben pertenecer a la misma clase lateral izquierda de Na .
As pues, el n
umero de diferentes elementos conjugados con a, es igual
al n
umero de clases laterales (izquierdas) de Na ; el cual es precisamente el
ndice de Na en G, y por tanto un divisor (en el caso de grupos finitos) del
orden de G.
Dos clases distintas no tienen elementos en com
un. Ademas cada elemento de G pertenece a alguna clase, por lo que G es la union disjunta de
clases.
En un grupo abeliano cada elemento forma una clase por s mismo.

6.2.

Homomorfismos, Isomorfismos y Representaciones

Dados dos conjuntos A y B podemos construir funciones o mapeos


del uno al otro; si A y B poseen alguna estructura (si ambos son grupos,
espacios vectoriales, algebras, etc.) son importantes aquellos mapeos que
preservan tal estructura, llamados homomorfismos.
As por ejemplo si A y B son espacios vectoriales sobre un campo K y f
es un mapeo de A en B, f sera un homomorfismo entre espacios vectoriales
si su accion es compatible con las operaciones definidas en A y B : suma
de vectores y multiplicaci
on por escalares en K, es decir, si con v, w A y
a K, entonces : f (av) = af (v) y f (v + w) = f (v) + f (w). De acuerdo a
esta definicion, una transformacion lineal es precisamente un homomorfismo
entre espacios vectoriales, es por ello que utilizabamos la designacion H( , )
para el conjunto de transformaciones lineales de un espacio en otro.
Definici
on.- Sean G y G0 dos grupos, y sea f un mapeo de G en G0 .
Decimos que f es un homomorfismo de G en G0 si para a, b G : f (ab) =
f (a)f (b). Notese que estamos denotando las operaciones en G y G0 de la
misma forma, a
un cuando no siempre se hace as. Sin embargo podemos
cubrir esos casos diciendo que f es un homomorfismo si la imagen bajo f

6.2 Homomorfismos, Isomorfismos y Representaciones

197

del resultado de la operacion (en G) de a con b, es igual al resultado de la


operacion (en G0 ) de f (a) con f (b).
Los homomorfismos entre grupos tienen la propiedad de mapear el elemento identidad (de G) en el elemento identidad (de G0 ), y de enviar al
inverso de un elemento a, en el inverso de la imagen de a, esto tambien es
valido para espacios vectoriales.
Teorema.- Si f : G G0 es un homomorfismos, entonces si e es el
elemento identidad de G, f (e) es la identidad de G0 , y f (a1 ) = [f (a)]1
para a G.
Demostracion : Por definicion si e es la identidad en G, entonces para
todo b G se cumple que : eb = be = b; aplicando f a esta igualdad, y
utilizando que f es un homomorfismo se obtiene que : f (e)f (b) = f (b)f (e) =
f (b); es decir f (e) es el elemento identidad de G0 .
Similarmente, partiendo de a1 a = aa1 = e, se obtiene que : f (a1 )f (a)
= f (a)f (a1 ) = f (e); pero puesto que f (e) es la identidad en G0 , esta
igualdad implica que f (a1 ) = [f (a)]1 .
2
Definici
on.- Dos grupos G y G0 son homomorfos si existe un homomorfismo f : G G0 .
Un grupo siempre es homomorfo al grupo {e}, siendo el homomorfismo
en cuestion el mapeo que enva cualquier elemento G en e.
Ejercicio.- Mostrar que si f : G G0 . es un homomorfismo y H es
un subgrupo de G, entonces f (H) es un subgrupo de G0 .
En general un homomorfismo no sera inyectivo, de hecho el conjunto
{a G : f (a) = e0 } (donde e0 es el elemento identidad en
0
G ) puede contener varios elementos (de G). El conjunto f 1 (e0 ) al que
llamaremos el n
ucleo de f, es de hecho un subgrupo invariante de G : veamos

f 1 (e0 )

i) e f 1 (e0 ), puesto que por el teorema anterior f (e) = e0 .


ii) Si a, b f 1 (e0 ), entonces ab f 1 (e0 ), puesto que
f (ab) = f (a)f (b) = e0 e0 = e0 .

198

6. Grupos

iii) Si a f 1 (e0 ), entonces a1 f 1 (e0 ), ya que por el teorema


anterior f (a1 ) = [f (a)]1 = (e0 )1 = e0 .
iv) Si d es cualquier elemento de G : df 1 (e0 ) = f 1 (e0 )d, debido a que
la clase lateral izquierda df 1 (e0 ) esta compuesta de aquellos elementos que
se pueden escribir como dc, donde c f 1 (e0 ), es decir, con f (c) = e0 , por
tanto f (dc) = f (d)f (c) = f (d)e0 = f (d), esto es :
df 1 (e0 ) = {a G : f (a) = f (d)}
Similarmente la clase lateral derecha f 1 (e0 )d esta compuesta por los
a G tales que a = cd, para alg
un c f 1 (e0 ), por tanto f (a) = f (cd) =
0
f (c)f (d) = e f (d) = f (d), es decir :
f 1 (e0 ) = {a G : f (a) = f (d)} = df 1 (e0 )
por lo que el subgrupo f 1 (e0 ) de G es invariante.
Ejercicio.- Mostrar que el homomorfismo f : G G0 . es inyectivo si
y solo si f 1 (e0 ) = {e} (donde e y e0 son los elementos identidad de G y G0
respectivamente).
Definici
on.- f es un isomorfismo si es un homomorfismo y si es uno a
uno.
Ejemplo.- Sea G el conjunto de n
umeros reales mayores que cero, con
la operacion de multiplicaci
on usual. G y G0 son grupos abelianos, sus elementos identidad son 1 y 0 respectivamente.
La funcion loga : G G0 , donde a es un n
umero real positivo fijo, es
un isomorfismo entre G y G0 , pues loga (bc) = loga (b) + loga (c), y ademas es
uno a uno pues posee funcion inversa (la que enva b ab ).
Definici
on.- Dos grupos son isomorfos si existe un isomorfismo entre
ellos.
Ejercicio.- Mostrar que el mapeo a : G G0 , donde a es un elemento
de G fijo, dado por a (b) = a1 ba, es un isomorfismo de G en si mismo.
Definici
on.- Un isomorfismo de un grupo en si mismo se llama automorfismo. Si el automorfismo es de la forma a para alg
un a en G, el
automorfismo es interno, de otra forma es externo.

6.3 Representaciones

6.3.

199

Representaciones

Una representaci
on de un grupo G es un homomorfismo de G en
alg
un otro grupo. Si ese homomorfismo es inyectivo, la representaci
on es fiel
o verdadera.
Una representaci
on lineal de un grupo G es un homomorfismo de G en
un grupo formado por operadores lineales en alg
un espacio vectorial.
En particular, considerando las matrices cuadradas como operadores lineales, podemos tener representaciones valuadas en matrices cuadradas o,
brevemente, representaciones matriciales.
As pues, una representacion matricial, , de un grupo G es un homomorfismo de G en alg
un conjunto de matrices que forman un grupo. Si las
matrices son n n, la representaci
on se llama de dimensionalidad n.
Siempre existe la representaci
on (1) , de dimensionalidad 1, que enva
todos los elementos de un grupo G en el n
umero (o matriz 1 1) 1. (Se
puede ver facilmente que (1) : G M1,1 (R) dado por : (1) (a) = 1 para
todo a G es in homomorfismo).
Ejemplo.- Tomemos : c2v M1,1 (R) dado por :
(E) = 1, (c2 ) = 1, () = 1, ( 0 ) = 1
Podemos ver que es una representaci
on pues : (ab) = (a)(b) como
puede verificarse explcitamente :
(c2 ) = ( 0 ) = 1 y (c2 )() = (1)(1) = 1
(c2 0 ) = () = 1 y (c2 )( 0 ) = (1)(1) = 1
( 0 ) = (c2 ) = 1 y ()( 0 ) = (1)(1) = 1
etc.
Esta representacion no es fiel pues E y c2 tienen la misma imagen, as como y 0 .
A partir de dos representaciones matriciales 1 y 2 , de dimensionalidad
n1 y n2 respectivamente, de un grupo G, podemos formar una tercera representacion de G de dimensionalidad n1 + n2 , llamada suma directa de 1
2 o bien 1 2 .
y 2 , y que se denota por 1 +
Si a es un elemento de G, 1 (a) es una matriz cuadrada de n1 n1 y
2 (a) es una matriz de n2 n2 , podemos colocar a estas dos matrices como
bloques diagonales de una matriz (n1 + n2 ) (n1 + n2 ), completando el
arreglo con ceros :

200

6. Grupos

1 (a) + 2 (a) =

0 0 ... 0
0 0 ... 0
..
.

1 (a)

0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.

2 (a)

0 0 ... 0
2 es una representaci
Necesitamos ver que efectivamente 1 +
on, es decir
2 (a)][1 (b)+
2 (b)], para ello considerareque : 1 (ab) + 2 (ab) = [1 (a)+
mos
2 (a)][1 (b)+
2 (b)] =
[1 (a)+

0 0 ... 0
0 0 ... 0
..
.

1 (a)

0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.

2 (a)

0 0 ... 0

0 0 ... 0
0 0 ... 0
..
.

1 (b)

0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.

2 (b)

0 0 ... 0

se puede ver que este producto esta dado por :

0 0 ... 0
0 0 ... 0
..
.

1 (a)1 (b)

0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.

2 (a)2 (b)

0 0 ... 0
pero puesto que 1 y 2 son representaciones
1 (a)1 (b) = 1 (ab)

2 (a)2 (b) = 2 (ab)

6.3 Representaciones

201

2 (ab); y por tanto 1 + 2 es


quedandonos finalmente la matriz 1 (ab)+
una representacion.
Por ejemplo, podemos ver que para el grupo c2v , es posible formar la
(donde (1) y son las dadas en el u
representacion (1) +
ltimo ejemplo),
que estara dada por :

1 0
1 0
(1)
(1)

(E)+(E) =
,
(c2 )+(c2 ) =
,
0 1
0 1

1 0
1 0
(1)
(1)
0
0

()+() =
,
y ( )+( ) =
0 1
0 1
es una
Puede verificarse (tal como en el ejemplo anterior), que (1) +
representacion de c2v , efectuando las multiplicaciones de estas matrices.
Nuevamente esta tercera representaci
on no es fiel.
Definici
on.- Dos representaciones matriciales de la misma dimensionalidad y 0 de un grupo G, son equivalentes si existe una matriz regular
(tij ) tal que 0 (a) = (tij )(a)(tij ) (donde (tij ) es la matriz inversa de (tij )
para todos los elementos a G.
En particular, toda representaci
on matricial es equivalente a s misma.
Cuando se tiene una representaci
on matricial, , de un grupo en la cual
(a) es una matriz formada por bloques en la diagonal, con los demas elementos iguales a cero, para toda a en el grupo, cada bloque por separado
pertenece a una representacion de menor dimensionalidad.
Es decir, si para todo a G, (a) esta dado por una matriz de la forma

0 0
.. ..
. .
0 0
0 ... 0
..
..
.
.
0 ... 0
0
...
..
.
0
0 0
.. ..
. .
0 0

0
..
.
0
0
..
.

...

0
...
...

...

0
..
.

...
...

0
0
..
.

...
0
0 ... 0
..
..
.
.
0 ... 0
0
..
.
0

202

6. Grupos

donde, en los bloques de la diagonal aparecen n


umeros diferentes de cero.
Entonces al multiplicar dos matrices de esta forma se obtiene una tercera
matriz con esta misma disposicion de bloques, donde el primer bloque en
la matriz producto es el producto de los primeros bloques de las matrices
que se multiplicaron, etc. Por tanto llamando 1 (a) al primer bloque de
la matriz (a), 2 (a), al segundo bloque, etc., podemos escribir (a) =
2 (a)+
+
k (a); (es claro que la dimensionalidad de debe ser la
1 (a)+
suma de las dimensionalidades de 1 , 2 , . . . , k .)
Si en esta descomposicion el i-esimo bloque y el j-esimo son iguales para
todas las matrices (a), es decir si i (a) = j (a) para toda a G, podemos
escribir en lugar de
2 (a)+
+
i (a)+
+
j (a)+
+
k (a)
(a) = 1 (a)+
la expresion formal :
2 (a)+
+2
i (a)+
+
k (a)
(a) = 1 (a)+
de manera que en general se tendra :

+ cl l (a)
(a) = c1 1 (a) + c2 2 (a)+

a G

donde los coeficientes ci son n


umeros naturales.
Definici
on.- Una representaci
on matricial, , de un grupo G es reducible
si se puede descomponer como suma directa de representaciones de menor
dimensionalidad, o si es equivalente (en el sentido de la definicion anterior)
a una con tal propiedad. Si una representaci
on no es reducible, se llama
irreducible.
Lema.- Toda representaci
on matricial de un grupo finito es equivalente
a una representacion por matrices unitarias.
Demostracion : Sea G un gupo finito de orden h : {a1 , a2 , . . . , ah }
y sea una representaci
on matricial de G, tomemos la matriz (bij ) =
Ph

i=1 (ai ) (ai ), la cual es autoadjunta [(bij ) = (bij )], si consideramos


a (bij ) como la representaci
on en una base ortonormal de un operador lineal, este operador sera autoadjunto, y (por lo expresado en el captulo 4)
existira otra base ortonormal en donde el operador estara representado por
una matriz diagonal (dij ).
Las matrices (bij ) y (dij ) estan relacionadas a traves de la matriz de
cambio de base (cij ) mediante : (bij ) = (cij )(dij )(
cij ) o bien

6.3 Representaciones

203

(dij ) = (
cij )(bij )(cij )
= (
cij )

h
X

(ak ) (ak )(cij )

k=1

=
=

h
X
k=1
h
X

(
cij )(ak ) (ak )(cij )
[(
cij )(ak ) (cij )][(
cij )(ak )(cij )]

k=1

definiendo 0 (ak ) = (
cij )(ak )(cij ) y por tanto
0 (ak ) = [(
cij )(ak )(cij )] = (cij ) (ak ) (
cij )
Pero, puesto que (cij ) es una matriz de cambio de base, de una base ortonormal en otra, (cij ) debe ser unitaria, por lo que (cij ) = (
c ) y (
cij ) = (cij ),
Phij
0

0
entonces (ak ) = (
cij )(ak ) (cij ). Por lo que (dij ) = k=1 (ak ) 0 (ak ).
Esta igualdad entre matrices, se puede escribir en terminos de los elementos de las matrices como :
dij =

n
h X
X

[0 (ak ) ]il [0 (ak )]lj

k=1 l=1

donde n es la dimensionalidad de y 0 , ademas


dii =

n
h X
X

[0 (ak ) ]il [0 (ak )]li

k=1 l=1

pero [0 (ak ) ]il = [0 (ak )]lj por lo que


dij

=
=

n
h X
X
k=1 l=1
h X
n
X

[0 (ak )]li [0 (ak )]li


| [0 (ak )]li |2 0

k=1 l=1

es decir, (dij ) es una matriz con elementos diferentes de cero solamente en


la diagonal principal, los cuales son reales y positivos. Por lo tanto tiene
sentido la matriz (dij )1/2 que estara dada por :

204

6. Grupos

d11

d22

0
..

dnn

You might also like