Professional Documents
Culture Documents
Jes
us Garca Ortiz
ii
Indice general
I
Espacios Vectoriales
1. Espacios Vectoriales
1.1. Definiciones . . . . . . . . . .
1.2. Espacio Vectorial . . . . . . .
1.3. Subespacios y Suma Directa .
1.4. Independencia y Dependencia
II
. . . .
. . . .
. . . .
Lineal,
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
Bases y Dimension
.
.
.
.
.
.
.
.
Aplicaciones Lineales
. . . . .
. . . . .
. . . . .
de Base
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Producto interior
3. Producto Interior
3.1. Cotensores . . . . . . .
3.2. Producto Interior . . .
3.2.1. Ortogonalidad
3.3. Espacios de Hilbert . .
3.4. Operadores . . . . . .
3
3
6
17
22
33
2. Aplicaciones Lineales
2.1. Definiciones . . . . . . . . . . . . . . .
2.2. Propiedades de las transformaciones .
2.3. Isomorfismos . . . . . . . . . . . . . .
2.4. Representacion de Vectores y Cambios
2.5. Espacio Dual y Base Dual . . . . . . .
2.6. Cambio de Base en V . . . . . . . . .
2.7. Operadores Lineales y Operador Dual
2.7.1. Producto Tensorial . . . . . . .
2.7.2. Matrices . . . . . . . . . . . . .
III
.
.
.
.
35
35
43
51
54
58
61
66
71
72
85
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
87
95
99
110
116
INDICE GENERAL
iv
IV
Teorema espectral
127
4. Teorema espectral
4.1. Ecuacion Av = v . . . . . . . . . . . . . . . . . . . .
4.1.1. Polinomio Caracterstico . . . . . . . . . . . . .
4.1.2. Matrices Similares . . . . . . . . . . . . . . . .
4.1.3. Relacion entre los Valores Propios y las Races
Caractersticas . . . . . . . . . . . . . . . . . .
4.1.4. Operadores de Proyecci
on . . . . . . . . . . . .
4.1.5. Subespacios Invariantes . . . . . . . . . . . . .
4.1.6. Descomposicion Espectral . . . . . . . . . . . .
4.1.7. Diagonalizacion de Matrices . . . . . . . . . . .
4.2. Forma Cuadratica . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Tensores
5. Tensores
5.1. k-Cotensor . . . . . . . . .
5.2. Tensores . . . . . . . . . . .
5.3. Subida y Bajada de Indices
5.4. Contraccion de Tensores . .
5.5. Tensores Alternantes . . . .
5.6. Elemento de Volumen . . .
5.7. Producto Exterior . . . . .
VI
129
. . . . 129
. . . . 129
. . . . 131
Grupos
133
134
137
139
149
151
157
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
159
159
163
171
173
175
180
181
185
6. Grupos
187
6.1. Grupo, Subgrupos y Grupo Cociente . . . . . . . . . . . . . . 187
6.2. Homomorfismos, Isomorfismos y Representaciones . . . . . . 196
6.3. Representaciones . . . . . . . . . . . . . . . . . . . . . . . . . 199
Parte I
Espacios Vectoriales
Captulo 1
Espacios Vectoriales
1.1.
Definiciones
1.Espacios Vectoriales
grupo, donde el elemento identidad es la flecha de magnitud cero y el
inverso de una flecha es una flecha de la misma magnitud y sentido
opuesto.
3. El conjunto de los n
umeros reales R, bajo la operacion usual de suma
forma un grupo, donde el elemento identidad es el cero, y el inverso
del real s es s.
= R {0} bajo la operacion usual producto de reales
4. El conjunto R
forma un grupo, donde el elemento identidad es el uno y el inverso de
es 1 .
un s R
s
5. El conjunto de operadores hermticos bajo la operacion usual suma de
operadores forma un grupo, donde el elemento identidad es el operador
cero y el inverso aditivo de todo operador hermtico A es A.
6. El conjunto de rotaciones en m
ultiplos de 2 radianes en torno de un
eje perpendicular a un cuadrado y que pasa por su centro forma un
grupo, donde el elemento identidad es una rotacion de cero radianes y
el inverso de una rotacion R es aquella rotacion R0 que al ser aplicada
a continuacion de R lleva al cuadrado a la posicion que tena cuando
se aplico R.
Definici
on.- Se dice que un grupo G es Abeliano o Conmutativo si bajo
la operacion , uv = vu para todo u, v G.
Ejemplos.- Todos los grupos se
nalados anteriormente son Abelianos.
Por ahora se
nalaremos que siempre que se hable de un grupo se debe
especificar ademas de un conjunto una operacion binaria. En el captulo 6
haremos un estudio mas amplio de este tema.
Ejercicios : Secci
on 1.1
1. Las siguientes operaciones pueden aplicarse a cualquier elemento de
R2 .
Sea (x, y) perteneciente a R2 , se definen A1 , A2 , A3 y A4 como :
i. A1 (x, y) = (x, y).
ii. A2 (x, y) = (x, y).
1.1 Definiciones
1 0
0 1
I=
, A1 =
,
0 1
1
0
A2 =
1
0
0 1
, A3 =
0 1
1 0
Definici
on.- Un Campo o Cuerpo K es un conjunto no vaco con dos
operaciones binarias + y tal que :
i. K bajo la operacion + es un grupo Abeliano.
ii. K {0} bajo la operacion es un grupo Abeliano.
iii. Para toda a, b, c K; a(b+c) = ab+ac conocida como ley distributiva
del producto respecto a la suma.
Ejemplos
1. El conjunto de los n
umeros racionales Q, bajo las operaciones usuales
de suma y producto forma un campo.
2. El conjunto de los n
umeros reales R, bajo las operaciones usuales de
suma y producto forma un campo.
1. Espacios Vectoriales
3. El conjunto de los n
umeros complejos C, bajo las operaciones usuales
de suma y producto forma un campo.
1.2.
Espacio Vectorial
(ley asociativa).
v. Para todo u V y a, b K
(a + b)u = au + bu
2a Definici
on.- Un Espacio Vectorial V es un conjunto de objetos, no
vaco, con dos operaciones y , la operacion , usualmente conocida como
suma, y la operacion , conocida como producto por un escalar.
Bajo la operacion se deben cumplir las siguientes propiedades :
(a + b)u = au + bu
otra forma de
1. Espacios Vectoriales
: (u, v) uv
: (a, v) av.
por axioma v de
(1u)(0u) = (10)u
y puesto que 10 corresponde a la suma tanto de reales como de complejos, es decir, 10 = 1 + 0 = 1, sustituyendo en la u
ltima igualdad
u(0u) = (10)u = u
la cual nos dice que 0u = 0 ya que el elemento 0 es u
nico.
2
4. Probemos ahora que a0 = 0 donde en ambos miembros 0 es el vector
cero y a K.
Demostracion : Sumemos al miembro del lado izquierdo de la igualdad
dist.
anterior el elemento au, es decir, aua0 = a(u0) = au, lo cual nos
dice que a0 = 0 ya que el elemento cero es u
nico.
.
2
Ejercicios :Secci
on 1.2.1 .- Para todo u, v V y a, b K mostrar :
i. (1)v = v.
ii. Si au = 0, entonces a = 0 o u = 0.
[iii.]Si au = av con a 6= 0, entonces u = v.
[iv.]Si au = bu con u 6= 0, entonces a = b.
v. (a)u = a(u) = (au)
vi. (uv) = (u)(v).
10
1. Espacios Vectoriales
11
Combinando las dos operaciones se ve que se cumplen las demas propiedades, concluyendose que K n es un e.v. .
3
2. El conjunto de flechas sobre un plano con origen com
un, bajo las operaciones usuales de suma (ley del paralelogramo) y multiplicaci
on por un
i
n
umero complejo z =| z | e . Es evidente que bajo la operacion suma
se cumple la ley de la cerradura y las propiedades correspondientes a
esta (trace flechas en un plano con origen com
un y aplique la ley del
paralelogramo).
La multiplicacion de una flecha por un n
umero complejo z = | z | ei
es interesante, toda vez que, al realizar esta operacion | z |, aumenta
o disminuye la magnitud de la flecha y ei rota o gira a la flecha en
un angulo con respecto a su posicion inicial, puesto que la regla
esta dada, todas las propiedades con respecto al producto se cumplen
facilmente. Por lo que el conjunto de flechas antes mencionado es un
e.v. sobre los complejos.
3
3. Los polinomios con coeficientes en K de grado menor o igual a n, con
las operaciones usuales de suma de polinomios y multiplicaci
on por
escalares, forman un e.v. sobre K.
3
4. El conjunto de soluciones de una ecuacion diferencial de la forma
y 00 + ay 0 + by = 0 con a, b C, es un e.v. complejo, bajo las operaciones usuales de suma de funciones, y producto de una funcion
por un escalar.
Es claro que el conjunto de soluciones cumple con la cerradura, ya
que si 1 y 2 son soluciones de la ecuacion, 1 + 2 tambien es
solucion, esta u
ltima afirmacion se observa al sustituir 1 + 2 en la
ecuacion y aplicar la derivaci
on correspondiente, las demas propiedades
con respecto a la suma se cumplen trivialmente.
Con respecto al producto por un escalar si s C y 1 es solucion de la
ecuacion, veremos que s1 tambien es solucion, sustituyendo s1 en
12
1. Espacios Vectoriales
la ecuacion nos da :
(s1 )00 + a(s1 )0 + b(s1 ) = s001 + as01 + bs1
= s[001 + a01 + b1 ]
= s0
= 0.
Las demas propiedades con respecto al producto son inmediatas. Por
tanto, el conjunto de soluciones de la ecuacion diferencial es un e.v.
complejo.
3
5. El conjunto V = {0} el cual consiste de un solo elemento, con la operacion usual de suma y producto de un elemento de K por cero es un e.v. .
3
6. El conjunto de elementos de R2 que representa a puntos que se encuentran sobre una recta que pasa por el origen, bajo las operaciones
usuales de suma de parejas y producto de un escalar por una pareja,
forma un e.v.
Demostracion : Sea
V = {(x, y) R2 | y = x, = cte.}
i. Observemos que se cumple la ley de la cerradura.
Sean u = (x1 , y1 ) y v = (x2 , y2 ) V, por probar que u+v V,
veamos :
u + v = (x1 , y1 ) + (x2 , y2 ) = (x1 , x1 ) + (x2 , x2 )
= (x1 + x2 , x1 + x2 ) = (x1 + x2 , (x1 + x2 )) V.
ii. Observemos que se cumple la ley conmutativa
Sean u = (x1 , y1 ) y v = (x2 , y2 ) V , por probar que u+v = v+u,
veamos :
u + v = (x1 , y1 ) + (x2 , y2 ) = (x1 , x1 ) + (x2 , x2 )
= (x1 + x2 , x1 + x2 ) = (x2 + x1 , x2 + x1 )
= (x2 , x2 ) + (x1 , x1 )
= v + u.
13
14
1. Espacios Vectoriales
iii. Observemos que para todo u = (x1 , y1 ) V y a, b K,
(a + b)u = au + bu, veamos :
(a + b)u = (a + b)(x1 , y1 )
= (a + b)(x1 , x1 )
= ((a + b)x1 , (a + b)x1 )
= (ax1 + bx1 , ax1 + bx1 )
= (ax1 , ax1 ) + (bx1 , bx1 )
= a(x1 , x1 ) + b(x1 , x1 )
= au + bu.
iv. Observemos que para todo u = (x, y) V y a, b R,
a(bu) = (ab)u, veamos :
a(bu) = a[b(x, x)] = a(bx, bx) = (abx, abx)
= (ab)(x, x)
= (ab)u.
v. Observemos que para todo u = (x, y) V y 1 R,
1u = u, veamos :
1u = 1(x, x) = (1x, 1(x)) = (x, x) = u.
3
Si bien es cierto que el conjunto de elementos de R2 que representa a puntos que estan sobre la recta y = x forma un e.v., no
todo conjunto de puntos que estan sobre una recta forma un e.v.
bajo las operaciones definidas en R2 .
Es claro que para probar que un conjunto es un e.v. se requiere
comprobar los diez axiomas de la 2a definici
on; en futuras demostraciones, solo se comprobaran aquellos axiomas que parezcan
menos evidentes.
15
En relacion a la suma.
i. Observemos que se cumple la ley de la cerradura.
Sean u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ) V , por probar que
u + v V , veamos :
u + v = (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 )
y esta es una trada que se encuentra en V , ya que
a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 )
= ax1 + ax2 + by1 + by2 + cz1 + cz2
= (ax1 + by1 + cz1 ) + (ax2 + by2 + cz2 )
= 0 + 0 = 0.
v. Sea u = (x, y, z) V, u = (x, y, z) = (x, y, z) por suma
de tradas sabemos que u es el inverso de u, por otra parte,
queremos observar si u satisface la ecuacion del plano, lo cual
es evidente.
Del producto por un escalar.
i. Observemos que para toda u = (x1 , y1 , z1 ) V y R , u V ,
veamos :
u = (x, y, z) = (x, y, z) y esta es una trada que se encuentra sobre el plano, ya que :
a(x) + b(y) + c(z) = (ax + by + cz) = 0 = 0.
La prueba de los demas axiomas se deja como ejercicio al lector.
3
Sin embargo no todos los conjuntos de R3 , que representan a puntos
sobre un plano, forman un e.v. .
8. El conjunto de funciones continuas W, definidas sobre el intervalo
[a, b] R, bajo las operaciones usuales de suma de funciones y producto de un escalar real por una funcion forma un e.v. .
16
1. Espacios Vectoriales
Demostracion : Sean F, G W y R, sabemos que :
(F + G)x = F (x) + G(x)
(F )x = (F (x))
y que
def
(aij ) = (aij ).
17
y 3z 3 = 0},
1.3.
Definici
on.- Se dice que M es un Subespacio de V , si M es un
subconjunto de V , el cual es en s mismo un subespacio vectorial, bajo las
mismas operaciones de V y bajo el mismo campo.
18
1. Espacios Vectoriales
Lema.- Un subconjunto M de V es un Subespacio de V si :
i. u M y a K au M
ii. u, v M, uv M .
Veamos a continuaci
on que estas dos propiedades son suficientes para ver
que M es un e.v. .
La ley de la cerradura se cumple de ii).
Las leyes conmutativa y asociativa se cumplen por ser los elementos de
M elementos de V .
La existencia del elemento identico o cero bajo la suma se cumple de i).
La existencia del inverso aditivo se cumple de i).
Las propiedades correspondientes al producto por un escalar se cumplen
trivialmente de la definicion de las operaciones.
Una forma alternativa para ver que un subconjunto M de V es un subespacio de V , consiste en probar que u, v M y a1 , a2 K una combinacion lineal de u, v esta en M, es decir (a1 u + a2 v) M .
Ejercicios : Secci
on 1.3.1.- Probar que los siguientes conjuntos son
subespacios de R3 .
1. M1 = {(a, b, c) R3 : c = 0}
2. M2 = {(a, b, c) R3 : b = 0}
3. M3 = {(a, b, c) R3 : a = 0}
4. L1 = {(a, b, c) R3 : a = b = 0}
5. L2 = {(a, b, c) R3 : a = c = 0}
6. L3 = {(a, b, c) R3 : b = c = 0}
7. N = {(a, b, c) R3 : a = b = 2c}
Toda vez que se puede probar facilmente que los subconjuntos anteriores
son subespacios de R3 , daremos algunas definiciones de conjuntos de V ,
aparentemente mas complicados, y veremos que son subespacios de V .
Sean M y N dos subespacios vectoriales de V
M + N = {v V : v = v1 + v2 , v1 M y v2 N }
19
M N = {v V : v M y v N }
Demostraremos que M + N y M N son subespacios de V .
Demostracion : Para M + N
Sean w, u M + N, lo cual implica que w = w1 + w2 con w1 M y
w2 N ; u = u1 + u2 con u1 M y u2 N ; y sean a1 , a2 K
a1 w + a2 u = a1 (w1 + w2 ) + a2 (u1 + u2 )
= a1 w1 + a1 w2 + a2 u1 + a2 u2
= (a1 w1 + a2 u1 ) + (a1 w2 + a2 u2 ) M + N
ya que :
a1 w1 + a2 u1 M
a1 w2 + a2 u2 N
a b
6. S6 = (aij ) M22 : (aij ) =
b a
20
1. Espacios Vectoriales
7. S7 =
x
0
(aij ) M22 : (aij ) =
0 x+2
Rb
14. S14 = {f C[a, b] : a f (x)dx = 2}
15. Hallar las sumas e intersecciones de los subespacios L1 , L2 , L3 , M1 ,
M2 , M3 y N , antes se
nalados.
16. Sean N1 y N2 subconjuntos de M22 tales que :
N1 = {(aij ) M22 : a12 = 0}
a b
b a
Mostrar :
i. N1 y N2 son subespacios de M22 .
ii. N1 + N2 es un subespacio de M22 .
iii. N1 N2 es un subespacio de M22 .
Debido a que R3 = M1 + M2 , cualquier vector w R3 se puede poner
como la suma de un vector en M1 y otro en M2 pero de muchas formas
diferentes, por ejemplo :
1
1
a, b, 0 +
a, 0, c
(a, b, c) = (0, b, 0) + (a, 0, c) =
2
2
= (a + d, b, 0) + (d, 0, c). con d R arbitrario.
Si M y N son subespacios de V, entonces 0 M y 0 N, por lo que
siempre 0 M N.
21
u2 v2 = 0 u2 = v2
w = w1 + + wn con wi Mi
vi = wi
w = v1 + + vn con vi Mi
en otras palabras M1 + M2 + + Mn = ni=1 Mi Mi Mj = {0}, sin
embargo la recproca no se cumple ya que
si (x, y, z) M1 + L1 + N y M1 L1 N = {0}, con M1 , L1 yN subespacios
(ver pag. 14 y 15)
(x, y, z) = (x 2z + 2, y 2z + 2, 0) + (0, 0, ) + (2z 2, 2z 2, z )
exprecion que es cierta para todo valor de ,por lo que (x, y, z) no tiene de
descomposicion u
nica.
22
1. Espacios Vectoriales
1.4.
ai = bi
23
1. Mostrar que los vectores (5, 0, 0), (0, 1, 0) y (0, 0, 12 ) son L.I. .
Solucion :
1
(0, 0, 0) = a1 (5, 0, 0) + a2 (0, 1, 0) + a3 (0, 0, )
2
a3
= (5a1 , 0, 0) + (0, a2 , 0) + (0, 0, )
2
a3
= (5a1 , a2 , )
2
a1 = 0
5a1 = 0
a2 = 0
a2 = 0
a3
=
0
a3 = 0
2
3
2. Mostrar que si {x, y, z} son vectores de V , L.I. entonces { x + y, y z,
2x z } son L.I.
Solucion :
0 = a1 (x + y) + a2 (y z) + a3 (2x z)
= a1 x + a1 y + a2 y a2 z + 2a3 x a3 z
= (a1 + 2a3 )x + (a1 + a2 )y (a2 + a3 )z
puesto que por hipotesis {x, y, z} son L.I.
a1 + 2a3 = 0
a1 + a2 = 0
a2 + a3 = 0
a1 = a2 = a3 = 0
3
24
1. Espacios Vectoriales
a1 a3 = 0
a1 a2 = 0
a3 = a1
a2 = a1
por lo que
0 = a1 (x + y) a1 y a1 x para toda ai K
de donde concluimos que { x + y, y, x } son L.D. .
3
Ejercicio.- Mostrar que si { 1, x, x2 } son tres vectores de V , L.I., entonces el conjunto de polinomios { 1 + x, x2 1, 1 + x + x2 }, con coeficientes
complejos, de grado menor o igual a dos son L.I. .
Como consecuencia de la definicion de vectores L.I., tenemos el siguiente
resultado :
Lema.- Si {u1 , u2 , . . . , uk } V son L.I. y uk+1 V pero
uk+1 6 Lu1 + Lu2 + + Luk {u1 , u2 , . . . , uk , uk+1 } es L.I. .
Demostracion : Supongamos por contradicci
on que {u1 , u2 , . . . , uk+1 }
es L.D., desde luego que si esta propuesta nos lleva a alguna contradicci
on,
la propuesta correcta es la contraria.
Construyamos el 0 como combinaci
on lineal del u
ltimo conjunto
0 = a1 u1 + a2 u2 + + ak uk + buk+1 , de aqu observamos que b no puede ser
cero, de serlo tendramos que 0 = a1 u1 + a2 u2 + + ak uk ai = 0, con
i = 1, . . . , k ya que por hipotesis {ui }ki=1 son L.I. y por tanto el conjunto {u1 ,
u2 , . . . , uk+1 } sera L.I., contrario a lo supuesto. Por otra parte, si b 6= 0,
tendramos que uk+1 = 1b (a1 u1 + + ak uk )
25
26
1. Espacios Vectoriales
27
28
1. Espacios Vectoriales
1 2
M22 en terminos de
3 4
2 0
2 2
2 2
2 2
,
,
,
0 0
0 0
2 0
2 2
5. Poner 1 2x + x2 P2 en terminos de {1, 1 + x, 2 + x2 }
6. Poner (a1 , a2 , . . . , an ) Rn en terminos de
{e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) }
|
| {z }
| {z }
{z
}
n
29
a 0
a a
a a
a a
,
,
,
M22
13. Sea T3 =
0 0
0 0
a 0
a a
14. Sea T4 =
a 0
0 0
a a
a a
,
,
M22
0 0
a 0
1 1
1 0
1 0
22. Sea
,
,
M22
1 1
1 1
0 1
1 2
2
3
2 4
1 1
23. Sea
,
,
,
M22
1 3
2 5
2 6
1 1
30
1. Espacios Vectoriales
24. Sea
25. Sea
1 0
0 0
0
3
1 1
1 1
1 1
,
,
M22
,
1 0
1 1
0 0
1
1
0
2
2
,
M22
0
0 3
26. Sea { 5, 1 + x, x2 } P2 .
27. Sea { 1 + x, 1 + x2 , 3x2 } P2 .
28. Sea { x, 2x2 , 3x3 } P3 .
29. Sea { 2, 2 + x, 3 x2 + 2x, x3 x2 + x + 1 } P3 .
30. Sea { sen x, cos x } de las funciones continuas en el intervalo [a, b].
31. Sea { sen x, sen 2x } de las funciones continuas en el intervalo [a, b].
31
i. Linealmente Independientes.
ii. Linealmente Dependientes.
38. Mostrar que tres polinomios arbitrarios de P3 no pueden generar P3 .
39. Mostrar que cinco polinomios arbitrarios de P3 son L.I. .
40. Mostrar que si {v1 , v2 , . . . , vn } es L.I., entonces si r < n el conjunto
{v1 , v2 , . . . , vr } es L.I. .
41. Mostrar que si { v1 , v2 , v3 } es L.I., entonces el conjunto { v1 + v2 , v1 +
v3 , v2 + v3 } es L.I. .
42. Hallar un tercer polinomio que forme con { 1 x2 , 1 + x } un conjunto
L.I. .
43. Sea el espacio vectorial C 2 sobre C. Demuestre :
a) (1 + i, 2i)
b) (1, i)
32
1. Espacios Vectoriales
b) Halle una base de V tal que las coordenadas de f con relacion a
esta base sean f (0), f (1), f (2), f (3).
c) Halle una base de V tal que las coordenadas de f con relacion a
esta base sean f (2), f (1), f (1), f (2).
Parte II
Aplicaciones Lineales
33
Captulo 2
Aplicaciones Lineales
2.1.
Definiciones
Definici
on.- Una Aplicaci
on Lineal o Transformaci
on Lineal A es
una regla o mapeo entre dos espacios vectoriales V, W (definidos sobre el
mismo campo), la cual cumple con dos propiedades :
i) Para toda v1 , v2 V
ii) Para toda v V y a K
1. (A1 + A2 )v = A1 v + A2 v
2. (aA1 )v = a[A1 (v)]
35
36
2.Aplicaciones Lineales
2.1 Definiciones
37
21 (v1 ) = 0 ,
21 (v2 ) = w1
..
.
11 (vn ) = 0
21 (vn ) = 0
12 (v1 ) = w2 ,
12 (v2 ) = 0
..
.
22 (v1 ) = 0 ,
22 (v2 ) = w2
..
.
12 (vn ) = 0
22 (vn ) = 0
...,
n1 (v1 ) = 0 .
n1 (v2 ) = 0 .
..
.
n1 (vn ) = w1 .
...,
n2 (v1 ) = 0 .
n2 (v2 ) = 0 .
..
.
n2 (vn ) = w2 .
..
.
1r (v1 ) = wr ,
1r (v2 ) = 0
..
.
2r (v1 ) = 0 ,
2r (v2 ) = wr
..
.
1r (vn ) = 0
2r (vn ) = 0
...,
nr (v1 ) = 0 .
nr (v2 ) = 0 .
..
.
nr (vn ) = wr .
38
2.Aplicaciones Lineales
0
si j 6= k con j = 1, . . . , n
ji vk =
= wi kj
wi si j = k con i = 1, . . . , r
Veamos que tales transformaciones forman una base, para lo cual necesitamos probar :
i) Estan,
ii) generan y
ii) son L.I.
Demostracion : i)
r X
n
X
i=1 j=1
n
r
XX
aij ji vk =
i=1 j=1
aij ji ] vk =
r
X
i=1
aik wi
r X
n
X
(aij ji )vk
i=1 j=1
n
r
XX
aij wi kj
i=1 j=1
2.1 Definiciones
39
m X
r
X
cji ij )vk =
i=1 j=1
r
X
cjk wj
m X
r
m X
r
X
X
(cji ij )vk =
cji wj ki
i=1 j=1
i=1 j=1
cjk = 0
j=1
Ejercicios : Secci
on 2.1 .En los ejercicios siguientes determine si la transformacion que nos indican
es o no una transformacion lineal.
1. Sea A : C M22 (R) definida por
A(a + ib) =
a b
b a
40
2.Aplicaciones Lineales
c R.
cos 0 sen
1
0
(Rij ) = 0
sen 0 cos
7. Sea A : P4 P3 dado por
A(a0 x4 + a1 x3 + a2 x2 + a3 x + a4 ) = 4a0 x3 + 3a1 x2 + 2a2 x + a3
8. Sea A : Pn Rn+1 dado por
A[a0 xn + a1 xn1 + + an ] = (a0 , a1 , . . . , an )
9. Sea A : R3 P2 dado por
A(a0 , a1 , a2 ) = a0 x2 + a1 x + a2
10. Sea A : C[0, 1] C[0, 1] dada por
A[f (x)] = f (x) + 1
2.1 Definiciones
41
A[f (x)] =
f (x)dx
0
n
X
aii
i=1
x
x
0
iii.- T
=
y
0 y
x
x
0
iv.- T
=
y
0 y
x
cos sen 0
x
cos 0 y
v.- T y = sen
z
0
0 1
z
x
1
0
0
x
vi.- T y = 0 cos sen y
z
0 sen
cos
z
42
2.Aplicaciones Lineales
x
1 0 0
x
vii.- T y = 0 1 0 y
z
0 0 1
z
x
1
0 0
x
y
0 1 0
y
viii.- T
=
z
0
0 1
z
x
1
0 0
x
ix.- T y = 0 1 0 y
z
0
0 1
z
x
1
0
0
x
0 y
x.- T y = 0 1
z
0
0 1
z
En los siguientes ejercicios determine la forma de la transformacion
lineal.
17. i.- Sea T : R2 R3 tal que :
1
0
1
= 2
3
0
1
1
= 4
6
ii.- Sea T : R2 R2 tal que : T [(1, 0)] = (1, 1) y T [(0, 1)] = (1, 1)
iii.- Hallar una transformacion lineal de M22 M33 .
iv.- Hallar una transformacion lineal de M33 M22 .
18. Sean {vi }ni=1 y {wj }rj=1 bases de V y W respectivamente y A : V en
W una aplicacion lineal.
i.- Es cierto que si r < n, el conjunto de vectores {A(vi )}ni=1 es
L.I. ?
ii.- Es cierto que si r > n, el conjunto de vectores {A(vi )}ni=1 es
L.D. ?
iii.- Si r = n, c
omo es el conjunto de vectores {A(vi )}ni=1 ?
19. Sean A1 , A2 , A3 aplicaciones lineales de V en W, mostrar que
A1 + A2 + A3 es una aplicacion lineal de V en W .
20. Completar la prueba de que el conjunto de aplicaciones lineales de V
en W forma un espacio vectorial.
2.2 Imagen - N
ucleo - Propiedades de las transformaciones
43
2.2.
Sean V y W dos e.v. y {w1 , . . . , ws } un conjunto arbitrario de vectores de W y {v1 , . . . , vs } un conjunto de vectores L.I. en V , en estas condiciones siempre es posible encontrar o definir una A Hom(V, W ) tal que
{A(v1 ) = w1 , A(v2 ) = w2 , . . . , A(vs ) = ws }, observese que es necesario que
{v1 , . . . , vs } sea L.I., de no ser as, el conjunto {w1 , . . . , ws } deja de ser arbitrario, veamos, supongamos que {v1 , . . . , vs } son L.D, entonces vk se puede
poner como una combinacion lineal de los demas, i.e.
vk = a1 v1 + a2 v2 + + ak1 vk1 + ak+1 vk+1 + + as vs
por lo que
A(vk ) = wk = A[a1 v1 + + ak1 vk1 + ak+1 vk+1 + + as vs ]
= a1 A(v1 ) + + ak1 A(vk1 ) + ak+1 A(vk+1 ) + + as A(vs )
= a1 w1 + + ak1 wk1 + ak+1 wk+1 + + as ws ,
lo cual implica que wk ya no es un vector arbitrario, sino que depende del
resto de las ws .
Ejercicio.- Sea A Hom(V, W ) y {vi }ri=1 una base de V y {wj }sj=1 una
base de W, si r > s, entonces, el conjunto de vectores {A(v1 ), . . . , A(vr )}
es L.D. .
Teorema.- Si A Hom(V, W ) y U un subespacio de V , entonces
A(U ) = {w W | w = A(u), u U } es un subespacio de W.
Demostracion : Sean w1 y w2 A(U ) y a1 y a2 K, hagamos una
combinacion lineal de w1 y w2 y determinemos donde se encuentra.
44
2. Aplicaciones Lineales
2.2 Imagen - N
ucleo - Propiedades de las transformaciones
45
Definici
on.- A Hom(V, W ) es inyectiva si y solo si para cualquier par
de vectores de V , digamos v1 , v2 ,el que A(v1 ) = A(v2 ) significa que v1 = v2 ,
esta definicion tambien nos dice que todo elemento de V bajo A, con A
inyectiva, tiene imagen u
nica.
Definici
on.- A Hom(V, W ) es biyectiva o uno a uno si y solo si A es
inyectiva y sobreyectiva. Definicion que tambien nos dice que todo elemento
de W , proviene con A biyectiva de uno y solo un elemento de V bajo A.
Algunos teoremas que se desprenden de las definiciones anteriores :
Teorema.- Si A Hom(V, W ) es sobreyectiva y {vi }ni=1 es una base de
V , entonces {A(vi )}ni=1 generan W .
Demostracion : Puesto que A es sobreyectiva entonces Im(A) =
A(v) = W , ademas sabemos que cualquier elemento de W , proviene al menos
de un elemento de V bajo A, por lo que para toda w W,
w = A(v) = A(a1 v1 + + an vn ) = a1 A(v1 ) + + an A(vn )
entonces {A(v1 ), A(v2 ), , A(vn )} genera W .
2
Teorema.- A Hom(V, W ) es inyectiva si y solo si Ker(A) = {0}.
Demostracion : Supongamos que A es inyectiva, esto significa que todo
elemento de la imagen de V bajo A, proviene de uno y solo un elemento de
V tal que A(v) = 0 mplica v = 0 por lo que Ker(A) = {0}. Si Ker(A) =
{0}, entonces para todo v1 , v2 V tal que A(v1 ) = A(v2 ), significando
que A(v1 ) A(v2 ) = 0 = A(v1 v2 ), puesto que Ker(A) = {0} entonces
v1 v2 = 0 por lo que A es inyectiva.
2
Teorema.- Si A Hom(V, W ) es inyectiva y {vi }ni=1 es base de V ,
entonces {A(vi )}ni=1 son L.I. .
Demostracion : Puesto que A es inyectiva, significa que dos elementos diferentes de la base V , bajo A tienen imagenes diferentes, ya que de
tener la misma imagen significara por definicion de inyectividad, hablar de
46
2. Aplicaciones Lineales
A es sobreyectiva
Demostracion : Ya que A es biyectiva, entonces
A es inyectiva
Por ser sobreyectiva, entonces {A(vi )}ni=1 genera W (ver el teorema anterior).
Por ser inyectiva, entonces {A(vi )}ni=1 es L.I. (ver el teorema anterior).
Puesto que {A(vi )}ni=1 est
a genera W y ademas es L.I. , entonces
{A(vi )}ni=1 es una base de W (recordar definicion de base).
2
Como un corolario de estos resultados, tenemos que
Corolario.- Si A Hom(V, W ) con A biyectiva, A nos enva bases de
V en bases de W . i.e. si {vi }ni=1 es una base de V , {A(vi )}ni=1 es una base
de W .
Sea A Hom(V, W ) biyectiva y {vi }ni=1 ,una base de V por lo que
{A(vi )}ni=1 es una base de W . En estas condiciones siempre podemos definir
una aplicacion B de W en V definida como B[A(v1 )] = v1 ,B[A(v2 )] = v2 ,
. . . ,B[A(vn)] = vn
Antes de continuar definiremos la composicion de aplicaciones lineales:
Definici
on.-Si A Hom[V, W ] y F Hom[W, U ] se define la composicion
o producto de aplicaciones como:
(F A)v = F [A(v)] = (F A)v
2.2 Imagen - N
ucleo - Propiedades de las transformaciones
47
48
2. Aplicaciones Lineales
sabemos que
A(v) = A[a1 v1 + a2 v2 + + ar vr + + ar+s vr+s ]
= [a1 A(v1 ) + a2 A(v2 ) + + ar A(vr )
+ar+1 A(vr+1 ) + + ar+s A(vr+s )] Im(A).
A(v) = ar+1 A(vr+1 ) + + ar+s A(vr+s )
implicando que
{A(vr+1 ), , A(vr+s )} genera Im(A).
Veamos si este conjunto es L.I.
b1 A(vr+1 ) + b2 A(vr+2 ) + + bs A(vr+s ) = 0
por linealidad tendremos :
A[b1 vr+1 + b2 vr+2 + + bs vr+s ] = 0
infiriendo que
b1 vr+1 + b2 vr+2 + + bs vr+s Ker(A)
lo cual es una contradicci
on, toda vez que los elementos del Ker de A, son
una combinacion lineal de {v1 , . . . , vr }, ahora bien, para que no exista esta
es necesario que
b1 vr+1 + b2 vr+2 + + bs vr+s = 0
y puesto que por construccion {vr+1 , . . . , vr+s } son L.I. tendremos que {bi =
0}ni=1 , implicando que el conjunto {A(vr+k )}sk=1 es una base de Im(A).
Puesto que D(V ) = r + s, D(Ker(A)) = r y D(Im(A)) = s tendremos
que D(V ) = D(Ker(A)) + D(Im(A))
2
Definici
on.- D(Ker(A)) = nulidad de A y D(Im(A)) = rango de A.
2.2 Imagen - N
ucleo - Propiedades de las transformaciones
49
Ejercicios : Secci
on 2.2 .1. Las siguientes aplicaciones T1 , T2 , T3 , T4 , T5 pertenecen a Hom(R2 )
T1 [(a, b)] = (ca, cb),
c R.
(aplicaci
on identidad)
i, j = 1, 2.
50
2. Aplicaciones Lineales
2.3 Isomorfismos
2.3.
51
Isomorfismos
Definici
on.- Si A Hom(V, W ) es biyectiva, se llama Isomorfismo.
Definici
on.- V, W son Isomorfos
si existe A Hom(V, W ) que sea isomorfismo,
si y solo si existe A1 Hom(W, V ) biyectiva,
si y solo si existe A Hom(V, W ) regular.
En cierta forma el que dos espacios vectoriales sean isomorfos significa
que son equivalentes, solo difieren por aquellos objetos que los forman, esta
es la razon por la cual se busca siempre un e.v. canonico. Esto es, si V es de
dimension n, este es equivalente o isomorfo al e.v. Rn , por lo que, mas que
trabajar con los elementos mismos de V , trabajamos con las eneadas.
Teorema.- Sean V y W dos e.v. sobre el mismo campo; V, W son isomorfos si y solo si D(V ) = D(W )
Demostracion : Si V, W son isomorfos, esto significa que existe un
isomorfismo A Hom(V, W ), el cual envia bases de V en bases de W , por
lo que D(V ) = D(W ).
Recprocamente :
Sean V y W dos e.v. definidos sobre el mismo campo, tales
D(V ) = D(W ) y sean {vi }ni=1 y {wj }nj=1 bases de V y W respectivamente,
por lo que siempre es posible establecer A Hom(V, W ) dada por A(vi ) =
wi con i = 1, . . . , n, veamos que A definido as es un isomorfismo.
Probemos que A es inyectiva, i.e. que Ker(A) = {0}, sea v Ker(A)
por lo que A(v) = 0, ya que v = a1 v1 + + an vn tendremos que
A(v) = A(a1 v1 + + an vn ) = a1 A(v1 ) + + an A(vn )
= a1 w1 + + an wn = 0
por lo que a1 = a2 = = an = 0 entonces v = 0, lo que implica que
Ker(A) = {0}.
Probemos ahora que A sobreyectiva, esto es que Im(A) = W , esto es
que cualquier elemento de W proviene al menos de un elemento de V bajo
A.
Sea w W, por lo que
w = b1 w1 + b2 w2 + + bn wn = b1 A(v1 ) + + bn A(vn )
= A(b1 v1 + + bn vn )
52
2. Aplicaciones Lineales
2.3 Isomorfismos
53
54
2. Aplicaciones Lineales
2.4.
Representaci
on de Vectores y Cambios de Base
una doble suma, en esta notacion nuestro vector v V del ejemplo anterior
se puede poner como v = {c1 e1 + c2 e2 + + cn en } = cr er donde las
componentes de v en lugar de llevar el ndice abajo lo llevan arriba.
Sean {ei }ni=1 y {e0j }m
j=1 bases de V y W respectivamente y
A Hom(V, W ) por lo que,
A(e1 ) = w1 = w1r e0r
A(e2 ) = w2 = w2r e0r
..
.
v i Aji = wj ,
55
dlk ckr =
0 si l 6= r
1 si l = 1
0 si i 6= j
i
j =
por lo que
dlk ckr = rl
1 si i = j
Ejercicio .- Escriba todos los terminos de la matriz (rl ). Aprovechando
la respuesta de este problema y poniendo dlk ckr = rl en forma matricial, i.e.
(dlr )(clr ) = (rl ), observemos que (dlr ) corresponde a la matriz inversa de (clr )
y recprocamente.
Como corolario observemos que la matriz (cij ) de cambio de base, que
nos conecta la base con barra con la que no tiene barra, tiene determinante
diferente de cero.
Recprocamente, si (cij ) es una matriz cuadrada de orden n n cuyo
determinante es diferente de cero y {
ei }ni=1 es una base de V, el conjunto
j
{ei }ni=1 en donde ei = ci ej es una base de V, veamos que esto es cierto,
formemos el cero, ai ei = 0 = ai cji ej , entonces ai cji = 0, y ya que det(cij ) 6= 0,
entonces ai = 0, y en consecuencia {ei }ni=1 son L.I.
Ademas puesto que {ei }ni=1 son L.I., estos generan un subespacio de V
de dimension n, razon por la cual {e1 , . . . , en } es una base de V .
Hemos obtenido que :
Teorema .- Dada una base {
ei }ni=1 , el conjunto {ei }ni=1 , formado mej
diante ei = ci ej es una base si y solo si det(cij ) 6= 0.
Demostracion: Se haba encontrado que dadas dos bases {ei }ni=1 y
de V y W respectivamente, una transformacion lineal esta representada por una matriz (aij ), tal que A(ei ) = Aji ej podemos investigar como se
{
ej }m
j=1
56
2. Aplicaciones Lineales
A(ei ) = Aji ej
(1)
(2)
la nueva representaci
on de A en terminos de la anterior, la cual depende de
la matriz de cambio de base realizado en V y W .
Si un vector esta representado en terminos de una base {e1 , . . . , en } por
n escalares {v 1 , . . . , v n } (esto es v = v i ei ), al hacer un cambio de base,
0
mediante ei = cji e0j , el vector v puede expresarse como v = v j e0 j , entonces
0
v = v i e0i = v j ej = v j ckj e0k , lo cual implica por independencia lineal que
0
v i = cij v j .
2
Observese que mientras ei = cji e0j , v i = cij v j esto es que la matriz
(cij ), que nos transforma o cambia de la base primada a la no primada,
tambien nos transforma o cambia las componentes de la base no primada a
las componentes de la base primada, cuando esto sucede se dice que la matriz
de transformacion actua en forma contraria, podemos decir en nuestro caso
0
57
58
2. Aplicaciones Lineales
ii.- La matriz de transformacion de cambio de base en W , de la primada en terminos de la no primada.
iii.- La representaci
on de A en terminos de las bases no primadas,
i.e. en terminos de I1 e I3 .
iv.- La representaci
on de A en terminos de las bases primadas.
v.- Encontrar la relacion entre ambas representaciones.
2.5.
59
{ r }r=1
que esta
n
si k (es ) = sk .
que v = j (v)(ej )
Ejemplo :
Sea {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} una base de R3 y sean
{1 , 2 , 3 } su base dual en [R3 ] por lo que :
60
2. Aplicaciones Lineales
1 (e1 ) = 2 (e2 ) = 3 (e3 ) = 1
1 (e2 ) = 1 (e3 ) = 2 (e1 ) = 2 (e3 ) = 3 (e1 ) = 3 (e2 ) = 0
3 (a, b, c) = c
61
Cambio de Base en V
2.6.
j k
j m k
m
j (e0i ) = ij = (Fkj k ) (dm
i em ) = Fk [ (di em )] = Fk di em
j k
j
k
= Fkj dm
i m = Fk di = i
62
2. Aplicaciones Lineales
e0k = dm
k em
k = Frk r
s = dsr r
e0k = cm
k em
k = ckr r
s = csr r
(aij )
1
1
1 1
v 2 = w1 w2
63
v1
v2
1
1
1 1
w1
w2
q.e.d.
Podemos tambien expresar la base no primada en terminos de la primada, esto es, ei = dji e0j ,
e1 = d11 e01 + d21 e02
d21 (1, 1) ,
1 = d11 + d21
0 = d11 d21
1 = d12 + d22
0 = d12 d22
(1, 0) =
d11 (1, 1)
d11 = 12 , d21 =
1
2
en forma similar
e2 = d12 e01 + d22 e02
d12 = 12 , d22 = 12
por lo que
(dij )
1
2
1
2
1
2
12
Sean {1 , 2 } y { 1 , 2 } las bases duales de {e1 , e2 } y {e01 , e02 } respectivamente por lo que
1 (a, b) = a,
2 (a, b) = b
ab
a+b
a+b
(1, 1) +
(1, 1)] =
2
2
2
a+b
ab
ab
0
0
2 (a, b) = 2 [
(1, 1) +
(1, 1)] =
2
2
2
1
2
1
2
(a, b) + (a, b)
0
1 (a, b) =
=[
+
](a, b)
2
2
2
0
1 (a, b) = 1 [
2 (a, b) =
1 (a, b) 2 (a, b)
1 2
=[
](a, b)
2
2
2
0
1
0
2
1
2
1
2
1
2
21
1
2
64
2. Aplicaciones Lineales
Otra manera de hacerlo sera.
Sean: {e1 = (1, 0), e2 = (0, 1)} y {e01 = (1, 1), e02 = (1, 1) } bases de R2
por lo que
e01 = dj1 ej = d11 (1, 0) + d21 (0, 1) = (1, 1)
(d11 , d21 ) = (1, 1)
d11 = 1, d21 = 1
d12 = 1, d22 = 1
En forma similar
e1 = cj1 e0j = c11 (1, 1) + c21 (1, 1) = (1, 0)
1 1
c11 + c21 = 1
c1 = 2
c11 c21 = 0
c21 = 12
e2 = cj2 e0j = c12 (1, 1) + c22 (1, 1) = (1, 0)
1
1
c12 + c22 = 0
c2 =
2
c12 c22 = 1
c22 = 12
1
1
2
2
(cij ) =
1
1
2 2
Ahora observemos que es lo que sucede con la matriz de cambio de base
en el espacio dual.
j = Fkj k sabemos que
0
F11 = ,
F21 =
2
2
0
F12 = ,
F22 =
2
2
por lo que
65
(Fji ) =
1
2
1
2
1
2
12
Ejercicios : Secci
on 2.6 .1. Encontrar una base para el anulador de {(1, 1, 1), (1, 2, 3)} R3 .
2. Encontrar una base para el anulador de {1, 2, 3, 4} R4 .
3. Sea P1 el conjunto de polinomios de grado menor o igual a uno y sean
1 , 2 P1 tal que :
Z 1
1
[g(t)] =
g(t)dt
0
Z
2 [g(t)] =
g(t)dt
0
66
2. Aplicaciones Lineales
2.7.
AB Hom(V ).
A, B, C Hom(V ).
67
Definici
on.- Sea A Hom(V ), A es un operador escalar si A = aE
para alg
un a K.
Definici
on.- Un operador A Hom(V ), es Regular si existe A1
Hom(V ), tal que AA1 = A1 A = E. Si A no es regular, se llama Singular.
Se haba visto que si
A Hom(V, W ), D(V ) = D(Ker(A)) + D(Im(A)),
en este caso, si A Hom(V ), tanto Ker(A) como Im(A) son subespacios
de V.
Si A es biyectiva, es inyectiva por lo que Ker(A) = {0} o nulidad de
A = D(Ker(A)) = 0 y ademas A es sobreyectiva, o sea Im(A) = V o rango
de A = D(Im(A)) = D(V ).
Teorema.- A Hom(V ) es regular si se cumple alguna de las siguientes
proposiciones :
i.) A Hom(V ) es inyectiva o nulidad de A = 0
ii.) A Hom(V ) es subyectiva o rango de A = D(V )
Demostracion : Si A es inyectiva ello equivale a que nulidad de A = 0 y
de la identidad
nulidad de A + rango de A = D(V )
se sigue que rango de A = D(V ), puesto que Im(A) es un subespacio de V,
cuya dimension es igual a D(V ), se sigue que Im(A) = V o sea que A es
suryectiva, por lo que A es biyectiva o regular.
Similarmente si A es suryectiva, Im(A) = V, por lo que D(Ker(A)) =
D(V )D(Im(A)) = 0, o sea Ker(A) = {0} lo que implica que A es inyectiva
y en consecuencia biyectiva o regular.
2
Definici
on.- Si A Hom(V ) es regular se le llama automorfismo, por
lo que un automorfismo es un isomorfismo de un e.v. sobre s mismo.
En secciones anteriores se vio que si A Hom(V, W ) es biyectiva y
{ei }ni=1 es una base de V, entonces {A(ei )}ni=1 es una base de W, en forma similar si A Hom(V ), regular y {ei }ni=1 es una base de V, entonces
68
2. Aplicaciones Lineales
A (a1 1 + a2 2 ) = (a1 1 + a2 2 ) A
por ser esta composicion una funcional, actua sobre elementos de V , por lo
que, su accion sobre v V
[A (a1 1 + a2 2 )]v = [(a1 1 + a2 2 ) A]v = (a1 1 + a2 2 )[A(v)]
= a1 1 [A(v)] + a2 2 [A(v)]
= a1 (1 A)v + a2 (2 A)v
= [a1 (1 A) + a2 (2 A)]v
entonces
69
A (a1 1 + a2 2 ) = a1 A 1 + a2 A 2 )
y por tanto A Hom(V ).
2
Definici
on.- Sea A Hom(V ), definimos el operador dual, adjunto o
conjugado de A, A mediante A = A, es decir, para toda v
V, (A )v = ( A)v, en notacion de parentesis rectangulares tendremos
< A , v >=< , Av > . Sea (e1 , e2 , . . . , en ) una base de V y A Hom(V ).
Sabemos que una representacion de A est
a dada por n2 escalares de la forma
j
on de
aij y estos provienen de A(ei ) = ai ej , en forma similar la representaci
j k
j
A proviene de n escalares a j los cuales provienen de A = a k ,
siendo {i }i=1
la base dual en V de {ej }nj=1 .
n
Veamos como estan relacionados aij y a ij .
Puesto que
[A j ]ek = (j A)ek = j [Aek ] = j ask es = ask j es = ask sj = ajk
y por otra parte [A j ]ek = (a jr r )ek = a jr kr = a jk , observamos en
principio que ajk = a jk , existiendo una ligera diferencia, la cual proviene del
hecho que al actuar A sobre las e, actua sobre ndices inferiores, contrario
a la accion de A sobre las , qued
andonos finalmente a jk = akj .
Esta u
ltima afirmacion puede verse facilmente, veamos
Aei = aji ej
A k = a km m
A 1 = a 11 1 + + a 1n n
..
.
A ... =
n
A n = a n1 1 + + a nn n
Ae1 = a11 e1 + + an1 en
..
.
Aen = a1n e1 + + ann en
a 11
..
.
a 1n
a n1
a nn
1
e1
a1
..
..
A . = .
en
an1
1
..
.
n
e1
..
.
n
an
en
a1n
70
2. Aplicaciones Lineales
2
3
por tanto
(aij )
3
2
3
2
3
3
3
2
2
3
2
3
en forma similar
(A k )e2 = (a kr r )e2 = (a k1 1 + a k2 2 )e2 = a k2
= (k A)e2 = k [A(e2 )] = k (3, 6) = k
con k = 1,
a 12 = 32 ,
con k = 2,
por lo que
(a ij )
3
2
3
3
2
3
e1 + 2e2
2
a 22 = 2
71
f V definido por:
Z b
f (p) =
p(x)dx
a
Si D es el operador derivaci
on sobre V, que es o donde esta D f .
2.7.1.
Producto Tensorial
i.- v1 (1 + 2 ) = v1 1 + v1 2
ii.- (av1 ) 1 = v1 a1 = a(v1 1 )
72
2. Aplicaciones Lineales
iii.- (v1 + v2 ) 1 = v1 1 + v2 1
Ahora bien, nosotros sabemos que si {v1 , v2 , . . . , vr } y si {w1 , w2 , . . .,
ws } son bases de V y W respectivamente, una base de Hom(V, W ) esta dada
por las r s ij tal que ij (vr ) = wj ri , siguiendo el mismo camino que nos
llevo a construir una base de Hom(V, W ), podemos construir una base de
Hom(V ). Sin embargo esta la construiremos en terminos de productos tensoriales, veamos, sea A Hom(V ), {ei }ni=1 una base de V y {j }nj=1 su base
dual en V , ya que A(ei ) = aji ej = ajk ik ej = ajk [k (ei )]ej = ajk [ej k ]ei ,
entonces A = ajk ej k , lo que implica que los n2 productos tensoriales
ej k generan Hom(V ).
A continuacion veremos que son L.I. para lo cual construimos el operador
cero, 0 = ckj ek j , por lo que para toda v V,
0(v) = 0 = ckj (ek j )v = ckj [j (v)]ek = ckj [j (v r er ]ek = ckj v r rj ek = ckj v j ek
puesto que las e son L.I., esto implica que ckj v j = 0, puesto que este
resultado es valido para toda v V, entonces ckj = 0, k = 1, . . . , n.
Anteriormente mostramos que los productos tensoriales son elementos
de Hom(V ), entonces los n2 productos tensoriales de ei j forman una
base de Hom(V ).
2.7.2.
Matrices
Definici
on.- Una Matriz es un arreglo rectangular de escalares, los
cuales para especificar su posicion se les hace acompa
nar de dos ndices,
uno superior y otro inferior, o bien dos ndices inferiores (superiores), esto
es, el escalar aij ocupa el renglon i y la columna j, este mismo elemento
simbolizado con ndices inferiores es aij .
Estas surgen al resolver un sistema de ecuaciones lineales, surgen como
representacion de aplicaciones lineales, pueden surgir en la representaci
on
de algunas funciones especficas, por ejemplo :
Sea
a11 x + a12
,
a21 x + a22
a11 a12
a esta funcion le podemos asociar el arreglo
,
a21 a22
este arreglo no es u
nico, ya que si c 6= 0 (real)
y=
sin embargo
73
y=
a11 c+a12 c
a21 c+a22 c
con
ca11 ca12
ca21 ca22
a11 = 1 a12 = 0
x+a12
Observemos que si y = aa11
con
, y=x
21 x+a22
a21 = 0 a22 = 1
la matriz asociada es la matriz identidad.
Si y =
a11 x+a12
a21 x+a22
z =
y z=
b11 y+b12
b21 y+b22
x+a12
b11 aa11
+ b12
21 x+a22
x+a12
b21 aa11
21 x+a22
+ b22
por lo que
74
2. Aplicaciones Lineales
La matriz que pertenece a Mmn (K) cuyos elementos son todos ceros la
denotaremos por 0.
Definici
on.- Sea (bij ) Mmn (K) y a K, definimos la multiplicaci
on
i
de apor la matriz (bj ) como aquella matriz cuyos elementos son de la
forma abij y la simbolizamos por (abij ).
Puesto que ya hemos definido la suma de matrices y el producto de un
escalar por una matriz, ademas de tener definida la matriz cero, con esto
como base ya podemos probar que el conjunto Mmn (K) forma un e.v. .
Mostraremos a continuaci
on que la transformacion
T : Hom(V, W ) Mmn (K)
es un isomorfismo definido por T (A) = (aij ) donde A Hom(V, W ) y (aij )
m de V, esto es, Ae = aj e0
es la representacion de A respecto a la base {ei }i=1
i
i j
n
donde {e0j }j=1
es base de W.
Demostracion :
Probaremos primero que T Hom({Hom(V, W ), Mmn (K)}) .
Sean A, B Hom(V, W ), tal que
A(ei ) = aji e0j
por lo que T (A) = (aji ) y T (B) = (bji ), por otra parte sabemos que
(A + B)ei = Aei + Bei = aji e0j + bji e0j = (aji + bji )e0j por lo que
T (A + B)ei = aij + bij = (aij ) + (bij ) = T (A) + T (B)
Tambien sabemos que (aA)ei = aAei = a(aji e0j ) = aaji e0j por lo tanto :
T (aA) = a(aji ) = aT A
Ahora veremos que T es inyectiva.
Sea A Ker(T ) entonces T (A) = 0 = (aij ), por otra parte A(ei ) =
0 entonces A = 0, por lo que Ker(T ) = {0}. Por u
ltimo, para toda
(cji ) Mmn (K), esta siempre puede representar a una aplicacion C
Hom(V, W ), esto es, C(ei ) = cji e0j por lo que T (C) = (cji ).
Esto significa que
D(Mmn (K)) = D(V )D(W ) = mn.
75
2
entonces
Definici
on.- La matriz (ji ) Mnn (K) es la u
nica matriz que al multiplicarse por cualquier otro elemento de Mnn (K), no afecta o no transforma
a la matriz por la cual se multiplica, esto es :
Si (aij ) Mnn (K) y (ji ) Mnn (K)
def
Definici
on.- (aij ) Mnn (K) se dice Invertible si existe (bij ) Mnn (K)
tal que (aij )(bij ) = (bij )(aij ) = (ji ), a la matriz (bij ) se le conoce como la
inversa de la matriz (aij ) y se le simboliza por (aij )1 ; al elemento del iesimo
renglon y jesima columna de la matriz (aij )1 lo simbolizaremos por a
ij .
Supongamos que (aij ) es invertible, esto es, existe (aij )1 por lo que
(aij )(aij )1 = (aik a
kj ) = (ji )
76
2. Aplicaciones Lineales
(A)
a11 a
11 + a12 a
21 + + a1n a
n1 = 11 = 1
a21 a
11 + a22 a
21 + + a2n a
n1 = 12 = 0
i=n
an1 a
11 + an2 a
21 + + ann a
n1 = 1n = 0
a11 a12
..
..
det .
.
an1 an2
a1n
6= 0
ann
a
11 =
a
k1 =
a11
a21
..
.
1 a12
0 a22
.. ..
. .
0 an2
det(aij )
a12
a22
..
.
n
an
a1n
a2n
1
0
..
.
an1 an2
det(aij )
(1)1+1 M11
det(aij )
n
an
a1n
a2n
(1)1+k Mk1
det(aij )
a
ks =
77
(1)k+s Mks
,
det(aij )
1 3 0
a b
1 3 ;
(aij ) =
;
(bij ) = 2
b a
0
0 2
I
0
0 I
1
0
=
0
0
0
0
0
1
0
0
;
0 1
0
0
0 1
0 i
i 0
1 =
0 1
1 0
2 =
0 i
i
0
3 =
1
0
0 1
2. Mostrar que si (aij ) y (bij ) Mnn (K) son invertibles, la inversa del producto es igual al producto de sus inversas puestas en orden contrario
al original, esto es :
[(aij )(bij )]1 = (bij )1 (aij )1
3. Mostrar que el mapeo J : C M22 (R) dado por
J(a + i b) =
a b
b a
78
2. Aplicaciones Lineales
esta en Hom[C, M22 (R)].
J es inyectiva ?,
J es sobreyectiva ?,
J es isomorfismo ?
Definici
on.- Dada (aij ) Mnn (R), definimos la transpuesta de la mai
triz (aj ) como aquella matriz cuyos elementos del i-esimo renglon y j-esima
columna corresponde al elemento aji de la matriz original, dicho de otra forma, el elemento del renglon i y columna j de la matriz transpuesta de (aij )
se simboliza por aij t = aji , la transpuesta de (aij ) se simboliza por (aij )T .
Ejemplo
1 2 3
1 2
2
1
i )T =
.
Si
(aij ) = 2 i
(a
2
i
,6
j
2
1
2 ,6
7
3 2
7
Definici
on.- Dada (aij ) Mnn (C) definimos la Adjunta Hermitiana de la
matriz (aij ), como aquella matriz cuyo elemento del i-esimo renglon y j-esima
Definici
on.- Si (aij ) Mnn (R) es tal que (aij ) = (aij )T se le llama
simetrica.
Definici
on.- Si (aij ) Mnn (C) es tal que (aij ) = (aij ) se le llama
hermtica o autoadjunta.
Definici
on.- Si (aij ) Mnn (R) es invertible, tal que (aij )T = (aij )1 se
le llama ortogonal.
Definici
on.- Si (aij ) Mnn (C) es invertible, tal que (aij ) = (aij )1 se le
llama unitaria.
Para algunas demostraciones el uso de matrices con ndices arriba y abajo
puede resultar poco claro, haciendo todo mas facil trabajando matrices con
dos ndices abajo.
Definici
on.- La Transpuesta de (aij ) es (atij ) o (aij )t donde atij = aji .
Definici
on.- La adjunta Hermitiana de (aij ) es (aij ) o (aij ) , donde
aij = a
ji .
79
Ejemplos:
1. La transpuesta de un producto es el producto de las transpuestas con
el orden invertido.
def P
Demostracion : Sea (cij ) = (aij )(bij ), por lo que cij =
k aik bkj , la
transpuesta de (cij ) esta dada por (cij )T cuyo elemento
ctij = cji =
P
k
ajk bki =
P
k
t bt =
akj
ik
t t
k bik akj
= cji =
=
X
k
ajk bki =
k
akj bik
ajk bki =
k
bik akj
a
jkbki
Ejercicios
1. Mostrar que el producto de matrices ortogonales es una matriz ortogonal.
2. Mostrar que el producto de matrices unitarias es otra matriz unitaria.
Definici
on.- La traza de una matriz cuadrada (aij ) = (aij ), es el escalar
P
traza(aij ) = traza(aij ) = tr(aij ) = tr(aij ) = i aii = aii , en donde la hemos
definido, tanto para ndices arriba y abajo, como para ndices abajo.
Es el mapeo tr : Mnn (K) K lineal ?
80
2. Aplicaciones Lineales
Demostracion : Sean (aij ) y (bij ) Mnn (K), por lo que (cij ) = (aij ) +
(bij ) = (aij + bij ), siendo cij = aij + bij
tr(cij ) =
=
n
X
i=1
n
X
cii =
aii +
i=1
n
X
(aii + bii )
i=1
n
X
bii
i=1
= tr(aij ) + tr(bij ).
Sea (cij ) = a(aij ) con a K, entonces cij = aaij .
tr(cij ) =
Pn
i=1 cii
Pn
i=1 aaii
=a
Pn
i=1 aii
= atr(aij )
81
[e(aj ) ] = [
X (aij )k
k
k!
P
k
] =
(aij )k
k! ]
X (aij )k
k
k!
82
2. Aplicaciones Lineales
[e(aj ) ] = [
X (aij )k
k
k!
] =
X (aij ) k
k
k!
= e(aj ) .
2
Ejercicios : Secci
on 2.7.2
on.- Si (aij ) es invertible y (
aij ) es su inversa, definimos
1. Definici
(aij )n = (
aij )n
Mostrar que [b(aij )]n = bn (aij )n con n Z.
2. Definici
on.- Si P () es un polinomio en de grado n con coeficientes en K, esto es :
P () = P0 n + P1 n1 + + Pn ; con Pi K
y (aij )n Mnn (K), definimos :
P [(aij )] = P0 (aij )n + P1 (aij )n1 + + Pn (ji )
i
Definici
on.- e(aj ) = exp[(aij )] =
1
0
i
i.- Hallar exp 2
0 1
(aij )k
k
k!
1
(h(2) ij ) = [(aij ) (aij ) ]
2
83
84
2. Aplicaciones Lineales
16. Sea bij Mnn (K) y T Hom[Mnn (K)] definida por T aij =
i i
aj bj bij aij , si T r corresponde a la transformacion traza
de una matriz,que es o donde esta T T r y donde esta T .
Parte III
Producto interior
85
Captulo 3
Producto Interior
3.1.
Cotensores
Definici
on.- Sea V un e.v. sobre K, un 2-tensor g en V o un 2cotensor o un 2-tensor covariante, es un mapeo g : V V K, el cual
ademas es bilineal, es decir si v1 , v2 , u1 , u2 V y a1 , a2 , b1 , b2 K,
i) g(v1 , v2 ) K.
ii) g(a1 v1 + a2 v2 , u1 ) = a1 g(v1 , u1 ) + a2 g(v2 , u1 ) propiedad que se conoce
como linealidad por la izquierda.
iii) g(v1 , b1 u1 + b2 u2 ) = b1 g(v1 , u1 ) + b2 g(v1 , u2 ) propiedad que se conoce
como linealidad por la derecha.
Si {ei }ni=1 es base de V, para toda v, w V
g(v, w) = g(v i ei , wj ej ) = v i wj g(ei , ej ) = v i wj gij
resultado que se obtiene despues de aplicar n veces y sistematicamente la
linealidad por la izquierda y por la derecha.
Ejercicio.- Probar que :
i) g(0, u) = 0
ii) g(u, 0) = 0
para toda u V
para toda u V
87
88
3. Producto Interior
Definici
on.- Si f y g son dos, 2-cotensores en V, se define la suma de
ellos como :
(f + g)(u, v) = f (u, v) + g(u, v)
y el producto de f por un escalar a K, como:
(af )(u, v) = af (u, v).
En base a estas operaciones, demuestre que el conjunto de 2-cotensores
forma un e.v. .
El e.v. correspondiente se simboliza por T 0, 2 (V ).
Definici
on.- Si f T 0, 2 (V ) y u, v V, se dice que u y v son ortogonales
si f (u, v) = 0.
En base a esta definicion se observa que el u
nico vector que es ortogonal
a todos es el vector cero.
Definici
on.- Un 2-tensor f en V se dice regular si u V, el que
f (v, u) = 0 implica que v = 0 o bien que u V, el que f (u, v) = 0
implica que v = 0.
Si , V y u, v V, se define el Producto tensorial de y como
( )(u, v) = (u)(v).
Ejercicio.- Mostrar que ( ) es un 2-tensor en V.
A continuacion construiremos una base de T 0, 2 (V ), sea {ei }ni=1 una base
de V y {j }j=1
su base dual en V , sabemos que i j es un 2-tensor
n
covariante. Sea g T 0, 2 (V ) por lo que:
g(u, v) = g(ui ei , v j ej ) = ui v j g(ei , ej ) = gij ui v j
= gij i (u)j (v) = gij (i j )(u, v)
g = gij (i j )
lo cual implica que los n2 productos tensoriales generan T 0, 2 (V ), veamos
ademas que son L.I.
0 = cij (i j ), donde el cero es nuestro 2-cotensor cero, por lo que
0(u, v) = 0 = cij i j (u, v) = cij ui v j , resultado valido para cualquier
elemento de V V por tanto cij = 0, i = 1, . . . , n; j = 1, . . . , n.
3.1 Cotensores
89
0
3 0
0 2 puesto que det(gij ) = 0 enEn el caso 1.- (gij ) = 0
0 5 0
tonces g es singular.
3
1 0 0
En el caso 2.- (hij ) = 0 1 0 puesto que det(hij ) 6= 0 entonces
0 0 1
90
3. Producto Interior
h es regular.
3
1
0
2 0
En el caso 3.- (fij ) = 0 4 0 puesto que det(fij ) = 0 en0
0 0
tonces f es singular.
3
u = (u1 , u2 )
v = (v 1 , v 2 )
3.1 Cotensores
91
b) Que f es bilineal, es decir lineal por la izquierda y por la derecha. Probemos la linealidad por la izquierda, dejandose al lector la prueba de la
linealidad por la derecha, la cual es similar.
Sean v1 , v2 , w R2 y a1 , a2 R por lo que v1 = (v11 , v12 ), v2 = (v21 , v22 )
y w = (w1 , w2 )
a1 v11 + a2 v21 w1
a1 v11 w1
a2 v21 w1
f (a1 v1 + a2 v2 , w) =
=
+
a1 v12 + a2 v22 w2
a1 v12 w2
a2 v22 w2
1
1
v2 w 1
v1 w1
+ a2
= a1 2
v 2 w2 = a1 f (v1 , w) + a2 f (v2 , w)
v1 w2
2
por lo tanto f es lineal por la izquierda.
ii) La representacion de f, es la matriz cuyos elementos i, j son de la
forma fij = f (ei , ej ) siendo las ej elementos de la base {ei }2i=1 de R2 .
1 1
0 1
= 0 f2 1 = f (e2 , e1 ) =
f1 1 = f (e1 , e1 ) =
1 0 = 1
0 0
1 0
0 0
= 0
f1 2 = f (e1 , e2 ) =
= 1 f2 2 = f (e2 , e2 ) =
0 1
1 1
quedando
(fij ) =
0 1
1 0
es decir
fij
1
1
si
si
si
i, j es una permutaci
on par del orden 1,2
i, j es una permutaci
on impar del orden 1,2
i=j
3
1 1
v w1
w v
f (v, w) = 2
=
2
w2 v 2 = f (w, v) ,
v w
cuando esto sucede decimos que f es un 2-cotensor antisimetrico
f
92
3. Producto Interior
2.- Es biyectiva
1. Sean v1 , v2 , w V y a1 , a2 K
(Ig (a1 v1 + a2 v2 ), w) = g(a1 v1 + a2 v2 , w)
= a1 g(v1 , w) + a2 g(v2 , w)
= a1 (Ig (v1 ), w) + a2 (Ig (v2 ), w)
= (a1 Ig (v1 ) + a2 Ig (v2 ), w)
Ig (a1 v1 + a2 v2 ) = a1 Ig (v1 ) + a2 Ig (v2 )
Ig Hom(V, V ).
2. Veamos ahora que Ig es biyectiva,
i) Que Ig sea inyectiva.- Sea v Ker(Ig ) entonces Ig (v) = 0, tomando
def
3.1 Cotensores
93
bases antes se
naladas ?, i.e. de que forma son los n2 escalares aij tales
que Ig ei = aij j ? veamos : (Ig ei , ek ) = g(ei , ek ) = gi k por otra parte
(Ig ei , ek ) = (aij j , ek ) = aij kj = ai k por lo que, la representaci
on de Ig
esta formada por las componentes gij del 2-tensor covariante g respecto a la
base dada.
su base
Ejemplo.- Demostrar que si {ei }ni=1 es una base de V y {j }j=1
n
dual en V , entonces Ig (v) = gij v i j
para toda g T 0, 2 (V ).
Demostracion : Sabemos que
(Ig (v), w) = g(v, w) = g(v i ei , wj ej ) = v i wj g(ei , ej ) = v i wj gij
= v i j gij w
y por tanto
Ig (v) = gij v i j .
3
Ejercicio.- Demostrar que : Ig ei = gij j
Hemos visto que a partir de un 2-cotensor g en V regular, podemos
construir un isomorfismo, la recproca tambien es cierta, es decir si I es un
isomorfismo entre V y V podemos observar a que 2-cotensor g en V regular
corresponde.
Teorema.- Si I es un isomorfismo de V en V entonces existe un 2-tensor
en V regular, g, tal que, g(u, v) = (I(u), v) para u, v V.
Demostracion : Veamos primeramente que g es bilineal
g(a1 u1 + a2 u2 , v) = (I(a1 u1 + a2 u2 ), v)
Por ser I isomorfismo, esta es lineal por lo que : g( a1 u1 + a2 u2 , v) =
(a1 Iu1 + a2 Iu2 , v) = a1 (Iu1 , v) + a2 (Iu2 , v) = a1 g(u1 , v) + a2 g(u2 , v) lo cual
implica que g es lineal por la izquierda, en forma similar se puede observar
la linealidad por la derecha.
Ahora demostraremos que g es un 2-cotensor regular en V . Puesto que
I es inyectiva, entonces Ker(I) = {0} por lo que si v Ker(I), I(v) = 0
por lo que para toda w V se cumple que
0 = (I(v), w) = g(v, w)
94
3. Producto Interior
lo cual implica que g es regular.
2
Ejemplos
P i i
1. Se ha visto que I : V V dado por I(v i ei ) =
es un
iv
isomorfismo, podemos preguntarnos a que 2-cotensor regular corresponde.
Solucion : Para toda w V
X
X
g(v, w) = (I(v), w) = (I(v i ei ), w) =
v i i , w =
v i (i (w))
X
X
X
=
vi wi =
i (v)i (w) =
(i i )(v, w)
i
= ij (i j )(v, w).
por tanto
g = ij i j .
3
95
1 0
0
(gij ) =
= (ij ) = (gij )
0 1
quedandonos
g = ij i j
|
{z
}
3
3.2.
Producto Interior
Definici
on.- Sea V un e.v. sobre R, un producto interior, escalar o
interno en V, es un mapeo ( , ) : V V R, tal que este mapeo es :
i) Simetrico, esto es, (u, v) = (v, u).
ii) Definido positivo, esto es, (u, u) 0 cumpliendose la igualdad solo
cuando u = 0.
iii) Bilineal.
Otra manera de definirlo sera : Un producto interior de V que esta sobre
R es un elemento de T 0, 2 (V ) el cual ademas es simetrico y definido positivo.
Ejemplo
Mostrar que g T 0, 2 (V ) es simetrico
gij es simetrica.
Demostracion :
=) Supongamos que g T 0, 2 (V ) es simetrico, esto es que g(u, v) =
g(v, u) lo cual implica que g(ei , ej ) = g(ej , ei )
y por tanto que gij = gj i de donde se concluye que (gi j ) es simetrica, para
toda base {ei }ni=1 de V.
=) Por otro lado, si (gij ) es simetrica, tendremos que
g(u, v) = gij i j (u, v) = gji i (u)j (v) = gji j (v)i (u)
= gji (j i )(v, u) = g(v, u)
96
3. Producto Interior
de donde se concluye que g es simetrico.
3
n
n
Ejercicio.- Mostrar que el mapeo
Pnde Ri i R R dado por
n
1
2
n
. . . , a ), (b , b , . . . , b )] = i=1 a b es un producto interior;al cual
se refiere uno como el producto interior canonico en Rn .
[(a1 , a2 ,
Definici
on.- Sea V un e.v. sobre C, un producto interior, escalar o interno en V, es un mapeo de V V C, tal que este mapeo cumple :
i) (u, v) = (v, u) donde la barra significa conjugacion.
ii) (u, u) 0, siendo 0 solo cuando u = 0, n
otese que tiene sentido compararlo con el cero, toda vez que (u, u) = (u, u) es un n
umero real.
iii (u, a1 v1 + a2 v2 ) = a1 (u, v1 ) + a2 (u, v2 ), es decir, el mapeo es lineal por
la derecha.
Ejemplos :
1. Mostraremos que el conjunto de funciones continuas
Z
2
L = { : R C |
(x)(x) dx < }
(x)(x) dx
Demostracion :
Prueba de i) Puesto que
Z
Z
(, ) =
(x)(x) dx =
(x)(x) dx =
(x)(x) dx
= (, ).
R
R
Prueba de ii) (, ) = (x)(x) dx = | (x) |2 dx 0 cumpliendose la igualdad en el caso de que (x) = 0.
97
Z
(, a1 1 + a2 2 ) =
(x)(a1 1 + a2 2 )(x) dx
[(x)a1 1 (x) + (x)a2 2 (x)]dx
= a1 (, 1 ) + a2 (, 2 )
Ejercicios
1. Mostrar que (av + bw, u) = a(v, u) + b(w, u), esto es, es antilineal en
el primer argumento.
98
3. Producto Interior
n
X
ai bi
i=1
3.2.1 Ortogonalidad
99
1
i
1i 3
Sea V un e.v. y {ei }i=1 una base de V la cual puede ser finita o no, pero
discreta, es decir numerable.
Si v V, v = v i ei , extendiendose la suma a todos los elementos de la
base.
Si la base no esR discreta, sino continua, en lugar de suma tendremos una
x
integral, i.e. v =
f (t) dt donde los f corresponden a las coordenadas de
v, las cuales son funcion de t.
Regresando a nuestra base finita o infinita, pero discreta, tendremos que
si {ei }i=1 es una base de V y v V, el producto interior es :
(ej , v) = (ej , v k ek ) = v k (ej , ek ) = gj k v k
Las expresiones (ej , ek ) son escalares reales o complejos que podemos denotar
por gj k , es decir gj k en el caso de espacios vectoriales reales corresponden a
las coordenadas de un 2-tensor covariante g, el cual es simetrico. En el caso
de espacios vectoriales complejos las gjk son los elementos de una matriz
hermtica.
Ahora bien si para todo w V, (v, w) = 0 = v i wj (ei , ej ) =v i wj gij , lo
que implica que v = 0, por lo que det(gij ) 6= 0 y el sistema de ecuaciones
(ej , w) = gjk wk no homogeneo, admite una solucion para wk , siendo esta :
wk =
(ej , w)
(ej , w)
=
gjk
(ej , ek )
3.2.1.
Ortogonalidad
100
3. Producto Interior
Demostracion : Por definicion
p
p
p
kavk = + (av, av) = + aa(v, v) = + | a |2 (v, v) = | a |kvk.
3
Definici
on.- Se dice que dos vectores u, v V son ortogonales si (u, v) =
0. De aqu se infiere que si a, b K; au y bv seguir
an siendo ortogonales.
Definici
on.- Se dice que un conjunto de vectores {v1 , v2 , . . . }, finito o
no, es ortogonal, si cualquier par de ellos es ortogonal.
Mostraremos a continuaci
on que un conjunto de vectores ortogonales
{v1 , v2 , . . . , vn }, que no contienen al vector cero, son L.I. .
Demostracion : Sea 0 = a1 v1 + a2 v2 + + an vn por lo que
0 = (vr , 0) = (vr , a1 v1 + a2 v2 + + an vn )
= a1 (vr , v1 ) + a2 (vr , v2 ) + + an (vr , vn )
= ar (vr , vr )
ar = 0,
r = 1, . . . , n
3.2.1 Ortogonalidad
101
R
y tomemos el producto escalar : (ei , ej ) = ei ej dx por lo que
R
(e2n1 , e2n0 1 ) = (sen nx, sen n0 x) = sen nx sen n0 x dx
i
e
= cos + i sen
ya que
i
e
= cos i sen
tendremos que
(
ei + ei = 2 cos cos = e +e
2
i
i
ei ei = 2i sen sen = e e
2i
por lo que
Z
(e2n1 , e2n0 1 ) =
=
=
=
=
por lo que
1
0
0
(einx e inx ) (ein x e in x ) dx
4
Z
1 h i(n+n0 )x
0
e
ei(nn )x
4
i
0
0
ei(nn )x + ei(n+n )x dx
Z
Z
1
0
0
2 cos(n + n )x dx
2 cos(n n )x dx
4
1
2
2
0
sen(n
+
n
)x|
sen(n
n
)x|
4 n + n0
n n0
0
(e2n1 , e2n0 1 ) = 0
Z
(e2n1 , e2n1 ) =
=
=
=
=
=
con n y n0 enteros y n 6= n0
sen nx sen nx dx
Z
1 2inx
(e
e0 e0 + e 2inx ) dx
(2 cos 2nx 2) dx
4
1 2
2
x
sen 2nx | + x | = |
4 2n
4
2
2
=
2
102
3. Producto Interior
Z
(e2n , e2n0 ) =
=
=
=
=
cos nx cos n0 x dx
Z h
i
1
0
0
0
0
ei(n+n )x + ei(nn )x + e i(nn )x + e i(n+n )x dx
4
Z
1
[2 cos (n + n0 )x + 2 cos (n n0 )x] dx
4
sen (n n0 )x
1 sen (n + n0 )x
| +
| = 0
2
n + n0
n n0
con n 6= n0
R
2nx
(e2n , e2n ) = 14 (2 cos 2nx + 2) dx = 12 sen
| + x| =
2n
R
(e0 , e0 ) = 1 1 dx = x| = 2
Z
(e2n , e2n1 ) =
cos nx sen nx dx
Z
=
1
4i
2i sen 2inx dx = 0
si n 6= n0
si n = n0
0 si n 6= n0
(e2n1 , e2n0 1 ) =
si n = n0
(e0 , e0 ) = 2 lo cual implica que el conjunto
{ e0 = 1, e2n1 = sen nx, e2n = cos nx} con n = 1, 2, . . . es ortogonal.
(e2n , e2n0 ) =
3
Ejemplo : Serie de Fourier .- Relacionado con la expresion
wk =
(ej , w)
(ej , w)
=
gjk
(ej , ek )
3.2.1 Ortogonalidad
103
con n = 1, 2, . . .
R
es un conjunto ortogonal
bajo
el
producto
interior
(e
,
e
)
=
i
j
ei ej por lo
P
P
que f (x) = a0 + n=1 bn sen nx + n=1 cn cos nx corresponde, al de una
funcion f (x) expresada en terminos del conjunto ortogonal, a dicho desarrollo se le conoce como desarrollo en Serie de Fourier. La determinacion de
a0 es inmediata, solo es necesario realizar el producto interior de f (x) con
e0 , obteniendo :
R
(f (x), e0 ) = (a0 , e0 ) = a0 (e0 , e0 ) = a0 1 1 dx = a0 2 de donde
0)
a0 = (f (x),e
, los demas terminos son cero, debido a la ortogonalidad del
2
conjunto. La determinacion de bi es similar, excepto que ahora se hara el
producto interior de f (x) con sen ix, i.e :
Z
X
X
(sen ix, f (x)) = (sen ix,
bn sen nx) =
sen ix
bn sen nx dx
X
n
Z
bn
sen ix sen nx dx = bi
f (x) sen ix dx
en forma similar
1
1
ci = (cos ix, f (x)) =
f (x) cos ix dx
104
3. Producto Interior
c1 =
b2 =
c2 =
R
R
x2 cos x dx = 4
x2 sen 2x dx = 0
x2 cos 2x dx = 1
por lo que :
f (x) = x2 =
2
4 cos x cos 2x +
3
3
Ejercicio :
Determinar los primeros cinco coeficientes de Fourier de las siguientes
funciones :
i) f (x) = x3
ii) f (x) = ex
iii) f (x) = x2
iv) f (x) = sen5 x
1
v) f (x) =
1
0<<
< < 2
Teorema de Pit
aP
goras.- Sea
P {v1 , v2 , . . . } un conjunto de vectores
ortogonales, entonces k i vi k2 = i kvi k2 .
Demostracion : La demostracion es inmediata, toda vez que
X
X
X
XX
k
vi k2 = (
vi ,
vj ) =
(vi , vj )
i
3.2.1 Ortogonalidad
105
2
Definici
on.- Un vector v esta normalizado si kvk = 1, as si w 6= 0,
w
esta normalizado.
entonces el vector kwk
Definici
on.- Un conjunto de vectores es ortonormal si es ortogonal y cada uno de los vectores esta normalizado. Es decir, {v1 , v2 , . . . } es ortonormal
si (vi , vj ) = ij .
Puesto que el vector cero no puede ser normalizado, un conjunto ortonormal no contiene al vector cero, y por uno de los ejercicios anteriores se
infiere que todo conjunto ortonormal es L.I. .
Como consecuencia de lo anterior, tenemos la desigualdad de Bessel, la desigualdad de Cauchy Schwartz, la desigualdad del triangulo, etc. .
Teorema : Desigualdad de Bessel.- SiP{v1 , v2 , . . . } es un conjunto
ortonormal de V y w V, entonces, kwk2 i=1 |(vi , w)|2 .
Demostracion : Puesto que w V, este tambien se puede poner como
P
P
oP
n observemos el prow = w i=1 (vi , w)vi + i=1
P(vi , w)vi , a continuaci
ducto interior de vj con w i=1 (vi , w)vi : (vj , w) i=1 (vi , w)(vj , vi ) y
tomando
en consideracion la ortonormalidad, podemos igualarlo a (vj , w)
P
i=1 (vi , w)j i = (vj , w) (vj , w) = 0, resultado que nos dice que el conjunto
P
{w i=1 (vi , w)vi , v1 , v2 , . . . }
es ortogonal, puesto que
kwk2 = kw
2
i=1 (vi , w)vi k
i=1
X
X
= kw
(vi , w)vi k2 +
k(vi , w)vi k2
i=1
i=1
i=1
i=1
i=1
i=1
X
X
= kw
(vi , w)vi k2 +
| (vi , w) |2 kvi k2
X
X
(vi , w)vi k2 +
| (vi , w) |2
= kw
106
3. Producto Interior
2
Teorema : Desigualdad de Cauchy-Schwartz.- Si v, w son dos elementos cualesquiera de un e.v. V, entonces |(v, w)| kvk kwk.
w
Demostracion : Puesto que { kwk
} es un conjunto ortonormal de un
solo elemento, aplicando la desigualdad de Bessel, tendremos :
kvk2 | (
w
1
1
, v) |2 = |
(w, v) |2 =
|(w, v)|2
kwk
kwk
kwk2
para n = 1, 2, . . .
3.2.1 Ortogonalidad
107
R
bajo el producto interior (ei , ej ) = ei ej dx es un conjunto ortogonal,
por lo que apartir de ellos podemos construir un conjunto ortonormal ya
2
es ortonormal con el producto interior dado.
3
Dado un conjunto arbitrario de vectores L.I. podemos formar un conjunto
ortonormal, por el proceso de Gram-Schmidt.
Teorema.- Dado un conjunto de vectores L.I., {v1 , v2 , . . . } (finito o no),
podemos construir un conjunto ortonormal {e1 , e2 , . . . }.
Demostracion : Puesto que {v1 , v2 , . . . } es L.I. cada vector tiene norma diferente de cero, por lo que kv11 k esta bien definido, a la vez que kvv11 k = e1
tiene norma uno, a continuacion escribimos e02 = v2 ae1 (con a real o complejo), deseamos que e02 sea ortogonal a e1 , es decir
0 = (e1 , e02 ) = (e1 , v2 ae1 ) = (e1 , v2 ) a(e1 , e1 ) = (e1 , v2 ) a
por lo que a = (e1 , v2 ) o sea e02 = v2 (e1 , v2 )e1 , si ahora hacemos e2 =
e02
, el cual esta bien definido, toda vez que ke02 k 6= 0, ya que de no ser
ke02 k
as significara que 0 = v2 ae1 lo cual nos dice que v1 y v2 son L.D.,
contrario a la hipotesis; por lo que el conjunto {e1 , e2 } es ortonormal.
Continuando con este procedimiento, construimos
el conjunto { e1 , e2 ,
Pk
0
. . . , ek } ortonormal, tomemos ek+1 = vk+1 i=1 (ei , vk+1 )ei , entonces, e0k+1
sera ortogonal a e1 , e2 . . . , ek pues para 1 j k
(ej , e0k+1 ) = (ej , vk+1 )
k
X
(ei , vk+1 )(ej , ei )
i=1
k
X
(ei , vk+1 )ij
= (ej , vk+1 )
i=1
e0k+1
,
ke0k+1 k
108
3. Producto Interior
Ejemplo Sea { 1, x, x2 , . . . } y el producto interior dado por
(f, g) =
R1
1
f (x)g(x) dx
k1k = (1, 1) 2 =
donde
hR
1
1
1 1 dx
i 1
2,
as 0 (x) = 12 ; continuando, tomemos ahora 01 (x) = x a0 (x), entonces, si (0 (x), 01 (x)) = 0 se tiene
(0 (x), x a0 (x)) = (0 (x), x) a(0 (x), 0 (x)) = (0 (x), x) a = 0, o
R1
2
sea a = (0 (x), x) = 1 12 x dx = 12 x2 |11 = 0, es decir 01 (x) = x y
q
R1
R1
1
1
k01 (x)k = [ 1 x x dx ] 2 = [ 1 x2 dx ] 2 = 23 ; definiendo
1 (x) =
01 (x)
k01 (x)k
qx
2
3
Z 1
Z 1 r
2
3 3
1 2
x dx =
y
b=
x dx = 0
c=
3
2
2
1
1
quedando
02 (x)
1
2 1
= x2
=x
3
3
2
y
02 (x)
2 (x) =
=
k02 (x)k
45
8
1
3 5
1
2
2
x
=
x
3
2 2
3
3.2.1 Ortogonalidad
109
3
P2 (x) =
2 3
5 2
2
n (x)
2n + 1
q
q
5
2
(x2 13 ) =
3
2
qx
2
3
(x2 31 ), . . .
Ejercicios
1. Sea V un subespacio de <3 ,formado por todos los vectores ortogonales
a ( 1, 2, 3 ). Hallar una base de V
2. Utilizando el metodo de Gram Schmidt construir a partir del conjunto
{ e1 = (1, 2, 3), e2 = (0, 1, 0), e3 = (1, 0, 1) } y utilizando el producto
interno canonico en <3 , una base ortonormal en <3 .
3. Hallar una base ortonormal para el subespacio generado por
{ e1 = (1 + i, 0, 1), e2 = ( 2, i, 0) } C 3 .
4. Sea V un espacio vectorial, con producto interior ,sean u, v elmentos de
V . Demostrar que u = v, si y solo si, para toda w V (w, u) = (w, v).
ii.- Utilizando
interior del inciso i , mostrar que)el con( el producto
1 0
0 i
0
0
0 0
junto
,
,
,
0 0
0 0
1+i 0
0 3
es un conjunto ortogonal.
iii.- Aplicando el metodo de Gram Schmidt,construya a partir de este
conjunto, un conjunto ortonormal.
110
3. Producto Interior
3.3.
Espacios de Hilbert
Para ii)
def
111
def
d(|v >, |u >) = k |v > |u > k = k |v > +|r > |r > |u > k
y por la desigualdad del triangulo sabemos que
k |v > |r > +|r > |u > k k |v > |r > k + k |r > |u > k
lo cual implica que d(|v >, |u >) d(|v >, |r >) + d(|r >, |u >).
Definici
on.- Se dice que un conjunto es un espacio metrico si a toda
pareja (r, s) de elementos o puntos del conjunto, le podemos asociar un
n
umero (r, s), llamado la distancia, el cual cumple con las siguientes propiedades :
i.- (r, s) = (s, r).
ii.- (r, s) 0 cumpliendose la igualdad solo en el caso de que r = s.
iii.- (r, s) (r, q) + (q, s).
Ejercicios
1. Sea V un espacio metrico y sea {ei }ni=1 una base ortonormal de V . Demostrar que para todo u, v V
(u, v) =
n
X
i=1
2. Sea V un espacio metrico de dimension finita, y sea {ei }ni=1 una base
ortonormal de V . Demostrar que si T Hom(V ) y (aij ) es la
representacion de T en la base dada. Demostrar que aij = (ei , T (ej )).
112
3. Producto Interior
Ejemplo : Los n
umeros racionales Q forman un e.v. sobre si mismos y
con el producto interior en Q, definido como (p, q) = pq, p, q Q, es un
espacio metrico, por lo que
p
(p, q) = kp qk = (p q, p q)1/2 = (p q)2 = |p q|
Sea la sucesion {1, 1,7, 1,73, 1,732, 1,7320, . . . } Q, esta sucesi
on no es
convergente, ya que a
un cuando observamos que tiende a 3, 3 6 Q.
Sin
embargo esta misma sucesion en R es una sucesion convergente ya que
3 R.
3
Definici
on.- Sea V un espacio metrico, se dice que la sucesion
{ |v1 >, |v2 >, . . . } V
es una sucesion de Cauchy, si para cada > 0, existe un entero M tal que
si n, r > M, entonces (|vn >, |vr >) < .
Del ejemplo anterior observamos que la sucesion
{ 1, 1,7, 1,73, 1,732, 1,7320, . . . } Q, aunque no es convergente, es una
sucesion de Cauchy. Es casi evidente que toda sucesion convergente es una
sucesion de Cauchy, veamos la casi evidencia.
Demostracion : Sea {|v1 >, |v2 >, . . . } una sucesion en V, la cual es
convergente, esto significa que existe |v > V tal que si > 0, existe n N ,
tal que
(|v >, |vs >) <
con s > n
113
tambien
(|v >, |vr >) <
esto significa que para
con r > n
con l > m
con o > n
y
(|v >, |vo >) <
tal que
(|v >, |vl >) + (|v >, |vo >) <
ademas sabemos que (|vl >, |vo >) (|vl >, |v >) + (|v >, |v0 >) lo cual
implica que (|vl >, |v0 >) < , de donde se concluye que la sucesion es de
Cauchy.
3
Por lo tanto toda sucesion convergente es una sucesion de Cauchy, sin embargo la recproca no es cierta.
Definici
on.- Se dice que un espacio metrico es completo, si toda sucesion
de Cauchy es convergente.
En base a esta definicion notamos que Q como espacio metrico no es
completo, sin embargo, aunque no lo demostraremos, Rn es completo.
A continuacion daremos una u
ltima definicion, aunque no nos detendremos a analizar todas sus consecuencias y ejemplos.
Definici
on.- Un espacio de Hilbert, es un espacio vectorial complejo con
un producto interior, el cual como espacio metrico es completo.
Ejemplos : No probaremos la completez, solo daremos el resultado o
contraejemplos).
1. El espacio vectorial C n , con el producto interior definido anteriormente,
es un espacio de Hilbert.
114
3. Producto Interior
2. Consideremos el espacio vectorial complejo de todas las funciones continuas sobre un intervalo cerrado[a, b], con el producto interior (f, g) =
Rb
a f (x) g(x) dx , este espacio no es completo y por lo tanto no es de
Hilbert, un ejemplo de esto es la sucesion de funciones definidas en
1 x 1 como
1
nx
fn (x) =
1 x < n1
n1 x n1
1
n <x1
n = 1, 2, . . . Un elemento de la
115
6
,
,
,
,
,
,
No olvidar que
(f, g) =
Rb
a
1
nx
fn (x) =
f (x) g(x) dx y
1 x < n1
n1 x n1
1
n <x1
n = 1, 2, . . .
Z 1
=
[(fn (x) fm (x))(fn (x) fm (x)) dx ]1/2
1
1/2
=
1
Z 1
1/2
2
= 2
(fn (x) fm (x)) dx
0
"Z
1/m
= 21/2
0
1/n
+
1/m
+
1/n
#1/2
(fn (x) fm (x))2 dx
116
3. Producto Interior
"Z
= 21/2
1/n
Z
(nx mx)2 dx +
1/n
#1/2
(1 mx)2 dx
1/m
1/2
3
(1 mx)3 1/n
2 x 1/n
= 2
(n m)
|
+
|1/m
3 0
3m
1/2
(1 (m/n))3
1/2
2 1
= 2
(n m)
+
3n3
3m
1/2
=
=
21/2
3
1/2
2
3
1
n
(n m)2
n3
m
1
m 2
1
m
n
3.4.
Operadores
3.4 Operadores
117
Definici
on.- Sea un espacio vectorial, con producto interior, para
A Hom(V ) definimos , A , su adjunto hermitiano mediante :
(u, A(v)) = (A (u), v)
para u, v V
Tenemos entonces (u, A(v)) = (v, A (u)) (en un espacio vectorial real
podemos considerar la conjugacion como una operacion identidad, es decir,
a = a para a R).
En notacion de Dirac, con u | u >, v | v >, A(v) = A | v >;
(u, A(v)) (| u >, A|v >) = < u | A | v > y (v, A (u)) = < v|A |u >,
luego A esta definida por < u|A|v >= < v|A |u > o < u|A|v > =
< v|A |u >
Ejemplo : Mostrar que A Hom(V ).
Solucion : Sean |u >, |v > V, a, b C y sea < | V arbitrario,
tomemos |w > = a|u > +b|v > por lo que
< |A (a|u > +b|v >) >=< |A |w >= < w|A| >
de un ejercicio anterior sabemos que
luego :
< |A (a|u > +b|v >) > = (a < u| + b < v|, A| >)
= a < u|A| > +b < v|A| >
y por la definicion de suma de funcionales lineales, esta u
ltima expresion es
igual a
= a< u|A| > + b< v|A| > = a < |A |u > +b < |A |v >
= < |a A |u > + < |b A |v >
3
Ejercicio.- Mostrar que si A, B Hom(V )
i.- (A + B) = A + B
ii.- (a A) = a A
iii.- (AB) = B A
iv.- (A ) = A
118
3. Producto Interior
Definici
on.- Un operador es hermtico o autoadjunto si es igual a su adjunto
hermitiano, i.e., A Hom(H) es hermtico si y solo si A = A .
Teorema.- Los operadores hermticos de Hom(H) forman un subespacio
real de Hom(H) que contiene a la transformacion identidad.
Demostracion : Sean A, B Hom(H) hermticos, es decir A = A ,
B = B entonces si a, b R
(a A + b B) = (a A) + (b B) = a A + b B = a A + b B
luego los operadores hermticos forman un subespacio vectorial sobre los
reales. E Hom(H) es hermtico pues si |u >, |v > H
< u|E |v >= < v|E|u > = < v|u > =< u|v >=< u|E|v > .
2
Teorema.- Sean A, B Hom(H) hermticos, AB es hermtico, si y
solo si [A, B] = 0, (donde [A, B] = AB BA ).
Demostracion : =) Supongamos que AB es hermtico, es decir
(AB)
3.4 Operadores
119
(I)
si a = i y b = 1 tendremos que :
i(u, A(v)) = i(v, A(u))
(II)
La transformacion G = T
es un operador, pues
0 = G < | >=
120
3. Producto Interior
por el u
ltimo teorema tendremos que G = G, lo cual implica que G es
antihermtico, por lo que multiplicando a G por i lo hacemos hermtico, lo
multiplicaremos por (i
h)
i
hG = H = i
h
| >
t
3.4 Operadores
121
Definici
on.- Un operador A es normal, si conmuta con su adjunto hermitiano, i.e. si [A, A ] = 0.
Se sabe que todo operador A, se puede poner como la suma de un
operador hermtico y otro antihermtico, ademas sabemos que un operador
antihermtico es i veces un operador hermtico por lo que
A = A1 + iA2
con
A1 y A2 operadores hermticos.
122
3. Producto Interior
[A, A] = 0.
k
Hom(H), A |ej >= bj |ek >, ahora bien
(|er >, A |ej >) = (|er >, bkj |ek >) = (|ej >, A|er >) = (|ej >, asr |es >)
bkj grk = asr gsj , si la base es ortonormal bkj rk = asr sj y en consecuencia
brj = brj = ajr = ajr = arj ,
entonces la representaci
on de A , cuando la base es ortonormal, corresponde
a la matriz adjunto hermitiana de la representaci
on de A. Sin embargo la
recproca no es cierta, es decir si la representaci
on de A corresponde a la
matriz adjunta hermitiana de la representaci
on de A, la base no necesariamente es ortonormal.
Ejemplo : Sea {|e1 >, |e2 >, . . . } una base ortogonal de H y sea el
operador F = |e1 >< e1 |, por lo que
F |ei >= Fij |ej >= (|e1 >< e1 |)|ei >=< e1 |ei > |e1 >= g1i |e1 >
por ser la base ortogonal, solo es diferente de cero el elemento cuando i = 1,
por lo que F |e1 >= F1j |ej > = g11 |e1 >
F11 = g11 y todos los
demas cero, i.e.,
g11 0 . . .
(Fji ) = 0 0 . . .
.. ..
. .
3.4 Operadores
123
124
3. Producto Interior
sin embargo
por lo que
D(f ) =
DI 6= ID.
Teorema.- Sea V un espacio de dimension finita con un producto interior. Sea {e1 , e2 , . . . , en } una base ortonormal de V y U Hom(V ), entonces
los vectores {e01 = U (e1 ), . . . , e0n = U (en )} forman una base ortonormal de
V, si y solo si U es unitario.
3.4 Operadores
125
1
de U , lo cual implica que la matriz que representa a U y U es unitaria.
Un operador unitario es a la vez un operador normal.
126
3. Producto Interior
Parte IV
Teorema espectral
127
Captulo 4
Teorema espectral
4.1.
Ecuaci
on Av = v
4.1.1.
Polinomio Caracterstico
130
1.Teorema Espectral
y
v = v r er
igualando v r ajr ej = v r er tenemos que
v r ajr ej = v r rj ej
v r ajr = v r rj
v r (ajr rj ) = 0
a1
a12
a1n
a2
a22
a2n
1
det(ajr rj ) =
= 0,
..
..
..
..
.
.
.
.
n
n
an
a
a
1
1.1 Ecuacion Av = v
131
Definici
on.- Sea A Hom(H) y (aij ) la matriz que representa a A respecto a alguna base, se define el polinomio caracterstico de la matriz (aji )
como
() = det(aij ji ) = det((aij ) (ji ))
= a0 n + a1 n1 + + an
4.1.2.
Matrices Similares
Definici
on.- Sean (aij ) y (bij ) Mnn (K) se dice que (aij ) y (bij ) son
similares si existe (cij ) Mnn (K) regular, tal que
(aij ) = (cij )1 (bij )(cij ) o
r
en terminos de elementos matriciales aij = cim bm
r cj .
2
Corolario.- Si dos matrices (aij ) y (bij ) son similares, entonces su polinomio caracterstico, su traza, su determinante, sus races caractersticas;
son iguales, i.e. dos matrices similares son casi equivalentes.
Teorema.- Dos matrices (aij ) y (bij ) son similares, si y solo si representan
al mismo operador en bases diferentes.
Demostracion :
132
1.Teorema Espectral
= ) Sean (aij ) y (bij ) dos matrices similares, tal que (aij ) representa al
operador A Hom(H), respecto a la base {ei }ni=1 de H y sea {j }j=1
su
n
j
i
base dual en H , por lo anterior tendremos que A = ai ej , puesto que
(aij ) y (bij ) son similares, entonces aij = cik bkr crj con (cij ) regular, sustituyendo
tendremos que
A = aji ej i = cjk bkr cri ej i
por ser (cij ) regular tendremos que e0k = cjk ej es otra base de H, ver teoremas
referentes a cambios de base; ahora veamos la accion de (cri i )e0k = cri i (
cjk ej )
0
= cri cjk ji = cri cik = kr lo cual implica que {cri i = r }nr=1 corresponden a la
base dual de {e0k }nk=1 por lo que
0
1.1 Ecuacion Av = v
133
Definici
on.- Si A Hom(H), se define su polinomio caracterstico como
i
det[(aj ) (ji )], su ecuacion caracterstica () = 0, las races de () = 0
como sus races caractersticas, su traza como tr (aij ), su determinante como
det(aij ) donde (aij ) es la representaci
on de A respecto a alguna base.
4.1.3.
Relaci
on entre los Valores Propios y las Races
Caractersticas
Ahora veremos que relacion existe entre los eigen valores, o valores
propios de un operador, y sus races caractersticas.
Sea un valor propio de A Hom(H), correspondiente al vector v, por
lo que Av = v, si {ei } es una base de H tendremos que Av = v j akj ek = v j ej
= v j jk ek lo cual implica que v j akj = v j jk por tanto v j [(akj ) (jk )] = 0
puesto que v es diferente de cero, entonces
() = k(akj ) (jk )k = 0
tiene por una de sus soluciones a , por tanto corresponde a una raz
caracterstica.
Recprocamente si r es una raz caracterstica entonces
(r ) = k(aij ) r (ji )k = 0
implica que el sistema de ecuaciones
v j (aij r ji ) = 0
admite para v soluciones diferentes de la trivial, por lo que
v j aij = v j r ji
v j aij ei = v j r ji ei
v j Aej = Av = r v
lo cual nos dice que r es un eigen valor de A.
De esta forma, los eigen valores del operador A son las races de la
ecuacion cartacterstica de A, calculada en cualquier base.
Las races de ()Q= 0 pueden ser en general complejas y aparecer mas
de una vez, () = ni=1 (i ) si la raz i aparece ni veces, decimos
que ni es la multiplicidad de la raz, (notese que ni 1) y podemos escribir
134
1.Teorema Espectral
Q
ni con m < n, m igual al n
() = m
umero de races diferentes
i=1 (i )
de () y que n1 + n2 + + nm = n
Designaremos con Mi al conjunto de vectores que son eigen vectores de
A con eigen valor i .
Ejercicios
i) Mostrar que Mi es un subespacio de H.
ii) Mostrar que Mi Mj = {0} si i 6= j.
De i) se infiere que con cada raz i tenemos asociado un subespacio
Mi de H. Si hay un total de m races diferentes, tendremos un total de m
subespacios M1 , M2 , . . . , Mm . Si solamente hay dos subespacios M1 , M2 (es
decir, solo dos de las races de () = 0 son diferentes), de ii) junto con el
hecho de que H = M1 + M2 , muestran que H = M1 M2 siempre y cuando
todo elemento de H sea suma de eigen vectores de A. Se podra conjeturar
que esto es cierto, mas a
un, que en general H = M1 M2 Mm , sin
embargo no es as si A es un operador arbitrario. Mostraremos que si A es
normal, es posible una reduccion completa. [Para el caso general, o sea para
espacios de dimension infinita vease por ejemplo el libro Smirnov].
4.1.4.
Operadores de Proyecci
on
1.1 Ecuacion Av = v
135
PN (e1 ) = PN j1 ej = PN 11 e1 + + PN n1 en = e1
PN 11 = 1, PN 21 = 0, , PN n1 = 0
PN (e2 ) = PN j2 ej = PN 12 e1 + PN 22 e2 + + PN n2 en = e2
PN 12 = 0, PN 22 = 1, , PN n2 = 0
PN (er ) = PN jr ej = PN 1r e1 + + PN nr en = er
PN 12 = 0, , PN r1
= 0, PN rr = 1, PN r+1
= 0, , PN nr = 0
r
r
PN (en ) = PN jn ej = PN 1n e1 + + PN nn en = 0
PN 1n = 0, PN 2n = 0, , PN nn = 0
1 0
0 1
..
..
.
.
0 0
0 0
..
.
0 0
0 0
0 0
..
.
0
0
..
.
1 0
0 0
.. .. . .
.
. .
0 0
0
0
..
.
136
1.Teorema Espectral
Ejemplo.- Mostrar que si N es un subespacio de H, H = N N
Por demostrar :
i) N N = {0}
ii) v H, v = v1 + v2 , v1 N y v2 N .
Demostracion :
De i) : Sea v N N lo cual implica que v N y v N por lo que
(v, v) = 0, y por tanto v = 0, de donde se concluye que N N = {0}
De ii) : Sea v H, podemos escribir v como v = v PN (v) + PN (v),
pero sabemos que PN (v) N, ahora veamos en donde esta v PN (v), sea
u N, por lo que
(u, v PN v) = (u, v) (u, PN v) = (u, v) (PN u, v)
= (u, v) (Pn , v) = (u, v) (u, v) = 0
lo cual implica que (v PN v) N .
De i) y ii) se sigue que
H = N N
3
A N se le conoce como complemento ortogonal de N.
Ejercicios
1. Sean P , R, dos operadores de proyecci
on de H sobre M y N respectivamente: Mostrar que la composicion o producto de los operadores
P y R es un operador de proyecci
on, si y solo si P R = RP .
2. Mostrar que si PN Hom(H) es un operador de proyecci
on, que
proyecta a los elementos de H en N , entonces I PN , proyecta a los
elementos de H en N .
3. Sea PN un operador de proyecci
on que esta en Hom(H). Demostrar
que (I + PN ) es invertible; hallar (I + PN )1 .
4. Cual es el complemento ortogonal de H ? esto es H =
5. Cual es el complemento ortogonal del {0} ? es decir {0} =
1.1 Ecuacion Av = v
4.1.5.
137
Subespacios Invariantes
Definici
on Sea M un subespacio de H y T Hom(H) se dice que
M es un subespacio invariante de T , si para toda u M ,sucede que T (u)
M , es decir T (M ) M . De la definicion se infiere que si T es cualquier
operador sobre H ,entonces :
i.- H es invariante bajo T .
ii.- El {0} de H es invariante bajo T .
iii.- Im(T ) y Ker(T ) son invariantes bajo T .
Ejercicio Sea T Hom(H) ,sea S cualquier operador sobre H que
conmuta con T es decir T S = ST , sea M la imagen de S y sea N el
Ker de S, entonces M y N son subespacios invariantes de T .
Regresemos ahora a nuestro operador normal A y los subespacios Mi , tal
que si v Mi , Av = i v, puesto que Mi es un subespacio y i un escalar,
i v Mi , lo cual implica que A(Mi ) Mi , por lo que Mi es un subespacio
invariante bajo A.
Ejemplo.- Mostrar que si A Hom(H) es normal y v N, tal que
Av = v, entonces A v = v
Demostracion : Puesto que Av = v entonces Av v = 0, esto es
(A E)v = 0, entonces ((A E)v, (A E)v) = 0 y por tanto
((A E) (A E)v, v) = 0
(1)
138
1.Teorema Espectral
(A E) v = 0
A v = v
3
A u N
3
Por u
ltimo si A Hom(H) es normal y N es invariante bajo A, entonces
N es invariante bajo A.
Demostracion : Sea v N y u N por lo que
(v, Au) = (A v, u) = (v, u) = (u, v) = 0
A(N ) N
Au N
1.1 Ecuacion Av = v
139
si i 6= j.
(vi , vj ) = 0
Mi Mj
2
(Pj Pi )v = Pj (Pi v) =
0
Pi v
si i 6= j
si j = i
por lo que Pj Pi = Pi ij
4.1.6.
Descomposici
on Espectral
Sea M = M1 + M2 + + Mn donde {Mi }ni=1 son todos los subespacios invariantes bajo A, esto es, solo en M se encuentran todos los eigen
vectores bajo A, Si P = P1 +P2 + +Pn siendo Pi el operador de proyecci
on
sobre Mi , tendremos :
a)
P = (P1 + P2 + + Pn ) = P1 + P2 + + Pn
= P1 + P2 + + Pn = P
P = P
b)
P 2 = (P P ) = (P1 + P2 + + Pn )(P1 + P2 + + Pn )
= P12 + P22 + + Pn2 = P1 + P2 + + Pn = P
P2 = P
140
1.Teorema Espectral
M2
Mn
AP = P A
por lo que para toda v H (P A)v = P (Av) (P A)v M lo que implica que [AP (v)] M ya que (AP )v = A[P (v)] implica que M es invariante
bajo A.
En forma similar, puesto que P A = A P implica que M es invariante
bajo A y por el lema antes probado tendremos que M es invariante bajo
A y A .
Ahora bien, utilizando un lema, ejercicio anterior, tendremos que H =
M M sin embargo, observemos que M no puede ser diferente de cero, ya
que de serlo en este encontraramos eigen vectores correspondientes a nuevos
eigen valores, pero se haba dicho que todos los subespacios invariantes de
A eran el conjunto {Mi }ni=1 por lo que M = {0} y por lo tanto H = M =
M1 + M2 + + Mn .
De este hecho y de que Mi Mj se implica que
H = M1 M2 Mm
Demostracion : Por demostrar, usando la informacion que nos dan,
que para toda v H, este tiene descomposicion u
nica.
Supongamos que v = v1 + v2 + + vm con vi Mi , i = 1, . . . , m.
v = w1 + w2 + + wm con wi Mi , i = 1, . . . , m. lo cual implica que
1.1 Ecuacion Av = v
141
k (vk
k (vk
wk )) = (u, vj wj )
vj wj = 0
vj = wj
1
1
..
.
2
..
.
m
142
1.Teorema Espectral
A = 1 P1 + 2 P2 + + m Pm ;
1P + +
m Pm
1 P1 + +
m Pm
A =
=
1
entonces
m Pm Pm
1 P1 P1 + + m
AA = 1
2
1 1 P + +
m m P 2
=
1
= AA
AA = A A
1.1 Ecuacion Av = v
143
Ejercicios
i) Mostrar que los eigen valores de un operador hermtico son reales.
ii) Mostrar que los eigen valores de un operador antihermtico son imaginarios puros.
iii) Mostrar que los eigen valores de un operador unitario tienen modulo 1.
Estos mismos resultados se obtienen de la descomposicion de un operador
normal
A = 1 P1 + 2 P2 + + m Pm
Observaci
on : En mecanica cuantica el estado de un sistema se caracteriza o simboliza por un ket de estado | > el cual esta normalizado, es
decir, < 1 >= 1, a la vez toda cantidad fsica medible u observable, tal
como la energa cinetica, la energa potencial, el momento angular, etc. se
simboliza mediante un operador hermtico el cual actua sobre kets de estado
en un espacio de Hilbert de dimension infinita, por lo que los resultados
encontrados hasta ahora, no se pueden aplicar directamente, sin embargo, H
se puede seguir poniendo como la suma directa de los subespacios invariantes
del operador, esto es, H = M1 M2 Puesto que la representaci
on de un
operador depende de la base elegida, se busca siempre una representaci
on con
respecto a una base ortonormal formada por los eigen vectores del operador,
desde luego que en terminos de esta base, la representaci
on del operador
corresponde a una matriz diagonal, en cuya diagonal principal se encuentran
los eigen valores del operador, tantas veces como sea la multiplicidad de las
races caractersticas del operador.
Ejemplo.- En mecanica cuantica las partculas del spin uno estan caracterizadas mediante los operadores Sx , Sy , Sz ; la representaci
on de Sy con
respecto a una base ortonormal {e1 , e2 , e3 } esta dada por
0 i
0
0 i
(Sy ji ) = h2 i
0
i
0
esta matriz es autoadjunta, por tanto, dado que {e1 , e2 , e3 } es ortonormal,
Sy es un operador hermtico o autoadjunto. Su polinomio caracterstico es :
144
1.Teorema Espectral
() = det
0
i
h
0
i
h
2
0
i
h
2
0
i
h
que (2 h2 ) = 0
2
h
2
3
+ h
h2 = (2
h2 ) y el
2 = +
1 = 0
2 = h
implica que
3 =
h
= 3 +
notese que los coeficientes de 2 y 0 son cero, toda vez que tr(Sy ji ) y | (Sy ji ) |
son cero. Si e02 es un eigen vector correspondiente al eigen valor 2 = h, esto
es si Sy (e02 ) = 1 e02 = h e02 , represent
andolo como una combinaci
on lineal de
las {e1 , e2 , e3 } tendremos e02 = ci2 ei , por lo que
Sy e02 = Sy cj2 ej = cj2 Sy jr er = 2 e02
= 2 cj2 ej = hcj2 jr er
cj2 Sy jr = hcr2
y por tanto si
r=1
r=2
r=3
i
h 1
c
2 2
i
h 2
c
2 2
i
h 2
c
2 2
i h 2
1
= 0
2 c2 hc2
i
h 1
i
h 3
2
c 2 c2
hc2 = 0
2 2
i
h 2
3
c hc2
= 0
2 2
i
h 3
c
2 2
= h
c12
= h
c22
= h
c2 3
1
i 2
= 0
2 c2 c2
i
i
1
3
2
c c c
2 = 0
2 2
2 2
i c2 c3
= 0
2
2 2
1.1 Ecuacion Av = v
145
1
i 2
2 c2 c2
i 2
c c32
2 2
1
i 2
= 0
2 c2 c2
2
i
2
2
3
2 c2 c2 + i 2c2 = 0
i c2 c3
= 0
2
2 2
2 2
i c2
= 0
= 0
= 0
i 2
c c12
= 0
2 2
i
2
3
2c c = 0
i 2 2 2 3 2
c c2
= 0
2 2
c12 = i2 c22
i () i c2
2
2 2
i c3
2 2
= c22
c32 =
i c2
2 2
quedandonos
i
i
e02 = c22 e1 + c22 e2 + c22 e3
2
2
i
i
2
= c2 e1 + e2 + e3
2
2
i
i
i
i
0
2
k e2 k = c2 e1 + e2 + e3 , e1 + e2 + e3
2
2
2
2
1/2
1
1
= c22
+1+
= | c22 | 2
2
2
por lo que el vector buscado sera :
e002 =
e02
k e02 k
i
e2
i
e002 = e1 + + e3
2
2 2
1
=
i e1 + 2e2 + i e3
2
1/2
1
k e002 k =
i e1 + 2 e2 + i e3 , i e1 + 2 e2 + i e3
2
2
1
(1 + 2 + 1)1/2 = = 1
=
2
2
146
1.Teorema Espectral
r=1
r=2
r=3
i
h 1
c
2 1
i
h 2
c
2 1
i
h 2
c
2 1
i
h 3
c
2 1
= 0
= 0
= 0
(1)
(2)
(3)
Puesto que en este caso (1)= - (3) tendremos que solo nos bastan las dos
primeras ecuaciones, de donde obtenemos
i
h 3
i
h 1
c =
c lo cual implica que c11 = c31 quedandonos
c21 = 0 y que
2 1
2 1
e01 = c11 e1 + c11 e3
k e01 k = c11 [(e1 + e3 , e1 + e3 )]1/2 = | c11 |(2)1/2
e1 + e2
1
1
e01
=
= e1 + e3
e001 =
ke01 k
2
2
2
2
1
k e001 k = (e1 + e3 , e1 + e3 )1/2 = = 1
2
2
Sy (e03 ) = ck3 Sy kr er =
hcr3 er
r=1
r=2
r=3
1.1 Ecuacion Av = v
i
h 1
c
2 3
i
h 2
c
2 3
i
h 2
c
2 3
i
h 3
c
2 3
147
=
hc13
=
hc23
=
hc33
1
i 2
c3 2 c3
i
c1 + c2
3
2 3
i c2 + c3
3
2 3
1 i h 2
hc3 2 c3
i
h 1
c + hc23
2 3
i
h 2
c + hc33
2 3
i c3
2 3
= 0
= 0
= 0
i
h 3
c
2 3
= 0
= 0
= 0
(1)
(2)
(3)
c13
2
i 2 2
i 2
2 2
i 2 2
3
1
3
c3 + c3 =
c3 + i 2c3 + c3 =
c3 + c33
c3 c3
i
2
2
2
y como (3) es una combinacion de (1) y (2) podemos trabajar solo con (1)
y (2) de donde tendremos que
i i
c23
2 2
1
c23 + c23
2
quedandonos
de (1) c13 =
i c2
2 3
y sustituyendo en (2)
i
c33 = 0
2
i
c23 = 0
2
1 2
i
c = c33
2 3
2
i 2 2
i
3
c3 =
c = c23
2 3
2
148
1.Teorema Espectral
e03
k e03 k =
=
e003 =
k e003 k =
=
i
i
e1 + e2 e3
2
2
1/2
2 i
c3 e1 + e2 i e3 , i e1 + e2 i e3
2
2
2
2
1/2
2 1
1
c3
+1+
= c23 (2)1/2
2
2
0
e3
1
=
(i
e
+
2e2 i e3 )
1
ke0 3k
2
i1/2
1h
i e1 + 2e2 i e3 , i e1 + 2e2 i e3
2
1
[1 + 2 + 1]1/2 = 1
2
c23
e001 =
e002 =
e003 =
1
1
e1 + e3
2
2
1
i e1 + 2e2 + i e3
2
1
i e1 + 2e2 i e3
2
notese que
1
2
2i
i
2
1
2
i
1
2
i
2
2i
2
2
2
2
+ 12
i
= 2 2 + 2
2
i
i
2 2
2 2
1
2
1
2
i
2
2
2
2i
i
i
2
+ 2
2
2
2
1
1
4 + 4 + 4
41 + 24 14
1 0 0
= 0 1 0
0 0 1
2i
2
2
i
2
i
i
2
2 2
2
41 + 24 41
1
2
1
4 + 4 + 4
1.1 Ecuacion Av = v
1
2
2i
i
2
1
2
i
2
2i
2
2
2
2
i
i
i
2
i
2
2
2
i
2
i
2
149
1
0 i
0
2
h
i
0 i 0
2
1
0
i
0
i
2
2
2
2i
i2 +
21
1
1
2 + 2
42
42 +
i
2
1
2
1
2
2
i
2 0
1
i 22
2
2
2
2
2
2
4
2
4
2
4
2
4
i
2
2
2
2i
2
2
2
2
2
2
i
2
2i
2
2
i
2
2i
+
+
2
4
2
4
0
0
0
0
0 0
h 0
= h2 0 2 0 = 0
0
0 h
0
0
2
3
4.1.7.
Diagonalizaci
on de Matrices
150
1.Teorema Espectral
i) Fik e0k = cji am
rm rk e0k de donde obtenemos que
j c
j
Fik = ckm am
j ci
y que
ii) e0i = cji am
rm e0r lo cual implica que ir e0r = cji am
rm e0r esto es
j c
j c
j
r
que cji am
rm = i ir y ordenando crm am
j c
j ci = i i puesto en forma matricial
on es una matriz diagonal.
(Fji ) = (i ir ) es decir, la representaci
(Fji ) = (cij )1 (aij )(cij )
3
El siguiente teorema extendido al caso de espacios de dimension infinita,
es de gran importancia en mecanica cuantica.
Teorema.- Si A y B son operadores normales, existe una base ortonormal con respecto a la cual, las representaciones de A y B son matrices
diagonales si y solo si [A, B] = 0.
Demostracion : = ) Sea {ei }ni=1 una base ortonormal con respecto a
la cual las representaciones de A y B son matrices diagonales, esto significa
que Aej = j ej y Bej = 0j ej por lo que
(AB)ej
= A0j ej = 0j Aej = 0j j ej
= j 0j ej = j Bej = B(j ej ) = B(Aej )
AB = BA
[A, B] = 0
= ) Supongamos ahora que [A, B] = 0 y sea {ei }ni=1 una base ortonormal tal que Bei = 0i ei , por otra parte, sea v H un eigen vector de A, por
lo que Av = v, lo cual implica que (A E)v = 0, con
v = c1 e1 + c2 e2 + + cn en =
Pn
i
ci ei .
j=1 uj
151
=
Pn
j=1 (A
E)cj ej = (A E)v = 0
j=1 uj
= u1 + u2 + + un
4.2.
Forma Cuadr
atica
v (v, Av) C,
Si v = v1 + v2
(v1 + v2 , A(v1 + v2 )) = (v1 + v2 , Av1 + Av2 )
= (v1 , Av1 ) + (v1 , Av2 ) + (v2 , Av1 ) + (v2 , Av2 )
la aparicion de los terminos (v1 , Av2 ) y (v2 , Av1 ) nos dice que el mapeo no es
lineal sino cuadratico. De singular importancia es el caso cuando (v, Av)
R, en este caso sabemos que A es hermtica y la forma cuadratica se llama
hermtica.
Si {ei }ni=1 es una base de H.
(v, Av) = (v i ei , Av j ej ) = v i v j (ei , Aej )
= v i v j (ei , akj ek ) = v i v j akj (ei , ek )
si la base es ortonormal, tendremos (v, Av) = v k v j akj
En el caso particular de que A sea normal o a lo menos hermtica, podemos hallar una base ortonormal en donde la representaci
on de A, aij = 0
152
4. Teorema Espectral
si i 6= j, esto es, sea una matriz diagonal por lo que, en este caso la forma
cuadratica quedara como :
X
(v, Av) =
|vi |2 aii = |v 1 |2 a11 + |v 2 |2 a22 + + |v n |2 ann
Ejercicios
on con respecto a la base orto1. Sea T Hom(R2 ), cuya representaci
normal (e1 , e2 ) es
1 1
2
2
i.- Demostrar que los u
nicos subespacios de R2 invariantes de T son
2
R y el subespacio nulo.
ii.- Si U Hom(C 2 ), cuya representaci
on con respecto a la base
{e1 = (1, 0), e2 = (0, 1)} es A. Demostrar que U tiene un subespacio unidimensional invariante.
2. Sea T Hom(V ). Si todo subespacio de V es invariante bajo T,
entonces T es un m
ultiplo del operador identidad.
3. P
Sea {e1 , . . . , en } un conjunto ortonormal, y sea P dado por P (v) =
m
i=1 (ei , v)ei . Mostrar que :
i.- P es un operador de proyecci
on.
ii.- Los eigen valores de P son 0 y 1.
4. Sea V un espacio vectorial de dimension n sobre K, Cual es el polinomio caracterstico del operador identidad E sobre V ? Cual es el
polinomio caracterstico para el operador cero ?
5. Encontrar el polinomio caracterstico, los eigen valores, los eigen vectores normalizados y la forma diagonal de las siguientes matrices.
2 0
i.- A1 =
4 5
0 1 0
ii.- A2 = 1 0 0
0 0 0
4.2 Ejercicios
153
0 0 c
iii.- A3 = 1 0 b
0 1 a
en particular, muestre que el polinomio caracterstico es
() = 3 a2 b c.
1
1
0 0
1 1
0 0
iv.- A4 =
2 2
2 1
1
1 1 0
en particular, muestre que el polinomio caracterstico es
() = 2 ( 1)2 .
0 i 0 0
0 0 i 0
v.- A5 =
0 0 0 i
i 0 0 0
6. Si el operador A tiene como valores propios
y 2 = 1,
1 = 0
1
2
correspondientes a los vectores propios
y
. Mostrar
2
1
que la matriz (aij ) asociada a A, la cual tiene por eigen valores y eigen
vectores los antes se
nalados es :
i.- Simetrica.
ii.- Cual es su traza y determinante ?
iii.- Cual es (aij ) ?
iv.- Cuales son los valores propios y vectores propios de A2 ?
7. Sea A una matriz n n con polinomio caracterstico
() = ( c1 )d1 ( ck )dk ,
demostrar que T raza(A) = c1 d1 + + ck dk .
8. Sea A una matriz n n con polinomio caracterstico
() = ( c1 )d1 ( ck )dk .
Sea V el espacio de las matrices n n, B, tales que AB = BA. Demostrar que la dimension de V es d21 + + d2k .
154
4. Teorema Espectral
4 0 3
0
i.- (aji ) = 0 5
3 0
4
3(1+i)
3
3
(1
i)
2
2 2
3 2
j
5
i
ii.- (bi ) = 2 (1 + i)
3
3 2
i
11
3(1+i)
6
2 2
3 2
0
0
1
0
0
0
0 2(1 i)
iii.- (cji ) =
1
0
0
0
0 2(1 + i)
0
0
15. La matriz de cierto operador lineal con respecto a la base {e1 =
(1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} es :
1 1 0
1 1
(aji ) = 2
2
0 1
4.2 Ejercicios
155
Demostrar
on del mismo operador con
0 que la2 representaci
respecto a
1 2
1 2
2
2 2 1
0
0
la base e1 = ( 3 , 3 , 3 ), e2 = ( 3 , 3 , 3 ), e3 = ( 3 , 3 , 3 ) es :
(bji ) =
17
9
11
9
29
4
9
19
10
9
1
9
20
9
11
9
156
4. Teorema Espectral
Parte V
Tensores
157
Captulo 5
Tensores
5.1.
k-Cotensor
i. T (v1 , v2 , . . . , vr ) K
ii. T es multilineal, esto es, si ws V, con 1 s r y a1 , a2 K,
entonces
T (v1 , v2 , . . . , a1 ws + a2 vs , . . . , vr )
= a1 T (v1 , v2 , . . . , ws , . . . , vr ) + a2 T (v1 , v2 , . . . , vs , . . . , vr )
159
160
5.Tensores
Si T1 y T2 estan definidos en V
V} K, se define la suma de
| {z
T1 + T2 como :
r veces
= T1 (v1 , . . . , a1 vs + a2 ws , . . . , vr ) + T2 (v1 , . . . , a1 vs + a2 ws , . . . , vr )
5.1 k-Cotensor
161
v HomV
162
5.Tensores
[A(r)
(T1 + T2 )](v1 , . . . , vr ) = (T1 + T2 )(Av1 , . . . , Avr )
= (A(r)
T1 )(v1 , . . . , vr ) + (A(r)
T2 )(v1 , . . . , vr )
A(r)
(T1 + T2 ) = A(r)
T1 + A(r)
T2
[A(r)
(aT )](v1 , . . . , vr ) = (aT )(Av1 , . . . , Avr )
5.2 Tensores
163
A(r)
(aT ) = aA(r)
T
A(r)
Hom(T 0, r (W ), T 0, r (V ))
T ) T 0, r (V ).
Ejercicio : Probar que (A(r)
(B(r)
T ) T 0, r (V ) y
(A(r)
S) T 0, r (W )
[(AB)(r)
S](v1 , v2 , . . . , vr ) = S[(AB)v1 , (AB)v2 , . . . , (AB)vr ]
= (A(r)
S)(Bv1 , Bv2 , . . . , Bvr )
= [B(r)
(A(r)
S)](v1 , v2 , . . . , vr )
(AB)(r)
(S) = B(r)
(A(r)
S)
(AB)(r)
= B(r)
A(r)
3
A continuacion veremos un tipo mas general que corresponde al concepto
de tensor.
5.2.
Tensores
Definici
on.- Un Tensor es una transformacion multilineal T que
enva el producto cartesiano generalizado de espacios vectoriales sobre el
mismo campo, en K; esto es T : V1 V2 Vn K, donde los espacios vectoriales Vi no son necesariamente diferentes, entendiendose la multilinealidad como la linealidad en cada uno de sus argumentos, en smbolos
tendremos :
T : V1 V2 Vn K es un tensor si cumple con las dos condiciones
siguientes :
164
5. Tensores
i) Si para v1 V1 , v2 V2 , . . . , vn Vn
T (v1 , v2 , . . . , vn ) K.
S(v1 , . . . , vn ) + T (v1 , . . . , vn )
T (v1 , . . . , vn ) + S(v1 , . . . , vn )
def
(T + S)(v1 , . . . , vn )
S+T =T +S
3
T, S
5.2 Tensores
165
O(v1 , . . . , a1 vs + a2 ws , . . . , vn ) = 0 = 0 + 0
= a1 O(v1 , . . . , vs , . . . , vn ) + a2 O(v1 , . . . , ws , . . . , vn )
3
166
5. Tensores
Ejercicio.- En base a las operaciones anteriores y tomando en consideracion al O tensor, mostrar que el conjunto de tensores definidos sobre
V1 V2 Vn forman un espacio vectorial.
Al espacio vectorial de los tensores definidos en V1 V2 Vn se le
simboliza por V1 V2 Vn
Sean T y S dos tensores que estan definidos en V1 V2 Vr , y
W1 W2 Wq respectivamente, se define el producto tensorial T S
con vi Vi y wj = Wj como :
(T S)(v1 , . . . , vr , w1 , . . . , wq ) = T (v1 , . . . , vr )S(w1 , . . . , wq )
Mostrar que el producto tensorial de T y S es un tensor definido en
V1 V2 Vr W1 W2 Wq .
Demostracion : Por demostrar que
i) (T S)(v1 , . . . , vr , w1 , . . . , wq ) K, lo cual se infiere de la definicion
de producto tensorial.
ii) (T S) es multilineal. Esta demostracion tiene dos partes, una que
tiene que ver con la multilinealidad de T y otra con la de S.
Supongamos que existe uk Vk con 1 k n, y a1 , a2 K por lo que
(T S)(v1 , . . . , vr , w1 , . . . , wq )
def
= T (v1 , . . . , a1 vk + a2 vk , . . . , vr )S(w1 , . . . , wq )
= [a1 T (v1 , . . . , vk , . . . , vr ) + a2 T (v1 , . . . , uk , . . . , vr )]S(w1 , . . . , wq )
= a1 T (v1 , . . . , vk , . . . , vr )S(w1 , . . . , wq )
+ a2 T (v1 , . . . , uk , . . . , vr )S(w1 , . . . , wq )
= a1 (T S)(v1 , . . . , vk , . . . , vr , w1 , . . . , wq )
+ a2 (T S)(v1 , . . . , uk , . . . , vr , w1 , . . . , wq )
5.2 Tensores
167
i) (T1 + T2 ) S1 = T1 S1 + T2 S1 .
ii) T1 (S1 + S2 ) = T1 S1 + T1 S2 .
iii (aT1 ) S1 = T1 ) (aS1 ) = a(T1 S1 ) a K.
iv) T1 (S1 R) = (T1 S1 ) R.
Notese que no tiene sentido preguntar si el producto tensorial es conmutativo, pues T1 S1 y S1 T1 estaran definidos en
V1 Vr W1 Wq y W1 Wq V1 Vr
respectivamente.
Si 1 V1 , 2 V2 , . . . , k Vk , entonces 1 2 k es el
tensor en V1 V2 Vk dado por
(1 k )(v1 , . . . , vk ) = 1 (v1 ) k (vk )
con v1 V1 , . . . , vk Vk
D(V )
ir (ejr ) = jirr
y que
168
5. Tensores
T = Ti1 i2 ...ik i1 i2 ik
r = 1, . . . , k.
Puesto que estan, generan y son L.I., los (D(V1 ))(D(V2 )) (D(Vk )) productos tensoriales de la forma i1 i2 ik forman una base de los
tensores definidos en V1 V2 Vk .
2
Como un corolario inmediato, la dimension de los tensores definidos en
V1 V2 Vk es (D(V1 ))(D(V2 )) (D(Vk )), al conjunto de tensores
definidos en V1 V2 Vk se les simboliza por V1 V2 Vk , el cual
tiene estructura de espacio vectorial y lo llamaremos producto tensorial de
los espacios V1 , V2 , , Vk .
Ahora nos restingiremos a los tensores definidos en V1 V2 Vn
donde cada uno de los Vi con 1 i n son V o V [puesto que podemos
interpretar a v V como un elemento de V , tal que su accion sobre un
elemento de V nos manda a K].
Supongamos que T esta definido en V1 V2 Vn , en donde V
aparece r veces y V aparece s veces, a r + s = n se le conoce como rango
del tensor; en este caso se dice que el tensor es r veces covariante y s veces
contravariante.
5.2 Tensores
169
i
V , se tiene que = ck ek , donde (
cj ) es la inversa de (cij ).
En terminos de las bases primadas, un tensor T que este en V V
V V V se escribira
0
Ti1
i2 i3 i5
i4
= T (e0i1 , i2 , i3 , e0i4 , i5 )
= T (cji11 ej1 , cij22 j2 , cij33 j3 , cji44 ej4 , cij55 j5 )
= cji11 cij22 cij33 cji44 cij55 T (ej1 , j2 , j3 , ej4 , j5 )
=
170
5. Tensores
llamando
aT + bS = R, tendremos que
Ri1i2 i3 i4i5 = aTi1 i2 i3i4 i5 + bSi1i2 i3i4i5
(v1 , . . . , vn ) = det(vij )
Siendo det(vij ) el determinante de la matriz formada con las coordenadas de
cada uno de los vij colocados en el orden en que se encuentran los vectores
en la n ada. De las propiedades de los determinantes se deduce que
V
V } , esto es, es un n cotensor en V.
| {z
n veces
Ademas
(v1 , v2 , . . . , vi , . . . , vj , . . . , vn ) = (v1 , v2 , . . . , vj , . . . , vi , . . . , vn )
o sea que es antisimetrico, en particular (v1 , . . . , vn ) = 0 cuando alg
un
vector aparece repetido.
Las coordenadas de est
an dadas por
171
i1 in = (ei1 , . . . , ein )
= det
i11
i21
..
.
i12
i22
..
.
..
.
i1n
i2n
..
.
in1
in2
inn
0 si alg
un subndice aparece repetido
donde ei1 = ij1 ej
Usualmente se
1
1
k1 k2 kn =
Vemos as que en la base ortonormal {ei }ni=1 tiene por coordenadas los
smbolos de Levi-Civita por lo que
= i1 i2 in i1 i2 in
donde {j }j=1
es la base dual de la base ortonormal {ei }ni=1 .
n
Ejercicio.- Mostrar que si {e0i }ni=1 es otra base de V, ortonormal o no,
relacionada con {ei }ni=1 mediante e0i = cji ej , entonces respecto a esta nueva
base las coordenadas de estan dadas por
i01 in = j1 j2 jn (det(cji ))
5.3.
w V, con v V,
172
5. Tensores
dual en V , con T V V V
y T V V V ; entonces
T ijk = Tij r gkr
Demostracion : Puesto que
173
9T V V V
3
esto es, a partir de T V V V, construimos T V V V.
su base dual en V ,
Ejemplo.- Si {ei }ni=1 es una base de V y {j }j=1
n
jk
Ti
Ti
jk
= Tir k g jr
3
5.4.
Contracci
on de Tensores
174
5. Tensores
S(a1 v1 + a2 v2 , b1 1 + b2 2 )
= T (a1 v1 + a2 v2 , i , ei , b1 1 + b2 2 )
= T (a1 v1 , i , ei , b1 1 + b2 2 ) + T (a2 v2 , i , ei , b1 1 + b2 2 )
= a1 T (v1 , i , ei , b1 1 + b2 2 ) + a2 T (v2 , i , ei , b1 1 + b2 2 )
= a1 T (v1 , i , ei , b1 1 ) + a1 T (v1 , i , ei , b2 2 )
+ a2 T (v2 , i , ei , b1 1 ) + a2 T (v2 , i , ei , b2 2 )
= a1 b1 T (v1 , i , ei , 1 ) + a1 b2 T (v1 , i , ei , 2 )
+ a2 b1 T (v2 , i , ei , 1 ) + a2 b2 T (v2 , i , ei , 2 )
= a1 b1 S(v1 , 1 ) + a1 b2 S(v1 , 2 ) + a2 b1 S(v2 , 1 ) + a2 b2 S(v2 , 2 )
S VV
j i
k (ej
S = Ti
i2 i j
i3 k
i3 i2 ej ()k (v)
k )(, v)
j i
k (ej
175
T =0
5.5.
sr
Tensores Alternantes
176
5. Tensores
T (v1 , . . . , vi , . . . , vj , . . . , vk ) = T (v1 , . . . , vj , . . . , vi , . . . , vk )
k (V ). De hecho, k (V ) es un subespacio de V
V } . Para comprobar
| {z
k veces
k
escalares, definidas en V
V }, veamos, tomemos T, S (V ) y
| {z
a K, entonces :
k veces
(T + S)(v1 , . . . , vi , . . . , vj , . . . , vk )
= T (v1 , . . . , vi , . . . , vj , . . . , vk ) + S(v1 , . . . , vi , . . . , vj , . . . , vk )
= T (v1 , . . . , vj , . . . , vi , . . . , vk ) S(v1 , . . . , vj , . . . , vi , . . . , vk )
= (T + S)(v1 , . . . , vj , . . . , vi , . . . , vk )
y
(aT )(v1 , . . . , vi , . . . , vj , . . . , vk ) = a[T (v1 , . . . , vi , . . . , vj , . . . , vk )]
= a[T (v1 , . . . , vj , . . . , vi , . . . , vk )]
= (aT )(v1 , . . . , vj , . . . , vi , . . . , vk )
lo que muestra que T + S y aT k (V ) (observe que el k-cotensor cero es
trivialmente alternante).
Sea {ei }ni=1 una base de V, entonces si v1 , v2 , . . . , vk V, ellos se pueden
escribir como vi = vij ej donde vij K (con i = 1, . . . , k y j = 1, . . . , n), por
tanto si T k (V )
T (v1 , . . . , vk ) = T (v1i1 ei1 , v2i2 ei2 , . . . , vkik eik )
= v1i1 v2i2 vkik T (ei1 , ei2 , . . . , eik )
de este desarrollo vemos que si k > n, entonces T (v1 , v2 , . . . , vk ) = 0, ya que
en cada uno de los factores T (ei1 , ei2 , . . . , eik ) al menos uno de los ei aparece
177
178
5. Tensores
i1
X
j=1
= 0
ya que vj aparece repetido en T (v1 , . . . , vi1 , vj , vi+1 , . . . , vn ).
= ) Para probar la implicacion en este sentido, supongamos que
(v1 , . . . , vn ) es linealmente independiente. Esto significa que {v1 , . . . , vn } es
una base de V, si T (v1 , . . . , vn ) = 0, entonces para cualesquiera n vectores
w1 , . . . , wn V, si wi = wij vj se tiene que :
T (w1 , . . . , wn ) = w1i1 wnin T (vi1 , . . . , vin )
= i1 in w1i1 wnin T (v1 , . . . , vn )
= 0
luego T es el n-cotensor cero, contrario a la hipotesis.
2
k veces
}|
{
z
Hom V V dado por
k veces
(A(k) T )(v1 , . . . , vk )
vk V.
}|
{
z
T (Av1 , . . . , Avk ), para T V V y v1 , . . .,
179
(AB)(n) S = B(n)
(A(n) S) = B(n)
(detA)S
= (detA)B(n)
S = (detA)(detB)S
det(AB) = (detA)(detB)
3
180
5. Tensores
(A(n) S)(v1 , . . . , vn ) = S(Av1 , . . . , Avn ) = (detA)S(v1 , . . . , vn ) = 0
es decir S(Av1 , . . . , Avn ) = 0, lo que implica que {Av1 , . . . , Avn } es linealmente dependiente, para cualesquiera eleccion que se haga de v1 , . . . , vn , por
tanto A no es inyectiva. Este resultado fue encontrado por metodos elementales (ver captulo 2).
5.6.
Elemento de Volumen
Sea V un e.v. de dimension finita (igual a n) sobre R con un producto interior; tal producto interior es un 2-cotensor simetrico en V, al cual
denotaremos por g.
Si {ei }ni=1 es una base ordenada de V ortonormal, definimos el elemento de volumen, , asociado a g, como el n-cotensor alternante, tal que
(e1 , . . . , en ) = 1.
Si v1 , . . . , vn V, (v1 , . . . , vn ) se puede interpretar (o definir) como el
volumen generado por los vectores v1 , . . . , vn . Esta medida de volumen
esta normalizada, tal como lo hemos definido, de manera que el volumen
generado por los vectores e1 , . . . , en sea 1. Debido a que (v1 , . . . , vn ) no
siempre es positivo, se debe considerar como volumen su valor absoluto.
El signo de (v1 , . . . , vn ) indica la orientaci
on de los vectores v1 , . . . , vn . Si
(v1 , . . . , vn ) > 0 diremos que {v1 , . . . , vn } tiene la misma orientaci
on que
{e1 , . . . , en }, y si (v1 , . . . , vn ) < 0, diremos que {v1 , . . . , vn } tiene la orientacion opuesta a la de {e1 , . . . , en }. As por ejemplo, {e2 , e1 , e3 , . . . , en } tiene
la orientacion opuesta a la de {e1 , e2 , e3 , . . . , en }.
Si {e0i }ni=1 es otra base ordenada ortonormal de V, podemos escribir
0
ei = Cei , lo que define completamente al operador C. Entonces :
)(e , . . . , e ) = det C.
(e01 , . . . , e0n ) = (Ce1 , . . . , Cen ) = (C(n)
1
n
181
(ya que det(ct )ij = det(cij )), y por lo tanto (e01 , . . . , e0n ) = 1.
Este u
ltimo resultado muestra que para definir el elemento de volumen
se puede usar cualquier base ortonormal que pertenezca a una orientaci
on
dada. esta definida entonces, una vez que se da el producto interior g, y
se ha elegido una orientacion en V.
5.7.
Producto Exterior
182
5. Tensores
n1
g((v1 . . . vn1 )i ei , uj ej ) = (uj ej , v1i1 ei1 , . . . , vn1
ein1 )
i
i
n1
(v1 . . . vn1 )i uj g(ei , ej ) = uj v11 vn1 (ej , ei1 , . . . , ein1 )
in1
(v1 . . . vn1 )i uj gij = uj v1i1 vn1
ji1 ...in1
n1
(v1 . . . vn1 )i gij = v1i1 vn1
(ej , ei1 , . . . , ein1 )
n1
(v1 . . . vn1 )k = g jk ji1 ...in1 v1i1 vn1
n1
(v1 . . . vn1 )k = ki1 ...in1 v1i1 vn1
v11
v12
..
.
v1n
v21
v22
.. . .
.
.
n
v2
1
vn1
2
vn1
..
.
n
vn1
183
184
5. Tensores
Parte VI
Grupos
185
Captulo 6
Grupos
6.1.
Dentro de la Fsica Matematica, la teora de grupos aparece al estudiar conjuntos de transformaciones, respecto de las cuales alguna variable
de interes no cambia. As por ejemplo el electron de un atomo de hidrogeno
se mueve en un campo que (despreciando el espin) es invariante bajo rotaciones alrededor del n
ucleo. Similarmente el campo que siente un electron
en un cristal perfecto es invariante bajo ciertas transformaciones.
En las teoras compatibles con la relatividad especial, se exige que las
ecuaciones sean invariantes bajo las transformaciones de Lorentz.
La invariancia de un sistema bajo alg
un conjunto de transformaciones,
tanto en Mecanica Clasica como Cuantica, implica la existencia de alguna
variable que se conserva(teorema de Noether).
Repetiremos ahora una definicion dada en el captulo 1.
Definici
on.- Un Grupo G es un conjunto no vaco con una operacion,
mapeo, regla o ley bien definida, tal que a toda pareja ordenada (u, v)
de G le asocia el elemento uv de G, ademas debe de cumplir con las
siguientes propiedades :
Asociativa: u(vw) = (uv)w, para todo u, v, w G.
Existencia del Elemento Identidad: Existe un u
nico e G, tal que
para todo u G, ue = eu = u.
nico
Existencia del Elemento Inverso: Para cada u G, existe un u
u0 G, tal que uu0 = e.
187
188
6. Grupos
Ejercicio.- Mostrar que e y a1 son u
nicos.
1
0
(ij ) =
0
0
0
1
0
0
0
0
1
0
0
0
0
1
La matriz (cji ) de cambio de base : e0j = ckj ek , corresponde (por definicion) a una transformacion de Lorentz si las coordenadas de en la
nueva base son iguales a las coordenadas ij de la base original, es
0 = (e0 , e0 ) son iguales a , de manera expl
decir, si ij
cita, puesto
ij
i j
que
0
ij
189
ij = cki clj kl
[det(cji )] = 1 6= 0.
190
6. Grupos
191
a1
a21
a2 a1
..
.
ah ah a1
a2
a1 a2
a22
ah
a1 ah
a2 ah
..
.
ah a2
a2h
en el i-esimo renglon aparecen los elementos Lai (a1 ), Lai (a2 ), . . . , Lai (ah ),
por el resultado del teorema anterior, en cualquier renglon aparecen todos
los elementos del grupo sin repeticiones. Similarmente en la j-esima columna aparecen los elementos Raj (a1 ), Raj (a2 ), . . . , Raj (ah ); los cuales deben
agotar los elementos del grupo, desde luego sin repeticiones posibles.
Directamente en la tabla se puede ver si el grupo es abeliano, observando
si la tabla es simetrica respecto a la diagonal principal.
Por ejemplo, para el grupo c2v la tabla sera :
E
0
c2
E
E
E
0 c2
c2 0
0
0
c2
E
c2
c2
0
en este caso la tabla es simetrica y el grupo es abeliano. Ademas cada elemento es su propio inverso ya que E aparece en la diagonal principal.
Ejercicio.- Mostrar que si a2 = e para todo a G, entonces G es
abeliano.
Ejemplo.- Consideremos un grupo de orden 3, con elementos a1 , a2 y
a3 , alguno de ellos y( solamente uno) es elemento identidad, digamos que
a1 = e, la tabla de multiplicar sera de la forma :
a1
a2
a3
a1 a2 a3
a1 a2 a3
a2
a3
192
6. Grupos
a2
a2
a3
a1
a3
a3
a1
a2
Por tanto todo grupo de orden 3 debe tener esta tabla de multiplicar.
Por decirlo as solamente existe un grupo de orden 3. Este grupo es abeliano
y ademas todos los elementos del grupo se pueden obtener como potencias
de a2 o a3 : a21 = a1 , a22 = a3 , a23 = a1 , a31 = a3 , a32 = a2 , a33 = a1 .
Grupos con esta caractertica se llaman cclicos y claramente son abelianos.
Ejercicio.- Hallar las dos posibilidades para la tabla de multiplicar de
un grupo de orden 4, y ver cual de ellas corresponde la del grupo c2v .
Es alguno de ellos cclico ? (sugerencia, use el hecho de que en un grupo
finito de orden par, existe cuando menos un elemento a 6= e tal que a2 = e,
afirmacion que demostraremos posteriormente).
Definici
on.- Dado un grupo G, un subgrupo de G es un subconjunto de
G que es un grupo con la operacion en G.
G y {e} son siempre subgrupos de G, y son llamados subgrupos impropios.
En un grupo finito, para un elemento a arbitrario, la sucesion a, a2 , a3 , . . .
debe estar dentro del grupo, por lo que deben existir diferentes potencias
de a que sean iguales : an = am , y multiplicando esta igualdad n veces por
a1 , se encuentra que e = amn .
El mnimo entero positivo k para el cual ak = e se llama el orden de a.
Los k elementos a, a2 , a3 , . . . , ak = e; forman el periodo de a, indicado
por {a}.
Ejercicio.- Mostrar que el periodo de un elemento es un subgrupo abeliano.
En un grupo abeliano es usual escribir a + b en lugar de ab, y na en lugar
de an . Esto coincide con la notacion usada para los espacios vectoriales (que
son grupos abelianos).
193
194
6. Grupos
H
H
H
H
+0=0+H
+1=1+H
+2=2+H
+3=3+H
=H
= {. . . , 15, 11, 7, 3, 1, 5, 9, 13, . . .}
= {. . . , 14, 10, 6, 2, 2, 6, 10, 14, 18, . . .}
= {. . . , 13, 9, 5, 1, 3, 7, 11, 15, 19, . . .}
195
196
6. Grupos
6.2.
197
f 1 (e0 )
198
6. Grupos
6.3 Representaciones
6.3.
199
Representaciones
Una representaci
on de un grupo G es un homomorfismo de G en
alg
un otro grupo. Si ese homomorfismo es inyectivo, la representaci
on es fiel
o verdadera.
Una representaci
on lineal de un grupo G es un homomorfismo de G en
un grupo formado por operadores lineales en alg
un espacio vectorial.
En particular, considerando las matrices cuadradas como operadores lineales, podemos tener representaciones valuadas en matrices cuadradas o,
brevemente, representaciones matriciales.
As pues, una representacion matricial, , de un grupo G es un homomorfismo de G en alg
un conjunto de matrices que forman un grupo. Si las
matrices son n n, la representaci
on se llama de dimensionalidad n.
Siempre existe la representaci
on (1) , de dimensionalidad 1, que enva
todos los elementos de un grupo G en el n
umero (o matriz 1 1) 1. (Se
puede ver facilmente que (1) : G M1,1 (R) dado por : (1) (a) = 1 para
todo a G es in homomorfismo).
Ejemplo.- Tomemos : c2v M1,1 (R) dado por :
(E) = 1, (c2 ) = 1, () = 1, ( 0 ) = 1
Podemos ver que es una representaci
on pues : (ab) = (a)(b) como
puede verificarse explcitamente :
(c2 ) = ( 0 ) = 1 y (c2 )() = (1)(1) = 1
(c2 0 ) = () = 1 y (c2 )( 0 ) = (1)(1) = 1
( 0 ) = (c2 ) = 1 y ()( 0 ) = (1)(1) = 1
etc.
Esta representacion no es fiel pues E y c2 tienen la misma imagen, as como y 0 .
A partir de dos representaciones matriciales 1 y 2 , de dimensionalidad
n1 y n2 respectivamente, de un grupo G, podemos formar una tercera representacion de G de dimensionalidad n1 + n2 , llamada suma directa de 1
2 o bien 1 2 .
y 2 , y que se denota por 1 +
Si a es un elemento de G, 1 (a) es una matriz cuadrada de n1 n1 y
2 (a) es una matriz de n2 n2 , podemos colocar a estas dos matrices como
bloques diagonales de una matriz (n1 + n2 ) (n1 + n2 ), completando el
arreglo con ceros :
200
6. Grupos
1 (a) + 2 (a) =
0 0 ... 0
0 0 ... 0
..
.
1 (a)
0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.
2 (a)
0 0 ... 0
2 es una representaci
Necesitamos ver que efectivamente 1 +
on, es decir
2 (a)][1 (b)+
2 (b)], para ello considerareque : 1 (ab) + 2 (ab) = [1 (a)+
mos
2 (a)][1 (b)+
2 (b)] =
[1 (a)+
0 0 ... 0
0 0 ... 0
..
.
1 (a)
0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.
2 (a)
0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.
1 (b)
0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.
2 (b)
0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.
1 (a)1 (b)
0 0 ... 0
0 0 ... 0
0 0 ... 0
..
.
2 (a)2 (b)
0 0 ... 0
pero puesto que 1 y 2 son representaciones
1 (a)1 (b) = 1 (ab)
6.3 Representaciones
201
1 0
1 0
(1)
(1)
(E)+(E) =
,
(c2 )+(c2 ) =
,
0 1
0 1
1 0
1 0
(1)
(1)
0
0
()+() =
,
y ( )+( ) =
0 1
0 1
es una
Puede verificarse (tal como en el ejemplo anterior), que (1) +
representacion de c2v , efectuando las multiplicaciones de estas matrices.
Nuevamente esta tercera representaci
on no es fiel.
Definici
on.- Dos representaciones matriciales de la misma dimensionalidad y 0 de un grupo G, son equivalentes si existe una matriz regular
(tij ) tal que 0 (a) = (tij )(a)(tij ) (donde (tij ) es la matriz inversa de (tij )
para todos los elementos a G.
En particular, toda representaci
on matricial es equivalente a s misma.
Cuando se tiene una representaci
on matricial, , de un grupo en la cual
(a) es una matriz formada por bloques en la diagonal, con los demas elementos iguales a cero, para toda a en el grupo, cada bloque por separado
pertenece a una representacion de menor dimensionalidad.
Es decir, si para todo a G, (a) esta dado por una matriz de la forma
0 0
.. ..
. .
0 0
0 ... 0
..
..
.
.
0 ... 0
0
...
..
.
0
0 0
.. ..
. .
0 0
0
..
.
0
0
..
.
...
0
...
...
...
0
..
.
...
...
0
0
..
.
...
0
0 ... 0
..
..
.
.
0 ... 0
0
..
.
0
202
6. Grupos
+ cl l (a)
(a) = c1 1 (a) + c2 2 (a)+
a G
6.3 Representaciones
203
(dij ) = (
cij )(bij )(cij )
= (
cij )
h
X
k=1
=
=
h
X
k=1
h
X
(
cij )(ak ) (ak )(cij )
[(
cij )(ak ) (cij )][(
cij )(ak )(cij )]
k=1
definiendo 0 (ak ) = (
cij )(ak )(cij ) y por tanto
0 (ak ) = [(
cij )(ak )(cij )] = (cij ) (ak ) (
cij )
Pero, puesto que (cij ) es una matriz de cambio de base, de una base ortonormal en otra, (cij ) debe ser unitaria, por lo que (cij ) = (
c ) y (
cij ) = (cij ),
Phij
0
0
entonces (ak ) = (
cij )(ak ) (cij ). Por lo que (dij ) = k=1 (ak ) 0 (ak ).
Esta igualdad entre matrices, se puede escribir en terminos de los elementos de las matrices como :
dij =
n
h X
X
k=1 l=1
n
h X
X
k=1 l=1
=
=
n
h X
X
k=1 l=1
h X
n
X
k=1 l=1
204
6. Grupos
d11
d22
0
..
dnn