Professional Documents
Culture Documents
Primer Curso
ÁLGEBRA LINEAL I
20 de diciembre de 2017
Índice general
1. Preliminares 1
1.1. Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Espacios Vectoriales 9
2.1. Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 9
2.2. Teorı́a de la Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3. Aplicaciones Lineales 17
3.1. Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Teorema de Isomorfı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4. Geometrı́a Euclı́dea 23
4.1. Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2. Espacios Vectoriales Euclı́deos . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3. Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5. Endomorfismos 29
5.1. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.2. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.3. Diagonalización de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . 31
3
4 ÍNDICE GENERAL
Capı́tulo 1
Preliminares
Ejemplo: Sea n un número natural, n ≥ 2. Diremos que dos números enteros a, b ∈ Z son
congruentes módulo n cuando b − a es múltiplo de n:
x̄ = [x] := {y ∈ X : x ≡ y} .
1
2 CAPÍTULO 1. PRELIMINARES
[x] = [y] ⇔ x ≡ y ; x, y ∈ X .
excepto la última. Para demostrarla bastará ver que |z + u|2 ≤ (|z| + |u|)2 :
1 z̄ z̄ x y
= 2 = = 2 − 2 i.
z |z| z · z̄ x + y2 x + y2
Exponencial Compleja
Definición: Si t ∈ R, pondremos eti := cos t + i sen t, donde el seno y coseno se consideran
d
en radianes para que dt (eit ) = ieit . Tenemos la fórmula de Euler (1707-1783)
e2πi = 1
para algún número real θ = arg z que llamamos argumento de z (bien definido salvo la
adición de un múltiplo entero de 2π).
Cuando z = x + yi; x, y ∈ R, tenemos que
Ejemplos: Si ρ es un número real positivo, arg ρ = 0, arg (ρi) = π/2, arg (−ρ) = π y
arg (−ρi) = 3π/2 porque
π 3π
ρ = ρe0 , ρi = ρe 2 i , −ρ = ρeπi , −ρi = ρe 2 i .
Por otra parte, las fórmulas del seno y coseno de una suma expresan que
′ ′
eti et i = e(t+t )i
′
eti et i = (cos t + i sen t)(cos t′ + i sen t′ ) =
( ) ( )
= (cos t)(cos t′ ) − (sen t)(sen t′ ) + i (cos t)(sen t′ ) + (sen t)(cos t′ )
′
= cos(t + t′ ) + i sen(t + t′ ) = e(t+t )i ;
′ ′
y la igualdad (ρeθi )(ρ′ eθ i ) = ρρ′ e(θ+θ )i muestra que
√ θ+2kπ
)i = √
ρ e(
θ 2kπ
n n n
ρ e n ie n i
y vemos que las raı́ces n-ésimas de un número complejo no nulo se obtienen multiplicando
una de ellas por las raı́ces n-ésimas de la unidad.
4 CAPÍTULO 1. PRELIMINARES
ln z = ln ρ + (θ + 2kπ)i.
1.3. Permutaciones
Definición: Sean X e Y dos conjuntos. Dar una aplicación f : X → Y es asignar a cada
elemento x ∈ X un único elemento f (x) ∈ Y , llamado imagen de x por la aplicación f .
Si g : Y → Z es otra aplicación, llamaremos composición de g y f a la aplicación
( )
g ◦ f : X −→ Z, (g ◦ f )(x) := g f (x) .
x, y ∈ X, f (x) = f (y) ⇒ x = y
(i.e., cuando, para cada y ∈ Y se tiene que f −1 (y) tiene un elemento o ninguno) y diremos
que f es epiyectiva si todo elemento de Y es imagen de algún elemento de X:
es decir, cuando f (X) = Y o, lo que es igual, cuando para cada y ∈ Y se cumple que f −1 (y)
tiene al menos un elemento.
Diremos que f : X → Y es biyectiva cuando es inyectiva y epiyectiva; es decir, cuando
cada elemento y ∈ Y es imagen de un único elemento de X, de modo que f −1 (y) tiene un
único elemento, y en tal caso f −1 : Y → X sı́ es una aplicación, llamada aplicación inversa
de f porque f −1 ◦ f = IdX y f ◦ f −1 = IdY .
σ : {1, . . . , n} −→ {1, . . . , n} .
1.3. PERMUTACIONES 5
∏
Dada una permutación σ ∈ Sn , los factores de ∆(xσ(1) , . . . , xσ(n) ) = i<j (xσ(j) − xσ(i) )
coinciden, eventualmente salvo el signo, con los de ∆(x1 , . . . , xn ). Luego ambos polinomios
coinciden o difieren en un signo, ∆(xσ(1) , . . . , xσ(n) ) = ±∆(x1 , . . . , xn ), y llamaremos signo
de σ al número entero sgn(σ) = ±1 tal que
Ahora es claro que el signo de un ciclo (a1 . . . ad ) = (a1 a2 )(a2 a3 ) · · · (ad−1 ad ) es (−1)d−1 .
6 CAPÍTULO 1. PRELIMINARES
1.4. Matrices
En adelante pondremos K = Q, R ó C, y llamemos escalares a los elementos de K.
Dada una matriz A = (aij ) de m filas y n columnas (donde el subı́ndice i indica la fila
y el subı́ndice j la columna), su matriz traspuesta es At = (aji ), que tiene n filas y m
columnas. Si B = (bjk ) es otra matriz de n filas y r columnas, su producto AB es una
matriz m × r cuyo coeficiente cik de la fila i y columna k es
∑
n
cik = aij bjk = ai1 b1k + ai2 b2k + . . . + ain bnk .
j=1
Determinantes
Definición: El determinante de una matriz cuadrada A = (aij ) de n filas y columnas es
∑
|A| := (sgn σ)a1σ(1) . . . anσ(n)
σ∈Sn
y tiene las siguientes propiedades (que se probarán en el curso de Álgebra Lineal II):
1. |A| = |At |.
2. Es lineal en cada columna (y por tanto en cada fila):
|A1 , . . . , Ai + Bi , . . . , An | = |A1 , . . . , Ai , . . . , An | + |A1 , . . . , Bi , . . . , An | ,
|A1 , . . . , λAi , . . . , An | = λ|A1 , . . . , Ai , . . . , An | .
3. |Aσ(1) , . . . , Aσ(n) | = (sgn σ)|A1 , . . . , An |.
a11 0 ... 0
a a22 . . . 0
4. 21 = a11 . . . ann , |In | = 1.
. . . . . . . . . . . .
an1 an2 . . . ann
(Nótese que el coeficiente de la fila i y columna j es el adjunto Aji , no Aij ). Por tanto, una
matriz cuadrada A es invertible si y sólo si su determinante no es nulo.
Teorema del Rango: El rango de una matriz es el mayor orden de los menores no nulos.
Como los menores de A y At son los mismos, el rango por filas de cualquier matriz A
coincide con su rango por columnas.
|A1 , . . . , B, . . . , An |
xi =
|A1 , . . . , Ai , . . . , An |
porque la matriz (A1 , . . . , Aj , . . . , An ) tiene dos columnas iguales (las columnas i y j) cuando
i ̸= j. Luego xi = |A1 , . . . , B, . . . , An |/|A1 , . . . , Ai , . . . , An | es la única solución del sistema.
Espacios Vectoriales
e + v = e′ ⇒ e = e′ − v
e + v = e′ + v ⇒ e = e′ , e + v = v ⇒ e = 0 , e + v = 0 ⇒ v = −e
0 · e = 0 , λ · 0 = 0 , −0 = 0
λ · (−e) = (−λ)e = −(λe) , −(−e) = e , (−1)e = −e
λ(e − v) = λe − λv , (λ − µ)e = λe − µe
λe = 0 ⇒ λ = 0 ó e = 0
1. v1 + v2 ∈ V , para todo v1 , v2 ∈ V .
2. λv ∈ V , para todo λ ∈ K y v ∈ V .
3. 0∈V.
9
10 CAPÍTULO 2. ESPACIOS VECTORIALES
Ejemplos:
e λe
O
Las rectas y planos que pasan por el origen O son subespacios vectoriales, y una flecha
con origen en un punto a y final en b denotará b − a. dados tres puntos a, b, c, si
ponemos e = b − a, v = c − b, tendremos que e + v = c − b + b − a = c − a:
e+v v
a b
e
V + W := {e ∈ E : e = v + w para algún v ∈ V, w ∈ W } = {v + w; v ∈ V, w ∈ W }
X = p + V := {e ∈ E : e = p + v para algún v ∈ V } = {p + v; v ∈ V } .
Veamos que estas definiciones no dependen de los vectores elegidos en las clases:
Si [e1 ] = [e′1 ] y [e2 ] = [e′2 ], entonces e′1 − e1 , e′2 − e2 ∈ V ; luego e′1 + e′2 − (e1 + e2 ) ∈ V y
por tanto [e1 + e2 ] = [e′1 + e′2 ].
Si [e] = [e′ ], entonces e′ − e ∈ V ; luego λe′ − λe = λ(e′ − e) ∈ V y por tanto [λe] = [λe′ ].
Con esta estructura de espacio vectorial que hemos de definido en E/V , el opuesto de
un vector ē ∈ E/V es [−e], y el vector nulo de E/V es precisamente la clase de 0 ∈ E, de
modo que ē = 0 precisamente cuando e ≡ 0 (módulo V ):
[e] = 0 ⇔ e ∈ V (2.1)
Ke1 + . . . + Ken = E .
λ1 e1 + . . . + λn en = 0 ⇒ λ1 = . . . = λn = 0 ; donde λ1 , . . . , λn ∈ K.
e = x1 e1 + . . . + xn en ,
Ejemplos 2.2.1
4. Las matrices m × n que tienen todos sus coeficientes nulos, excepto uno que es la
unidad, definen una base de Mm×n (K), base que está formada por mn matrices. Las
coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz.
Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual número de vectores.
Ejemplos 2.2.3
1. Según los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K (Ke) = 1; y si
además v ∈/ Ke, entonces dim K (Ke + Kv) = 2.
También, dimK K n = n y dimK Mm×n (K) = mn .
4. El K-espacio vectorial K[x], formado por todos los polinomios con coeficientes en K
en una indeterminada x, tiene dimensión infinita, porque los polinomios 1, x, . . . , xn
son linealmente independientes.
El subespacio vectorial Pn := K + Kx + . . . + Kxn , formado por los polinomios de
grado ≤ n con coeficientes en K, admite la base 1, x, . . . , xn ; luego dim Pn = n + 1.
Demostración: Veamos que {e1 , . . . , en } contiene una base de E, por inducción sobre n.
Si n = 1, e1 ̸= 0 porque Ke1 = E ̸= 0; luego e1 es ya una base de E = Ke1 .
Si n > 1, y los vectores e1 , . . . , en son linealmente independientes,
∑n forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relación i=1 λi ei = 0 con algún
coeficiente λi no nulo. Reordenando los vectores e1 , . . . , en podemos suponer que λn ̸= 0.
Despejando en tenemos que en ∈ Ke1 + . . . + Ken−1 . Luego E = Ke1 + . . . + Ken−1 , y por
hipótesis de inducción {e1 , . . . , en−1 } contiene una base de E.
Por último, si n = dim E, entonces los vectores e1 , . . . , en ya forman una base de E;
porque una base de E no puede tener menos de n vectores según 2.2.2.
λ1 e1 + . . . + λn en + λe = 0,
Proposición 2.2.6 Sea E un espacio vectorial de dimensión finita. Toda familia {e1 , . . . , er }
de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E.
Por tanto r ≤ dim E, y si además r = dim E, entonces los vectores e1 , . . . , er ya forman
una base de E.
∑s ∑s ∑s
Si 0 = i=1 λi ēi = [ i=1 λi ei ], entonces i=1 λi ei ∈ V de acuerdo con 2.1, ası́ que
λ1 e1 + . . . + λs ee = µ1 v1 + . . . + µr vr
∑s ∑r
para ciertos escalares µ1 , . . . , µr . Luego i=1 λi ei − j=1 µj vj = 0, y como los vectores
v1 , . . . , vr , e1 , . . . , es son linealmente independientes, concluimos que λ1 = . . . = λs = 0.
Ejemplos:
1. Dados n vectores de coordenadas (a11 , . . . , an1 ), . . . , (a1n , . . . , ann ) en un K-espacio
vectorial de dimensión n, la condición necesaria y suficiente para que formen una base
de K n es que el determinante de la matriz A = (aij ) no sea nulo.
2. Por dos puntos distintos p y q = p + e pasa una única recta p + Ke, formada por los
puntos p + λe = (1 − λ)p + λq; es decir, los puntos αp + βq, con α + β = 0.
p+q
El punto p + 12 e = 2 recibe el nombre de punto medio entre p y q.
3. Por tres puntos distintos no alineados a, b = a + e, c = a + v pasa un único plano
a + Ke + Kv, formado por los puntos p + λe + µv = (1 − λ − µ)a + λb + µc; es decir,
los puntos αa + βb + γc con α + β + γ = 0.
En efecto, tenemos que e = b − a ̸= 0, v = c − a ̸= 0, y v ∈ / Ke porque c = a + v
no está en la recta a + Ke que pasa por a y b. Luego dim (Ke + Kv) = 2, y el plano
a+Ke+Kv pasa por los tres vértices. Y es el único, si otro plano P = p+V pasase por
ellos, entonces b, c ∈ P = a + V ; luego e = b − a, v = c − a ∈ V , ası́ que Ke + Kv ⊆ V ,
y ambos subespacios vectoriales coinciden porque son de dimensión 2.
4. Sean X = p + V , Y = q + W dos subvariedades lineales paralelas de igual dimensión.
Como dim V = dim W , y además V ⊆ W ó W ⊆ V , 2.2.7.1 afirma que V = W : dos
subvariedades lineales paralelas de igual dimensión tienen la misma dirección.
Teorema de Rouché-Frobënius (1832-1910, 1849-1917): Un sistema de ecuaciones linea-
les AX = B es compatible si y sólo si rgA = rg(A|B) .
s : V1 × . . . × Vr −→ V1 + . . . + Vr , s(v1 , . . . , vr ) = v1 + . . . + vr ,
Teorema 2.3.1 La condición necesaria y suficiente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V ∩ W = 0.
0 = 0 + 0 = e + (−e) ,
e = v + w = v ′ + w′ ; v, v ′ ∈ V, w, w′ ∈ W
Ejemplos:
1. Si e1 , . . . , en es una base de un espacio vectorial E, entonces cada vector e ∈ E des-
compone de modo único como combinación lineal e = λ1 e1 + . . . + λn en ; luego
E = Ke1 ⊕ . . . ⊕ Ken
Aplicaciones Lineales
Toda aplicación lineal f : E → E ′ verifica que f (0) = 0, que f (−e) = −f (e), y también
que f (λ1 e1 + . . . + λn en ) = λ1 f (e1 ) + . . . + λn f (en ).
( )
En efecto, f (0) = f (0 · 0) = 0 · f (0) = 0, f (−e) = f (−1)e = (−1)f (e) = −f (e) y
f (λ1 e1 + . . . + λn en ) = f (λ1 e1 ) + . . . + f (λn en ) = λ1 f (e1 ) + . . . + λn f (en ).
′ ′ ′′
Proposición 3.1.1 Si dos aplicaciones f (: E →) E y h : E → E son K-lineales, entonces
′′
su composición hf : E → E , (hf )(e) = h f (e) , también es K-lineal.
es un subespacio vectorial de E ′ .
17
18 CAPÍTULO 3. APLICACIONES LINEALES
Ejemplos:
3. Cada matriz A ∈ Mm×n (K) define una aplicación lineal f : K n → K m , f (X) = AX,
cuyo núcleo Ker f está formado por todas las soluciones de la ecuación homogénea
AX = 0. Por otra parte, la condición B ∈ Im f significa que el sistema de m ecuaciones
lineales con n incógnitas AX = B es compatible.
f : K n −→ E , f (λ1 , . . . , λn ) = λ1 e1 + . . . + λn en ,
X ′ = AX (3.2)
dim (Im f ) = rg A
∑ ∑
Demostración: Sea e1 , . . . , en una base de E. Como f ( i λi ei ) = i λi f (ei ), la imagen de
f está generada por los vectores f (e1 ), . . . , f (en ):
Im f = ⟨f (e1 ), . . . , f (en )⟩ ,
Diremos que dos K-espacios vectoriales E y E ′ son isomorfos si existe algún isomorfismo
K-lineal f : E → E ′ , en cuyo caso pondremos E ≃ E ′ .
Ejemplos:
1. Si una matriz A ∈ Mn×n (K) es invertible, la aplicación que induce f : K n → K n ,
f (X) = AX, es un isomorfismo, y el isomorfismo inverso f −1 : K n → K n es precisa-
mente el que define la matriz inversa A−1 ; es decir, f −1 (X) = A−1 X.
2. Si V1 , . . . , Vn son subespacios vectoriales de un espacio vectorial E, la aplicación
s : V1 × . . . × Vn → V1 + . . . + Vn , s(v1 , . . . , vn ) = v1 + . . . + vn ,
f : K n −→ E , f (x1 , . . . , xn ) = x1 e1 + . . . + xn en ,
E/Ker f ≃ Im f
Demostración: Veamos primero que ϕ es una aplicación bien definida, que ϕ(ē) no depende
del representante elegido, que si ē = v̄, entonces f (e) = f (v). Ahora bien, si ē = v̄, entonces
e ≡ v (módulo Ker f ); luego v − e ∈ Ker f , 0 = f (v − e) = f (v) − f (e) y f (e) = f (v).
Veamos ahora que tal aplicación ϕ es lineal:
Corolario 3.2.1 Para toda aplicación lineal f : E → E ′ entre espacios vectoriales de di-
mensión finita tenemos que
2.2.7
Demostración: dim (Im f ) = dim (E/Ker f ) = dim E − dim (Ker f ) .
3.2.1 3.1.4
Demostración: dim (Ker f ) = dim E − dim (Im f ) = dim E − rg A.
Corolario 3.2.3 Sea A una matriz m × n con coeficientes en K. Las soluciones del sistema
homogéneo AX = 0 forman un subespacio vectorial de K n de dimensión n − rg A; y las
soluciones de un sistema no homogéneo compatible AX = B forman una subvariedad lineal
de K n de dirección AX = 0 y dimensión n − rg A.
Definición: Fijada una base de un espacio vectorial de dimensión finita E, dar ecuaciones
paramétricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores de V (mejor si forman una base de V ), y dar ecuaciones implı́citas de V es dar
un sistema homogéneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones
sean las coordenadas de los vectores de V .
Dar ecuaciones paramétricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores de la dirección de X, y dar ecuacio-
nes implı́citas de X es dar un sistema de ecuaciones lineales cuyas soluciones sean las
coordenadas de los puntos de X.
3.2. TEOREMA DE ISOMORFÍA 21
Ejemplo: Fijada una base (e1 , . . . , en ) de un espacio vectorial E, las ecuaciones paramétricas
e implı́citas del subespacio vectorial nulo son
x1 = 0λ x1 = 0
...... , ......
xn = 0λ xn = 0
mientras que la ecuación implı́cita de E es 0x1 + . . . + 0xn = 0, y las paramétricas son
x1 = λ1
......
xn = λn
cuya dirección V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de
modo que dim V = 2. Hallemos primero ecuaciones implı́citas de la dirección V .
Si (x1 , x2 , x3 , x4 ) son las coordenadas de un vector de V , entonces
1 4 x1
1 4 x1
2 3 x2
2 = rg
3 2 x3 , 0 = 2 3 x2 = −5x1 + 10x2 − 5x3
3 2 x3
4 1 x4
1 4 x1
0 = 2 3 x2 = −10x1 + 15x2 − 5x4
4 1 x4
Como ambos subespacios vectoriales de K 4 tienen dimensión 2, coinciden, y 3.3 son las
ecuaciones implı́citas de V . Ahora, como X pasa por el punto de coordenadas (2, 1, 1, 3), las
ecuaciones implı́citas de X son
}
x1 − 2x2 + x3 = 1
2x1 − 3x2 + x4 = 4
Las columnas de la matriz de cambio de base B están formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id : E → E cuando en el espacio de salida se considera la nueva base v1 , . . . , vn y en el de
llegada la base antigua e1 , . . . , en .
Por tanto, de acuerdo con 3.2, si Y son las coordenadas de un vector e ∈ E en la nueva
base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = BY .
Por otra parte, también tenemos una matriz de cambio de base C ∈ Mn×n (K) cuando
se considera que v1 , . . . , vn es la base inicial de E y que e1 , . . . , en es la nueva base, de
modo que Y = CX. Luego X = BCX y Y = CBY , y como estas igualdades son válidas
para cualesquiera columnas X, Y , se concluye que BC = CB = I. Es decir, la matriz B es
invertible, y su inversa es la matriz C. En resumen, la relación entre las coordenadas X e Y
de un mismo vector e ∈ E en las bases e1 , . . . , en y v1 , . . . , vn respectivamente es
X = BY , Y = B −1 X (3.5)
Aplicaciones Lineales
Sea f : E → E ′ una aplicación lineal y sea A ∈ Mm×n (K) la matriz de f en ciertas bases
e1 , . . . , en y e′1 , . . . , e′m de E y E ′ respectivamente.
Consideremos nuevas bases v1 , . . . , vn y v1′ , . . . , vm
′
de E y E ′ respectivamente, las co-
rrespondientes matrices de cambio de base B ∈ Mn×n (K) y C ∈ Mm×m (K), y sea Ā ∈
Mm×n (K) la matriz de f en estas nuevas bases de E y E ′ . Vamos a determinar la nueva
matriz Ā de f en términos de la matriz A y las matrices de cambio de base B y C
Sean X e Y las coordenadas de un vector e ∈ E en las bases e1 , . . . , en y v1 , . . . , vn
respectivamente, y sean X ′ e Y ′ las coordenadas de f (e) ∈ E ′ en las bases e′1 , . . . , e′m y
v1′ , . . . , vm
′
respectivamente. De acuerdo con 3.2 tendremos que
X ′ = AX , Y ′ = ĀY
AX = X ′ = CY ′ = C ĀY = C ĀB −1 X .
A = C ĀB −1 , Ā = C −1 AB (3.6)
Capı́tulo 4
Geometrı́a Euclı́dea
Ejemplos:
1. En la geometrı́a euclı́dea, los vectores con origen en un punto prefijado O forman un
espacio vectorial real de dimensión 3. Fijada una unidad de longitud, el módulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es
el producto de sus módulos por el coseno del ángulo que forman. Éste es el ejemplo
paradigmático de producto escalar, que motiva los nombres que introduciremos.
2. El producto escalar usual en Rn es
∑
n
(x1 , . . . , xn ) · (y1 , . . . , yn ) := xi yi = x1 y1 + . . . + xn yn .
i=1
23
24 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA
luego (e · v)2 ≤ (e · e)(v · v), y tomando raı́z cuadrada vemos que |e · v| ≤ ∥e∥ · ∥v∥.
En cuanto a la desigualdad triangular, como |e · v| ≤ ∥e∥ · ∥v∥, tenemos que
(de modo que el ángulo α que forman e y v está bien definido salvo un signo). El ángulo que
forman 3 puntos distintos abc es el ángulo que forman los vectores a − b y c − b. Diremos
que dos vectores e, v ∈ E son ortogonales cuando e · v = 0; es decir, cuando cos α = 0.
Cuando λµ > 0, el ángulo que forman e y v coincide con el que forman λe y µv, porque
(λe) · (µv) λµ(e · v) e·v
= = ·
∥λe∥ · ∥µv∥ |λµ| · ∥e∥ · ∥v∥ ∥e∥ · ∥v∥
Ejemplos:
1. Si en un triángulo (la figura formada por tres puntos distintos no alineados a, b, c
llamados vértices) consideramos los vectores e = b − a y v = c − a, de modo que
c − b = v − e, de la igualdad
c
e · v = 0 ⇔ ∥v − e∥2 = ∥e∥2 + ∥v∥2
v v−e
α α = π/2 ⇔ ∥c − b∥2 = ∥b − a∥2 + ∥c − a∥2
a e b
3. Las medianas (rectas que unen un vértice con el punto medio del lado opuesto) de
un triángulo abc se cortan en el punto g = a+b+c
3 , llamado baricentro, que divide a
cada mediana en la proporción 2:1,
( )
a+b+c a 2b+c b 2a+c c 2a+b 2 b+c
= + = + = + =a+ − a = ...
3 3 3 2 3 3 2 3 3 2 3 2
c
a+c
2 b+c
2
a b
a+b
2
4. Si h es el punto de corte de las alturas (rectas que pasan por un vértice y son per-
pendiculares al lado opuesto) trazadas por c y a, tenemos que
(b − a) · (h − c) = 0 (4.1)
(c − b) · (h − a) = 0 (4.2)
y sumando obtenemos que (c − a) · (h − b) = 0, de modo que la altura trazada por el
tercer vértice b pasa también por h: Las tres alturas de un triángulo se cortan en un
punto h, llamado ortocentro.
5. Si f es el punto de corte de las mediatrices (rectas perpendiculares a los lados por
el punto medio) de los lados ab y bc, tendremos que
0 = 2(b − a) · (f − a+b
2 ) = (b − a) · 2f + a · a − b · b (4.3)
0 = 2(c − b) · (f − b+c
2 ) = (c − b) · 2f + b · b − c · c (4.4)
y sumando obtenemos que 0 = (c − a) · 2f + a · a − c · c = 2(c − a) · (f − a+c
2 ), de modo
que la mediatriz del lado ab también pasa por f : las tres mediatrices se cortan en un
punto f , llamado circuncentro.
a+b+c
6. Sumando 4.1 con 4.3, y 4.2 con 4.4, como el baricentro es g = 3 , obtenemos
(b − a) · (h + 2f − 3g) = 0
(c − b) · (h + 2f − 3g) = 0
e
a b
26 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA
Como los vectores e, v son linealmente independientes, porque los puntos abd no están
alineados, se sigue que λ = µ = 1, de modo que los lados opuestos son iguales, c − d =
b − a y c − b = d − a, y las dos diagonales se bisecan mutuamente:
a+c b+d a+b+c+d
= = .
2 2 4
Corolario 4.2.2 E = V ⊥ ⊕ V y (V ⊥ )⊥ = V .
Demostración: Como V ⊥ ∩ V = 0, la suma de V y V ⊥ es directa por 2.3.1 y, de acuerdo con
3.2.5, su dimensión es dim (V ⊥ ⊕ V ) = dim V ⊥ + dim V = dim E, ası́ que 2.2.7.1 permite
concluir que V ⊥ ⊕ V = E. Además V ⊆ (V ⊥ )⊥ por definición de V ⊥ , y por 4.2.1
dim (V ⊥ )⊥ = dim E − dim (V ⊥ ) = dim E − (dim E − dim V ) = dim V ,
ası́ que de nuevo 2.2.7.1 permite concluir que (V ⊥ )⊥ = V .
Endomorfismos
5.1. Polinomios
Sea p(x) un polinomio no constante con coeficientes complejos. En este capı́tulo usaremos
el siguiente teorema fundamental, que se demostrará en el curso de Variable Compleja:
Regla de Ruffini (1765-1822): Si α es una raı́z compleja de p(x), i.e. p(α) = 0, entonces
p(x) es múltiplo de x − α:
p(x) = (x − α)q(x) .
Demostración: Dividiendo p(x) por x − α tendremos que p(x) = (x − α)q(x) + r, donde el
resto r es de grado menor que 1; luego constante.
Sustituyendo x = α en esta igualdad obtenemos que el resto es nulo:
0 = p(α) = (α − α)q(α) + r = r .
donde α1 , . . . , αr son las raı́ces complejas de p(x), los exponentes m1 , . . . , mr son sus res-
pectivas multiplicidades, y c es constante.
Esta descomposición muestra que el número de raı́ces complejas de un polinomio no
constante, contadas con su multiplicidad, coincide siempre con el grado del polinomio.
29
30 CAPÍTULO 5. ENDOMORFISMOS
Ā = B −1 AB (5.2)
y tenemos que
lo que significa que rg (αI − A) < n, y ocurre justo cuando cT (α) = |αI − A| = 0.
para cierta matriz cuadrada Ā de n − 1 columnas. Luego c(x) = (x − α)c̄(x), donde c̄(x) =
|xI − Ā| y, por hipótesis de inducción, c̄(Ā) = 0. Ahora
( r )
α ...
Ar =
0 Ār
( )( ) ( )( )
0 ... c̄(α) ... 0 ... c̄(α) ...
c(A) = (A − αI)c̄(A) = = =0.
0 B 0 c̄(Ā) 0 B 0 0
Ejemplos:
1. Para resolver la ecuación diferencial x′′ = ax′ + bx, a, b ∈ R, planteamos el siguiente
sistema de ecuaciones diferenciales con una nueva función incógnita y(t):
{ ( )′ ( )( ) ( )
x′ = y x 0 1 x 0 1
, = , A=
y ′ = ay + bx y b a y b a
Si el polinomio caracterı́stico u2 −au−b tiene dos raı́ces reales y distintas (a2 +4b > 0)
√
a ± a2 + 4b
α1 , α2 =
2
éstas son los valores propios de tal endomorfismo. Para hallar vectores propios se han
de resolver los sistemas de ecuaciones lineales homogéneos
( )( ) ( ) ( )( ) ( )
α1 −1 x1 0 α2 −1 x1 0
= , =
−b α1 − a x2 0 −b α2 − a x2 0
α1 x1 − x2 = 0 , α2 x1 − x2 = 0
Los vectores propios e1 = (1, α1 ) y e2 = (1, α2 ) forman una base de R2 ,y nos permiten
diagonalizar la matriz A:
( ) ( )
α1 0 1 1
D= = B −1 AB , B=
0 α2 α1 α2
En las soluciones reales c1 y c2 han de ser conjugados, c1 = ρeiθ y c2 = ρe−iθ , ası́ que
( )
x(t) = eαt ρei(ωt+θ) + ρe−i(ωt+θ)
3. Para hallar las sucesiones (xn ) = (x0 , x1 , . . .) tales que xn+2 = axn+1 +bxn , planteamos
el siguiente sistema de ecuaciones con una nueva sucesión incógnita (yn ):
{ ( ) ( )( )
xn+1 = yn xn+1 0 1 xn
, = , Xn+1 = AXn
yn+1 = ayn + bxn yn+1 b a yn
( ) ( )( ) ( ) ( )−1 ( )
xn α1n α2n c1 c1 1 1 x0
= , = (5.3)
yn α1n+1 α2n+1 c2 c2 α1 α2 y0
xn = c1 α1n + c2 α2n
xn = c1 ϕn + c2 (−ϕ)−n . (5.4)
Demostración: Sea Vα1 × . . . × Vαm el espacio vectorial formado por las sucesiones de vec-
tores (v1 , . . . , vm ), donde vi ∈ Vαi . Por definición de suma directa, hemos de probar que es
inyectiva la siguiente aplicación lineal (que siempre es epiyectiva):
0 = T (v1 + . . . + vm ) = α1 v1 + . . . + αm vm
mi = dim Vαi .
m1 + . . . + mr = gr cT (x) = dim E .
altura, 25 ecuaciones
aplicación, 4 implı́citas, 20
biyectiva, 4 paramétricas, 20
epiyectiva, 4 endomorfismo, 30
inversa, 4 diagonalizable, 31
inyectiva, 4 epiyectiva, aplicación, 4
lineal, 17 equivalencia
argumento, 3 , clase de, 1
áurea, proporción, 33 , relación de, 1
escalar, 6
baricentro, 25 , producto, 23
base, 12 espacio vectorial, 9
, cambio de, 22 cociente, 11
ortonormal, 27 euclı́deo, 26
biyectiva, aplicación, 4 Euler
, fórmula de, 3
cambio de base, 22 , recta de, 25
caracterı́stico, polinomio, 30 exponencial compleja, 4
ciclo, 5
circuncentro, 25 generadores, sistema de, 12
clase de equivalencia, 1 Gram-Schmidt, método de, 28
cociente
, conjunto, 1 Hamilton-Cayley, teorema de, 31
, espacio vectorial, 11
complejos, números, 2 identidad, 4
composición, 4 imagen, 4, 17
congruencia, 1, 11 imaginaria, parte, 2
conjugado, 2 impar, permutación, 5
conjunto cociente, 1 implı́citas, ecuaciones, 20
coordenadas, 12 independencia lineal, 12
coseno, 24 inversa
Crámer, regla de, 7 , aplicación, 4
cuadrilátero, 25 , matriz, 6
invertible, matriz, 6
D’Alembert, teorema de, 29 inyectiva, aplicación, 4
dependencia lineal, 12 isomorfı́a, teorema de, 20
determinante, 6 isomorfismo, 19
diagonalizable, endomorfismo, 31
diagonalización, criterio de, 34 lineal
dimensión, 13 , aplicación, 17
dirección, 11 , dependencia, 12
directa, suma, 16 , independencia, 12
disjuntos, ciclos, 5 , subvariedad, 11
distancia, 23, 27 logaritmo neperiano, 4
35
36 ÍNDICE ALFABÉTICO
paralelismo, 11
paralelogramo, 25
paramétricas, ecuaciones, 20
permutación, 4
impar, 5
par, 5
perpendicularidad, 27
Pitágoras, teorema de, 24
plano, 13
polinomio caracterı́stico, 30
producto
de matrices, 6
de números complejos, 2
escalar, 23
propio
, valor, 30
, vector, 30
proyección
ortogonal, 27
punto, 9
raı́z simple, 29
rango, 7
, teorema del, 7
real, parte, 2
recta, 13
relación, 1
de equivalencia, 1
Rouché-Frobënius, teorema de, 7, 15
Ruffini, regla de, 29