Professional Documents
Culture Documents
23 de marzo de 2018
0.1. Sistemas Lineales
¿Qué es una ecuación lineal? Es un polinomio en varias variables con
coeficientes en R o C, de grado menor o igual a uno igualado a cero. Se acos-
tumbra escribir todas las variables del lado izquierdo y la constante del lado
derecho del signo igual. Ejemplos de ecuaciones lineales escritas de manera
estándard son las siguientes:
3. x + y + z = 1, x = 0, x − y = 1, 0x + 0y + 0z = 1, 0x + 0y + 0z = 0,
todas en tres variables x, y, z.
a1 x1 + · · · + an xn = b
ii
⎧ 2
⎪
⎪ 5
x−y = 1
x + 3y = 5
⎪
⎪ ⎧
⎨ x=5
⎪
⎪ %
0x + 0y = 1 x−y+z = 1
⎨
(d) (e) (f ) 0x = 1
7x − y = 3 x+y+z =5
7x = 3
⎪
⎪ ⎩
x+y =0
⎪
⎪
⎪
⎪
πx + y = 0
⎩
El par (2, 3) es solución de x − y = −1 porque 2 − 3 = −1. De la
misma manera la terna (1, 0, 0) es una de las muchas soluciones de la ecuación
x+ y + z = 1; otras soluciones, a modo de ejemplo, son las ternas (1/2, 1/2, 0)
(3, 0, −2) (1, π, −π), etc. Pronto descubriremos que listar soluciones de una
o varias ecuaciones lineales no es buena idea a menos que sean en cantidad
finita.
Una n-upla (x1 , x2 , . . . , xn ) es solución de una sistema lineal si es solución
de cada una de las ecuaciones que componen al sistema. Si denotamos el
conjunto solución de una ecuación dada por Sol.(ecuación) y el sistema lineal
se escribe ⎧
⎪
⎪ ecuación1
ecuación2
⎨
sistema
⎪
⎪ ···
ecuaciónm
⎩
iii
lineales. Con mayor precisión,
⎧
⎨ una línea en R2 , si a ̸= 0 o b ̸= 0
Sol.(ax+by = c) representa todo R2 , si a = 0 y b = 0, y c = 0.
el vacío, si a = 0 y b = 0, y c ̸= 0.
⎩
Los ⎧
sistemas de la figura fig. 1 ⎧
bien podrían ser ⎧
⎨ 3x − y = −1 ⎨ −2x − y = 1 ⎨ −x − y = 1
(a) x + 5y = 0 (b) −2x − y = 5 (c) −x − y = 5
−3x − y = 7 x−y = 2 −x − y = 6
⎩ ⎩ ⎩
iv
⎧ 2
x−y = 1 ⎧ ⎧
⎨ 5 ⎨ x − y = −1 ⎨ 0x + 0y = 0
⎪
⎪
x+y =0
(d) (e) 3x − 3y = −3 (f ) 0x + 0y = 0
x−y =0
0x + 0y = 0 0x + 0y = 0
⎪
⎪ ⎩ ⎩
x + 0y = 0
⎩
En donde hemos representado todo el plano como un cuadrado con puntas
redondeadas; tal es el caso del conjunto solución de la ecuación 0x + 0y = 0.
Observe que los tres primeros sitemas (a), (b) y (c) de la fig. 1, no tienen so-
lución: su conjunto solución es la intersección de tres líneas que se intersectan
en el conjunto vacío.
Una impresión gráfica similar puede obtenerse de sistemas en tres varia-
bles;
⎧
⎨ un plano en R3 , si a ̸= 0 o b ̸= 0 o c ̸= 0
Sol.(ax+by+cz = d) representa todo R3 , si a = 0 y b = 0 y c = 0 y d = 0.
el vacío, si a = 0 y b = 0 y c = 0 y d ̸= 0.
⎩
En la fig. 2, (a) y (c) no tienen solución por existir cierto grado de para-
lelismo entre los planos que describen las ecuaciones del sistema lineal; (b)
tiene única solución (vértice de la esquina.)
El problema consiste en encontrar todas las soluciones simultáneas a
todas las ecuaciones de un sistema lineal dado, justificando que las soluciones
obtenidas completan la el conjunto solución.
v
La idea para resolver un sistema lineal es muy simple: eliminar variables
mediante sustitución y así obtener un sistema lo más simple posible al que
le sea posible leer las soluciones sin más, sin mediar operaciones o cuentas.
Pero antes de pensar en un método algebraico que resuelva cualquier sistema
lineal, miremos el problema geométricamente.
Ejemplo.
Sea el sistema dos por dos
%
3x − y = 1
x + 2y = 5
3(5 − 2y) − y = 1
15 − 6y − y = 1
−7y = −14
quedando de esta manera el sistema
%
− 7y = −14 (se eliminó x desde la segunda por sustitución)
x + 2y = 5 (sin cambio)
vi
Observe la prolijidad: La primera columna se reserva para la primer variable,
la segunda columna para la segunda variable y la tercera columna para las
constantes. Todos los iguales están alineados verticalmente también.
Ahora mire este ejemplo nuevamente desde el libro de Haeussler-Paul, p.
250-251. Realice las gráficas de las líneas correspondientes a los sistemas de
los pasos intermedios. Todo junto para este ejemplo debería verse así:
✂
5 ✂
2 ❍!✂❍ (1,2)
✂ ❍❍
%
3x − y = 1
✂ ❍
x + 2y = 5 0 ✂ 13 5
-1
5
❍!(1,2)
% 2 ❍❍
− 7y = −14 ❍❍
x + 2y = 5 0 5
5
2
(1,2)
❍!❍
❍
%
y = 2 ❍❍
x + 2y = 5 0 5
% 2 !(1,2)
y = 2
x = 1 0 1
vii
Problemas:
En cada uno de los siguientes casos calcular el conjunto solución mediante
eliminación de variables y graficar la línea que representa cada ecuación en
cada paso intermedio de los cómputos.
%
x − y = 1
1.
x + y = 5
⎧
⎪
⎪ x + 2y = 3
3y = 1
⎨
2.
⎪
⎪ 2x = −1
x − y = 0
⎩
⎧
⎨ x − y = 0
3. x + y = 1
3x − 3y = −1
⎩
⎧
⎨ x + 2y = 1
4. 3x + 6y = 3
−x − 2y = −1
⎩
⎧
⎪
⎪ x − y = 2
2x + 3y = 1
⎨
5.
⎪
⎪ 3x + 2y = 3
x + 4y = −1
⎩
⎧
⎨ x + y = 3
6. 2x − y = 4
⎩ 3
7
x + 0y = 5
Preguntas
Analice cada una de las siguientes preguntas y afirmaciones. Si no tiene
ahora la respuesta, mantengase alerta hasta que, al avanzar el curso, en-
cuentre las explicaciones. Intente jugar con ejemplos pequeños, como los del
problema anterior.
viii
2. ¿Es posible para un sistema lineal tener exactamente tres soluciones?
3. Si un sistema lineal tiene dos soluciones distintas, entonces tiene infi-
nitas soluciones.
4. Si cierto sistema lineal de ecuaciones tiene un número finito no nulo de
soluciones, ¿cuántas soluciones tiene?
5. Cierto sistema lineal de tres ecuaciones en dos incógnitas tiene conjun-
to solución
{(x, y)/x + y = 0}. ¿Qué puede decir a cerca del sistema original?
ix
Definición 0.3. Dado un sistema lineal cualquiera, son operaciones elemen-
tales alguna de las siguientes
1. A la ecuación en la fila i se la reemplaza por la misma ecuación más un
múltiplo de otra en la fila j con j ̸= i. Es particularmente importante
que i sea distinto de j, siendo posible que la acuación de la fila i sea
igual a la de la fila j.
2. A la ecuación de la fila i se la reemplaza por la misma ecuación multi-
plicada por un escalar no nulo. De nuevo es crucial que el escalar sea
no nulo.
3. Es posible reordenar las filas. En otras palabras las filas se oueden per-
mutar.
Las operaciones elementales por filas son ’especiales’ porque son reversi-
bles:
Teorema 0.1. Si e(.)denota una operacón elemental, entonces existe otra
operación elemental del mismo tipo, que denotaremos e−1 (), que es inversa
de la primera.
Pro ejemplo, si se realiza la operación ‘dos veces la tercera’, su inversa es
‘un medio por la tercera’; si la operación fuese ‘la segunda menos tres veces
la primera’, su inversa es ‘la segunda más tres veces la primera’. Está claro
que las permutaciones son siempre invertibles: siempre es posible retornar al
ordenamiento de partida.
el hecho más importante en relación a las operaciones elementales reside
en que preservan el conjunto solución. Esto nos permite cambiar el sistema
lineal a resolver sin alterar el conjunto solución.
Teorema 0.2. Las operaciones elementales preservan el conjunto solución
del sistema lineal al ue se les aplica.
x
Recuerde que una relación definida en eun conjunto es de equivalencia si
es reflexiva, simétrica y transitiva. La relación de ‘equvalencia’ entre sistemas
lineales es realmente una relación reflexiva, simétrica y transitiva.
Resolver un sistema lineal es encontrar otro sistema ‘reducido’, más fácil
de resolver, que es equivalente al dado. En la siguiente sección definiremos
excatamente cuándo un sistema está reducido.
Teorema 0.3. Toda matriz Am×n se reduce a una única matriz reducida y
escalonada RA .
Demostración. Para demostrar el teorema hace falta mostrar dos cosas. Pri-
mero que efectivamente existe un número finito de operaciones elementales
por fila que reducen A a alguna matriz reducida; luego haciendo una cantidad
finita de permutaciones entre sus filas es posible siempre escalonarla. Segun-
do, debemos probar que la reducida y escalonada obtenida anteriormente es
en verdad única. La demostración de este hecho lo diferimos para después de
que desarrollemos la noción de subespacios vectoriales.
Veamos entonces cómo es posible hacer un número finito de operaciones
elementales por fila hasta reducir A. Miramos la primera fila de A; si es nula,
vamos a la segunda fila. Caso contrario, existe un primer elemento no nulo.
Si ese primer elemento no nulo no es uno, usamos una operación elemental
del tipo multiplicación por un escalar distinto de cero sobre la fila uno para
convertir ese primer elemento no nulo en uno. Así podemos suponer que es
uno (el pivote de la fila uno, si es no nula.) Ahora con operaciones del tipo
xi
‘a una fila se la reemplaza por la misma fila más un múltiplo de otra fila’ es
posible poner ceros arriba y abajo de ese pivote.
Luego pasamos a la fila dos. Si es nula, vamos a la fila tres. Caso contrario,
existe un primer elemento no nulo, que como antes podemos suponer es un
uno, en una columna distinta de la del pivote de la fila uno, si ésta era no nula.
Con operaciones elementales del tipo ‘una fila se reemplaza por la misma fila
más un múltiplo de otra fila’ siempre es posible poner ceros arriba y abajo
de ese uno (pivote de la segunda fila , si ésta es no nula.)
Continuando de esta manera, en a lo más tantos pasos como filas de A,
nos encontramos con una matriz reducida por filas obtenida de A mediante
un número finito de operaciones elementales.
La demostración de la unicidad de la reducida y escalonada escapa al
alcance de estas notas y el interesado puede encontrar una demostración en
el texto de Hoffman y Kunze.
El rango de una matriz se define como el número de filas no nulas de
la correspondiente matriz reducida y escalonada.
Ejercicio 0.1. Clasificar todas las matrices reducidas y escalonadas 2x2, 3x2
y 2x3 de acuerdo al rango 0, 1, 2; lo mismo pero con las matrices 3x3, de
acuerdo al rango 0, 1, 2, 3.
Sistemas reducidos
Un sistema lineal está reducido si su matriz de coeficientes es reducida
y escalonada.
Corolario 0.1. Todo sistema lineal es equivalente a un único sistema cuya
matriz de coeficientes es reducida y escalonada.
Ejercicio 0.2. Cada uno de los siguientes diagramas representa conceptual-
mente un sistema lineal m × 2 (m ecuaciones en 2 incógnitas). Asocie a cada
gráfica un sistema reducido que sea consistente. Por ejemplo, a
✂
✂
❍✂!(1,2)
✂❍❍ 1 0 1
✂ ❍❍ le corresponde
0✂ 0 1 2
xii
❅ !
❅ !
❅ !
❅!!
!❅
! ❅
! ❅
1. ! ❅ (Todas se cortan en el punto (a, b).)
!
!
(1,2) !! !
! !
! !!(1,1)
! !
!
!
2.
!
(2,3)
3.
!
!!
!(3,3)
!
!
!
!
!(1,1)
4. ! (Tres líneas superpuestas.)
❅ !
❅! !!
(1,2)❅ !(3,2)
❅!!
!❅
5. !(2,1)❅
(0,1)
!
6. (Cuatro líneas horizontales que pasan por (0, 1).)
0
xiii
7. ! (Cinco líneas verticales que pasan por (2, 0).)
0 (2,0)
1 0 1
1 0 a 0 1 1
i) iv) vii) 0 1 2
0 1 b 0 0 2
0 0 0
0 1 1 1 0 2
1 2 a
ii) v) 0 0 0 viii) 0 0 3
0 0 0
0 0 0 0 0 4
1 0 a 1 −1 0
0 1 a
iii) vi) 0 1 b ix) 0 0 0
0 0 0
0 0 1 0 0 0
0.1.5. Aplicaciones
Plantee en términos de ecuaciones lineales y resuelva usando eliminación
gaussiana cada uno de los siguientes problemas.1
xiv
a) Determine las combinaciones de bolsas de los balanceados dispo-
nibles que son posibles para satisfacer los requerimientos exacta-
mente.
b) Suponga que los precios unitarios de cada una de las bolsas de
los alimentos es $200 para el normal, $250 para el especial y $270
para el rendidor. Encuentre la combinación que minimiza el costo
total del granjero.
I II III
A 3 1 2
B 1 2 1
C 2 4 1
xv
fijo anual es de $17,000 y los costos de producción de cada unidad A, B y
C son $4, $5 y $7 respectivamente. Para el año siguiente serán vendidas
11,000 unidades entre los tres tipos de artículos con una utilidad total
de $25,000. Si el costo total será de $80,000, cuántas unidades de cada
artículo deberán producirse para el siguiente año?
Usuarios
Serv. Ind. Dem. Ext. Prod. Tot.
Productores Serv. 110 90 180 380
Ind. 80 150 200 430
a) Para este año se espera que la demanda externa sobre cada sector
cambie a los valores 230 millones y 180 millones para servicios e
industria, respectivamente. Calcule la producción total esperada
para cada sector para el presente año. Use la fórmula de la adjunta
para calcular la inversa de una matriz.
b) Cuánto demandará la industria de los servicios?
A B C D
R 1 4 1 2
S 1 1 0 0
T 3 0 1 1
U 0 1 1 1
xvi
0.2. Otras Cuestiones a Tener en cuenta.
0.2.1. Sobre Operaciones Elementales.
Ya sabe Usted que a cada operación elemental por fila le corresponde
una matriz elemental que proviene de hacerle a la matriz identidad la misma
operación elemental. Así por ejemplo, a la operación 2da −3∗1ra le corresponde
la matriz elemental, digamos en el mundo de las tres por tres,
1 0 0
E1 = −3 1 0
0 0 1
De la misma forma, a la matriz elemental
1 0 0
E2 = 0 1 5
0 0 1
le corresponde la operación elemental 2da + 5 ∗ 3ra .
Problemas:
1. Determinar cuáles de las siguientes matrices están escalón reducidas
por filas.
& ' & ' & '
1 2 0 1 0 2 0 1 0
(a) (b) (c)
0 0 1 0 1 −3 0 0 1
⎛ ⎞ ⎛ ⎞
& ' 1 0 0 1 0 0
0 1 0 ⎝0
(d) (e) 0 1⎠ (f ) ⎝0 0 0⎠
0 0 0
0 0 1 0 0 1
⎛ ⎞ ⎛ ⎞
1 −3 0 1 0 0 −2
(g) 0⎝ 0 1⎠ (h) ⎝0 1 0 1⎠
0 0 0 0 0 1 4
⎛ ⎞ ⎛ ⎞
1 2 0 −2 1 1 0 0
(i) 0
⎝ 0 1 1⎠ (j) ⎝0 0 1 0⎠
0 0 0 0 0 0 0 1
xvii
2. Encontrar las correspondientes matrices elementales a las siguientes o-
peraciones elementales, en tamaño 4x4: 1ra −3∗4ta , 3ra −4ta , 2da +4∗4ta ,
−3 ∗ 4ta , permutar 2da por 4ta .
1 0 0 1 0 0 1 0 0
E1 = −3 1 0 E2 = 0 1 7 E3 = 0 1 0
0 0 1 0 0 1 −3 0 1
1 0 0 1 0 5 0 0 1
E4 = 0 1/2 0 E5 = 0 1 0 E6 = 0 1 0
0 0 1 0 0 1 1 0 0
1 2 0 1 0 1 1 2 3
A = −3 1 0 B = −3 1 0 C= 0 7 4
0 0 4 −1 0 1 0 0 5
0 0 0 1 0 −3 3 0 0
D= 3 1 5 E= 0 1 0 F = 0 3 0
2 3 1 3 0 1 0 0 3
Verdadero Falso
En cada una de las siguientes afirmaciones decidir si es verdadera o falsa.
Explicar porqué es verdadera en caso de serlo, o dar un ejemplo que muestre
la falsedad de la afirmación en caso de ser falsa.
xviii
1. Todo sistema lineal no homogeneo con más ecuaciones que incógnitas
no tiene solución.
8. det(AB) = det(A)det(B).
xix
5. La reducida y escalonada RA de A es la matriz identidad: RA = I.
8. El subfila de A es Rn .
9. El subcolumna de A es Rn .
AA−1 = I y A−1 A = I
A−1 AX = A−1 b
IX = A−1 b
X = A−1 b
xx
elemental correspondiente a la operación elemental inversa, y como producto
de invertibles es invertible, multiplicando sucesivamente a izquierda por E1−1 ,
E2−1 , etc. se obtiene
PA = I
E1 . . . Er A = I
E2 . . . Er A = E1−1
E3 . . . Er A = E2−1 E1−1 . . .
A = Er−1 . . . E1−1
Esto es, A es producto de elementales y por lo tanto invertible, así cerrando
el círculo.
−1 2 3 y1
4 5 6 y2
7 8 9 y3
xxi
1 0 0 − 21 y1 + y2 − 12 y3
0 1 0 y1 − 5y2 + 3y3
0 0 1 − 2 y1 + 11
1
y − 13
3 2
y
6 3
− 12 1 − 12
1 −5 3
− 12 11
3
− 13
6
1 0 2 1 y1
−1 1 0 1 y2
0 2 −1 0 y3
1 1 −1 −1 y4
0.2.3. Determinantes.
El determinante es la única función desde el conjunto de todas las matrices
cuadradas nxn en los reales con las propiedades 1, 2, 3, y 4; o equivalente-
mente, 1, 3, 4 y 6 entre las siguientes.
1. det(I) = 1
xxii
2. det(e(A)) = det(A) donde e(A) es una operación elemental del tipo a
una fila se le suma un múltiplo de otra fila distinta.
3. det(eij (A)) = −det(A) donde eij (A) significa permutar la fila i por la
fila j, con i ̸= j.
F1 F1 F1
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
.. ⎜ .. ⎟ ⎜ .. ⎟
. ⎜ . ⎟ ⎜ . ⎟
⎜ ⎟
⎜ ⎟
6. det ⎜ Fi + Gi ⎟ = det ⎜ Fi ⎟ + det ⎜ Gi ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ .. ⎟
⎝ ... ⎠
⎜ ⎟
⎝ ... ⎠
⎜ ⎟
⎝ . ⎠
Fn Fn Fn
xxiii
lo que conduce a
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
3 2 5 3 0 0 0 2 0
det ⎝ 0 3 1 ⎠ = det ⎝ 0 3 1 ⎠ + det ⎝ 0 3 1 ⎠
7 4 3 7 4 3 7 4 3
⎛ ⎞
0 0 5
+ det 0 3 1 ⎠
⎝
7 4 3
8. det(AB) = det(A)det(B)
En particular, si A es invetible, se sigue que det(A)det(A−1 ) = 1; de
donde se deduce que si A es invertible su determinante debe ser no
nulo y det(A−1 ) = 1/det(A). El recíproco es cierto: Si A tiene deter-
minante no nulo, entonces A es invertible. Esto se sigue de las cuatro
primeras propiedades del determinante. Es posible reducir A adentro
del determinante y obtener que el determinante de A es múltiplo del
2
En conexión con el caso 3 × 3, véa la regla de Sarrus.
xxiv
determinante de RA . La única forma de que det(RA ) sea no nulo es
que RA sea la identidad; en caso contrario tendría por lo menos una
fila nula y el determinante sería cero. Pero entonces A se reduce a la
identidad y por lo tanto debe ser invertible.
Para probar esta propiedad 8) se apela a la unicidad del determinante
como sigue. Si det(A) ̸= 0, entonces la función definida por
det(AB)
g(B) =
det(A)
det(AB)
g(B) = = det(B)
det(A)
de donde
det(AB) = det(A)det(B)
xxv
0.3. Bibliografía
Existen numerosos textos de álgebra lineal de carácter introductorio en
biblioteca desde los cuales se pueden seguir todos los temas de repaso. Entre
los de fácil lectura se encuetran, por ejemplo
Más conciso, con mucho mayor carga de lenguage algebraico, y con mayor al-
cance en los temas tratados, los dos primeros capítulos de Hoffman, Kenneth
y Kunze, Ray, Ál gebra Lineal, sirven como preámbulo preparatorio para el
resto del curso.
xxvi
Práctico 2: Espacios Vectoriales
Matemática 3, FCE, UNC
23 de marzo de 2018
0.1. Espacios Vectoriales
Definición 0.1. Un espacio vectorial real1 consiste de lo siguiente
a) la adición es conmutativa: α + β = β + α
b) la adición es asociativa: (α + β) + γ = α + (β + γ)
c) existe un vector neutro 0: 0 + α = α + 0 = α
d) para todo vector α ∈ V existe un único vector −α ∈ V tal que
−α + α = α + (−α) = 0
a) 1α = α para todo α ∈ V ;
b) c1 (c2 α) = (c1 c2 )α (asociatividad);
c) c(α + β) = cα + cβ (distributividad con respecto a la suma de
vectores);
d) (c1 + c2 )α = c1 α + c2 α (distributividad con respecto a la suma de
escalares).
ii
2. El espacio de matrices m × n con coeficientes en los reales; la suma es
la suma matricial usual
(A + B)ij = Aij + Bij
El producto escalar es el de siempre
(cA)ij = cAij
iii
0.2. Subespacios Vectoriales
Definición 0.2. Sea V un espacio vectorial sobre los reales. Un subespacio
vectorial W de V es un subconjunto W de V que es espacio vectorial con la
suma y producto escalar de V . (A esta altura piense en el ejercicio0.2, punto
3.)
Recuerde el siguiente resultado que le puede ser útil a la hora de verificar
si un subconjunto no vacío es o no subespacio
Lema 0.1. Sea V un espacio vectorial y W un subconjunto no vacío de V .
W es subespacio de V si y sólo si para todo α, β ∈ W y todo c ∈ R se tiene
que c α + β ∈ W .
Ejercicio 0.3. Pruebe el lema anterior.
Ejercicio 0.4. subespacio generado por una lista finita de vectores
Sea (V, +, .) un espacio vectorial real. Verifique que con la suma y producto
escalar de V el subconjunto
W = {c1 α1 + · · · + cr αr | ci ∈ R, i = 1, . . . , r} ⊂ V
3. W = {(x, y) ∈ R2 | y ≥ 0}
4. W = {(x, y) ∈ R2 | ∃t ∈ R : x = t3 + 1 ∧ y = −2t3 + 1}
5. W = {(x, y) ∈ R2 | ∃t ∈ R : x = t5 + 1 ∧ y = −2(t5 − 2)}
Ejercicio 0.6. Pruebe que el conjunto solución de todo sistema lineal ho-
mogéneo m × n AX = 0 es un subespacio de Rn . Al mismo tiempo pruebe
que el conjunto solución de un sistema AX = b no homogéneo nunca es un
subespacio; piense en el ejemplo del ejercicio0.5, puntos 1 y 2.
iv
Ejercicio 0.7. Sea AX = 0 el sistema cuya matriz de coeficientes es
⎡ ⎤
2 −1 0 3 1
⎢ 1 0 1 −1 2 ⎥
A=⎢ ⎣ 1 −1 −1
⎥
4 −1 ⎦
4 −1 2 1 5
(D 3 + D 2 + D + I)f = 0
v
estudiar la dependencia lineal y descartar los vectores redundantes.) Falta
ver que todas las bases tienen el mismo cardinal. Esto se deduce fácilmente
del siguiente
para ciertos coeficientes aji ’s. Ahora miramos el sistema lineal homogéneo
(mire los αi como columnas)
n
'
xi αi = 0 (1)
i=1
Este sistema sólo tiene la solución trivial. Ese sistema se puede escribir en
términos de los βj ’s
'n m
'
xi aji βj = 0
i=1 j=1
vi
Ejercicio 0.9. Pruebe sin usar el teorema 0.1 que todo subconjunto finito
de vectores de R3 con cardinal mayor que tres es linealmente dependiente.
Provea de cuatro vectores de R3 que sean linealmente dependientes pero que
tomados de a tres cualesquiera sean linealmente independientes.
vii
independencia lineal que se probó en el paso anterior, se debe tener tambien
a1 = a2 = 0. Osea α1 , α2 , α3 es linealmente independiente. Y así se sigue.
Este proceso debe terminar por el teorema 0.1 en a lo sumo dim(V )
pasos, porque no puede haber listas de vectores linealmente independientes
con cardinal mayor a dim(V ). (Listo.)
Ejercicio 0.11. Regrese al ejercicio 0.7 y exprese sus resultados en términos
de los resultados y definiciones de esta sección.
Ejercicio 0.12. Encuentre una base y la dimensión del subespacio generado
por las columnas de la matriz A, denominado subespacio columna de A,
del ejercicio 0.7.
Encuentre una base y dimensión del subespacio generado por las filas de
la matriz A, denominado subespacio fila de A, del ejercicio 0.7
Ejercicio 0.13. Sea A una matriz m × n. Encuentre todas las relaciones
entre m, n, la dimensión del subespacio fila de A, la dimensión del sub-
espacio columna de A, y la dimensión del subespacio solución del sistema
AX = 0.
Ejercicio 0.14. Pruebe que una lista {α1 , . . . , αn } es base de Rn si y sólo si
la matriz A cuyas filas son los vectores de la lista dada es invertible. (Verifique
que la definición de base se traduce en el hecho que RA debe ser la identidad.)
Ejercicio 0.15. Pruebe que en el espacio vectorial de todos los polinomios
de grado menor o igual a n, fijo, los polinomios (x − 1)k , k = 0, 1, . . . , n
forman una base.
Ejercicio 0.16. Verifique que el conjunto de funciones f : R → R infinitas
veces diferenciables es, con la suma y producto por un escalar usuales, un
subespacio. Denote este espacio por C ∞ (R).
1. Sea P un polinomio arbitrario. Entonces el conjunto solución de la ecua-
ción diferencial
P (D)f = 0 es un subespacio de C (R). (Más adelante veremos que
∞
viii
3. Si P (x) = (x − λ1 ) · · · (x − λn ) es el único polinomio mónico con raí-
ces distintas λ1 , . . . , λn , entonces las funciones eλ1 x , . . . , eλn x del punto
anterior son soluciones de la ecuación diferencial
P (D)f = 0
P (D)f = 0
donde i = 1, . . . , n.
ix
Práctico 3: Producto Interno,
Transformaciones Lineales y Coordenadas 1ra.
Parte
Matemática 3, FCE, UNC
23 de marzo de 2018
0.1. Producto Interno
Definición 0.1. El producto interno canónico en Rn es la operación
binaria real
⟨ , ⟩ : Rn × Rn → R definida por
⟨α, β⟩ = a1 b1 + · · · + an bn ∈ R
donde α = (a1 , . . . , an ), β = (b1 , . . . , bn ) ∈ Rn .
Observe que si piensa a los vectores de Rn como matrices 1 × n, y ( )t
denota trasposición, entonces la cuenta que define al producto interno se
puede expresar en términos del producto matricial: ⟨α, β⟩ = α × (β)t
Ejercicio 0.1. Verifique que el producto interno canónico satisface las si-
guientes propiedades: para todo α, β, γ ∈ Rn ,
1. ⟨α + β, γ⟩ = ⟨α, γ⟩ + ⟨β, γ⟩
2. ⟨cα, β⟩ = c⟨α, β⟩ para todo c ∈ R.
3. ⟨α, β⟩ = ⟨β, α⟩ y por lo tanto las propiedades 1 y 2 valen como función
del segundo factor.
Definición 0.2. Para α ∈ Rn , la norma de α es el número real no negativo
!
∥α∥ = ⟨α, α⟩
Ejercicio 0.2. Verifique las siguientes propiedades adicionales.
1. Use el teorema de Pitágoras e inducción para probar que la norma de
un vector corresponde geométricamente a su longitud.
2. Pruebe que la norma de un vector es cero sólo en el caso del vector
nulo.
3. Para todo c ∈ R y todo α ∈ Rn , ∥cα∥ = |c| ∥α∥
La norma satisface dos desigualdades muy importantes, la desigualdad de
Schwarz y la desigualdad triangular
|⟨α, β⟩| ≤ ∥α∥ ∥β∥
∥α + β∥ ≤ ∥α∥ + ∥β∥
La primera de éstas, muestra que el producto interno es contínuo.
ii
Ejercicio 0.3. Para probar la desigualdad de Schwarz use el hecho que, para
α, β ∈ Rn fijos, laexpresión 0 ≤ ∥α + tβ∥ define una parábola nunca negativa.
Por lo tanto su discriminante debe ser menor o igual a cero. Obtenga de esa
afirmación la desigualdad de Schwarz.
Ejercicio 0.4. Obtenga la desigualdad triangular a partir de la desigualdad
de Schwarz trabajando sobre ∥α + β∥2 y estimando el término cruzado. Ve-
rifique que las siguientes son formas equivalentes a la desigualdad triangular.
1. ∥α∥ − ∥β∥ ≤ ∥α − β∥
2. |∥α∥ − ∥β∥| ≤ ∥α − β∥
El segundo punto muestra que la norma es contínua (más de esto en el capí-
tulo sobre continuidad en varias variables.)
Para α y β vectores no nulos, de la desigualdad de Schwarz se obtiene
⟨α, β⟩
−1 ≤ ≤1
∥α∥ ∥β∥
Luego existe un único θ ∈ [0, π] tal que
⟨α, β⟩
= cos θ
∥α∥ ∥β∥
Esto es equivalente a
⟨α, β⟩ = ∥α∥ ∥β∥ cos θ
ahora para todo α, β ∈ Rn (Si alguno de los vectores es nulo, el ángulo entre
ellos no esta definido; en ese caso, la expresión simplemente dice que ambos
miembros son cero.)
Ejercicio 0.5. Use el teorema del coseno para deducir que θ en la fórmula
anterior representa el ángulo entre ambos vectores. Deduzca que dos vectores
en Rn son ortogonales si y sólo si su producto interno es cero. Encuentre una
condición en términos del producto interno que sea equivalente a la afirmación
‘α es paralelo a β’.
Para dos vectores α, β ̸= 0 ∈ Rn , la proyección ortogonal escalar de
α sobre β es el número
β
⟨α, ⟩ = ∥α∥ cos θ
∥β∥
iii
✂✍
✂
✂β
✂
② ✯
✟
✟
✂ θ ✟✟α
✂✟✟
(0, 0)
Figura 1: Ángulo entre dos vectores
β β β
⟨α, ⟩ = ∥α∥ cos θ
∥β∥ ∥β∥ ∥β∥
Ejercicio 0.8. Dados α1 = (1, 1, 1, 1); α2 = (1, −1, −1, −1) ∈ R4 , encuentre
todos los vectores (x, y, z, w) ∈ R4 ortogonales a α1 y α2 . Complete los vec-
tores α1 y α2 con un par se vectores β1 , β2 ortogonales a ellos de manera que
{α1 , α2 , β1 , β2 } sea una base de R4 .
iv
" #⊥
que el complemento ortogonal de S⊥ , S⊥ , es el subespacio generado por
S.
(Ayuda: Para lo primero, interprete el complemento ortogonal de S como
el conjunto solución del sistema lineal homogéneo cuyas filas son exactamente
los vectores de S. Para lo segundo, como todo vector fila del sistema antes
mencionado es ortogonal a todo vector de S⊥ , toda combinación lineal entre
vectores de S –que no son otras que combinaciones lineles entre las filas de la
matriz del sistema en cuestión– es ortogonal a todo vector de S⊥ . Esto dice
" #⊥
que el subespacio generado por S está incluído en S⊥ . Para ver que ambos
subespacios son iguales, use el hecho que el rango de la matriz del sistema
arriba mencionado más el número de variables libres es n, el número de
columnas, para concluir que ambos subespacios tienen la misma dimensión.
Si todo esto no funciona, pida ayuda en clase.)
v
es la matriz del problema 2.4 del práctico anterior, como un plano que pasa
por el origen (y por lo tanto, subespacio de R5 .)
Obtenga el complemento ortogonal W ⊥ del subespacio anterior y úse-
lo para interpretar a W como intersección de hiperplanos en R5 . Tiene un
nombre conocido para W ⊥ ? Y de alguna base a mano de W ⊥ ?
Interprete el conjunto solución de AX = b, donde b = (1, 1, 0, 3), en tér-
minos de W como el plano paralelo al subespacio W que pasa por X0 , donde
X0 es cualquier solución del AX = b. Ahora use W ⊥ para interpretar al con-
junto solución de AX = b como intersección de hiperplanos en R5 . (Ayuda:
Una base de W ⊥ –que ya ha calculado como las filas no nulas de la reducida
RA de A– provee de un conjunto linealmente independiente de vectores orto-
gonales al plano que define el sistema AX = b, digamos N1 , . . . , Nr , entonces
los hiperplanos que se buscan son
⟨X − X0 , Ni ⟩ = 0
donde i = 1, 2, . . . , r = r(A))
Ahora sea V el subespacio columna de A. Obtenga V ⊥ . Interprete geo-
métricamente.
|⟨X − X0 , N⟩|
donde N tiene norma uno. (El plano en cuestión pasa por X0 y tiene vector
normal N.)
T (α + β) = T α + T β ∀α, β ∈ V
T (cα) = cT α ∀α ∈ V ∧ ∀c ∈ R
vi
1. Sea V = W = R [x] el espacio vectorial de todos los polinomios en una
variable x con coeficientes en los reales. T es derivación en x.
es lineal.
1. T (x, y) = (x, y + 1, x + y)
4. T (x, y) = (sin x, x, x)
vii
Ejercicio 0.16. Pruebe que efectivamente tanto el núcleo como la imágen
de una transformación lineal son subespacios vectoriales.
1. T (x, y, z) = (x + y, y + z, x + y + z)
viii
0.3.1. Operaciones entre transformaciones lineales
0.3.2. Coordenadas
Si V es un espacio vectorial de dimensión finita n y Φ = {β1 , . . . , βn } una
base ordenada de V ; entonces para todo α ∈ V el sistema lineal 1
n
+
α= ci βi
i=1
1. Pruebe que
[α + β]Φ = [α]Φ + [β]Φ
[cα]Φ = c [α]Φ
para todo c ∈ R y α, β ∈ V .
ix
Este hecho muestra que si V tiene dimensión n, V es esencialmente equiva-
lente al espacio vectorial Rn . Más de esto luego.
γ = c1 β1 + · · · + cn βn
[γ]Ψ = [c1 β1 + · · · + cn βn ]Ψ
[γ]Ψ = c1 [β1 ]Ψ + · · · + cn [βn ]Ψ
[γ]Ψ = [[β1 ]Ψ · · · [βn ]Ψ ] × [γ]Φ
lo que representa las coordenadas de γ en la base Ψ en términos de las
coordenadas de γ en la base Φ. La matriz P = [[β1 ]Ψ · · · [βn ]Ψ ] se denomina
matriz cambio de base.
[0]Ψ = [c1 β1 + · · · + cn βn ]Ψ
⎡ ⎤
c1
⎢ .. ⎥
donde X0 = ⎣ . ⎦. Luego,
cn
0 = c1 β1 + · · · + cn βn
x
Por el lema anterior toda matriz cambio de base es invertible. Esto sugiere
la idea de que toda matriz invertible es la matriz cambio de base de alguna
base dada en alguna otra. Estaa conjetura es correcta, como lo muestra el
siguiente
Lema 0.2. Sean V un espacio vectorial real de dimensión n, Φ = {β1 , . . . , βn }
una base de V y P una matriz real n×n invertible. Entonces existe una única
base Ψ de V tal que la matriz cambio de base de Φ a Ψ es P .
Demostración. Sea P −1 = [C 1 | · · · |C n ] la matriz inversa de P . La columna
C i tiene la forma ⎡ ⎤
c1i
C i = ⎣ ... ⎦
⎢ ⎥
cni
Defina los vectores
αi := c1i β1 + · · · + cni βn
de V para i = 1, 2, . . . , n. Entonces Ψ := {α1 , . . . , αn } es una base de V y la
matriz cambio de base de Φ a Ψ es P . Vemos esto en tres pasos.
Paso 1. Veamos primero que los αj ’s son L.I. Si a1 , . . . , an ∈ R son tales
que
a1 α1 + · · · + an αn = 0,
entonces, escribiendo todo en términos de los βi ’s,
a1 (c11 β1 + · · · + cn1 βn ) + · · · + an (c1n β1 + · · · + cnn βn ) = 0,
que reagrupando queda2 ,
(c11 a1 + · · · + c1n an )β1 + · · · + (cn1 a1 + · · · + cnn an )βn = 0
Como los βj ’s forman base, son L.I. y la expresión anterior es si y sólo si
c11 a1 + · · · + c1n an = 0, . . . , cn1 a1 + · · · + cnn an = 0
que puede expresarse matricialmente así
⎡ ⎤
a1
P −1 × ⎣ ... ⎦ = 0 ∈ Rn
⎢ ⎥
an
2
Para que le sea más fácil al lector, piense que los βi ’s indexan las filas y los αj ’s y aj ’s
las columnas de P −1
xi
Por ser P −1 invertible, la única solución posible es a1 = · · · = an = 0. (Listo
el primer paso.)
Paso 2. Como Ψ := {α1 , . . . , αn } es L.I., es es tambien base (por tener
cardinal igual a la dimensión de V .)
Paso 3. Calculemos la matriz cambio de base de Φ a Ψ. Por costrucción,
las coordenadas de αj en la base Φ es la j-ésima columna de la matriz P −1 .
Osea, P −1 es la matriz cambio de base de Ψ a Φ. Entonces, por las cuentas
en un ejercicio anterior, P es la matriz cambio de base de Φ a Ψ. (Listo el
lema.)
Φ = {e3 , e2 , e1 }
Ψ = {e1 , e3 , e2 }
Calcule la matriz cambio de base P de Φ a Ψ; y luego al revés, de Ψ a Φ.
Verifique que una es inversa de la otra. Este problema muestra que el orden
de una base debe ser tenido en cuenta.
Ejercicio 0.24.
xii
base de V , y sea {β1 , . . . , βn } una lista ordenada de vectores cualesquiera de
W fija 3 . Entonces existe una única transformación lineal T : V → W tal
que T αi = βi , para i = 1, 2, . . . , n.
T α = T (c1 α1 + · · · + cn αn )
= c 1 T α1 + · · · + c n T αn
= c1 Uα1 + · · · + cn Uαn
= U(c1 α1 + · · · + cn αn )
= Uα
donde α = c1 α1 + · · · + cn αn es un vector arbitrario de V descompuesto
en términos de la base Φ. Para lo segundo. Costruimos T lineal con el
requrimiento especificado mediante la composición de dos transformaciones
lineales: ⎡ ⎤
c1
⎢ .. ⎥
T : α .→ [α]Φ = ⎣ . ⎦ .→ c1 β1 + · · · + cn βn
cn
La primera asignación α .→ [α]Φ es lineal y biyectiva (por ejercicio anterior,)
y la segunda asignación de Rn en W dada por
⎡ ⎤
c1
⎢ .. ⎥
⎣ . ⎦ .→ c1 β1 + · · · + cn βn
cn
3
que no necesariamente son ni L.I., ni forman base.
xiii
es claramente lineal (ejercicio!) En otras palabras, la transformación buscada
es
T (c1 α1 + · · · + cn αn ) = c1 β1 + · · · + cn βn
que claramente satisface T αi = βi , para i = 1, 2, . . . , n. (Listo)
Ejercicio 0.26. Pruebe que toda transformación lineal T de Rn en Rm es
multiplicación a izquierda por una matriz Am×n . (Ayuda: Considere las ba-
ses canónicas de Rn y Rm . Piense los vectores en columna y calcule las
coordenadas de T α en la base canónica. Luego las cosas lucen así, si α =
a1 e1 + · · · + an en ,
T α = a1 T e1 + · · · + an T en
que pensados en columna no es otra cosa más que
= a1 [T e1 ]Can + · · · + an [T en ]Can
que en términos del producto matricial es
= [c1 T α1 + · · · + cn T αn ]Ψ
= c1 [T α1 ]Ψ + · · · + cn [T αn ]Ψ
xiv
⎡ ⎤
c1
⎢ .. ⎥
= [[T α1 ]Ψ , . . . , [T αn ]Ψ ] × ⎣ . ⎦
cn
= [[T α1 ]Ψ , . . . , [T αn ]Ψ ] × [α]Φ
La matriz m × n dada por
[[T α1 ]Ψ , . . . , [T αn ]Ψ ]
Ejercicio 0.28. Sea V el espacio vectorial de todos los polinomios con coe-
ficientes en los reales, y sea Vn el subespacio de V de los polinomios de
grado menor o igual a n. Considerando la base que consiste de las potencias
xk , k = 0, 1, . . . , ordenadas de manera ascendente, calcular la matriz que
representa al operador lineal T : Vn → Vn+1
* x
T (f )(x) = f (t)dt.
0
xv
Ejercicio 0.30. Verifique que para toda matriz
. /
a b
A=
c d
se tiene que
A2 − (a + d)A + (ad − bc)I = 0
Por lo tanto, todo operador lineal sobre R2 satisface una ecuación similar.
Este resultado es un caso especial de un teorema general de Cayley-Hamilton:
Todo operador lineal sobre un espacio vectorial finito satisface su polinomio
característico igual a cero. Más de esto luego.
xvi
Práctico 4: Continuidad, diferenciabilidad y
extremos locales.
Matemática 3, FCE, UNC.
23 de marzo de 2018
0.1. Métrica Euclídea en Rn
La métrica euclídea en Rn la hemos definido en términos del producto
interno canónico: Primero definimos la norma de un vector
!
∥x∥ = ⟨x, x⟩
N2 ∥x∥ = 0 ⇔ x = 0.
ii
b) ⟨x, y⟩ = 14 (∥x + y∥2 − ∥x − y∥2 )
Pruebe que la identidad b) define un producto interno si y sólo si la norma
satisface a). Verifique que las normas definidas por
n
#
∥x∥L1 = |xi |
i=1
d(x, y) = ∥x − y∥
iii
Ejercicio 0.3. Verifique que en el caso de los números reales pensados como
R1 la norma se reduce al valor absoluto. Pruebe todas las propiedades de
normas listadas arriba en el presente caso.
iv
Ejercicio 0.5. Use la desigualdad triangular para probar que las bolas abier-
tas son efectivamente conjuntos abiertos. (Debe mostrar que para todo punto
de la bola es posible fabricarse otra bola de menor radio centrada en el punto
totalmente contenida en la bola dada.)
Ejercicio 0.6. Verifique las siguientes propiedades de los cerrados (Use las
leyes de De Morgan.)
A◦ ⊂ A ⊂ A− = A ∪ ∂A
v
Ejercicio 0.8. Pruebe usando nada más que la definición de clausura que
1. (A ∪ B)− = A− ∪ B −
1. A◦ ⊂ A ⊂ A−
2. A− = A◦ ∪ ∂A
3. A− = A ∪ ∂A
4. A◦ = A ∼ ∂A
5. A− ∼ A◦ = ∂A
6. ∂A = ∂(Rn ∼ A)
7. Rn ∼ ∂A = A◦ ∪ (Rn ∼ A)◦
Ejercicio 0.9. Para cada uno de los siguientes conjuntos, obtenga su interior,
clausura y frontera; decida si es abierto o cerrado o ninguno de los anteriores.
5. [a, b] × [c, d] ⊂ R2
6. S = {x ∈ Rn | a1 x1 + · · · + an xn < d}
vi
0.1.2. Compacidad
La mitad de las veces los problemas de optimización en economía son
cerrados y acotados, y la otra mitad son cerrados pero no acotados. Recuerde
que un subconjunto A es acotado si existe algún radio positivo r tal que la
bola centrada en el origen (o en cualquier otro punto) de radio r contiene a
A. La propiedad de un conjunto de ser cerrado y acotado es un invariante: se
preserva bajo continuidad. Veremos entonces algunas propiedades inmediatas
y un par de teoremas que serán de gran utilidad al momento de garantizar
la existencia de óptimos. Primero una definición:
Definición 0.3. En Rn , un subconjunto A es compacto si y sólo si A es
cerrado y acotado.
Un famoso teorema de Heine y Borel expresa la compacidad en términos
sólo de abiertos, liberando de esta manera la definición de compacto del uso
de métricas. Un cubrimiento por abiertos de un subconjunto A ⊂ Rn es
una familia de abiertos {Ui |i ∈ I} talque su unión contiene a A:
A ⊂ ∪i∈I Ui
Si F ⊂ I y A ⊂ ∪i∈F Ui , {Ui |i ∈ F } es un subcubrimiento de {Ui |i ∈ I}.
Si F es además finito, {Ui |i ∈ F } es un subcubrimiento finito Este es el
teorema:
Teorema 0.2. A ⊂ Rn es compacto si y sólo si de todo cubrimiento por
abiertos de A se puede extraer un subcubrimiento finito.
La demostración de este teorema nos alejaría del propósito de estas notas,
pero es importante señalar que es más fácil probar las propiedades relativas a
la compacidad usando la propiedad del subcubrimiento finito que la definición
misma.
Otro resultado importante a cerca de la compacidad está relacionado con
el producto cartesiano; mencionamos sólo la versión finita del teorema de
Tijonov:
Teorema 0.3. Sean E1 , E2 , . . . , En subconjuntos compactos de R. Entonces
E1 × E2 × · · · × En es compacto en Rn .
Este resultado nos asegura por ejemplo que todas las cajas en Rn que
resultan de hacer el producto cartesiano de intervalos cerrados y acotados de
R son siempre compactos.
vii
0.1.3. Conectividad
¿Cómo decir que un conjunto es conexo? La idea intuitiva que se tiene nos
hace querer que un intervalo de números reales sea conexo, que un conjunto
que consiste de un solo punto también lo sea. El problema con la idea intuitiva
de conectividad es que se mezcla con otra noción cercana pero distinta que es
la de conección por curvas y, para añadir sutilezas, la conectividad depende
muy finamente de Qué abiertos son los que se han declarado como tales.
Por esto la conectividad puede depender de la métrica que se use. Sólo para
ilustrar en algunos ejemplos cambiaremos la métrica euclídea para mostrar
esta dependencia. Veamos las definiciones.
Definición 0.4. Un subconjunto E ⊂ Rn es disconexo si existen abiertos
U y V de Rn tales que
E = E∩U ∪E∩V
E ∩ U ̸= ∅ , E ∩ V ̸= ∅ y E ∩ U ∩ V = ∅
En tal caso se dice que U y V son una separación de E o que Uy V separan
a E.
Por supuesto que un conjunto es conexo si no es disconexo. Claramente
un conjunto que consiste de un solo punto es conexo. Muchos menos obvio
es que en R con la métrica euclídea los únicos conexos son los intervalos.
Teorema 0.4. Supongamos que R tiene la métrica euclídea. Si E ⊂ R es
conexo, entonces E es alguno de los siguientes conjuntos
[a, b], [a, b), (a, b], (a, b), [a, ∞), (a, ∞), (−∞, b), (−∞, b], R
0.2. Continuidad
La idea de continuidad para funciones de varias variables es exactamente
la misma que para el caso de una variable real, excepto que el valor absoluto
viii
se cambia por la métrica euclídea. Filosóficamente, la existencia de límites
se apoya esencialmente en hecho de que Rn es un espacio completo con la
métrica euclídea. Esto puede decirse en términos de sucesiones: Toda sucesión
de Cauchy en Rn tiene límite.
(Ayuda: Usted debe probar que una definición es si y solo si la otra. Para
ello use las desigualdades, cuya verificación son parte del ejercicio,
f −1 [V ] = {x ∈ U | f(x) ∈ V } ⊂ Rn
ix
c) f −1 [f [C]] ⊃ C, donde C es subconjunto de U. Provea de un ejem-
plo donde la inclusión sea estricta. Pruebe que vale la igualdad
para todo C si y sólo si f es uno a uno.
d ) f [f −1 [A]] ⊂ A, donde A es subconjunto de Rm . Provea de un
ejemplo donde la inclusión sea estricta. Pruebe que la igualdad
vale para todo A si y sólo si f es sobreyectiva.
e) f −1 [Rm ∼ A] = Rn ∼ f −1 [A]
x
U ∩ V . Esto es posible porque U y V son ambos abiertos. Ahora mire las
desigualdades siguientes
Luego
∥f(x) + g(x) − (f(x0 ) + g(x0 ))∥ < ϵ/2 + ϵ/2
para todo x tal que ∥x − x0 ∥ < δ3 donde r0 > δ3 = min{δ1 , δ2 } > 0. Listo la
suma.
xi
7. q = k( xc1a + c2 −b/a
xa
) , para x1 , x2 > 0.
1 2
Ejercicio 0.12. Pruebe, usando los teoremas sobre continuidad arriba men-
cionados, que las funciones del ejemplo anterior son efectivamente conti-
nuas. En el caso del ejemplo quinto, exprese z como exponencial del loga-
ritmo: z = Keα ln x+β ln y . Para el sexto ejemplo, use la fórmula mı́n {a, b} =
1
2
(a+b−|a − b|). (Encuentre una fórmula similar para máx {x, y}.) En ambos
casos interprete como una composición.
Ejercicio 0.13. Entre las funciones más usadas en microeconomía para des-
cribir utilidad, beneficios, producción, etc., se encuentran las siguientes fun-
ciones, que, para mayor facilidad en los problemas propuestos que siguen, se
han restringido a sus versiones de dos variables:
2. Pruebe que
lı́m f3 (x, y) = f1 (x, y)
r→−∞
xii
Figura 1: La función f3 con r = 0,01.
xiii
Definición 0.6. Sea f : A → R una función real. f tiene un máximo
absoluto en x0 ∈ A, si f (x) ≤ f (x0 ) para todo x ∈ A. f tiene un mínimo
absoluto en x0 ∈ A si f (x) ≥ f (x0 ) para todo x ∈ A. En ambos casos se
dice que f tiene un extremo absoluto.
Muchas veces es posible garantizar la existencia de extremos absolutos
bajo condiciones de continuidad sobre dominios cerrados y acotados.
Definición 0.7. Un conjunto E ∈ Rn es compacto si es cerrado y acotado.
(Lo último significa que existe M > 0 tal que E ⊂ B(0, M).)
Recuerde que si un conjunto E es de la forma f −1 [I], donde I es un
intervalo cerrado de R y f es continua, entonces E es cerrado.
|x| + |y| ≤ 1
(fig.??) por ser de la forma f −1 [[0, 1]] = {(x, y) ∈ R2 | f (x, y) ∈ [0, 1]}
con f (x, y) = |x| + |y|, que es una función continua por ser suma de
dos funciones continuas, que a su vez son composición de funciones
continuas: la función valor absoluto con las proyecciones ortogonales
sobre los ejes. Es además acotado, y por lo tanto compacto, debido a
las desigualdades
∥(x, y)∥ ≤ |x| + |y| ≤ 1
que muestran al conjunto E incluido en la bola cerrada de radio uno.
xy ≤ 1
xiv
Figura 2: La desigualdad |x| + |y| ≤ 1
por
f [E ∩ B(x0 , r)] ⊂ (f (x0 ) − ε, f (x0 ) + ε)
Cambio que puede traer alguna sorpresa en cuanto a la intuición de continuidad. Para
más sobre esto, véase Mansfield, Introduction to Topology, o Kelley, Topología General,
EUDEBA.
xv
Figura 3: Desigualdad xy ≤ 1
Ejercicio 0.14. En cada uno de los siguientes casos decida si el teorema 0.9
es o no aplicable directamente.
xvi
1
0,5
y 0
-0,5
-1
-0,6-0,4-0,2 0 0,2 0,4 0,6
x
xvii
9. Una función racional sobre una esfera cerrada.
0.3. Diferenciación
La siguiente lista de ejercicios son de ablande y le harán ganar soltura a
la hora de visualizar y calcular.
Ejercicio 0.15. Para cada una de las siguientes funciones indicar el mayor
dominio de definición, dibujarlo e indicar dónde es continua y dónde no lo es.
Realice un mapa de nivel de la función y un dibujo de su gráfica (inténtelo.)
1. f (x, y) = min{x, y}
3. f (x, y) = max{x, y}
!
5. f (x, y) = 1 − x2 − y 2 , hemisferio norte.
Ejercicio 0.16. en cada uno de los siguientes casos calcule las derivadas
parciales ∂f /∂x y ∂f /∂y, y calcule los puntos críticos en el mayor dominio
de la función dada.
1. f (x, y) = e2x−5y
xviii
2 −3(y−3)2
2. e−(x−1)
3. f (x, y) = x3 + xy cos(xy)
4. f (x, y) = 1
x2 +y 2
5. f (x, y) = xy
Ejercicio 0.17. La función f de abajo provee de un contraejemplo para el
teorema de Clairaut. Sea
( 2 −y 2
2xy xx2 +y 2, si x2 + y 2 ̸= 0
f (x, y) =
0, si x = y = 0
2. Sea (
x2 −y 4
x2 +y 4
, si (x, y) ̸= (0, 0);
f (x, y) = .
0, si (x, y) = (0, 0)
Usando líneas por el origen y = mx, verifique que todos los límites
especiales de f sobre estas líneas existen y valen cero en cero. Luego,
usando las curvas y = mx2 , pruebe que el límite de f en (0, 0) no existe.
xix
0.3.1. Ejercicios
Ejercicio 0.19. En cada caso calcule derivadas parciales, la matriz de la
diferencial total, y el hessiano para las siguientes funciones donde el dominio
lo permita.
10t2
K(t, r) = y L(t, r) = 6t2 + 250r
r
Calcule la tasa de cambio de la producción cuando t = 10, r = 0,1.3
Ejercicio 0.21. En los problemas que siguen realice una aproximación me-
diante el uso de diferenciales. (En otras palabras, se usa el plano tangente a
la función dada en el punto más simple desde el punto de vista de los cálculos
y se aproxima la variación funcional con la variación lineal que las derivadas
proveen.)
!
1. Estime (8,87)1/2 + 2(7,98)−1/3 + 3(1,11)2 .
3
Este problema se tomó del texto de Simon y Blume, p.318.
xx
2. Aproxime el valor de f (x, y) = 10x1/3 y 1/2 en x = 8,13 y = 9,54. (Use
una calculadora para obtener una aproximación hasta ocho dígitos sig-
nificativos.)
3. Sin el uso de calculadora Estime el valor de la producción Q = 10K 1/3 L2/3
cuando K = 1000, L = 125; luego cuando K = 998, L = 127.
Ejercicio 0.22. En los problemas que siguen use la regla de la cadena para
obtener sus resultados.
1. En una economía de dos commodities, considere la función demanda
de elasticidad constante
3/2 −1 2
1 p2 y y q2 = 10p1 p2 y
q1 = 6p−2
En una vecindad de los precios p1 = 6, p2 = 9 e ingreso y = 2, si se
incrementan los precios en una variación 0,1 y el ingreso cae 0,2, ¿qué
variación se espera en las cantidades demandadas?4
2. Ahora asuma que en el caso anterior los precios varian de acuerdo a las
funciones p1 = 5rt2 y p2 = 3rt, y el ingreso y = 20r. Encuentre la tasa
de variación en las cantidades demandadas cuando t = 5 y r = 0,1.
xxi
Teorema 0.10. Sea f : U ⊂ Rn → R una función real, y x0 ∈ U un extremo
local de f (en particular, x0 es un punto interior de U.) Si f es diferenciable
en x0 , entonces todas las derivadas parciales de f se anulan en x0 .
g(t) := f (x0 + t ei )
Ejercicio 0.23. En cada uno de los siguientes casos encuentre los puntos
críticos de la función dada en el dominio que corresponda.
a)
0 1/2 1/2
A = 1/2 0 1/2
1/2 1/2 0
xxii
b)
1 0 0
A= 0 2 0
0 0 3
c)
1 1 1
A= 1 1 1
1 1 1
!
3. z = 1 − x2 − y 2 , en la esfera abierta de radio uno de R2 . (La gráfica
de la función es el hemisferio norte de la esfera de radio uno en R3 .
Explique.)5
2 +y 2 )
4. z = xe−(x , en todo R2 .
5. z = xy 2 − x2 y, en todo R2 .
xxiii
entonces existe un único polinomio Pk,x0 de grado ≤ k tal que
g(t) − P (t)
lı́m =0
t→0 tk
Una cuenta simple usando la regla de la cadena calcula P (t) en términos de
f
g(0) = f (x0 )
∂f ∂f
g (1) (0) = (x0 )(x1 − a1 ) + · · · + (x0 )(xn − an )
∂x1 ∂xn
# ∂ 2 f (x0 )
g (2) (0) = (xi − ai )(xj − aj )
1≤i,j≤n
∂xi ∂xj
y en general
# ∂ k f (x0 )
g (k)(0) = (xi1 − aik ) . . . (xik − aik )
1≤i1 ,...,ik ≤n
∂xi 1 . . . ∂xi k
En estas sumas hay términos cruzados que son iguales por el teorema de
Clairaut–Young por ser las derivadas continuas. Un poco de notación a esta
xxiv
altura resulta útil a la hora de las cuentas concretas. Se introduce el coefi-
ciente multinomial ) *
k k!
=
r1 · · · rn r1 ! · · · rn !
donde r1 + · · · + rn = k y 0 ≤ r1 , . . . , rn ≤ k. Estos coeficientes generalizan
los nÞmeros combinatorios ( kr ) = r!(k−r)! k!
, los cuales son el caso n = 2 del
coeficiente multinomial.
Con esta notación en uso las derivadas de g en cero son
∂ 2 f (x0 )
) *
(2)
# 2
g (0) = (x − a1 )r1 · · · (xn − an )rn
r1 · · · rn ∂xr11 · · · ∂xrnn 1
r +···+r =2
1 n
0≤r1 ,...,rn ≤2
∂ k f (x0 )
) *
(k)
# k
g (0) = r1 (x1 − a1 )r1 · · · (xn − an )rn
r1 · · · rn ∂x1 · · · ∂xn r n
r1 +···+rn =k
0≤r1 ,...,rn ≤k
Ejercicio 0.24. Realice todas las cuentas en detalle para calcular las deriva-
das de g en cero en el caso de R2 y hasta orden k = 3. Luego haga lo mismo
para tres variables, caso R3 .
k
∂ s f (x0 )
) *
# 1 # s
Pk,x0 (x) = (x1 −a1 )r1 · · · (xn −an )rn
s=0
s! r1 +···+rn =s
r1 · · · rn ∂xr11 · · · ∂xrnn
0≤r1 ,...,rn ≤s
g k+1(c)
g(1) − P (1) = (1 − 0)k+1
(k + 1)!
xxv
∂ k+1 f (x0 (1 − c) + cx)
) *
1 # k+1
(x1 −a1 )r1 · · · (xn −an )rn
(k + 1)! r1 · · · rn ∂xr11 · · · ∂xrnn
r1 +···+rn =k
0≤r1 ,...,rn ≤k
(1)
Como hemos supuesto las derivadas de f continuas hasta el orden k + 1 sobre
U, existe una constante positiva M que acota a todas las derivadas parciales
de f de orden k + 1 sobre la esfera cerrada BCerr. (x0 , r/2). Entonces, por la
desigualdad triangular y como cada |xi − ai | ≤ ∥x − x0 ∥, se tiene la siguiente
estimación
|f (x) − Pk,x0 (x)| ≤
) *
1 # k+1
≤ M |x1 − a1 |r1 · · · |xn − an |rn
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1
) *
1 # k+1
≤ M ∥x − x0 ∥r1 · · · ∥x − x0 ∥rn
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1
) *
1 # k+1
≤ M ∥x − x0 ∥k+1
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1
nk+1
≤M ∥x − x0 ∥k+1
(k + 1)!
) *
k+1
porque nk+1 k+1
.
+
= (1 + · · · + 1) = r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1 r1 · · · rn
Luego,
|f (x) − Pk,x0 (x)| nk+1
≤M ∥x − x0 ∥
∥x − x0 ∥k (k + 1)!
que prueba
|f (x) − Pk,x0 (x)|
lı́m =0
x→x0 ∥x − x0 ∥k
Q.E.D.
Las imagenes siguientes muestran una secuencia de polinomios de Taylor
aproximando una función (su gráfica se presenta en una malla de puntos,
dando una apariecia transparente.)
xxvi
xxvii
La unicidad del polinomio de Taylor es muy importante a la hora de
calcularlo. Los ejemplos que siguen muestran de manera intuitiva algunas de
las muchas posibilidades.
Ejercicio 0.26. Clacule los polinomios de Taylor para las siguientes funcio-
nes en el punto indicado y describa la naturaleza del punto (x0 , y0) de ser
punto crítico.
xxviii
2. q = x2 + y 2 − xy + 2x + 3y − 1, todos centrados en el origen, todos los
ordenes.
2. w = xy + xz
3. z = (x2 + y 2 ) ln (x2 + y 2)
4. w = cos (x2 + y 2 + z 2 )
5. w = x2 + y 2 + z 2
Ejercicio 0.28. Para la siguiente lista de casos, como antes mire las condi-
ciones de primer orden y decida el carácter del punto crítico a través de la
derivada segunda de la función objetivo. Si la segunda derivada se anulara,
calcule los subsiguientes polinomios de Taylor hasta el menor siguiente no
nulo y decida la condición del punto crítico.
xxix
1. f (x, y) = sin x cos x
2. z = x2 y 2
3. z = x2 + 4xy − y 2 − 8x − 6y
4. z = x2 − xy − y 2 + 5y − 1
5. z = x2 + 2y 2 − x
6. z = x sin y
7. z = x4 + y 4
8. z = (x − y)4
que exhibe claramente un mínimo local en cero sea cual fuere la dirección
(a, b) de la línea.
xxx
Ejercicio 0.30. Una firma usa dos insumos para producir un determinado
artículo. Si su función producción es Q = x1/4 y 1/4 y si vende cada artículo por
un peso y compra cada insumo por cuatro pesos, encuentre la combinación
de cantidades de insumos que maximizan las utilidades.
Ejercicio 0.31. Como el caso anterior pero en general. Supóngase que una
firma tiene función producción de Cobb–Douglas de cierto artículo Q = xα y β ,
con precio final de venta p y precios r y s de cada insumo respectivamente.
Resuelva las condiciones de primer orden para encontrar la combinación de
insumos que tentativamente maximice las utilidades. Véa las condiciones de
segundo orden para determinar qué parámetros α, β, p, r, s garantizan que la
solución sea un máximo global.
Ejercicio 0.32. Las AeroFlight normalmente cubre los vuelos de Sky Iland a
la capital D.F. La compañía trata pasajeros de la clase de negocios y turista
como mercados separados al demandar compra de boletos por anticipado
a la clase turista. Suponga que las funciones demanda en cada caso son
Q = 16 − p, para la clase de negocios, y Q = 10 − p para la clase turista,
y que la función costo para todos los viajeros son C(Q) = 10 + Q2 . Qué
precio debe la compañía poner a cada clase de boleto para maximizar sus
ganancias?
xxxi
Práctico 5:
Optimización no Lineal en Rn
Matemática 3, FCE, UNC.
1 de junio de 2012
0.1. Optimización con Restricciones de Igual-
dad
0.1.1. Multiplicadores de Lagrange
Teorema 0.1. Sea G : Rn → Rm continuamente diferenciable 1 con n > m
(estas son las m funciones de las restricciones).2 Suponemos que la diferen-
cial de G = (g1 , . . . , gm ) tiene rango máximo (Condición de regularidad) en
x0 ∈ S := G−1 {0}; esto es, la matriz
∇g1 (x0 )
d x0 G =
!
Gx1 (x0 ) · · · Gxn (x0 )
"
= ..
.
∇gm (x0 )
h : U ⊂ Rn−m → Rm ,
2
y
G(h(u), v) = 0
Entonces la gráfica de h representa paramétricamente S en un entorno de
x0 :
H(v) := (h(v), v),
H : U ⊂ Rn−m → S ⊂ Rn
es diferenciable y parametriza S.
En particular,
G(H(v)) = 0 para todo v ∈ U.
El espacio tangente a S en x0 tiene dimensión n − m y está generado por
las columnas de
dhv0
d v0 H =
I
una matriz de tamaño n×(n−m); el bloque inferior es la identidad I(n−m)×(n−m) .
En particular,
0 = dv0 (G ◦ H) = dx0 G × dv0 H (1)
2do. paso: La restricción de f a S (a U más exactamente) es la composición
de f con H. Como f tiene un extremo local en x0 cuando se restringe a S,
f ◦ H tiene un extremo local en v0 . Luego
0 = dv0 (f ◦ H) = ∇f (x0 ) × dv0 H (2)
3er. paso: Las ecuaciones (1) y (2) implican dos cosas:
i) primero, que las m filas (LI) de dx0 G son ortogonales a las n − m
columnas (LI) de dv0 H; luego la unión de las filas de dx0 G con las
columnas de dv0 H forman una base de Rn .
ii) Segundo, que ∇f (x0 ) es ortogonal a las columnas de dv0 H.
Entonces ∇f (x0 ) es sólo combinación las filas de dx0 G. Osea, existen
números λ1 , . . . , λm tales que
∇f (x0 ) = λ1 g1 (x0 ) + · · · + λm gm (x0 )
que es la afirmación a probar.
3
Ejercicio 0.1. Encuentre la máxima y mínima distancia del origen a la elipse
x2 + xy + y 2 = 3. (Ayuda: Considere como función objetivo la distancia al
cuadrado y la elipse como restricción.)
Ejercicio 0.2. Encuentre el punto más cercano al origen sobre la intersección
de los planos x + y + z = 1 y 3x + y + z = 5.
Ejercicio 0.3. Encuentre los extremos locales de la función f (x, y) = x +
y + z 2 sujeto a x2 + y 2 + z 2 = 1 y y = 0.
Ejercicio 0.4. Maximice f (x, y, z) = xz + yz sujeto a y 2 + z 2 = 1 y xz = 3.
Ejercicio 0.5. Maximice w = x2 y 2 z 2 sujeto a x2 + y 2 + z 2 = c2 , donde c > 0
es una constante arbitraria fija. Encuentre el máximo valor de la función.
Ejercicio 0.6. Maximice U(x, y) = Kxα y β , una Cobb–Douglas, sujeta a
p1 x + p2 y = I y x, y ≥ 0.
Ejercicio 0.7.
4
Práctico 6:
Remix de problemas de parciales viejos.
Matemática 3, FCE, UNC.
21 de junio de 2011
El práctico entre manos es una selecta de problemas que han aparecido
en viejos exámenes o fueron entregados como ejercicios sueltos durante las
clases en alguna oportunidad. Aquí se presentan todos juntos para su integral
felicidad.
Problema 2:
Una desigualdad famosa. Considere una forma cuadrática Q(X) =
X T AX, donde A es simétrica 3 × 3. El problema consiste en encontrar el
mínimo y máximo absolutos de Q en la esfera de radio uno. (La respuesta es
parte del problema.) Hay dos formas de hacer esto desde lo que Usted sabe;
ii
una manera es puramente algebraica y usa el teorema espectral de operadores
simétricos. La otra es tratar al problema como un problema de optimización
usual y usar multiplicadores de Lagrange. Elija una de estas alternativas.
Aquí van los pasos esenciales para cada una de las alternativas.
iii
Problema 3:
Minimización de costos de una firma. Una firma en un proceso de
producción simple requiere de dos imputs x ≥ 0, y ≥ 0, a un costo unitario
de w1 , w2 respectivamente, para lograr un nivel de producción q = f (x, y)
de determinado output, donde f (x, y) = Kxa y b es la función producción. La
minimización de los costos de producir un output q0 plantea el problema
⎧
⎨ min w1 x + w2 y
s.a. f (x, y) = q0
x ≥ 0, y ≥ 0
⎩
Problema 4:
El problema del tamaño óptimo de inventario Una firma posee un
inventario de cierto artículo que disminuye a una tasa constante por unidad
de tiempo. Cuando el inventario es cero, la firma hace un pedido de un nuevo
lote de q artículos para reponer el stock, pedido éste que se satisface inme-
diatamente. La firma ordena n lotes al año para satisfacer un requerimiento
anual fijo de Q0 artículos; así Q0 = qn. Dos tipos de costos ocurren: un costo
de almacenamiento, y otro, Co , por cada orden de un nuevo lote. La cantidad
promedio en stock para lotes de un tamaño q, es q/2 (, fácil de ver.) Si el
costo de almacenamiento de un artículo es Ca , el costo total de almacenar
un lote es Ca q/2. El costo total es entonces, C = Ca q/2 + Co n. Considere el
problema de minimizar los costos de inventario (sujeto a Q0 = qn.)
iv
3. Use multiplicadores de Lagrange para encontrar el costo mínimo y el
tamaño óptimo de lote.
Problema 5:
Estudie los extremos locales y absolutos, de existir, de 3x2 + 5y 2 + xy
sujeto a las restricciones 1 ≤ x ≤ 5, 2 ≤ y ≤ 7. (No olvide argumentar sobre
la existencia —o no—de los extremmos absolutos.)
Problema 6:
Estudie los extremos locales y absolutos, de existir, de 3x2 −y 2 +x−2y +1
sujeto a x2 + y 2 ≤ 1, y ≥ 0, x ≥ 0.
Problema 7:
2 −y 2
Estudie los extremos locales y absolutos, de existir, de (x + y)e−x
sujeto a x ≥ 0, x2 + y 2 ≤ 2.
Problema 8:
Estudie los extremos locales y absolutos, de existir, de f (x, y, z) = xz +yz
sujeto a y 2 + z 2 ≤ 1 ; xz ≤ 1.
Problema 9:
Considere el problema
opt. z = x2 + y 2 − 2xy
sa 0≤x≤1
0≤y≤1
v
3. Determine el carácter de cada uno de los puntos interesantes arriba
calculado.
4. Sumarice lo obtenido.
Problema 10:
Considere el problema
opt. z = x2 − y 2 + 2xy
sa x2 + y 2 ≤ 1
0≤y
0≤x
1. Determine si los extremos absolutos existen o no.
2. Calcule todos los puntos críticos, sueltos, etc.
3. Determine el carácter de cada uno de los puntos interesantes arriba
calculado.
4. Sumarice lo obtenido.
Problema 11:
Maximice U(x, y) = Kxα y β , una Cobb–Douglas, sujeta a p1 x + p2 y ≤ I
y x ≥ 0, y ≥ 0.
0.2. Continuidad
Problema 1:
Indique en cuáles de los siguientes casos es posible garantizar la existencia
de extremos absolutos —uno o ambos—y porqué. (No debe hacer ninguna
cuenta terrible.)
1. z = x − y sujeto a las restricciones x2 + y 2 − 2x − 2y + 1 ≤ 0, x2 + y 2 −
4x − 2y + 4 ≤ 0.
2. z = x2/3 y 1/3 sujeto a la restricción 0 ≤ x, y ≤ 1(ambas desigualdades
para ambas variables.)
vi
3. z = (x2 − y 2) sujeto a x2 < 1.
x3
4. z = 1+y 2
sujeto a máx {|x| , |y|} ≤ 3.
Problema 2:
&
Considere la cuenta c := 3
(0,97) cos(0,11).
4. Puede dar una idea del error cometido en las aproximaciones de los dos
primeros ítems?
vii
0.4. Formas
Problema 1:
1. Enuncie condiciones necesarias y suficientes en términos de determi-
nantes para que la foma cuadrática q = X T AX, donde AT = A, sea
negativa definida. Luego aplique ese resultado al caso q = 3x2 + y 2 −
z 2 − 2xy − 2xz − 2yz.
Problema 2:
Se espera que enuncie correctamente los teoremas necesarios y exhiba las
cuentas completas en el ejemplo en particular.
viii
Problema 3:
1. Usando determinantes, decida el carácter (def.,semidef., o indef.,) de la
forma cuadrática q = X T AX, donde
⎡ ⎤
1 2 1
A=⎣ 2 3 −4 ⎦
1 −4 5
Problema 4:
1. Usando determinantes, decida el carácter (def.,semidef., o indef.,) de la
forma cuadrática q = X T AX, donde
⎡ ⎤
1 1 1
A=⎣ 1 2 1 ⎦
1 1 1
ix
(x, y, z) = (0, 0, 1) + t(1, −1, 1)
(Ayuda: no debería tener problema en encontrar la dirección ortogonal a
ambas. Para determinar el punto por donde pasa, resuelva el sistema que
surge de intersectar los planos que contienen cada línea y es paralelo a la
dirección normal hallada. No pregunte más.)
Problema 2:
Considere el plano Σ determinado por los puntos P1 = (0, 0, 1), P2 =
(2, 1, 0) y P3 = (0, 1, 1).
1. Construya la línea ortogonal a Σ que pasa por el origen, y úsela para
determinar la mínima distancia del plano al origen.
Problema 3:
Considere el plano Σ que pasa por el punto P0 = (1, 0, 1) y es paralelo a
los vectores α = (0, 1, 1) y β = (1, 1, 1). Dado el punto P1 = (0, 1, −1),
1. encuentre la línea l1 por P1 ortogonal a Σ;
maximizar f (x, y)
sujeto a g(x, y) ≤ c0
donde las funciones involucradas son dos veces continuamente diferenciables
y ∇g es no nulo en todos los puntos de la curva de nivel g(x, y) = c0 . La
resolución del problema es gráfica y conceptual; no requiere de cuentas. La
x
fig.1 le muestra el mapa de nivel de la función objetivo junto con su gradiente.
La fig.2 muestra la función restricción y su gradiente. Por último, la fig.3 le
muestra ambas funciones juntas, la función objetivo y el borde de la región.
xi
(a) Función objetivo. (b) Restricción
xii
(a) Función objetivo. (b) Restricción
xiii
Teorema del Coseno 1
Teorema 0.1. Sea ABC un triángulo y denótense sus ángulos por las letras de los vérices y sus
lados por las letras minúsculas correspondientes a sus vértices opuestos. Con esa notación en uso,
el teorema del coseno afirma lo siguiente:
a2 = b2 + c2 − 2bc cos A
Demostración. Consideramos tres casos: Cuando el ángulo A es recto, cuando A es agudo y cuando
A es obtuso. En todos los casos la idea es reducirlo al teorema de Pitágoras trazando la altura h
del triángulo. Tambien conviene recordar que en un triángulo rectángulo el cateto adyacente es la
hipotenusa por el coseno del ángulo y el cateto opuesto es la hipotenusa por el seno del ángulo. Esto
último se sumariza en la fig.0.1
B
✟
✟
h ✟
✟✟ a = h sin A
✟✟
✟
A b = h cos A C
1. Si A es recto, entonces el coseno de A es cero, y el teorema del coseno afirma lo mismo que el
teorema de Pitágoras, es decir
a2 = b 2 + c2 − 2 b c 0 = b 2 + c2
Observe primero tres igualdades que se siguen del teorema de Pitágoras y la definición del
coseno de un ángulo:
a2 = h2 + e2 ; c2 = h2 + (b − e)2 ; e = b − c cos A
Teorema del Coseno 2
de donde se calcula
a2 = c2 − (b − e)2 + e2
= c2 − b2 + 2be − e2 + e2
= c2 − b2 + 2b(b − c cos A)
= c2 + b2 − 2bc cos A
a2 = (b + e)2 + h2 (1)
2 2 2
= b + 2be + e + h (2)
2 2
= b + 2be + c (3)
2 2
= b + c − 2bc cos A (4)
Como en el caso anterior, se usó el teorema de Pitágoras en (1) para a, denuevo lo mismo en
(3) para c2 = h2 + e2 , y, finalmente, que e = −c cos A (observe que el − se debe a que A es
obtuso.)
Resumen
A[α0 ] = λ0 [α0 ]
(A − λI)X = 0
det(A − λI) = 0
1
es invariante por conjugaciones; esto es, det(Q−1 AQ) = detA para toda matriz
invertible Q. Entonces, si Q−1 AQ representa a T en otra base,
c1 λ1 α1 + · · · + cn λn αn = 0
2
P (λ) = λ2 + 1
que no tiene raı́ces reales. Esto dice que imposible esperar que T se pueda
diagonalizar en alguna base de R2 .
Aún cuando todas las raı́ces del polinomio caracterı́stico existan en los reales,
no siempre existen suficientes vectores propios para formar una base de V .
Veamos un ejemplo de esto. Supongamos que T está representado en la base
canónica por la matriz ! "
1 1
A=
0 1
Entonces T tiene polinomio caracterı́stico
#! " $
1 1
P (λ) = det − λI
0 1
#! "$
1−λ 1
P (λ) = det
0 1−λ
P (λ) = (λ − 1)2
que tiene todas sus raı́ces en R: λ0 = 1 es raı́z doble. Para buscar los vectores
propios miramos las soluciones no triviales del sistema
(A − λ0 I)X = 0
#! " $
1 1
−I X =0
0 1
! "! " ! "
0 1 x 0
=
0 0 y 0
que tiene como soluciones los múltiplos del vector e1 ; nada más. Con ese vector
solo no se llega a una base de R2 .
De regreso a nuestra discusión. De nuevo, si Φ es una base que diagonaliza
a T , se debe tener
T αi = λi αi , i = 1, 2, . . . , n
lo que en términos de la matriz A que representa a T en la base canónica se
convierte en
A[αi ] = λi [αi ] ; i = 1, 2, . . . , n
que a su vez puede ser leı́do en términos de la matriz cambio de base P de la la
nueva base Φ a la canónica. P es la matriz cuyas columnas son los vectores αi ’s
puestos en columna (es decir, P tiene por columnas a los vectores [αi ]Can ’s.)
Entonces, si existe la base que diagonaliza a T ,
P −1 AP = D
Recuerde esto que es importante a la hora de los cálculos.
Hagamos un alto para analizar algunos ejemplos más.
Ejercicio 1.1. Sea T : Rn → Rn el operador lineal representado en la base
canónica por la matriz A n × n. En cada caso, calcule el polinomio caracterı́stico
de T , valores propios y vectores propios asociados. Encuentre de ser posible una
base de vectores propios que diagonalice a T . Construya la matriz cambio de
base y verifique si P −1 AP es o no diagonal.
3
1. ⎡ ⎤
1 −1 −1
A=⎣ 0 2 −1 ⎦
0 0 3
2. ⎡ ⎤
3 0 2
A = ⎣ −1 1 −1 ⎦
−1 0 0
3. ⎡ ⎤
1 −1 −1
A = ⎣ −1 2 −1 ⎦
−1 −1 3
4. ⎡ ⎤
2 1 0
A=⎣ 1 2 1 ⎦
0 1 2
Ejercicio 1.2. Para los dos últimos casos del problema anterior, verificar que es
posible tomar la matriz P que diagonaliza a T con columnas ortogonales entre
sı́ y de norma uno. Calcule P −1 y compare con la traspuesta de P .
Ejercicio 1.3. Pruebe que si una matriz P n×n tiene por columnas los vectores
de una base de Rn cuyos vectores son ortogonales entre sı́ y cada uno de norma
uno, entonces P P T = I. Tales matrices se denominan ortogonales. Verifique
que si dos matrices son ortogonales su producto también lo es.
Ejercicio 1.4. Pruebe que toda matriz invertible A tiene todos sus valores
propios no nulos. Más aún, λ0 es un valor propio de A si y sólo si 1/λ0 es valor
propio de A−1 .
Ejercicio 1.5. Sea T : Rn → Rn un operador lineal representado en la base
canónica por una matriz ortogonal. Entonces, con respecto al producto interno
canónico de Rn ,
⟨T x, T y⟩ = ⟨x, y⟩
Ayuda: Escriba todo matricialmente; producto interno incluı́do.
Ejercicio 1.6. Pruebe que una matriz ortogonal sólo tiene como valores propios
reales a ±1. Ayuda: Use los problemas anteriores y el hecho que el determinante
es invariante por trasposición.1
1 En general, para tener todos los valores propios de una matriz en el cuerpo de escalares
hace falta que éste sea algebraicamente cerrado; es decir, que todo polinomio de grado n > 0
con coeficientes en el cuerpo tenga todas sus n raı́ces en el cuerpo. En particular, en el caso
de una matriz ortogonal real, del análogo del ejercicio 1.5 pero en C, se sigue que los valores
propios sólo pueden ser de la forma eiθ = cos θ + i sin θ, con θ ∈ R.
4
2. Transformaciones Simétricas
De ahora en más se asume que V = Rn . La diferencia radica fundamental-
mente en que ahora disponemos del producto interno canónico, que nos permite
considerar ortogonalidad entre vectores y subespacios.
Agregamos un nuevo ingrediente al problema de diagonalizar un operador
lineal. Se requiere de la base diagonalizante que consista de vectores mutuamente
ortogonales y de norma unitaria.
Definición 2.1. Una base Φ = {α1 , . . . , αn } de Rn es ortonormal si satisface
)
1 si i = j
⟨αi , αj ⟩ = δij =
0 si i =
̸ j
P T [T ]T P = DT = D = P T [T ]P
de donde
[T ]T = [T ]
En otras palabras, [T ] es simétrica. Este hecho puede decirse en términos del
producto interno canónico ası́:
⟨T α, β⟩ = ⟨α, T β⟩
⟨Aα, β⟩ = ⟨α, AT β⟩
⟨α, β⟩ = αT β
5
De esto se desprende que T es simétrico si y sólo si su matriz en la base
canónica es simétrica.2
En realidad esto es todo lo que se necesita de T : Rn → Rn para que exista
una base ortonormal que lo diagonalice.
Teorema 2.1. Sea T : Rn → Rn un operador lineal simétrico. Entonces todos
sus valores propios son reales y existe una base ortonormal Φ consistente de
vectores propios que diagonaliza a T .
Dicho en términos matriciales, si A es una matriz simétrica, todos los valores
propios de A son reales y existe una matriz ortogonal P tal que P T AP = D
donde D es una matriz diagonal con los valores propios de A en la diagonal.
La demostración de este teorema consiste de tres pasos. Primero hay que
probar que todos los valores propios de un operador simétrico son siempre reales.
Esto garantiza la existencia de vectores propios reales. Segundo, se muestra que
por ser T simétrico, vectores propios correspondientes a valores propios distintos
son ortogonales entre si; y si W es un subespacio T –invariante, entonces el
complemento ortogonal W ⊥ es también T –invariante. Por último un argumento
inductivo muestra que es factible construir una base ortonormal que consiste de
vectores propios de T . Esta base diagonaliza a T .
Proposición 2.1. Sea T : Rn → Rn un operador lineal simétrico. Entonces
todos sus valores propios son reales y vectores propios de T correspondientes a
valores propios distintos son ortogonales entre sı́.
Demostración. Sea A la matriz de T en la base canónica. El producto interno
canónico en Rn es
⟨α; β⟩ = αT × β
Pero el mismo producto interno en Cn es
⟨α; β⟩ = αT × β
Por el teorema fundamental del álgebra (TFA), existe una raı́z λ1 ∈ C del
polinomio caracterı́stico de A: det(A − λI) = 0. Entonces el sistema homogéneo
(A − λ1 I)X = 0
⟨λ1 α1 , α1 ⟩ = ⟨α1 , λ1 α1 ⟩
λ1 ⟨α1 , α1 ⟩ = λ1 ⟨α1 , α1 ⟩
λ1 = λ1
2 Más es cierto: T es simétrico si y sólo si la matriz de T en cualquier otra base ortonormal
es simétrica. Si la base no es ortonormal, en general la matriz que representa a T no es nece-
sariamente simétrica. Esto puede generalizarse a opeadores lineales actuando sobre espacios
con producto interno arbitrarios. Véase Hoffman-Kunze, Álgebra Lineal.
6
porque ⟨α1 , α1 ⟩ > 0. Esto prueba que λ1 es real. En ese caso, α1 pude tomarse
en Rn .
Para lo segundo, supongamos que α es un vector propio del valor propio λ1
y que β es un vector propio del valor propio λ2 , con λ1 ̸= λ2 . Entonces,
⟨λ1 α; β⟩ = ⟨α; λ2 β⟩
λ1 ⟨α; β⟩ = λ2 ⟨α; β⟩
(λ1 − λ2 )⟨α; β⟩ = 0
⟨α; β⟩ = 0
que prueba la ortogonalidad de α y β.
Proposición 2.2. Sea T : Rn → Rn un operador lineal simétrico y W un subes-
pacio T –invariante, (esto es, T (W ) ⊂ W ) entonces el complemento ortogonal
W ⊥ es T –invariante.
Demostración. Supongamos que W es T -invariante. Sean α cualquier vector en
W y β un vector cualquiera de W ⊥ . Entonces,
⟨α; T β⟩ = ⟨T α; β⟩ = 0
[T ]Φ = [[T α1 ]Φ , [T γ2 ]Φ , . . . , [T γn ]Φ ]
= [λ1 e1 , [T γ2 ]Φ , . . . , [T γn ]Φ ]
7
pero como cada T γi es combinación lineal sólo delos γj ’s, cada columna [T γj ]Φ
es combinación lineal sólo de ei ’s con 2 ≤ i ≤ n. O sea, la matriz de T en la
base Φ se ve ası́
λ1 0
A=
0 B
donde B en (n − 1) × (n − 1).
Afirmación 1: B es simétrica.
Esto se sigue de haber tomado la base {γ2 , . . . , γn } de W1⊥ ortonormal. Es
suficiente probar que
⟨Bei ; ej ⟩ = ⟨ei ; Bej ⟩
porque por linealidad se extiende a todo Rn−1 .
n−1
*
⟨Bei ; ej ⟩ = ⟨ bsi es ; ej ⟩
s=1
n−1
*
= bsi ⟨es ; ej ⟩
s=1
n−1
*
= bsi δsj
s=1
n−1
*
= bsi ⟨γs+1 ; γj+1 ⟩
s=1
n−1
*
=⟨ bsi γs+1 ; γj+1 ⟩
s=1
= ⟨Aγi+1 ; γj+1 ⟩
= ⟨γi+1 ; Aγj+1 ⟩
n−1
*
= ⟨γi+1 ; bsj γs+1 ⟩
s=1
n−1
*
= bsj ⟨γi+1 ; γs+1 ⟩
s=1
n−1
*
= bsj δis
s=1
n−1
*
= bsj ⟨ei ; es ⟩
s=1
n−1
*
= ⟨ei ; bsj es ⟩
s=1
= ⟨ei ; Bej ⟩
8
entonces B es simétrica. Crucial a esta cuenta fué el hecho que la base {γ2 , . . . , γn }
es ortonormal:
⟨ei ; ej ⟩Rn−1 = δij = ⟨γi+1 ; γj+1 ⟩Rn
Ahora sı́, por inducción existe una base ortonormal de Rn−1 α˜2 , . . . , α˜n con-
sistente de vectores propios de B
B α̃i = λi α̃i , i = 2, 3, . . . , n
donde ⎡ ⎤
u2i
α̃i = ⎣ ... ⎦ ∈ Rn−1
⎢ ⎥
uni
Afirmación 2: ⟨αi ; αj ⟩ = δij
Que α1 es ortogonal a los αi ’s con 2 ≤ i ≤ n se sigue de la ortogonalidad
entre α1 y los γi ’s. Veámos que los αi ’s con 2 ≤ i ≤ n son ortogonales entre si
*n n
*
⟨αi ; αj ⟩ = ⟨ usi γs ; urj γr ⟩
s=2 r=2
n
*
= usi urj ⟨γs ; γr ⟩
s,r=2
n
*
= usi urj δsr
s,r=2
n
*
= usi urj ⟨es−1 ; er−1 ⟩
s,r=2
*n n
*
=⟨ usi es−1 ; urj er−1 ⟩
s=2 r=2
n
*
= usi [A(γs )]Φ
s=2
n
*
= usi Bes−1
s=2
9
*n
= B( usi es−1 )
s=2
= B(α̃i )
= λi α̃i
*n
= λi ( usi es−1 )
s=2
*n
= λi ( usi [γs ]Φ )
s=2
= [λi αi ]Φ
Esto termina la prueba.
Ejercicio 2.2. En cada uno de los siguientes casos, encuentre una matriz orto-
gonal P que diagonalice A.
1. ⎡ ⎤
1 0 −1
A=⎣ 0 2 0 ⎦
−1 0 1
2. ⎡ √ ⎤
3/2 √1/2 0
A = ⎣ 1/2 − 3/2 0 ⎦
0 0 2
3. ⎡ ⎤
0 1 1
A=⎣ 1 2 1 ⎦
1 1 0
4. ⎡ ⎤
1 2 3
A=⎣ 2 3 4 ⎦
3 4 5
5. ! "
cos θ sin θ
A=
sin θ − cos θ
10
Formas Cuadráticas, Matemática III
27 de mayo de 2011
Índice general
T αi = λi αi , i = 1, 2, . . . , n
2
0.1. VECTORES Y VALORES PROPIOS 3
A[α0 ] = λ0 [α0 ]
(A − λI)X = 0
det(A − λI) = 0
En realidad, sólo falta ver que vectores propios de valores propios dis-
tintos son linealmente independientes entre sí. Para ver esto, supongamos
que los n = dim(V ) valores propios de T son λ1 , . . . , λn , todos distintos en
los reales. Y supongamos que α1 , . . . , αn son los correspondientes vectores
propios. Entonces, si
c1 α1 + · · · + cn αn = 0,
4
P (λ) = λ2 + 1
que no tiene raíces reales. Esto dice que imposible esperar que T se pueda
diagonalizar en alguna base de R2 .
Aún cuando todas las raíces del polinomio característico existan en los
reales, no siempre existen suficientes vectores propios para formar una base
de V . Veamos un ejemplo de esto. Supongamos que T está representado en
la base canónica por la matriz
! "
1 1
A=
0 1
Entonces T tiene polinomio característico
#! " $
1 1
P (λ) = det − λI
0 1
0.1. VECTORES Y VALORES PROPIOS 5
#! "$
1−λ 1
P (λ) = det
0 1−λ
P (λ) = (λ − 1)2
que tiene todas sus raíces en R: λ0 = 1 es raíz doble. Para buscar los vectores
propios miramos las soluciones no triviales del sistema
(A − λ0 I)X = 0
#! " $
1 1
−I X = 0
0 1
! "! " ! "
0 1 x 0
=
0 0 y 0
que tiene como soluciones los múltiplos del vector e1 ; nada más. Con ese
vector solo no se llega a una base de R2 .
De regeso a nuestra discusión. De nuevo, si Φ es una base que diagonaliza
a T , se debe tener
T αi = λi αi , i = 1, 2, . . . , n
lo que en términos de la matriz A que representa a T en la base canónica se
convierte en
A[αi ] = λi [αi ] ; i = 1, 2, . . . , n
que a su vez puede ser leído en términos de la matriz cambio de base P
de la la nueva base Φ a la canónica. P es la matriz cuyas columnas son
los vectores αi ’s puestos en columna (es decir, P tiene por columnas a los
vectores [αi ]Can ’s.) Entonces, si existe la base que diagonaliza a T ,
P −1 AP = D
1. ⎡ ⎤
1 −1 −1
A=⎣ 0 2 −1 ⎦
0 0 3
2. ⎡ ⎤
3 0 2
A = ⎣ −1 1 −1 ⎦
−1 0 0
3. ⎡ ⎤
1 −1 −1
A = ⎣ −1 2 −1 ⎦
−1 −1 3
4. ⎡ ⎤
2 1 0
A=⎣ 1 2 1 ⎦
0 1 2
Ejercicio 0.2. Para los dos últimos casos del problema anterior, verificar que
es posible tomar la matriz P que diagonaliza a T con columnas ortogonales
entre sí y de norma uno. Calcule P −1 y compare con la traspuesta de P .
Ejercicio 0.3. Pruebe que si una matriz P n × n tiene por columnas los
vectores de una base de Rn cuyos vectores son ortogonales entre sí y cada
uno de norma uno, entonces P P T = I. Tales matrices se denominan orto-
gonales. Verifique que si dos matrices son ortogonales su producto también
lo es.
Ejercicio 0.4. Pruebe que toda matriz invertible A tiene todos sus valores
propios no nulos. Más aún, λ0 es un valor propio de A si y sólo si 1/λ0 es
valor propio de A−1 .
Ejercicio 0.6. Pruebe que una matriz ortogonal sólo tiene como valores
propios reales a ±1. Ayuda: Use los problemas anteriores y el hecho que el
determinante es invariante por trasposición.1
P T [T ]P = D
P T [T ]T P = D T = D = P T [T ]P
de donde
[T ]T = [T ]
1
En general, para tener todos los valores propios de una matriz en el cuerpo de escalares
hace falta que éste sea algebraicamente cerrado; es decir, que todo polinomio de grado
n > 0 con coeficientes en el cuerpo tenga todas sus n raíces en el cuerpo. En particular,
en el caso de una matriz ortogonal real, del análogo del ejercicio 0.5 pero en C, se sigue
que los valores propios sólo pueden ser de la forma eiθ = cos θ + i sin θ, con θ ∈ R.
8
⟨T α, β⟩ = ⟨α, T β⟩
Ejercicio 0.7. Pruebe que para toda matriz cuadrada An×n se cumple
⟨Aα, β⟩ = ⟨α, AT β⟩
⟨α, β⟩ = αT β
Aquí estamos pensando los vectores de Rn como matrices n×1; por lo tanto, la
operación de trasponer pone a los vectores en posición horizontal. Siguiendo
esta convención, pruebe que
Demostración.
Demostración.
Demostración.
Ejercicio 0.8. En cada uno de los siguientes casos, encuentre una matriz
ortogonal P que diagonalice A.
1. ⎡ ⎤
1 0 −1
A=⎣ 0 2 0 ⎦
−1 0 1
2. ⎡ √ ⎤
3/2 √1/2 0
A=⎣ 1/2 − 3/2 0 ⎦
0 0 2
10
3. ⎡ ⎤
0 1 1
A=⎣ 1 2 1 ⎦
1 1 0
4. ⎡ ⎤
1 2 3
A=⎣ 2 3 4 ⎦
3 4 5
5. ! "
cos θ sin θ
A=
sin θ − cos θ
Q(X) = X T AX
Q = λ1 u21 + · · · + λn u2n
1. 3x2 − 6xy + y 2
0.3. FORMAS CUADRÁTICAS 13
2. 8x2 + 9xy − 3y 2
5. 2xy
6. 3x2 + 4xy
7. −6xy + 8y 2
8. x2 + 2xy + y 2
9. 3x2 − 4xy + 3y 2
11. x2 + 2y 2 − 6xz + z 2 − 4w 2
Ejercicio 0.11. Sea Q(X) = X T AX. Para cada caso encuentre la P orto-
gonal que diagonaliza A y decida si la forma es definida positiva o negativa;
si es semidefinida positiva o negativa; o indefinida.
1. ⎡ ⎤
0 1/2 1/2
A = ⎣ 1/2 0 1/2 ⎦
1/2 1/2 0
2. Q(x, y) = x2 + 2xy + y 2
3. Q(x, y) = x2 + 2xy
4. ⎡ ⎤
3/2 0 1/2
A=⎣ 0 2 0 ⎦
1/2 0 3/2
5. ⎡ ⎤
−11 −5 3 1
⎢ −5 −11 1 3 ⎥
A=⎢ ⎥
⎣ 3 1 −11 −5 ⎦
1 3 −5 −11
14
Ejercicio 0.12. Hallar una condición necesaria y suficiente para que la forma
ax2 + bxy + cy 2 se pueda diagonalizar ortogonalmente a una forma del tipo
ku2 .
Existe una manera de decidir sobre el signo de una forma cuadrática sin
necesidad de diagonalizarla (aunque tal vez no menos laborioso.)
Definición 0.5. Sea An×n una matriz. Una submatriz de orden k es una
matriz k × k que se obtiene de A omitiendo n − k filas y n − k columnas,
posiblemente distintas. Cuando las n − k filas y columnas que se omiten de A
son las mismas, la submatriz que se obtiene se dice submatriz principal.
Cuando las n − k filas y columnas que se omiten de A son las últimas k +
1, k + 2, . . . , n, la submatriz que se obtiene se dice submatriz principal
líder y se denotará A(k) . Los determinantes de las submatrices principales
se denominan menores pricipales de A. Los determinantes de submatrices
principales líderes de orden k se denominan menores principales líderes
de orden k.3
Por ejemplo, si ⎡ ⎤
1 2 3
A=⎣ 4 5 6 ⎦
7 8 9
entonces ! "
4 6
7 9
es la submatriz de A que se obtiene omitiendo la fila primera y la columna
segunda; las submatrices principales líderes de A de orden 1, 2, 3 son respec-
tivamente ⎡ ⎤
! " 1 2 3
1 2
[1] , ,⎣ 4 5 6 ⎦
4 5
7 8 9
Los menores principales líderes son sus respectivos determinantes. Son me-
nores principales no líderes de A las matrices
! " ! "
5 6 1 3
[5] , [9] , ,
8 9 7 9
Sus determinantes, junto con los menores principales líderes, son todos los
menores principales de A.
Esta definición tortuosa no se ha simplificado en lo que respecta a terminología con el
3
A(n−1) a
A=
aT an n
se puede descomponer usando operaciones elementales por filas y por colum-
nas (ambas simultáneamente) así:
A(n−1) 0
A = MT × ×M
0 d
(M es una matriz producto de elementales del tipo antes mencionado pero
que opera por columnas en vez de por filas; M usa el bloque A(n−1) para
hacer a cero. M T es producto de elementales del mismmo tipo arriba men-
cionado que usa el bloque A(n−1) para poner cero en lugar de aT .) De esta
descomposición de A se desprenden las dos relaciones deseadas; primero
y segundo
# $
X1
(X1T , xn )(M −1 )T A(M −1 ) = X1T A(n−1) X1 + d x2n (2)
xn
donde X1 ∈ Rn−1 .
∀X ∈ Rn \ {0} : X T AX > 0
18
(⇐) Asuma ahora al revés, supongamos que todos los menores principales
de A son positivos. El caso n = 1 es que a > 0 implica Q(x) = ax2 > 0,
para todo x ∈ R no nulo; así Q es positiva definida.
La hipótesis inductiva es ahora que si una matriz simétrica de tamaño
(n − 1) × (n − 1) tiene todos sus menores principales positivos, entonces
la forma cuadrática asociada es positiva definda.
Como A tiene todos sus menores principales positivos, det(A(n−1) ) > 0;
luego A(n−1) es invertible y las cuentas que llevaron a 1 y 2 son posibles.
Por 1, como detA > 0 y det(A(n−1) ) > 0, se tiene d > 0. Ahora,
como A(n−1) tiene todos sus menores principales positivos, por hipótesis
inductiva, Qn−1 es positiva definida. Luego, por 2, la forma sobre Rn con
matriz (M −1 )T A(M −1 ) debe ser positiva definida. Luego Q es positiva
definida por el lema 0.1 anterior. Listo
Ejercicio 0.18. Realice con todo detalle los pasos de la demostración del
primer punto del teorema en el caso de n = 3. Use la expresión (2) para n =
3, 2, 1 hasta haber completado todos los cuadrados. Reescriba los coeficientes
en términos de los menores principales y recupere el teorema nuevamente.
Ejercicio 0.19. Hay otra aplicación interesante que se desprende del Lema
0.1. Denote con P una matriz permutación n × n, en otras palabras, P se
obtiene de la identidad haciendo la correspondiente permutación de sus filas.
En particular, las filas de P forman naturalmente una base ortonormal de
Rn ; esto es, P es una matriz ortogonal: P T P = I
0.3. FORMAS CUADRÁTICAS 19
5
W es el subfila de A.
20
Q(x, y) = 2bxy + cy 2
= c 2b/cxy + y 2
, -
= c (y + b/cx)2 − b2 /c2 x2
, -
En particular,
det((P T AP )(I) ) = det(A(σI) )
como queríamos probar. Listo el Lema.
Paso inductivo. Asuma que toda matriz A simétrica de tamaño (n −
1) × (n − 1) o menor es semidefinida positiva si y sólo si todos sus menores
principales son no negativos. Queremos ver que lo mismo vale para toda A
simétrica de tamaño n × n.
Supóngase que An×n es semidefinida positiva. En particular, haciendo
cero la variable xi en X T AX ≥ 0, se tiene que la submatriz principal A(i) de
tamaño (n − 1) × (n − 1) obtenida omitiendo la fila y la columna i-ésima de A
es semidefinida positiva, para cualquier 1 ≤ i ≤ n. Por Hipótesis inductiva,
todo menor principal de A(i) es no negativo, para 1 ≤ i ≤ n. Así todos los
menores principales de orden inferior a n son no negativos. Sólo falta ver que
22
0 ≤ X T AX = U T P T AP U = λ1 u21 + · · · + λn u2n
det(A) = det(P T AP ) = λ1 . . . λn ≥ 0
a11 0 a11 0
(I) = T
0 B 0 EI BEI
1 0 1 0 a a 1 −1/a11 a 1 0
= T × × 11T × ×
0 EI −1/a11 a In−1 a An−1 0 In−1 0 EI
1 0 a11 a 1 −1/a11 aEI
= T × ×
−1/a11 EIT aT EI T
a An−1 0 EI
1 0 1 0 1 0 1 −1/a11 aEI
= × T ×A× ×
−1/a11 EIT aT Ik×k 0 EI 0 EI 0 Ik×k
1 0 1 −1/a11 aEI
= × A(I∪{1}) ×
−1/a11 EIT aT Ik×k 0 Ik×k
Tomando determinantes y observando que las matrices triangulares de los
extremos en la última identidad no cuentan a los fines del determinante, se
obtiene la identidad 3.
De la identidad 3 y como A tiene todos sus menores principales no ne-
gativos, se sigue que B(n−1)×(n−1) tiene todos sus menores no negativos. Por
hipótesis inductiva, B es semidefinida positiva. Como además a11 > 0, la
matriz
a11 0
= M T AM
0 B
es positiva semidefinida, donde
1 −1/a11 a
M :=
0 In−1
signatura(A) = (+, +, +)
4 3 3 10
Im×m 0m×(n−m) × X = 0
Las restricciones simplemente dicen que las primeras m variables son cero:
x1 = 0, . . . , xm = 0 y la forma restringida resulta simplemente
donde A es la matriz diagonal con los λ’s en la diagonal y cero fuera. Es fácil
calcular los menores principales de H.
det(H (k) ) = 0, k = 1, 2, . . . , 2m − 1
porque
0m×m Im×m
(2m)
det(H ) = det
(m)
Im×m An×n
0m×m Im×m
(2m)
det(H ) = det
Im×m 0m×m
haciendo operaciones elementales por fila del tipo ‘a una fila se le suma un
múltiplo de otra fila’ para hacer cero el bloque de A(k) .
det(H (2m) ) = (−1)m
reordenando m-filas. Y por último, usando la misma propiedad del determi-
nante
det(H (2m+k) ) = (−1)m λm+1 . . . λm+k , k = 1, 2, . . . , (n − m) (4)
Entonces la forma restringida es definida positiva si y sólo si
(−1)m det(H (2m+1) ) > 0, . . . , (−1)m det(H (n) ) > 0
Mire bien esa condición porque vale en general.
De la misma manera, la forma restringida
Q(0, . . . , 0, xm+1 , . . . , xn ) = λm+1 x2m+1 + · · · + λn x2n
es negativa definida si y sólo si
λm+1 < 0, . . . , λn < 0
Esto puede nuevamente expresarse en términos de los últimos n − m menores
principales de H. Por (3), los signos de los λ’s quedan determinados por
sig((−1)m det(H (2m+k) )) = (−1)k , k = 1, 2, . . . , n − m.
Es decir, los signos de los últimos n − m menores deben alternar de ma-
nera que el menor principal más grande, el de orden n, termine con signo
(−1)m (−1)n−m = (−1)n . Esta condición también vale en general deacuerdo
al siguiente teorema.
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 29
Ejercicio 0.22. Revise todas las cuentas del ejemplo anterior en detalle
para el caso de n = 4 y m = 1, 2. Esto lo ayudará a entender porqué los
n − m últimos menores principales de H deciden la signatura de la forma
restringida.
0m×m Bm×n
H=
T
Bn×m An×n
Entonces,
Notar:
1. x = 0 es positiva definida.
2. y = 0 es indefinida.
3. y = 0, z = 0 es negativa definida.
1. W = {(x, y, z) ∈ R3 | x + y = 0}
. /x0 1
3 1 1 1 0
2. W = (x, y, z) ∈ R | [ 1 2 1 ] × z = [ 0 ]
y
. /x0 1
3. W = (x, y, z) ∈ R3 | [ 1 1 1 ] × yz = [ 00 ]
Ahora en cada uno de los casos anteriores encuentre una base ortonormal de
W y obtenga la matriz asociada a QW en esa base.
4. Q(x1 , x2 , x3 , x4 ) = x21 −x22 −x23 +x24 +x1 x2 +x3 x4 sujeta a las restricciones
x1 + x2 + x3 = 0 y x1 + x2 + x4 = 0
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 31
Q(X) = X T AX
(5)
sujeto a BX = 0
1er. Paso
Si cambiamos B por su reducida y escalonada RB el subespacio W no
cambia. Como se asumió que B tiene rango máximo, las m columnas de
RB donde aparecen los pivotes forman por sí solas la matriz identidad m ×
m. Esas columnas de RB pueden no ser las m primeras, pero es posible
reordenar las variables de X mediante multiplicación a izquierda por una
matriz permutación P de manera tal que la matriz RB P tiene la identidad
m × m en sus primeras m columnas. Entonces podemos asumir sin pérdida
de generalidad que la matriz que define al subespacio W tiene la forma
Im×m Cm×(n−m)
2do. Paso
Con el objeto de calcular QW explícitamente, vamos a despejar las varia-
bles con pivotes en términos de las variables libres para luego substituirlas
32
X1
Im×m Cm×(n−m) × =0
X2
está forzando
X1 = −CX2
10
Ahora substituímos en la forma Q. Para llevar a cabo estas cuentas es
conveniente escribir A en bloques que se correspondan con la partición de X
en (X1 , X2 ). Escribimos
A1 E ⎡ ⎤
−CX2
= [−X2T C T , X2T ] × ×⎣ ⎦
X2
E T A2
3er. Paso
Pregunta:¿Qué relación existe entre cualquier menor principal de AW y
los de H?
10
Todo lo que esto dice es que W está parametrizado por los pares de la forma
(−CX2 , X2 ) para X2 ∈ Rn−m arbitrario.
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 33
Entonces una cuenta simple que dejamos como ejercicio muestra que
I 0 0
0 I −CI ,
0 0 I
34
0 I CI 0 I 0
HI = I A1 EI → I A1 −A1 CI + EI
I 0 0
−A1 I 0 ,
−EIT 0 I
0 I 0
→ I 0 −A1 CI + EI
I 0 0
0 I 0 ,
0 −CIT I
I 0 A1 CI − EI
0 I 0 ,
0 0 I
se obtiene
0 I
I 0 0
0 0 AIW
Entonces
(−1)m det H I = det AIW
Recuerde esta identidad porque explica la conexión entre los menores de la
forma restringida y los menores de la matriz orlada.
36
4to. Paso
Use el teorema de la signatura para formas y obtenga los enunciados que
queremos probar.Q.E.D.