You are on page 1of 147

Práctico 1: Repaso de Sistemas Lineales

Matemática 3, FCE, UNC

Prof. José M. Vargas

23 de marzo de 2018
0.1. Sistemas Lineales
¿Qué es una ecuación lineal? Es un polinomio en varias variables con
coeficientes en R o C, de grado menor o igual a uno igualado a cero. Se acos-
tumbra escribir todas las variables del lado izquierdo y la constante del lado
derecho del signo igual. Ejemplos de ecuaciones lineales escritas de manera
estándard son las siguientes:

1. x = 0, 2t = 1/2, 0x = 1, 0x = 0, todas son ecuaciones lineales en una


variable.

2. x+y = 0, y = 1, x = 3, 0x+0y = 1, 0x+0y = 0, todas son ecuaciones
lineales en dos variables, aunque algunas no se ven por tener coeficiente
cero.

3. x + y + z = 1, x = 0, x − y = 1, 0x + 0y + 0z = 1, 0x + 0y + 0z = 0,
todas en tres variables x, y, z.

No son ecuaciones lineales ninguna de las siguientes


√ 1 1
2x + y − z 2 = 0, x − y + xz = 1, x2 + y 2 = 1, + = 1, xyz = 0.
x y
Definición 0.1. En general, una ecuación lineal en n variables escrita de
manera estándard se ve así

a1 x1 + · · · + an xn = b

Un sistema lineal de tamaño m × n, consiste de m ecuaciones lineales


escritas de manera estándard. Un tal sistema se ve así


⎪ a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2


⎪ ···
am1 x1 + · · · + amn xn = bm

Por ejemplo, son sistemas lineales ⎧ 233


⎧ x
=1
⎨ x−y+z = 1 3552
% ⎪

3x − y = 1 x=5

(a) (b) 2y − z = 5 (c)
x + 2y = 5 0x = 1
z =2
⎩ ⎪

7x = 3

ii
⎧ 2

⎪ 5
x−y = 1
x + 3y = 5

⎪ ⎧
⎨ x=5

⎪ %
0x + 0y = 1 x−y+z = 1

(d) (e) (f ) 0x = 1
7x − y = 3 x+y+z =5
7x = 3

⎪ ⎩
x+y =0




πx + y = 0

El par (2, 3) es solución de x − y = −1 porque 2 − 3 = −1. De la
misma manera la terna (1, 0, 0) es una de las muchas soluciones de la ecuación
x+ y + z = 1; otras soluciones, a modo de ejemplo, son las ternas (1/2, 1/2, 0)
(3, 0, −2) (1, π, −π), etc. Pronto descubriremos que listar soluciones de una
o varias ecuaciones lineales no es buena idea a menos que sean en cantidad
finita.
Una n-upla (x1 , x2 , . . . , xn ) es solución de una sistema lineal si es solución
de cada una de las ecuaciones que componen al sistema. Si denotamos el
conjunto solución de una ecuación dada por Sol.(ecuación) y el sistema lineal
se escribe ⎧

⎪ ecuación1
ecuación2

sistema

⎪ ···
ecuaciónm

entonces el problema consiste en determinar el conjunto

Sol.(sitema) = Sol.(ecuación1 ) ∩ Sol.(ecuación2 ) ∩ · · · ∩ Sol.(ecuaciónm )

Preste especial atención a las intersecciones porque eso es exactamente lo


que significa ‘simultáneamente’.

0.1.1. Sistemas lineales geométricamente.


Es posible visualizar, al menos conceptualmente, los sistemas lineales y
ganar cierta comprensión sobre la naturaleza geométrica de las ecuaciones.
Por ejemplo en dos variables reales, el conjunto solución de una sola ecua-
ción representa en la mayoría de los casos una línea en el plano euclideano;
pero existe un par de casos extremos que parecen sin importancia y que sin
embargo son cruciales al momento de la resolución algebraica de los sistemas

iii
lineales. Con mayor precisión,

⎨ una línea en R2 , si a ̸= 0 o b ̸= 0
Sol.(ax+by = c) representa todo R2 , si a = 0 y b = 0, y c = 0.
el vacío, si a = 0 y b = 0, y c ̸= 0.

Así, un sistema lineal en dos variables consistente de tres ecuaciones po-


dría verse de alguna de estas formas

(a) (b) (c)

(d) (e) (f)

Figura 1: Algunos sistemas lineal 3x2.

Los ⎧
sistemas de la figura fig. 1 ⎧
bien podrían ser ⎧
⎨ 3x − y = −1 ⎨ −2x − y = 1 ⎨ −x − y = 1
(a) x + 5y = 0 (b) −2x − y = 5 (c) −x − y = 5
−3x − y = 7 x−y = 2 −x − y = 6
⎩ ⎩ ⎩

iv
⎧ 2
x−y = 1 ⎧ ⎧
⎨ 5 ⎨ x − y = −1 ⎨ 0x + 0y = 0


x+y =0
(d) (e) 3x − 3y = −3 (f ) 0x + 0y = 0
x−y =0
0x + 0y = 0 0x + 0y = 0

⎪ ⎩ ⎩
x + 0y = 0

En donde hemos representado todo el plano como un cuadrado con puntas
redondeadas; tal es el caso del conjunto solución de la ecuación 0x + 0y = 0.
Observe que los tres primeros sitemas (a), (b) y (c) de la fig. 1, no tienen so-
lución: su conjunto solución es la intersección de tres líneas que se intersectan
en el conjunto vacío.
Una impresión gráfica similar puede obtenerse de sistemas en tres varia-
bles;

⎨ un plano en R3 , si a ̸= 0 o b ̸= 0 o c ̸= 0
Sol.(ax+by+cz = d) representa todo R3 , si a = 0 y b = 0 y c = 0 y d = 0.
el vacío, si a = 0 y b = 0 y c = 0 y d ̸= 0.

La siguiente figura muestra posibles sistemas lineales de tres o más ecua-


ciones en tres variables

(a) (b) (c)

Figura 2: Algunos sistemas lineales mx3.

En la fig. 2, (a) y (c) no tienen solución por existir cierto grado de para-
lelismo entre los planos que describen las ecuaciones del sistema lineal; (b)
tiene única solución (vértice de la esquina.)
El problema consiste en encontrar todas las soluciones simultáneas a
todas las ecuaciones de un sistema lineal dado, justificando que las soluciones
obtenidas completan la el conjunto solución.

v
La idea para resolver un sistema lineal es muy simple: eliminar variables
mediante sustitución y así obtener un sistema lo más simple posible al que
le sea posible leer las soluciones sin más, sin mediar operaciones o cuentas.
Pero antes de pensar en un método algebraico que resuelva cualquier sistema
lineal, miremos el problema geométricamente.

Ejemplo.
Sea el sistema dos por dos
%
3x − y = 1
x + 2y = 5

De la segunda ecuación se puede obtener x en términos de y: x = 5 − 2y. Si


se sustituye en la primera resulta

3(5 − 2y) − y = 1

15 − 6y − y = 1
−7y = −14
quedando de esta manera el sistema
%
− 7y = −14 (se eliminó x desde la segunda por sustitución)
x + 2y = 5 (sin cambio)

A esta altura de los cómputos, el sistema ha cambiado, no tenemos más el


sistema original. Se espera a pesar de esto que la solución no haya cambiado.
Despejando y desde la primera ecuación mediante multiplicación por
−1/7, el sistema cambia a
%
y = 2 (se despejó y)
x + 2y = 5 (sin cambio)

Ahora se puede eliminar y de la segunda ecuación desde la primera por


sustitución quedando el sistema
%
y = 2 (no se modificó)
x = 1 (se eliminó y por sustitución desde la primra.)

vi
Observe la prolijidad: La primera columna se reserva para la primer variable,
la segunda columna para la segunda variable y la tercera columna para las
constantes. Todos los iguales están alineados verticalmente también.
Ahora mire este ejemplo nuevamente desde el libro de Haeussler-Paul, p.
250-251. Realice las gráficas de las líneas correspondientes a los sistemas de
los pasos intermedios. Todo junto para este ejemplo debería verse así:


5 ✂
2 ❍!✂❍ (1,2)
✂ ❍❍
%
3x − y = 1
✂ ❍
x + 2y = 5 0 ✂ 13 5
-1

5
❍!(1,2)
% 2 ❍❍
− 7y = −14 ❍❍
x + 2y = 5 0 5

5
2
(1,2)
❍!❍

%
y = 2 ❍❍
x + 2y = 5 0 5

% 2 !(1,2)
y = 2
x = 1 0 1

Conjunto solución = {(1, 2)}

vii
Problemas:
En cada uno de los siguientes casos calcular el conjunto solución mediante
eliminación de variables y graficar la línea que representa cada ecuación en
cada paso intermedio de los cómputos.
%
x − y = 1
1.
x + y = 5


⎪ x + 2y = 3
3y = 1

2.

⎪ 2x = −1
x − y = 0


⎨ x − y = 0
3. x + y = 1
3x − 3y = −1


⎨ x + 2y = 1
4. 3x + 6y = 3
−x − 2y = −1



⎪ x − y = 2
2x + 3y = 1

5.

⎪ 3x + 2y = 3
x + 4y = −1


⎨ x + y = 3
6. 2x − y = 4
⎩ 3
7
x + 0y = 5

Preguntas
Analice cada una de las siguientes preguntas y afirmaciones. Si no tiene
ahora la respuesta, mantengase alerta hasta que, al avanzar el curso, en-
cuentre las explicaciones. Intente jugar con ejemplos pequeños, como los del
problema anterior.

1. Al resolver un sistema lineal, las ecuaciones se modifican hasta encon-


trar otro sistema lineal más fácil de resolver. ¿Por qué se ha de esperar
que estos sistemas distintos tengan las mismas soluciones?

viii
2. ¿Es posible para un sistema lineal tener exactamente tres soluciones?
3. Si un sistema lineal tiene dos soluciones distintas, entonces tiene infi-
nitas soluciones.
4. Si cierto sistema lineal de ecuaciones tiene un número finito no nulo de
soluciones, ¿cuántas soluciones tiene?
5. Cierto sistema lineal de tres ecuaciones en dos incógnitas tiene conjun-
to solución
{(x, y)/x + y = 0}. ¿Qué puede decir a cerca del sistema original?

0.1.2. Operaciones elementales


Los ejemplos anteriores muestran que una vista fina del proceso de elimi-
nación de variables es crucial para responder a las preguntas que nos hemos
formulado. Lo primero es dejar en claro qué significa que una ecuación lineal
sea combinación lineal de otras:
Definición 0.2. La ecuación lineal a1 x1 + · · · + an xn = b es combinación
lineal de las ecuaciones
a11 x1 + · · · + a1n xn = y1 , . . . , am1 x1 + · · · + amn xn = ym
si existen escalares c1 , . . . , cm tales que a1 x1 + · · · + an xn = b es la ecuación
c1 (a11 x1 + · · · + a1n xn ) + · · · + cm (am1 x1 + · · · + amn xn ) = c1 y1 + · · · + cm ym
Es decir, una ecuación es combinanción lineal de m otras ecuaciones si se
puede expresar como suma de múltiplos escalares de estas m ecuaciones.
Por ejemplo, en el sistema


⎪ x − y = 2
2x + 3y = 1


⎪ 3x + 2y = 3
−2x + −4y = −4

la ecuación 2x + 2y = −2 es combinación lineal de las otras tres ecuaciones


por que se obtiene sumando (-3) veces la primera, menos la segunda y más
la tercera. (Compruébelo por Usted mismo.)
Un tipo muy especial de combinaciones lineales entre ecuaciones lineales
son las denominadas operaciones elementales.

ix
Definición 0.3. Dado un sistema lineal cualquiera, son operaciones elemen-
tales alguna de las siguientes
1. A la ecuación en la fila i se la reemplaza por la misma ecuación más un
múltiplo de otra en la fila j con j ̸= i. Es particularmente importante
que i sea distinto de j, siendo posible que la acuación de la fila i sea
igual a la de la fila j.
2. A la ecuación de la fila i se la reemplaza por la misma ecuación multi-
plicada por un escalar no nulo. De nuevo es crucial que el escalar sea
no nulo.
3. Es posible reordenar las filas. En otras palabras las filas se oueden per-
mutar.
Las operaciones elementales por filas son ’especiales’ porque son reversi-
bles:
Teorema 0.1. Si e(.)denota una operacón elemental, entonces existe otra
operación elemental del mismo tipo, que denotaremos e−1 (), que es inversa
de la primera.
Pro ejemplo, si se realiza la operación ‘dos veces la tercera’, su inversa es
‘un medio por la tercera’; si la operación fuese ‘la segunda menos tres veces
la primera’, su inversa es ‘la segunda más tres veces la primera’. Está claro
que las permutaciones son siempre invertibles: siempre es posible retornar al
ordenamiento de partida.
el hecho más importante en relación a las operaciones elementales reside
en que preservan el conjunto solución. Esto nos permite cambiar el sistema
lineal a resolver sin alterar el conjunto solución.
Teorema 0.2. Las operaciones elementales preservan el conjunto solución
del sistema lineal al ue se les aplica.

0.1.3. Sistemas Lineales Equivalentes


Dicho lo anterior, es importante señalar que los sistemas están ‘clasifica-
dos’ por las operaciones elementales.
Definición 0.4. Dos sistemas lineales son equivalentes, si tienen la misma
cantidad de ecuaciones y existe una cantidad finita de oeraciones elementales
que transforma uno en el otro.

x
Recuerde que una relación definida en eun conjunto es de equivalencia si
es reflexiva, simétrica y transitiva. La relación de ‘equvalencia’ entre sistemas
lineales es realmente una relación reflexiva, simétrica y transitiva.
Resolver un sistema lineal es encontrar otro sistema ‘reducido’, más fácil
de resolver, que es equivalente al dado. En la siguiente sección definiremos
excatamente cuándo un sistema está reducido.

0.1.4. Reducidas y escalonadas.


Una matriz es reducida si el primer elemento no nulo de cada fila no
nula es un uno, denominado pivote de esa fila, y todas las entradas de la
matriz arriba y abajo de cada pivote son cero.
Una matriz es reducida y escalonada si es reducida y si sus filas han
sido reordenadas de manera tal que toda fila nula se encuentra al final, y si
j1 , j2 , · · · , jr denotan las columnas donde aparecen los pivotes de las filas no
nulas, entonces j1 < j2 < · · · < jr .

Teorema 0.3. Toda matriz Am×n se reduce a una única matriz reducida y
escalonada RA .

Si en el enunciado del teorema se hubiese omitido ‘escalonada’ entonces


habría un número finito de matrices a la que A se reduciría —todas las que
se obtienen permutando las filas de la única reducida y escalonada RA .

Demostración. Para demostrar el teorema hace falta mostrar dos cosas. Pri-
mero que efectivamente existe un número finito de operaciones elementales
por fila que reducen A a alguna matriz reducida; luego haciendo una cantidad
finita de permutaciones entre sus filas es posible siempre escalonarla. Segun-
do, debemos probar que la reducida y escalonada obtenida anteriormente es
en verdad única. La demostración de este hecho lo diferimos para después de
que desarrollemos la noción de subespacios vectoriales.
Veamos entonces cómo es posible hacer un número finito de operaciones
elementales por fila hasta reducir A. Miramos la primera fila de A; si es nula,
vamos a la segunda fila. Caso contrario, existe un primer elemento no nulo.
Si ese primer elemento no nulo no es uno, usamos una operación elemental
del tipo multiplicación por un escalar distinto de cero sobre la fila uno para
convertir ese primer elemento no nulo en uno. Así podemos suponer que es
uno (el pivote de la fila uno, si es no nula.) Ahora con operaciones del tipo

xi
‘a una fila se la reemplaza por la misma fila más un múltiplo de otra fila’ es
posible poner ceros arriba y abajo de ese pivote.
Luego pasamos a la fila dos. Si es nula, vamos a la fila tres. Caso contrario,
existe un primer elemento no nulo, que como antes podemos suponer es un
uno, en una columna distinta de la del pivote de la fila uno, si ésta era no nula.
Con operaciones elementales del tipo ‘una fila se reemplaza por la misma fila
más un múltiplo de otra fila’ siempre es posible poner ceros arriba y abajo
de ese uno (pivote de la segunda fila , si ésta es no nula.)
Continuando de esta manera, en a lo más tantos pasos como filas de A,
nos encontramos con una matriz reducida por filas obtenida de A mediante
un número finito de operaciones elementales.
La demostración de la unicidad de la reducida y escalonada escapa al
alcance de estas notas y el interesado puede encontrar una demostración en
el texto de Hoffman y Kunze.
El rango de una matriz se define como el número de filas no nulas de
la correspondiente matriz reducida y escalonada.
Ejercicio 0.1. Clasificar todas las matrices reducidas y escalonadas 2x2, 3x2
y 2x3 de acuerdo al rango 0, 1, 2; lo mismo pero con las matrices 3x3, de
acuerdo al rango 0, 1, 2, 3.

Sistemas reducidos
Un sistema lineal está reducido si su matriz de coeficientes es reducida
y escalonada.
Corolario 0.1. Todo sistema lineal es equivalente a un único sistema cuya
matriz de coeficientes es reducida y escalonada.
Ejercicio 0.2. Cada uno de los siguientes diagramas representa conceptual-
mente un sistema lineal m × 2 (m ecuaciones en 2 incógnitas). Asocie a cada
gráfica un sistema reducido que sea consistente. Por ejemplo, a



❍✂!(1,2)
✂❍❍ 1 0 1
✂ ❍❍ le corresponde
0✂ 0 1 2

xii
❅ !
❅ !
❅ !
❅!!
!❅
! ❅
! ❅
1. ! ❅ (Todas se cortan en el punto (a, b).)
!
!
(1,2) !! !
! !
! !!(1,1)
! !
!
!
2.

!
(2,3)

3.
!
!!
!(3,3)
!
!
!
!
!(1,1)
4. ! (Tres líneas superpuestas.)

❅ !
❅! !!
(1,2)❅ !(3,2)
❅!!
!❅
5. !(2,1)❅

(0,1)
!
6. (Cuatro líneas horizontales que pasan por (0, 1).)
0
xiii
7. ! (Cinco líneas verticales que pasan por (2, 0).)
0 (2,0)

Al revés. A cada uno de los sistemas reducidos, escritos en forma matri-


cial, asociarles una gráfica conceptual que represente el sistema original.

1 0 1
1 0 a 0 1 1
i) iv) vii) 0 1 2
0 1 b 0 0 2
0 0 0
0 1 1 1 0 2
1 2 a
ii) v) 0 0 0 viii) 0 0 3
0 0 0
0 0 0 0 0 4
1 0 a 1 −1 0
0 1 a
iii) vi) 0 1 b ix) 0 0 0
0 0 0
0 0 1 0 0 0

0.1.5. Aplicaciones
Plantee en términos de ecuaciones lineales y resuelva usando eliminación
gaussiana cada uno de los siguientes problemas.1

1. Un granjero dispone de tres tipos de alimentos balanceados, normal


(N), especial (E) y rendidor (R). Cada bolsa del normal contiene 12
unidades de carbohidratos, 16 unidades de proteínas y 8 unidades de
grasas. Cada bolsa de especial contiene 20 unidades de carbohidratos,
12 de proteínas y 28 de grasas. Cada bolsa de rendidor contiene 32
unidades de carbohidratos, 28 de proteínas y 36 de grasas. Asuma que
el granjero necesita suministrar 220 unidades de carbohidratos, 176
unidades de proteínas y 264 unidades de grasas a sus animales.
1
Estos problemas están inspirados o directamente tomados de Haeussler–Paul, Mate-
máticas para Administración, Economía, Ciencias Sociales y de la Vida, capítulo 6.

xiv
a) Determine las combinaciones de bolsas de los balanceados dispo-
nibles que son posibles para satisfacer los requerimientos exacta-
mente.
b) Suponga que los precios unitarios de cada una de las bolsas de
los alimentos es $200 para el normal, $250 para el especial y $270
para el rendidor. Encuentre la combinación que minimiza el costo
total del granjero.

2. A una persona se le prescribió tomar vitaminas en las cantidades 10


unidades de vitamina A, 9 unidades de vitamina D y 19 unidades de
vitamina E diariamente. El paciente dispone de tres tipos de píldoras
correspondientes a cada una de tres marcas de vitaminas. La marca
Vital, contiene por comprimido 2 unidades de vitamina A, 3 de D y 5
de E; la marca Total contiene por comprimido 1, 3 y 4 unidedes res-
pectivamente; finalmente, la marca Star contiene 1 unidad de vitamina
A, ninguna de vitamina D y 1 unidad de vitamina E.

a) Encuetre todas las combinaciones posibles de píldoras que se ajus-


ten exactamente a la prescripción médica.
b) Si el costo de cada comprimido de Vital es de 1 centavo, de To-
tal 6 centavos y Star 3 centavos, ¿Cuál es la combinación más
económica?

3. Una empresa produce tres artículos A, B y C que se procesan en tres


máquinas I, II y III. Los tiempos requeridos en horas para procesar
cada artículo en las tres máquinas son como sigue.

I II III
A 3 1 2
B 1 2 1
C 2 4 1

La máquina I está disponible 425 horas, la II durante 600 y la III duran-


te 275 horas. Encuentre cuántos artículos de cada uno deben producirse
para utilizar todas las horas disponibles de las máquinas.

4. Un fabricante produce tres artículos A, B y C. La utilidad por cada


unidad vendida de cada uno es de $1, $2 y $3 respectivamente. El costo

xv
fijo anual es de $17,000 y los costos de producción de cada unidad A, B y
C son $4, $5 y $7 respectivamente. Para el año siguiente serán vendidas
11,000 unidades entre los tres tipos de artículos con una utilidad total
de $25,000. Si el costo total será de $80,000, cuántas unidades de cada
artículo deberán producirse para el siguiente año?

5. La economía de cierta ciudad se ha simplificado en dos sectores do-


minantes, servicios e industria. El año pasado la interacción entre los
sectores, las demandas externas, y sus producciones totales se detallan
en la siguiente tabla. Asuma que la economía se encuentra en equilibrio,
es cerrada, y el costo unitario de los insumos es constante de un año a
otro.

Usuarios
Serv. Ind. Dem. Ext. Prod. Tot.
Productores Serv. 110 90 180 380
Ind. 80 150 200 430

a) Para este año se espera que la demanda externa sobre cada sector
cambie a los valores 230 millones y 180 millones para servicios e
industria, respectivamente. Calcule la producción total esperada
para cada sector para el presente año. Use la fórmula de la adjunta
para calcular la inversa de una matriz.
b) Cuánto demandará la industria de los servicios?

6. Una fábrica produce cuatro tipos de artículos A, B, C y D. Cada uno


se procesa en cuatro diferentes máquinas R, S, T y U con las siguientes
horas máquina por producto:

A B C D
R 1 4 1 2
S 1 1 0 0
T 3 0 1 1
U 0 1 1 1

¿Cuántas unidades de cada uno de los artículos deben producirse para


cubrir 24 horas en R, 6 horas en S, 10 en T y 8 en U?

xvi
0.2. Otras Cuestiones a Tener en cuenta.
0.2.1. Sobre Operaciones Elementales.
Ya sabe Usted que a cada operación elemental por fila le corresponde
una matriz elemental que proviene de hacerle a la matriz identidad la misma
operación elemental. Así por ejemplo, a la operación 2da −3∗1ra le corresponde
la matriz elemental, digamos en el mundo de las tres por tres,

1 0 0
E1 = −3 1 0
0 0 1
De la misma forma, a la matriz elemental

1 0 0
E2 = 0 1 5
0 0 1
le corresponde la operación elemental 2da + 5 ∗ 3ra .

Problemas:
1. Determinar cuáles de las siguientes matrices están escalón reducidas
por filas.
& ' & ' & '
1 2 0 1 0 2 0 1 0
(a) (b) (c)
0 0 1 0 1 −3 0 0 1
⎛ ⎞ ⎛ ⎞
& ' 1 0 0 1 0 0
0 1 0 ⎝0
(d) (e) 0 1⎠ (f ) ⎝0 0 0⎠
0 0 0
0 0 1 0 0 1
⎛ ⎞ ⎛ ⎞
1 −3 0 1 0 0 −2
(g) 0⎝ 0 1⎠ (h) ⎝0 1 0 1⎠
0 0 0 0 0 1 4
⎛ ⎞ ⎛ ⎞
1 2 0 −2 1 1 0 0
(i) 0
⎝ 0 1 1⎠ (j) ⎝0 0 1 0⎠
0 0 0 0 0 0 0 1

xvii
2. Encontrar las correspondientes matrices elementales a las siguientes o-
peraciones elementales, en tamaño 4x4: 1ra −3∗4ta , 3ra −4ta , 2da +4∗4ta ,
−3 ∗ 4ta , permutar 2da por 4ta .

3. A las siguientes matrices elementales encontrarles la correspondiente


operación elemental y calcular la matriz elemental inversa de cada una
de ellas exhibiendo la correspondiente operación elemental.

1 0 0 1 0 0 1 0 0
E1 = −3 1 0 E2 = 0 1 7 E3 = 0 1 0
0 0 1 0 0 1 −3 0 1

1 0 0 1 0 5 0 0 1
E4 = 0 1/2 0 E5 = 0 1 0 E6 = 0 1 0
0 0 1 0 0 1 1 0 0

4. ¿Cuáles de las siguientes matrices se puede expresar como producto de


elementales? En caso afirmativo, exprese la matriz dada en términos de
elementales. (Ayuda: reduzca la matriz dada, junte las op. elem. una
por una en matrices elem. –y en el orden en que aparecen–, mire la
reducida, y decida. Pregunta: ¿Porqué esto funciona?)

1 2 0 1 0 1 1 2 3
A = −3 1 0 B = −3 1 0 C= 0 7 4
0 0 4 −1 0 1 0 0 5

0 0 0 1 0 −3 3 0 0
D= 3 1 5 E= 0 1 0 F = 0 3 0
2 3 1 3 0 1 0 0 3

Verdadero Falso
En cada una de las siguientes afirmaciones decidir si es verdadera o falsa.
Explicar porqué es verdadera en caso de serlo, o dar un ejemplo que muestre
la falsedad de la afirmación en caso de ser falsa.

xviii
1. Todo sistema lineal no homogeneo con más ecuaciones que incógnitas
no tiene solución.

2. Si una matriz cuadrada A tiene todas sus filas no nulas, entonces el


sistema homogeneo AX = 0 sólo tiene la solución trivial.

3. El rango de una matriz es igual al número de sus filas no nulas.

4. El sistema AX = 0 tiene infinitas soluciones si el rango de A es menor


que el número de filas de A.

5. El sistema AX = 0 tiene infinitas soluciones si y sólo si el rango de A


es menor que el número de incógnitas.

6. Si el sistema AX = 0 con matriz de coeficientes 4 por 4, tiene la solución


(1, 0, 0, 0), entonces det(A) ̸= 0.

7. det(A−1 )det(A) = 1. Donde A es invertible.

8. det(AB) = det(A)det(B).

9. det(e(A)) = det(A); donde e(A) denota la matriz A después de la ope-


ración elemental primera reemplazada por la primera mas la segunda.

10. det(cA) = cn det(A).

0.2.2. Caracterización de Matrices Inversibles.


Teorema 0.4. Sea A una matriz n × n. Las siguientes afirmaciones son
equivalentes:

1. Existe una matriz B, n × n, tal que AB = BA = I.( B se denota por


A−1 )

2. El sistema homogéneo asociado AX = 0 tiene sólo la solución trivial


X = 0.

3. Existe b en Rn tal que el sistema no homogéneo AX = b tiene única


solución.

4. Para todo b en Rn el sistema AX = b tiene solución.

xix
5. La reducida y escalonada RA de A es la matriz identidad: RA = I.

6. El determinante de A es distinto de cero.

7. El rango de A es máximo e igual a n.

8. El subfila de A es Rn .

9. El subcolumna de A es Rn .

10. El núcleo de A es el subespacio nulo.

11. A es producto de matrices elementales.


Demostración. Supongamos que A es una matriz invertible; esto es, A es cua-
drada y existe otra matriz, por ahora milagro mediante, que sugestivamente
denotamos A−1 , tal que

AA−1 = I y A−1 A = I

Entonces el sistema AX = b tiene única solución:

A−1 AX = A−1 b

multiplicando ambos miembros por A−1 ,

IX = A−1 b

por la identidad de arriba, para obtener finalmente

X = A−1 b

Ahora un sistema AX = b tiene única solución si y sólo si la matriz reducida


de A es I; en caso contrario, RA ̸= I y tendría una fila cero por lo menos y
el sistema AX = b no sería compatible o no tendría única solución. Por otro
lado si RA = I, el sistema AX = b tiene la solución X = P b, donde P es la
matriz producto de elementales tal que P A = RA .
Además RA = I si y sólo si AX = 0 tiene sólo la solución trivial. Esto se
ve igual que antes.
Si RA = I, entonces de reducir A, se obtiene una matriz P producto
de elementales tal que P A = RA = I, digamos P = E1 . . . Er producto de
elementales. Como cada elemental es invertible con inversa igual a la matriz

xx
elemental correspondiente a la operación elemental inversa, y como producto
de invertibles es invertible, multiplicando sucesivamente a izquierda por E1−1 ,
E2−1 , etc. se obtiene
PA = I
E1 . . . Er A = I
E2 . . . Er A = E1−1
E3 . . . Er A = E2−1 E1−1 . . .
A = Er−1 . . . E1−1
Esto es, A es producto de elementales y por lo tanto invertible, así cerrando
el círculo.

Otra forma para calcular A−1


Usted ha visto cómo se puede calcular la inversa de una matriz cuadra-
da A haciendo las mismas operaciones elementales por fila sobre la matriz
identidad, obteniéndo P , que sobre A para reducirla. Si la reducida RA de A
es la identidad, A es invertible con inversa igual a P . Es posible obtener la
inversa de una matriz A nxn de otra forma: se resuelve el sistema AX = Y
para un vector columna nx1 genérico Y . Luego de hacer todas las operaciones
elementales por fila necesarias para reducir A queda el sistema equivalente
P AX = P Y , donde P A es RA . Si A es invertible, se reduce a la identidad
y en ese caso RA = P A = I y P es A−1 . Osea, luego de reducir uno ve,
cuando A es invertible, X = P Y (única solución.) Para leer la matriz P se
hace y1 = 1, y2 = 0, ..., yn = 0 para obtener la primer columna de la P . Si se
hacen y1 = 0, y2 = 1, y3 = 0, ..., yn = 0, se obtiene la segunda columna de P .
Siguiendo de esta manera se obtienen todas las columnas de P . Veamos un
ejemplo. Sea el sistema, escrito en forma de matriz aumentada,

−1 2 3 y1
4 5 6 y2
7 8 9 y3

Luego de hacer las cuentas para reducirlo, obtenemos

xxi
1 0 0 − 21 y1 + y2 − 12 y3
0 1 0 y1 − 5y2 + 3y3
0 0 1 − 2 y1 + 11
1
y − 13
3 2
y
6 3

De donde se deduce lo siguiente:

1. A es invertible porque se reduce a la identidad.

2. La inversa es P y tiene coeficientes

− 12 1 − 12

1 −5 3

− 12 11
3
− 13
6

No olvide esta forma de cómputo porque más adelante le servirá para


hacer varias cuentas en una, cuando veamos espacios vectoriales.
Resuelva el siguiente sistema, (de nuevo, escrito en forma de matriz au-
mentada,) indicando si la matriz de coeficientes es invertible o no, y calcu-
lando la matriz P producto de elementales.

1 0 2 1 y1
−1 1 0 1 y2
0 2 −1 0 y3
1 1 −1 −1 y4

0.2.3. Determinantes.
El determinante es la única función desde el conjunto de todas las matrices
cuadradas nxn en los reales con las propiedades 1, 2, 3, y 4; o equivalente-
mente, 1, 3, 4 y 6 entre las siguientes.

1. det(I) = 1

xxii
2. det(e(A)) = det(A) donde e(A) es una operación elemental del tipo a
una fila se le suma un múltiplo de otra fila distinta.

3. det(eij (A)) = −det(A) donde eij (A) significa permutar la fila i por la
fila j, con i ̸= j.

4. det(e(A)) = c∗det(A) donde e(A) es la operación elemental que consiste


en multiplicar la fila i por una constante c ̸= 0.
La función determinante queda totalmente determinada por estas pro-
piedades debido a que la reducida y escalonada de una matriz es única
y el determinante resulta no nulo si y sólo si la matriz se reduce a la
identidad. De esas propiedades se deducen las siguientes otras

5. det(A) = 0 si alguna fila de A es nula. Esto se sigue de la propiedad


4 de arriba. (Explique porqué.) Luego det(A) = 0 si A tiene dos filas
iguales, o si tiene una fila múltiplo de otra. Estas afirmaciones se siguen
de la primera y la segunda propiedad de arriba.

F1 F1 F1
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
.. ⎜ .. ⎟ ⎜ .. ⎟
. ⎜ . ⎟ ⎜ . ⎟
⎜ ⎟
⎜ ⎟
6. det ⎜ Fi + Gi ⎟ = det ⎜ Fi ⎟ + det ⎜ Gi ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ .. ⎟
⎝ ... ⎠
⎜ ⎟
⎝ ... ⎠
⎜ ⎟
⎝ . ⎠
Fn Fn Fn

Aquí Fi +Gi significa que la i-ésima fila de la matriz A es suma, compo-


nente a componente, de dos vectores fila, Fi y Gi . Veamos un ejemplo
de esto.
⎛ ⎞ ⎛ ⎞
3 2 5 1+2 0+2 1+4
det ⎝ 0 3 1 ⎠ = det ⎝ 0 3 1 ⎠
7 4 3 7 4 3
⎛ ⎞ ⎛ ⎞
1 0 1 2 2 4
= det ⎝ 0 3 1 ⎠ + det ⎝ 0 3 1 ⎠
7 4 3 7 4 3
o también se podría pensar que la primer fila se descompone así

(3, 2, 5) = (3, 0, 0) + (0, 2, 0) + (0, 0, 5)

xxiii
lo que conduce a
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
3 2 5 3 0 0 0 2 0
det ⎝ 0 3 1 ⎠ = det ⎝ 0 3 1 ⎠ + det ⎝ 0 3 1 ⎠
7 4 3 7 4 3 7 4 3
⎛ ⎞
0 0 5
+ det 0 3 1 ⎠

7 4 3

Se podría continuar de esta manera hasta desarmar totalmente el de-


terminante de A en una larga suma en la que solamente sobreviven
términos con múltiplos de determinante de alguna matriz que proviene
de permutar las filas de la identidad. Este proceso conduce a una fór-
mula para el determinante que es muy ineficiente computacionalmente.
En el caso 2x2 queda
& '
a b
det = ad − bc
c d

En el caso 3x3 resulta2


⎛ ⎞
a11 a12 a13
det a21
⎝ a22 a23 ⎠ = a11 a22 a33 + a21 a32 a13 + a12 a23 a31
a31 a32 a33
− a31 a22 a13 − a11 a32 a23 − a12 a21 a33

7. det(At ) = det(A) donde At denota la traspuesta de A. Esto es una


simetría del determinante: toda propiedad que tenga por fila la tiene
por columna.

8. det(AB) = det(A)det(B)
En particular, si A es invetible, se sigue que det(A)det(A−1 ) = 1; de
donde se deduce que si A es invertible su determinante debe ser no
nulo y det(A−1 ) = 1/det(A). El recíproco es cierto: Si A tiene deter-
minante no nulo, entonces A es invertible. Esto se sigue de las cuatro
primeras propiedades del determinante. Es posible reducir A adentro
del determinante y obtener que el determinante de A es múltiplo del
2
En conexión con el caso 3 × 3, véa la regla de Sarrus.

xxiv
determinante de RA . La única forma de que det(RA ) sea no nulo es
que RA sea la identidad; en caso contrario tendría por lo menos una
fila nula y el determinante sería cero. Pero entonces A se reduce a la
identidad y por lo tanto debe ser invertible.
Para probar esta propiedad 8) se apela a la unicidad del determinante
como sigue. Si det(A) ̸= 0, entonces la función definida por

det(AB)
g(B) =
det(A)

tiene, como función de las filas –o columnas– de B, las propiedades que


caracterizan al determinante (linealidad con respecto a sus filas, cambio
de signo si se permutan dos filas, y el determinante de la identidad es
uno.) Luego g debe ser la función determinante:

det(AB)
g(B) = = det(B)
det(A)

de donde
det(AB) = det(A)det(B)

Si det(A) = 0, entonces A no se reduce a la identidad y por lo tanto


AB no se puede reducir a la identidad tampoco: se multiplica a iz-
quierda por PA , el producto de elementales necesarios para reducir a
A, quedando
PA AB = RA B

Como A no se reduce a la identidad y es cuadrada, RA debe tener por


lo menos una fila nula, digamos la última, haciendo que RA B también
tenga la última fila nula por lo menos. Entonces AB no se reduce a
la identidad (porque para llegar a RAB se puede pasar a mitad de
camino por RA B, que al tener una fila nula, obliga a RAB a tener
por lo menos una fila nula; en este paso hemos usado casi sin notarlo
la unicidad de la reducida y escalonada de AB: reduzca RA B sólo
trabajando sobre las primeras n − 1 filas, luego al agregarle la última
fila cero, se sigue teniendo una reducida y escalonada, que debe ser RAB
por la unicidad.) y por lo tanto su determinante es cero. Luego ambos
lados de la identidad det(AB) = det(A)det(B) son cero.

xxv
0.3. Bibliografía
Existen numerosos textos de álgebra lineal de carácter introductorio en
biblioteca desde los cuales se pueden seguir todos los temas de repaso. Entre
los de fácil lectura se encuetran, por ejemplo

1. Anton, Howard; Álgebra Lineal.

2. Gerber; Ál gebra Lineal.

3. Grossman, Stanley; Álgebra Lineal.

4. Hadley; Linear Algebra.

5. Lang, Serge; Álgebra Lineal.

Más conciso, con mucho mayor carga de lenguage algebraico, y con mayor al-
cance en los temas tratados, los dos primeros capítulos de Hoffman, Kenneth
y Kunze, Ray, Ál gebra Lineal, sirven como preámbulo preparatorio para el
resto del curso.

xxvi
Práctico 2: Espacios Vectoriales
Matemática 3, FCE, UNC

Prof. José M. Vargas

23 de marzo de 2018
0.1. Espacios Vectoriales
Definición 0.1. Un espacio vectorial real1 consiste de lo siguiente

1. un cuerpo de escalares que en nuestro caso será los reales R

2. un conjunto no vacío V , los vectores;

3. una operación entre vectores, denominada adición, que a cada par de


vectores α, β ∈ V le asigna un vector α + β ∈ V , denominado adición,
con las siguientes propiedades

a) la adición es conmutativa: α + β = β + α
b) la adición es asociativa: (α + β) + γ = α + (β + γ)
c) existe un vector neutro 0: 0 + α = α + 0 = α
d) para todo vector α ∈ V existe un único vector −α ∈ V tal que

−α + α = α + (−α) = 0

4. una operación, denominada producto escalar, que asocia a cada vector


α ∈ V y cada escalar c ∈ R un único vector cα ∈ V tal que

a) 1α = α para todo α ∈ V ;
b) c1 (c2 α) = (c1 c2 )α (asociatividad);
c) c(α + β) = cα + cβ (distributividad con respecto a la suma de
vectores);
d) (c1 + c2 )α = c1 α + c2 α (distributividad con respecto a la suma de
escalares).

Ejercicio 0.1. Verifique que cada uno de los siguientes es efectivamente un


espacio vectorial.

1. El espacio euclídeo de dimensión n, que consiste de n-tuples (x1 , . . . , xn )


con coordenadas en los números reales. La suma definida coordenada
a coordenada, (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ); el
producto por un escalar definido de manera similar: c.(x1 , . . . , xn ) =
(cx1 , . . . , cxn ).
1
Vea Hoffman-Kunze, Linear Algebra.

ii
2. El espacio de matrices m × n con coeficientes en los reales; la suma es
la suma matricial usual
(A + B)ij = Aij + Bij
El producto escalar es el de siempre
(cA)ij = cAij

3. El espacio de polinomios con coeficientes en los reales, que se denota


por R[x], con la suma de polinomios y producto por un escalar usuales.
4. El espacio de todos los polinomios con coeficientes en los reales de grado
menor o igual a n, donde n es un entero no negativo fijo, con la suma
entre polinomios y producto por un escalar usuales.
5. a) El espacio RS de funciones de un conjunto S en los reales R con
la suma y producto por un escalar usuales: Dadas funciones arbi-
f g
trarias S → R y S → R se definen
(f + g)(s) = f (s) + g(s); esto define la función f + g
(cf )(s) = cf (s); esto define la función cf
b) Exprese todos los ejemplos anteriores, eligiendo un conjunto apro-
piado S en cada caso, como un caso especial de este último (RS ).
Ejercicio 0.2. En cada caso decida si el conjunto con la suma y producto
escalar así definidos es o no espacio vectorial.
1. Sobre R2 se definen
(a, b) + (x, y) = (a + x, b + y)
c(a, b) = (ca, b)
2. Sobre R2 se definen
(a, b) + (x, y) = (3a + 3x, b + y)
c(x, y) = (3cx, cy)
3. Sobre V = {(x, y) ∈ R2 | xy = 0} se definen la suma y producto escalar
usuales.
4. Sobre V = {(x, y) ∈ R2 | y ≥ 0 ∧ x ≥ 0 }

iii
0.2. Subespacios Vectoriales
Definición 0.2. Sea V un espacio vectorial sobre los reales. Un subespacio
vectorial W de V es un subconjunto W de V que es espacio vectorial con la
suma y producto escalar de V . (A esta altura piense en el ejercicio0.2, punto
3.)
Recuerde el siguiente resultado que le puede ser útil a la hora de verificar
si un subconjunto no vacío es o no subespacio
Lema 0.1. Sea V un espacio vectorial y W un subconjunto no vacío de V .
W es subespacio de V si y sólo si para todo α, β ∈ W y todo c ∈ R se tiene
que c α + β ∈ W .
Ejercicio 0.3. Pruebe el lema anterior.
Ejercicio 0.4. subespacio generado por una lista finita de vectores
Sea (V, +, .) un espacio vectorial real. Verifique que con la suma y producto
escalar de V el subconjunto

W = {c1 α1 + · · · + cr αr | ci ∈ R, i = 1, . . . , r} ⊂ V

donde α1 , . . . , αr es una lista fija de vectores de V , es un espacio vectorial.


Ese espacio vectorial se denomina el subespacio generado por α1 , . . . , αr ,
y se denota por ⟨α1 , . . . , αr ⟩.
Ejercicio 0.5. En cada uno de los siguientes verifique si es o no subespacio
de R2 .
1. W = {(x, y) ∈ R2 | x + y = 0}
2. W = {(x, y) ∈ R2 | x + y = 1}

3. W = {(x, y) ∈ R2 | y ≥ 0}
4. W = {(x, y) ∈ R2 | ∃t ∈ R : x = t3 + 1 ∧ y = −2t3 + 1}
5. W = {(x, y) ∈ R2 | ∃t ∈ R : x = t5 + 1 ∧ y = −2(t5 − 2)}
Ejercicio 0.6. Pruebe que el conjunto solución de todo sistema lineal ho-
mogéneo m × n AX = 0 es un subespacio de Rn . Al mismo tiempo pruebe
que el conjunto solución de un sistema AX = b no homogéneo nunca es un
subespacio; piense en el ejemplo del ejercicio0.5, puntos 1 y 2.

iv
Ejercicio 0.7. Sea AX = 0 el sistema cuya matriz de coeficientes es
⎡ ⎤
2 −1 0 3 1
⎢ 1 0 1 −1 2 ⎥
A=⎢ ⎣ 1 −1 −1

4 −1 ⎦
4 −1 2 1 5

1. Verifique que el conjunto solución del sistema homogéneo AX = 0 es un


espacio vectorial, digamos W , con la suma y producto por un escalar
usuales de R5 .

2. Exprese el conjunto solución como el subespacio generado por alguna


lista de vectores linealmente independientes α1 , . . . , αr en R5 .

3. ¿Puede expresar r en términos de n y el rango de A?


d
Ejercicio 0.8. Denote D = dx al operador derivada. Verifique que el con-
junto solución de la ecuación diferencial

(D 3 + D 2 + D + I)f = 0

es un subespacio vectorial del espacio C ∞ (R) de todas las funciones reales


infinitamente diferenciables.
Verifique que las funciones e−x , cos x, y sin x son soluciones de la ecuación
anterior. (Es posible probar que toda otra solución de la ecuación (D 3 + D 2 +
D + I)f = 0 es una combinación lineal de e−x , cos x, y sin x.)

0.3. Bases y Dimensión


Recuerde que en nuestro caso hemos definido base sólo para espacios
vectoriales finitamente generados; esto es, espacios que pueden obtenerse
como el conjunto de todas las combinaciones lineales posibles a partir de una
lista finita fija de vectores en el mismo espacio.

Definición 0.3. Una base de un espacio vectorial es un subconjunto lineal-


mente independiente de vectores que generan el espacio en cuestión.

Ya sabemos que todo espacio vectorial finitamente generado posee un


conjunto linealmente independiente de generadores (porque del mismo con-
junto de generadores, el cual puede asumirse finito por hipótesis, se puede

v
estudiar la dependencia lineal y descartar los vectores redundantes.) Falta
ver que todas las bases tienen el mismo cardinal. Esto se deduce fácilmente
del siguiente

Teorema 0.1. Sea V un espacio vectorial generado por β1 , . . . , βm ∈ V .


Entonces todo conjunto de vectores linealmente independientes de V tiene a
lo sumo m vectores.

Demostración. Sea {α1 , . . . , αn } un conjunto de vectores linealmente inde-


pendientes de V . (Recuede que queremos ver que n ≤ m.) Por hipótesis,
cada vector αi se puede escribir como combinación lineal de los βj ’s
m
'
αi = aji βj
j=1

para ciertos coeficientes aji ’s. Ahora miramos el sistema lineal homogéneo
(mire los αi como columnas)
n
'
xi αi = 0 (1)
i=1

Este sistema sólo tiene la solución trivial. Ese sistema se puede escribir en
términos de los βj ’s
'n m
'
xi aji βj = 0
i=1 j=1

que conmutando las sumas y reagrupando, es


m '
' n
( aji xi )βj = 0
j=1 i=1

Si n > m, entonces el sistema lineal homogéneo


n
'
aji xi = 0, j = 1, 2, . . . , m
i=1

siempre tiene infinitas soluciones, y así existirían xi ’s no todos nulos tales


que 1 es válido. (Contradicción.) Luego debe ser n ≤ m. (Listo)

vi
Ejercicio 0.9. Pruebe sin usar el teorema 0.1 que todo subconjunto finito
de vectores de R3 con cardinal mayor que tres es linealmente dependiente.
Provea de cuatro vectores de R3 que sean linealmente dependientes pero que
tomados de a tres cualesquiera sean linealmente independientes.

Corolario 0.1. Sea V un espacio vectorial finitamente generado. Entonces


toda base de V tiene el mismo cardinal.

Definición 0.4. Sea V un espacio vectorial finitamente generado. La di-


mensión de V es el cardinal de cualquier base de V .

Ejercicio 0.10. Pruebe el corolario 0.1 anterior usando el teorema 0.1

Otro resultado que se deriva del teorema anterior es la caracterización de


todos los subespacios de un espacio vectorial finitamente generado:

Corolario 0.2. Sea V un espacio finitamente generado. Todo subespacio


no nulo de V es el subespacio generado por alguna lista finita de vectores
linealmente independientes de V . En particular, Rn tiene dimensión n y todo
subespacio W de Rn es de la forma ⟨α1 , . . . , αr ⟩, para alguna lista de vectores
linealmente independientes α1 , . . . , αr en Rn con r ≤ n.

Demostración. Para probar esta afirmación, comience con un subespacio ar-


bitrario W de V , el cual asumimos finitamente generado. Entonces W es o
bien el subespacio nulo, caso en el que nos detenemos, o bien existe un vector
no nulo α1 ∈ W . Luego la lista que consiste de α1 es linealmente indepen-
diente y pasa una de dos cosas: o bien W está generado por α1 , caso en el que
nos detenemos, o bien existe α2 ∈ W que no estáen ⟨α1 ⟩, caso en el cual la
lista α1 , α2 debe ser linealmente independiente (como se ve fácilmente: mire
el sistema a1 α1 + a2 α2 = 0. Si existiese una solución con a2 ̸= 0, entonces
α2 = a1 /a2 α1 lo que contradice el hecho que α2 no está en el subespacio
generado por α1 . Osea, se debe tener a2 = 0. Pero entonces a1 = 0 también
porque α1 es no nulo. Listo.) Nuevamente ocurre una de dos cosas, o bien
W está generado por α1 , α2 , caso en el que nos detenemos, o bien existe
α3 ∈ W que no está en el subespacio ⟨α1 , α2 ⟩. En ese caso, la lista α1 , α2 , α3
es linealmente independiente: Miramos el sistema a1 α1 + a2 α2 + a3 α3 = 0; si
a3 ̸= 0 entonces α3 es combinación lineal de los dos primeros. Esto contradi-
ce el hecho que α3 no está en el subespacio generado por los dos primeros.
Entonces debe ser sólo a3 = 0. Entonces tenemos a1 α1 + a2 α2 = 0, que por la

vii
independencia lineal que se probó en el paso anterior, se debe tener tambien
a1 = a2 = 0. Osea α1 , α2 , α3 es linealmente independiente. Y así se sigue.
Este proceso debe terminar por el teorema 0.1 en a lo sumo dim(V )
pasos, porque no puede haber listas de vectores linealmente independientes
con cardinal mayor a dim(V ). (Listo.)
Ejercicio 0.11. Regrese al ejercicio 0.7 y exprese sus resultados en términos
de los resultados y definiciones de esta sección.
Ejercicio 0.12. Encuentre una base y la dimensión del subespacio generado
por las columnas de la matriz A, denominado subespacio columna de A,
del ejercicio 0.7.
Encuentre una base y dimensión del subespacio generado por las filas de
la matriz A, denominado subespacio fila de A, del ejercicio 0.7
Ejercicio 0.13. Sea A una matriz m × n. Encuentre todas las relaciones
entre m, n, la dimensión del subespacio fila de A, la dimensión del sub-
espacio columna de A, y la dimensión del subespacio solución del sistema
AX = 0.
Ejercicio 0.14. Pruebe que una lista {α1 , . . . , αn } es base de Rn si y sólo si
la matriz A cuyas filas son los vectores de la lista dada es invertible. (Verifique
que la definición de base se traduce en el hecho que RA debe ser la identidad.)
Ejercicio 0.15. Pruebe que en el espacio vectorial de todos los polinomios
de grado menor o igual a n, fijo, los polinomios (x − 1)k , k = 0, 1, . . . , n
forman una base.
Ejercicio 0.16. Verifique que el conjunto de funciones f : R → R infinitas
veces diferenciables es, con la suma y producto por un escalar usuales, un
subespacio. Denote este espacio por C ∞ (R).
1. Sea P un polinomio arbitrario. Entonces el conjunto solución de la ecua-
ción diferencial
P (D)f = 0 es un subespacio de C (R). (Más adelante veremos que

este subespacio solución es de dimensión finita e igual al grado del


polinomio P .)

2. Demuestre que si λ1 , . . . , λn ∈ R son todos escalares distintos, entonces


las funciones
eλ1 x , . . . , eλn x son linealmenste independientes en C ∞ (R).

viii
3. Si P (x) = (x − λ1 ) · · · (x − λn ) es el único polinomio mónico con raí-
ces distintas λ1 , . . . , λn , entonces las funciones eλ1 x , . . . , eλn x del punto
anterior son soluciones de la ecuación diferencial

P (D)f = 0

Vea esto probando que eλx es solución de P (D)f = 0 si y sólo si P (λ) =


0.

4. Pruebe que las funciones eλx , xeλx , x2 eλx , . . . , xr eλx , donde λ ∈ R, y


r ∈ N, son linealmente independientes en C ∞ (R).
Sea P (x) = (x − λ)r . Verifique que las funciones del punto anterior son
soluciones de la ecuación diferencial

P (D)f = 0

Ejercicio 0.17. Polinomios de Lagrange


Sean λ1 , . . . , λn ∈ R todos escalares distintos. Defina los polinomios de
grado n − 1

(x − λ1 ) · · · (x − λi−1 )(x − λi+1 ) · · · (x − λn )


Pi (x) =
(λi − λ1 ) · · · (λi − λi−1 )(λi − λi+1 ) · · · (λi − λn )

donde i = 1, . . . , n.

1. Pruebe que los polinomios P1 , . . . , Pn son base del subespacio de todos


los polinomios de grado ≤ n − 1.

2. Dado cualquier polinomio Q de grado menor o igual a n, encuentre


los únicos coeficientes α1 , . . . , αn en los reales que expresan a Q como
combinación lineal de los Pi ’s. (Ayuda: Vea los valores de los Pi ’s en los
λj ’s; forme la combinación lineal de Pi ’s que copia a Q en esos valores
y pruebe que deben ser el mismo polinomio.)

ix
Práctico 3: Producto Interno,
Transformaciones Lineales y Coordenadas 1ra.
Parte
Matemática 3, FCE, UNC

Prof. José M. Vargas

23 de marzo de 2018
0.1. Producto Interno
Definición 0.1. El producto interno canónico en Rn es la operación
binaria real
⟨ , ⟩ : Rn × Rn → R definida por
⟨α, β⟩ = a1 b1 + · · · + an bn ∈ R
donde α = (a1 , . . . , an ), β = (b1 , . . . , bn ) ∈ Rn .
Observe que si piensa a los vectores de Rn como matrices 1 × n, y ( )t
denota trasposición, entonces la cuenta que define al producto interno se
puede expresar en términos del producto matricial: ⟨α, β⟩ = α × (β)t
Ejercicio 0.1. Verifique que el producto interno canónico satisface las si-
guientes propiedades: para todo α, β, γ ∈ Rn ,
1. ⟨α + β, γ⟩ = ⟨α, γ⟩ + ⟨β, γ⟩
2. ⟨cα, β⟩ = c⟨α, β⟩ para todo c ∈ R.
3. ⟨α, β⟩ = ⟨β, α⟩ y por lo tanto las propiedades 1 y 2 valen como función
del segundo factor.
Definición 0.2. Para α ∈ Rn , la norma de α es el número real no negativo
!
∥α∥ = ⟨α, α⟩
Ejercicio 0.2. Verifique las siguientes propiedades adicionales.
1. Use el teorema de Pitágoras e inducción para probar que la norma de
un vector corresponde geométricamente a su longitud.
2. Pruebe que la norma de un vector es cero sólo en el caso del vector
nulo.
3. Para todo c ∈ R y todo α ∈ Rn , ∥cα∥ = |c| ∥α∥
La norma satisface dos desigualdades muy importantes, la desigualdad de
Schwarz y la desigualdad triangular
|⟨α, β⟩| ≤ ∥α∥ ∥β∥
∥α + β∥ ≤ ∥α∥ + ∥β∥
La primera de éstas, muestra que el producto interno es contínuo.

ii
Ejercicio 0.3. Para probar la desigualdad de Schwarz use el hecho que, para
α, β ∈ Rn fijos, laexpresión 0 ≤ ∥α + tβ∥ define una parábola nunca negativa.
Por lo tanto su discriminante debe ser menor o igual a cero. Obtenga de esa
afirmación la desigualdad de Schwarz.
Ejercicio 0.4. Obtenga la desigualdad triangular a partir de la desigualdad
de Schwarz trabajando sobre ∥α + β∥2 y estimando el término cruzado. Ve-
rifique que las siguientes son formas equivalentes a la desigualdad triangular.
1. ∥α∥ − ∥β∥ ≤ ∥α − β∥
2. |∥α∥ − ∥β∥| ≤ ∥α − β∥
El segundo punto muestra que la norma es contínua (más de esto en el capí-
tulo sobre continuidad en varias variables.)
Para α y β vectores no nulos, de la desigualdad de Schwarz se obtiene
⟨α, β⟩
−1 ≤ ≤1
∥α∥ ∥β∥
Luego existe un único θ ∈ [0, π] tal que
⟨α, β⟩
= cos θ
∥α∥ ∥β∥
Esto es equivalente a
⟨α, β⟩ = ∥α∥ ∥β∥ cos θ
ahora para todo α, β ∈ Rn (Si alguno de los vectores es nulo, el ángulo entre
ellos no esta definido; en ese caso, la expresión simplemente dice que ambos
miembros son cero.)
Ejercicio 0.5. Use el teorema del coseno para deducir que θ en la fórmula
anterior representa el ángulo entre ambos vectores. Deduzca que dos vectores
en Rn son ortogonales si y sólo si su producto interno es cero. Encuentre una
condición en términos del producto interno que sea equivalente a la afirmación
‘α es paralelo a β’.
Para dos vectores α, β ̸= 0 ∈ Rn , la proyección ortogonal escalar de
α sobre β es el número
β
⟨α, ⟩ = ∥α∥ cos θ
∥β∥

iii
✂✍

✂β

② ✯


✂ θ ✟✟α
✂✟✟
(0, 0)
Figura 1: Ángulo entre dos vectores

donde θ es el ángulo entre ambos vectores. La proyección ortogonal de α


sobre β ̸= 0 es el vector

β β β
⟨α, ⟩ = ∥α∥ cos θ
∥β∥ ∥β∥ ∥β∥

donde θ es el ángulo entre ambos vectores.



Ejercicio 0.6. Encuentre todos los vectores (x, y, z) ∈ R3 que proyectan 3
sobre el vector (1, 1, 1). Lo mismo pero que proyectan cero sobre (1, 1, 1).
Interprete estos conjuntos de vectores en términos geométricos.

Ejercicio 0.7. Dado el vector (1, 1, 1) ∈ R3 , encuentre dos vectores no nu-


los ortogonales entre sí que sean ortogonales a (1, 1, 1). Pruebe que los tres
vectores así conformados son linealmente independientes.

Ejercicio 0.8. Dados α1 = (1, 1, 1, 1); α2 = (1, −1, −1, −1) ∈ R4 , encuentre
todos los vectores (x, y, z, w) ∈ R4 ortogonales a α1 y α2 . Complete los vec-
tores α1 y α2 con un par se vectores β1 , β2 ortogonales a ellos de manera que
{α1 , α2 , β1 , β2 } sea una base de R4 .

Ejercicio 0.9. Sea S un subconjunto finito de vectores de Rn . Pruebe que


el conjunto S⊥ de todos los vectores ortogonales a todo vector de S es un
subespacio vectorial, denominado complemento ortogonal de S. Pruebe

iv
" #⊥
que el complemento ortogonal de S⊥ , S⊥ , es el subespacio generado por
S.
(Ayuda: Para lo primero, interprete el complemento ortogonal de S como
el conjunto solución del sistema lineal homogéneo cuyas filas son exactamente
los vectores de S. Para lo segundo, como todo vector fila del sistema antes
mencionado es ortogonal a todo vector de S⊥ , toda combinación lineal entre
vectores de S –que no son otras que combinaciones lineles entre las filas de la
matriz del sistema en cuestión– es ortogonal a todo vector de S⊥ . Esto dice
" #⊥
que el subespacio generado por S está incluído en S⊥ . Para ver que ambos
subespacios son iguales, use el hecho que el rango de la matriz del sistema
arriba mencionado más el número de variables libres es n, el número de
columnas, para concluir que ambos subespacios tienen la misma dimensión.
Si todo esto no funciona, pida ayuda en clase.)

0.2. Líneas y Planos


Tenga presente que dispone de dos formas para representar una línea,
como intersección de hiperplanos, que en general se eligen de manera que sus
vectores normales sean linealmente independientes, y en forma paramétrica.
Lo mismo es válido para un plano genérico de dimensión k ≤ n en Rn .
Ejercicio 0.10. Describa paramétricamente la línea que pasa por (1, −1, 0) y
es paralela al vector (1, 0, 1). Describa luego la misma línea como intersección
de dos planos en R3 . Tenga presente que no existe una única manera de hacer
esto último; puede Usted explicar de cuántas formas es posible obtener una
línea como intersección de dos planos en R3 ?
Ejercicio 0.11. Describa paramétricamente el plano de dim 2 en R4 que
pasa por (2, 1, −1, 0) y es paralelo al subespacio generado por los vectores
(1, 0, 1, 0) y (0, 1, 0, 1). Describa el mismo plano luego como intersección de
dos hiperplanos de codimensión uno en R4 .
Ejercicio 0.12. Asuma que el producto interno al cual se refiere la ortogo-
nalidad es el canónico. Interprete paramétricamente el conjunto solución W
del sistema AX = 0, donde
⎡ ⎤
2 −1 0 3 1
⎢ 1 0 1 −1 2 ⎥
A=⎢ ⎣ 1 −1 −1

4 −1 ⎦
4 −1 2 1 5

v
es la matriz del problema 2.4 del práctico anterior, como un plano que pasa
por el origen (y por lo tanto, subespacio de R5 .)
Obtenga el complemento ortogonal W ⊥ del subespacio anterior y úse-
lo para interpretar a W como intersección de hiperplanos en R5 . Tiene un
nombre conocido para W ⊥ ? Y de alguna base a mano de W ⊥ ?
Interprete el conjunto solución de AX = b, donde b = (1, 1, 0, 3), en tér-
minos de W como el plano paralelo al subespacio W que pasa por X0 , donde
X0 es cualquier solución del AX = b. Ahora use W ⊥ para interpretar al con-
junto solución de AX = b como intersección de hiperplanos en R5 . (Ayuda:
Una base de W ⊥ –que ya ha calculado como las filas no nulas de la reducida
RA de A– provee de un conjunto linealmente independiente de vectores orto-
gonales al plano que define el sistema AX = b, digamos N1 , . . . , Nr , entonces
los hiperplanos que se buscan son

⟨X − X0 , Ni ⟩ = 0

donde i = 1, 2, . . . , r = r(A))
Ahora sea V el subespacio columna de A. Obtenga V ⊥ . Interprete geo-
métricamente.

Ejercicio 0.13. Use proyecciones para probar que la distancia de un punto


arbitrario X ∈ R3 al plano con ecuación normal ⟨X − X0 , N⟩ = 0 es

|⟨X − X0 , N⟩|

donde N tiene norma uno. (El plano en cuestión pasa por X0 y tiene vector
normal N.)

0.3. Transformaciones Lineales


Definición 0.3. Sean V y W espacios vectoriales. Una función T : V → W
es una transformación lineal, o simplemente lineal, si y sólo si

T (α + β) = T α + T β ∀α, β ∈ V

T (cα) = cT α ∀α ∈ V ∧ ∀c ∈ R

Ejercicio 0.14. Verifique que en cada uno de los siguientes casos T : V → W


define una transformación lineal.

vi
1. Sea V = W = R [x] el espacio vectorial de todos los polinomios en una
variable x con coeficientes en los reales. T es derivación en x.

2. Si V = W es el espacio vectorial real de todas las funciones continuas


de los reales en los reales, entonces
* x
T (f )(x) = f (t)dt
0

es lineal.

3. Sean P y Q matrices m × m y n × n respectivamente. Sean V = W


iguales al espacio vectorial de matrices m × n sobre los reales. Entonces
T (A) = P AQ define una transformación lineal de V en W .

4. V y W igual al espacio vectorial de matrices cuadradas m × m. Si B


es una matriz m × m arbitraria fija, T (A) = BA − AB define una
transformación lineal de V en sí mismo.

5. Si V = R2 y W = R3 , entonces verifique que

T (x, y) = (2x − y, 3y, x + y)

define una transformación lineal de V en W .

Ejercicio 0.15. Determine cuál de las siguientes funciones de R2 en R3 son


transformaciones lineales.

1. T (x, y) = (x, y + 1, x + y)

2. T (x, y) = (x2 , x − y, 2y)

3. T (x, y) = (cos 3x, ln 2y, x)

4. T (x, y) = (sin x, x, x)

Definición 0.4. Para una transformación lineal T : V → W se definen los


subespacios
Núcleo(T ) = {α ∈ V | T α = 0} ⊂ V
Im(T ) = Imágen(T ) ⊂ W
Sus dimensiones se denominan respectivamente nulidad y rango de T .

vii
Ejercicio 0.16. Pruebe que efectivamente tanto el núcleo como la imágen
de una transformación lineal son subespacios vectoriales.

Ejercicio 0.17. En cada uno de los siguientes casos verificar que T : R3 →


R3 es lineal, determinar rango e imágen de T , y calcular el núcleo de T .
Exprese a T matricialmente en la base canónica.

1. T (x, y, z) = (x + y, y + z, x + y + z)

2. T (x, y, z) = (x − y + 2x, 2x + y, −x − 2y + 2z)

Ejercicio 0.18. Sea


⎡ ⎤
1 −1 1
A=⎣ 1 0 1 ⎦.
1 −1 −1/2

Verifique que T : R3 → R3 definida por T (X) = AX es una transformación


lineal inyectiva. Calcule el rango de T y su nulidad. Relacione la inyectividad
de T con la nulidad de T .

Ejercicio 0.19. Sea A una matriz m × n y sea T : Rn → Rm la transforma-


ción lineal definida por T (X) = AX, con X ∈ Rn .

1. Pruebe que T es inyectiva si y sólo si AX = 0 tiene la solución trivial.


(Por lo tanto, si se sabe que T es inyectiva, qué relación debe haber
entre m y n? Y el rango de A, m y n?)

2. Pruebe que T es sobreyectiva si y sólo si el rango de A es al menos m.


Concluya que una T : Rn → Rm lineal con n < m nunca puede ser
sobreyectiva.

3. Pruebe que T es biyectiva si y sólo si m = n y A es invertible.

viii
0.3.1. Operaciones entre transformaciones lineales
0.3.2. Coordenadas
Si V es un espacio vectorial de dimensión finita n y Φ = {β1 , . . . , βn } una
base ordenada de V ; entonces para todo α ∈ V el sistema lineal 1
n
+
α= ci βi
i=1

tiene única solución c1 , . . . , cn , denominada las coordenadas de α en la


base Φ, denotadas ⎡ ⎤
c1
⎢ .. ⎥
[α]Φ = ⎣ . ⎦
cn
Observe que, si V = Rn , el sistema en cuestión tiene matriz de coeficientes
cuyas columnas consisten de los vectores βi ’s en columna y el aumento es
α en columna. Al ser {β1 , . . . , βn } una base ordenada de V , la matriz de
coeficientes es invertible (¿puede explicar porqué?) El caso general no se
aparta en lo esencial de esto.

Ejercicio 0.20. Si la notación es como antes, cuáles son las coordenadas de


βj en la base Φ?

Ejercicio 0.21. Sea la notación como antes.

1. Pruebe que
[α + β]Φ = [α]Φ + [β]Φ
[cα]Φ = c [α]Φ
para todo c ∈ R y α, β ∈ V .

2. Pruebe que la función [ ]Φ : V → Rn que a cada vector α de V le asigna


sus coordenadas [α]Φ en Rn es una biyección.
1
Esto es ciertamente un pequeño abuso de lenguaje que sólo se permite para conferir
una idea que resulta cierta en la mayoría de las aplicaciones en Rn . Para ver que no es
exacto este lenguaje, piense en las funciones et y e3t . Son linealmente independientes y
el ‘sistema lineal homgéneo’ aet + be3t = 0 para todo t ∈ R entraña una infinidad de
ecuaciones en las incógnitas a, b.

ix
Este hecho muestra que si V tiene dimensión n, V es esencialmente equiva-
lente al espacio vectorial Rn . Más de esto luego.

Del ejercicio anterior, si Φ = {β1 , . . . , βn } y Ψ = {α1 , . . . , αn } son dos


bases del mismo espacio V , para cualquier γ ∈ V , se tiene

γ = c1 β1 + · · · + cn βn

[γ]Ψ = [c1 β1 + · · · + cn βn ]Ψ
[γ]Ψ = c1 [β1 ]Ψ + · · · + cn [βn ]Ψ
[γ]Ψ = [[β1 ]Ψ · · · [βn ]Ψ ] × [γ]Φ
lo que representa las coordenadas de γ en la base Ψ en términos de las
coordenadas de γ en la base Φ. La matriz P = [[β1 ]Ψ · · · [βn ]Ψ ] se denomina
matriz cambio de base.

Lema 0.1. La matriz cambio de base siempre es invertible.

Demostración. Si no fuese así, no se reduciría a la identidad y tendría rango


menor a n. Luego existiría una solución no trivial X0 del sistema homogéneo
P X = 0. En ese caso se tendría

[0]Ψ = [[β1 ]Ψ · · · [βn ]Ψ ] × X0

[0]Ψ = c1 [β1 ]Ψ + · · · + cn [βn ]Ψ

[0]Ψ = [c1 β1 + · · · + cn βn ]Ψ
⎡ ⎤
c1
⎢ .. ⎥
donde X0 = ⎣ . ⎦. Luego,
cn

0 = c1 β1 + · · · + cn βn

con los ci ’s no todos nulos. Contradicción porque los βi ’s forman base.

Ejercicio 0.22. Con la notación como antes, pruebe que si P es la matriz


cambio de base de Φ a Ψ, entonces P −1 es la matriz cambio de base de Ψ a
Φ.

x
Por el lema anterior toda matriz cambio de base es invertible. Esto sugiere
la idea de que toda matriz invertible es la matriz cambio de base de alguna
base dada en alguna otra. Estaa conjetura es correcta, como lo muestra el
siguiente
Lema 0.2. Sean V un espacio vectorial real de dimensión n, Φ = {β1 , . . . , βn }
una base de V y P una matriz real n×n invertible. Entonces existe una única
base Ψ de V tal que la matriz cambio de base de Φ a Ψ es P .
Demostración. Sea P −1 = [C 1 | · · · |C n ] la matriz inversa de P . La columna
C i tiene la forma ⎡ ⎤
c1i
C i = ⎣ ... ⎦
⎢ ⎥
cni
Defina los vectores
αi := c1i β1 + · · · + cni βn
de V para i = 1, 2, . . . , n. Entonces Ψ := {α1 , . . . , αn } es una base de V y la
matriz cambio de base de Φ a Ψ es P . Vemos esto en tres pasos.
Paso 1. Veamos primero que los αj ’s son L.I. Si a1 , . . . , an ∈ R son tales
que
a1 α1 + · · · + an αn = 0,
entonces, escribiendo todo en términos de los βi ’s,
a1 (c11 β1 + · · · + cn1 βn ) + · · · + an (c1n β1 + · · · + cnn βn ) = 0,
que reagrupando queda2 ,
(c11 a1 + · · · + c1n an )β1 + · · · + (cn1 a1 + · · · + cnn an )βn = 0
Como los βj ’s forman base, son L.I. y la expresión anterior es si y sólo si
c11 a1 + · · · + c1n an = 0, . . . , cn1 a1 + · · · + cnn an = 0
que puede expresarse matricialmente así
⎡ ⎤
a1
P −1 × ⎣ ... ⎦ = 0 ∈ Rn
⎢ ⎥
an
2
Para que le sea más fácil al lector, piense que los βi ’s indexan las filas y los αj ’s y aj ’s
las columnas de P −1

xi
Por ser P −1 invertible, la única solución posible es a1 = · · · = an = 0. (Listo
el primer paso.)
Paso 2. Como Ψ := {α1 , . . . , αn } es L.I., es es tambien base (por tener
cardinal igual a la dimensión de V .)
Paso 3. Calculemos la matriz cambio de base de Φ a Ψ. Por costrucción,
las coordenadas de αj en la base Φ es la j-ésima columna de la matriz P −1 .
Osea, P −1 es la matriz cambio de base de Ψ a Φ. Entonces, por las cuentas
en un ejercicio anterior, P es la matriz cambio de base de Φ a Ψ. (Listo el
lema.)

Ejercicio 0.23. Cosidere las siguientes bases de R3

Φ = {e3 , e2 , e1 }

Ψ = {e1 , e3 , e2 }
Calcule la matriz cambio de base P de Φ a Ψ; y luego al revés, de Ψ a Φ.
Verifique que una es inversa de la otra. Este problema muestra que el orden
de una base debe ser tenido en cuenta.

Ejercicio 0.24.

Considere el espacio V de todos los polinomios reales de grado menor o


igual a tres. Calcule la matriz cambio de base de la base Φ = {1, x, x2 , x3 }
a la base Ψ = {P0 , P1 , P2 , P3 } consistente de polinomios de Lagrange para
λ0 , λ1 , λ2 , λ3 ∈ R todos distintos. Calcule las coordenadas de un polinomio
arbitrario P (x) en la base Ψ.
Repita los pasos anteriores pero en general. ¿Reconoce Usted la matriz
cambio de base?

Ejercicio 0.25. Pruebe que las potencias de (x − a) forman una base Φ


del espacio R[x] de todos los polinomios con coeficientes en los reales, donde
a es ,un úmero fijo. Encuentre luego la matriz cambio de base de la base
Ψ = xk | k = 0, 1, 2 . . . a Φ.
-

0.3.3. Representación de Transformaciones Lineales por


Matrices
Teorema 0.1. Existencia de transformaciones lineales. Sean V y W
espacios vectoriales reales; dim(V ) = n finita. Sea Φ = {α1 , . . . , αn } una

xii
base de V , y sea {β1 , . . . , βn } una lista ordenada de vectores cualesquiera de
W fija 3 . Entonces existe una única transformación lineal T : V → W tal
que T αi = βi , para i = 1, 2, . . . , n.

Observe que esta teorema le permite construir una transformación lineal


especificando sólo la imagen de una base del dominio.

Demostración. La demostración tiene dos partes, primero hay que probar la


unicidad: si dos transformaciones lineales son iguales sobre una base de V ,
entonces coinciden en todo V . Segundo, se debe mostrar que la T definida
sobre la base Φ por T αi = βi , para i = 1, 2, . . . , n en realidad existe. Para
lo primero. Esto es directo, si T y U son dos transformaciones lineales tales
que coinciden en todo αi de la base, entonces

T α = T (c1 α1 + · · · + cn αn )

= c 1 T α1 + · · · + c n T αn
= c1 Uα1 + · · · + cn Uαn
= U(c1 α1 + · · · + cn αn )
= Uα
donde α = c1 α1 + · · · + cn αn es un vector arbitrario de V descompuesto
en términos de la base Φ. Para lo segundo. Costruimos T lineal con el
requrimiento especificado mediante la composición de dos transformaciones
lineales: ⎡ ⎤
c1
⎢ .. ⎥
T : α .→ [α]Φ = ⎣ . ⎦ .→ c1 β1 + · · · + cn βn
cn
La primera asignación α .→ [α]Φ es lineal y biyectiva (por ejercicio anterior,)
y la segunda asignación de Rn en W dada por
⎡ ⎤
c1
⎢ .. ⎥
⎣ . ⎦ .→ c1 β1 + · · · + cn βn
cn
3
que no necesariamente son ni L.I., ni forman base.

xiii
es claramente lineal (ejercicio!) En otras palabras, la transformación buscada
es
T (c1 α1 + · · · + cn αn ) = c1 β1 + · · · + cn βn
que claramente satisface T αi = βi , para i = 1, 2, . . . , n. (Listo)
Ejercicio 0.26. Pruebe que toda transformación lineal T de Rn en Rm es
multiplicación a izquierda por una matriz Am×n . (Ayuda: Considere las ba-
ses canónicas de Rn y Rm . Piense los vectores en columna y calcule las
coordenadas de T α en la base canónica. Luego las cosas lucen así, si α =
a1 e1 + · · · + an en ,
T α = a1 T e1 + · · · + an T en
que pensados en columna no es otra cosa más que

[T α]Can = [T (a1 e1 + · · · + an en )]Can

= a1 [T e1 ]Can + · · · + an [T en ]Can
que en términos del producto matricial es

[T α]Can = [[T e1 ]Can · · · [T en ]Can ] × [α]Can

de donde queda en claro quién es A.)


Exprese la transformación lineal

T (x, y, z, w) = (x − y + 1/2w, y − z − w, z + 3w, 3w)

como multiplicación a izquierda por una matriz A 4 × 4. Luego úse la matriz


cambio de base para hallar la matriz de T en la base

Φ = {(1, 1, 0, 0), (0, 0, 1, 1), (1, 0, 0, 1), (1, 0, 0, −1)}

La misma cuenta del ejercicio anterior se puede realizar en general: Sean


V y W espacios vectoriales de dimensión finita, digamos dim(V ) = n y
dim(W ) = m, Φ = {α1 , . . . , αn } una base de V y Ψ una base de W . Para
cualquier T : V → W lineal, si α = c1 α1 + · · · + cn αn , se tiene

[T α]Ψ = [T (c1 α1 + · · · + cn αn )]Ψ

= [c1 T α1 + · · · + cn T αn ]Ψ
= c1 [T α1 ]Ψ + · · · + cn [T αn ]Ψ

xiv
⎡ ⎤
c1
⎢ .. ⎥
= [[T α1 ]Ψ , . . . , [T αn ]Ψ ] × ⎣ . ⎦
cn

= [[T α1 ]Ψ , . . . , [T αn ]Ψ ] × [α]Φ
La matriz m × n dada por

[[T α1 ]Ψ , . . . , [T αn ]Ψ ]

es la matriz de T en las bases Φ, Ψ.

Ejercicio 0.27. Encuentre la matriz que representa al operador lineal deri-


vada D en la base Φ = {1, x, x2 , x3 } de todos los polinomios de grado menor
o igual a tres. Luego, usando la matriz cambio de base, encuentre la matriz
que represnta al mismmo operador pero en la base
Λ = {1, (x − a), (x − a)2 , (x − a)3 }.
Finalmente, usando la matriz cambio de base, calcular la matriz de D en
la base
Ψ = {P0 , P1 , P2 , P3 } de los polinomios de Lagrange para λ1 , λ2 , λ3 , λ4 ∈ R
todos distintos.

Ejercicio 0.28. Sea V el espacio vectorial de todos los polinomios con coe-
ficientes en los reales, y sea Vn el subespacio de V de los polinomios de
grado menor o igual a n. Considerando la base que consiste de las potencias
xk , k = 0, 1, . . . , ordenadas de manera ascendente, calcular la matriz que
representa al operador lineal T : Vn → Vn+1
* x
T (f )(x) = f (t)dt.
0

Ejercicio 0.29. Para el espacio vectorial V de todas las matrices reales


2 × 2, considere la base Φ = {E 1 1 , E 1 2 , E 2 1 , E 2 2 } donde E i j es la matriz
2 × 2 que tiene un uno en la entrada (i, j) y cero en las otras entradas.
Encuentre la matriz que representa al operador lineal T :→ V definido por
T (A) = BA − AB donde
. /
1 0
B=
0 −1

xv
Ejercicio 0.30. Verifique que para toda matriz
. /
a b
A=
c d

se tiene que
A2 − (a + d)A + (ad − bc)I = 0
Por lo tanto, todo operador lineal sobre R2 satisface una ecuación similar.
Este resultado es un caso especial de un teorema general de Cayley-Hamilton:
Todo operador lineal sobre un espacio vectorial finito satisface su polinomio
característico igual a cero. Más de esto luego.

Ejercicio 0.31. Sea T : R2 → R2 representado en la base canónica por la


matriz . /
0 −1
A=
1 0
Verificar que el operador T − aI es no singular para todo a ∈ R.

xvi
Práctico 4: Continuidad, diferenciabilidad y
extremos locales.
Matemática 3, FCE, UNC.

Prof. José M. Vargas

23 de marzo de 2018
0.1. Métrica Euclídea en Rn
La métrica euclídea en Rn la hemos definido en términos del producto
interno canónico: Primero definimos la norma de un vector
!
∥x∥ = ⟨x, x⟩

que en coordenadas se lee


"
∥x∥ = x21 + · · · + x2n

Geométricamente la norma de un vector mide la longitud de la flecha que re-


presenta. (Recuerde que vimos esto usando el teorema de Pitágoras.) En este
caso se dice que la norma proviene del producto interno canónico. Recuerde
las propiedades de la norma
N1 ∥x∥ ≥ 0 para todo x ∈ Rn .

N2 ∥x∥ = 0 ⇔ x = 0.

N3 ∥cx∥ = |c| ∥x∥, para todo x ∈ Rn y para todo c ∈ R.

N4 ∥x + y∥ ≤ ∥x∥ + ∥y∥ (Desigualdad triangular)

N5 |⟨x, y⟩| ≤ ∥x∥ ∥y∥ (Desigualdad de Schwarz, por provenir de un pro-


ducto interno.)
En general, una norma es una función de Rn en R que satisface N1, N2, N3
y N4. No toda norma proviene de un producto interno; hay normas, como la
del L1 , L∞ que no provienen de un producto interno si n > 1.
Ejercicio 0.1. Pruebe las siguientes formas equivalentes de la desigualdad
triangular:
∥x − y∥ ≤ ∥x − z∥ + ∥z − y∥
∥x∥ − ∥y∥ ≤ ∥x − y∥
| ∥x∥ − ∥y∥ | ≤ ∥x − y∥
Ejercicio 0.2. Si la norma ∥∥ proviene de un producto interno pruebe que
se cumplen las siguientes identidades:
a) ∥x + y∥2 + ∥x − y∥2 = 2(∥x∥2 + ∥y∥2 )

ii
b) ⟨x, y⟩ = 14 (∥x + y∥2 − ∥x − y∥2 )
Pruebe que la identidad b) define un producto interno si y sólo si la norma
satisface a). Verifique que las normas definidas por
n
#
∥x∥L1 = |xi |
i=1

∥x∥L∞ = máx |xi |


i=1...n

son efectivamente normas, que no satisfacen a) y que, por lo tanto, no pro-


vienen de un producto interno.
El ejercicio anterior muestra que el conjunto de normas es estrictamente
mayor que el de normas asociadas a productos internos.
La distancia euclídea entre dos puntos x, y ∈ Rn se define como

d(x, y) = ∥x − y∥

De esta manera la distancia o métrica adquiere las siguientes propiedades


heredadas de la norma:
M1 d(x, y) ≥ 0
M2 d(x, y) = 0 ⇔ x = y
M3 d(x, y) = d(y, x)
M4 d(x, y) ≤ d(x, z) + d(z, y)
Si se reemplaza el segundo axioma de métrica por d(x, y) = 0 ⇐ x = y,
se obtienen los axiomas de pseudo-métricas. Claramente toda métrica es
pseudométrica, pero no al revés. Nuestros ejemplos podrían dar la impresión
de que todas las métricas se obtienen de normas, esto no es así; sólo a manera
de ilustración la siguiente definición provee de un ejemplo de métrica que no
proviene de una norma (¿porqué? piense en el axioma 4 de normas): Sea X
un conjunto no vacío; defínase
1 si x ̸= y
$
d(x, y) =
0 si x = y
Entonces d es una métrica sobre X, pero no proviene de ninguna norma, aún
si X tuviese estructura de espacio vectorial real.

iii
Ejercicio 0.3. Verifique que en el caso de los números reales pensados como
R1 la norma se reduce al valor absoluto. Pruebe todas las propiedades de
normas listadas arriba en el presente caso.

0.1.1. Abiertos y Cerrados en Rn


La esfera abierta de radio r > 0 centrada en x0 , es el subconjunto
B(x0 , r) = {x ∈ Rn | ∥x − x0 ∥ < r}
La esfera cerrada de radio r > 0 centrada en x0 , es el subconjunto de Rn
definido por
Bc (x0 , r) = {x ∈ Rn | ∥x − x0 ∥ ≤ r}
Definición 0.1. Un subconjunto A ⊂ Rn es abierto si para cada uno de sus
puntos x ∈ A existe r > 0 tal que la esfera abierta B(x, r) está totalmente
incluída en A. Un subconjuno E ∈ Rn es cerrado si y sólo si su complemento
Rn − E es abierto.
Son abiertos, por ejemplo, los semiespacios sin ‘el borde’: los x ∈ Rn tales
que a1 x1 +· · ·+an xn > 0, donde no todos los ai ’s son nulos; la intersección de
dos esferas abiertas es un abierto. Un rectángulo (a, b)×(c, d) de R2 es abierto;
también lo son los productos cartesianos de abiertos de R: (a, b)×(c, d)×(e, f )
es un ‘rectángulo’ abierto de R3 .
Ejercicio 0.4. Pruebe que los abiertos tienen las siguientes propiedades ge-
nerales
1. ∅ y Rn son siempre abiertos.
2. La intersección de dos abiertos es abierta. (La intersección arbitraria de
abiertos no es en general abierta; sólo intersecciones finitas de abiertos
son abiertas.)
3. Uniones arbitrarias de abiertos son abiertos.
En general, de las propiedades de los abiertos se sigue, usando nada más
que las propiedades de las operaciones entre conjuntos, que los abiertos son
exactamente aquellos subconjuntos que son uniones de esferas abiertas. (Ex-
prese el semiplano superior sin el borde del plano como unión de esferas abier-
tas de R2 . Un buen ejercicio de imaginación es tratar de visualizar abiertos
arbitrarios de los reales.)

iv
Ejercicio 0.5. Use la desigualdad triangular para probar que las bolas abier-
tas son efectivamente conjuntos abiertos. (Debe mostrar que para todo punto
de la bola es posible fabricarse otra bola de menor radio centrada en el punto
totalmente contenida en la bola dada.)

Ejercicio 0.6. Verifique las siguientes propiedades de los cerrados (Use las
leyes de De Morgan.)

1. ∅ y Rn son siempre cerrados.

2. Intersecciones arbitrarias de cerrados son cerrados.

3. La unión de dos cerrados es un cerrado. (En general la unión arbitraria


de cerrados no es cerrado; sólo uniones finitas de cerrados son cerrados.)

Ejercicio 0.7. Usando la sucesión 1/n, n ∈ N, construya una sucesión de


intervalos cerrados encajados (cada uno incluído en el siguiente) tales que
su unión sea abierta. Costruya otra sucesión de intervalos abiertos encajados
(cada uno que incluya a los anteriores) tales que su intersección sea un punto
(que es un cerrado siempre.)

Definición 0.2. El interior de un conjunto A ⊂ Rn , denotado por A◦ ,


es el subconjunto de A de todos los x para los cuales existe r > 0 talque
B(x, r) ⊂ A.
La clausura de un conjunto E ⊂ Rn , denotada por E − , es el menor
cerrado que contiene a E. Otra forma de decir lo mismo: E − es la intersección
de todos los cerrados que contienen a E.
La frontera de un conjunto E ⊂ Rn , denotada por ∂E, es la intersección
de la clausura de E con la clausura del complemento de E.

De manera equivalente la frontera de E puede definirse como el conjunto


de puntos x de Rn tal que toda esfera abierta centrada en x intersecta a E y
a su complemento. De la definición se sigue inmediatamente que un conjunto
es cerrado si y sólo si es igual a su clausura. Se puede ver también que un
conjunto es cerrado si y sólo si contiene a su frontera. Observe también que
A es abierto si y sólo si todo punto de A es interior. Siempre es cierto que

A◦ ⊂ A ⊂ A− = A ∪ ∂A

para todo conjunto A ⊂ Rn

v
Ejercicio 0.8. Pruebe usando nada más que la definición de clausura que

1. (A ∪ B)− = A− ∪ B −

2. Usando el punto anterior, pruebe que A ⊂ B ⇒ A− ⊂ B −

Teorema 0.1. El interior, clausura y frontera de un subconjunto A ⊂ Rn


satisfacen las siguientes relaciones:

1. A◦ ⊂ A ⊂ A−

2. A− = A◦ ∪ ∂A

3. A− = A ∪ ∂A

4. A◦ = A ∼ ∂A

5. A− ∼ A◦ = ∂A

6. ∂A = ∂(Rn ∼ A)

7. Rn ∼ ∂A = A◦ ∪ (Rn ∼ A)◦

Ejercicio 0.9. Para cada uno de los siguientes conjuntos, obtenga su interior,
clausura y frontera; decida si es abierto o cerrado o ninguno de los anteriores.

1. La esfera abierta centrada en x0 de radio r > 0.

2. La esfera cerrada centrada en x0 de radio r > 0.

3. El intervalo (0, 1).

4. El conjunto E = {1/n | n ∈ N}.

5. [a, b] × [c, d] ⊂ R2

6. S = {x ∈ Rn | a1 x1 + · · · + an xn < d}

7. El conjunto Q de todos los racionales.

vi
0.1.2. Compacidad
La mitad de las veces los problemas de optimización en economía son
cerrados y acotados, y la otra mitad son cerrados pero no acotados. Recuerde
que un subconjunto A es acotado si existe algún radio positivo r tal que la
bola centrada en el origen (o en cualquier otro punto) de radio r contiene a
A. La propiedad de un conjunto de ser cerrado y acotado es un invariante: se
preserva bajo continuidad. Veremos entonces algunas propiedades inmediatas
y un par de teoremas que serán de gran utilidad al momento de garantizar
la existencia de óptimos. Primero una definición:
Definición 0.3. En Rn , un subconjunto A es compacto si y sólo si A es
cerrado y acotado.
Un famoso teorema de Heine y Borel expresa la compacidad en términos
sólo de abiertos, liberando de esta manera la definición de compacto del uso
de métricas. Un cubrimiento por abiertos de un subconjunto A ⊂ Rn es
una familia de abiertos {Ui |i ∈ I} talque su unión contiene a A:
A ⊂ ∪i∈I Ui
Si F ⊂ I y A ⊂ ∪i∈F Ui , {Ui |i ∈ F } es un subcubrimiento de {Ui |i ∈ I}.
Si F es además finito, {Ui |i ∈ F } es un subcubrimiento finito Este es el
teorema:
Teorema 0.2. A ⊂ Rn es compacto si y sólo si de todo cubrimiento por
abiertos de A se puede extraer un subcubrimiento finito.
La demostración de este teorema nos alejaría del propósito de estas notas,
pero es importante señalar que es más fácil probar las propiedades relativas a
la compacidad usando la propiedad del subcubrimiento finito que la definición
misma.
Otro resultado importante a cerca de la compacidad está relacionado con
el producto cartesiano; mencionamos sólo la versión finita del teorema de
Tijonov:
Teorema 0.3. Sean E1 , E2 , . . . , En subconjuntos compactos de R. Entonces
E1 × E2 × · · · × En es compacto en Rn .
Este resultado nos asegura por ejemplo que todas las cajas en Rn que
resultan de hacer el producto cartesiano de intervalos cerrados y acotados de
R son siempre compactos.

vii
0.1.3. Conectividad
¿Cómo decir que un conjunto es conexo? La idea intuitiva que se tiene nos
hace querer que un intervalo de números reales sea conexo, que un conjunto
que consiste de un solo punto también lo sea. El problema con la idea intuitiva
de conectividad es que se mezcla con otra noción cercana pero distinta que es
la de conección por curvas y, para añadir sutilezas, la conectividad depende
muy finamente de Qué abiertos son los que se han declarado como tales.
Por esto la conectividad puede depender de la métrica que se use. Sólo para
ilustrar en algunos ejemplos cambiaremos la métrica euclídea para mostrar
esta dependencia. Veamos las definiciones.
Definición 0.4. Un subconjunto E ⊂ Rn es disconexo si existen abiertos
U y V de Rn tales que
E = E∩U ∪E∩V
E ∩ U ̸= ∅ , E ∩ V ̸= ∅ y E ∩ U ∩ V = ∅
En tal caso se dice que U y V son una separación de E o que Uy V separan
a E.
Por supuesto que un conjunto es conexo si no es disconexo. Claramente
un conjunto que consiste de un solo punto es conexo. Muchos menos obvio
es que en R con la métrica euclídea los únicos conexos son los intervalos.
Teorema 0.4. Supongamos que R tiene la métrica euclídea. Si E ⊂ R es
conexo, entonces E es alguno de los siguientes conjuntos

[a, b], [a, b), (a, b], (a, b), [a, ∞), (a, ∞), (−∞, b), (−∞, b], R

La demostración de este teorema se basa en la existencia de supremos


para conjuntos no vacíos acotados superiormente.
Otras propidades de la conectividad se expresan en los siguientes resul-
tados.
Teorema 0.5. Si E es conexo, su clausura también lo es.

0.2. Continuidad
La idea de continuidad para funciones de varias variables es exactamente
la misma que para el caso de una variable real, excepto que el valor absoluto

viii
se cambia por la métrica euclídea. Filosóficamente, la existencia de límites
se apoya esencialmente en hecho de que Rn es un espacio completo con la
métrica euclídea. Esto puede decirse en términos de sucesiones: Toda sucesión
de Cauchy en Rn tiene límite.

Definición 0.5. Sea U un abierto no vacío de Rn . Una función f : U ⊂


Rn → R es continua en un punto x0 ∈ U si para todo ε > 0 existe r > 0 tal
que
f [B(x0 , r)] ⊂ (f (x0 ) − ε, f (x0 ) + ε)
Si f es continua en todo x0 ∈ U, entonces f se dice continua en todo U.
Una función F : U ⊂ Rn → Rm , F = (F1 , . . . , Fm ), definida sobre un
abierto U es continua sobre U si cada función coordenada Fi : U → R es
continua en el sentido anterior, para i = 1, 2, . . . , n.

Ejercicio 0.10. Si f : U ⊂ Rn → Rm , con U abierto, la definición de


continuidad en x0 ∈ U de arriba es exactamente equivalente a la siguiente
afirmación:

Para todo ε > 0 existe r > 0 tal que si ∥x − x0 ∥ < r, entonces


∥f(x) − f(x0 )∥ < ε

(Ayuda: Usted debe probar que una definición es si y solo si la otra. Para
ello use las desigualdades, cuya verificación son parte del ejercicio,

|yi − ai | ≤ ∥y − y0 ∥ ≤ |y1 − a1 | + · · · + |ym − am |

donde y = (y1 , . . . , ym ), y0 = (a1 , . . . , am ))

Ejercicio 0.11. Si f : U ⊂ Rn → Rm , la pre-imagen de un subconjunto V


de Rm es por definición

f −1 [V ] = {x ∈ U | f(x) ∈ V } ⊂ Rn

1. Pruebe las siguientes identidades entre conjuntos:

a) f −1 [A ∪ B] = f −1 [A] ∪ f −1 [B], donde A, B son subconjuntos de


Rm .
b) f −1 [A ∩ B] = f −1 [A] ∩ f −1 [B], donde A, B son subconjuntos de
Rm .

ix
c) f −1 [f [C]] ⊃ C, donde C es subconjunto de U. Provea de un ejem-
plo donde la inclusión sea estricta. Pruebe que vale la igualdad
para todo C si y sólo si f es uno a uno.
d ) f [f −1 [A]] ⊂ A, donde A es subconjunto de Rm . Provea de un
ejemplo donde la inclusión sea estricta. Pruebe que la igualdad
vale para todo A si y sólo si f es sobreyectiva.
e) f −1 [Rm ∼ A] = Rn ∼ f −1 [A]

2. Pruebe que f es continua en U, un abierto de Rn , si y sólo si

f −1 [V ] es abierto para todo abierto V ⊂ Rm .

(Ésta es la definición más general que hay de continuidad.)

3. Use las identidades de arriba para probar que f : Rn → Rm es continua


si y sólo si f −1 [E] es cerrado para todo cerrado E ⊂ Rm .
Casi automáticamente con esta definición y usando las propiedades de la
métrica se obtienen los teoremas sobre adición y multiplicación de funciones
continuas.
Teorema 0.6. Sean f : U → R y g : V → R funciones continuas, donde U
y V son abiertos con intersección no vacía. Entonces, las funciones f + g,
cf , f g son continuas sobre U ∩ V ; f /g es continua en U ∩ V , excepto en
aquellos puntos x ∈ V donde g se anula.
Un comentario sobre el dominio de f /g. De la continuidad de g se sigue
que los puntos donde g(x) ̸= 0 es abierto. Luego el conjunto de puntos donde
g se anula es cerrado en V 1 . Entonces U ∩ V menos los ceros de g en V es
abierto.
Demostración. Probamos que la suma y producto de funciones continuas
son continuas. Las otras afirmaciones se dejan como ejercicio y se basan en
modificaciones de las demostraciones dadas.
Para la suma. Se sigue inmediatamente de la desigualdad triangular.
Sea ϵ > 0 arbitrario dado y x0 ∈ U ∩ V . Como usamos las dos funciones al
mismo tiempo debe tomarse una bola abierta B(x0 , r0 ), r0 > 0, incluida en
1
Esto significa que existe un cerrado E contenido en la clausura de V tal que contiene
todos los ceros de g en V . En general se toma como dominio un abierto que contenga al
soporte de la función (el soporte es la clausura del conjunto donde la función es no nula.)

x
U ∩ V . Esto es posible porque U y V son ambos abiertos. Ahora mire las
desigualdades siguientes

∥f(x) + g(x) − (f(x0 ) + g(x0 ))∥ ≤ ∥f(x) − f(x0 )∥ + ∥g(x) − g(x0 )∥

Como f es continua en x0 , existe r0 > δ1 > 0 talque

si ∥x − x0 ∥ < δ1 entonces, ∥f(x) − f(x0 )∥ < ϵ/2

Como g es continua en x0 , existe r0 > δ2 > 0 talque

si ∥x − x0 ∥ < δ2 entonces, ∥g(x) − g(x0 )∥ < ϵ/2

Luego
∥f(x) + g(x) − (f(x0 ) + g(x0 ))∥ < ϵ/2 + ϵ/2
para todo x tal que ∥x − x0 ∥ < δ3 donde r0 > δ3 = min{δ1 , δ2 } > 0. Listo la
suma.

Otro resultado que sirve para automatizar la determinación de continui-


dad es el siguiente teorema sobre la continuidad de la composición.
Teorema 0.7. Sean U ⊂ Rn y V ⊂ Rm abiertos en Rn y sean f : U ⊂ Rn →
R y g : V ⊂ Rm → Rn funciones continuas tales que la imagen g[V ] de g
está contenida en U. Entonces la composición f ◦ g : V → R es continua
sobre V .
Ejemplo 0.1. Por los teoremas arriba mencionados son ejemplos de funcio-
nes continuas
1. Todo polinomio es continuo sobre todo su dominio.

2. Toda función racional es continua en su dominio; esto es, donde el de-


nominador no se anula.

3. w = a1 x1 + · · · + an xn sobre todo el espacio Rn

4. Q = X T AX sobre todo el espacio, por ser un polinomio.

5. Una Cobb–Douglas z = Kxα y β , sobre x, y > 0; α, β ≥ 0, α + β = 1.

6. C = mı́n {x1 , x2 }, sobre todo R2

xi
7. q = k( xc1a + c2 −b/a
xa
) , para x1 , x2 > 0.
1 2

Ejercicio 0.12. Pruebe, usando los teoremas sobre continuidad arriba men-
cionados, que las funciones del ejemplo anterior son efectivamente conti-
nuas. En el caso del ejemplo quinto, exprese z como exponencial del loga-
ritmo: z = Keα ln x+β ln y . Para el sexto ejemplo, use la fórmula mı́n {a, b} =
1
2
(a+b−|a − b|). (Encuentre una fórmula similar para máx {x, y}.) En ambos
casos interprete como una composición.

Ejercicio 0.13. Entre las funciones más usadas en microeconomía para des-
cribir utilidad, beneficios, producción, etc., se encuentran las siguientes fun-
ciones, que, para mayor facilidad en los problemas propuestos que siguen, se
han restringido a sus versiones de dos variables:

I f1 (x, y) = mı́n { xa , yb }, donde a, b > 0 son constantes fijas y el dominio


de la función es x, y > 0.

II f2 (x, y) = kxα y β , donde k, α, β son constantes fijas positivas y el do-


minio natural de la función es x, y > 0.
&1/r
III f3 (x, y) = ( xa )r + ( yb )r , una función CES (Constant Elasticity Subs-
%

titution function,) donde a, b, r son constantes positivas fijas. Nueva-


mente el dominio natural de la función es el primer cuadrante abierto
del plano.

Pruebe las siguientes afirmaciones:

1. Para qué valor de r > 0 es la función f3 lineal? (Éste es el caso de la


función de Leontieff.)

2. Pruebe que
lı́m f3 (x, y) = f1 (x, y)
r→−∞

Qué ocurre con el límite en +∞?

3. Si 0 < x, y < c, verifique que

lı́m f3 (x, y)/21/r = f2 (x, y)


r→0

con α = β = 1/2. Esto dice que, cuando r > 0 es pequeño, la función


f3 se aproxima mucho a una Cobb–Douglas.

xii
Figura 1: La función f3 con r = 0,01.

4. Generalice las funciones dadas junto con las afirmaciones a probar.


Un teorema muy útil es el siguiente
Teorema 0.8. Si F : U ⊂ Rn → Rm es continua desde el abierto U y E
es un subconjunto conexo de U, entonces la imagen F (E) de E por F es
también conexo.
Corolario 0.1. Si f : U ⊂ Rn → R es continua y E ⊂ U es conexo (por
ejemplo si es conexo por curvas o más aún, convexo,) entonces la imagen
f (E) de E por f es un intervalo en los número reales.

0.2.1. Extremos Absolutos


Recuerde algunas definiciones del análisis que surgen en el estudio de
problemas de optimización.

xiii
Definición 0.6. Sea f : A → R una función real. f tiene un máximo
absoluto en x0 ∈ A, si f (x) ≤ f (x0 ) para todo x ∈ A. f tiene un mínimo
absoluto en x0 ∈ A si f (x) ≥ f (x0 ) para todo x ∈ A. En ambos casos se
dice que f tiene un extremo absoluto.
Muchas veces es posible garantizar la existencia de extremos absolutos
bajo condiciones de continuidad sobre dominios cerrados y acotados.
Definición 0.7. Un conjunto E ∈ Rn es compacto si es cerrado y acotado.
(Lo último significa que existe M > 0 tal que E ⊂ B(0, M).)
Recuerde que si un conjunto E es de la forma f −1 [I], donde I es un
intervalo cerrado de R y f es continua, entonces E es cerrado.

Ejemplo 0.2. 1. En R2 , es cerrado el conjunto E definido por

|x| + |y| ≤ 1

(fig.??) por ser de la forma f −1 [[0, 1]] = {(x, y) ∈ R2 | f (x, y) ∈ [0, 1]}
con f (x, y) = |x| + |y|, que es una función continua por ser suma de
dos funciones continuas, que a su vez son composición de funciones
continuas: la función valor absoluto con las proyecciones ortogonales
sobre los ejes. Es además acotado, y por lo tanto compacto, debido a
las desigualdades
∥(x, y)∥ ≤ |x| + |y| ≤ 1
que muestran al conjunto E incluido en la bola cerrada de radio uno.

2. En R2 , el conjunto F defindo por

xy ≤ 1

es cerrado pero no es compacto (fig.??). La función f (x, y) = xy es


continua siendo un polinomio y el intervalo (−∞, 1] es cerrado; además,
F = f −1 [(−∞, 1]]. Pero F no está acotado: La línea y = −x está
contenida enteramente en F , haciendo imposible que F esté acotado.

3. Otra desigualdad del mismo tipo que produce un compacto en R2


(fig.??) es
3x2 + y 2 ≤ 1
Se deja como ejercicio su verificación.

xiv
Figura 2: La desigualdad |x| + |y| ≤ 1

El siguiente resultado es conocido como el teorema de Weierstrass, y dá


condiciones suficientes para la existencia de extremos absolutos para funcio-
nes continuas sobre dominios compactos.
Teorema 0.9. Sea E un compacto de Rn . Si f : E → R es continua 2 ,
2
El lector atento habrá notado que sólo hemos definido continuidad sobre abiertos, y
por lo tanto la noción de continuidad a la que se hace referencia en el teorema escapa a
nuestra definición. Esto se puede reparar cambiando en la definición de continuidad

f [B(x0 , r)] ⊂ (f (x0 ) − ε, f (x0 ) + ε)

por
f [E ∩ B(x0 , r)] ⊂ (f (x0 ) − ε, f (x0 ) + ε)
Cambio que puede traer alguna sorpresa en cuanto a la intuición de continuidad. Para
más sobre esto, véase Mansfield, Introduction to Topology, o Kelley, Topología General,
EUDEBA.

xv
Figura 3: Desigualdad xy ≤ 1

entonces existen x0 y x1 en E tales que f (x0 ) ≤ f (x) ≤ f (x1 ) para todo


x ∈ E.

En otras palabras, una función real continua sobre un compacto siempre


alcanza su máximo y mínimo absoluto. Este resultado garantiza la existencia
de extremos absolutos pero dice nada acerca de cómo encontrarlos. Dos po-
sibilidades complementarias dividen la búsqueda de extremos: o el extremo
reside en la frontera del dominio o bien en el interior del mismo. Lo que sigue
en nuestro estudio son justamente técnicas del cálculo infinitesimal que per-
miten encontrar candidatos a extremos y decidir sobre su condición en esas
dos situaciones para cierto tipo de problemas que naturalmente se presentan
en la economía matemática.

Ejercicio 0.14. En cada uno de los siguientes casos decida si el teorema 0.9
es o no aplicable directamente.

xvi
1

0,5

y 0

-0,5

-1
-0,6-0,4-0,2 0 0,2 0,4 0,6
x

Figura 4: La desigualdad 2x2 + y 2 ≤ 1

1. w = a1 x1 + · · · + an xn sobre todo el espacio Rn


2. w = a1 x1 + · · · + an xn sobre el conjunto de x ∈ Rn tales que x1 + · · · +
xn ≤ 1 y xi ≥ 0 para todo i = 1, 2, . . . , n.
3. Q = X T AX sobre todo el espacio.
4. Una Cobb–Douglas z = Kxα y β , sobre x, y > 0; α, β ≥ 0, α + β = 1.
5. C = mı́n {x1 , x2 }, sobre todo R2
6. C = mı́n {x1 , x2 }, sobre el conjunto de puntos de R2 tales que a ≤ x1 ≤
b y c ≤ x2 ≤ d.
7. q = k( xc1a + c2 −b/a
xa
) , para x1 , x2 > 0.
1 2

8. Un polinomio P sobre una esfera abierta.

xvii
9. Una función racional sobre una esfera cerrada.

0.3. Diferenciación
La siguiente lista de ejercicios son de ablande y le harán ganar soltura a
la hora de visualizar y calcular.

Ejercicio 0.15. Para cada una de las siguientes funciones indicar el mayor
dominio de definición, dibujarlo e indicar dónde es continua y dónde no lo es.
Realice un mapa de nivel de la función y un dibujo de su gráfica (inténtelo.)

1. f (x, y) = min{x, y}

2. f (x, y) = min{|x| , |y|}

3. f (x, y) = max{x, y}

4. f (x, y) = max{' x2 ' , ' y3 '}


' ' ' '

!
5. f (x, y) = 1 − x2 − y 2 , hemisferio norte.

6. f (x, y) = x2 + y 2, paraboloide de revolución.


1
7. f (x, y) = x2 +y 2
, embudo al revés.

8. f (x, y) = ex+y , ideal para patineta, aunque un poco empinado!

9. f (x, y) = sen x, chapa de zinc.

10. f (x, y) = sen x sen y, cartón para huevos.

11. f (x, y) = 3x + 2y, un plano en R3 . ¿Cuál es el vector normal?

12. f (x, y) = x2 − y 2 , silla de montar.

13. f (x, y) = ( x2 )2 + ( y3 )2 , paraboloide elíptico.

Ejercicio 0.16. en cada uno de los siguientes casos calcule las derivadas
parciales ∂f /∂x y ∂f /∂y, y calcule los puntos críticos en el mayor dominio
de la función dada.

1. f (x, y) = e2x−5y

xviii
2 −3(y−3)2
2. e−(x−1)

3. f (x, y) = x3 + xy cos(xy)

4. f (x, y) = 1
x2 +y 2

5. f (x, y) = xy
Ejercicio 0.17. La función f de abajo provee de un contraejemplo para el
teorema de Clairaut. Sea
( 2 −y 2
2xy xx2 +y 2, si x2 + y 2 ̸= 0
f (x, y) =
0, si x = y = 0

Usando la definición de derivada parcial en el caso (x0 , y0) = (0, 0) y de-


rivando automáticamente en el caso (x0 , y0 ) ̸= (0, 0), calcule las funciones
fx y fy en todo su dominio. Luego, demuestre, usando la definición, que
fxy (0, 0) = −2 y fxy (0, 0) = 2.
Ejercicio 0.18. Los siguientes son ejemplos de funciones que en algún lugar
de su dominio no son continuas porque no tienen límite. En cada caso, use
alguno de los dos hechos siguientes: si el límite existe, debe ser único y, en
particular, si se tiende al punto por una curva continua, el límite debe existir
en todos estos casos especiales y todos deben ser iguales al límite ’doble’.
1. Sea xy
si (x, y) ̸= (0, 0);
$
x2 +y 2
,
f (x, y) = .
0, si (x, y) = (0, 0)
Pruebe usando líneas por el origen y = mx que el límite de f no existe
en cero.

2. Sea (
x2 −y 4
x2 +y 4
, si (x, y) ̸= (0, 0);
f (x, y) = .
0, si (x, y) = (0, 0)
Usando líneas por el origen y = mx, verifique que todos los límites
especiales de f sobre estas líneas existen y valen cero en cero. Luego,
usando las curvas y = mx2 , pruebe que el límite de f en (0, 0) no existe.

3. Pruebe que la función f (x, y) = x2 +y


1
2 no tiene límite en cero. (Para

ello mire la función en coordenadas polares (x, y) = (r cos θ, r sin θ.)

xix
0.3.1. Ejercicios
Ejercicio 0.19. En cada caso calcule derivadas parciales, la matriz de la
diferencial total, y el hessiano para las siguientes funciones donde el dominio
lo permita.

1. w = x2 + y 2 + z 2 − xy − xz − yz − 1 en (x, y, z) ∈ R3 arbitrario; luego


calcule todo en (0, 0, 0).

2. w = 3x + 2y − 5z − 1/2 en (x, y, z) arbitrario.

3. q = Kxα y β , una Cobb–Douglas, en (x, y) arbitrario. Calcule la elasti-


cidad en x e y.

4. z = xy 3 + x2 y −1 si x = cos u, y = ln v. Encuentre primero el dominio


de esta composición, luego calcule las derivadas donde existan.

Ejercicio 0.20. En cada uno de los siguientes casos calcule la diferencial


total usando solamente la regla de la cadena; luego use substitución directa
para corroborar que los resultados obtenidos son los mismos.

1. w = −yxz + z 3 , x(t) = cos t, y(t) = 2t + 1, z(t) = 3t2 − 1

2. Considere la función Cobb–Douglas de producción Q = 4K 3/4 L1/4 .


Suponga que las variables K y L varian en el tiempo y con la tasa de
interés r según las expresiones

10t2
K(t, r) = y L(t, r) = 6t2 + 250r
r
Calcule la tasa de cambio de la producción cuando t = 10, r = 0,1.3

Ejercicio 0.21. En los problemas que siguen realice una aproximación me-
diante el uso de diferenciales. (En otras palabras, se usa el plano tangente a
la función dada en el punto más simple desde el punto de vista de los cálculos
y se aproxima la variación funcional con la variación lineal que las derivadas
proveen.)
!
1. Estime (8,87)1/2 + 2(7,98)−1/3 + 3(1,11)2 .
3
Este problema se tomó del texto de Simon y Blume, p.318.

xx
2. Aproxime el valor de f (x, y) = 10x1/3 y 1/2 en x = 8,13 y = 9,54. (Use
una calculadora para obtener una aproximación hasta ocho dígitos sig-
nificativos.)
3. Sin el uso de calculadora Estime el valor de la producción Q = 10K 1/3 L2/3
cuando K = 1000, L = 125; luego cuando K = 998, L = 127.
Ejercicio 0.22. En los problemas que siguen use la regla de la cadena para
obtener sus resultados.
1. En una economía de dos commodities, considere la función demanda
de elasticidad constante
3/2 −1 2
1 p2 y y q2 = 10p1 p2 y
q1 = 6p−2
En una vecindad de los precios p1 = 6, p2 = 9 e ingreso y = 2, si se
incrementan los precios en una variación 0,1 y el ingreso cae 0,2, ¿qué
variación se espera en las cantidades demandadas?4
2. Ahora asuma que en el caso anterior los precios varian de acuerdo a las
funciones p1 = 5rt2 y p2 = 3rt, y el ingreso y = 20r. Encuentre la tasa
de variación en las cantidades demandadas cuando t = 5 y r = 0,1.

0.4. Extremos Locales


Definición 0.8. Sea f : U ⊂ Rn → R una función real, y x0 ∈ U. f tiene
un máximo local en x0 si existe r > 0 tal que
f (x) ≤ f (x0 ) ∀x ∈ B(x0 , r) ⊂ U
f tiene un mínimo local en x0 si existe r > 0 tal que
f (x) ≥ f (x0 ) ∀x ∈ B(x0 , r) ⊂ U
Observe que un extremo absoluto puede no ser local simplemente por
que la definición de extremo local requiere que x0 sea un punto interior del
dominio, mientras que un extremo absoluto puede estar en la frontera del
dominio de la función.
Extremos locales diferenciables son relativamente fáciles de alcanzar gra-
cias al siguiente resultado
4
Simon y Blume, p. 325.

xxi
Teorema 0.10. Sea f : U ⊂ Rn → R una función real, y x0 ∈ U un extremo
local de f (en particular, x0 es un punto interior de U.) Si f es diferenciable
en x0 , entonces todas las derivadas parciales de f se anulan en x0 .

Demostración. Supóngase que f tiene un máximo local en x0 . Defina


la función real de una variable real en un entorno del origen

g(t) := f (x0 + t ei )

donde ei es el i-ésimo miembro de la base canónica. Entonces g tiene un


máximo local en t = 0. Como g es diferenciable, siendo composición de
funciones diferenciables, por un teorema de Fermat g ′(0) = 0. Por definición
de derivada parcial, la derivada parcial de f en x0 con respecto a xi es
precisamente g ′(0); ergo,
∂f
=0
∂xi
QED.
Por el teorema anterior es recomendable dar un nombre especial a un
punto donde las derivadas parciales de primer orden de f se anulan.

Definición 0.9. Sea f : U ⊂ Rn → R una función real diferenciable en todo


U abierto. Un punto x ∈ U es un punto crítico de f si todas las derivadas
parciales de primer orden de f se anulan en x.

En otras palabras, un punto crítico de f es un punto interior de su dominio


donde existe el plano tangente y éste último es horizontal (o constante.)

Ejercicio 0.23. En cada uno de los siguientes casos encuentre los puntos
críticos de la función dada en el dominio que corresponda.

1. z = Kxα y β , una Cobb-Douglas, en x > 0, y > 0.

2. Q = X T AX, donde A es simétrica, en todo Rn . (Observe que este


ejemplo provee de puntos críticos que no son ni máximos ni mínimos
locales.)

a)
0 1/2 1/2
A = 1/2 0 1/2
1/2 1/2 0

xxii
b)
1 0 0
A= 0 2 0
0 0 3
c)
1 1 1
A= 1 1 1
1 1 1
!
3. z = 1 − x2 − y 2 , en la esfera abierta de radio uno de R2 . (La gráfica
de la función es el hemisferio norte de la esfera de radio uno en R3 .
Explique.)5
2 +y 2 )
4. z = xe−(x , en todo R2 .

5. z = xy 2 − x2 y, en todo R2 .

0.5. Polinomios de Taylor


Tenga presente el plan para resolver problemas de optimización. Se tienen
en cuenta dos casos esencialmente, el caso en que el punto óptimo se encuentra
en la frontera de la región6 y el caso donde el punto óptimo se encuentra
en el interior. Cuando un punto óptimo es interior y la función objetivo
es diferenciable, éstos se encuentran entre los puntos críticos de la función.
Falta divisar algún criterio para decidir el carácter de un punto crítico. Los
polinomios de Taylor proveen de una aproximación local a la función objetivo
si es suficientemente diferenciable. Para la mayoría de los casos, el polinomio
de Taylor de segundo orden en un punto crítico es naturalmente una forma
cuadrática que define el comportamiento de la fución en un entorno del punto
considerado.

Teorema 0.11. Sea f : U ⊂→ R una función real definida sobre un abierto


U ⊂ Rn , y x0 ∈ U. Si f es k + 1 vez continuamente diferenciable en U,
5
Ustedes no querían el término ‘bola abierta’ y terminamos usando ‘esfera abierta’;
mire la confusión que ahora tenemos entre cáscara y huevo!
6
Una región es un abierto conexo. Es posible probar que un abierto conexo de Rn está
caracterizado por la propiedad de ser abierto y porque qualquier par de puntos en el mismo
se pueden unir por un camino poligonal finito con lados paralelos a los ejes coordenados.

xxiii
entonces existe un único polinomio Pk,x0 de grado ≤ k tal que

|f (x) − Pk,x0 (x)|


lı́m =0
x→x0 ∥x − x0 ∥k

Observe que cuando k = 1 el polinomio del teorema es simplemente la


diferencial dx0 f de la función en el punto en cuestión.
Demostración. El resultado se sigue de su análogo para funciones de
una variable real. Como U es abierto y x0 es un punto interior, existe una
esfera abierta B(x0 , r) ⊂ U. Sea g : (−2, 2) → R la función definida por la
composición
g(t) := f (x0 + t(x − x0 ))
donde x ∈ B(x0 , r/2) es un punto fijo arbitrario. Como f es k + 1 veces
diferenciable, g es k + 1 veces diferenciable en su dominio. Entonces

g (2) (0) 2 g (k) (0) k


P (t) := g(0) + g (1) (0)t + t +···+ t
2! k!
es el único polinomio de grado menor o igual a k tal que satisface

g(t) − P (t)
lı́m =0
t→0 tk
Una cuenta simple usando la regla de la cadena calcula P (t) en términos de
f
g(0) = f (x0 )
∂f ∂f
g (1) (0) = (x0 )(x1 − a1 ) + · · · + (x0 )(xn − an )
∂x1 ∂xn
# ∂ 2 f (x0 )
g (2) (0) = (xi − ai )(xj − aj )
1≤i,j≤n
∂xi ∂xj

y en general
# ∂ k f (x0 )
g (k)(0) = (xi1 − aik ) . . . (xik − aik )
1≤i1 ,...,ik ≤n
∂xi 1 . . . ∂xi k

En estas sumas hay términos cruzados que son iguales por el teorema de
Clairaut–Young por ser las derivadas continuas. Un poco de notación a esta

xxiv
altura resulta útil a la hora de las cuentas concretas. Se introduce el coefi-
ciente multinomial ) *
k k!
=
r1 · · · rn r1 ! · · · rn !
donde r1 + · · · + rn = k y 0 ≤ r1 , . . . , rn ≤ k. Estos coeficientes generalizan
los nÞmeros combinatorios ( kr ) = r!(k−r)! k!
, los cuales son el caso n = 2 del
coeficiente multinomial.
Con esta notación en uso las derivadas de g en cero son

∂ 2 f (x0 )
) *
(2)
# 2
g (0) = (x − a1 )r1 · · · (xn − an )rn
r1 · · · rn ∂xr11 · · · ∂xrnn 1
r +···+r =2
1 n
0≤r1 ,...,rn ≤2

∂ k f (x0 )
) *
(k)
# k
g (0) = r1 (x1 − a1 )r1 · · · (xn − an )rn
r1 · · · rn ∂x1 · · · ∂xn r n
r1 +···+rn =k
0≤r1 ,...,rn ≤k

Ejercicio 0.24. Realice todas las cuentas en detalle para calcular las deriva-
das de g en cero en el caso de R2 y hasta orden k = 3. Luego haga lo mismo
para tres variables, caso R3 .

Ahora continuamos con la demostración. El polinomio Pk,x0 que buscamos


es P (t = 1). Esto es

k
∂ s f (x0 )
) *
# 1 # s
Pk,x0 (x) = (x1 −a1 )r1 · · · (xn −an )rn
s=0
s! r1 +···+rn =s
r1 · · · rn ∂xr11 · · · ∂xrnn
0≤r1 ,...,rn ≤s

Por la fórmula de Taylor para el error, existe un número c ∈ (0, 1) talque

g k+1(c)
g(1) − P (1) = (1 − 0)k+1
(k + 1)!

De nuevo un cálculo simple usando la regla de la cadena muestra que esta


expresión en términos de f es

f (x) − Pk,x0 (x) =

xxv
∂ k+1 f (x0 (1 − c) + cx)
) *
1 # k+1
(x1 −a1 )r1 · · · (xn −an )rn
(k + 1)! r1 · · · rn ∂xr11 · · · ∂xrnn
r1 +···+rn =k
0≤r1 ,...,rn ≤k
(1)
Como hemos supuesto las derivadas de f continuas hasta el orden k + 1 sobre
U, existe una constante positiva M que acota a todas las derivadas parciales
de f de orden k + 1 sobre la esfera cerrada BCerr. (x0 , r/2). Entonces, por la
desigualdad triangular y como cada |xi − ai | ≤ ∥x − x0 ∥, se tiene la siguiente
estimación
|f (x) − Pk,x0 (x)| ≤
) *
1 # k+1
≤ M |x1 − a1 |r1 · · · |xn − an |rn
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1

) *
1 # k+1
≤ M ∥x − x0 ∥r1 · · · ∥x − x0 ∥rn
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1

) *
1 # k+1
≤ M ∥x − x0 ∥k+1
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1

nk+1
≤M ∥x − x0 ∥k+1
(k + 1)!
) *
k+1
porque nk+1 k+1
.
+
= (1 + · · · + 1) = r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1 r1 · · · rn
Luego,
|f (x) − Pk,x0 (x)| nk+1
≤M ∥x − x0 ∥
∥x − x0 ∥k (k + 1)!
que prueba
|f (x) − Pk,x0 (x)|
lı́m =0
x→x0 ∥x − x0 ∥k
Q.E.D.
Las imagenes siguientes muestran una secuencia de polinomios de Taylor
aproximando una función (su gráfica se presenta en una malla de puntos,
dando una apariecia transparente.)

xxvi
xxvii
La unicidad del polinomio de Taylor es muy importante a la hora de
calcularlo. Los ejemplos que siguen muestran de manera intuitiva algunas de
las muchas posibilidades.

Ejemplo 0.3. La función seno tiene expansión de Taylor en el origen


1 3 1 5
sin t = t − t + t − +···
3! 5!
donde la igualdad es cierta en todo los reales con convergencia absoluta y
uniforme sobre cualquier intervalo de la forma [−m, m]. Esto implica por
ejemplo que el polinomio de Taylor de orden dos en el origen para f (x, y) =
sin(xy) es xy, mostrando a la vez que sin(xy) exhibe un punto crítico en el
origen que es de ensilladura.
De la misma manera, se se substituye x2 + y 2 en lugar de t, se obtiene
x2 + y 2 como polinomio de Taylor de orden dos para sin(x2 + y 2) en el ori-
gen, mostrando un punto crítico en el origen con forma cuadrática positiva
definida: f tiene un mínimo local en el (0, 0).

Ejemplo 0.4. La expansión de Taylor para la función exponencial converge


en todo R uniforme y absolutamente sobre compactos:
1 2 1 3
et = 1 + t + t + t +···
2! 3!
Si se substituye −x2 − y 2 en lugar de t, se obtienen todos los polinomios de
2 2
Taylor de e−x −y centrados en el origen; en particular el polinomio de orden
dos es
1 − x2 − y 2
que muestra dos cosas: primero, que la función f tiene un punto crítico en
el origen, y segundo, que es un máximo local por tener forma cuadrática
definida negativa.

Ejercicio 0.25. Lleve a cabo toda la demostración en el caso de dos variables.

Ejercicio 0.26. Clacule los polinomios de Taylor para las siguientes funcio-
nes en el punto indicado y describa la naturaleza del punto (x0 , y0) de ser
punto crítico.

1. z = cos (xy), en (x0 , y0) = (0, 0), hasta orden dos.

xxviii
2. q = x2 + y 2 − xy + 2x + 3y − 1, todos centrados en el origen, todos los
ordenes.

3. z = ln (xy), en (x0 , y0) = (1, 1), hasta orden dos.

4. z = x3 y 3, en el origen, hasta orden dos. (Este polinomio le provee de


un ejemplo simple en el cual una aproximación de segundo orden no le
permite decidir sobre la naturaleza del punto crítico.)

5. z = x4 y 4 , en el origen, hasta orden dos. ¿Cuándo espera Usted los


polinomios de Taylor centrados en el origen sean no nulos para este
caso?

0.6. Optimización sin Restricciones


En todos los problemas que siguen mire las condiciones de primer orden
para buscar los puntos de optimización en un conjunto más chico: el de
los puntos críticos, que con suerte, es discreto en muchos casos interesantes
a las aplicaciones. Luego decida el carácter del extremo local via la forma
cuadrática obtenida de la aproximación de Taylor en ese punto crítico.
Nota bibliográfica: La gran mayoría de los problemas presentados son
una selecta de los que figuran en la bibliografía del curso, que para conve-
niencia del lector se han traducido un tanto libremente. Véase Simon–Blume,
Williamson–Trotter, y el texto de Huang.

Ejercicio 0.27. 1. z = (x + y)e−xy

2. w = xy + xz

3. z = (x2 + y 2 ) ln (x2 + y 2)

4. w = cos (x2 + y 2 + z 2 )

5. w = x2 + y 2 + z 2

Ejercicio 0.28. Para la siguiente lista de casos, como antes mire las condi-
ciones de primer orden y decida el carácter del punto crítico a través de la
derivada segunda de la función objetivo. Si la segunda derivada se anulara,
calcule los subsiguientes polinomios de Taylor hasta el menor siguiente no
nulo y decida la condición del punto crítico.

xxix
1. f (x, y) = sin x cos x

2. z = x2 y 2

3. z = x2 + 4xy − y 2 − 8x − 6y

4. z = x2 − xy − y 2 + 5y − 1

5. z = x2 + 2y 2 − x

6. z = x sin y

7. z = x4 + y 4

8. z = (x − y)4

9. y = exp (−x21 − · · · − x2n )

Ejercicio 0.29. El problema siguiente le provee de un contraejemplo que


muestra la posibilidad de tener un punto crítico con forma cuadrática se-
midefinida y, no obstante, ser un punto de ensilladura. Para las funciones
z = x(x + y 3) y z = y(y − x2 ) haga lo siguiente:

1. Calcule las derivadas de primer orden y verifique que se anulan en el


origen.

2. Realice un mapa de signos de cada función en el plano R2 y deduzca


que ambas funciones tienen un punto de silla en el origen.

3. Calcule el polinomio de Taylor de segundo orden en el origen y verifique


que es una forma cuadrática semidefinida positiva.

Observe el siguiente fenómeno importante. La función f (x, y) = y(y − x2 ) no


tiene un mínimo local en el origen, sin embargo, toda sección por un plano
vertical por el origen de la gráfica de f muestra un mínimo local en cero.
Para verlo analíticamente, componga con la línea (x, y) = t(a, b) y obtenga

φ(t) = f (ta, tb) = b2 t2 − a2 bt3

que exhibe claramente un mínimo local en cero sea cual fuere la dirección
(a, b) de la línea.

xxx
Ejercicio 0.30. Una firma usa dos insumos para producir un determinado
artículo. Si su función producción es Q = x1/4 y 1/4 y si vende cada artículo por
un peso y compra cada insumo por cuatro pesos, encuentre la combinación
de cantidades de insumos que maximizan las utilidades.

Ejercicio 0.31. Como el caso anterior pero en general. Supóngase que una
firma tiene función producción de Cobb–Douglas de cierto artículo Q = xα y β ,
con precio final de venta p y precios r y s de cada insumo respectivamente.
Resuelva las condiciones de primer orden para encontrar la combinación de
insumos que tentativamente maximice las utilidades. Véa las condiciones de
segundo orden para determinar qué parámetros α, β, p, r, s garantizan que la
solución sea un máximo global.

Ejercicio 0.32. Las AeroFlight normalmente cubre los vuelos de Sky Iland a
la capital D.F. La compañía trata pasajeros de la clase de negocios y turista
como mercados separados al demandar compra de boletos por anticipado
a la clase turista. Suponga que las funciones demanda en cada caso son
Q = 16 − p, para la clase de negocios, y Q = 10 − p para la clase turista,
y que la función costo para todos los viajeros son C(Q) = 10 + Q2 . Qué
precio debe la compañía poner a cada clase de boleto para maximizar sus
ganancias?

xxxi
Práctico 5:
Optimización no Lineal en Rn
Matemática 3, FCE, UNC.

Prof. José M. Vargas

1 de junio de 2012
0.1. Optimización con Restricciones de Igual-
dad
0.1.1. Multiplicadores de Lagrange
Teorema 0.1. Sea G : Rn → Rm continuamente diferenciable 1 con n > m
(estas son las m funciones de las restricciones).2 Suponemos que la diferen-
cial de G = (g1 , . . . , gm ) tiene rango máximo (Condición de regularidad) en
x0 ∈ S := G−1 {0}; esto es, la matriz

∇g1 (x0 )
d x0 G =
!
Gx1 (x0 ) · · · Gxn (x0 )
"
= ..
.
∇gm (x0 )

tiene m columnas linealmente independientes (LI), o, equivalentemente, sus


filas son LI. 3 Si x0 es un etremo local de una función diferenciable f : Rn →
R cuando restringida a S, entonces existen números Λ := (λ1 , . . . , λm ) (los
multiplicadores) tales que (x0 , Λ) es un punto crítico de la función (‘Lagran-
giano’)
L(x, Λ) := f (x) − λ1 g1 (x) − · · · − λm gm (x)

Demostración. 1er. paso: parametrización local de S. Como las primeras m


columnas (digamos) de la diferencial de G en x0 son LI, si x0 = (u0 , v0 ) ∈
Rm × Rn−m , por el teorema de la función implícita existe un entorno abierto
U := B(v0 , δ) y una función

h : U ⊂ Rn−m → Rm ,

diferenciable, tal que


u0 := h(v0 )
1
Recuerde que esto significa que G tiene derivadas parciales continuas. Esto a su vez
implica que G es diferenciable.
2
El caso interesante es n > m; caso contrario, bajo la condición de regularidad (Non
Degeneracy Constraint Qualification, o NDCQ), por el teorema de la función inversa, el
conjunto de nivel S := G−1 {0} sólo consiste de puntos aislados, ‘sueltos’, finita o a lo más
numerable en cantidad.
3
La condición de regularidad asegura, por el teorema de la función implícita, que el
conjunto de nivel S es localmente parametrizable. Luego, S es una superficie diferenciable
en un entorno de x0 .

2
y
G(h(u), v) = 0
Entonces la gráfica de h representa paramétricamente S en un entorno de
x0 :
H(v) := (h(v), v),
H : U ⊂ Rn−m → S ⊂ Rn
es diferenciable y parametriza S.
En particular,
G(H(v)) = 0 para todo v ∈ U.
El espacio tangente a S en x0 tiene dimensión n − m y está generado por
las columnas de

dhv0
d v0 H =

I
una matriz de tamaño n×(n−m); el bloque inferior es la identidad I(n−m)×(n−m) .
En particular,
0 = dv0 (G ◦ H) = dx0 G × dv0 H (1)
2do. paso: La restricción de f a S (a U más exactamente) es la composición
de f con H. Como f tiene un extremo local en x0 cuando se restringe a S,
f ◦ H tiene un extremo local en v0 . Luego
0 = dv0 (f ◦ H) = ∇f (x0 ) × dv0 H (2)
3er. paso: Las ecuaciones (1) y (2) implican dos cosas:
i) primero, que las m filas (LI) de dx0 G son ortogonales a las n − m
columnas (LI) de dv0 H; luego la unión de las filas de dx0 G con las
columnas de dv0 H forman una base de Rn .
ii) Segundo, que ∇f (x0 ) es ortogonal a las columnas de dv0 H.
Entonces ∇f (x0 ) es sólo combinación las filas de dx0 G. Osea, existen
números λ1 , . . . , λm tales que
∇f (x0 ) = λ1 g1 (x0 ) + · · · + λm gm (x0 )
que es la afirmación a probar.

3
Ejercicio 0.1. Encuentre la máxima y mínima distancia del origen a la elipse
x2 + xy + y 2 = 3. (Ayuda: Considere como función objetivo la distancia al
cuadrado y la elipse como restricción.)
Ejercicio 0.2. Encuentre el punto más cercano al origen sobre la intersección
de los planos x + y + z = 1 y 3x + y + z = 5.
Ejercicio 0.3. Encuentre los extremos locales de la función f (x, y) = x +
y + z 2 sujeto a x2 + y 2 + z 2 = 1 y y = 0.
Ejercicio 0.4. Maximice f (x, y, z) = xz + yz sujeto a y 2 + z 2 = 1 y xz = 3.
Ejercicio 0.5. Maximice w = x2 y 2 z 2 sujeto a x2 + y 2 + z 2 = c2 , donde c > 0
es una constante arbitraria fija. Encuentre el máximo valor de la función.
Ejercicio 0.6. Maximice U(x, y) = Kxα y β , una Cobb–Douglas, sujeta a
p1 x + p2 y = I y x, y ≥ 0.
Ejercicio 0.7.

0.2. Optimización con Restricciones Mixtas


Ejercicio 0.8. Encuentre el máximo de f (x, y) = x2 + y 2 sujeto a 2x + y ≤ 2
y x, y ≥ 0.
Ejercicio 0.9. Encuentre el máximo de f (x, y) = 2y 2 −x sujeto a x2 +y 2 ≤ 1
y x, y ≥ 0.
Ejercicio 0.10. Considere el problema de maximizar la función xyz + z
sujeta a la restricción x2 + y 2 + z ≤ 6, x, y, z ≥ 0.
1. Calcule las condiciones de primer orden.
2. Determine si la primera restricción es justa (binding).
3. Encuentre la solución de las ecuaciones de primer orden con x = 0.
4. Encuentre tres ecuaciones en x, y, z que una solución con x ̸= 0 debe
satisfacer.
5. Verifique que (x, y, z) = (1, 1, 4) satisface esas ecuaciones.
Ejercicio 0.11. Maximice 3xy − x3 sujeto a las restricciones 2x − y = −5,
5x + 2y ≥ 37, x, y ≥ 0.
Ejercicio 0.12. Minimice x2 − 2y sujeto a x2 + y 2 ≤ 1, x, y ≥ 0.

4
Práctico 6:
Remix de problemas de parciales viejos.
Matemática 3, FCE, UNC.

Prof. José M. Vargas

21 de junio de 2011
El práctico entre manos es una selecta de problemas que han aparecido
en viejos exámenes o fueron entregados como ejercicios sueltos durante las
clases en alguna oportunidad. Aquí se presentan todos juntos para su integral
felicidad.

0.1. De optimización con cuentas


Problema 1:
Mínimos cuadrados. Dados n puntos (xi , yi ), i = 1 . . . n, el método de
regresión por mínimos cuadrados consiste en ajustar los datos por una línea
y = ax + b con (a, b) elegidos de manera tal que el error cuadrático total
n
!
S(a, b) = (yi − axi − b)2
i=1

sea mínimo. (Las variables son a, b, no xi , yi .)

1. (15pts.) Argumente sobre la existencia del mínimo absoluto. (Ayuda:


S(a, b) es la suma de polinomios cuadráticos en las variables a, b, y por
lo tanto, es una forma cuadrática desplazada del origen.)

2. (15pts.) Obtenga fórmulas en términos de los datos para los parámetros


óptimos (a, b). (Ayuda: escriba las condiciones de primer orden nece-
sarias para un extremo local sin restricciones, y observe que resulta
un sistema lineal dos por dos, no homogéneo, en las incógnitas a, b. Si
Usted resuelve ese sistema, obtiene las fórmulas para los coeficientes
de regresión lineal. Si tiene dificultades en usar la notación sigma para
la suma, suponga n = 4 y al final de sus cálculos escriba las fórmulas
generales cambiando el 4 por n y poniendo puntos suspensivos entre
medio.)

Problema 2:
Una desigualdad famosa. Considere una forma cuadrática Q(X) =
X T AX, donde A es simétrica 3 × 3. El problema consiste en encontrar el
mínimo y máximo absolutos de Q en la esfera de radio uno. (La respuesta es
parte del problema.) Hay dos formas de hacer esto desde lo que Usted sabe;

ii
una manera es puramente algebraica y usa el teorema espectral de operadores
simétricos. La otra es tratar al problema como un problema de optimización
usual y usar multiplicadores de Lagrange. Elija una de estas alternativas.
Aquí van los pasos esenciales para cada una de las alternativas.

1. Plan A. Esta es la salida algebraica.

a) Sea X = P U el cambio de coordenadas que se obtiene de dia-


gonalizar la matriz A ortogonalmente; osea, las columnas de P
consisten de una base ortonormal de vectores propios de A. Prue-
be que la restricción ∥X∥2 = 1 es equivalente a ∥U∥2 = 1. (Esto
sale del hecho que P es ortogonal.)
b) Con Q en términos de U, si se denotan con λ1 ≥ λ2 ≥ λ3 los
valores propios de A, pruebe que el máximo valor de Q(U) sujeta
a ∥U∥2 = 1 es el mayor valor propio y que se alcanza en U = e1 .
Lo mismo para el mínimo absoluto, pero con λ3 en lugar de λ1 , y
con e3 en lugar de e1 .
c) Formule la respuesta final en términos de X. (Simplemente lea
el resultado del punto anterior mirando el cambio de variables
X = P U.)

2. Plan B. Esta es la alternativa analítica.

a) Usando multiplicadores de Lagrange, pruebe que los puntos críti-


cos de
"
max Q(X)
(1)
∥X∥2 = 1

consisten exactamente de los vectores propios de A normalizados


con norma uno.
b) Calcule el valor de la forma en un valor propio de norma uno
cualquiera.
c) Use un argumento topológico adecuado—dando las razones de su
validez—para dar respuesta al problema (1) desde los dos puntos
anteriores.

iii
Problema 3:
Minimización de costos de una firma. Una firma en un proceso de
producción simple requiere de dos imputs x ≥ 0, y ≥ 0, a un costo unitario
de w1 , w2 respectivamente, para lograr un nivel de producción q = f (x, y)
de determinado output, donde f (x, y) = Kxa y b es la función producción. La
minimización de los costos de producir un output q0 plantea el problema

⎨ min w1 x + w2 y
s.a. f (x, y) = q0
x ≥ 0, y ≥ 0

1. Plantee las condiciones necesarias de primer orden y obtenga los valores


óptimos para los inputs x e y en términos de K, a, b, w1 , w2 , q0 .

2. Calcule explícitamente el valor del costo mínimo en términos de los


parámetros w1 , w2, q0 .

3. Obtenga la condición necesaria de segundo orden para el mínimo.

Problema 4:
El problema del tamaño óptimo de inventario Una firma posee un
inventario de cierto artículo que disminuye a una tasa constante por unidad
de tiempo. Cuando el inventario es cero, la firma hace un pedido de un nuevo
lote de q artículos para reponer el stock, pedido éste que se satisface inme-
diatamente. La firma ordena n lotes al año para satisfacer un requerimiento
anual fijo de Q0 artículos; así Q0 = qn. Dos tipos de costos ocurren: un costo
de almacenamiento, y otro, Co , por cada orden de un nuevo lote. La cantidad
promedio en stock para lotes de un tamaño q, es q/2 (, fácil de ver.) Si el
costo de almacenamiento de un artículo es Ca , el costo total de almacenar
un lote es Ca q/2. El costo total es entonces, C = Ca q/2 + Co n. Considere el
problema de minimizar los costos de inventario (sujeto a Q0 = qn.)

1. Realice un mapa de nivel mostrando los gradientes de las funciones


objetivo y restricción.

2. Argumente sobre la existencia del mínimo absoluto (; piense bien, no


se apure.)

iv
3. Use multiplicadores de Lagrange para encontrar el costo mínimo y el
tamaño óptimo de lote.

4. Interprete economicamente el multiplicador. (Escríba el multiplicador


en términos del costo mínimo.)

Problema 5:
Estudie los extremos locales y absolutos, de existir, de 3x2 + 5y 2 + xy
sujeto a las restricciones 1 ≤ x ≤ 5, 2 ≤ y ≤ 7. (No olvide argumentar sobre
la existencia —o no—de los extremmos absolutos.)

Problema 6:
Estudie los extremos locales y absolutos, de existir, de 3x2 −y 2 +x−2y +1
sujeto a x2 + y 2 ≤ 1, y ≥ 0, x ≥ 0.

Problema 7:
2 −y 2
Estudie los extremos locales y absolutos, de existir, de (x + y)e−x
sujeto a x ≥ 0, x2 + y 2 ≤ 2.

Problema 8:
Estudie los extremos locales y absolutos, de existir, de f (x, y, z) = xz +yz
sujeto a y 2 + z 2 ≤ 1 ; xz ≤ 1.

Problema 9:
Considere el problema

opt. z = x2 + y 2 − 2xy
sa 0≤x≤1
0≤y≤1

1. Determine si los extremos absolutos existen o no.

2. Calcule todos los puntos críticos, sueltos, etc.

v
3. Determine el carácter de cada uno de los puntos interesantes arriba
calculado.
4. Sumarice lo obtenido.

Problema 10:
Considere el problema
opt. z = x2 − y 2 + 2xy
sa x2 + y 2 ≤ 1
0≤y
0≤x
1. Determine si los extremos absolutos existen o no.
2. Calcule todos los puntos críticos, sueltos, etc.
3. Determine el carácter de cada uno de los puntos interesantes arriba
calculado.
4. Sumarice lo obtenido.

Problema 11:
Maximice U(x, y) = Kxα y β , una Cobb–Douglas, sujeta a p1 x + p2 y ≤ I
y x ≥ 0, y ≥ 0.

0.2. Continuidad
Problema 1:
Indique en cuáles de los siguientes casos es posible garantizar la existencia
de extremos absolutos —uno o ambos—y porqué. (No debe hacer ninguna
cuenta terrible.)
1. z = x − y sujeto a las restricciones x2 + y 2 − 2x − 2y + 1 ≤ 0, x2 + y 2 −
4x − 2y + 4 ≤ 0.
2. z = x2/3 y 1/3 sujeto a la restricción 0 ≤ x, y ≤ 1(ambas desigualdades
para ambas variables.)

vi
3. z = (x2 − y 2) sujeto a x2 < 1.
x3
4. z = 1+y 2
sujeto a máx {|x| , |y|} ≤ 3.

5. z = (x2 + y 2 )3 sujeto a (x + y)2 < 1.


x2
6. z = y3
sujeto a |x| + |y| ≤ 1.
1
7. z = e x−y sujeto a las restricciones 0 ≤ x ≤ 1, y 0 ≤ y ≤ 1.

8. z = x4 + y 4 sujeto a la restricción 0 < |x| + |y| < 1.


2 +y 2 )
9. z = e−(x sujeto a x2 ≤ 1.

10. z = (x − y)3 sujeto a x2 + y 2 < 1.

0.3. Aproximaciones de Taylor


Problema 1:
Calcule
√ una aproximación de Taylor de segundo orden para estimar el va-
3 2 −(0,07)2
lor de e −(0,11) . Puede dar una idea del error total cometido? Explique
porqé –sin calculadora.

Problema 2:
&
Considere la cuenta c := 3
(0,97) cos(0,11).

1. Si considerara sólo la continuidad, a qué valor debería aproximarse c?

2. Si ahora se utilizara una aproximación lineal en algún punto adecuado,


en cuánto mejoraría la aproximación respecto de la anterior?

3. Calcule una aproximación por un polinomio de Taylor de segundo orden


y muestre en cuánto cambia esta aproximación respecto de las anterio-
res. (Enlos tres casos debería usarse el mismo punto ‘fácil’ para calcular
las aproximaciones.)

4. Puede dar una idea del error cometido en las aproximaciones de los dos
primeros ítems?

vii
0.4. Formas
Problema 1:
1. Enuncie condiciones necesarias y suficientes en términos de determi-
nantes para que la foma cuadrática q = X T AX, donde AT = A, sea
negativa definida. Luego aplique ese resultado al caso q = 3x2 + y 2 −
z 2 − 2xy − 2xz − 2yz.

2. Diagonalice mediante un cambio de coordenadas ortogonal la forma


anterior y obtenga la conclusión anterior en términos de sus autovalores.

3. Ahora enuncie condiciones necesarias y suficientes en términos de de-


terminantes para que la forma q = X T AX, con AT = A n × n, sujeta a
BX = 0, donde Bm×n tiene rango máximo, sea positiva definida. Luego
aplique ese resultado al caso particular q = y 2 − z 2 − 2xy − 2xz − 2yz
restringida a y + 3z = 0 y decida.

Problema 2:
Se espera que enuncie correctamente los teoremas necesarios y exhiba las
cuentas completas en el ejemplo en particular.

1. Usando determinantes, decida el carácter (def.,semidef., o indef.,) de la


forma cuadrática q = X T AX, donde
⎡ ⎤
1 1 3
A=⎣ 1 3 1 ⎦
3 1 1

restringida al subespacio W = {(x, y, z) ∈ R3 | y + z = 0}.

2. Encuentre una matriz invertible M, no necesariamente ortogonal, tal


que M T AM sea diagonal, donde A es la matriz del punto anterior.
Explique porqué la signatura de A y M T AM son las mismas.

viii
Problema 3:
1. Usando determinantes, decida el carácter (def.,semidef., o indef.,) de la
forma cuadrática q = X T AX, donde
⎡ ⎤
1 2 1
A=⎣ 2 3 −4 ⎦
1 −4 5

restringida al subespacio W = {(x, y, z) ∈ R3 | y + z = 0}.

2. Encuentre una matriz invertible M, no necesariamente ortogonal, tal


que M T AM sea diagonal, donde A es la matriz del punto anterior.
Explique porqué la signatura de A y M T AM son las mismas (Se pide
una demostracón!)

Problema 4:
1. Usando determinantes, decida el carácter (def.,semidef., o indef.,) de la
forma cuadrática q = X T AX, donde
⎡ ⎤
1 1 1
A=⎣ 1 2 1 ⎦
1 1 1

restringida al subespacio W = {(x, y, z) ∈ R3 | y − 2z = 0}.

2. Encuentre una matriz ortogonal P tal que P T AP sea diagonal, donde


A es la matriz del punto anterior. Explique porqué la signatura de A y
P T AP son las mismas (Se pide una demostración!)

0.5. Geometría lineal


Problema 1:
Encuentre la línea ortogonal a las líneas l1 y l2 , y que intersecta ambas.
l1 y l2 están dadas respectivamente por

(x, y, z) = (1, 0, 1) + t(1, 1, 1)

ix
(x, y, z) = (0, 0, 1) + t(1, −1, 1)
(Ayuda: no debería tener problema en encontrar la dirección ortogonal a
ambas. Para determinar el punto por donde pasa, resuelva el sistema que
surge de intersectar los planos que contienen cada línea y es paralelo a la
dirección normal hallada. No pregunte más.)

Problema 2:
Considere el plano Σ determinado por los puntos P1 = (0, 0, 1), P2 =
(2, 1, 0) y P3 = (0, 1, 1).
1. Construya la línea ortogonal a Σ que pasa por el origen, y úsela para
determinar la mínima distancia del plano al origen.

2. Plantee el problema de encontrar la mínima distancia del plano al origen


como un problema de minimización (sólo plantéelo.)

Problema 3:
Considere el plano Σ que pasa por el punto P0 = (1, 0, 1) y es paralelo a
los vectores α = (0, 1, 1) y β = (1, 1, 1). Dado el punto P1 = (0, 1, −1),
1. encuentre la línea l1 por P1 ortogonal a Σ;

2. calcule la intersección P2 de l1 con Σ;

3. y, usando los puntos anteriores, calcule la (menor) distancia del punto


P1 al plano Σ.

0.6. De optimización gráfica


Los siguientes dos problemas son del tipo

maximizar f (x, y)

sujeto a g(x, y) ≤ c0
donde las funciones involucradas son dos veces continuamente diferenciables
y ∇g es no nulo en todos los puntos de la curva de nivel g(x, y) = c0 . La
resolución del problema es gráfica y conceptual; no requiere de cuentas. La

x
fig.1 le muestra el mapa de nivel de la función objetivo junto con su gradiente.
La fig.2 muestra la función restricción y su gradiente. Por último, la fig.3 le
muestra ambas funciones juntas, la función objetivo y el borde de la región.

1. En la fig.3 marque todos los puntos críticos de f en el interior y en


el borde de la región. Explique brevemente el porqué de su elección,
rotulando cada punto con p1 , p2 , . . . y refiriéndose a cada uno de ellos
aparte.

2. Explique porqué el máximo absoluto existe. Indique, con breve expli-


cativo sobre su decisión aparte, qué puntos son posibles candidatos y
cuáles no. En cada caso que se aplique, indique el signo del multiplica-
dor.

xi
(a) Función objetivo. (b) Restricción

(c) Función y restricción

Figura 1: Problema optimizarf (x, y) sujeto a g(x, y) ≤ c0 .

xii
(a) Función objetivo. (b) Restricción

(c) Función y restricción

Figura 2: Problema optimizarf (x, y) sujeto a g(x, y) ≤ c0 .

xiii
Teorema del Coseno 1

Teorema del Coseno


Prof. J. M. Vargas
25 de octubre de 2011

Teorema 0.1. Sea ABC un triángulo y denótense sus ángulos por las letras de los vérices y sus
lados por las letras minúsculas correspondientes a sus vértices opuestos. Con esa notación en uso,
el teorema del coseno afirma lo siguiente:

a2 = b2 + c2 − 2bc cos A

Demostración. Consideramos tres casos: Cuando el ángulo A es recto, cuando A es agudo y cuando
A es obtuso. En todos los casos la idea es reducirlo al teorema de Pitágoras trazando la altura h
del triángulo. Tambien conviene recordar que en un triángulo rectángulo el cateto adyacente es la
hipotenusa por el coseno del ángulo y el cateto opuesto es la hipotenusa por el seno del ángulo. Esto
último se sumariza en la fig.0.1
B


h ✟
✟✟ a = h sin A
✟✟

A b = h cos A C

Figura 0.1: Funciones trignométricas

1. Si A es recto, entonces el coseno de A es cero, y el teorema del coseno afirma lo mismo que el
teorema de Pitágoras, es decir

a2 = b 2 + c2 − 2 b c 0 = b 2 + c2

2. Si A es agudo, entonces la situación es como en la fig.0.2:


B♣

c ✟ ♣♣♣❏

✟ ✟ h ♣♣♣♣ ❏ a
✟✟ ♣♣ e ❏
A b H C

Figura 0.2: Caso A agudo.

Observe primero tres igualdades que se siguen del teorema de Pitágoras y la definición del
coseno de un ángulo:

a2 = h2 + e2 ; c2 = h2 + (b − e)2 ; e = b − c cos A
Teorema del Coseno 2

de donde se calcula

a2 = c2 − (b − e)2 + e2
= c2 − b2 + 2be − e2 + e2
= c2 − b2 + 2b(b − c cos A)
= c2 + b2 − 2bc cos A

3. Si A es obtuso, entonces la situación se vé como en la fig.0.3. De nuevo la idea es usar el


teorema de Pitágoras.
B
✟♣♣♣♣
✟ ✟ ✡
a✟✟ ✡ ♣♣♣ h
♣♣
✟ c ✡ ♣♣
✟✟ ✡♣ ♣ ♣ ♣ e♣ ♣ ♣ ♣ ♣ ♣♣

C b A H

Figura 0.3: Caso A obtuso.

a2 = (b + e)2 + h2 (1)
2 2 2
= b + 2be + e + h (2)
2 2
= b + 2be + c (3)
2 2
= b + c − 2bc cos A (4)

Como en el caso anterior, se usó el teorema de Pitágoras en (1) para a, denuevo lo mismo en
(3) para c2 = h2 + e2 , y, finalmente, que e = −c cos A (observe que el − se debe a que A es
obtuso.)

Listo el teorema del coseno Q.E.D.


Teorema espectral para transformaciones
simétricas
José M. Vargas
17 de agosto de 2015

Resumen

1. Vectores y Valores Propios


Dado un operador lineal T : V → V sobre un espacio de dimensión finita,
considere el problema de encontrar una base Φ de V en la que la matriz que
representa a T es diagonal. Algunas cosas se pueden decir inmediatamente. Para
fijar ideas, asuma que V = Rn y que T tiene matriz en la base canónica A n × n.
Entonces, si T tiene matriz diagonal D = [T ]Φ en la base Φ = {α1 , . . . , αn },
debe ocurrir
T αi = λi αi , i = 1, 2, . . . , n
donde los escalares λi son las entradas en la diagonal de D. Esto motiva la
siguiente
Definición 1.1. Sea T : V → V una transformación lineal sobre un espacio
vectorial V de dimensión finita n. Un vector no nulo α0 ∈ V es un vector
propio de T correspondiente al valor propio λ0 ∈ R si T α0 = λ0 α0 .
En términos de la definición anterior, lo que se desea es una base consistente
de vectores propios de T . Regresando a nuestro caso, denotando [α] a las coorde-
nadas de un vector en la base canónica, la ecuación T α0 = λ0 α0 , en coordenadas
de la base canónica, se convierte en

A[α0 ] = λ0 [α0 ]

En otras palabras, buscamos los λ ∈ R para los cuales el sistema

(A − λI)X = 0

tiene soluciones no triviales. Esto ocurre si y sólo si

det(A − λI) = 0

El polinomio de grado n P (λ) = det(A − λI) se denomina el polinomio carac-


terı́stico de T . Hay una buena razón para llamarlo de T y no meramente de A:
P no es afectado si se usa otra matriz que represente a T porque el determinante

1
es invariante por conjugaciones; esto es, det(Q−1 AQ) = detA para toda matriz
invertible Q. Entonces, si Q−1 AQ representa a T en otra base,

det(Q−1 AQ − λI) = det(Q−1 (A − λI)Q)

= det(Q−1 )det(A − λI)detQ


= det(A − λI)
y por lo tanto no importa la matriz que usemos para representar a T .
Por el teorema fundamental del álgebra, existen a lo más n raı́ces para el
polinomio P (λ), y exactamente n raı́ces en los complejos contadas con su mul-
tiplicidad. En resumen, los valores propios de T son las raı́ces de su polinomio
caracterı́stico y a lo más hay tantas como la dimensión de V . Todo lo dicho
hasta aquı́ alcanza para el siguiente
Teorema 1.1. Si el polinomio caracterı́stico de T : V → V tiene todas sus
raı́ces reales y distintas, existe una base de V que diagonaliza a T .
En realidad, sólo falta ver que vectores propios de valores propios distintos
son linealmente independientes entre sı́. Para ver esto, supongamos que los n =
dim(V ) valores propios de T son λ1 , . . . , λn , todos distintos en los reales. Y
supongamos que α1 , . . . , αn son los correspondientes vectores propios. Entonces,
si
c1 α1 + · · · + cn αn = 0,
aplicando T a ambos lados, se tiene

c1 λ1 α1 + · · · + cn λn αn = 0

Si de esta última identidad se resta la primera multiplicada por λ1 , resulta

c2 (λ2 − λ1 )α2 + · · · + cn (λn − λ1 )αn = 0

En otras palabras, se eliminó el primer término. Si nuevamente se aplica T a la


tercera identidad y se resta de ésta λ2 por la tercera, se elimina el término con
α2 . Si ası́ se sigue, por inducción, después de n − 1 pasos se llega a

cn (λn − λ1 )(λn − λ2 ) · · · (λn − λn−1 )αn = 0

de donde cn = 0 (porque los valores propios se asumieron todos distintos.)


Regresando recursivamente se tiene que cn−1 = 0, . . . , c2 = 0, c1 = 0. Osea, los
αi ’s son linealmente independientes, y forman, por lo tanto base de V . sobre lo
mismo.
No siempre ha de esperarse que existan los valores propios sobre los reales.
Por ejemplo, si T está representado en la base canónica por la matriz
! "
0 −1
A=
1 0

entonces el polinomio caracterı́stico de T es


#! " $
0 −1
P (λ) = det − λI
1 0

2
P (λ) = λ2 + 1
que no tiene raı́ces reales. Esto dice que imposible esperar que T se pueda
diagonalizar en alguna base de R2 .
Aún cuando todas las raı́ces del polinomio caracterı́stico existan en los reales,
no siempre existen suficientes vectores propios para formar una base de V .
Veamos un ejemplo de esto. Supongamos que T está representado en la base
canónica por la matriz ! "
1 1
A=
0 1
Entonces T tiene polinomio caracterı́stico
#! " $
1 1
P (λ) = det − λI
0 1
#! "$
1−λ 1
P (λ) = det
0 1−λ

P (λ) = (λ − 1)2
que tiene todas sus raı́ces en R: λ0 = 1 es raı́z doble. Para buscar los vectores
propios miramos las soluciones no triviales del sistema
(A − λ0 I)X = 0
#! " $
1 1
−I X =0
0 1
! "! " ! "
0 1 x 0
=
0 0 y 0
que tiene como soluciones los múltiplos del vector e1 ; nada más. Con ese vector
solo no se llega a una base de R2 .
De regreso a nuestra discusión. De nuevo, si Φ es una base que diagonaliza
a T , se debe tener
T αi = λi αi , i = 1, 2, . . . , n
lo que en términos de la matriz A que representa a T en la base canónica se
convierte en
A[αi ] = λi [αi ] ; i = 1, 2, . . . , n
que a su vez puede ser leı́do en términos de la matriz cambio de base P de la la
nueva base Φ a la canónica. P es la matriz cuyas columnas son los vectores αi ’s
puestos en columna (es decir, P tiene por columnas a los vectores [αi ]Can ’s.)
Entonces, si existe la base que diagonaliza a T ,
P −1 AP = D
Recuerde esto que es importante a la hora de los cálculos.
Hagamos un alto para analizar algunos ejemplos más.
Ejercicio 1.1. Sea T : Rn → Rn el operador lineal representado en la base
canónica por la matriz A n × n. En cada caso, calcule el polinomio caracterı́stico
de T , valores propios y vectores propios asociados. Encuentre de ser posible una
base de vectores propios que diagonalice a T . Construya la matriz cambio de
base y verifique si P −1 AP es o no diagonal.

3
1. ⎡ ⎤
1 −1 −1
A=⎣ 0 2 −1 ⎦
0 0 3

2. ⎡ ⎤
3 0 2
A = ⎣ −1 1 −1 ⎦
−1 0 0

3. ⎡ ⎤
1 −1 −1
A = ⎣ −1 2 −1 ⎦
−1 −1 3

4. ⎡ ⎤
2 1 0
A=⎣ 1 2 1 ⎦
0 1 2

Ejercicio 1.2. Para los dos últimos casos del problema anterior, verificar que es
posible tomar la matriz P que diagonaliza a T con columnas ortogonales entre
sı́ y de norma uno. Calcule P −1 y compare con la traspuesta de P .
Ejercicio 1.3. Pruebe que si una matriz P n×n tiene por columnas los vectores
de una base de Rn cuyos vectores son ortogonales entre sı́ y cada uno de norma
uno, entonces P P T = I. Tales matrices se denominan ortogonales. Verifique
que si dos matrices son ortogonales su producto también lo es.
Ejercicio 1.4. Pruebe que toda matriz invertible A tiene todos sus valores
propios no nulos. Más aún, λ0 es un valor propio de A si y sólo si 1/λ0 es valor
propio de A−1 .
Ejercicio 1.5. Sea T : Rn → Rn un operador lineal representado en la base
canónica por una matriz ortogonal. Entonces, con respecto al producto interno
canónico de Rn ,
⟨T x, T y⟩ = ⟨x, y⟩
Ayuda: Escriba todo matricialmente; producto interno incluı́do.
Ejercicio 1.6. Pruebe que una matriz ortogonal sólo tiene como valores propios
reales a ±1. Ayuda: Use los problemas anteriores y el hecho que el determinante
es invariante por trasposición.1
1 En general, para tener todos los valores propios de una matriz en el cuerpo de escalares

hace falta que éste sea algebraicamente cerrado; es decir, que todo polinomio de grado n > 0
con coeficientes en el cuerpo tenga todas sus n raı́ces en el cuerpo. En particular, en el caso
de una matriz ortogonal real, del análogo del ejercicio 1.5 pero en C, se sigue que los valores
propios sólo pueden ser de la forma eiθ = cos θ + i sin θ, con θ ∈ R.

4
2. Transformaciones Simétricas
De ahora en más se asume que V = Rn . La diferencia radica fundamental-
mente en que ahora disponemos del producto interno canónico, que nos permite
considerar ortogonalidad entre vectores y subespacios.
Agregamos un nuevo ingrediente al problema de diagonalizar un operador
lineal. Se requiere de la base diagonalizante que consista de vectores mutuamente
ortogonales y de norma unitaria.
Definición 2.1. Una base Φ = {α1 , . . . , αn } de Rn es ortonormal si satisface
)
1 si i = j
⟨αi , αj ⟩ = δij =
0 si i =
̸ j

Por el ejercicio1.3, esto es exactamente que la matriz cambio de base P cuyas


columnas consisten de los vectores propios sea una matriz ortogonal. Recuerde
que para una matriz ortogonal P se cumple siempre que P −1 = P T . Entonces,
si existe una base ortonormal Φ que diagonaliza a T , ésta debe ser ortonormal
y consistir de vectores propios de T . Hay algo que se desprende inmediatamente
de esto: Desde
P T [T ]P = D
se sigue tomando traspuesta que

P T [T ]T P = DT = D = P T [T ]P

de donde
[T ]T = [T ]
En otras palabras, [T ] es simétrica. Este hecho puede decirse en términos del
producto interno canónico ası́:

⟨T α, β⟩ = ⟨α, T β⟩

En ese caso se dice que T es un operador simétrico.


Ejercicio 2.1. Pruebe que para toda matriz cuadrada An×n se cumple

⟨Aα, β⟩ = ⟨α, AT β⟩

tomando como definición de producto interno canónico

⟨α, β⟩ = αT β

Aquı́ estamos pensando los vectores de Rn como matrices n × 1; por lo tanto,


la operación de trasponer pone a los vectores en posición horizontal. Siguiendo
esta convención, última trasposición pone horizontal al vector Aα.) pruebe que

⟨Aα, β⟩ = ⟨α, Aβ⟩

si y sólo si A = AT . En ese caso, A se denomina simétrica.

5
De esto se desprende que T es simétrico si y sólo si su matriz en la base
canónica es simétrica.2
En realidad esto es todo lo que se necesita de T : Rn → Rn para que exista
una base ortonormal que lo diagonalice.
Teorema 2.1. Sea T : Rn → Rn un operador lineal simétrico. Entonces todos
sus valores propios son reales y existe una base ortonormal Φ consistente de
vectores propios que diagonaliza a T .
Dicho en términos matriciales, si A es una matriz simétrica, todos los valores
propios de A son reales y existe una matriz ortogonal P tal que P T AP = D
donde D es una matriz diagonal con los valores propios de A en la diagonal.
La demostración de este teorema consiste de tres pasos. Primero hay que
probar que todos los valores propios de un operador simétrico son siempre reales.
Esto garantiza la existencia de vectores propios reales. Segundo, se muestra que
por ser T simétrico, vectores propios correspondientes a valores propios distintos
son ortogonales entre si; y si W es un subespacio T –invariante, entonces el
complemento ortogonal W ⊥ es también T –invariante. Por último un argumento
inductivo muestra que es factible construir una base ortonormal que consiste de
vectores propios de T . Esta base diagonaliza a T .
Proposición 2.1. Sea T : Rn → Rn un operador lineal simétrico. Entonces
todos sus valores propios son reales y vectores propios de T correspondientes a
valores propios distintos son ortogonales entre sı́.
Demostración. Sea A la matriz de T en la base canónica. El producto interno
canónico en Rn es
⟨α; β⟩ = αT × β
Pero el mismo producto interno en Cn es

⟨α; β⟩ = αT × β

Por el teorema fundamental del álgebra (TFA), existe una raı́z λ1 ∈ C del
polinomio caracterı́stico de A: det(A − λI) = 0. Entonces el sistema homogéneo

(A − λ1 I)X = 0

tiene solución no trivial en el cuerpo de los complejos. Sea α1 una solución no


trivial; entonces
Aα = λ1 α1 ∈ Cn
Entonces, usando el producto interno canónico en Cn , se tiene

⟨Aα1 , α1 ⟩ = ⟨α1 , Aα1 ⟩

⟨λ1 α1 , α1 ⟩ = ⟨α1 , λ1 α1 ⟩
λ1 ⟨α1 , α1 ⟩ = λ1 ⟨α1 , α1 ⟩
λ1 = λ1
2 Más es cierto: T es simétrico si y sólo si la matriz de T en cualquier otra base ortonormal
es simétrica. Si la base no es ortonormal, en general la matriz que representa a T no es nece-
sariamente simétrica. Esto puede generalizarse a opeadores lineales actuando sobre espacios
con producto interno arbitrarios. Véase Hoffman-Kunze, Álgebra Lineal.

6
porque ⟨α1 , α1 ⟩ > 0. Esto prueba que λ1 es real. En ese caso, α1 pude tomarse
en Rn .
Para lo segundo, supongamos que α es un vector propio del valor propio λ1
y que β es un vector propio del valor propio λ2 , con λ1 ̸= λ2 . Entonces,

⟨Aα; β⟩ = ⟨α; Aβ⟩

⟨λ1 α; β⟩ = ⟨α; λ2 β⟩
λ1 ⟨α; β⟩ = λ2 ⟨α; β⟩
(λ1 − λ2 )⟨α; β⟩ = 0
⟨α; β⟩ = 0
que prueba la ortogonalidad de α y β.
Proposición 2.2. Sea T : Rn → Rn un operador lineal simétrico y W un subes-
pacio T –invariante, (esto es, T (W ) ⊂ W ) entonces el complemento ortogonal
W ⊥ es T –invariante.
Demostración. Supongamos que W es T -invariante. Sean α cualquier vector en
W y β un vector cualquiera de W ⊥ . Entonces,

⟨α; T β⟩ = ⟨T α; β⟩ = 0

porque T α ∈ W por ser W T-invariante. Esto prueba que T β es ortogonal a


todo α ∈ W . O sea, T β ∈ W ⊥ . Esto dice que T (W ⊥ ) ⊂ W ⊥ .
Proposición 2.3. Sea T : Rn → Rn un operador lineal simétrico. Entonces
existe una base ortonormal de Rn que consiste de vectores propios de T , y que
por lo tanto diagonaliza a T .
Demostración. Sea A la matriz de T en la base canónica. Por el TFA y la
primera proposición, todos los valores propios de A son reales. Sea λ1 un valor
propio de A. Entonces existe α1 un vector propio del valor propio λ1 en Rn ; es
decir,
(A − λ1 I)α1 = 0
tiene solución no trivial en Rn . Entonces W1 = ⟨α1 ⟩ es naturalmente T -invariante;
por la segunda proposición, su complemento ortogonal W1⊥ es también T - inva-
riante. O sea, W1⊥ es un subespacio vectorial T-invariante con producto interno
(el mismo canónico restringido a W1⊥ ) pero de dimensión n − 1. Por inducción
sobre la dimensión del espacio vectorial se sigue la conclusión de la proposición.
Pero, a los fines de ver los detalles matricialmente, veámos el paso inductivo con
detenimiento.
Por ser W1⊥ de dimensión finita, tiene base; y por el método de Gramm-
Schmid, podemos asumir que tiene una base ortonormal {γ2 , . . . , γn }. Obsérvese
que normalizando α1 de norma uno, Φ = {α1 , γ2 , . . . , γn } es una base ortonormal
de Rn . Como α1 es vector propio, y W1⊥ T-invariante, la matriz de T en la base
Φ es diagonal en bloque:

[T ]Φ = [[T α1 ]Φ , [T γ2 ]Φ , . . . , [T γn ]Φ ]

= [λ1 e1 , [T γ2 ]Φ , . . . , [T γn ]Φ ]

7
pero como cada T γi es combinación lineal sólo delos γj ’s, cada columna [T γj ]Φ
es combinación lineal sólo de ei ’s con 2 ≤ i ≤ n. O sea, la matriz de T en la
base Φ se ve ası́

λ1 0
A=
0 B
donde B en (n − 1) × (n − 1).
Afirmación 1: B es simétrica.
Esto se sigue de haber tomado la base {γ2 , . . . , γn } de W1⊥ ortonormal. Es
suficiente probar que
⟨Bei ; ej ⟩ = ⟨ei ; Bej ⟩
porque por linealidad se extiende a todo Rn−1 .
n−1
*
⟨Bei ; ej ⟩ = ⟨ bsi es ; ej ⟩
s=1

n−1
*
= bsi ⟨es ; ej ⟩
s=1
n−1
*
= bsi δsj
s=1
n−1
*
= bsi ⟨γs+1 ; γj+1 ⟩
s=1
n−1
*
=⟨ bsi γs+1 ; γj+1 ⟩
s=1

= ⟨Aγi+1 ; γj+1 ⟩
= ⟨γi+1 ; Aγj+1 ⟩
n−1
*
= ⟨γi+1 ; bsj γs+1 ⟩
s=1
n−1
*
= bsj ⟨γi+1 ; γs+1 ⟩
s=1
n−1
*
= bsj δis
s=1
n−1
*
= bsj ⟨ei ; es ⟩
s=1
n−1
*
= ⟨ei ; bsj es ⟩
s=1

= ⟨ei ; Bej ⟩

8
entonces B es simétrica. Crucial a esta cuenta fué el hecho que la base {γ2 , . . . , γn }
es ortonormal:
⟨ei ; ej ⟩Rn−1 = δij = ⟨γi+1 ; γj+1 ⟩Rn
Ahora sı́, por inducción existe una base ortonormal de Rn−1 α˜2 , . . . , α˜n con-
sistente de vectores propios de B

B α̃i = λi α̃i , i = 2, 3, . . . , n

donde λ2 , λ3 , . . . , λn son los valores propios de B.


Definimos los vectores αi , i = 2, . . . , n por
n
*
αi = usi γs
s=2

donde ⎡ ⎤
u2i
α̃i = ⎣ ... ⎦ ∈ Rn−1
⎢ ⎥

uni
Afirmación 2: ⟨αi ; αj ⟩ = δij
Que α1 es ortogonal a los αi ’s con 2 ≤ i ≤ n se sigue de la ortogonalidad
entre α1 y los γi ’s. Veámos que los αi ’s con 2 ≤ i ≤ n son ortogonales entre si
*n n
*
⟨αi ; αj ⟩ = ⟨ usi γs ; urj γr ⟩
s=2 r=2
n
*
= usi urj ⟨γs ; γr ⟩
s,r=2
n
*
= usi urj δsr
s,r=2
n
*
= usi urj ⟨es−1 ; er−1 ⟩
s,r=2

*n n
*
=⟨ usi es−1 ; urj er−1 ⟩
s=2 r=2

= ⟨α̃i ; α˜j ⟩ = δij


Afirmación 3: Aαi = λi αi
Es suficiente ver esta igualdad en coordenadas de la base Φ = {α1 , γ2 , . . . , γn }
*n
[Aαi ]Φ = [A( usi γs )]Φ
s=2

n
*
= usi [A(γs )]Φ
s=2
n
*
= usi Bes−1
s=2

9
*n
= B( usi es−1 )
s=2

= B(α̃i )
= λi α̃i
*n
= λi ( usi es−1 )
s=2

*n
= λi ( usi [γs ]Φ )
s=2

= [λi αi ]Φ
Esto termina la prueba.
Ejercicio 2.2. En cada uno de los siguientes casos, encuentre una matriz orto-
gonal P que diagonalice A.
1. ⎡ ⎤
1 0 −1
A=⎣ 0 2 0 ⎦
−1 0 1

2. ⎡ √ ⎤
3/2 √1/2 0
A = ⎣ 1/2 − 3/2 0 ⎦
0 0 2

3. ⎡ ⎤
0 1 1
A=⎣ 1 2 1 ⎦
1 1 0

4. ⎡ ⎤
1 2 3
A=⎣ 2 3 4 ⎦
3 4 5

5. ! "
cos θ sin θ
A=
sin θ − cos θ

10
Formas Cuadráticas, Matemática III

Prof. José M. Vargas

27 de mayo de 2011
Índice general

0.1. Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . 2


0.2. Transformaciones Simétricas . . . . . . . . . . . . . . . . . . . 7
0.3. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . 10
0.3.1. Teorema de la Signatura . . . . . . . . . . . . . . . . . 15
0.3.2. Demostración del Teorema 0.3 . . . . . . . . . . . . . . 15
0.3.3. Ejemplos de cálculo . . . . . . . . . . . . . . . . . . . . 24
0.4. Formas Cuadráticas con Restricciones . . . . . . . . . . . . . . 26

0.1. Vectores y Valores Propios


Dado un operador lineal T : V → V sobre un espacio de dimensión finita,
considere el problema de encontrar una base Φ de V en la que la matriz que
representa a T es diagonal. Algunas cosas se pueden decir inmediatamente.
Para fijar ideas, asuma que V = Rn y que T tiene matriz en la base canónica
A n × n. Entonces, si T tiene matriz diagonal D = [T ]Φ en la base Φ =
{α1 , . . . , αn }, debe ocurrir

T αi = λi αi , i = 1, 2, . . . , n

donde los escalares λi son las entradas en la diagonal de D. Esto motiva la


siguiente

Definición 0.1. Sea T : V → V una transformación lineal sobre un espacio


vectorial V de dimensión finita n. Un vector no nulo α0 ∈ V es un vector
propio de T correspondiente al valor propio λ0 ∈ R si T α0 = λ0 α0 .

En términos de la definición anterior, lo que se desea es una base consis-


tente de vectores propios de T . Regresando a nuestro caso, denotando [α] a

2
0.1. VECTORES Y VALORES PROPIOS 3

las coordenadas de un vector en la base canónica, la ecuación T α0 = λ0 α0 ,


en coordenadas de la base canónica, se convierte en

A[α0 ] = λ0 [α0 ]

En otras palabras, buscamos los λ ∈ R para los cuales el sistema

(A − λI)X = 0

tiene soluciones no triviales. Esto ocurre si y sólo si

det(A − λI) = 0

El polinomio de grado n P (λ) = det(A − λI) se denomina el polinomio


característico de T . Hay una buena razón para llamarlo de T y no mera-
mente de A: P no es afectado si se usa otra matriz que represente a T porque
el determinante es invariante por conjugaciones; esto es, det(Q−1 AQ) = detA
para toda matriz invertible Q. Entonces, si Q−1 AQ representa a T en otra
base,
det(Q−1 AQ − λI) = det(Q−1 (A − λI)Q)
= det(Q−1 )det(A − λI)detQ
= det(A − λI)
y por lo tanto no importa la matriz que usemos para representar a T .
Por el teorema fundamental del álgebra, existen a lo más n raíces para
el polinomio P (λ), y exactamente n raíces en los complejos contadas con
su multiplicidad. En resumen, los valores propios de T son las raíces de su
polinomio característico y a lo más hay tantas como la dimensión de V . Todo
lo dicho hasta aquí alcanza para el siguiente

Teorema 0.1. Si el polinomio característico de T : V → V tiene todas sus


raíces reales y distintas, existe una base de V que diagonaliza a T .

En realidad, sólo falta ver que vectores propios de valores propios dis-
tintos son linealmente independientes entre sí. Para ver esto, supongamos
que los n = dim(V ) valores propios de T son λ1 , . . . , λn , todos distintos en
los reales. Y supongamos que α1 , . . . , αn son los correspondientes vectores
propios. Entonces, si
c1 α1 + · · · + cn αn = 0,
4

aplicando T a ambos lados, se tiene


c 1 λ 1 α1 + · · · + c n λ n αn = 0
Si de esta última identidad se resta la primera multiplicada por λ1 , resulta
c2 (λ2 − λ1 )α2 + · · · + cn (λn − λ1 )αn = 0
En otras palabras, se eliminó el primer término. Si nuevamente se aplica T a
la tercera identidad y se resta de ésta λ2 por la tercera, se elimina el término
con α2 . Si así se sigue, por inducción, después de n − 1 pasos se llega a
cn (λn − λ1 )(λn − λ2 ) · · · (λn − λn−1 )αn = 0
de donde cn = 0 (porque los valores propios se asumieron todos distintos.)
Regresando recursivamente se tiene que cn−1 = 0, . . . , c2 = 0, c1 = 0. Osea,
los αi ’s son linealmente independientes, y forman, por lo tanto base de V .
No siempre ha de esperarse que existan los valores propios sobre los reales.
Por ejemplo, si T está representado en la base canónica por la matriz
! "
0 −1
A=
1 0
entonces el polinomio característico de T es
#! " $
0 −1
P (λ) = det − λI
1 0

P (λ) = λ2 + 1
que no tiene raíces reales. Esto dice que imposible esperar que T se pueda
diagonalizar en alguna base de R2 .
Aún cuando todas las raíces del polinomio característico existan en los
reales, no siempre existen suficientes vectores propios para formar una base
de V . Veamos un ejemplo de esto. Supongamos que T está representado en
la base canónica por la matriz
! "
1 1
A=
0 1
Entonces T tiene polinomio característico
#! " $
1 1
P (λ) = det − λI
0 1
0.1. VECTORES Y VALORES PROPIOS 5

#! "$
1−λ 1
P (λ) = det
0 1−λ

P (λ) = (λ − 1)2
que tiene todas sus raíces en R: λ0 = 1 es raíz doble. Para buscar los vectores
propios miramos las soluciones no triviales del sistema

(A − λ0 I)X = 0
#! " $
1 1
−I X = 0
0 1
! "! " ! "
0 1 x 0
=
0 0 y 0
que tiene como soluciones los múltiplos del vector e1 ; nada más. Con ese
vector solo no se llega a una base de R2 .
De regeso a nuestra discusión. De nuevo, si Φ es una base que diagonaliza
a T , se debe tener
T αi = λi αi , i = 1, 2, . . . , n
lo que en términos de la matriz A que representa a T en la base canónica se
convierte en
A[αi ] = λi [αi ] ; i = 1, 2, . . . , n
que a su vez puede ser leído en términos de la matriz cambio de base P
de la la nueva base Φ a la canónica. P es la matriz cuyas columnas son
los vectores αi ’s puestos en columna (es decir, P tiene por columnas a los
vectores [αi ]Can ’s.) Entonces, si existe la base que diagonaliza a T ,

P −1 AP = D

Recuerde esto que es importante a la hora de los cálculos.


Hagamos un alto para analizar algunos ejemplos más.

Ejercicio 0.1. Sea T : Rn → Rn el operador lineal representado en la base


canónica por la matriz A n × n. En cada caso, calcule el polinomio carac-
terístico de T , valores propios y vectores propios asociados. Encuentre de
ser posible una base de vectores propios que diagonalice a T . Construya la
matriz cambio de base y verifique si P −1 AP es o no diagonal.
6

1. ⎡ ⎤
1 −1 −1
A=⎣ 0 2 −1 ⎦
0 0 3

2. ⎡ ⎤
3 0 2
A = ⎣ −1 1 −1 ⎦
−1 0 0

3. ⎡ ⎤
1 −1 −1
A = ⎣ −1 2 −1 ⎦
−1 −1 3

4. ⎡ ⎤
2 1 0
A=⎣ 1 2 1 ⎦
0 1 2

Ejercicio 0.2. Para los dos últimos casos del problema anterior, verificar que
es posible tomar la matriz P que diagonaliza a T con columnas ortogonales
entre sí y de norma uno. Calcule P −1 y compare con la traspuesta de P .

Ejercicio 0.3. Pruebe que si una matriz P n × n tiene por columnas los
vectores de una base de Rn cuyos vectores son ortogonales entre sí y cada
uno de norma uno, entonces P P T = I. Tales matrices se denominan orto-
gonales. Verifique que si dos matrices son ortogonales su producto también
lo es.

Ejercicio 0.4. Pruebe que toda matriz invertible A tiene todos sus valores
propios no nulos. Más aún, λ0 es un valor propio de A si y sólo si 1/λ0 es
valor propio de A−1 .

Ejercicio 0.5. Sea T : Rn → Rn un operador lineal representado en la


base canónica por una matriz ortogonal. Entonces, con respecto al producto
interno canónico de Rn ,
⟨T x, T y⟩ = ⟨x, y⟩
Ayuda: Escriba todo matricialmente; producto interno incluído.
0.2. TRANSFORMACIONES SIMÉTRICAS 7

Ejercicio 0.6. Pruebe que una matriz ortogonal sólo tiene como valores
propios reales a ±1. Ayuda: Use los problemas anteriores y el hecho que el
determinante es invariante por trasposición.1

0.2. Transformaciones Simétricas


De ahora en más se asume que V = Rn . La diferencia radica fundamen-
talmente en que ahora disponemos del producto interno canónico, que nos
permite considerar ortogonalidad entre vectores y subespacios.
Agregamos un nuevo ingrediente al problema de diagonalizar un opera-
dor lineal. Se requiere de la base diagonalizante que consista de vectores
mutuamente ortogonales y de norma unitaria.

Definición 0.2. Una base Φ = {α1 , . . . , αn } de Rn es ortonormal si satis-


face )
1 si i = j
⟨αi , αj ⟩ = δij =
0 si i ̸= j

Por el ejercicio0.3, esto es exactamente que la matriz cambio de base P


cuyas columnas consisten de los vectores propios sea una matriz ortogonal.
Recuerde que para una matriz ortogonal P se cumple siempre que P −1 = P T .
Entonces, si existe una base ortonormal Φ que diagonaliza a T , ésta debe ser
ortonormal y consistir de vectores propios de T . Hay algo que se desprende
inmediatamente de esto: Desde

P T [T ]P = D

se sigue tomando traspuesta que

P T [T ]T P = D T = D = P T [T ]P

de donde
[T ]T = [T ]
1
En general, para tener todos los valores propios de una matriz en el cuerpo de escalares
hace falta que éste sea algebraicamente cerrado; es decir, que todo polinomio de grado
n > 0 con coeficientes en el cuerpo tenga todas sus n raíces en el cuerpo. En particular,
en el caso de una matriz ortogonal real, del análogo del ejercicio 0.5 pero en C, se sigue
que los valores propios sólo pueden ser de la forma eiθ = cos θ + i sin θ, con θ ∈ R.
8

En otras palabras, [T ] es simétrica. Este hecho puede decirse en términos del


producto interno canónico así:

⟨T α, β⟩ = ⟨α, T β⟩

En ese caso se dice que T es un operador simétrico.

Ejercicio 0.7. Pruebe que para toda matriz cuadrada An×n se cumple

⟨Aα, β⟩ = ⟨α, AT β⟩

tomando como definición de producto interno canónico

⟨α, β⟩ = αT β

Aquí estamos pensando los vectores de Rn como matrices n×1; por lo tanto, la
operación de trasponer pone a los vectores en posición horizontal. Siguiendo
esta convención, pruebe que

⟨Aα, β⟩ = ⟨α, Aβ⟩

si y sólo si A = AT . En ese caso, A se denomina simétrica.

De esto se desprende que T es simétrico si y sólo si su matriz en la base


canónica es simétrica.2
En realidad esto es todo lo que se necesita de T : Rn → Rn para que
exista una base ortonormal que lo diagonalice.

Teorema 0.2. Sea T : Rn → Rn un operador lineal simétrico. Entonces todos


sus valores propios son reales y existe una base ortonormal Φ consistente de
vectores propios que diagonaliza a T .
Dicho en términos matriciales, si A es una matriz simétrica, todos los
valores propios de A son reales y existe una matriz ortogonal P tal que
P T AP = D donde D es una matriz diagonal con los valores propios de
A en la diagonal.
Más es cierto: T es simétrico si y sólo si la matriz de T en cualquier otra base ortonor-
2

mal es simétrica. Si la base no es ortonormal, en general la matriz que representa a T no


es necesariamente simétrica. Esto puede generalizarse a opeadores lineales actuando sobre
espacios con producto interno arbitrarios. Véase Hoffman-Kunze, Álgebra Lineal.
0.2. TRANSFORMACIONES SIMÉTRICAS 9

La demostración de este teorema consiste de tres pasos. Primero hay que


probar que todos los valores propios de un operador simétrico son siempre
reales. Esto garantiza la existencia de vectores propios reales. Segundo, se
muestra que por ser T simétrico, vectores propios correspondientes a valo-
res propios distintos son ortogonales entre si; y si W es un subespacio T –
invariante, entonces el complemento ortogonal W ⊥ es tambien T –invariante.
Por último un argumento inductivo muestra que es factible construir una
base ortonormal que consiste de vectores propios de T . Esta base diagonaliza
a T.

Proposición 0.1. Sea T : Rn → Rn un operador lineal simétrico. Entonces


todos sus valores propios son reales y vectores propios de T correspondientes
a valores propios distintos son ortogonales entre sí.

Demostración.

Proposición 0.2. Sea T : Rn → Rn un operador lineal simétrico y W un


subespacio T –invariante, (esto es, T (W ) ⊂ W ) entonces el complemento
ortogonal W ⊥ es T –invariante.

Demostración.

Proposición 0.3. Sea T : Rn → Rn un operador lineal simétrico. Entonces


existe una base ortonormal de Rn que consiste de vectores propios de T , y
que por lo tanto diagonaliza a T .

Demostración.

Ejercicio 0.8. En cada uno de los siguientes casos, encuentre una matriz
ortogonal P que diagonalice A.

1. ⎡ ⎤
1 0 −1
A=⎣ 0 2 0 ⎦
−1 0 1

2. ⎡ √ ⎤
3/2 √1/2 0
A=⎣ 1/2 − 3/2 0 ⎦
0 0 2
10

3. ⎡ ⎤
0 1 1
A=⎣ 1 2 1 ⎦
1 1 0

4. ⎡ ⎤
1 2 3
A=⎣ 2 3 4 ⎦
3 4 5

5. ! "
cos θ sin θ
A=
sin θ − cos θ

0.3. Formas Cuadráticas


La necesidad de tratar formas cuadráticas reside en el hecho de que natu-
ralmente aparecen como una suerte de derivada segunda de funciones objetivo
en problemas de optimización, con y sin restricciones. Así la naturaleza del
punto crítico, si máximo local o mínimo local, puede en la mayoría de los ca-
sos aplicados a la economía ser determinado del comportamiento de la forma
cuadrática asociada a la función a optimizar.
En las dos secciones que siguen se verán una serie de resultados que
nos servirán para decidir acerca de lo que denominaremos el signo de la
forma cuadrática (geométricamente estaremos decidiendo si la forma tiene
un mínimo o un máximo o ninguno de los dos.) Todos los teoremas que
siguen se apoyan en el álgebra lineal de operadores simétricos.
Recuerde la definición de forma cuadrática

Definición 0.3. Una forma cuadrática real Q sobre Rn es un polinomio


homogéneo de grado dos en n variables; esto es, Q : Rn → R tiene la forma
Q(X) = X T AX para todo X ∈ Rn (pensado como vector columna,) y donde
la matriz An×n es simétrica.

Por ejemplo, Q(x, y, z) = xy + yz + xz es una forma cuadrática sobre R3


cuya matriz simétrica asociada es
⎡ ⎤
0 1/2 1/2
A = ⎣ 1/2 0 1/2 ⎦
1/2 1/2 0
0.3. FORMAS CUADRÁTICAS 11

Observe que sobre la diagonal se encuentran los coeficientes de los términos


correspondientes a las potencias cuadráticas de cada variable, mientras que
fuera de la diagonal se encuentran a manera de batalla naval los medios
coeficientes de los términos cruzados.
Veamos que un cambio de coordenadas apropiado puede desnudar la na-
turaleza geométrica de una forma cuadrática. Si Q(X) = X T AX es una
forma sobre Rn con matriz simétrica A, entonces existe una matriz ortogonal
Pn×n tal que P T AP = D es diagonal, con los valores propios de A en la
diagonal principal; inclusive es posible tomar P con det(P ) = 1. Entonces la
substitución X = P U compuesta con la forma cuadrática tiene el efecto de
eliminar todos los términos cruzados, dejando los valores propios de A como
coeficientes de los términos correspondientes a los cuadrados de las variables:

Q(X) = X T AX

Q(P U) = (P U)T A(P U)


Q(P U) = U T (P T AP )U
Q(P U) = U T DU
Que puesto en términos de los valores propios λ1 , . . . , λn de A, toma la forma:

Q = λ1 u21 + · · · + λn u2n

Ahora considere el problema de determinar cuándo una forma cuadrática


tiene un máximo absoluto (o un mínimo absoluto.) Para decir esto con más
precisión, antes una definición.

Definición 0.4. Sea Q una forma cuadrática sobre Rn y sea A la matriz


simétrica asociada a Q.

1. Q es definida positiva si Q(X) > 0 para todo X ∈ Rn no nulo. Si


Q(X) ≥ 0 para todo X ∈ Rn , Q es positiva semidefinida; pero si
Q(X) = 0 para algún X ̸= 0, entonces Q es sólo (positiva) semide-
finida.

2. Q es definida negativa si Q(X) < 0 para todo X ∈ Rn no nulo. Si


Q(X) ≤ 0 para todo X ∈ Rn , Q es negativa semidefinida; pero si
Q(X) = 0 para algún X ̸= 0, entonces Q es sólo (negativa) semidefi-
nida.
12

3. Q es indefinida si no es ni semidefinida positiva ni semidefinida nega-


tiva. Esto significa que existen X’s donde la forma es positiva y otros
X’s donde la forma es negativa.

La misma terminología se usa sobre la matriz simétrica A. Por ejemplo, A


es definida positiva si X T AX > 0 para todo X ∈ Rn no nulo.

Observe que Q es definida o semidefinida positiva exactamente cuando Q


tiene un mínimo absoluto en el origen (puesto que Q(0) = 0 siempre.) Lo
mismo si Q es definida o semidefinida negativa; ese es el caso si y sólo si Q
tiene un máximo absoluto en el origen.
También es útil notar que Q es definida negativa si y sólo si −Q es definida
positiva. Lo mismo si Q es semidefinida.
Ahora supóngase que Q = λ1 u21 + · · · + λn u2n es definida positiva. En
particular, para U = ei , el i-ésimo elemento de la base canónica, se tiene

λi = Q(ei ) > 0 para i = 1, 2, . . . , n

Ejercicio 0.9. Si Q(X) = X T AX y la notación es como arriba, qué Xi ∈ Rn


tomaría para que Q(Xi ) = λi ?

En otras palabras, si Q es definida positiva, todos los valores propios de


A son positivos. Y al revés, si todos los valores propios de A son positivos,
entonces
Q = λ1 u21 + · · · + λn u2n > 0
para todo U ∈ Rn no nulo.
De la misma manera se ve que Q es semidefinida positiva (negativa) si sólo
si A tiene todos sus valores propios no negativos (no positivos) y al menos
uno nulo. (Recuerde que A tiene al menos un valor propio nulo exactamente
cuando el núcleo de A es no nulo.)
Q es indefinida exactamente cuando existen al menos un valor propio
positivo y otro negativo.

Ejercicio 0.10. En cada uno de los siguientes casos encuentre la matriz


simétrica correspondiente a la forma cuadrática dada y una substitución
ortogonal que la diagonalice. Exprese la forma en las nuevas coordenadas
explícitamente.

1. 3x2 − 6xy + y 2
0.3. FORMAS CUADRÁTICAS 13

2. 8x2 + 9xy − 3y 2

3. x2 − y 2 − 4xy + 3xz − 8yz

4. x2 − 2y 2 + z 2 + 6w 2 − 2xw + 6yw − 8xz

5. 2xy

6. 3x2 + 4xy

7. −6xy + 8y 2

8. x2 + 2xy + y 2

9. 3x2 − 4xy + 3y 2

10. x2 + y 2 + z 2 − 2xy − 2xz − 2yz

11. x2 + 2y 2 − 6xz + z 2 − 4w 2

Ejercicio 0.11. Sea Q(X) = X T AX. Para cada caso encuentre la P orto-
gonal que diagonaliza A y decida si la forma es definida positiva o negativa;
si es semidefinida positiva o negativa; o indefinida.

1. ⎡ ⎤
0 1/2 1/2
A = ⎣ 1/2 0 1/2 ⎦
1/2 1/2 0

2. Q(x, y) = x2 + 2xy + y 2

3. Q(x, y) = x2 + 2xy

4. ⎡ ⎤
3/2 0 1/2
A=⎣ 0 2 0 ⎦
1/2 0 3/2

5. ⎡ ⎤
−11 −5 3 1
⎢ −5 −11 1 3 ⎥
A=⎢ ⎥
⎣ 3 1 −11 −5 ⎦
1 3 −5 −11
14

Ejercicio 0.12. Hallar una condición necesaria y suficiente para que la forma
ax2 + bxy + cy 2 se pueda diagonalizar ortogonalmente a una forma del tipo
ku2 .
Existe una manera de decidir sobre el signo de una forma cuadrática sin
necesidad de diagonalizarla (aunque tal vez no menos laborioso.)
Definición 0.5. Sea An×n una matriz. Una submatriz de orden k es una
matriz k × k que se obtiene de A omitiendo n − k filas y n − k columnas,
posiblemente distintas. Cuando las n − k filas y columnas que se omiten de A
son las mismas, la submatriz que se obtiene se dice submatriz principal.
Cuando las n − k filas y columnas que se omiten de A son las últimas k +
1, k + 2, . . . , n, la submatriz que se obtiene se dice submatriz principal
líder y se denotará A(k) . Los determinantes de las submatrices principales
se denominan menores pricipales de A. Los determinantes de submatrices
principales líderes de orden k se denominan menores principales líderes
de orden k.3
Por ejemplo, si ⎡ ⎤
1 2 3
A=⎣ 4 5 6 ⎦
7 8 9
entonces ! "
4 6
7 9
es la submatriz de A que se obtiene omitiendo la fila primera y la columna
segunda; las submatrices principales líderes de A de orden 1, 2, 3 son respec-
tivamente ⎡ ⎤
! " 1 2 3
1 2
[1] , ,⎣ 4 5 6 ⎦
4 5
7 8 9
Los menores principales líderes son sus respectivos determinantes. Son me-
nores principales no líderes de A las matrices
! " ! "
5 6 1 3
[5] , [9] , ,
8 9 7 9
Sus determinantes, junto con los menores principales líderes, son todos los
menores principales de A.
Esta definición tortuosa no se ha simplificado en lo que respecta a terminología con el
3

sólo objetivo de respetar el vocabulario folklórico.


0.3. FORMAS CUADRÁTICAS 15

0.3.1. Teorema de la Signatura


Teorema 0.3. Sea Q una forma cuadrática y A su matriz simétrica asociada.
Entonces
1. Q es definida positiva si y sólo si todos los menores principales líderes
de A son positivos.

2. Q es definida negativa si y sólo si los menores principales líderes de A


alternan en signo, comenzando con menos: signo(det(A(k) )) = (−1)k , k =
1, 2, . . . , n.
3. Q es semidefinida positiva si y sólo si toda submatriz principal de A
tiene determinante no negativo.

4. Q es semidefinida negativa si y sólo si para todo k = 1, 2, . . . , n toda


submatriz principal de orden k de A tiene determinante con signo (−1)k
o es nulo4 .

5. Q es indefinida si y sólo si existen dos menores principales de orden


impar con distinto signo o un menor principal de orden par con signo
(estrictamente) negativo.
Ejercicio 0.13. Use el teorema 0.3 para decidir el signo de las formas del
problema 0.10 y 0.11.
Ejercicio 0.14. Pruebe que si una matriz simétrica A tiene todos sus meno-
res principales de orden par no negativos y sus menores principales de orden
impar nulos, entonces A es la matriz nula. Ayuda: Primero mire los menores
principales de orden uno; luego piense en los menores principales de orden
dos.

0.3.2. Demostración del Teorema 0.3


El teorema 0.3 quedará demostrado si se prueban los puntos primero y
tercero. El segundo y cuarto puntos del teorema se deducen fácilmente de
aplicar respectivamente el primer y tercer punto a la forma −Q. El punto
quinto es simplemente el complemeto lógico de los puntos anteriores.
4
Observe que no pueden todos los menores principales de orden impar de A ser nulos
mientras los menores principales de orden par son no negativos a menos que A misma sea
nula, posibilidad ésta excluída por la definición de forma cuadrática.
16

Todos los menores a los que se haga referencia en la demostración son


menores principales líderes.

Primer punto del teorema 0.3


La demostración es por inducción sobre n y se apoya en dos hechos co-
nocidos. Primero, el determinante es invariante por operaciones elementales
del tipo ‘a una fila se le suma un múltiplo de otra fila (distinta.)’ El segundo
hecho se expresa en forma precisa en el siguiente
Lema 0.1. An×n es definida positiva si y sólo si QT AQ es definida positiva,
donde Q es cualquier matriz invertible n × n.
Ejercicio 0.15. Pruebe el lema anterior. Recuerde que debe verificar dos
cosas, que QT AQ es simétrica si y sólo si A es simétrica y que satisface la
desigualdad que define la positividad si y sólo si A la satisface.
Primero establecemos una conexión entre el determinante de A y el menor
principal det(A(n−1) ) de orden n − 1 y la correspondiente relación entre la
forma Qn = X T AX, X ∈ Rn , y la forma Qn−1 = X T A(n−1) X, ahora X ∈
Rn−1 . Esto nos permitirá probar el paso inductivo de n − 1 a n.
Para esto observe que A puede partirse en bloques, el menor principal de
orden n − 1 A(n−1) y an n en la diagonal, y los vectores a, igual a los n − 1
primeros elementos de la última columna de A, y aT fuera de la diagonal.
Entonces, verifique que esta cuenta es cierta: Si A(n−1) es invertible,

A(n−1) a
A=
aT an n
se puede descomponer usando operaciones elementales por filas y por colum-
nas (ambas simultáneamente) así:

I(n−1)×(n−1) 0 A(n−1) 0 I(n−1)×(n−1) [A(n−1) ]−1 a


A= × ×
aT [A(n−1) ]−1 1 0 d 0 1

donde d = an n − aT [A(n−1) ]−1 a. Note que el primer factor de esta descom-


posición es el traspuesto del tercer factor. Si a éste último lo denotamos M,
0.3. FORMAS CUADRÁTICAS 17

entonces M es invertible, tiene determinante uno, y la descomposición de


arriba se lee

A(n−1) 0
A = MT × ×M
0 d
(M es una matriz producto de elementales del tipo antes mencionado pero
que opera por columnas en vez de por filas; M usa el bloque A(n−1) para
hacer a cero. M T es producto de elementales del mismmo tipo arriba men-
cionado que usa el bloque A(n−1) para poner cero en lugar de aT .) De esta
descomposición de A se desprenden las dos relaciones deseadas; primero

det(A) = det(A(n−1) ) × d (1)

y segundo
# $
X1
(X1T , xn )(M −1 )T A(M −1 ) = X1T A(n−1) X1 + d x2n (2)
xn

donde X1 ∈ Rn−1 .

Ejercicio 0.16. Calcule M (−1) .(Ayuda: Sólo un menos se necesita.) Verifique


que (M T )(−1) = (M (−1) )T .

Ahora usamos inducción sobre n para probar la tesis.

(⇒) Asuma que Q = Qn es definida positiva. Si n = 1 se tiene Q(x) =


ax2 > 0, para todo x ∈ R no nulo, de donde a > 0; y viceversa.

Ejercicio 0.17. Pruebe el teorema para el caso n = 2. Una forma de


hacer esto es comenzar de la expresión Q(x, y) = ax2 + 2bxy + cy 2 ,
completar cuadrados, y escribir los coeficientes resultantes en términos
de los menores principales.

La hipótesis inductiva es que si una forma de orden n − 1 es positiva


definida, entonces tiene todos sus menores principales positivos. Como
hemos asumido que Q, la forma con matriz A, es positiva definida,

∀X ∈ Rn \ {0} : X T AX > 0
18

poniendo xn = 0 (la última coordenada de X cero,) se tiene que A(n−1)


es positiva definida sobre Rn−1 . Luego por hipótesis inductiva, todos
los menores principales líderes de A(n−1) son positivos. En particular,
A(n−1) tiene determinante positivo. En particular, A(n−1) es invertible
y las cuentas 2 y 1 son posibles. También, por el lema 0.1 anterior, la
forma sobre Rn con matriz (M −1 )T A(M −1 ), es positiva definida:

∀(X1 , xn ) ∈ Rn \ {0} : X1T A(n−1) X1 + d x2n > 0

Luego, poniendo X1 = 0 y xn = 1, se tiene que d > 0. Finalmente, por


1 se tiene que det(A) > 0 (que es el último menor principal de A que
faltaba verificar su positividad.) Listo.

(⇐) Asuma ahora al revés, supongamos que todos los menores principales
de A son positivos. El caso n = 1 es que a > 0 implica Q(x) = ax2 > 0,
para todo x ∈ R no nulo; así Q es positiva definida.
La hipótesis inductiva es ahora que si una matriz simétrica de tamaño
(n − 1) × (n − 1) tiene todos sus menores principales positivos, entonces
la forma cuadrática asociada es positiva definda.
Como A tiene todos sus menores principales positivos, det(A(n−1) ) > 0;
luego A(n−1) es invertible y las cuentas que llevaron a 1 y 2 son posibles.
Por 1, como detA > 0 y det(A(n−1) ) > 0, se tiene d > 0. Ahora,
como A(n−1) tiene todos sus menores principales positivos, por hipótesis
inductiva, Qn−1 es positiva definida. Luego, por 2, la forma sobre Rn con
matriz (M −1 )T A(M −1 ) debe ser positiva definida. Luego Q es positiva
definida por el lema 0.1 anterior. Listo

Esto termina la demostración del primer punto del teorema 0.3

Ejercicio 0.18. Realice con todo detalle los pasos de la demostración del
primer punto del teorema en el caso de n = 3. Use la expresión (2) para n =
3, 2, 1 hasta haber completado todos los cuadrados. Reescriba los coeficientes
en términos de los menores principales y recupere el teorema nuevamente.

Ejercicio 0.19. Hay otra aplicación interesante que se desprende del Lema
0.1. Denote con P una matriz permutación n × n, en otras palabras, P se
obtiene de la identidad haciendo la correspondiente permutación de sus filas.
En particular, las filas de P forman naturalmente una base ortonormal de
Rn ; esto es, P es una matriz ortogonal: P T P = I
0.3. FORMAS CUADRÁTICAS 19

Si A es simétrica n × n, por el lema mencionado, A es positiva definida si


y sólo si P T AP lo es. Verifique a través de ejemplos que esto significa que si
se permutan las variables de una forma, entonces el carácter de ser positiva
definida no cambia.
Vale lo mismo para negativa definida? Para semidefinidas? Indefinidas?
Interprete geométricamente el significado de este hecho.

Tercer punto del teorema 0.3

Este punto también se sigue del primero. Si Q es sólo semidefinida positi-


va, en particular cero es valor propio de A. Entonces el autoespacio del valor
propio cero es no trivial y es exactamente el núcleo de A. Como A es simétri-
ca, preserva complementos ortogonales. El complemento ortogonal del núcleo
de A es la suma directa ortogonal de los autoespacios de A correspondientes
a los valores propios de A no nulos. Llamemos a ese subespacio W 5 . Enton-
ces la restricción de Q a W , QW , es definida positiva. Una adaptación de la
demostración del primer punto muestra que una forma es definida positiva si
y sólo si todos sus menores principales son positivos, no sólo los principales
líderes. Aplicando esto a QW , se obtiene que todos los menores principales de
la matriz asociada a QW , digamos en una base ortonormal de autovectores
de valores propios no nulos de A, son positivos. Esos menores de QW son los
únicos menores principales no nulos de A! Al revés es lo mismo.

El tercer punto pero de otra manera

Esto es lo queremos probar: An×n es positiva semi definida si y sólo si


todos los menores principales (no sólo los líderes) de A son no negativos.
De nuevo la demostración es por inducciôn sobre n. El caso n = 1 es
trivial: Q(x) = ax2 ≥ 0 ⇔ a ≥ 0 ⇔ det(a) = a ≥ 0.
Con un fin preparatorio, veámos tambien el caso con n = 2. Ahora la
forma asociada a ! "
a b
A=
b c

es Q(x, y) = ax2 + 2bxy + cy 2 . Completemos cuadrados: Si a ̸= 0, entonces

5
W es el subfila de A.
20

Q(x, y) = ax2 + 2bxy + cy 2


= a(x2 + 2b/axy + c/ay 2 )
= a (x + b/ay)2 + (ac − b2 )y 2/a2
, -

Ahora si Q(x, y) ≥ 0 para todo x, y ∈ R, en particular para y = 0 se tiene


Q(x, y) = ax2 ≥ 0 para todo x ∈ R, con lo cual a > 0; haciendo x = 0, se
tiene igualmente c ≥ 0; además si hacemos x tal que x + b/ay = 0, tenemos
Q(x, y) = a [(ac − b2 )y 2 /a2 ] ≥ 0 para todo y ∈ R. De ahí que ac − b2 ≥ 0.
Y al revés, si a > 0 y ac − b2 ≥ 0, por las cuentas de arriba queda claro
que Q(x, y) ≥ 0 para todo x, y ∈ R.
Si a = 0, entonces c ̸= 0; caso contrario Q(x, y) = 2bxy ≥ 0, para todo
x, y ∈ R, que sólo es posible cuando b = 0, osea si A = 0, en cuyo caso el
teorema es cierto trivialmente. En este caso completamos cuadrados como en
el caso anterior:

Q(x, y) = 2bxy + cy 2
= c 2b/cxy + y 2
, -

= c (y + b/cx)2 − b2 /c2 x2
, -

Ahora si Q(x, y) ≥ 0 para todo x, y ∈ R, en particular para x = 0 se tiene


Q(x, y) = cy 2 ≥ 0 para todo y ∈ R, con lo cual c > 0. Además, si se toma y
tal que y + b/cx = 0, se tiene Q(x, y) = c [0 − b2 /c2 x2 ] ≥ 0 para todo x ∈ R,
que es posible sólo si b = 0. Así
! "
0 0
A=
0 c
con c > 0, que tiene todos sus menores principales no negativos.
Y al revés, si a = 0, c > 0 y ac − b2 ≥ 0, entonces debe ser b = 0 y por lo
tanto Q(x, y) = cy 2 ≥ 0. Listo el caso n = 2.
Ejercicio 0.20. Usando los casos n = 1, 2, probar el caso n = 3. Si alguna
parte le resultara compleja, fíjese en la demostración que sigue especializán-
dola al caso n = 3.
Antes de continuar con la demostración, veámos un resultado que esta-
blece la relación entre los menores principales de la forma dada y de la forma
obtenida a partir de la anterior permutando las variables entre sí.
0.3. FORMAS CUADRÁTICAS 21

Lema 0.2. Sea A simétrica y P la matriz ortogonal obtenida de permutar


las columnas de la matriz identidad de acuerdo a la permutación σ de n
letras. Entonces, salvo permutación por σ, los menores principales de A son
los mismos que los de P T AP .
Es importante observar que los menores principales líderes de A pueden
no ser líderes de P T AP .
Demostración del Lema. Para obtener la relación deseada entre los
menores principales de A y P T AP vamos a ver algo más fuerte: veremos que
las submatrices principales quedan permutadas por σ.
Denotemos por A(I) la submatriz principal de A obtenida omitiendo
las mismas filas y columnas de A con índices fuera de I = {i1 , . . . , ik } ⊂
{1, . . . , n}. Denotemos tambien por σ(I) = {σ(i1 ), . . . , σ(ik )}, la imágen en
ese orden del conjunto I por σ.
Una simple cuenta matricial muestra que, si EI es la matriz n × k con
entradas matriciales (EI )r s = δr is (EI es la matriz n × k cuyas columnas
son los vectores ei1 , . . . , eik de la base canónica), entonces multiplicación a
derecha por EI omite las columnas con índices fuera de I; y multiplicación a
izquierda por EIT omite las filas fuera de I.
Entonces
P EI = Eσ(I)
tiene entradas (EI )r s = δr σis y

(P T AP )(I) = EIT P T AP EI = (P EI )T A(P EI ) = EσI


T
AEσI = A(σI)

En particular,
det((P T AP )(I) ) = det(A(σI) )
como queríamos probar. Listo el Lema.
Paso inductivo. Asuma que toda matriz A simétrica de tamaño (n −
1) × (n − 1) o menor es semidefinida positiva si y sólo si todos sus menores
principales son no negativos. Queremos ver que lo mismo vale para toda A
simétrica de tamaño n × n.
Supóngase que An×n es semidefinida positiva. En particular, haciendo
cero la variable xi en X T AX ≥ 0, se tiene que la submatriz principal A(i) de
tamaño (n − 1) × (n − 1) obtenida omitiendo la fila y la columna i-ésima de A
es semidefinida positiva, para cualquier 1 ≤ i ≤ n. Por Hipótesis inductiva,
todo menor principal de A(i) es no negativo, para 1 ≤ i ≤ n. Así todos los
menores principales de orden inferior a n son no negativos. Sólo falta ver que
22

el determinante de A mismo es no negativo. Para ver esto, tome P ortogonal


que diagonalice a A, digamos que λ1 , . . . , λn son los valores propios de A.
Entonces, haciendo el cambio de varialbles X = P U se tiene

0 ≤ X T AX = U T P T AP U = λ1 u21 + · · · + λn u2n

para todo U ∈ Rn si y sólo si cada valor propio de A es no negativo. Luego,

det(A) = det(P T AP ) = λ1 . . . λn ≥ 0

Así A tiene todos sus menores principales no negativos.


Ahora supóngase al revés: supóngase que A es simétrica n×n tal que todos
sus menores principales son no negativos. Se desea ver que A es semidefinida
positiva.
Si todas las entradas de la diagonal de A son cero, como los menores
principales de orden dos son no negativos, se tiene que
! "
2 o ai j
−ai j = det ≥0
aij 0

de donde aij = 0, para todo i, j; así, A es nula y es trivialmente semidefinida


positiva.
Entonces podemos asumir que existe aii ̸= 0. Sea P la matriz permutación
que permuta 1 con i y fija el resto. Entonces la matriz A′ = P T AP tiene
a′11 = aii ̸= 0 y los menores principales de A′ son los de A salvo permutación
por el lema 0.2. Como los menores principales de A son no negativos, en
particular a′11 = aii > 0. Podemos entonces asumir que A tiene a11 > 0.
Ahora hacemos operaciones elementales simultáneamente por fila y columna
sobre A:
1 0 a a 1 −1/a11 a 1 0
× 11 × =
−1/a11 a In−1 aT An−1 0 In−1 0 −1/a11 aT a + An−1

Denotemos por B = −1/a11 aT a + An−1 .


Afirmación: B tiene todos sus menores principales no negativos.
Esto se desprende de dos hechos. Primero, An−1 tiene todos sus menores
principales no negativos por ser sí misma una submatriz principal de A.
Segundo, los menores principales de B están relacionados con los de An−1
así:
a11 det(B (I) ) = det(A(I∪{1}) ) (3)
0.3. FORMAS CUADRÁTICAS 23

Esto último se sigue de las cuentas

a11 0 a11 0
(I) = T
0 B 0 EI BEI

1 0 1 0 a a 1 −1/a11 a 1 0
= T × × 11T × ×
0 EI −1/a11 a In−1 a An−1 0 In−1 0 EI
1 0 a11 a 1 −1/a11 aEI
= T × ×
−1/a11 EIT aT EI T
a An−1 0 EI
1 0 1 0 1 0 1 −1/a11 aEI
= × T ×A× ×
−1/a11 EIT aT Ik×k 0 EI 0 EI 0 Ik×k
1 0 1 −1/a11 aEI
= × A(I∪{1}) ×
−1/a11 EIT aT Ik×k 0 Ik×k
Tomando determinantes y observando que las matrices triangulares de los
extremos en la última identidad no cuentan a los fines del determinante, se
obtiene la identidad 3.
De la identidad 3 y como A tiene todos sus menores principales no ne-
gativos, se sigue que B(n−1)×(n−1) tiene todos sus menores no negativos. Por
hipótesis inductiva, B es semidefinida positiva. Como además a11 > 0, la
matriz
a11 0
= M T AM
0 B
es positiva semidefinida, donde

1 −1/a11 a
M :=
0 In−1

Pero entonces A es psitiva semidefinida. Q.E.D.6


Del teorema de la signatura y el lema 0.2 se siguen los siguientes corolarios

Corolario 0.1. Si a una forma cuadrática se le permutan las variables, su


signatura no cambia.

Corolario 0.2. 1. Una matriz simétrica es positiva definida si y sólo si


todos sus menores principales son positivos.
6
Quod Erat Demostrandum. Lo cual queda demostrado en Latín.
24

2. Una matriz simétrica es negativa definida si y sólo si todos sus menores


principales de orden par son positivos y todos sus menores principales
de orden impar son negativos.
De la demostración del teorema 0.3 se obtiene el siguiente
Corolario 0.3. Sea A simétrica. Entonces
1. A es positiva (negativa) definida si y sólo si existe M triangular supe-
rior con unos en la diagonal tal que M T AM es diagonal con elementos
positivos (negativos) en la diagonal.
2. A es semidefinida positiva (negativa) si y sólo si existe una matriz M
invertible producto de triangulares superiores con unos en la diagonal
y matrices permutación tal que M T AM es diagonal con elementos no
negativos (no positivos) en la diagonal.
Este último corolario es particularmente útil a la hora de hacer cálculos
para determinar la signatura de una forma. Si una matriz es definida, es
posible hacer operaciones elementales simultáneas por fila y columna que
diagonalizan la matriz. La signatura se lee de los signos en la diagonal. Si es
semidefinida, tal vez sean necesarias permutaciones entre las filas y columnas
además de las operaciones elementales triangulares.

0.3.3. Ejemplos de cálculo


1. Considere la matriz simétrica
⎡ ⎤
1 1 1
A=⎣ 1 2 1 ⎦
1 1 3
Si se realiza la operación a la segunda se le resta la primera y a la
tercera se le resta la primera, resulta
⎡ ⎤ ⎡ ⎤
1 1 1 1 0 0
MAM T = ⎣ 0 1 0 ⎦ × M T = ⎣ 0 1 0 ⎦
0 0 2 0 0 2
donde ⎡ ⎤
1 0 0
M = ⎣ −1 1 0 ⎦
−1 0 1
0.3. FORMAS CUADRÁTICAS 25

es la matriz producto de las matrices elementales necesarias para rea-


lizar las operaciones especificadas.
Unas palabras de advertencia. Este procedimiento no es diagonaliza-
ción por una base ortonormal, es sólo diagonalización por matrices in-
vertibles. La diagonal no necesariamente contiene los autovalores de la
matriz A. Lo que sí es cierto es que la signatura de la forma puede ser
leída directamente de los signos de los elementos diagonales:

signatura(A) = (+, +, +)

En nuestro ejemplo A es positiva definida.

2. Otro más. Considere la matriz simétrica


⎡ ⎤
0 1/2 1/2
B = ⎣ 1/2 0 1/2 ⎦
1/2 1/2 0

Observe que no es posible premultiplicar a izquierda por una matriz M


triangular inferior con unos en la diagonal de manera tal que la primera
columna de MB sea un número distinto de cero en la primera fila y
cero en las restantes. Para lograr un elemento no nulo en la posición
(1, 1), podemos intentar permutar filas y columnas apropiadamente; sin
embargo, permutació de filas, y de columnas por su traspuesta, deja la
matriz B invariante: Por ejemplo, si P1,2 denota la matriz elemental
que permuta la posición uno con la dos, entonces
T
P1,2 BP1,2 =B

Hágase las siguientes operaciones elementales por fila y por columna


por la transpuesta (, y en ese orden): la tercera menos la segunda,
⎡ ⎤
0 1/2 0
M1 BM1T = ⎣ 1/2 0 1/2 ⎦
0 1/2 −1

la tercera menos la primera,


⎡ ⎤
0 1/2 0
M2 M1 BM1T M2T = ⎣ 1/2 0 0 ⎦
0 0 −1
26

la primera mas la segunda,


⎡ ⎤
1 1/2 0
M3 M2 M1 BM1T M2T M3T = ⎣ 1/2 0 0 ⎦
0 0 −1
la segunda menos un medio la primera,
⎡ ⎤
1 0 0
M4 M3 M2 M1 BM1T M2T M3T M4T = ⎣ 0 −1/4 0 ⎦
0 0 −1
Se deja como ejercicio calcular explícitamente las matrices Mk y corro-
borar que su producto no es triangular inferior. Estas cuentas muestran
que la signatura de la forma con matriz B tiene signatura
sig(B) = (+, −, −)
Nuevamente los elementos de la diagonal no son los autovalores de B.
(Ejercicio: Calcule los autovalores de B. Intente para esto el cambio de
variables −1/4u + 1/u y resuelva.)
3. Ejercicio: Diagonalice mediante operaciones elementales por fila y co-
lumna la matriz ⎡ ⎤
1 1 2 4
⎢ 1 1 1 3 ⎥
A=⎢ ⎣ 2 1 0 3 ⎦

4 3 3 10

0.4. Formas Cuadráticas con Restricciones


Ahora la idea es refinar una versión del teorema 0.3, pero para restriccio-
nes de formas cuadráticas a subespacios definidos como conjunto solución de
un sistema homogéneo. Para precisar ideas, considere el problema de deter-
minar la positividad de la forma
Q(X) = X T AX
sujeta a
BX = 0
donde A es simétrica de ordenn y B es una matriz m × n de rango m (caso
contrario, se descartan las filas redundantes de B.)
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 27

Ejercicio 0.21. Estudie la signatura de la forma Q(x, y) = ax2 + 2bxy + cy 2


sujeta a dx + ey = 0, con al menos d o e no nulo.
Veámos un ejemplo que captura toda la generalidad. Considérese la forma
cuadrática

Q(X) = λ1 x21 + · · · + λn x2n


sujeta a

Im×m 0m×(n−m) × X = 0

Las restricciones simplemente dicen que las primeras m variables son cero:
x1 = 0, . . . , xm = 0 y la forma restringida resulta simplemente

Q(0, . . . , 0, xm+1 , . . . , xn ) = λm+1 x2m+1 + · · · + λn x2n

Entonces la forma restringida es positiva definida si y sólo si

λm+1 > 0, . . . , λn > 0

Hay una manera de decir esto en términos de menores. Si H denota la matriz


orlada7 —que significa con guardas— (m + n) × (m + n)

0m×m Im×m 0m×(n−m)


H=
Im×m An×n
0m×(n−m)

donde A es la matriz diagonal con los λ’s en la diagonal y cero fuera. Es fácil
calcular los menores principales de H.

det(H (k) ) = 0, k = 1, 2, . . . , 2m − 1

porque siempre hay una fila cero.

det(H (2m) ) = (−1)m


7
Esta matriz se le ocurre a un ser de este planeta sólo después de pensar en Hessianos,
una suerte de derivada segunda para funciones de varias variables. H es el Hessiano del
Lagrangiano asociado a Q con las restricciones dadas. Más de esto luego.
28

porque

0m×m Im×m
(2m)
det(H ) = det
(m)
Im×m An×n

0m×m Im×m
(2m)
det(H ) = det
Im×m 0m×m

haciendo operaciones elementales por fila del tipo ‘a una fila se le suma un
múltiplo de otra fila’ para hacer cero el bloque de A(k) .
det(H (2m) ) = (−1)m
reordenando m-filas. Y por último, usando la misma propiedad del determi-
nante
det(H (2m+k) ) = (−1)m λm+1 . . . λm+k , k = 1, 2, . . . , (n − m) (4)
Entonces la forma restringida es definida positiva si y sólo si
(−1)m det(H (2m+1) ) > 0, . . . , (−1)m det(H (n) ) > 0
Mire bien esa condición porque vale en general.
De la misma manera, la forma restringida
Q(0, . . . , 0, xm+1 , . . . , xn ) = λm+1 x2m+1 + · · · + λn x2n
es negativa definida si y sólo si
λm+1 < 0, . . . , λn < 0
Esto puede nuevamente expresarse en términos de los últimos n − m menores
principales de H. Por (3), los signos de los λ’s quedan determinados por
sig((−1)m det(H (2m+k) )) = (−1)k , k = 1, 2, . . . , n − m.
Es decir, los signos de los últimos n − m menores deben alternar de ma-
nera que el menor principal más grande, el de orden n, termine con signo
(−1)m (−1)n−m = (−1)n . Esta condición también vale en general deacuerdo
al siguiente teorema.
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 29

Ejercicio 0.22. Revise todas las cuentas del ejemplo anterior en detalle
para el caso de n = 4 y m = 1, 2. Esto lo ayudará a entender porqué los
n − m últimos menores principales de H deciden la signatura de la forma
restringida.

Teorema 0.4. Considérese la forma cuadrática Q(X) = X T AX, donde A


es simétrica, sujeta a la restricción BX = 0, donde Bm×n tiene rango má-
ximo; por coveniencia notacional, asuma que las primeras m columnas de B
son linealmente independientes. Denotemos QW a la forma Q restringida al
subespacio W = {X ∈ Rn | BX = 0} y

0m×m Bm×n
H=
T
Bn×m An×n

Entonces,

1. QW es positiva definida sobre W si y sólo si (−1)m det(H (2m+k) ) > 0


para todo k = 1, 2, . . . , n − m.

2. QW es negativa definida sobre W si y sólo si (−1)m det(H (2m+k) ) tiene


el mismo signo que (−1)k para todo k = 1, 2, . . . , n − m.

3. Si ambas condiciones son violadas por menores principales no nulos,


entonces QW es indefinida.

Notar:

1. El primer punto decide en términos de menores principales cuándo QW


tiene un único 8 mínimo absoluto en el origen.

2. El segundo punto del teorema decide cuándo QW tiene un único máximo


absoluto en el origen sobre todo W 9 .
8
si la forma QW fuese semidefinida positiva, caso que no se estáconsiderando al mo-
mento, entonces existiría la posibilidad de infinitos mínimos absolutos.
9
Aquí es válido el mismo comentario que arriba, es posible que no se cumpla con la
condición del segundo punto del teorema0.4 y sinembargo QW podría resultar semidefinida
negativa, caso en el cual tendría infinitos máximos absolutos sobre W .
30

3. Si en lugar de asumir que las primeras m columnas de B son lineal-


mente independientes, se hubiese asumido B de rango máximo sola-
mente, el enunciado se hubiese complicado porque habría que rastrear
los menores que antes eran principales líderes y ahora son sólo menores
principales; podría haber ocurrido que menores principales líderes son
ahora cero sólo porque B pudiera no tener las primeras m columnas
linealmente independientes.

Ejercicio 0.23. Sea Q(x, y, z) = −x2 + y 2 + z 2 . Pruebe que Q restringida al


subespacio

1. x = 0 es positiva definida.

2. y = 0 es indefinida.

3. y = 0, z = 0 es negativa definida.

Ejercicio 0.24. Considere la misma forma del problema anterior. Decida la


signatura de la forma QW por substitución y usando el teorema 0.4 en el caso
que

1. W = {(x, y, z) ∈ R3 | x + y = 0}
. /x0 1
3 1 1 1 0
2. W = (x, y, z) ∈ R | [ 1 2 1 ] × z = [ 0 ]
y

. /x0 1
3. W = (x, y, z) ∈ R3 | [ 1 1 1 ] × yz = [ 00 ]

Ahora en cada uno de los casos anteriores encuentre una base ortonormal de
W y obtenga la matriz asociada a QW en esa base.

Ejercicio 0.25. Decida la signatura en cada uno de los siguientes casos


usando el teorema 0.4.

1. Q(x, y) = x2 + 2xy + y 2 sujeta a la restricción x + y = 0

2. Q(x, y) = x2 + 2xy − y 2 sujeta a la restricción x − y = 0

3. Q(x, y) = x2 − 2xy + 4y 2 sujeta a la restricción 2x − 3y = 0

4. Q(x1 , x2 , x3 , x4 ) = x21 −x22 −x23 +x24 +x1 x2 +x3 x4 sujeta a las restricciones
x1 + x2 + x3 = 0 y x1 + x2 + x4 = 0
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 31

5. Q(x1 , x2 , x3 ) = x21 − x22 − x23 + x1 x2 + x1 x3 sujeta a las restricciones


x1 + x2 + x3 = 0 y x1 + x2 − x3 = 0

6. Q(x1 , x2 , x3 ) = −x21 − x22 − x23 + x1 x2 + x1 x3 sujeta a las restricciones


x1 + x2 + x3 = 0 y x1 + x2 − x3 = 0

Demostración del Teorema 0.4


Queremos caracterizar la signatura de la forma

Q(X) = X T AX
(5)
sujeto a BX = 0

La idea es usar las restricciones para calcular explícitamente la forma res-


tringida QW para luego comprobar que los menores principales de la matriz
de la forma restringida se corresponden con menores principales de la ma-
triz H orlada. Usamos técnicas similares a las usadas en la demostración del
teorema 0.3.

1er. Paso
Si cambiamos B por su reducida y escalonada RB el subespacio W no
cambia. Como se asumió que B tiene rango máximo, las m columnas de
RB donde aparecen los pivotes forman por sí solas la matriz identidad m ×
m. Esas columnas de RB pueden no ser las m primeras, pero es posible
reordenar las variables de X mediante multiplicación a izquierda por una
matriz permutación P de manera tal que la matriz RB P tiene la identidad
m × m en sus primeras m columnas. Entonces podemos asumir sin pérdida
de generalidad que la matriz que define al subespacio W tiene la forma

Im×m Cm×(n−m)

No olvide que el teorema ha sido ennunciado asumiendo esta forma para B.

2do. Paso
Con el objeto de calcular QW explícitamente, vamos a despejar las varia-
bles con pivotes en términos de las variables libres para luego substituirlas
32

en la forma Q. Parta X = (X1 , X2 ) ∈ Rm × Rn−m en dos componentes.


Entonces, la restricción sobre X

X1
Im×m Cm×(n−m) × =0
X2

está forzando
X1 = −CX2
10
Ahora substituímos en la forma Q. Para llevar a cabo estas cuentas es
conveniente escribir A en bloques que se correspondan con la partición de X
en (X1 , X2 ). Escribimos

QW (X2 ) = Q(X1 , X2 ) = Q(−CX2 , X2 )

A1 E ⎡ ⎤
−CX2
= [−X2T C T , X2T ] × ×⎣ ⎦
X2
E T A2

QW (X2 ) = −X2T C T A1 (−C)X2 − X2T C T EX2 − X2T E T CX2 + X2T A2 X2

Para finalmente obtener la forma restringida

QW (X2 ) = X2T (C T A1 C − C T E − E T C + A2 )X2 (6)


Denote la matriz entre paréntesis AW , la matriz de QW .

3er. Paso
Pregunta:¿Qué relación existe entre cualquier menor principal de AW y
los de H?
10
Todo lo que esto dice es que W está parametrizado por los pares de la forma
(−CX2 , X2 ) para X2 ∈ Rn−m arbitrario.
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 33

Sean I = (i1 , . . . , ir ) las filas y columnas que se omiten de AW para


formar la submatriz principal AIW de tamaño k×k (k = n−m−r.) Denotemos

CI = matriz C con las columnas I omitidas

EI = matriz E con las columnas I omitidas

Entonces una cuenta simple que dejamos como ejercicio muestra que

AIW = CIT AI1 CI − CIT EI − EIT CI + AI2

Ahora si H I denota la matriz (2m + k) × (2m + k) obtenida a partir


de H omitiendo las filas y columnas correspondientes a los índices (2m +
i1 , . . . , 2m + ir ), entonces

0m×m Im×m (CI )m×k

HI = Im×m A1 (EI )m×k

(CIT )k×m (EIT )k×m A2

Calculamos detH I usando operaciones elementales por fila y columna que


dejan al determinante invariante: (omitimos el término det) multiplicando a
derecha por

I 0 0

0 I −CI ,

0 0 I
34

0 I CI 0 I 0

HI = I A1 EI → I A1 −A1 CI + EI

CIT EIT AI2 CIT EIT −EIT CI + AI2

multiplicando a izquierda por

I 0 0

−A1 I 0 ,

−EIT 0 I

0 I 0

→ I 0 −A1 CI + EI

CIT 0 −EIT CI + AI2


0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 35

multiplicando a izquierda nuevamente por

I 0 0

0 I 0 ,

0 −CIT I

y multiplicando a derecha por

I 0 A1 CI − EI

0 I 0 ,

0 0 I

se obtiene

0 I

I 0 0

0 0 AIW

Entonces
(−1)m det H I = det AIW
Recuerde esta identidad porque explica la conexión entre los menores de la
forma restringida y los menores de la matriz orlada.
36

4to. Paso
Use el teorema de la signatura para formas y obtenga los enunciados que
queremos probar.Q.E.D.

Corolario 0.4. Con la notación como en la demostración del teorema ante-


rior,

1. La forma restringida QW es positiva semidefinida si y sólo si (−1)m det H I ≥


0 para todo I.

2. La forma restringida es negativa semidefinida si y sólo si (−1)m det H I


tiene signo (−1)k , para todo I = (i1 , . . . , ir )(los índices de las últimas
n − m filas y columnas de H que se omiten), donde k = n − m − r.

You might also like