You are on page 1of 275

Apuntes de

MÉTODOS MATEMÁTICOS

Curso 2011-2012
Eusebio Corbacho, Ricardo Vidal y Alberto Castejón

February 1, 2012
2
Contenido

Presentación 7

1 Prerrequisitos 9
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Relaciones de equivalencia y de orden . . . . . . . . . . . . . 11
1.3 Semigrupos, grupos, anillos y cuerpos . . . . . . . . . . . . . 13
1.4 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . 18
1.5 Convexidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6 Espacios métricos y espacios normados . . . . . . . . . . . . . 26
1.7 Espacios de Banach . . . . . . . . . . . . . . . . . . . . . . . 39
1.8 Bases de Schauder . . . . . . . . . . . . . . . . . . . . . . . . 48
1.9 Teoremas de Stone-Weierstrass . . . . . . . . . . . . . . . . . 54
1.10 Espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . 65
1.11 Cálculo diferencial . . . . . . . . . . . . . . . . . . . . . . . . 79
1.12 Espacios de medida . . . . . . . . . . . . . . . . . . . . . . . . 84

2 Teorı́a de grafos 93
2.1 Núcleos, matrices y aplicaciones lineales . . . . . . . . . . . . 93
2.2 Cuasimétricas, métricas y núcleos generadores . . . . . . . . . 99
2.3 Relaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
2.4 Digrafos y grafos . . . . . . . . . . . . . . . . . . . . . . . . . 112
2.5 Cuasimétricas y métricas en digrafos y grafos . . . . . . . . . 117
2.6 Problemas modelizados en digrafos y grafos. . . . . . . . . . . 125
2.6.1 Redes hidraúlicas . . . . . . . . . . . . . . . . . . . . . 126
2.6.2 Redes eléctricas . . . . . . . . . . . . . . . . . . . . . 126
2.6.3 Problemas de Dirichlet en grafos . . . . . . . . . . . . 128
2.6.4 Congestiones . . . . . . . . . . . . . . . . . . . . . . . 135
2.7 Prácticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

3 Problemas lineales. 141


3.1 El problema lineal inverso . . . . . . . . . . . . . . . . . . . . 141
3.2 Métodos directos . . . . . . . . . . . . . . . . . . . . . . . . . 142
3.2.1 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . 142

3
4 CONTENIDO

3.2.2 Eliminación de Gauss . . . . . . . . . . . . . . . . . . 142


3.2.3 Factorización LU . . . . . . . . . . . . . . . . . . . . . 145
3.2.7 Factorización de Cholesky . . . . . . . . . . . . . . . . 147
3.2.9 Factorización QR . . . . . . . . . . . . . . . . . . . . . 148
3.3 Condicionamiento del problema lineal inverso . . . . . . . . . 149
3.4 Métodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . 152
3.4.5 Método de Jacobi . . . . . . . . . . . . . . . . . . . . 156
3.4.6 Método de Gauss-Seidel . . . . . . . . . . . . . . . . . 156
3.4.7 Método de relajación . . . . . . . . . . . . . . . . . . . 157
3.5 Método del gradiente conjugado . . . . . . . . . . . . . . . . . 157
3.6 Ejemplos de problemas lineales inversos . . . . . . . . . . . . 159
3.7 Prácticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

4 Problemas espectrales 169


4.1 Ejemplos tı́picos de problemas espectrales . . . . . . . . . . . 170
4.2 Teorı́a espectral finito dimensional . . . . . . . . . . . . . . . 173
4.2.6 Método de la potencia . . . . . . . . . . . . . . . . . . 178
4.3 Teorı́a espectral en espacios de Hilbert . . . . . . . . . . . . . 179
4.4 Problemas de Sturm-Liouville . . . . . . . . . . . . . . . . . . 187
4.5 Prácticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

5 Problemas no lineales 207


5.1 Métodos directos, de bisección y de punto fijo . . . . . . . . . 207
5.2 Métodos de linealización . . . . . . . . . . . . . . . . . . . . . 210
5.2.1 Método de Newton . . . . . . . . . . . . . . . . . . . . 210
5.2.3 Método de elementos finitos . . . . . . . . . . . . . . . 212
5.2.4 Método de diferencias finitas . . . . . . . . . . . . . . 215
5.2.5 Antitransformada rápida de Fourier . . . . . . . . . . 217
5.3 Prácticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

6 Aproximación no hilbertiana 225


6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
6.2 Mejor aproximación en (C[a, b], k k∞) . . . . . . . . . . . . . . 229
6.2.3 Subespacios de Chebychev . . . . . . . . . . . . . . . . 231
6.2.8 Caracterización de la mejor aproximación . . . . . . . 233
6.2.15 El algoritmo de Remez . . . . . . . . . . . . . . . . . . 238
6.3 Proyecciones versus Mejor Aproximación . . . . . . . . . . . . 239
6.3.1 Proyecciones interpolatorias . . . . . . . . . . . . . . . 239
6.3.2 Proyecciones ortogonales . . . . . . . . . . . . . . . . . 241
6.4 Prácticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
CONTENIDO 5

7 Métodos numéricos para EEDD 245


7.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
7.2 Métodos de un paso . . . . . . . . . . . . . . . . . . . . . . . 256
7.2.7 Método de Euler . . . . . . . . . . . . . . . . . . . . . 260
7.2.8 Métodos de Taylor . . . . . . . . . . . . . . . . . . . . 260
7.2.9 Métodos de Runge-Kutta . . . . . . . . . . . . . . . . 261
7.3 Métodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . 263
7.3.1 Métodos de Adams-Bashforth . . . . . . . . . . . . . . 263
7.3.2 Métodos de Adams-Moulton . . . . . . . . . . . . . . 264
7.4 Prácticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265

Bibliografı́a 269
Presentación

Estas notas recogen la información teórica y práctica ofrecida a los alumnos


de la asignatura de Métodos Matemáticos del 4o curso de las titulaciones de
Ingenierı́a Industrial e Ingenierı́a Electrónica y Automática de la Universidad
de Vigo durante las horas de encargo docente asignadas al Departamento de
Matemática Aplicada I. Se han seguido fielmente las notaciones y el estilo
empleados en las clases para facilitar la labor personal de estudio a quienes
han asistido a ellas.

El texto se completa con la carpeta Modus de programas de MATLAB


que ha sido utilizada en el aula informática para obtener las soluciones
de los ejercicios propuestos. Nos parece que una atenta lectura de estos
programas, hasta su entendimiento, no sólo puede servir de repaso de las
cuestiones teóricas esenciales sino que puede proporcionar un buen método
de consolidación de ideas y ser un acicate para adquirir y programar nuevos
conocimientos. Esperamos que dicha carpeta, personalizada con el añadido
de los comentarios y aclaraciones que cada cual estime conveniente en cada
programa, sea una herramienta útil para el alumno, incluso, tras superar la
asignatura.

Hemos pretendido, ante todo, convencer al lector de que es más práctico


entender bien las grandes ideas, las definiciones y los enunciados de los teore-
mas, y programar su uso para obtener las soluciones de problemas concretos,
que repetir ejercicios de examen hasta adquirir la habilidad de resolverlos,
descuidando la perspectiva general que da el conocimiento abstracto de las
cosas. Programar, nos parece un buen entrenamiento para ese ir y venir de
lo concreto a lo abstracto que constituirá la esencia del ejercicio profesional
del técnico superior. Cuando tengamos situado un problema en el marco
teórico que determina la existencia y tipologı́a de sus soluciones, podremos
dar las órdenes oportunas para organizar los cálculos y obtener la solución
particular adecuada en los términos que más interesen: numéricos o gráficos,
con mayor o menor precisión, con menor o mayor economı́a. Animamos a
los lectores a que lo intenten y deseamos ser una ayuda para que lo consigan.

7
8 CONTENIDO
Tema 1

Prerrequisitos

1.1 Introducción
Desde finales del siglo XIX la matemática sigue el método axiomático deduc-
tivo como sistema de trabajo en todas sus parcelas. Como si quisiera cons-
truir los juegos reunidos educativos del mundo, diseña diferentes tableros,
donde los avances se producen bajo reglas estrictas que los jugadores deben
conocer antes de empezar la partida. Mas tarde, las tácticas, estrategias y
conclusiones de esos ejercicios de la razón, inocuos y de bajo coste, se apli-
can a diversos aspectos de la realidad fı́sica, técnica, económica, biológica,
sociológica, lingüı́stica o filosófica y se observa que la capacidad predictiva
de la realidad es sorprendente.

Cada tablero es un conjunto finito o infinito X, cuyos elementos pueden


ser los números naturales, los enteros, los racionales, los reales o los comple-
jos; las n-tuplas de esos números; los polı́gonos, los poliedros o los politopos
de cualquier espacio; las funciones reales, complejas o valoradas en cualquier
conjunto V y definidas en cualquier dominio D; los signos de un alfabeto; los
habitantes de un pais; los enfermos de un hospital; los bienes disponibles en
una economı́a, etc., etc. Sobre cada tablero se fijan axiomáticamente, rela-
ciones, operaciones o familias de subconjuntos que determinan su estructura
ordinal, algebraica, topológica o de medida.

Este proceso de rigorización de la matemática recibió el extraordinario im-


pulso de Frege, Dedekind y Cantor para fundamentar la aritmética en la
teorı́a de conjuntos y, más tarde, sustentar el álgebra y el análisis en la base
firme de la aritmética. Dedekind, por ejemplo, comienza su artı́culo ¿Qué
son y para que sirven los números? de la siguiente manera:

En el mundo hay cosas y para hablar más cómodamente de ellas cuando las
hacemos objeto de nuestro pensamiento, las designamos por letras minúsculas

9
10 TEMA 1. PRERREQUISITOS

x, y, z, · · · . Si todo lo que podemos pensar de la cosa x lo podemos pensar


de y y todo lo que podemos pensar de la cosa y lo podemos pensar de x,
escribimos x = y o y = x.
Sucede con frecuencia que distintas cosas x, y, z, · · · , consideradas por cual-
quier motivo bajo un mismo punto de vista, son reunidas mentalmente para
constituir una clase A. Escribimos, entonces, A = {x, y, z, · · · }. Cada
cosa constituyente de una clase es un elemento de la misma. Ası́, x es
elemento de A. También se dice que x pertenece a A y se escribe x ∈ A.
Si todos los elementos de la clase A son elementos de la clase B se dice que
A es una subclase de B o que A está contenida en B y se escribe A ⊂ B.
Si A ⊂ B tanto puede suceder que B ⊂ A como no suceder. En el primer
caso, ambas clases son la misma cosa y, por tanto, A = B o B = A. En el
segundo caso decimos que A es una subclase propia de B o que el contenido
A ⊂ B es estricto.

Las cosas tienen propiedades que expresamos en forma de proposiciones


como, por ejemplo, x = y, x ∈ A o A ⊂ B. En general, las desig-
namos por letras p, q, · · · y, ası́, escribimos
• p[x] si y sólo si la cosa x cumple la proposición p.

• p ∨ q si alguna de las dos proposiciones es verdadera.

• p ∧ q si ambas proposiciones son verdaderas.

• ¬p si y sólo si p es falsa. En particular,

¬(x = y) se escribe x 6= y
¬(x ∈ A) se escribe x ∈
/A
¬(A ⊂ B) se escribe A 6⊂ B

• p ⇒ q si y sólo si (¬p) ∨ q.

• p ⇔ q si y sólo si (p ⇒ q) ∧ (q ⇒ p).
Para establecer el alcance de una proposición utilizamos los cuantificadores:
∃ existe, ∃! existe un único y ∀ para todo.

Ya en los primeros años del siglo XX, Russell apuntó el peligro que se
puede derivar de suponer que para cualquier propiedad p existe una clase
A(p) constituida por todas las cosas que tienen dicha propiedad: La clase
de todos los hombres, no es un hombre, luego hay clases que no pertenecen
a sı́ mismas. Si r es la propiedad que tienen las clases que no pertenecen a
sı́ mismas e intentamos responder a la pregunta de si A(r) cumple r o ¬r,
caemos en la siguiente antinomia:

r[A(r)] ⇒ A(r) ∈ A(r) ⇒ ¬r[A(r)] ⇒ A(r) ∈


/ A(r) ⇒ r[A(r)]
1.2. RELACIONES DE EQUIVALENCIA Y DE ORDEN 11

Zermelo observó que las propiedades r y ¬r se refieren a clases que pertenecen


a clases y, si la clase A(r) no fuera de este tipo, la pregunta de si cumple r o
¬r carecerı́a de sentido. Ası́ llegó a la necesidad de distinguir las clases que
pertenecen a otras clases y reservó para ellas el nombre de conjuntos y las
letras mayúsculas no cursivas A, B, · · · X, Y, · · · para designarlas. Cualquier
propiedad p tiene su clase asociada A(p) pero no siempre esta clase es un
conjunto.

Bernays, Gödel y von Neumann establecieron once axiomas que fijan


la obtención de nuevas clases a partir de clases ya conocidas y determinan
si los resultados son conjuntos o no lo son. La axiomática BGN (ver, por
ejemplo,[26]) constituye una guı́a segura para la manipulación de clases y
conjuntos que ha disipado la antinomia de Russell y, hasta ahora, no ha gen-
erado otras nuevas. El undécimo axioma BGN es el axioma de elección
y postula que

Dada una familia de conjuntos no vacı́os y disjuntos dos a dos {Ai | i ∈ I},
existe un conjunto E que consta exactamente de un elemento de cada con-
junto Ai .

Este axioma ha sido el más contestado de todo el sistema BGN, sin em-
bargo, Gödel probó en 1938 que si la teorı́a basada en los 10 primeros
axiomas es consistente, también lo es la basada en los 11 axiomas, y Cohen
probó en 1963 que el axioma de elección no se deriva de los otros 10. Ası́
pues, nosotros usaremos el derecho que tenemos a un universo matemático
donde poder elegir sin restricciones.

1.2 Relaciones de equivalencia y de orden


En cualquier conjunto X la axiomática BGN nos permite considerar el con-
junto de sus pares ordenados X × X y el conjunto de todos sus subconjuntos
P(X). En consecuencia, también podemos considerar el conjunto P(X × X)
de todos los subconjuntos de X × X.
Cada R ∈ P(X × X) tiene su traspuesto >(R) := {(y, x) | (x, y) ∈ R} y,
ası́, induce en X las relaciones binarias R y R> definidas como sigue:

x R y ⇔ (x, y) ∈ R ⇔ (y, x) ∈ >(R) ⇔ y R> x.

En particular, ∆ = {(x, x) | x ∈ X} induce la relación de igualdad en X. El


par (X, R) indica que en el conjunto X consideramos la relación R. Diremos
que la relación R es
1. reflexiva si ∆ ⊂ R.

2. simétrica si R = >(R).
12 TEMA 1. PRERREQUISITOS

3. antisimétrica si R ∩ >(R) = ∆.
4. transitiva si (x, z) ∈ R ∧ (z, y) ∈ R ⇒ (x, y) ∈ R.
5. total si R ∪ >(R) = X × X.
6. de equivalencia si es reflexiva, simétrica y transitiva. Se suele de-
notar ∼.
7. de orden si es reflexiva, antisimétrica y transitiva. Se suele denotar
 y se suele escribir x ≺ y en lugar de (x  y ∧ x 6= y).
En (X, ∼) cada elemento x ∈ X genera su clase de equivalencia
[x] = {x0 ∈ X | x0 ∼ x}
y ello origina una partición en X puesto que ∀x, y ∈ X tenemos la disyuntiva
[x] ∩ [y] = ∅ o [x] = [y].
El conjunto {[x] | x ∈ X} es el conjunto cociente X/ ∼.

En un conjunto ordenado (X, ) son de interés los siguientes conceptos:


1. Un elemento m ∈ X es maximal si m  x ⇒ x  m.
2. Un subconjunto C ⊂ X es una cadena si (C, ) es totalmente orde-
nado.
3. Un elemento s ∈ X es cota superior de A ⊂ X si x  s ∀x ∈ A.
4. Un elemento i ∈ X es cota inferior de A ⊂ X si i  x ∀x ∈ A.
5. Un elemento S ∈ X es supremo de A ⊂ X si es cota superior de A y
S  s para toda otra s que sea cota superior de A. La existencia de
un supremo de A implica su unicidad. Lo designamos sup A.
6. Un elemento I ∈ X es ı́nfimo de A ⊂ X si es cota inferior de A y
i  I para toda otra i que sea cota inferior de A.. La existencia de un
ı́nfimo de A implica su unicidad. Lo designamos inf A.
En un conjunto ordenado (X, ), dado un A ⊂ X, interesa averiguar si exite
o no el sup A o el inf A y, en caso afirmativo, si pertenecen o no al conjunto
A. Cuando las dos respuestas son afirmativas hablamos del máximo de A o
del mı́nimo de A y se designan max A y min A.

En un conjunto totalmente ordenado (X, ) decimos que A ⊂ X tiene


primer elemento si existe un p ∈ A tal que p  x ∀x ∈ A. Si todo
subconjunto no vacı́o de X tiene primer elemento, se dice que (X, ) está
bien ordenenado.

Los dos lemas siguientes se deducen del axioma de elección (ver [26]).
1.3. SEMIGRUPOS, GRUPOS, ANILLOS Y CUERPOS 13

Lema 1.2.1 (Zorn)


En un conjunto ordenado (X, ) en el que toda cadena tiene cota superior,
existe al menos un elemento maximal. ♦

Lema 1.2.2 (Zermelo)


En un conjunto cualquiera X se puede definir un orden total  tal que
(X, ) está bien ordenado. ♦

1.3 Semigrupos, grupos, anillos y cuerpos


Una aplicación
∗: X ×X → X
(x, y) 7→ x∗y
se llama operación interna en X. El conjunto X dotado de la operación
∗ se denota (X, ∗) y se llama magma. Un magma (X, ∗) se dice

1. asociativo si (x ∗ y) ∗ z = x ∗ (y ∗ z) ∀x, y, z ∈ X

2. conmutativo si x ∗ y = y ∗ x ∀x, y ∈ X

3. l-cancelativo si x ∗ y = x ∗ z ⇒ y = z ∀x, y, z ∈ X

4. r-cancelativo si x ∗ y = z ∗ y ⇒ x = z ∀x, y, z ∈ X

5. cancelativo si es l-cancelativo y r-cancelativo.

6. que tiene elemento absorbente a si a∗x = x∗a = a ∀x ∈ X

7. que tiene elemento neutro θ si θ∗x = x∗θ = x ∀x ∈ X

8. que tiene inversos si ∀x ∈ X ∃x−1 ∈ X tal que

x ∗ x−1 = x−1 ∗ x = θ

Un magma asociativo se llama semigrupo. Si, además, es conmutativo, el


semigrupo se dice abeliano. Un semigrupo con elemento neutro θ es un
monoide y se denota (X, ∗, θ). Si el monoide tiene inversos se llama grupo
y puede ser abeliano o no abeliano.

Teorema 1.3.1
Todo semigrupo abeliano cancelativo (X, ∗) se puede sumergir en un grupo
abeliano.
14 TEMA 1. PRERREQUISITOS

Demostración:
En X × X podemos definir la relación de equivalencia

(x, y) ∼ (x0 , y 0 ) ⇔ x ∗ y 0 = x0 ∗ y

Claramente, es reflexiva y simétrica y, además, es transitiva:


( (
(x, y) ∼ (x0 , y 0 ) x ∗ y 0 = x0 ∗ y
⇒ ⇒ x ∗ y 0 ∗ x0 ∗ y 00 = x0 ∗ y ∗ x00 ∗ y 0
(x0 , y 0 ) ∼ (x00 , y 00) x0 ∗ y 00 = x00 ∗ y 0

y, por ser ∗ conmutativa y cancelativa, x ∗ y 00 = x00 ∗ y.



En el conjunto cociente X := (X × X)/ ∼ podemos definir la operación
interna
∼ ∼ ∼

∗ : X×X → X
([x1 , y1 ], [x2, y2 ]) 7 → [x1 ∗ x2 , y1 ∗ y2 ]
pues los resultados no dependen de los representantes elegidos:
( (
(x1 , y1 ) ∼ (x01 , y10 ) x1 ∗ y10 = x01 ∗ y1
0 0
⇒ 0 0
⇒ (x1 ∗x2 , y1 ∗y2 ) ∼ (x01 ∗x02 , y10 ∗y20 )
(x2 , y2 ) ∼ (x2 , y2 ) x2 ∗ y2 = x2 ∗ y2

(X, ,
∗ ∆) es un grupo abeliano pues la operación ∗ conserva la asociativi-
dad y conmutatividad que ya poseı́a ∗, la diagonal ∆ es el elemento neutro
y cada elemento [x, y] tiene su inverso [y, x] que operado con él da el neutro:

[x, y] [y,
∗ x] = [x ∗ y, y ∗ x] = ∆. Fijado un a ∈ X, la aplicación fa : X → X,
x 7→ [x, a], es inyectiva y fa (X) es un semigrupo identificable con X y con-

tenido en X. Todo monoide abeliano cancelativo (X, ∗, θ) está contenido

canónicamente en el grupo abeliano (X, ,
∗ ∆), si tomamos a = θ. ♦

Sean (X, ∗) y (X, ) dos magmas. Se dice que  es

1. l-distributiva con ∗ si x(y ∗z) = (xy)∗(xz) ∀x, y, z ∈ X

2. r-distributiva con ∗ si (x∗y)z = (xz)∗(y z) ∀x, y, z ∈ X

3. distributiva con ∗ si es l-distributiva y r-distributiva.

X dotado de las operaciones ∗ y  se denota (X, ∗, ). Cuando (X, ∗, θ) es


grupo abeliano y  es asociativa y distributiva con ∗, se llama anillo y se
denota (X, ∗, θ, ). Un anillo es abeliano si  es conmutativa, es unitario si
 tiene elemento neutro e y es ı́ntegro si x  y = θ ⇒ (x = θ ∨ y = θ). Un
anillo unitario (X, ∗, θ, , e) tal que (X \ {θ}, , e) es grupo, se llama cuerpo
y puede ser abeliano o no abeliano.
1.3. SEMIGRUPOS, GRUPOS, ANILLOS Y CUERPOS 15

Teorema 1.3.2
Todo anillo abeliano e ı́ntegro (X, ∗, θ, ) se puede sumergir en un cuerpo
de fracciones.
Demostración:

1. Si designamos X ? = X \{θ} y definimos en X ×X ? la relación binaria

(x, y) ∼ (x0 , y 0 ) ⇔ x  y 0 = x0  y,

podemos probar (como en el teorema 1.3.1) que es una relación de


equivalencia puesto que  es conmutativa y cancelativa para elementos
distintos de θ por ser ı́ntegro el anillo.

2. El cociente F(X) := (X × X ? )/ ∼, cuyos elementos son las clases de


equivalencia
x
= {(x0 , y 0 ) | (x0, y 0 ) ∼ (x, y)},
y
tiene los elementos distinguidos
θ y
0 := y 1 := con y ∈ X ? .
y y
En él podemos definir de modo consistente las operaciones internas


∗ : F(X) × F(X) → F(X)
 
x1 x2 x1  y2 ∗ x2  y1
, 7→
y1 y2 y1  y2
y


 : F(X) × F(X) → F(X)
 
x1 x2 x1  x2
, 7→
y1 y2 y1  y2

pues los resultados no dependen de los representantes. Además, es fácil


ver que (F(X), , ∗ 0, )
 es anillo abeliano y (F(X) \ {0}, ,  1)
es grupo abeliano. Por tanto, (F(X), , ∗ 0, ,
 1) es un cuerpo abeliano
al que llamaremos cuerpo de fracciones de (X, ∗, θ, ).
x
Fijado un y ∈ X ? , la aplicación fy : X → F(X) tal que x 7→ es
y
inyectiva y, por tanto, podemos considerar que X ⊂ F(X). ♦

Las operaciones internas y el orden pueden combinarse. Ası́, un cuerpo


ordenado es una estructura (X, ∗, θ, , e; ) que cumple:

1. (X, ∗, θ, , e) es un cuerpo.
16 TEMA 1. PRERREQUISITOS

2. (X, ) es un conjunto totalmente ordenado.

3. x  y ⇒ x∗z y∗z ∀z ∈ X

4. (θ  x ∧ θ  y) ⇒ θ  xy

Un cuerpo ordenado (X, ∗, θ, , e; ) es arquimediano si


n
(θ ≺ x ∧ θ  y) ⇒ ∃n ∈ N tal que y  x ∗ · · · ∗ x

Dedekind construyó un cuerpo abeliano ordenado en el que todo subcon-


junto con cota superior tiene supremo. A los cuerpos con esta propiedad los
llamó cuerpos abelianos ordenados completos y probó que todos son arqui-
medianos e identificables entre sı́. Ası́ pues, en esencia, sólo hay un prototipo
de cuerpo abeliano ordenado completo, que es el cuerpo (R, +, 0, ·, 1, ≤) de
los números reales que constituye la herramienta matemática básica del hom-
bre actual en la que se puede sumar, restar, multiplicar, dividir salvo por 0
y resolver cualquier ecuación

xn = b con n ∈ N y 0≤b

En efecto:
A = {z ∈ R+ | z n ≤ b} contiene al 0 y tiene cota superior 1 + b pues

z ∈ A ⇒ z n ≤ b < 1 + b < (1 + b)n ⇒ z < 1 + b

Si x̄ = sup A es imposible que x̄n < b y que x̄n > b.


 
n b − x̄n
- Si x̄ < b, ∃h ∈ R tal que 0 < h < min 1, y
(1 + x̄)n − x̄n
resultarı́a que x̄ + h ∈ A, en contra del carácter supremo de x̄.
 
n x̄n − b
- Si x̄ > b, ∃k ∈ R tal que 0 < k < min 1, x̄,
(1 + x̄)n − x̄n
y x̄ − k serı́a una cota superior de A menor que el supremo.

Por tanto, x̄n = b. Además, es fácil observar que no puede existir otra
solución positiva de la ecuación xn = b puesto que x2 > x̄ > x1 >
0 ⇒ xn2 > b > xn1 . ♦

Desde el siglo X, se han planteado problemas del tipo p(x) = b, donde b


es un número real positivo conocido, p : R → R es un polinomio y x es otro
número real positivo que necesitamos conocer. Los árabes los llamaron pro-
blemas de al-jabr y al-muqābala, palabras que significan, respectivamente,
pasar términos de un miembro a otro y cancelar términos iguales en ambos
miembros de la ecuación.

Muchos problemas técnicos, empresariales o de la vida diaria, y la mayor


1.3. SEMIGRUPOS, GRUPOS, ANILLOS Y CUERPOS 17

parte de los problemas que tratamos en este libro, son generalizaciones de


esta cuestión y se llaman problemas inversos: Un objeto x debe ser
obtenido a partir de un dato d con el que se relaciona mediante una ecuación
del tipo f (x) + u = d siendo f una transformación del objeto x y u una
perturbación o ruido. Pensemos, por ejemplo, que x es el mensaje que nece-
sitamos conocer, d es el mensaje encriptado que recibimos, f es la fórmula
de encriptación y u son los errores aleatorios cometidos por el encriptador.

Desde el punto de vista matemático cuatro lı́neas de actuación son nece-


sarias ante un problema de este tipo:
1. Fijar el modelo:
Se debe establecer claramente la estructura del conjunto Y en el que
suponemos el dato d y la del conjunto X en el que nos disponemos
a buscar nuestra incógnita x, y se debe entender la transformación f
como una función f : X → Y . La perturbación u será un elemento de
Y y debemos establecer si depende o no de f (x).
2. Las restricciones a priori:
Debemos saber si el objeto x o la perturbación u están sometidos a
ligaduras como
S1 = {x ∈ X | φ1 (x) = o} o S2 = {x ∈ X | φ2 (x) < k} o
S3 = {x ∈ X | φ3 (d−f (x)) = o} o S4 = {x ∈ X | φ4 (d−f (x)) < k}

3. Los criterios de aceptación:


Se deben fijar criterios que determinen si la solución x obtenida es
aceptable o incluso óptima desde algún punto de vista. Ası́, para
determinadas funciones de costo c : X → R habrá que hallar las
\
xo ∈ S = Si tales que c(xo) = min{c(x) | x ∈ S}

4. Los métodos numéricos:


Aun en el caso de una ecuación polinómica p(x) = b, pocas veces se
conocen fórmulas directas que nos den la solución. Sabemos que

2 3 + 13
x − 3x = 1 tiene la solución x =
2
pero ¿quién conoce una fórmula para resolver x5 − 3x = 1? Por ello
se deben programar algoritmos numéricos que nos aproximen en lo
posible a los objetos xo que satisfagan todas las condiciones anteriores.
La teorı́a nos facilita el entendimiento abstracto del problema. Le quita
el camuflaje de lo superfluo y lo clasifica para determinar la existencia
y tipologı́a de sus soluciones pero muchas veces es necesario programar
el camino hacia una solución particular adecuada, numérica o gráfica,
con mayor o menor precisión, con menor o mayor economı́a.
18 TEMA 1. PRERREQUISITOS

1.4 Espacios vectoriales


Un conjunto X es interesante en el mundo tecnológico cuando cada elemento
x ∈ X puede ser descrito por un conjunto I de números reales. Ası́, X puede
ser interpretado como el conjunto RI := {x : I → R} de todas las funciones
reales definidas en I. Si I = {1, · · · , n}, cada función x : {1, · · · , n} → R se
identifica con una n-tupla (x1 , · · · , xn ) ∈ Rn .

El conjunto RI recibe, transferida desde R, la suma puntual

⊕ RI × RI → RI , f ⊕g: I → R
(f, g) 7 → f ⊕g i 7→ f (i) + g(i)

de modo que, si 0 : I → R es la función nula, (RI , ⊕, 0) es grupo abeliano.

RI también recibe desde R el producto puntual

RI × RI → RI , f g : I → R
(f, g) 7 → f g i 7 → f (i) · g(i)

de modo que, si 1 : I → R es la función que toma constantemente el valor 1,


(RI , ⊕, 0, , 1) es un anillo abeliano unitario. Sin embargo, no es un anillo
ı́ntegro ya que puede suceder que f g = 0 sin que f = 0 ni g = 0
y, en consecuencia, no puede sumergirse en un cuerpo. Se opta, entonces,
por considerar la operación externa

•: R × RI → RI , λ•f : I → R
(λ, f ) 7 → λ•f i 7 → λ · f (i)

que tiene las buenas propiedades:

1. λ • (f ⊕ g) = λ • f ⊕ λ • g ∀λ ∈ R y ∀f, g ∈ RI

2. (λ + µ) • f = λ • f ⊕ µ • f ∀λ, µ ∈ R y ∀f ∈ RI

3. (λ · µ) • f = λ • (µ • f ) ∀λ, µ ∈ R y ∀f ∈ RI

4. 1 • f = f ∀f ∈ RI

Peano definió la estructura algebraica (X, +, 0; R, ·), llamada espacio


vectorial real, que recoge las buenas propiedades de los conjuntos RI :

1. (X, +, 0) es un grupo abeliano

2. λ · (x + y) = λ · x + λ · y ∀λ ∈ R y ∀x, y ∈ X

3. (λ + µ) · x = λ · x + µ · x ∀λ, µ ∈ R y ∀x ∈ X

4. (λ µ) · x = λ · (µ · x) ∀λ, µ ∈ R y ∀x ∈ X
1.4. ESPACIOS VECTORIALES 19

5. 1 · x = x ∀x ∈ X

Los elementos de un espacio vectorial se llaman vectores y los del cuerpo


R, escalares. Una combinación lineal es una suma finita de productos
externos de escalares y vectores como
n
X
λ1 · x1 + · · · + λn · xn = λi · xi
i=1

El conjunto de todas las combinaciones lineales que se pueden formar con los
elementos de A es su envoltura lineal y se denota [A]. Cuando [A]=X deci-
mos que A es generador de X. Un conjunto finito {x1 , x2 , ..., xn} ⊂ X se dice
linealmente independiente cuando cada elemento de [{x1 , x2, ..., xn}] ad-
mite una expresión única como combinación lineal de dichos vectores. Para
ello es necesario y suficiente que
n
X
λi · xi = 0 ⇔ λi = 0 ∀i = 1, ..., n.
i=1

Un subconjunto F ⊂ X se dice libre cuando todos sus subconjunto finitos


son linealmente independientes. Un subconjunto de X generador y libre
es una base de Hamel y su existencia está asegurada por el axioma de
elección.

Teorema 1.4.1
Sea (X, +, 0; R, ·) un espacio vectorial, sea G ⊂ X un subconjunto generador
y sea F ⊂ G un subconjunto libre. Entonces, existe una base de Hamel B
de X tal que F ⊂ B ⊂ G.
Demostración:
Sea A el conjunto de todos los subconjuntos de G que contienen a F y son
F ∈ A, y la inclusión es un orden.
libres. Este conjunto es no vacı́o, pues [
Dada una cadena {Ai |i ∈ I}, su unión Ai es una cota superior que está
i∈I
en A pues, claramente, es libre. El lema de Zorn nos asegura que A tiene
un elemento maximal B. Su envoltura lineal [B] debe coincidir con X pues
sino, existirı́a un x ∈ G tal que x ∈[B].
/ Entonces, B ∪ {x} serı́a un elemento
de A que negarı́a la maximalidad de B. ♦

Todas las bases de un espacio vectorial X son biyectables y, por tanto,


tienen el mismo cardinal dim X, que es su dimensión algebraica.

Si (Y, +, 0; R, ·) es otro espacio vectorial, una L : X → Y es lineal cuando

1. L(x1 + x2 ) = L(x1 ) + L(x2 ) ∀x1 , x2 ∈ X


20 TEMA 1. PRERREQUISITOS

2. L(λ · x) = λ · L(x) ∀x ∈ X, ∀λ ∈ R

Son importantes los subespacios vectoriales

ker L = {x ∈ X | L(x) = 0} ⊂ X y imL = {L(x) | x ∈ X} ⊂ Y

y, si dim X < ∞, se cumple la ecuación de dimensiones

(ED) dim ker L + dim im L = dim X .

Las aplicaciones lineales son las más importantes de las definidas entre espa-
cios vectoriales. Si X e Y tienen bases de Hamel {u1 , · · · , un } y {v1 , · · · vm },
la aplicación lineal L : X → Y queda determinada por los vectores
m
X
L(uj ) = aj = aij vi ∀j = 1, · · · , n
i=1

o por la matriz
 
a11 · · · a1n
 .. .. .. 
A = (aij ) =  . . . 
am1 · · · amn
n
X
pues si x = xj uj , se tiene que
j=1

   
n xi a11 · · · a1n xi
X  .   . ..   ..  = Ax
L(x) = xj aj = a1 · · · an  ..  =  .. ..
. .  . 
j=1 xn am1 · · · amn xn

El problema inverso L(x) = b o, si se prefiere, el sistema lineal Ax = b,


tiene solución si y sólo si

b ∈ im L = [a1 , · · · , an ].

Además, si x0 es una solución, cualquier otra estará en x0 + ker L y, ası́, la


solución es única si ker L = {0} o, por (ED), si {a1 , · · · , an } son lin-
ealmente independientes.

El teorema de Rouché-Frobenius expresa esto en términos de la matriz A:

1. L(x) = b tiene solución si y sólo si rang(A) = rang([A, b])

2. L(x) = b tiene solución única si y sólo si rang(A) = rang([A, b]) = n


1.4. ESPACIOS VECTORIALES 21

Designamos L(X, Y ) al conjunto de todas las aplicaciones lineales de X en


Y . Definiendo del modo habitual la suma de aplicaciones y el producto por
escalares, L(X, Y ) es un espacio vectorial real. Escribiremos X a en vez de
L(X, R). Este espacio es el dual algebraico de X y sus elementos se llaman
funcionales lineales. Todo subespacio de X de codimensión 1 es el núcleo
de un funcional lineal no nulo. Por ello, todo hiperplano H ⊂ X es de la
forma
H = x0 + ker f = {x ∈ X | f (x) = f (x0 )}
para un cierto x0 ∈ X y un cierto f ∈ X a. El hiperplano H determina los
semiespacios (
H − = {x ∈ X | f (x) ≤ f (x0 )}
H + = {x ∈ X | f (x) ≥ f (x0 )}
Un funcional p : X → R se dice sublineal si cumple

1. p(λx) = λp(x) ∀x ∈ X, λ ∈ R+

2. p(x + y) ≤ p(x) + p(y) ∀x, y ∈ X

Los funcionales sublineales controlan bien a los lineales:

Teorema 1.4.2 (Hahn-Banach)

Sea X un espacio vectorial y p : X → R un funcional sublineal. Sea


Y ⊂ X un subespacio vectorial en el que tenemos definido un funcional
lineal f : Y → R dominado por p. Entonces, existe una extensión lineal de
f , f¯ : X → R, que también está dominada por p.
Demostración:
Sea x1 ∈ X − Y . Una extensión de f en Y1 = Y ⊕ [x1 ] dominada por p
debe cumplir f1 (y + λx1 ) ≤ p(y + λx1 ) ∀y ∈ Y y ∀λ ∈ R. En particular,
con λ > 0 deducimos que f1 (x1 ) ≤ p(y + x1 ) − f (y) ∀y ∈ Y , y con λ < 0
deducimos que f1 (x1 ) ≥ −p(y − x1 ) + f (y) ∀y ∈ Y . Ası́ pues, para que
exista la extensión es necesario que

sup{f (y) − p(y − x1 ) | y ∈ Y } ≤ inf{p(x1 + y) − f (y) | y ∈ Y }

Pero tal cosa sucede pues para cualesquiera y1 , y2 ∈ Y , f (y1 ) + f (y2 ) =


f (y1 + y2 ) ≤ p(y1 + y2 ) = p(y1 − x1 + x1 + y2 ) ≤ p(y1 − x1 ) + p(x1 + y2 )
y, por tanto, f (y1 ) − p(y1 − x1 ) ≤ p(x1 + y2 ) − f (y2 ).
Tomando α =sup{f (y) − p(y − x1 ) | y ∈ Y }, el funcional f1 : Y ⊕ [x1 ] → R
tal que y + λx1 7→ f (y) + λα es una extensión de las buscadas.
Consideramos ahora el conjunto de todas las parejas (Z, g) donde Z es un
subespacio vectorial Y ⊂ Z ⊆ X y g : Z → R es una extensión lineal de f
controlada por p. Lo dotamos del preorden (Zi, gi) ≺ (Zj , gj ) ⇔ Zi ⊆ Zj y gj
22 TEMA 1. PRERREQUISITOS

es extensión de gi . En este conjunto preordenado toda cadena {(Zi, gi)|i ∈ I}


tiene claramente cota superior. El lema de Zorn asegura que existe un ele-
mento maximal (Zm , gm ). Es evidente que Zm = X pues si Zm ⊂ X, dado
un x ∈ X − Zm construirı́amos en Zm ⊕ [x] una extensión de gm que negarı́a
la maximalidad de (Zm , gm). ♦

Una aplicación M : X × X → Y es bilineal si


M (x1 , ·): X → Y es lineal ∀x1 ∈ X
x 7→ M (x1 , x)

M (·, x2): X → Y es lineal ∀x2 ∈ X2


x 7 → M (x, x2)
El conjunto de todas las aplicaciones bilineales dotado de las habituales
suma y producto por escalares, es el espacio vectorial B(X × X; Y ) y es
isomorfo al espacio L(X, L(X, Y )).

1.5 Convexidad
n
X
Sea X un espacio vectorial real. Una combinación lineal λi · xi se llama
i=1
n
X
afı́n si λi = 1, se llama cónica si λi ≥ 0 ∀i = 1, · · · , n y se llama
i=1
convexa si es afı́n y cónica.

El conjunto de todas las combinaciones afines de elementos de A ⊂ X es la


variedad afı́n generada por A y se denota af(A). Un conjunto de vectores
{x1 , · · · , xk+1 } ⊂ X se dice afı́nmente independiente cuando
k+1 k+1
!
X X
λi · xi = 0 y λi = 0 ⇒ λi = 0 ∀i = 1, · · · , k + 1
i=1 i=1

Esto sucede si y sólo si ningún xi está en la variedad afı́n generada por los
k vectores restantes y, aún, si y sólo si {x2 − x1 , · · · , xk+1 − x1 } es indepen-
diente.

El conjunto de todas las combinaciones cónicas de elementos de A ⊂ X


es el cono generado por A y se denota cono(A). Si A es finito, cono(A) se
dice finitamente generado.

El conjunto de todas las combinaciones convexas de elementos de A ⊂ X


es su envoltura convexa co(A). Si A es finito, co(A) se llama politopo. Si
V = {x1 , · · · , xk+1 } es afinmente independiente, el politopo S = co(V ) se
1.5. CONVEXIDAD 23

llama k-simplex de vértices V .


Si A = co(A) sabemos que A es convexo y esto sucede si y sólo si
(λ1 + λ2 ) · A = λ1 · A + λ2 · A ∀ λ 1 , λ 2 ∈ R+ .
Si A y B son convexos, también son convexos −A, −B, A + B y A − B.

Si A es convexo, x ∈ A y A \ {x} es convexo, decimos que x es punto


extremal de A. El conjnto de puntos extremales de A se denota ext(A).
Es inmediato observar que
  
{x1 , x2 } ⊂ A

 
x ∈ ext(A) ⇔ x = λ1 · x1 + λ2 · x2 con λi > 0 ⇒ x = x1 = x2 


λ1 + λ2 = 1

Teorema 1.5.1
Sea X un espacio vectorial.
1. Si A ⊂ X es no vacı́o y C = co(A) se tiene que ext(C) ⊂ A.
2. Si S ⊂ X es un k-simplex de vértices V se tiene que ext(S) = V .
Demostración:
1. Sea e ∈ ext(C). Si e ∈
/ A tenemos que A ⊂ C \ {e}. Entonces,
C = co(A) ⊂ co(C \ {e}) = C \ {e} y, por tanto e ∈
/ C. Absurdo.

2. Sea S = co(V ) con V = {x1 , · · · , xk+1 } afinmente independiente. Por


el apartado anterior ext(S) ⊂ V . Veamos que xi ∈ ext(S) ∀i =
1, · · · , k + 1:
Cualquier expresión de xi como combinación convexa de elementos de
S es de la forma
k+1
X k+1
X X
xi = λj xj con λj ≥ 0 y λj = 1 luego 0 = λj (xj −xi )
j=1 j=1 j6=i

Como {x1 − xi , · · · , xi−1 − xi , xi+1 − xi , · · · xk+1 − xi } son linealmente


independientes, resulta que λj = 0 ∀j 6= i y, en consecuencia, xi
sólo admite la expresión trivial xi = xi. Luego xi ∈ ext(S). ♦
La noción de punto extremal se puede extender a subconjuntos. Sea A ⊂ X
un convexo. Decimos que E ⊂ A es un subconjunto extremal de A si
  
{x1 , x2 } ⊂ A

 
λ1 · x1 + λ2 · x2 ∈ E con λi > 0  ⇒ (x1 ∈ E ∧ x2 ∈ E)


λ1 + λ2 = 1

Si E es subconjunto extremal de A es claro que E es convexo y si E = {x},


x ∈ ext(A). Además, hay transitivdad: Si F es subconjunto extremal de E,
F también lo es de A.
24 TEMA 1. PRERREQUISITOS

Teorema 1.5.2 (Carathéodory)


Sea X un espacio vectorial de dim X = n y sea A ⊂ X. Cada punto de
co(A) es combinación convexa de, a lo más, n + 1 puntos de A.
Demostración:
k
X
Si x ∈ co(A), existe una convexa λi · xi = x con {x1 , · · · , xk } ⊂ A. Si
i=1
xi 6= 0 y λi > 0 ∀i = 1, · · · , k y suponemos que k > 1 + n, es claro
que {x2 − x1 , · · · , xk − x1 } no es linealmente independiente y, por tanto,
k
X
existen escalares {µ2 , · · · , µk } no todos nulos tales que µi · (xi − x1 ) = 0.
i=2
k
X
Definiendo µ1 := − µi , tenemos
i=2
k
X k
X
µi · xi = 0 y µi = 0 con algún µi > 0
i=1 i=1
y, en consecuencia,
k
X k
X k
X
x= λi · xi − α µi · xi = (λi − αµi ) · xi ∀α ∈ R.
i=1 i=1 i=1
λi0
Tomando α := µi0 = min{ µλii | µi > 0} tenemos
k
X
α > 0, λi − αµi ≥ 0 ∀i 6= i0 , λi0 − αµi0 = 0 y (λi − αµi ) = 1
i=1
k
X
luego x= (λi − αµi ) · xi es una combinación convexa en la que no
i=1
interviene xi0 . Podemos seguir quitando vectores hasta que k = 1 + n ♦

Teorema 1.5.3 (Radon)


Sea X un espacio vectorial de dim X = n y sea A ⊂ X con |A| ≥ n + 2.
Entonces, existe una bipartición de A en subconjuntos no vacı́os B y C tal
que co(B) ∩ co(C) 6= ∅.
Demostración:
Sea A = {x1 , · · · , xN }. Es claro que {x2 − x1 , · · · , xN − x1 } no es lineal-
mente independiente. Como en teorema 1.5.2 aseguramos la existencia de
{µ1 , · · · , µN } tales que
N
X N
X
µi · xi = 0 y µi = 0 con algún µi > 0.
i=1 i=1
1.5. CONVEXIDAD 25

Si I = {1, · · · , N }, J = {j ∈ I | µj ≥ 0} y K = {k ∈ I | µk < 0} es
claro que J y K son no vacı́os y constituyen una bipartición de I. Además,
si
X X µj −µk
m := µj = (−µk ) > 0, αj = ∀j ∈ J y βk = ∀k ∈ K
m m
j∈J k∈K

resulta que las siguientes combinaciones convexas son iguales:


X X
αj xj = βk x k .
j∈J k∈K

Por tanto, B = {xj | j ∈ J} y C = {xk | k ∈ K} cumplen todas las


exigencias. ♦

Teorema 1.5.4 (Helley)


Sea X un espacio vectorial de dim X = n y sea F una familia finita de
subconjuntos convexos de X. Si cada n+1 miembros de F tienen un punto
común, toda la familia tiene un punto común.
Demostración:
Lo probaremos por inducción sobre el número de miembros N de la familia
F.
Si N = n + 1, toda la familia F tiene un punto común. Supongámoslo cierto
para N ≥ n + 1 y probémoslo para N + 1: Sea F = {C1 , · · · , CN +1 }. Las
subfamilias

Fi = {C1 , · · · , Ci−1 , Ci+1 , · · · , CN +1 } ∀i ∈ I := {1, · · · , N + 1}

cumplen la hipótesis de inducción y, por tanto,

Ti = C1 ∩ · · · ∩ Ci−1 ∩ Ci+1 ∩ · · · ∩ CN +1 6= ∅ ∀i ∈ I

Tomamos xi ∈ Ti y formamos el conjunto A = {x1 , · · · , xN +1 }. Como


|A| = N + 1 ≥ n + 2, el teorema 1.5.3 asegura una partición de I en
subconjuntos J y K y un

x ∈ co({xj | j ∈ J}) ∩ co({xk | k ∈ K})

Este x está en todos los Ci pues, para cada i ∈ I, tenemos la alternativa:


1. Si i ∈ J, Tk ⊂ Ci ∀k ∈ K luego x ∈ co({xk | k ∈ K}) ⊂ Ci

2. Si i ∈ K, Tj ⊂ Ci ∀j ∈ J luego x ∈ co({xj | j ∈ J}) ⊂ Ci ♦


Sea X un espacio vectorial y sea A ⊂ X un conjunto convexo. Un funcional
f : A → R se llama convexo si cumple una cualquiera de las siguientes
condiciones equivalentes:
26 TEMA 1. PRERREQUISITOS

1. f (αx1 +(1−α)x2 ) ≤ αf (x1 )+(1−α)f (x2 ) ∀(x1 , x2, α) ∈ A×A×[0, 1]


n
! n n
X X X
2. f αi xi ≤ αi f (xi) para toda αi xi ∈ co(A)
i=1 i=1 i=1

3. Su epigrafo E(f, A) = {(x, r) ∈ A × R | f (x) ≤ r} es convexo en


X × R.
Un funcional g : A → R se dice cóncavo si −g : A → R es convexo o su
hipografo H(f, A) = {(x, r) ∈ A × R | r ≤ f (x)} es convexo en X × R.

Una función F : A → Rm se llama convexa si son convexos todos sus


funcionales componentes Fi : A → R.

Algunas operaciones preservan la convexidad de los funcionales:


1. Si f : A → R es convexo y α ≥ 0, αf es convexo.
P
2. Si fi : A → R son convexos y αi ≥ 0, αi fi es convexo.

3. Si fi : A → R son convexos, max fi : A → R es convexo.

4. Si f : X → R es convexo, L : Y → X es lineal y b ∈ X

h: Y → R
y 7 → f (Ly + b)

es un funcional convexo.

1.6 Espacios métricos y espacios normados


En un X 6= ∅ una métrica es una función d : X × X → R que cumple:
1. d(x, y) = 0 si y sólo si x=y

2. d(x, y) ≤ d(x, z) + d(y, z) para cualesquiera x, y, z ∈ X


Tomando x = y, comprobamos que 0 ≤ 2d(x, z) ∀x, z ∈ X.
Tomando x = z, comprobamos que d(x, y) = d(y, x) ∀x, y ∈ X.
Ası́, toda métrica es positiva y simétrica.

La estructura (X, d) recibe el nombre de espacio métrico. Los espacios


métricos son estructuras adecuadas para hablar de proximidad, convergen-
cia de sucesiones y continuidad de funciones. Recordémoslos brevemente.
En un espacio métrico (X, d) llamamos entorno básico de radio r > 0 de
un punto x ∈ X al conjunto

Er (x) = {y ∈ X | d(x, y) < r}.


1.6. ESPACIOS MÉTRICOS Y ESPACIOS NORMADOS 27

Decimos que una sucesión (xn ) ⊂ X es de Cauchy si


∀r > 0 ∃n0 ∈ N tal que d(xn , xm) < r ∀n, m > n0
Decimos que una sucesión (xn ) es convergente a x ∈ X si
∀r > 0 ∃n0 ∈ N tal que xn ∈ Er (x) ∀n > n0
Si toda sucesión de Cauchy es convergente, el espacio métrico (X, d) se dice
completo.

Un conjunto A ⊂ X es acotado si existe un Er (x) que lo contiene. Un


punto x ∈ X es punto interior de A si existe un Er (x) ⊂ A. La colección

de puntos interiores de A es el interior de A y se denota A . A es abierto

si A =A y es cerrado si su complementario Ac es abierto. La unión de una
familia de abiertos es un abierto y la intersección de una familia de cerrados
es un cerrado. La intersección de todos los cerrados que contienen a A es
la clausura de A y se denota Ā . Si existe un conjunto numerable cuya
clausura es X decimos que (X, d) es separable. Un conjunto N ⊂ X es
una r-net de A ⊂ X si [
A⊂ Er (x).
x∈N
A es totalmente acotado si tiene una r-net finita para cualquier r > 0. Un
conjunto K ⊂ X es compacto si es cerrado y totalmente acotado. También
son interesantes las dos siguientes caracterizaciones de la compacidad:
1. K es compacto si de cada uno de sus cubrimientos abiertos se puede
extraer un subcubrimiento finito.
2. K es compacto si toda familia de cerrados contenidos en K, con inter-
sección vacı́a, tiene una subfamilia finita con intersección vacı́a.
Si (Y, d0) es otro espacio métrico una aplicación f : X → Y se dice continua
en x ∈ X si
∀r 0 > 0 ∃r > 0 tal que f (Er (x)) ⊂ Er0 (f (x))
y se dice continua globalmente si es continua en todo punto x ∈ X.

Teorema 1.6.1
Si f : X → Y es continua y K ⊂ X es compacto, f (K) también es compacto
Demostración:
Si {Gi | i ∈ I} es cubrimiento abierto de f (K), {f −1 (Gi) | i ∈ I} lo es de
K y existe un J ⊂ I finito tal que {f −1 (Gi ) | i ∈ J} es cubrimiento de K.
Entonces {Gi | i ∈ J} cubre a f (K) y asegura su compacidad. ♦

En R, el valor absoluto |x| = max{x, −x} induce la métrica dc (x, y) = |x−y|.


28 TEMA 1. PRERREQUISITOS

Teorema 1.6.2

Si f : X → R es continua, alcanza en todo compacto K ⊂ X su máximo y


su mı́nimo absolutos.
Demostración:
Sabemos que f (K) es un compacto en R, luego es cerrado y totalmente
acotado. Por ser R un cuerpo totalmente ordenado en el que todo conjunto
acotado tiene ı́nfimo y supremo, f alcanza en K un máximo y un mı́nimo
absolutos. ♦

En un espacio vectorial (X, +, 0; R, ·) las métricas que más interesan son


las que cumplen

(3) d(x + z, y + z) = d(x, y) ∀x, y, z ∈ X

(4) d(λ · x, λ · y) = |λ|d(x, y) ∀x, y ∈ X , ∀λ ∈ R

La propiedad (3) es la invariancia por traslaciones y la (4) es, in nuce, el


teorema de Tales. Dar en X una métrica con estas buenas propiedades es
equivalente a dar una norma o función k k : X → R que satisface:

1. kxk = 0 si y sólo si x = o

2. kλ · xk = |λ|kxk ∀x ∈ X, ∀λ ∈ R

3. kx + yk ≤ kxk + kyk ∀x, y ∈ X

La estructura (X, k k) es un espacio normado y, en él, la métrica canónica


dc (x, y) = kx − yk cumple las propiedades (3) y (4). Si (X, dc) es completo,
(X, k k) recibe el nombre de espacio de Banach. En el espacio normado
(X, k k) son importantes los siguientes conjuntos:

La bola unidad B(X) = {x ∈ X | kxk ≤ 1} y la esfera unidad S(X) =


{x ∈ X | kxk = 1}. Observamos que B(X) coincide con la clausura del
entorno básico E1 (0) y S(X) coincide con la frontera o borde de B(X).
Además, Er (x) = x + r · B(X).

Teorema 1.6.3 (Minkowski)


[
Sea X un espacio vectorial y A ⊂ X un convexo que cumple X= n·A.
n∈N
Entonces, el funcional

µA : X → R
x 7 → inf{λ > 0 | x ∈ λ · A}
1.6. ESPACIOS MÉTRICOS Y ESPACIOS NORMADOS 29

es sublineal. Además, si A = −A y [x] 6⊂ A ∀x ∈ X \ {0}, µA es norma.


Demostración:
Como {λ > 0 | x ∈ λ · A} ⊂ R es no vacı́o y acotado inferiormente,
tiene ı́nfimo. Por tanto, la aplicacióm µA está bien definida. Es claro que
µA (x) ≥ 0 ∀x ∈ X y, como 0 ∈ A, µA (0) = 0. Además, ∀x, y ∈ X se
cumple:
1. µA (0x) = µA (0) = 0 = 0µA (x)
µA (αx) = inf{λ > 0 | x ∈ αλ · A} = inf{αλ0 > 0 | x ∈ λ0 · A} =
αµA (x) ∀α > 0.

2. Por definición de ı́nfimo, ∀ε > 0 se tiene que


x
∃λ1 , µA (x) < λ1 ≤ µA (x) + ε tal que ∈A
λ1
y
∃λ2 , µA (y) < λ2 ≤ µA (y) + ε tal que ∈A
λ2
y, por ser A convexo,
λ1 x λ1 y x+y
+ = ∈ A.
λ1 + λ2 λ2 λ1 + λ2 λ2 λ1 + λ2
Luego µA (x + y) ≤ λ1 + λ2 ≤ µA (x) + µA (y) + 2ε.
Ası́, µA es un funcional sublineal. Si suponemos que A = −A se cumple que
(3) µA (αx) = inf{λ > 0 | |α|x ∈ λ · A} = |α|µA (x) ∀α ∈ R
y, finalmente, si suponemos que [x] 6⊂ A ∀x ∈ X \ {0}, se cumple
1
(4) ∀x 6= 0 ∃n ∈ N tal que nx ∈
/ A, luego µA (x) ≥ n > 0. ♦

Dado un subconjunto no vacı́o C de un espacio normado (X, k k) y dado un


x ∈ X siempre podemos definir su distancia al conjunto C,

d(x, C) = inf{kx − yk | y ∈ C}.

Sin embargo, no siempre existe un y0 ∈ C tal que d(x, C) = kx − y0 k de


modo que el ı́nfimo sea un mı́nimo. Cuando tal cosa sucede decimos que y0
es una mejor aproximación de x en C y escribimos y0 ∈ AC (x).

Decimos que C es proximinal en (X, k k) cuando AC (x) 6= ∅ ∀x ∈ X


y que es de Chebychev en (X, k k) cuando AC (x) es atómico ∀x ∈ X. En
este último caso podemos definir la aplicación de aproximación
AC : X → X
x 7 → AC (x)
30 TEMA 1. PRERREQUISITOS

cuya imagen es C y, trivialmente, es idempotente: AC ◦ AC = AC .

Si X es un espacio vectorial de dimensión finita, cada x ∈ X puede identi-


ficarse con un (x1 , · · · , xn) ∈ Rn y podemos definir la función

k k∞ : X → R
x 7→ max{|xi | | i = 1, · · · , n}

que cumple, trivialmente, todas las propiedades de norma. El espacio nor-


mado (X, k k∞) es un espacio de Banach. Además, dada cualquier otra
norma k k en X, existen reales 0 < k1 < k2 tales que

k1 kxk∞ ≤ kxk ≤ k2 kxk∞ ∀x ∈ X

En efecto:
Es fácil ver que k k : X → R es continua si consideramos en X la métrica
d∞ (x, y) = kx − yk∞ y en R la del valor absoluto. Como S∞ (X) es com-
pacta, k k alcanza en élla sus extremos absolutos k1 < k2 , luego

k1 ≤ kxk ≤ k2 ∀x ∈ X tal que kxk∞ = 1.

Como 0∈
/ S∞ (X), 0 < k1 y, además, por homogeneidad,

k1 kxk∞ ≤ kxk ≤ k2 kxk∞ ∀x ∈ X

Ası́ tenemos el siguiente resultado importante

Teorema 1.6.4

En un espacio vectorial de dimensión finita X, dos normas cualesquiera


k · k1 ,k · k2 son equivalentes, es decir,

∃k1 , k2 > 0 tales que k1 kxk1 ≤ kxk2 ≤ k2 kxk1 ∀x ∈ X. ♦

Los espacios normados de dimensión finita son siempre espacios de Banach.


En ellos la acotación total equivale a la acotación y, en consecuencia, los
compactos son los cerrados acotados. En Rn , además de k k∞ es habitual
considerar, para 1 ≤ p < ∞, las normas
n
X 1
kxkp = ( |xi|p ) p
i=1

El espacio normado (Rn , k kp) se suele denotar `np . También es frecuente


escribir Bpn en lugar de B(`np ) y Spn−1 en lugar de S(`np).

Debemos conocer también algunos espacios normados de dimensión infinita:


1.6. ESPACIOS MÉTRICOS Y ESPACIOS NORMADOS 31

1. `∞ , constitido por todas las sucesiones acotadas (xn ) ⊂ R, dotado de


la norma k(xn )k∞ = supn∈N {|xn|}.

2. c0 , constitido por todas las sucesiones (xn ) ⊂ R que convergen a 0,


dotado de la norma k(xn )k∞ = supn∈N {|xn |}.

3. `p , con 1 ≤ p < ∞, constitido por todas las sucesiones (xn ) ⊂ R tales


∞ ∞
!1
X X p
p p
que |xn | < ∞, dotado de la norma k(xn )kp = |xn |
n=1 n=1

4. C[a, b], constituido por todas las funciones reales continuas definidas
en el intervalo [a, b], dotado de la norma kf k∞ = sup{|f (t)| | t ∈ [a, b]}

Todos ellos son espacios de Banach.

Una aplicación lineal L : X → Y entre los espacios normados (X, k k) e


(Y, k k) no tiene por que ser continua. Si lo es en 0, también lo es global-
mente puesto que ∀x ∈ X se tiene:

r0
L(x + r · B(X)) ⊂ L(x) + r 0 · B(Y ) ⇔ L(B(X)) ⊂ · B(Y )
r
Vemos, de paso, que la continuidad de L equivale a su acotación, es decir, a
la existencia de un k > 0 tal que L(B(X)) ⊂ k ·B(Y ). Designamos Lc (X, Y )
al subespacio de L(X, Y ) de las aplicaciones acotadas y es claro que

inf{k > 0 | L(B(X)) ⊂ k · B(Y )} = sup{kL(x)k | kxk = 1}

La función que asigna este valor común a cada aplicación lineal acotada
kk : Lc (X, Y ) → R
L 7 → sup{kL(x)k | kxk = 1}
es una norma importante. Por homogeneidad tendremos que

kL(x)k ≤ kLk · kxk ∀x ∈ X

Si L ∈ Lc (X, Y ) y M ∈ Lc (Y, Z), es claro que M L ∈ Lc (X, Z) y, además,

kM Lk ≤ kM k · kLk

Escribimos Lc (X) en lugar de Lc (X, X) y la identidad I : X → X cumple


que kIk = 1.

Si dim X < ∞ y {u1 , · · · , un } es una base, ∀L ∈ L(X, Y ) se tiene que


n n
!
X X
kL(x)k ≤ |xi|kL(ui)k ≤ kL(ui)k kxk∞
i=1 i=1
32 TEMA 1. PRERREQUISITOS

y, por la equivalencia de todas las normas en X, resulta que L es aco-


tada cualquiera que sea la norma de X. Sin embargo, si dim X = ∞,
Lc (X, Y ) ⊂ L(X, Y ) estrictamente.

El espacio Lc (X, R) de los funcionales lineales acotados es el dual topológico


de (X, k k) y se designa X ? . Dotado de la norma

kk : X? → R
f 7 → sup{|f (x)| | kxk = 1}

es un espacio de Banach aunque (X, k k) no lo sea. Es claro que

|f (x)| ≤ kf k · kxk ∀x ∈ X

y cuando f (x) = kf k · kxk se dice que f está alineado con x. En los


siguientes corolarios del teorema 1.4.2 se destaca que todo espacio normado
es rico en funcionales lineales continuos.

Corolario 1.6.5
Si (X, k k) es un espacio normado, Y ⊂ X es un subespacio vectorial y
f ∈ Y ? , existe un f¯ ∈ X ? que es extensión de f y cumple que kfk
¯ = kf k.

Demostración:
El funcional sublineal
kf k · k k: Y → R
y 7→ kf k · kyk
domina al funcional f . El teorema 1.4.2 asegura la existencia de una ex-
tensión lineal f¯ : X → R también dominada por kf k · k k, es decir,

|f¯(x)| ≤ kf k · kxk ∀x ∈ X

Esto asegura que f¯ ∈ X ? y que kf¯k ≤ kf k. Además, es inmediato que


¯ ≥ sup{|f (y)| | kyk = 1} = kf k
kfk

¯ = kf k ♦
y, por tanto, se da la igualdad kfk

Corolario 1.6.6
Sea (X, k k) un espacio normado y sea x0 ∈ X no nulo. Siempre existe un
f ∈ S(X ?) alineado con x0 .
Demostración:
El funcional g : [x0 ] → R tal que g(λx0) = λkx0k es lineal y kgk = 1.
Podemos extenderlo a un un funcional f : X → R de igual norma 1. Por ser
1.6. ESPACIOS MÉTRICOS Y ESPACIOS NORMADOS 33

extensión, f (x0 ) = g(x0 ) = kx0 k. ♦

En cualquier espacio normado (X, k k) el núcleo de un funcional lineal aco-


tado no nulo es un subespacio cerrado de codimensión 1. Ası́, todo hiper-
plano cerrado H es de la forma
H = x0 + ker f = {x ∈ X | f (x) = f (x0 )} con (f, x0 ) ∈ X ? × X
y es el borde de los semiespacios cerrados
(
H − = {x ∈ X | f (x) ≤ f (x0 )}
H + = {x ∈ X | f (x) ≥ f (x0 )}
Escribimos X ?? en vez de Lc (X ? , R). El espacio X ?? es el bidual topológico
de (X, k k). Sus elementos son los funcionales lineales continuos u : X ? → R
con kuk = sup{|u(f )| | kf k = 1}. (X ??, k k) es un espacio de Banach aunque
(X, k k) no lo sea.

Teorema 1.6.7
Todo espacio normado (X, k k) está contenido isométricamente en su bidual.
Demostración:
Para cada x ∈ X definimos el funcional lineal
ux : X? → R
f 7 → f (x)
Puesto que |ux (f )| = |f (x)| ≤ kxk · kf k ∀f ∈ X ? resulta que ux ∈ X ?? y
es claro que kux k ≤ kxk. Además, el corolario 1.6.6 asegura la existencia de
un g ∈ X ? unitario tal que g(x) = kxk luego también es cierta la desigualdad
contraria kux k ≥ kxk. La aplicación
J: X → X ??
x 7 → ux
es lineal e isométrica y, por tanto, inyectiva. J(X) es un subespacio de X ??
identificable con X. Esto se suele expresar abreviadamente X ,→ X ?? . ♦

Como (X ?? , k k) es completo, la clausura de X en (X ?? , k k) es un subespacio


cerrado de un espacio completo y, por tanto, completo. Ası́, aunque un es-
pacio normado no sea completo, siempre podemos completarlo. Un tipo im-
portante de espacio normado es el (X, k k) en que la aplicación J : X → X ??
es suprayectiva. Entonces, X se puede identificar con X ?? y se dice que
(X, k k) es reflexivo. Un espacio reflexivo es siempre un espacio de Banach.
Todos los espacios normados de dimensión finita son reflexivos.

Si (X, k k) e (Y, k k) son espacios normados cualesquiera, para cada L ∈


Lc (X, Y ) podemos definir su aplicación adjunta
34 TEMA 1. PRERREQUISITOS

L? : Y? → X?
g 7 → g◦L

que, evidentemente, es lineal. También es acotada, pues

kL? (g)k = kg ◦ Lk ≤ kLk · kgk ∀g ∈ Y ?

Por tanto, L? ∈ Lc (Y ? , X ?) y kL? k ≤ kLk. Además, es cierta la desigualdad


contraria:
Dado un ε > 0 existe un x0 ∈ X unitario tal que kLk − ε < kL(x0 )k. Por el
corolario 1.6.6 existe g0 ∈ Y ? unitario tal que g(L(x0)) = kL(x0 )k. Ası́,

kL? k ≥ kL? (g)k ≥ kg(L(x0))k = kL(x0)k > kLk − ε

y, como es cierto ∀ε > 0, se tiene que kL? k ≥ kLk. Luego kL? k = kLk. ♦

Teorema 1.6.8 (Separación de convexos)

Sea (X, k k) un espacio normado y sean A y B dos subconjuntos convexos


no vacı́os y disjuntos. Entonces,

1. Si A es abierto, ∃(f, c) ∈ X ? × R tal que

f (a) < c ≤ f (b) ∀a ∈ A, ∀b ∈ B

2. Si A es compacto y B es cerrado, ∃(f, c1 , c2 ) ∈ X ? × R × R tal que

f (a) < c1 < c2 < f (b) ∀a ∈ A, ∀b ∈ B

Demostración:
Tomamos al arbitrio a0 ∈ A y b0 ∈ B, designamos x0 = b0 − a0 y conside-
ramos C = x0 + A − B que, obviamente, es convexo y contiene al 0.
[
1. Si A es abierto, C es abierto y, por contener al 0, X = n · C. Ası́,
n∈N
por el teorema 1.6.3, µC es un funcional sublineal y, como x0 ∈ / C, se
tiene que µC (x0 ) ≥ 1. El funcional g : [x0 ] → R tal que g(λx0) = λ es
lineal y está dominado por µC :

(a) Si λ ≥ 0, g(λx0) = λ ≤ λµC (x0 ) = µC (λx0 )


(b) Si λ < 0, g(λx0) < 0 ≤ µC (λx0)

El teorema 1.4.2 asegura la existencia de un f : X → R, extensión


de g, también dominado por µC . En particular, f (x) ≤ 1 ∀x ∈ C
y f (x) ≥ −1 ∀x ∈ −C, luego |f (x)| ≤ 1 ∀x ∈ C ∩ (−C) y, en
consecuencia, f ∈ X ? .
1.6. ESPACIOS MÉTRICOS Y ESPACIOS NORMADOS 35

Ahora buscamos la constante c: ∀a ∈ A y ∀b ∈ B tenemos

f (a)−f (b)+1 = f (a)−f (b)+f (x0 ) = f (a−b+x0 ) ≤ µC (a−b+x0 ) < 1

luego f (a) < f (b) y, en consecuencia, los convexos de R, f (A) y f (B),


son intervalos disjuntos. Como A es abierto en (X, k k), f (A) es abierto
en (R, | |) y, tomando c igual al extremo derecho de f (A), concluimos.

2. Si A es un compacto disjunto con el cerrado B, existe una bola abierta


V centrada en 0 tal que A + V es disjunto con B. Como A + V
es abierto, por la primera parte del teorema existe f ∈ X ? tal que
los intervalos reales f (A + V ) y f (B) son disjuntos. Pero f (A) es
un intervalo cerrado contenido en el intervalo abierto f (A + V ) y, en
consecuencia, entre el extremo derecho de f (A) y el extremo derecho
de f (A + V ) existen c1 < c2 que cumplen lo deseado. ♦

Teorema 1.6.9

Sea (X, k k) un espacio normado y A ⊂ X un convexo compacto. Los sub-


conjuntos extremales y compactos de A tienen las siguientes propiedades:
\
1. Si {Ei | i ∈ I} son extremales y compactos de A y E = Ei 6= ∅, se
i∈I
tiene que E también es subconjunto extremal y compacto de A.

2. Sea f ∈ X ? y sean

m = min{f (x)} y Em = {x ∈ A | f (x) = m}
x∈A
M = max{f (x)} y EM = {x ∈ A | f (x) = M }
x∈A

Entonces, Em y EM son subconjuntos extremales y compactos de A.

3. Si E es subconjunto extremal y compacto de A con cardinal |E| ≥ 2,


existe un subconjunto propio E1 ⊂ E que también es subconjunto
extremal y compacto de A.

Demostración:

1. Inmediato.

2. Em y EM son cerrados contenidos en el compacto A, luego compactos.


Si x ∈ Em y x ∈ [x1 , x2] con {x1 , x2 } ⊂ A tiene que suceder que
f (x1 ) = f (x2 ) = m puesto que si f (x1 ) > m llegamos a la con-
tradicción m = f (x) = f (λ1 · x1 + λ2 · x2 ) > m. Por tanto, Em es
conjunto extremal de A. De modo similar se prueba que lo es EM .
36 TEMA 1. PRERREQUISITOS

3. Si E tiene dos puntos x1 6= x2 , existe un f ∈ X ? que los separa,


f (x1 ) < f (x2 ). Si M = max{f (x)} y EM = {x ∈ E | f (x) = M },
x∈E
x1 ∈/ EM y, por tanto, EM ⊂ E estrictamente. Además, EM es
conjunto extremal de E y, por tanto, de A. ♦

Teorema 1.6.10 (Krein-Milman)

Sea (X, k k) un espacio normado y sea A ⊂ X un convexo compacto. En-


tonces,

1. Para todo f ∈ X ? se cumple que

(a) ∃x ∈ ext(A) tal que f (x) ≤ f (a) ∀a ∈ A.


(b) ∃y ∈ ext(A) tal que f (y) ≥ f (a) ∀a ∈ A.

2. A = co(ext(A))

Demostración:

(1a) Por 1.6.9,2 sabemos que Em es subconjunto extremal y compacto de


A. Sea {Ei | i ∈ I} la familia de todos los subconjuntos compactos
de Em que son subconjuntos extremales de A. El lema de Zorn nos
asegura un elemento minimal Ei0 en dicha familia y 1.6.9,3 nos dice
que Ei0 debe tener un solo punto x. Este punto cumple que

x ∈ ext(A) y f (x) = m ≤ f (a) ∀a ∈ A

(1b) Se demuestra de manera análoga.

(2) Sea C = co(ext(A)) y probemos que A = C: Es claro que C ⊂ A. Si


no se diera el contenido contrario existirı́a un x ∈ A tal que x ∈ / C.
Entonces, como C es convexo y compacto y {x} es cerrado, el teorema
de separación de convexos nos asegura la existencia de (f, c) ∈ X ? × R
tal que
f (y) < c < f (x) ∀y ∈ C
pero esto contradice a (1b). ♦.

Sea (X, k k) un espacio normado y A ⊂ X un subconjunto convexo. Si


f : A → R es un funcional convexo definimos su conjugado f ◦ : A◦ → R
de modo que

A◦ = {h ∈ X ? | sup {h(x) − f (x)} < ∞} y


x∈A

f◦ : A◦ → R
h 7→ sup {h(x) − f (x)}
x∈A
1.6. ESPACIOS MÉTRICOS Y ESPACIOS NORMADOS 37

Es fácil comprobar que A◦ es convexo y f ◦ : A◦ → R es convexo.

Si B ⊂ X es convexo y g : B → R es cóncavo, definimos su conjugado


g ◦ : B ◦ → R de modo que
B ◦ = {h ∈ X ? | inf {h(x) − g(x)} > −∞} y
x∈B

g◦ : B◦ → R
h 7→ inf {h(x) − g(x)}
x∈B

Es fácil comprobar que B ◦ es convexo y g ◦ : B ◦ → R es cóncavo.

Teorema 1.6.11 (Fenchel)


Sea (X, k k) un espacio normado y sean A y B subconjuntos convexos tales
que int(A) ∩ int(B) 6= ∅. Si f : A → R es convexo, g : B → R es cóncavo y
verifican 
int(E(f, A)) ∪ int(H(g, B) 6= ∅
 inf {f (x) − g(x)} < ∞
x∈A∩B

se cumple que

inf {f (x) − g(x)} = max {g ◦ (h) − f ◦ (h)}.


x∈A∩B h∈A◦ ∩B ◦

Demostración:
Para cualquier h ∈ A◦ ∩ B ◦ y cualquier x ∈ A ∩ B tenemos que
(
f ◦ (h) ≥ h(x) − f (x)

luego f (x) − g(x) ≥ g ◦ (h) − f ◦ (h)
g (h) ≤ h(x) − g(x)

y, por tanto,

inf {f (x) − g(x)} ≥ sup {g ◦ (h) − f ◦ (h)}.


x∈A∩B h∈A◦ ∩B ◦

El teorema quedará probado si encontramos un h0 ∈ A◦ ∩ B ◦ tal que

inf {f (x) − g(x)} = g ◦ (h0 ) − f ◦ (h0 )


x∈A∩B

Siendo µ := inf {f (x) − g(x)}, la hipótesis nos asegura que E(f − µ, A) y


x∈A∩B
H(g, B) son dos convexos con interiores disjuntos y, al menos, uno de ellos
no vacı́o, luego, existe un hiperplano H ⊂ R × X que los separa y, como A
y B son inseparables, H no puede ser vertical. Ası́,

∃h0 ∈ X ? y ∃c ∈ R tal que H = {(r, x) | h0(x) − r = c}


38 TEMA 1. PRERREQUISITOS

y (
E(f − µ, A) ⊂ H +
H(g, B) ⊂ H−
Es decir, (
∀x ∈ A, f (x) − µ ≤ r ⇒ h0 (x) − r ≥ c
.
∀x ∈ B, g(x) ≥ r ⇒ h0 (x) − r ≤ c
Por tanto,
c = sup {h0 (x) − f (x) + µ} = inf {h0 (x) − g(x)}
x∈A x∈B

y, en consecuencia, h0 ∈ A◦ ∩ B ◦ y µ = g ◦ (h0 ) − f ◦ (h0 ). ♦

Teorema 1.6.12 (Minimax)


Sea X un espacio reflexivo y X ? su dual. Si A ⊂ X y B ⊂ X ? son subcon-
juntos convexos y compactos, se cumple que
   
max min{h(x)} = min max{h(x)}
h∈B x∈A x∈A h∈B

Demostración:
El funcional
f: X → R
x 7 → max{h(x)}
h∈B

está bien definido porque el funcional continuo


x: B → R
h 7→ h(x)
alcanza en el compacto B su máximo absoluto. Además, f : X → R es
convexo puesto que X es convexo y ∀(x1 , x2 , α) ∈ X × X × (0, 1) se
tiene que
f (αx1 + (1 − α)x2 ) = max{αh(x1 ) + (1 − α)h(x2 )} ≤
h∈B

≤ α max{h(x1 )} + (1 − α) max{h(x2)} = αf (x1 ) + (1 − α)f (x2 ).


h∈B h∈B
Por otra parte, g : A → R, con g(x) = 0 ∀x ∈ A, es, trivialmente, un
funcional cóncavo. Aplicando el teorema 1.6.11 al par de funcionales f :
X → R y g : A → R, aseguramos que
inf {f (x)} = max {g ◦ (h) − f ◦ (h)}.
x∈A h∈X ◦∩A◦

Si calculamos los conjugados f ◦ : X ◦ → R y g ◦ : A◦ → R obtenemos


X ◦ = {h ∈ X ? | sup {h(x) − max{h(x)}} < ∞} = B
x∈X h∈B
1.7. ESPACIOS DE BANACH 39

f◦ : B → R
h 7 → sup {h(x) − max{h(x)}} = 0.
x∈X h∈B

y
A◦ = {h ∈ X ? | inf {h(x)} > −∞} = X ?
x∈A

g◦ : X? → R
h 7 → min{h(x)}
x∈A

En consecuencia,
inf {f (x)} = max{min{h(x)}}.
x∈A h∈B x∈A

Para concluir, sólo queda observar que, por ser f : X → R continuo y A


compacto,
inf {f (x)} = min{f (x)} = min{max{h(x)}},
x∈A x∈A x∈A h∈B

luego
min{max{h(x)}} = max{min{h(x)}}. ♦
x∈A h∈B h∈B x∈A

1.7 Espacios de Banach


Dedicamos esta sección a dar diferentes caracterizaciones de la completitud.
Necesitamos recordar que una familia {Ai | i ∈ I} de subconjuntos de un
espacio métrico (X, d) tiene la propiedad de intersección finita si toda
subfamilia finita tiene intersección no vacı́a y se llama de Cauchy si para
cada ε > 0 ∃i0 ∈ I tal que Ai0 × Ai0 ⊂ V () siendo V (ε) la vecindad
{(x, y) ∈ X × X | d(x, y) < ε}.

Teorema 1.7.1 (Encaje de Cantor)


(X, d) es completo si y sólo si toda familia de cerrados con la propiedad de
intersección finita y de Cauchy, tiene intersección no vacia que consta de un
único punto.
Demostración:
Si) Sea (xn ) una sucesión de Cauchy en (X, d). La familia de cerrados

{Fn | n ∈ N} donde Fn = {xn , xn+1 , · · · }

tiene, obviamente, la propiedad de intersección finita. Además, es de Cauchy


pues, dado ε > 0 ∃n0 ∈ N tal que d(xp, xq ) < 3ε ∀p, q ≥ n0 y, por tanto,

Fn0 × Fn0 ⊂ V (ε).


T
Por la hipótesis, existe a ∈ Fn y es fácil construir una subsucesión de (xn )
convergente a a. Entonces, la propia (xn ) es convergente a a y (X, d) es
40 TEMA 1. PRERREQUISITOS

completo.
Sólo si) Sea C una familia de Cauchy de cerrados con la propiedad de in-
tersección finita. Formamos la familia F = {Fi | i ∈ I} de todas las intersec-
ciones de las subfamilias finitas de C. Esta familia F también es una familia
de Cauchy de cerrados con la propiedad de intersección finita y, además,
cumple la siguiente condición filtrante:

∀i, j ∈ I ∃k ∈ I tal que Fk ⊂ Fi ∩ Fj

Para cada n ∈ N ∃in ∈ I tal que Fin × Fin ⊂ V ( n1 ) y podemos suponer


que Fin+1 ⊂ Fin ∀n ∈ N. Eligiendo xn ∈ Fin formamos la sucesión (xn )
que, obviamente, es de Cauchy. Por la hipótesis, será convergente a un punto
a ∈ X y es claro que \ \
a∈ Fi = C
i∈I C∈C

Además, esta intersección no puede contener otro punto distinto de a:


Si d(a, b) > 0 ∃C ∈ C tal que C × C ⊂ V ( d(a,b)
2 ) y, por tanto, b ∈
/C ♦

El siguiente resultado caracteriza los espacios de Banach en el marco de


los espacios normados

Teorema 1.7.2 (Banach)

Un espacio normado (X, k k) es un espacio de Banach si y sólo si (xn ) es


sumable cuando (kxn k) es sumable.
Demostración:
Supongamos que (X, k k) es un espacio de Banach y que (kxnk) es sumable.

X
La sucesión de sumas parciales de la serie xn es de Cauchy porque
n=1
p+m p
p+m
X X X

xn − xn ≤ kxnk.

n=1 n=1 n=p+1


X
Por tanto, la serie xn es convergente o si, se prefiere, (xn ) es sumable.
n=1
Supongamos, ahora, que la sumabilidad en norma implica la sumabilidad y
probemos que (X, k k) es un Banach. Sea (xn) de Cauchy. ∀k ∈ N ∃nk ∈ N
tal que kxp − xq k < 21k si p, q ≥ nk . Podemos elegir nk < nk+1 ∀k ∈ N
y considerar lasubsucesión (xnk ) de la sucesión de partida. La sucesión
1
kxnk+1 − xnk k , al estar mayorada por la sucesión sumable 2k , también
es sumable y, en consecuencia, también es sumable la sucesión telescópica
(xnk+1 − xnk ) cuya suma vale lim xnk . Es decir, (xn ) es una sucesión de
1.7. ESPACIOS DE BANACH 41

Cauchy que tiene una subsucesión convergente. Ella misma tiene que ser
convergente. ♦.

El siguiente resultado es un auténtico teorema de estructura de los espa-


cios métricos completos.

Teorema 1.7.3 (Baire)

En todo espacio métrico completo se cumplen las siguientes propiedades:



\
1. Si {Gn |n ∈ N} es una familia de abiertos densos, G = Gn también
n=1
es denso.

[
2. Si {Fn |n ∈ N} es una familia de cerrados con interior vacı́o, F = Fn
n=1
también tiene interior vacı́o.

Demostración:
La equivalencia de ambas propiedades es clara pues el complementario de
un abierto denso es un cerrado con interior vacı́o. Probaremos, por ejemplo,
que se cumple la primera:
Si x es un punto cualquiera del espacio y E es un entorno cualquiera de x,
basta probar que E ∩ G 6= ∅. Pero es claro que existe un x1 y un r1 ≤ 1 tal
que B(x1 , r1) ⊂ E ∩ G1 y, también, que existe un x2 y un r2 ≤ 12 tal que
B(x2 , r2 ) ⊂ B(x1 , r1 ) ∩ G2 y, también, que existe un x3 y un r3 ≤ 13 tal que
B(x3 , r3 ) ⊂ B(x2 , r2 ) ∩ G3 .... La sucesión (xn ) ası́ construida es de Cauchy
y su lı́mite x0 ∈ E ∩ G. ♦

Comentario 1.7.4

1. Del teorema 1.7.3 se deduce que si un espacio métrico es unión numer-


able de cerrados con interior vacı́o, no puede ser completo. Si lo fuera,
el propio espacio tendrı́a interior vacı́o y, por tanto, serı́a vacı́o.
En particular, ningún espacio normado (X, k k) con dim X = ℵ0 es
[ de Banach pues, siendo {xn | n ∈ N} una base tendrı́amos
un espacio
X= [x1 , · · · , xn].
n∈N

2. El teorema 1.7.3 se suele utilizar en la siguiente forma: Si un espa-


cio completo es unión numerable de cerrados, al menos uno de ellos
debe tener algún punto interior. La utilidad de esta formulación se
acrecienta con las siguientes ideas de Jameson:
42 TEMA 1. PRERREQUISITOS

Sea (X, k k) un espacio normado y C un subconjunto de X. Decimos que


X∞
λn xn es una serie convexa de C si
n=1


X
(xn) ⊂ C y λn ≥ 0 ∀n ∈ N, λn = 1
n=1

El subconjunto C se dice

1. sc-cerrado cuando la suma de cualquiera de sus series convexas con-


vergentes está en C

2. sc-compacto si cualquiera de sus series convexas es convergente a un


punto de C.

Comentario 1.7.5

1. Si C es sc-cerrado, C es convexo, pues una serie convexa con λn = 0


para n > n0 es convergente y su suma es una combinación convexa de
elementos de C.

2. Si C es convexo y cerrado, C es sc-cerrado. En efecto:


X∞
Sea λn xn una serie convexa en C convergente a x. Las sumas
n=1
m m
X X Sm
parciales Sm = λn xn y sm = λn cumplen ∈ C ∀m ∈ N
sm
n=1  n=1 
Sm
por ser C convexo. Es claro que → x. Luego x ∈ C por ser C
sm
cerrado.

3. Un subespacio vectorial de X es cerrado si y sólo si es sc-cerrado:

(a) Todo subespacio es convexo y, si es cerrado, es sc-cerrado.


(b) Sea Y ⊂ X un subespacio sc-cerrado. Para ver que Y es cerrado
tomamos (xn ) ⊂ Y tal que (xn ) → x y probamos que x ∈ Y :

X
Elegimos una serie λn = 1 con λn > 0 y formamos la sucesión
n=1

x1 x2 − x1 xn − xn−1
y1 = , y2 = , · · · , yn = ,···
λ1 λ2 λn

X
λn yn es una serie convexa de Y que converge a x, luego x ∈ Y .
n=1
1.7. ESPACIOS DE BANACH 43

4. Si (X, k k) es un espacio de Banach y B su bola unidad abierta,


∀K > 0 se tiene que K · B es sc-compacto. En efecto:
X∞
Sea λn xn cualquier serie convexa de K · B. Como (kλn xn k) es
n=1
sumable, también (λn xn ) es sumable. Si su suma es x es claro que
∞ ∞ ∞
X X X

kxk = λn xn ≤ λn kxn k < K· λn = K. Luego x ∈ K·B.

n=1 n=1 n=1

5. En un espacio de Banach un subconjunto C es sc-compacto si y sólo


si es acotado y sc-cerrado. En efecto:
Si) Puesto que C ⊂ K · B para algún K > 0, toda serie convexa de C
es serie convexa de K · B y, por tanto, convergente. Por ser sc-cerrado,
su suma está en C, luego C es sc-compacto.
Sólo si) Por ser sc-compacto es sc-cerrado y, en consecuencia, con-
vexo. Si no fuera acotado, contendrı́a una recta y podrı́amos construir
una serie convexa no convergente.

Lema 1.7.6 (Jameson)


◦ ◦
Sea (X, k k) un espacio normado y C ⊂ X sc-cerrado. Entonces, C = C.
Demostración:
◦ ◦ ◦
El contenido C ⊂C es evidente. Sólo hay que probar que C⊆ C pues un
abierto contenido en un conjunto, está contenido en su interior.

Sea x ∈ C. Existe un  > 0 tal que x + B ⊂ C. Construimos una sucesión
∞ ∞
X 1 X 1
(xn ) ⊂ C tal que x n = x, es decir, tal que (xn − x) = 0.
2n 2n
n=1 n=1
Veamos que los xn pueden ser elegidos en C de forma que

X k
1 
kSk k := n
(x − x n ) ≤ k+1 ∀k ∈ N :
2 2
n=1
 
x∈C luego ∃x1 ∈ C con kx1 − xk < y kS1 k < 2 .
2 2
 
x − 2 2 S1 ∈ C luego ∃x2 ∈ C con kx2 − x + 22 S1 k < y kS2 k < .
2 23
 
x − 2 3 S2 ∈ C luego ∃x3 ∈ C con kx3 − x + 23 S2 k < y kS3 k < 4 .
2 2
···

Ası́ tenemos una serie convexa en C que converge a x, luego x ∈ C ♦

Ahora podemos dar una nueva caracterización de los espacio de Banach


como los normados en que la bola unidad es sc-compacta.
44 TEMA 1. PRERREQUISITOS

Lema 1.7.7 (Jameson-Baire)

Sea (X, k k) un espacio de Banach y C ⊂ X un subconjunto sc-cerrado,


absorbente y simétrico. Entonces, ∃k > 0 tal que k · B ⊂ C.
Demostración:

[
Por ser C absorbente, X = nC. Por ser (X, d) completo, algún n0 C
n=1
tiene interior no vacı́o, luego C tiene interior no vacı́o. Por ser C sc-cerrado,
el propio C tiene interior no vacio. Por ser C simétrico, 0 es punto interior
y, por tanto, existe k > 0 tal que k · B ⊂ C.♦

Corolario 1.7.8

Si (X, k k) es un espacio de Banach y C ⊂ X es sc-compacto, absorbente y


simétrico, µC es una norma en X equivalente a k k.
Demostración:
Por ser C acotado, el teorema 1.6.3 asegura que µC es una norma en X y el
lema 1.7.7 asegura constantes K > k > 0 tales que k · B ⊂ C ⊂ K · B. Ası́,

kkxk ≤ µC (x) ≤ Kkxk ∀x ∈ X ♦

Ahora presentamos los resultados más conocidos de la teorı́a de las aplica-


ciones lineales continuas entre espacios de Banach, debidos, mayormente, al
genio de Stefan Banach y su escuela de Lvov.

Teorema 1.7.9 Extensión lineal y continua en la clausura

Sea (Z, k k) un espacio normado, X ⊂ Z un subespacio vectorial, X su


clausura en (Z, k k) e (Y, k k) un espacio de Banach. Para cada aplicación
L ∈ Lc (X, Y ) existe una única extensión L̄ ∈ Lc (X, Y ) tal que kL̄k = kLk
Demostración:
Dado x̄ ∈ X ∃(xn ) ⊂ X tal que (xn) → x̄. La sucesión (L(xn)) ⊂ Y
es de Cauchy y, por tanto, convergente. Su lı́mite no depende de la par-
ticular elección de (xn) pues, para cualquier otra (x0n) → x̄, es claro que
lim L(x0n ) = lim L(xn). Ello nos permite definir la aplicación
n→∞ n→∞

L̄ : X → Y
x̄ 7 → lim L(xn )
n→∞

que es lineal y acotada con kL̄k ≤ kLk pues

kL̄(x̄)k = lim kL(xn )k ≤ lim kLk · kxnk = kLk · kx̄k.


n→∞ n→∞
1.7. ESPACIOS DE BANACH 45

Pero también se cumple que kLk ≤ kL̄k porque

{k ≥ 0 | kL̄(x̄)k ≤ kkx̄k ∀x̄ ∈ X} ⊆ {k ≥ 0 | kL(x)k ≤ kkxk ∀x ∈ X}.

Finalmente, suponiendo que existen dos extensiones L̄1 y L̄2 , tendremos

L̄1 (x̄) = lim L̄1 (xn ) = lim L(xn ) = lim L̄2 (xn) = L̄2 (x̄) ∀x̄ ∈ X. ♦
n→∞ n→∞ n→∞

Teorema 1.7.10 Principio de la acotación uniforme


Sea (X, k k) un espacio de Banach e (Y, k k) un espacio normado cualquiera.
Si A ⊆ Lc (X, Y ) está acotado puntualmente, también lo está uniformemente.
Es decir:

sup{kA(x)k | A ∈ A} < ∞ ∀x ∈ X ⇒ sup{kAk | A ∈ A} < ∞

Demostración:
∀A ∈ A el conjunto
\ {x ∈ X| kA(x)k ≤ 1} es cerrado, convexo y simétrico
luego C = {x ∈ X| kA(x)k ≤ 1} también es cerrado, convexo y simétrico.
A∈A
La acotación puntual de A asegura que

∀x ∈ X ∃n ∈ N tal que kA(x)k ≤ n ∀A ∈ A

y, por tanto, C es absorbente. El lema 1.7.7 asegura que ∃k > 0 tal que
kBX ⊆ C y, ası́, kA(kx)k ≤ 1 ∀A ∈ A y ∀x ∈ BX . Por tanto,
1
sup{kAk |A ∈ A} ≤ . ♦
k
Comentario 1.7.11

1. La falta de compacidad de la bola unidad cerrada de un espacio nor-


mado (X, k k) ha motivado la consideración en X de topologı́as más
débiles que la generada por la métrica canónica del espacio. Ello ha
dado lugar a conceptos débiles de convergencia (*) y sumabilidad.
Ası́ decimos, por ejemplo, que una sucesión (xn ) en (X, k k) es

(a) débilmente convergente a x si (f (xn )) → f (x) ∀f ∈ X ? .


(b) débilmente de Cauchy si (f (xn )) es de Cauchy ∀f ∈ X ?
P
(c) débilmente absolutamente sumable si |f (xn )| < ∞ ∀f ∈ X ?

2. No es fácil probar directamente que una sucesión débilmente conver-


gente es acotada en norma pero, el teorema 1.7.10 nos ayuda:
Interpretamos (xn ) como una familia de aplicaciones lineales continuas

xn : X? → R
f 7 → f (xn )
46 TEMA 1. PRERREQUISITOS

Por ser débilmente convergente, (f (xn )) es convergente y, por ende,


acotada ∀f ∈ X ? . Como (X ? , k k) es un espacio de Banach, podemos
aplicar el teorema 1.7.10 y concluir que (kxnk) es acotada.

3. Sean (X, k k) e (Y, k k) espacios normados. Recordamos que una apli-


cación lineal L : X → Y es abierta en x si ∀ε > 0 ∃δ > 0 tal que

δ
L(x) + δBY ⊆ L(x + εBX ) ⇔ δBY ⊆ εL(BX ) ⇔ BY ⊆ L(BX )
ε
Ası́, ser abierta en x equivale a serlo en el origen y equivale a que

∃k > 0 tal que kBY ⊆ L(BX ),

es decir, a que

∃k > 0 tal que ∀y ∈ BY ∃x ∈ BX con ky = L(x)

y, por homogeneidad, a que exista M > 0 tal que

∀y ∈ Y ∃x ∈ X con y = L(x) y kxk ≤ M kyk

Por tanto, las aplicaciones lineales abiertas entre espacios normados


son una clase especial de epimorfismos. Entre espacios de Banach se
cumple el siguiente recı́proco:

Teorema 1.7.12 Teorema de la aplicación abierta


Si (X, k k) e (Y, k k) son espacios de Banach y L : X → Y es un epimorfismo
acotado, L es una aplicación abierta.
Demostración:
Primero probamos que, por ser (X, k k) un espacio de Banach y ser la gráfica
G(L) un subespacio cerrado de X × Y , L(BX ) es sc-cerrado en (Y, k k):

X
Sea λn L(xn) una serie convexa de L(BX ) convergente a y ∈ Y . Como
n=1

X ∞
X
BX es sc-compacto, λn xn = x ∈ BX y, por tanto, λn (xn, L(xn)) es
n=1 n=1
una serie convexa de G(L) que converge a (x, y). Como G(L) es cerrado, es
sc-cerrado luego, (x, y) ∈ G(L), y ∈ L(BX ) y L(BX ) es sc-cerrado.
Además, es evidente que L(BX ) es simétrico y, por ser L suprayectiva,
L(BX ) es absorbente. Por ser (Y, k k) un espacio de Banach el lema 1.7.7
asegura que ∃k > 0 tal que kBY ⊆ L(BX ). Luego L es una aplicación
abierta. ♦
1.7. ESPACIOS DE BANACH 47

Comentario 1.7.13

1. Si (X, k k) e (Y, k k) son espacios de Banach y L : X → Y es una


aplicación lineal continua y biyectiva, su inversa L−1 : Y → X también
es continua.

2. Si (X, k k) es un espacio de Banach y | | es otra norma en X para la


que ∃K > 0 cumpliendo kxk ≤ K|x| ∀x ∈ X, ambas normas son
equivalentes si y sólo si (X, | |) es, también, un espacio de Banach. En
efecto:
Si son equivalentes toda sucesión de Cauchy en (X, | |) es de Cauchy en
(X, k k), convergente en (X, k k) y convergente en (X, | |). Por tanto,
(X, | |) es un espacio de Banach.
Si X0 = (X, | |) es un espacio de Banach, la identidad I : X0 → X, por
ser continua y suprayectiva, es abierta. Entonces, I −1 = I : X → X0
es continua y, por tanto, ∃k > 0 tal que |x| ≤ kkxk ∀x ∈ X.
Luego ambas normas son equivalentes.

Teorema 1.7.14 Teorema de la gráfica cerrada

Sean (X, k k) e (Y, k k) espacios de Banach y sea L ∈ L(X, Y ) tal que su


gráfica G(L) es cerrada. Entonces, L ∈ Lc (X, Y ).
Demostración:
Primero probamos que, por ser (Y, k k) un espacio de Banach y ser G(L) un
subespacio cerrado de X ×Y , L−1 (BY ) = {x ∈ X | L(x) ∈ BY } es sc-cerrado
en (X, k k):
X∞
Sea λn xn una serie convexa de L−1 (BY ) convergente a x ∈ X. Como
n=1

X ∞
X
BY es sc-compacta, λn L(xn ) = y ∈ BY . Ası́, λn (xn , L(xn)) es una
n=1 n=1
serie convexa de G(L) que converge a (x, y) y, como G(L) es sc-cerrado por
ser un subespacio cerrado, podemos asegurar que (x, y) ∈ G(L). Por tanto,
y = L(x), x ∈ L−1 (BY ) y L−1 (BY ) es sc-cerrado en (X, k k).
Además, es evidente que L−1 (BY ) es simétrico y absorbente. Entonces, por
ser (X, k k) un espacio de Banach, el lema 1.7.7 asegura que ∃k > 0 tal que
1
kBX ⊆ L−1 (BY ) y, por tanto, L(BX ) ⊂ BY . ♦
k

Comentario 1.7.15

1. Si en un espacio de Banach (X, k k) hay dos subespacios cerrados Y, Z


tales que X = Y ⊕ Z, la proyección P : X → X con im P = Y y
ker P = Z es continua porque su gráfica G(P ) es cerrada. En efecto:
48 TEMA 1. PRERREQUISITOS

Si una sucesión (xn , P (xn)) ⊂ G(P ) converge a (x, y) es claro que


(
(P (xn )) ⊂ Y y (P (xn )) → y luego y ∈ Y
(xn − P (xn )) ⊂ Z y (xn − P (xn )) → x − y luego x − y ∈ Z

Por tanto, P (x) = y y, en consecuencia, (x, y) ∈ G(P ).

2. Dada una sucesión débilmente absolutamente sumable (xn ) en un es-


pacio normado (X, k k), no es fácil comprobar directamente la con-
tinuidad de la aplicación lineal asociada a dicha sucesón:

L: X? → `1
f 7→ (f (xn ))

Sin embargo, por ser X ? y `1 espacios de Banach, el teorema 1.7.14


reduce la prueba a comprobar que G(L) es cerrado en X ? × `1 :
Sea (fn , L(fn )) ⊂ G(L) tal que (fn , L(fn)) → (f, s) ∈ X ? × `1 y
elijamos cualquier n0 ∈ N y cualquier ε > 0. Como (fn ) → f es claro
que (fn (xn0 )) → f (xn0 ) y, por tanto,

∃n1 tal que |f (xn0 ) − fn1 (xn0 )| < ε

Como L(fn ) → s es claro que (kL(fn ) − sk1 ) → 0 y, por tanto,



X
∃n2 tal que |fn2 (xn ) − s(n)| < ε
n=1

Tomando n3 = max{n1 , n2 } tendremos

|f (xn0 ) − s(n0 )| ≤ |f (xn0 ) − fn3 (xn0 )| + |fn3 (xn0 ) − s(n0 )| < 2ε

y, como ε es arbitrario, f (xn0 ) = s(n0 ) ∀n0 ∈ N. Por tanto,

L(f ) = (f (xn)) = s y (f, s) ∈ G(L)

1.8 Bases de Schauder


Una de las mejores estrategias para resolver problemas en un espacio nor-
mado (X, k k) es encontrar un adecuado conjunto minimal B tal que cada
elemento de X se pueda representar de manera única como una combinación
lineal de elementos de B. Si el espacio vectorial X es de dimensión finita
esos conjuntos son las bases algebraicas y ya tenemos amplia experiencia de
cómo su adecuada elección puede facilitar la resolución de problemas. Sin
embargo, si (X, k k) es un espacio de Banach y X no es de dimensión finita,
el cardinal de cualqiera de sus bases algebraicas es estrictamente mayor que
ℵ0 y, por tanto, las bases algebraicas resultan de muy poca utilidad.
1.8. BASES DE SCHAUDER 49

Surge ası́ la idea de buscar una sucsesión (xn) ⊂ X tal que para cada
elemento x ∈ X exista una única sucesión (λn) ⊂ R de modo que

X
x= λn xn
n=1

Si tal sucesión (xn) existe se llama base de Schauder del espacio normado
(X, k k). Para ello es necesario y suficiente que
!
k
X

∀x ∈ X ∃!(λn) ⊂ R tal que x − λn xn → 0

n=1

La existencia de base de Schauder en un espacio normado (X, k k) es una


cuestión delicada en la que intervienen las peculiaridades, tanto del espacio
vectorial X, como de la norma k k, en el modo que indican los siguientes

Ejemplos 1.8.1

1. Es fácil comprobar que cualquier s ∈ c0 admite un desarrollo único



X
s= λn δn con λn = s(n) ∀n ∈ N
n=1

puesto que éstas son las condiciones necesarias y suficientes para que
 
max {|s(n) − λn | |n ≤ k} ∪ {|s(n)| |n > k} → 0

Sin embargo, en `∞ estas condiciones no se puede conseguir.

2. También es fácil comprobar que cualquier s ∈ `p con p ∈[1,∞) admite


una única expresión

X
s= λn δn con λn = s(n) ∀n ∈ N
n=1

puesto que éstas son las condiciones necesarias y suficientes para que
k ∞
!
X X
|s(n) − λn |p + |s(n)|p → 0
n=1 n=k+1
50 TEMA 1. PRERREQUISITOS

Observaciones 1.8.2

1. Si (xn ) es base de Schauder de (X, k k) se tiene que



X
λn xn = 0 ⇔ λn = 0 ∀n ∈ N
n=1

En consecuencia, {xn | n ∈ N} es una familia libre pero, su grado de


independencia es más fuerte que el lineal pues hay familias linealmente
libres que no cumplen esta condición:
1 1
{yn | n ∈ N} ⊂ c0 tal que y1 = δ1 e yn = δn − δn−1 ∀n ≥ 2
2 2
Cualquier subconjunto finito {yn1 , yn2 , ..., ynk } con n1 < n2 < ... < nk
está contenido en {y1 , y2 , ..., ynk } y claramente vemos que

[y1 , y2, ..., ynk ] = [δ1 , δ2 , ..., δnk ]

Como {δn } es libre, {y1 , y2, ..., ynk } es linealmente independiente y, a



X 1
fortriori, también lo es {yn1 , yn2 , ..., ynk }. Sin embargo, yn = 0.
2n
n=1

2. Si (xn ) es base de Schauder de (X, k k) y (µn ) es una sucesión de


escalares no nulos, también (µn xn ) es base de Schauder de (X, k k).
En particular, siempre podemos sustituir cada xn por un elemento de
norma 1 y obtener una base de Schauder normalizada (un ).

3. Si (xn) es base de Schauder de (X, k k), tan próximo a cada x ∈ X


Xm
como podamos pensar, hay un qn xn con qn racional y, por tanto,
n=1
todo espacio normado con base de Schauder tiene un subconjunto
denso numerable. Ası́, la cuestión de la existencia de base de Schauder
sólo tiene sentido plantearla en el ámbito de los espacios normados
separables y fue resuelta negativamente por Enflo construyendo un
espacio de Banach separable sin bases de Schauder[28].

4. En `∞ dos elementos distintos cuyos términos sean +1 o −1 están a


distancia 2. Hay un continuo de esos elementos y, por tanto, `∞ no
es separable. Por eso, no sólo {δn |n ∈ N} no es base de Schauder de
`∞ , como hemos dicho en 1.8.1,1, sino que este espacio no puede tener
bases de Schauder.

Un subconjunto T de un espacio normado (X, k k) se llama total cuando


[T ] = X. El mı́nimo de los cardinales de los conjuntos totales de (X, k k) se
designa T(X). Es inmediato comprobar que T(X) es, también, el mı́nimo de
1.8. BASES DE SCHAUDER 51

los cardinales de los conjuntos densos de (X, k k) pues, todo denso es total
y, si T es total, [T ] es denso y también lo es el conjunto de combinaciones
lineales de elementos de T con coeficientes racionales que designamos [T ]Q
y tiene el mismo cardinal que T .

En un espacio normado (X, k k), siempre sucede que T(X) ≤ dim X, pues
toda base algebraica es un conjunto total. En un espacio de Banach sepa-
rable (X, k k), sólo hay dos posibilidades:

1. T(X) = dim(X) < ℵ0 ⇔ bola unidad cerrada compacta.

2. T(X) = ℵ0 < dim(X) ⇔ bola unidad cerrada no compacta.

Teorema 1.8.3
Sea (X, k k) un espacio de Banach y (xn) una base de Schauder en la que
X∞
x= λn xn . Para cada k ∈ N la aplicación
n=1

Pk : X → X
k
X
x 7→ λn xn
n=1

es lineal, idempotente y acotada. Además, sup{kPk k | k ∈ N} < ∞.


Demostración:
La linealidad y la idempotencia de cada Pk son evidentes. Además, para
cada k ∈ N tenemos la suma directa de subespacios cerrados

X = [x1 , · · · , xk ] ⊕ [xk+1 , xk+2 , · · · ] = Yk ⊕ Zk

y es claro que Pk es la proyección con im Pk = Yk y ker Pk = Zk . Según el


comentario 1.7.15,1, Pk es acotada. !
Xk

Por otra parte, como la sucesión x − λn xn es convergente a 0, es

n=1
acotada y, ası́, existe Kx > 0 tal que

Xk Xk

kxk − λn xn ≤ x − λn xn ≤ Kx

n=1 n=1

Xk

En consecuencia, kPk (x)k = λn xn ≤ Kx + kxk < ∞ ∀k ∈ N y el

n=1
teorema 1.7.10 asegura que sup{kPk k | k ∈ N} < ∞. ♦.
52 TEMA 1. PRERREQUISITOS

Comentario 1.8.4

1. Si (X, k k) es un espacio Banach y (xn ) una base de Schauder, las


proyecciones Pk : X → X consideradas en 1.8.3 son las proyecciones
básicas y la constante sup{kPk k | k ∈ N} es la constante básica.

2. Los funcionales lineales

fk : X → R

X
λn xn 7→ λk
n=1

se llaman básicos y son continuos por serlo las proyecciones básicas.

3. La sucesión (fn ) cumple:


(
1 si k = n
(a) Es biortogonal a (xn ): fk (xn ) = .
0 si k 6= n
(b) Separa los puntos de X: Si x 6= y ∃fk tal que fk (x) 6= fk (y)
k
X k
X k
X
(c) Pk = fn ⊗ xn : Pk (x) = fn (x)xn = λn xn ∀x ∈ X
n=1 n=1 n=1

Para finalizar la sección, damos dos resultados de identificación de bases:

Teorema 1.8.5
Si (X, k k) es un espacio normado, (xn) ⊂ X es total, existe (fn ) ⊂ X ?
( k )
X

biortogonal a (xn ) y existe K > 0 tal que sup fn ⊗ xn ≤ K, se
k∈N n=1
tiene que (xn ) es base de Schauder de (X, k k).
Demostración:

X
Como (fn ) es biortogonal a (xn ), si x = λn xn , forzosamente λn = fn (x).
n=1
Esto asegura la unicidad del desarrollo en serie en el caso de que exista.
Probemos la existencia de tal desarrollo:
ε
Dado un x ∈ X y un ε > 0 existe un y ∈ [(xn)] tal que kx − yk < .
K+1
Este y está en un [x1 , x2 , ..., xn0], luego Pn (y) = y ∀n ≥ n0 . Por tanto,
kPn (x) − xk ≤ kPn (x) − Pn (y)k + ky − xk ≤ (1 + kPnk)kx − yk ≤ ε ∀n ≥ n0 .
X∞
Es decir, (Pn (x)) → x o, lo que es lo mismo, fn (x)xn = x. ♦
n=1
1.8. BASES DE SCHAUDER 53

Corolario 1.8.6
Sea (X, k k) un espacio de Banach y sea (xn) ⊂ X una sucesión total de
vectores no nulos. Son equivalentes:
1. (xn ) es base de Schauder
2. ∃k > 0 tal que ∀(λn) ⊂ R se verifica
p q
X X

λn xn ≥ k λn xn cuando p ≥ q

n=1 n=1

Demostración:
1.⇒ 2. Si (xn ) es base de Schauder y Pn , K son sus proyecciones y su cons-
X p X q
tante, dado x = λn xn tenemos Pq (x) = λn xn si p ≥ q.
n=1 p n=1 q
X 1
X
Como kPq (x)k ≤ Kkxk, se tiene que λn xn ≥ λn xn .
K
n=1 n=1
p
X
2.⇒ 1. Si αn xn = 0, por recurrencia tenemos α1 x1 = 0, · · · , αpxp = 0.
n=1
Ası́, (xn ) es libre y ∀y ∈ [(xn)] = Y habrá una representación única
X∞
λn xn = y donde sólo un número finito de coficientes serán no nulos.
n=1 !
Xn
Consideramos (fn ) ⊂ Y a tal que fn (y) = λn y Pn = fi ⊗ xi . Es
i=1
claro que fi (xj ) = δij ∀(i, j) ∈ N × N. Además, la hipótesis asegura
1
que kPq (y)k ≤ kyk ∀y ∈ Y, ∀q ∈ N. Por tanto, (Pn ) ⊂ Lc (Y )
k
y, en consecuencia, (fn ) ⊂ Y ? . El teorema 1.6.5 nos extiende cada fn
a un f¯n ∈ X ? de igual norma y nos proporciona la (f¯n ) biortogonal
Xn
a (xn) y las proyecciones básicas P̄n = f¯i ⊗ xi . Nuevamente la
i=1
1
hipótesis nos asegura que kP̄q (x)k ≤ kxk ∀x ∈ X, ∀q ∈ N. Luego
k
1
(xn ) es base de Schauder y su constante es menor o igual que . ♦
k
Comentario 1.8.7
1. Un espacio de Banach (X, k k) con base de Schauder puede consi-
derarse un espacio de sucesiones: Si (un ) es una base normalizada,
X∞
x= λn un es la serie de Fourier de x y (λn ) son sus coeficientes
n=1
de Fourier.
54 TEMA 1. PRERREQUISITOS

2. En las condiciones del punto anterior, la transformación de Fourier

Φ: X → c0
x 7→ (λn )

está bien definida y es lineal, inyectiva y continua. En efecto:


Por ser (λnun ) sumable, (λn un ) → 0 y, como kun k = 1, (λn ) → 0.
Ası́, Φ(X) ⊂ c0 y Φ está bien definida. La linealidad y la inyectividad
son claras. Como X y c0 son espacios de Banach para probar la con-
tinuidad de Φ basta ver que G(Φ) es cerrado en X × c0 :
Sea (xm, sm ) ⊂ G(Φ) tal que (xm, sm ) → (x, s). Entonces,

k
!!
X
x = lim xm = lim lim sm (n)un =
m→∞ m→∞ k→∞
n=1

k
!! ∞
X X
= lim lim sm (n)un = s(n)un
k→∞ m→∞
n=1 n=1

con lo cual, s = Φ(x) y (x, s) ∈ G(Φ).

3. Un problema planteado en el espacio de Banach (X, k k) se puede


trasladar a c0 , resolverlo en él más cómodamente y retornar a (X, k k)
para interpretar el resultado, siempre que sea posible realizar la vuelta
con continuidad.

4. Si (µn ) ∈ `1 , por 1.7.2 (µn un ) es sumable, luego (µn ) es la sucesión de


coeficientes de Fourier de un x ∈ X. Es decir, `1 ⊂ Φ(X) ⊂ c0 .

1.9 Teoremas de Stone-Weierstrass


Si (X, k k) es un espacio normado de funciones reales y lo dotamos con el
producto puntual, tenemos un álgebra unitaria normada. Los teoremas
de Stone y Weierstrass determinan si un subconjunto W ⊂ X genera una
subálgebra [Π(W )] densa en (X, k k). En [Π(W )] están, no sólo las combina-
ciones lineales de los elementos de W , sino también, las combinaciones lin-
eales de los productos de elementos de W y, por tanto, partiendo de subcon-
juntos W de cardinal pequeño podemos asegurar la densidad X = [Π(W )].
Esta información siempre interesa en la teorı́a de aproximación y es impres-
cindible en la teorı́a de bases de Schauder.

Sea (T, d) un espacio métrico y sea B(T, R) = {f : T → R | f acotada}. Con


la suma y el producto puntuales, y la operación externa habitual, B(T, R)
es un álgebra vectorial unitaria. Claramente es una norma la aplicación
1.9. TEOREMAS DE STONE-WEIERSTRASS 55

k k∞ : B(T, R) → R
f 7→ sup{|f (t)|}
t∈T

y (B(T, R), k k∞) es un álgebra de Banach con unidad puesto que

1. (B(T, R), k k∞) es un espacio de Banach

2. kf · gk∞ ≤ kf k∞ · kgk∞ ∀(f, g) ∈ B(T, R) × B(T, R)

3. k1k∞ = 1 siendo 1 : T → R la función constante unidad

Consideramos, también, C(T, R) = {f : T → R | f continua}. Con la suma


y el producto puntuales, y la operación externa habitual, C(T, R) es un
álgebra vectorial unitaria. En élla consideramos la topologı́a k en la que
cada punto f ∈ C(T, R) tiene la base de entornos abiertos

{BεK (f ) | ε > 0, K compacto en (T, d) }

donde
BεK (f ) = {g ∈ C(X, R) | |f (t) − g(t)| < ε ∀t ∈ K}
Es rutinario comprobar que k es una topologı́a Hausdorff y hace continuas
a todas las operaciones del álgebra C(T, R). Además, si (T, d) es compacto,
k es la topologı́a generada por la norma

k k∞ : C(T, R) → R
f 7→ sup{|f (t)|}
t∈T

Teorema 1.9.1 (Stone-Weierstrass I)

Sea (T, d) un espacio métrico y sea W ⊂ C(T, R) un subconjunto que


separa los puntos de T y contiene una función constante no nula. Entonces,
la subálgebra [Π(W )] es densa en (C(T, R), k).

La demostración de este teorema necesita varios lemas previos:

Lema 1.9.2

Existe una sucesión de polinomios (pn ) que satisfacen ∀n ∈ N y ∀t ∈ [0, 1]:

1. pn (0) = 0

2. 0 ≤ pn (t) ≤ t

√ 2 t
3. t − pn (t) ≤ √ .
2+n t
En particular,
56 TEMA 1. PRERREQUISITOS

√ 2
(A) t − pn (t) ≤
n

(B) lim sup | t − pn (t)| = 0
n t∈[0,1]

Demostración:
Veamos que la sucesión de polinomios, definida por iteración en la forma:
t 1
p1 (t) = , pn+1 (t) = pn (t) + (t − p2n (t))
2 2
cumple las propiedades exigidas. Es claro que p1 las cumple. Procediendo
por inducción, asumimos que pn las cumple y las probamos para pn+1 :

1. Evidente

2. Restando las igualdades


( √ √
t = t
√ √
pn+1 (t) = pn (t) + 21 ( t − pn (t))( t + pn (t))

obtenemos
 √ 
√ √ t + pn (t)
(?) t − pn+1 (t) = t − pn (t) 1−
2
√ √ √ √
y como 1 ≥ t y t ≥ pn (t) resulta que 2 ≥ 2 t ≥ t + pn (t).
Luego el segundo miembro de (?) es positivo y, por tanto,
√ √
t − pn (t) ≥ 0 ⇒ t − pn+1 (t) ≥ 0
1
Como pn+1 (t) = pn (t) + (t − p2n (t)) y, t − p2n (t) ≥ 0, tenemos
2
que pn (t) ≥ 0 ⇒ pn+1 (t) ≥ 0.

3. Según 2. es inmediato que


√ √ √
t + pn (t) t t
≥ ≥ √
2 2 2 + (n + 1) t
luego
√ √ √
t + pn (t) t t
(??) 1− ≤1− ≤1− √ .
2 2 2 + (n + 1) t

Por la hipótesis de inducción, de (?) obtenemos


 √  √  √ 
√ √ t + pn (t) 2 t t + pn (t)
t−pn+1 (t) = t − pn (t) 1− ≤ √ 1−
2 2+n t 2
1.9. TEOREMAS DE STONE-WEIERSTRASS 57

y de (??) obtenemos que


√  √  √  √  √
2 t t + pn (t) 2 t t 2 t
√ 1− ≤ √ 1− √ = √ .
2+n t 2 2+n t 2 + (n + 1) t 2 + (n + 1) t

√ 2 t
En consecuencia, t − pn+1 (t) ≤ √ . ♦
2 + (n + 1) t

Corolario 1.9.3

Dado 0 < a < ∞ existe una sucesión de polinomios (qn ) que satisfacen
∀n ∈ N y ∀t ∈ [−a, a]:

1. qn (0) = 0
2a
2. ||t| − qn (t)| ≤
n
En particular,

(C) lim sup | |t| − qn (t)| = 0


n t∈[−a,a]

Demostración:
 2
t
Si qn (t) = a pn es claro que qn (0) = 0. Por el lema 1.9.2 tenemos
a2
 2   2 
t
− pn t ≤ 2 luego |t| − apn t = ||t| − qn (t)| ≤ 2a . ♦

a a2 n 2
a n

Lema 1.9.4

Sea (T, d) un espacio métrico y sea (B(T, R), k k∞) el álgebra de Banach
de las funciones acotadas. Si W ⊂ B(T, R) es no vacı́o y cerrado para el
producto punual, [W ] tiene las siguientes propiedades:

1. f ∈ [W ] ⇒ |f | ∈ [W ]

2. f1 , f2 ∈ [W ] ⇒ max(f1 , f2 ) ∈ [W ], min(f1 , f2 ) ∈ [W ].

Demostración:

1. Por ser W cerrado para el producto, también lo es su envoltura lineal:

f1 , f2 ∈ [W ] ⇒ f1 · f2 ∈ [W ]

Para una f ∈ [W ], denotamos a = kf k∞ y probamos que |f | ∈ [W ] :


Cuando f = 0 el resultado es trivial, por lo que suponemos a > 0.
58 TEMA 1. PRERREQUISITOS

Si (qn ) es la sucesión de polinomios que el corolario 1.9.3 asegura para


el intervalo [−a, a], como f (t) ∈ [−a, a] ∀t ∈ T , tenemos
2a
k |f |−qn ◦f k∞ ≤ ∀n ∈ N y, por tanto, lim k |f |−qn ◦f k∞ = 0.
n n

Por ser qn un polinomio sin término independiente y ser [W ] cerrado


para el producto y ser f ∈ [W ], es claro que qn ◦ f ∈ [W ] ∀n ∈ N.
Entonces, lim qn ◦ f = |f | ∈ [W ].
n

Para cualquier f¯ ∈ [W ], existirá una sucesión (fn ) ⊂ [W ] tal que

lim kfn − f¯k∞ = 0.


n

Entonces, evidentemente,
¯ k∞ = 0
lim k |fn| − |f|
n

y, como |fn | ∈ [W ] ∀n ∈ N , lim |fn | = |f¯| ∈ [W ].


n

2. Para funciones acotadas arbitrarias f1 , f2 es claro que


f1 + f2 + |f1 − f2 | f1 + f2 − |f1 − f2 |
max(f1 , f2 ) = , min(f1 , f2 ) = .
2 2
Como [W ] es un espacio vectorial, el resultado se deduce directamente
del punto anterior. ♦

Lema 1.9.5
Sea (T, d) compacto, sea f ∈ C(T, R) y sea {ut | t ∈ T } ⊂ C(T, R). Entonces:
1. Si ut (t) > f (t) ∀t ∈ T ⇒ ∃ n ∈ N y ∃{t1 , . . ., tn } ⊂ T tal que
la función M = max{ut1 , . . . , utn } también cumple que

M (t) > f (t) ∀t ∈ T.

2. Si ut (t) < f (t) ∀t ∈ T ⇒ ∃ n ∈ N y ∃{t1 , . . ., tn } ⊂ T tal que


la función m = min{ut1 , . . . , utn } también cumple que

m(t) < f (t) ∀t ∈ T.

Demostración:
1. Sea Gt = {s ∈ T | ut(s) > f (s)}. Por ser f y ut continuas, Gt es abierto
y, claramente, t ∈ Gt . Por tanto, {Gt | t ∈ T } es un cubrimiento
abierto de T . Como (T, d) es compacto, existe un n ∈ N y existe
{t1 , · · · , tn } ⊂ T tales que Gt1 ∪ · · · ∪ Gtn = T . Es fácil comprobar
que la función M = max{ut1 , . . . , utn } tiene la propiedad deseada.
1.9. TEOREMAS DE STONE-WEIERSTRASS 59

2. Se prueba de modo similar. ♦

Lema 1.9.6

Sea (T, d) compacto y sea W ⊂ C(T, R) con la propiedad reticular:

f1 , f2 ∈ W ⇒ max(f1 , f2 ) ∈ W y min(f1 , f2 ) ∈ W

Entonces, dada f ∈ C(T, R) y dado ε > 0, son equivalentes:

1. ∃ g ∈ W tal que |f (t) − g(t)| < ε ∀t ∈ T


(
|f (t) − ut,s (t)| < ε
2. ∃ {ut,s | t, s ∈ T } ⊂ W tal que ∀t, s ∈ T
|f (s) − ut,s (s)| < ε

Demostración:

1 ⇒ 2 Si g ∈ W satisface 1, la familia ut,s = g, ∀t, s ∈ T satisface 2.

2 ⇒ 1 Fijado un t ∈ T observamos que


(
ut,s (t) < f (t) + ε
∀s ∈ T
ut,s (s) > f (s) − ε

El lema 1.9.5 aplicado a la función f −ε y a la familia {ut,s | s ∈ T } ase-


gura un {s1 , · · · , sn } ⊂ T tal que Mt = max{ut,s1 , · · · , ut,sn } también
cumple que Mt (s) > f (s) − ε ∀s ∈ T . Además, por lo exigido a
W , Mt ∈ W , y como ut,si (t) < f (t) + ε ∀i = 1, . . ., n, resulta que
Mt (t) < f (t) + ε.

El lema 1.9.5 aplicado a la función f + ε y la familia {Mt | t ∈ T } ⊂ W ,


asegura un {t1 , . . ., tm } ⊂ T tal que g = min{Mt1 , . . . , Mtm } cumple
que g(t) < f (t) + ε ∀t ∈ T . Además g ∈ W y como Mtj (s) >
f (s) − ε ∀j = 1, . . . , m, también g(s) > f (s) − ε ∀s ∈ T .
Luego esta g ∈ W cumple que |f (t) − g(t)| < ε ∀t ∈ T ♦

Estudiamos, a continuación, cómo influye la capacidad de separar puntos.


En primer lugar suponemos una capacidad para separar fuertemente:

Lema 1.9.7

Sea (T, d) compacto y sea W ⊂ C(T, R) con la propiedad reticular fuerte

1. f1 , f2 ∈ W ⇒ max(f1 , f2 ) ∈ W y min(f1 , f2 ) ∈ W
( (
(t, s) ∈ T × T \ ∆T g(t) = λ
2. ∀ ⇒ ∃ g ∈ W tal que
(λ, µ) ∈ R × R g(s) = µ
60 TEMA 1. PRERREQUISITOS

Entonces W es denso en (C(X, R), k · k∞ ).


Demostración:
Fijados f ∈ C(T, R) y ε > 0 hallaremos una g ∈ W tal que kf − gk∞ < ε:

Para cualesquiera t 6= s en T , la condición 2 aplicada a las parejas (t, s)


y (f (t), f (s)) asegura la existencia de una ut,s ∈ W tal que ut,s (t) = f (t) y
ut,s (s) = f (s). Ası́, obtenemos una familia {ut,s | t, s ∈ T } ⊂ W que cumple
la condición 2 del lema 1.9.6 para nuestra f y nuestro ε. Ello equivale a
asegurar la existencia de una g ∈ W tal que ∀t ∈ T |f (t) − g(t)| < ε. ♦

Lema 1.9.8

Sea (T, d) compacto y sea W ⊂ C(T, R) un subespacio vectorial tal que

1. f1 , f2 ∈ W ⇒ max(f1 , f2 ) ∈ W y min(f1 , f2 ) ∈ W

2. W separa puntos de T

3. 1 ∈ W

Entonces W es denso en (C(X, R), k · k∞ ).


Demostración:
Sólo necesitamos probar que W cumple la condición 2 del lema 1.9.7:

Fijemos t 6= s en T y cualesquiera λ, µ en R. Por tener W la capacidad


de separar los puntos de T sabemos que existe f ∈ W tal que f (t) 6= f (s).
La función
g: T → R
r 7 → λ + (µ − λ) ff (r)−f (t)
(s)−f (t)

cumple que g(t) = λ y g(s) = µ. Además, g es una combinación lineal de f


y 1, ambas en el espacio vectorial W , luego g ∈ W . ♦

Lema 1.9.9

Sea (T, d) compacto y sea W ⊂ C(T, R) un subconjunto que cumple:

1. W separa los puntos de T

2. 1 ∈ W

Entonces, [Π(W )] es denso en (C(X, R), k · k∞ ).


Demostración:
El conjunto Π(W ) es, trivialmente, cerrado para la formación de productos
1.9. TEOREMAS DE STONE-WEIERSTRASS 61

y el lema 1.9.4 asegura que la clausura [Π(W )] formada en (B(T, R), k · k∞ )


tiene la propiedad reticular

f1 , f2 ∈ [Π(W )] ⇒ max(f1 , f2 ) ∈ [Π(W )], min(f1 , f2 ) ∈ [Π(W )]

Como [Π(W )] ⊂ C(T, R) y C(T, R) es cerrado en (B(T, R), k · k∞ ),


[Π(W )] coincide con la clausura de [Π(W )] formada en (C(T, R), k · k∞ ).
Finalmente, como [Π(W )] es un subespacio vectorial de C(T, R) que cumple
la propiedad reticular, separa los puntos de T y contiene a la función 1, el
lema 1.9.8 asegura que [Π(W )] es denso en (C(T, R), k · k∞) y, en consecuen-
cia, también [Π(W )] es denso en (C(T, R), k · k∞ ) ♦

Demostración (Stone-Weiersras I):


Fijamos f ∈ C(T, R), ε > 0 y un compacto K no vacı́o de (T, d). Necesita-
mos encontrar una función g ∈ [Π(W )] tal que sup |f (t) − g(t)| < ε:
t∈K
En primer lugar, constatamos que

[Π({w|K | w ∈ W })] = {u|K | u ∈ [Π(W )]}.

El sunconjunto {w|K | w ∈ W } ⊂ C(K, R) separa puntos de K y contiene


una función constante no nula. El lema 1.9.9 asegura que

[Π({w|K | w ∈ W })] es denso en (C(K), k k∞)

y , como f |K ∈ C(K, R), existe una g0 ∈ [Π({w|K | w ∈ W })] tal que

sup |f (x) − g0 (x)| < ε


x∈K

y, por tanto, existe una g ∈ [Π(W )] tal que g|K = g0 . Evidentemente, esta
g satisface nuestras espectativas. ♦

Observación 1.9.10
El teorema 1.9.1 no funciona en el caso de funciones con valores complejos. Si
C(T, C) = {f : T → C | f continua }, las condiciones de separar los puntos
de T y contener funciones constantes no nulas, no son suficientes para que
se cumpla el lema 1.9.9 en el caso de un W ⊂ C(T, C).
Por ejemplo, T = {z ∈ C | |z| ≤ 1} con la métrica canónica, es un espacio
métrico compacto y el conjunto W = {1, z} separa puntos de T y contiene
una función constante no nula. Sin embargo, [Π(W )] no es denso en C(X, C)
porque la función z → z̄ que es contiua, no es derivable en sentido complejo
y, por tanto, no es desarrollable en serie de potencias.
62 TEMA 1. PRERREQUISITOS

Teorema 1.9.11 (Stone-Weierstrass II)


Sea (T, d) un espacio métrico y sea W ⊂ C(T, C) un subconjunto que
separa los puntos de T , contiene una función constante no nula y admite
conjugados. Entonces, la subálgebra [Π(W )] es densa en (C(T, C), k).
Demostración:
Bastará probar que si (T, d) es compacto y W ⊂ C(T, C) separa los puntos
de T , contiene a la función 1 y admite conjugados, se verifica que [Π(W )] es
denso en (C(T, C), k · k∞ ):
Sea AR = {Re(f ) | f ∈ [Π(W )]}. Es claro que AR ⊂ [Π(W )] pues
(
1
f ∈ [Π(W )] 1 1
f ∈ [Π(W )] ⇒ 12 ⇒ Re(f ) = f + f¯ ∈ [Π(W )]
¯ 2 2
2 f ∈ [Π(W )]

Además, AR es una subálgebra de C(T, R) que, obviamente, contiene a la


función 1, y separa puntos de T puesto que, si t, s son dos puntos distintos
de T , existe una f ∈ W tal que f (t) 6= f (s) y, por tanto, o son separados
por Re(f ) ∈ AR o por Im(f ) = Re(−if ) ∈ AR .
El lema 1.9.9 asegura que AR es densa en (C(T, R), kk̇∞) y, en consecuencia,
[Π(W )] = AR + iAR es denso en C(T, C) = C(T, R) + iC(T, R). ♦

Corolario 1.9.12 (Stone-Weierstrss III)


Sea (T, d) compacto, sea t0 un punto dado en T y sea

C0 (T, C) = {f ∈ C(T, C) | f (t0) = 0}.

Entonces, cualquier álgebra A0 ⊂ C0 (T, C) que separa los puntos de T y


tiene conjugados, es densa en (C0 (T, C), k k∞).
Demostración:
Sea c ∈ C una constante no nula. Del teorema 1.9.11 se deduce que el
conjunto W = A0 ∪ {c} genera un álgebra densa en (C(T, C), k k∞), luego
∀f ∈ C0 (T, C) y ∀ε > 0 ∃g ∈ A0 y ∃a ∈ C tal que
ε
kf − (g + a)k∞ <
2
ε
Pero |a| = |f (t0 ) − g(t0 ) − a| ≤ kf − (g + a)k∞ < luego
2
kf − gk∞ = kf − (g + a) + ak∞ ≤ kf − (g + a)k∞ + |a| < ε. ♦

En todos los enunciados de esta sección 1.9 podemos substituir el espacio


métrico (T, d) por cualquier espacio topológico de Hausdorff (T, τ ). La sen-
cillez de comprobación de las hipótesis de los teorema 1.9.1 y 1.9.11 hacen de
ellos herramientas de gran aplicabilidad, como podemos ver en los siguientes:
1.9. TEOREMAS DE STONE-WEIERSTRASS 63

Comentario 1.9.13

1. Si T es el intervalo real [a, b] y d(t, s) = |t − s|, basta tomar W = {1, t}


para estar en las condiciones exigidas en el lema 1.9.9. Entonces,
Π(W ) = {1, t, t2 , ..., tn, ...} y [Π(W )] es el álgebra de los polinomios en
una variable. El lema 1.9.9 nos asegura que es densa en C∞ [a, b] y,
ası́, dada f : [a, b] → R continua y dado  > 0
k
X
∃ Φ(t) = an tn tal que kf − Φk∞ <  .
n=0

2. Si T = [a, b] × [c, d] y d(x1 , x2) = kx1 − x2 k2 , basta tomar


(
P1 (x) = x
W = {1, P1 , P2 } donde ∀x = (x, y) ∈ [a, b] × [c, d]
P2 (x) = y

para estar en las condiciones exigidas en el lema 1.9.9. Entonces, la


familia de todos los productos de elementos de W es

Π(W ) = {1, ..., Pnm, ...} donde Pnm : [a, b] × [c, d] → R,


x 7→ xn y m

y [Π(W )] es el álgebra de los polinomios en dos variables. El lema


1.9.9 nos asegura que dada f : [a, b] × [c, d] → R continua y dado  > 0
k
X
∃ Φ(x) = an+m xn y m tal que kf − Φk∞ <  .
n+m=0

3. Si Φ : [a, b] × [c, d] → R es un polinomio, es evidente que las dos


siguientes iteraciones de integrales simples de Riemann valen lo mismo
Z b Z d  Z d Z b 
Φ(x, y) dy dx = Φ(x, y) dx dy := R(Φ)
a c c a

y, por tanto, podemos aceptar como definición de integral doble de Rie-


mann de Φ en el rectángulo Q = [a, b] × [c, d], el valor común R(Φ).
Si f : R2 → R es una función continua de soporte1 compacto, hay un
rectángulo [a, b] × [c, d] que contiene a dicho soporte y el comentario
2 nos asegura la existencia de un polinomio que aproxima uniforme-
mente a f en dicho rectángulo, tanto como queramos. En consecuen-
cia, también
Z b Z d  Z d Z b 
f (x, y) dy dx = f (x, y) dx dy := R(f )
a c c a
1
Si (X, τ ) es un espacio topológico, el soporte de una f : X → R es, por definición, la
clausura del conjunto {x ∈ X | f (x) 6= 0}. Es decir, sop f = clτ ({x ∈ X | f (x) 6= 0}).
64 TEMA 1. PRERREQUISITOS

y, por tanto, tiene sentido definir la integral doble de Riemann de f


como el valor común R(f ) porque en el rectángulo [a, b] × [c, d] dicho
valor no depende del orden elegido y fuera del rectángulo la función f
es nula.

Estos razonamientos se pueden hacer en cualquier Rn para definir


la integral múltiple de Riemann de cualquier función f : Rn → R
continua de soporte compacto.

4. Si T = R+ y d(t, s) = |t−s|, basta tomar W = {1, e−t} para estar en las


condiciones del teorema 1.9.1. Entonces, Π(W ) = {1, e−t, ..., e−nt, ...}
y dada una f : R+ → R continua, un ε > 0 y un compacto K ⊂ R+ ,
n
X
∃ Φ(t) = ak e−kt tal que |f (t) − Φ(t)| <  ∀t ∈ K.
k=0

En particular, C(R+ , R) = [{e−st | s ∈ R+ }] donde la clausura se


toma en la topologı́a k.

5. Si T = R y d(t, s) = |t−s|, basta tomar W = {1, e−it, eit} para aplicar


el teorema 1.9.11. Ası́, Π(W ) = {. . . , e−int , · · · , e−it , 1, eit, . . . , eint, . . . }
y dada una f : R → C continua, un ε > 0 y un compacto K ⊂ R,
n
X
∃ Φ(t) = zk eikt tal que |f (t) − Φ(t)| <  ∀t ∈ K.
k=−n

En particular, C(R, C) = [{e−ist | s ∈ R}] donde la clausura se toma


en la topologı́a k.

6. Si T = Rn y d(x, y) = kx − yk2 razonando como en el punto anterior


podemos concluir que C(Rn , C) = [{e−i(x|y) | y ∈ Rn }] donde la
clausura se toma en la topologı́a k.

7. Si f : [−π, π] → R es una función continua que cumple f (−π) = f (π)


y tomamos T = {z ∈ C | |z| = 1} con la métrica euclı́dea, también es
continua la función compuesta

g = f ◦ Arg: T → [−π, π] → R
z 7→ Arg(z) = t 7→ f (t)

Pensando esta g como una función G con llegada en C, G : T → C


también es continua y, ası́, dado ε > 0, el teorema 1.9.11 asegura que
n
X
∃Φ(z) = ck z k tal que kG − Φk∞ < 
k=−n
1.10. ESPACIOS DE HILBERT 65

Por tanto,

|Re(G(z) − Φ(z))| = |g(z) − Re(Φ(z))| <  ∀z ∈ T

y, en consecuencia,
!
n
X
ck eikt < 

f (t) − Re ∀t ∈ [−π, π]

k=−n

Ahora bien, si designamos ck = ak + ibk , tenemos

Re(ck eikt ) =Re ((ak + ibk )(cos kt + i sin kt)) = ak cos kt − bk sin kt
Re(c−k e−ikt ) =Re ((a−k + ib−k )(cos kt − i sin kt)) = a−k cos kt + b−k sin kt

y, por tanto,
n
X n
X
ikt
Re( ck e ) = a0 + (ak + a−k ) cos kt + (b−k − bk ) sin kt
k=−n k=1

Del teorema 1.9.11 también se deduce, pues, la posibilidad de aproxi-


mar uniformemente toda función f : R → R continua y 2π-periódica
por polinomios trigonométricos

1.10 Espacios de Hilbert


En un espacio vectorial X llamamos producto escalar a una aplicación
( | ) : X × X → R bilineal, simétrica y definida positiva. Todo producto
escalar genera la función
kk : X → R
1
x 7→ (x|x) 2
que verifica, trivialmente, las dos primeras condiciones de una norma. Por
cumplir la desigualdad de Cauchy-Schwartz

|(x|y)| ≤ kxk kyk

también verifica la tercera y, además, cumple una cuarta muy importante,

4. kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2

que se llama ley del paralelogramo. También es cierto que toda norma
que cumple la ley del paralelogramo proviene, necesariamente, de un pro-
ducto escalar. El espacio normado correspondiente se dice prehilbertiano
y, si es un espacio de Banach, recibe el nombre de espacio de Hilbert.
66 TEMA 1. PRERREQUISITOS

Pn 1
En Rn la norma kxk2 = ( i=1 x2i ) 2 procede del producto escalar (x|y) =
Pn
i=1 xi yi .
Rb
En C[a, b] el producto escalar (f |g) = a f (t) · g(t)dt nos define la norma
R 1
b 2
kf k2 = a f 2 (t)dt . No es difı́cil ver que (C[a, b], k k2) no es un espacio
completo, pero , como ya hemos dicho, existe un completado de este espacio.
Precisamente, es el espacio de Lebesgue L2 (a, b) (ver pág. 87).

En todo espacio prehilbertiano (X, k k) la desigualdad de Cauchy-Schwartz


asegura ∀x ∈ X, que el funcional lineal
fx : X → R
y 7 → (x|y)

es acotado y cumple que kfx k ≤ kxk. Además, kfx k = sup {(x|y)} ≥


kyk=1
 
x
x| = kxk, luego kfx k = kxk.
kxk
(x|y)
La desigualdad de Cauchy-Schwarz también asegura que −1 ≤ kxk kyk
≤ 1,
y ello nos permite definir el ángulo entre vectores no nulos:

(x|y)
ang(x, y) = arccos .
kxk kyk

Si ang(x, y) = π2 , la pareja de vectores {x, y} se dice ortogonal y se escribe


x ⊥ y. Este concepto se extiende a cualquier subconjunto A de un espacio
de Hilbert (X, k k). A es ortogonal si ∀x, y ∈ A, con x 6= y, se tiene que
x ⊥ y. Si, además, todos sus vectores son unitarios, A se llama ortonormal.
Si A es ortogonal y finito, verifica el teorema de Pitágoras

X 2 X
kxk2

A ortogonal ⇒ x =

x∈A x∈A

n
X
Si A es ortogonal y 0 ∈
/ A, A es libre pues si {x1 , ..., xn} ⊂ A y λi xi =
i=1 !
n
X
0, multiplicando escalarmente por cada xj tenemos λixi |xj =
i=1
λj (xj |xj ) = 0 ⇒ λj = 0 ∀j = 1, ..., n.

Para conjuntos contables (finitos o numerables) podemos dar una suerte


de recı́proco:
1.10. ESPACIOS DE HILBERT 67

Teorema 1.10.1 (Gram-Schmidt)

En un espacio de Hilbert (X, k k) para todo subconjunto A libre y contable


existe un conjunto ortonormal U tal que [A] = [U ].
Demostración:
Si A = (xn ), podemos ejecutar el proceso iterativo de Gramm-Schmidt:
x1
Con x1 generamos u1 = y es claro que [x1 ] = [u1 ].
kx1 k
v2
Con x2 generamos v2 = x2 − (x2 |u1 )u1 y u2 = y es claro que
kv2 k
u2 ⊥ u1 y [x1 , x2] = [u1 , u2 ].
v3
Con x3 , v3 = x3 − (x3 |u1 )u1 − (x3 |u2 )u2 y u3 = y es claro que
kv3 k
u3 ⊥ u1 , u3 ⊥ u2 y [x1 , x2 , x3] = [u1 , u2 , u3 ].
Y, ası́, sucesivamente. ♦

Teorema 1.10.2

En todo espacio de Hilbert separable (X, k k) existe una base de Schauder


ortonormal.
Demostración:
Por ser (X, k k) separable existe un conjunto denso y numerable y, por tanto,
un conjunto total numerable. Por el proceso de Gramm-Schmidt obtene-
mos una sucesión ortonormal total. El teorema de Pitágoras le asegura la
condición del corolario 1.8.6 y, por tanto, es base de Schauder. ♦

Las bases de Schauder ortonormales de un espacio de Hilbert se llaman


bases hilbertianas.

En un espacio de Hilbert (X, k k), para cada subconjunto A ⊂ X defini-


mos su ortogonal A⊥ = {x ∈ X | (x|y) = 0 ∀y ∈ A} que siempre es un
subespacio cerrado de (X, k k).

Lema 1.10.3 (Vector minimizante)

Si C es un convexo cerrado no vacı́o de un espacio de Hilbert (X, k k), C


tiene un único vector de norma mı́nima.
Demostración:
Sea k = inf {kxk} y sea (xn) ⊂ C tal que (kxnk) → k. La ley del paralelo-
x∈C
gramo y la convexidad de C aseguran que (xn) es de Cauchy:

2 2
xn + xm 2
2
 
kxn −xm k = 2 kxn k + kxm k −4
≤ 2 kxnk2 + kxm k2 −4k2
2
68 TEMA 1. PRERREQUISITOS

La completitud del espacio de Hilbert y el hecho de ser C cerrado aseguran


que (xn ) → x0 ∈ C. Ası́, k = kx0 k = min{kxk}. Si existiese otro y0 ∈ C
x∈C
cumpliendo esta condición, la ley del paralelogramo le obligarı́a a coincidir
con x0 : 
kx0 − y0 k2 ≤ 2 kx0 k2 + ky0 k2 − 4k2 = 0. ♦

Teorema 1.10.4 (Aproximación convexa)

1. Si C es un convexo cerrado no vacı́o de un espacio de Hilbert (X, k k),


C es un conjunto de Chebychev (ver pág. 29)

2. (x − AC (x)|y − AC (x)) ≤ 0 ∀(x, y) ∈ X × C

3. Si (x, y0) ∈ X × C y (x − y0 |y − y0 ) ≤ 0 ∀y ∈ C, y0 = AC (x)

Demostración:
1. {−x} + C es convexo cerrado y no vacı́o ∀x ∈ X. Por el lema 1.10.3,
∃1 y0 ∈ C tal que kx − y0 k = min{kx − yk}. Luego y0 = AC (x).
y∈C

2. Por ser C convexo

(1 − λ)AC (x) + λy ∈ C ∀(λ, y) ∈ [0, 1] × C

luego
kx − AC (x)k2 ≤ kx − (1 − λ)AC (x) − λyk2 =
= kx − AC (x)k2 − 2λ(x − AC (x)|y − AC (x)) + λ2 ky − AC (x)k2
y, por tanto,

0 ≤ −2λ(x−AC (x)|y−AC (x))+λ2ky−AC (x)k2 ∀(λ, y) ∈ [0, 1]×C.

En consecuencia,

2(x − AC (x)|y − AC (x)) ≤ λky − AC (x)k2 ∀(λ, y) ∈ (0, 1] × C

y, por continuidad, también debe ser cierto para λ = 0. Ası́,

(x − AC (x)|y − AC (x)) ≤ 0 ∀y ∈ C

3. Es evidente que

(x−y0 |y −y0 ) = (x−y0 |x−y0 −(x−y)) = kx−y0 k2 −(x−y0 |x−y).

Por la hipótesis y la desigualdad de Cauchy-Schwartz,

kx − y0 k2 ≤ (x − y0 |x − y) ≤ kx − y0 k · kx − yk ∀y ∈ C.

Luego, kx − y0 k ≤ kx − yk ∀y ∈ C y, por tanto, y0 = AC (x). ♦


1.10. ESPACIOS DE HILBERT 69

Teorema 1.10.5 (Aproximación lineal)

Sea Y un subespacio vectorial cerrado de un espacio de Hilbert (X, k k).


Entonces:

1. Y es de Chebychev

2. x − AY (x) ∈ Y ⊥ ∀x ∈ X.

3. X = Y ⊕ Y ⊥

4. La aplicación de aproximación AY : X → X es lineal, idempotente y


cumple que im AY = Y y ker AY = Y ⊥ . Además, kAY k = 1.

Demostración:

1. Todo subespacio es convexo y no vacı́o. Si Y es cerrado, por 1.10.4,1,


es de Chebychev.

2. Por 1.10.4,2, (x − AY (x)|y) ≤ 0 ∀y ∈ Y . Al ser Y un subespacio


y tenerse que cumplir la desigualdad para cada vector y su opuesto,
sólo es posible la igualdad . Por tanto, x − AY (x) ∈ Y ⊥ ∀x ∈ X.

3. Es una consecuencia inmediata de 2.

4. El punto 2 nos asegura, también, que la aplicación de aproximación


AY : X → X es la proyección con im AY = Y y ker AY = Y ⊥ ligada a
la suma directa topológica X = Y ⊕ Y ⊥ . Por el teorema de Pitágoras
kxk2 = kAY (x)k2 + kx − AY (x)k2 y, ası́, kAY (x)k ≤ kxk. Por tanto,
AY es acotada con kAY k ≤ 1 y, como toda proyección no nula tiene
norma mayor o igual que 1, kAY k = 1. ♦

Si Y es un subespacio vectorial finitodimensional de un espacio de Hilbert


(X, k k), para todo x ∈ X podemos obtener AY (x) y d(x, Y ) mediante
fórmulas cerradas que pueden ser implementadas en programas de cálculo
automático en un ordenador.

Teorema 1.10.6 (Aproximación finita)

Sea (X, k k) un espacio de Hilbert y sea Y un subespacio lineal finitodimen-


sional de base {a1 , · · · , ap }. Entonces, ∀x ∈ X se tiene que

(a1 |a1 ) · · · (a1 |x) · · · (a1 |ap )

(a2 |a1 ) · · · (a2 |x) · · · (a2 |ap )

.. .. .. .. ..

. . . . .
p
X (ap |a1 ) · · · (ap |x) · · · (ap |ap )
1. AY (x) = ai
G(a1 , a2 , · · · , ap )
i=1
70 TEMA 1. PRERREQUISITOS

G(a1 , a2 , · · · , ap , x)
2. d2 (x, Y ) =
G(a1 , a2 , · · · , ap)
Demostración:
El teorema 1.10.5 asegura, para cada x ∈ X, una única mejor aproximación
Xp p
X
αi ai que cumple x− αi ai ∈ Y ⊥ . Como Y ⊥ = {a1 , · · · , ap }⊥ , el vector
i=1 i=1
a = (αi) ∈ Rp es la única solución del sistema de ecuaciones lineales
p
X
(SL) αi (aj |ai ) = (aj |x) ∀j = 1, · · · , p.
i=1

La matriz de este sistema es la matriz de Gramm de los vectores (a1 , · · · , ap)


cuyo determinante, necesariamente no nulo, es el grammiano G(a1 , · · · , ap ).
La expresión de AY (x) anunciada en 1. se obtiene resolviendo el sistema
(SL) mediante la regla de Cramer.
Por otra parte, d(x, Y ) = kx − AY (x)k y, por tanto,

d2 (x, Y ) = (x − AY (x)|x − AY (x)) = (x|x) − (x|AY (x))

Añadiendo esta ecuación al sistema (SL) obtenemos el nuevo sistema lineal


α1 (a1 |a1 ) + α2 (a1 |a2 ) + . . . + αp (a1 |ap ) + 0 = (a1 |x)
α1 (a2 |a1 ) + α2 (a2 |a2 ) + . . . + αp (a2 |ap ) + 0 = (a2 |x)
..
.
α1 (ap |a1 ) + α2 (ap |a2 ) + . . . + αp (ap |ap ) + 0 = (ap|x)
α1 (x|a1 ) + α2 (x|a2 ) + . . . + αn (x|ap) + d2 (x, Y ) = (x|x)

De nuevo Cramer nos da la expresión de d2 (x, Y ) anunciada en 2. ♦

Consecuencias 1.10.7

1. En las condiciones del teorema 1.10.6 si {a1 , ..., ap} es ortogonal


p
X (ai |x)
AY (x) = ai
(ai |ai )
i=1

y, si es ortonormal, aun se simplifica su expresión


n
X
AY (x) = (ai |x)ai
i=1

2. Desigualdad de Bessel:
Si (X, k k) es un Hilbert y A ⊂ X es ortonormal, se cumple que
X
|(x|y)|2 ≤ kxk2 ∀x ∈ X y ∀F ⊂ A finito
y∈F
1.10. ESPACIOS DE HILBERT 71

En efecto, si F = {x1 , · · · , xn } e Y = [F ], Pitágoras nos dice que


n
X
2 2 2 2
kxk = kAY (x)k + kx − AY (x)k ≥ kAY (x)k = |(x|xi)|2 .
i=1

Teorema 1.10.8 (Riesz-Fisher)


Un espacio de Hilbert (X, k k) es isométricamente isomorfo a su dual (X ? , k k).
Demstración:
Hemos visto (pág 66) que fx : X → R es lineal, acotado y kfx k = kxk. Ası́,
la aplicación lineal
J: X → X?
x 7 → fx
es isométrı́ca y, por tanto, inyectiva. Veamos que también es suprayectiva:
Dado cualquier f ∈ X ? no nulo, existe un vector unitario u ∈ ker f ⊥ tal
que X = [u] ⊕ ker f . El vector v, candidato a satisfacer f = fv , será
un λu que cumpla fλu (x) = f (x) ∀x ∈ X, es decir, (λu|µu + y) =
f (µu + y) ∀y ∈ ker f . Para ello es necesario y suficiente que λ · µ =
µ · f (u) ∀µ ∈ R y, por tanto, λ = f (u). Con la elección v = f (u)u asegu-
ramos que f = ff (u)u . ♦

El teorema de Riesz-Fisher identifica cada espacio de Hilbert (X, k k) con


su dual (X ? , k k) y, por tanto, también con su bidual (X ?? , k k), luego, todo
espacio de Hilbert es reflexivo.

Si (X, k k) e (Y, k k) son espacios de Hilbert y L ∈ Lc (X, Y ), su adjunta


L? ∈ Lc (Y ? , X ?) puede ser considerada elemento de Lc (Y, X) por mor de
las identificaciones X ≡ X ? e Y ≡ Y ? . La condición

L? (g)(x) = g(L(x)) ∀(x, g) ∈ X × Y ?

se escribe ahora

(L? (y)|x) = (y|L(x)) ∀(x, y) ∈ X × Y

y, si (X, k k) = (Y, k k), podemos definir la aplicación ? : Lc (X) → Lc (X) tal


que L 7→ L? . Sus puntos fijos son las importantes aplicaciones autoadjun-
tas que cumplen L = L? y se caracterizan por verificar

(L(y)|x) = (y|L(x)) ∀x, y ∈ X.

La aplicación ? : Lc (X) → Lc (X) es lineal, isométrica y cumple:

1. L?? = L
72 TEMA 1. PRERREQUISITOS

2. (L1 ◦ L2 )? = L?2 ◦ L?1 .

3. L? ◦ L y L ◦ L? son autoadjuntos.

4. kL? ◦ Lk = kLk2

5. ker L = (imL? )⊥ y ker L? = (imL)⊥ (relaciones de Lörch)

Las tres primeras son inmediatas. Tampoco son difı́ciles las otras dos:

(4) kL(x)k2 = (L(x)|L(x)) = (L? ◦ L(x)|x) ≤ kL? ◦ Lk · kxk2 luego


kLk2 ≤ kL? ◦ Lk. La desigualdad contraria es evidente.

(5) y ∈ (imL? )⊥ ⇔ (L? (x)|y) = 0 ∀x ∈ X ⇔ (x|L(y)) = 0 ∀x ∈ X. La


otra relación se demuestra de forma similar.

El teorema 1.10.2 asegura que en todo espacio de Hilbert separable (X, k k)


existe una base de Schauder ortonormal (en ). Cada x ∈ X admite, en ella,
un único desarrollo en serie de Fourier

X
x= λ n en donde, evidentemente, λn = (x|en) ∀n ∈ N.
n=1

Bessel (ver 1.10.7,2) asegura que la transformación de Fourier (ver 1.8.7,2)

Φ: X → c0 ,
x 7→ (λn )

X ∞
X
toma, ahora, sus valores en `2 pues λ2n = |(x|en)|2 ≤ kxk2
n=1 n=1

Teorema 1.10.9 (Parseval)

Sea (X, k k) un espacio de Hilbert separable y sea (en ) una base hilbertiana.
La transformación lineal
Φ: X → `2
x 7→ ((x|en))

es continua, isométrica y biyectiva.


Demostración:

X
La continuidad se deduce de kΦ(x)k2 = |(x|en)|2 ≤ kxk2 .
n=1
k
X
Si definimos xk = (x|en )en , vemos que kxk k = kΦ(xk )k ∀k ∈ N y
n=1
que (Φ(xk )) → Φ(x). Luego kΦ(x)k = kxk ∀x ∈ X y, ası́ probamos que
1.10. ESPACIOS DE HILBERT 73

Φ es una isometrı́a. Esta igualdad se suele presentar al cuadrado, con el


nombre de identidad de Parseval:

X
2
kxk = |(x|en)|2
n=1

k
!
X
Finalmente, dada una (λn ) ∈ `2 , es claro que la sucesión λ n en es
n=1

X
de Cauchy en (X, k k) y, por tanto, ∃x0 = λn en ∈ X. Evidentemente,
n=1
Φ(x0 ) = (λn ) y, en consecuencia, Φ es suprayectiva. El teorema 1.7.12 nos
asegura que Φ−1 : `2 → X también es continua. ♦

2
El teorema 1.10.9, al asegurar que Φ(X) = Sas , permite suprimir, en el
caso de un espacio de Hilbert separable, las cotas Sas ⊂ Φ(X) ⊂ S0 de la
transformación de Fourier de un espacio de Banach separable (ver 1.8.7,4).
Además, nos presenta a `2 como modelo de todos los espacios de Hilbert
separables. Mediante la transformación de Fourier-Parseval Φ : X → `2
podemos trasladar un problema de un espacio de Hilbert (X, k k) al espacio
canónico `2 , resolverlo, y retornar con continuidad al espacio original.

Para acabar la sección veremos algunos teoremas de convexidad en espa-


cios euclı́deos:

Teorema 1.10.10 (Farkas-Minkowski-Carathéodory-Weyl)


Sea (X, k k) un espacio euclı́deo y sean {b, a1 , · · · , am } ⊂ X. Entonces,
m
\
b ∈ cono({a1 , · · · , am }) ⇔ {x ∈ X | (x | ai) ≥ 0} ⊂ {x ∈ X | (x | b) ≥ 0}
i=1

Demostración:
m
X
(⇒) Si b ∈ cono({a1 , · · · , am }) es claro que (x|b) = λi (x | ai) ≥ 0 si
i=1
(x | ai) ≥ 0 ∀i.
(⇐) Consideramos el hiperplano H = {x ∈ X | (x|b) = −1} y los semies-
pacios
Hi = {x ∈ X | (x|ai) ≥ 0} ∀i = 1, · · · , m
Si denotamos Ai = H ∩ Hi , la hipótesis dice que la familia de convexos
{A1 , · · · , Am } tiene intersección vacı́a. Entonces, existe una subfamilia mini-
mal con esta misma propiedad y, por tanto, podemos suponer que existe
j ≤ m tal que la intersección de todos los {A1 , · · · , Aj } es vacı́a pero la
intersección de cualesquiera j − 1 de ellos no lo es. En estas condiciones, si
E = [a1 , · · · , aj ], probaremos: (1) b ∈ E y (2) dim E = j. En efecto:
74 TEMA 1. PRERREQUISITOS

/ E, b tiene componente no nula z ∈ E ⊥ y, por tanto,


1. Si b ∈
   
z z
− 2 |b = −1 y − 2 |ai = 0 ∀i = 1, · · · , j
|z| |z|

j
\
Esto está en contra de que Ai = ∅, luego b ∈ E.
i=1

2. Si A0i = E ∩ Ai tenemos en el espacio E una familia de convexos


{A01 , · · · , A0j } con intersección vacı́a y tales que cualesquiera j − 1 de
ellos tienen intersección no vacı́a. Estos convexos están en E ∩ H que
es un hiperplano de E y, por traslación, tendremos en un subespacio
de dimensión dim E − 1 una familia de convexos {A001 , · · · , A00j } con
intersección vacı́a y tales que cualesquiera j − 1 de ellos tienen inter-
sección no vacı́a. El teorema 1.5.4 asegura que esto sólo puede suceder
si dim E = j.
j
X
De (1) y (2) deducimos que sólo hay una manera de escribir b = λi · ai .
i=1
Sólo nos falta ver que λi ≥ 0 ∀i = 1, · · · , j. Si no fuera ası́, podrı́amos
suponer que λ1 < 0. Completando {a1 , · · · , aj } a una base de X podemos
considerar el funcional lineal p1 : X → R que a cada vector le hace corre-
sponder la primera coordenada en dicha base. Según el teorema de Riesz,
existe un vector p1 ∈ X tal que (p1 |z) = p1 (z) ∀z ∈ X y tal que

(p1 |b) = λ1 , (p1 |a1 ) = 1, (p1 |a2 ) = 0, ··· , (p1 |aj ) = 0 .

Entonces, el vector c = |λ1 |−1 p1 cumple que

(c|b) = −1, (c|a1 ) = |λ1 |−1 ≥ 0, (c|a2 ) = 0, ··· , (c|aj ) = 0

j
\
y llegamos al absurdo c ∈ Ai = ∅. ♦
i=1
El teorema 1.10.10 tiene muchas consecuencias importantes:

Corolario 1.10.11

Sea (X, k k) un espacio euclı́deo, Y := [b, a1 , · · · , am ] ⊂ X y dim Y = k.


Entonces tenemos la siguiente disyuntiva:

(I) b ∈ cono({a1 , · · · , am })

(II) Existe un hiperplano H que pasa por el origen, separa los conjuntos
{b} y {a1 , · · · , am } y contiene a k − 1 elementos de {a1 , · · · , am }.
1.10. ESPACIOS DE HILBERT 75

Demostración:
Está totalmente contenida en la demostración del teorema 1.10.10. ♦

Corolario 1.10.12
Sea A : Rn → Rm una aplicación lineal y sea b ∈ Rm . Entonces:
1. ∃x ∈ Rn+ tq Ax = b ⇔ (y | b) ≥ 0 ∀y ∈ Rm tq A? y ≥ 0.

2. ∃x ∈ Rn tq Ax ≤ b ⇔ (y | b) ≥ 0 ∀y ∈ Rm
+ tq A? y = 0

3. ∃x ∈ Rn+ tq Ax ≤ b ⇔ (y | b) ≥ 0 ∀y ∈ Rm
+ tq A? y ≥ 0

Demostración:

1. (⇒) Como (y | b) = (y | Ax) = (A? y | x), si x ≥ 0 y A? y ≥ 0 tenemos


(y|b) ≥ 0.
(⇐) Fijadas sendas bases en Rn y Rm la aplicación A vendrá rep-
resentada por una matriz m × n. Sean sus vectores columna
{a1 , · · · , an }. La no existencia de x ∈ Rn+ con Ax = b equivale a
que b ∈ / cono({a1 , · · · , an }. El corolario 1.10.11 nos asegura un
c ∈ R tal que (c | b) < 0 y A? c ≥ 0.
m

2. Consideramos la aplicación lineal

B: Rm × Rn × Rn → Rm
(y, x1, x2) 7 → y + Ax1 − Ax2

Es claro que

∃x ∈ Rn tq Ax ≤ b ⇔ ∃(y, x1, x2 ) ≥ 0 tq B(y, x1, x2) = b

y, por tanto, (1) aplicado a B, asegura la equivalencia con

(y | b) ≥ 0 ∀y ∈ Rm tq (y, A?y, −A?y) ≥ 0

3. Consideramos la aplicación lineal

B: Rm × Rn → Rm
(y, x) 7 → y + Ax

Es claro que

∃x ∈ Rn+ tq Ax ≤ b ⇔ ∃(y, x) ≥ 0 tq B(y, x) = b

y, por tanto, (1) aplicado a B, asegura la equivalencia con

(y | b) ≥ 0 ∀y ∈ Rm tq (y, A?y) ≥ 0. ♦
76 TEMA 1. PRERREQUISITOS

En un espacio normado (X, k k) llamamos poliedro a la intersección de


un número finito de semiespacios cerrados. Ası́, {fi , · · · , fm } ⊂ X ? y
{b1 , · · · , bm} ⊂ R determinan el poliedro
m
\
P = {x ∈ X | fi(x) ≤ bi}
i=1

En un espacio de Hilbert (X, k k) los funcionales {f1 , · · · , fm} ⊂ X ? pueden


ser substituidos por un conjunto de vectores {a1 , · · · , am } ⊂ X y el poliedro
se escribe en la forma
m
\
P = {x ∈ X | (ai | x) ≤ bi}.
i=1

m
X
m
Si en R fijamos una base {e1 , · · · , em} y designamos A = ai ⊗ ei
i=1
m
X
y b= bi ei , todavı́a podemos describir el poliedro en la forma P =
i=1
{x ∈ X | Ax ≤ b}.

Recı́procamente, si A : X → Rm es lineal y b ∈ Rm , el conjunto P =


{x ∈ X | Ax ≤ b} es un poliedro pues, fijada una base {e1 , · · · , em } en
m
X
Rm , existen vectores {a1 , · · · , am } ⊂ X tal que A = ai ⊗ ei y, entonces,
i=1
m
\
P = {x ∈ X | Ax ≤ b} = {x ∈ X | (ai | x) ≤ bi }.
i=1
En particular, un poliedro C = {x ∈ X | Ax ≤ 0} es un cono que se
dice cono poliedral.

El teorema 1.10.10 nos va a permitir comprobar que, en un espacio euclı́deo,


un conjunto es un poliedro no vacı́o si y sólo si es la suma de Minkowski
de un politopo y un cono finitamente generado. Esta caracterización ”desde
dentro” de los poliedros no vacı́os es muy importante para la programación
lineal. Empezamos estudiando los conos:

Corolario 1.10.13
Sea (X, k k) un espacio euclı́deo y sea C ⊂ X un cono. Entonces,

C es finitamente generado ⇔ C es poliedral


1.10. ESPACIOS DE HILBERT 77

Demostración:

(⇒) Sea R = {y1 , · · · , ym} ⊂ X un conjunto finito, sea C = cono(R) y sea


Y = [R]. Consideramos todos los semiespacios {y ∈ Y | (c|y) ≤ 0}
de Y que contienen a R y tales que {y ∈ Y | (c|y) = 0} está generado
por dim Y −1 elementos linealmente independientes de R. El corolario
1.10.11 nos asegura que la intersección de todos esos semiespacios co-
incide con el cono de Y generado por R y, como el número de ellos es
finito, este cono de Y es poliedral. Por tanto, también C es un cono
poliedral en X.

(⇐) Sea A = {a1 , · · · , am } ⊂ X un conjunto finito y sea el cono poliedral


m
\
C= {x ∈ X | (ai|x) ≤ 0}
i=1

Por la anterior implicación sabemos que el cono generado por A es


poliedral, luego
p
\
cono(A) = {x ∈ X | (bj |x) ≤ 0}.
j=1

Para concluir, probamos que C = cono({b1 , · · · , bp}):


Como (ai | bj ) ≤ 0 ∀i = 1, · · · , m , ∀j = 1, · · · , p, es claro que
{b1 , · · · , bp} ⊂ C, luego cono({b1 , · · · , bp}) ⊂ C. Si este contenido
fuera estricto tendrı́amos un y ∈ C tal que y ∈ / cono({b1 , · · · , bp}) y,
como este cono es poliedral, tendrı́amos un z ∈ X tal que (z | bj ) ≤
0 ∀j = 1, · · · , p y (z | y) > 0. Entonces, z ∈ cono(A) y, por tanto,
(z | x) ≤ 0 ∀x ∈ C pero esto es contradictorio con y ∈ C y (z | y) > 0.

Teorema 1.10.14

Sea (X, k k) un espacio euclı́deo y sea P ⊂ X no vacı́o.

P es un poliedro ⇔ existen V ⊂X yR⊂X finitos tales que P = co(V )+cono(R)

Demostración:

(⇒) Sea P = {x ∈ X | Ax ≤ b} con A : X → Rm lineal y b ∈ Rm . Si


consideramos la aplicación lineal

B: X ×R → Rm
(x, λ) 7 → Ax − λb
78 TEMA 1. PRERREQUISITOS

y el cono del espacio X × R

C = {(x, λ) ∈ X × R+ | B(x, λ) ≤ 0}

es inmediato observar que x ∈ P ⇔ (x, 1) ∈ C. Como C es


poliedral, por el corolario 1.10.15, es finitamente generado y, ası́,

C = cono({(x1, λ1 ), · · · , (xp, λp)}).

Es claro que los λj que no son nulos pueden suponerse iguales a 1 y


ordenados de forma que λ1 = · · · = λk = 1 y λk+1 = · · · = λp = 0.
Sean V = {x1 , · · · , xk } y R = {xk+1 , · · · , xp}. Como (x, 1) ∈ C,
podemos escribir

k
X p
X
(x, 1) = αi (xi , 1) + αi (xi , 0) ∀x ∈ P
i=1 i=k+1

y, por tanto, P = co(V ) + cono(R).

(⇐) Sea P = co(V )+cono(R) con V = {x1 , · · · , xk } y R = {xk+1 , · · · , xp}.


El cono de X × R finitamente generado

C = cono({(x1, 1), · · · , (xk , 1), (xk+1, 0), · · · , (xp, 0)})

es, por el corolario 1.10.13, un cono poliedral y, por tanto, ha de existir


una función lineal B : X × R → Rq tal que C = {(x, λ) ∈ X ×
R | B(x, λ) ≤ 0}. Esta función B es necesariamente de la forma

B(x, λ) = Ax + λb con A : X → Rq lineal y b ∈ Rq

y como x ∈ P ⇔ (x, 1) ∈ C ⇔ Ax ≤ −b es claro que P es


poliedral. ♦

Corolario 1.10.15

Sea (X, k k) un espacio euclı́deo. Un conjunto P ⊂ X es un poliedro no


vacı́o acotado si y sólo si es un politopo.
Demostración:
Sabemos que P = co(V ) + cono(R). Es claro que P es acotado si y sólo si
R = {0}. ♦
1.11. CÁLCULO DIFERENCIAL 79

1.11 Cálculo diferencial


Un problema inverso f (x) + u = b donde la función f : Ω ⊂ X → Y no es
lineal, puede ser muy complicado. Sin embargo, si (X, k k) e (Y, k k) son espa-
cios de Banach, Ω es un abierto y f : Ω → Y es diferenciable, disponemos
del cálculo diferencial, una potente herramienta inventada por Newton y
Leibnitz en el siglo XVII, para abordarlo con muchas posibilidades de éxito.

En las condiciones anteriores, f : Ω → Y se dice diferenciable si

∀x ∈ Ω ∃Lx ∈ Lc (X, Y ) tal que f (x + h) − f (x) ≈ Lx (h)

La nueva aplicación

Df : Ω → Lc (X, Y )
x 7→ Lx

puede gozar de la misma propiedad

∀x ∈ Ω ∃L0x ∈ Lc (X, Lc(X, Y )) tal que Df (x + h) − Df (x) ≈ L0x (h).

Como Lc (X, Lc(X, Y )) es identificable con el espacio de las aplicaciones


bilineales continuas de X × X en Y , nos queda definida la aplicación

D2f : Ω → Bc (X × X, Y )
x 7→ L0x

Se podrı́a continuar, pero no suele ser necesario. La aproximación

1
f (x + h) ≈ f (x) + Df (x)(h) + D2 f (x)(h, h),
2
que nos permite estudiar funciones complicadas mediante el simple manejo
de aplicaciones lineales y bilineales continuas es, casi siempre, suficiente para
estudiar los problemas de la realidad. Es más, en muchos casos basta con
la aproximación
f (x + h) ≈ f (x) + Df (x)(h).
Un problema inverso f (x) = b donde f : Ω → Y es diferenciable puede ser
substituido en el entorno de un punto x1 ∈ Ω por el problema inverso lineal

f (x1 ) + Df (x0 )(x − x1 ) = b

es decir, por el problema


(
L1 = Df (x1 )
L1 (x) = b1 donde .
b1 = b − f (x1 ) + Df (x1 )(x1)
80 TEMA 1. PRERREQUISITOS

Si una solución x2 de éste cumple que kb−f (x2 )k ≤ kb−f (x1 )k planteamos
(
L2 = Df (x2 )
L2 (x) = b2 donde
b2 = b − f (x2 ) + Df (x2 )(x2 )

Si una solución x3 de éste cumple que kb−f (x3 )k ≤ kb−f (x2 )k planteamos
(
L3 = Df (x3 )
L3 (x) = b3 donde ···
b3 = b − f (x3 ) + Df (x3 )(x3 )

Si, iterando, encontramos una sucesión (xn ) tal que (f (xn )) → b y, si


(xn) → x0 , tendremos que x0 es solución del problema inicial.

En el caso Y = R, la aproximación

1
f (x + h) ≈ f (x) + Df (x)(h) + D2 f (x)(h, h)
2
nos asegura que en los puntos en que Df (x) es el funcional lineal nulo y
D2 f (x) es una forma bilineal definida positiva, se ha de cumplir, para un
cierto ε > 0, que
f (x + h) ≥ f (x) ∀h ∈ εB(X).
Si (X, k k) = `n2 , la búsqueda de los mı́nimos y máximos relativos de la
función f : Ω → R pasa por la resolución del problema inverso ∇f (x) = 0
y el estudio de la aplicación lineal autoadjunta ∇2 f (x0 ) : Rn → Rn en las
soluciones x0 de dicho problema inverso.

Teorema 1.11.1 Condiciones suficientes de extremo libre

Sea (X, k k) = `n2 y sea f : Ω → R dos veces diferenciable con ∇f (x0 ) = 0.


Sea la aplicación lineal autoadjunta ∇2 f (x0 ) : Rn → Rn representada por
la matriz hessiana cuyos menores principales denotamos

f11 (x0 ) f12 (x0 ) · · · f1i (x0 )

f21 (x0 ) f22 (x0 ) · · · f2i (x0 )

∆i f (x0 ) = . .. .. .. ∀i = 1, · · · , n
.. . . .

fi1 (x0 ) fi2 (x0 ) · · · fii (x0 )

Entonces,

1. Si ∆i f (x0 ) > 0 ∀i = 1, · · · , n ⇒ x0 es mı́nimo

2. Si (−1)i ∆i f (x0 ) > 0 ∀i = 1, · · · , n ⇒ x0 es máximo ♦2


2
Ver, por ejemplo, [C-RdeM]
1.11. CÁLCULO DIFERENCIAL 81

El problema de optimizar f : Ω → R o calcular sus mı́nimos relativos, suele


presentarse limitado a un cierto subconjunto V ⊂ Ω. Cuando X = Rn es
frecuente que V sea una variedad diferenciable p-dimensional con p < n.

Un subconjunto V ⊂ Rn es una variedad diferenciable p-dimensional


(p ≤ n) de clase C k (k ≥ 1) si para cada x ∈ V existe (U, α) tal que
• U es un abierto de Rp

• α : U → V es de clase C k y Dα(u) es de rango máximo ∀u ∈ U

• α(U ) es un entorno abierto de x en V .


En tal caso diremos que (U, α) es una carta local del punto x. El conjunto
de cartas locales necesarias para describir V es el atlas de la variedad. El
hecho de que Dα(u) : Rp → Rn tenga rango máximo significa que su matriz
tiene sus p vectores columna
 
∂α ∂α
(u) = t1 , · · · , (u) = tp
∂u1 ∂up
linealmente independientes. Estos vectores constituyen una base de

imDα(u) = Tx (V )

que es el espacio tangente a la variedad en el punto x = α(u).

Ası́ pues, la optimización de f : Ω → R en una variedad diferenciable V ⊂ Ω


dada por una carta local α : U → Rn , se reduce a optimizar la función
f ◦ α : U → R donde U es un abierto de Rp . Basta, pues, resolver el prob-
lema inverso ∇(f ◦α)(u) = 0 donde ∇(f ◦α) : U → Rp es el gradiente de f ◦α.

El teorema de derivación de la función compuesta nos dice que ∇f (x) ⊂


[Tx (V )]⊥ = Nx (V ) donde Tx (V ) y Nx (V ) son, respectivamente, los espa-
cios tangente y normal a la variedad V en el punto x. Cuando V viene dada
en implı́citas, tenemos

V = {x ∈ Ω | F (x) = 0} para una cierta F : Ω → Rn−p

y, en tal caso, Nx (V ) = [∇F1 (x), · · · , ∇Fn−p (x)]. Ası́, para que x sea
mı́nimo relativo de f |V debe cumplir que

(∇f (x) ∈ [∇F1 (x), · · · , ∇Fn−p (x)]) ∧ (F (x) = 0).

Esto es lo que asegura el teorema de los multiplicadores de Lagrange: Para


que x sea mı́nimo relativo de f |V es necesario que existan números reales
{r1 , · · · , rn−p} tales que

(∇(f − r1 F1 − · · · − rn−p Fn−p )(x) = 0) ∧ (F (x) = 0).


82 TEMA 1. PRERREQUISITOS

Si llamamos lagrangiana del problema de optimización de f : Ω → R en la


variedad V ⊂ Ω, a la función
L: Ω × Rn−p → R
(x, r) 7 → f (x) − (r|F (x))
es claro que
(
∇(f − r1 F1 − · · · − rn−p Fn−p )(x) = ∇x L(r, x)
F (x) = ∇r L(r, x)

luego las dos condiciones necesarias están incluidas en ∇L(x, r) = 0. Por


tanto, las soluciones del problema de extremos de f : Ω → R en una var-
iedad diferenciable V dada en implı́citas, son soluciones del problema inverso
∇L(x, r) = 0 y se puede discriminar el carácter de mı́nimo o máximo medi-
ante el siguiente

Teorema 1.11.2 Condiciones suficientes de extremo condicionado


Sea Ω un abierto de `n2 , sean f : Ω → R y F : Ω → Rn−p funciones dos veces
diferenciables y sea V = {x ∈ Ω | F (x) = 0} una variedad diferenciable. Si
(x0 , r0) es solución del problema inverso ∇L(x, r) = 0 para la lagrangiana

L: Ω × Rn−p → R
(x, r) 7→ f (x) − (r|F (x))
y si

∂F1 ∂F1
0 ... 0 ...
∂x1 ∂xi
. .. .. .. ..
.. . . . .


0 ∂Fn−p ∂Fn−p
... 0 ...
∂x1 ∂xi
4i L(x0 , r0) =
∀i = 1, · · · , n
∂F1 ∂Fn−p

∂x1 ... f11 ... f1i
. ∂x1
. .. .. .. ..
. . . . .
∂F ∂Fn−p
1
... fi1 ... fii
∂xi ∂xi
se tiene que

1. Si (−1)n−p 4i L(x0 , r0 ) > 0 ∀i = 1, . . ., n ⇒ x0 mı́nimo de f en P .

2. Si (−1)i 4i L(x0 , r0) > 0 ∀i = 1, . . . , n ⇒ x0 máximo de f en P . ♦3

3
Ver, por ejemplo, [C-RdeM]
1.11. CÁLCULO DIFERENCIAL 83

Ejemplo 1.11.3
Dado un vector b ∈ `n2 hallar su mejor aproximación euclı́dea en el subespa-
cio generado por los vectores linealmente independientes {a1 , · · · , ap }.
Solución:
Se trata de calcular el mı́nimo de la función
f: Rn → R en la variedad lineal V = [a1 , · · · , ap ]
x 7 → (b − x|b − x)
Es claro que la variedad lineal V también es una variedad diferenciable con
carta local (Rp, L) siendo L : Rp → Rn la aplicación lineal de matriz
 
a11 · · · a1p
A =  ... ..  .

. 
an1 · · · anp
Por tanto, nuestro problema se convierte en la optimización libre de
g =f ◦L: Rp → R
u 7 → (b − Au|b − Au)
Puesto que
g(u) = (b|b) − 2(A? b|u) + (Au|Au)
es claro que
∇g(u) = −2A? b + 2A? Au y ∇2 g(u) = 2A? A.

Como A? A es definida positiva, las soluciones s ∈ Rp del problema lineal


A? Au = A? b
son mı́nimos de g : Rp → R y los vectores v = As son mı́nimos de f |V . Pero,
 
(a1 |a1 ) · · · (a1 |ap )
A? A =  ... .. 

. 
(ap|a1 ) · · · (ap|ap )
es la matriz de Gram de {a1 , · · · , ap} y tiene determinante no nulo cuando
dichos vectores son linealmente independientes (ver pág. 70). Por tanto,
A? Au = A? b tiene solución única s y v = As es el único mı́nimo de f |V .

Ejemplo 1.11.4
Hallar la norma de una aplicación lineal L : `n2 → `m
2 .

Solución:
Sabemos que kLk = max{kL(x)k | kxk = 1}. Debemos hallar el máximo de
la función
84 TEMA 1. PRERREQUISITOS

f: Rn → R en la variedad V dada por (x|x) − 1 = 0


x 7 → (L(x)|L(x))

La lagrangiana de este problema es

L: Rn × R → R
(x, r) 7→ (L(x)|L(x)) − r((x|x) − 1)
y, por tanto, (
L? L(x) = rx
∇L(x, r) = 0 ⇔
(x|x) = 1
El escalar r debe ser autovalor de L? L y la solución s, debe ser el autovector
de norma 1 asociado a r. Si multiplicamos escalarmente la primera ecuación
por s obtenemos
kLk2 = (L(s)|L(s)) = r
y, por tanto, kLk es la raiz cuadrada del mayor autovalor de L? L. Lo
escribimos: p
kLk = ρ(L? L)

1.12 Espacios de medida


Por último, presentaremos las herramientas adecuadas para medir. En un
conjunto cualquiera X llamamos σ-álgebra a una familia M de subconjun-
tos de X que cumple

1. X ∈ M

2. A ∈ M ⇒ Ac := X \ A ∈ M

[
3. {An | n ∈ N} ⊂ M ⇒ An ∈ M
n=1

La estructura (X, M) se llama espacio medible y los elementos de M son


los conjuntos medibles de X. Evidentemente, {∅, X} y P(X) siempre son
σ-álgebras en X. Además, dada cualquier familia F de subconjuntos de X,
la intersección de todas las σ-álgebras que contienen a F es una σ-álgebra
que se dice generada por F . Ası́, por ejemplo, en (R, | |) existe la σ-álgebra
de Borel B generada por todos los intervalos abiertos (a, b) ⊂ R.

Una medida ya no es, como en Los Elementos, un concepto geométrico


a priori, sino una aplicación

µ: M → [0, ∞]
A 7→ µ(A)
1.12. ESPACIOS DE MEDIDA 85

que verifica las propiedades:

1. µ(∅) = 0

! ∞
[ X
2. {An | n ∈ N} ⊂ M disjuntos dos a dos ⇒ µ An = µ(An )
n=1 n=1

La estructura (X, M, µ) es un espacio de medida. Cuando X es un espa-


cio vectorial y µ(A) = µ(x + A) ∀A ∈ M, ∀x ∈ X, es la adecuada para
los problemas de cuadratura.
Cuando µ(X) = 1, la medida µ se llama probabilidad, los conjuntos med-
ibles se llaman sucesos, (X, M, µ) se llama espacio de probabilidad y es
la estructura adecuada para tratar los problemas del azar y de la estadı́stica.

En todo espacio (X, M) con car(X) suficiente, se pueden definir las proba-
bilidades de

1. Dirac concentrada en x0 ∈ X

δx0 : M → ( [0, 1]
1 si x0 ∈ A
A 7→
0 si x0 ∈ /A

2. Bernoulli de parámetro α ∈ (0, 1) concentrada en {x0 , x1 } ⊂ X

αδx0 + (1 − α)δx1

3. Binomial de parámetro α ∈ (0, 1) concentrada en {x0 , · · · , xn} ⊂ X


n  
X n
αn−k (1 − α)k δxk
k
k=0

4. Poisson de parámetro α > 0 concentrada en la sucesión (xn )∞


n=0 ⊂ X

∞ −α k
X e α
δxk
k!
k=0

P
5. En general, para una serie de reales positivos ∞ k=0 αk = 1 y una
sucesión (xn )∞
n=0 ⊂ X tenemos la medida discreta

X
αk δxk
k=0
86 TEMA 1. PRERREQUISITOS

Dado un espacio de medida (X, M, µ), cualquier función f : X → R traslada


la estructura de medida de X al conjunto R pues quedan definidas, en él, la
σ-álgebra
Mf = {B ⊂ R | f −1 (B) ∈ M}
y la medida o ley de f
µf : Mf → [0, ∞]
B 7→ µ(f −1 (B))
y es claro que si µ es una probabilidad, µf también lo es.

Interesan las f : X → R, llamadas medibles, para las que todo intervalo


abierto de R está en Mf . Es medible la función caracterı́stica de cualquier
conjunto medible A ∈ M:
1A : X → ( R
0 si x ∈
/A
x 7→
1 si x ∈ A
y su integral respecto de la medida µ se define como sigue:
Z
1A dµ = µ(A ∩ M ) ∀M ∈ M
M

También es medible cualquier función f : X → R que toma un número finito


de valores distintos {t1 , · · · , tn } cuando f −1 (ti ) = Ai ∈ M ∀i = 1, · · · , n.
Xn
Esta función tiene la representación canónica f = ti · 1Ai y, si es no
i=1
negativa, se llama función simple y su integral respecto de µ se define
como sigue:
Z Xn
f dµ = ti · µ(Ai ∩ M ) ∀M ∈ M
M i=1
(
∞ si t > 0
con el convenio t · ∞ = y ∞ + ∞ = ∞.
0 si t = 0
Es fácil probar que la suma de dos funciones simples es simple, que el pro-
ducto de una función simple por un número real no negativo es una función
simple y que se cumplen las propiedades
R R R
1. M (s1 + s2 ) dµ = M s1 dµ + M s2 dµ
R R
2. M λ · s dµ = λ · M s dµ
La integral indefinida de la función simple s se define
Is : M → R[0, ∞]
M 7 → M s dµ
1.12. ESPACIOS DE MEDIDA 87

y es fácil probar que es una medida. Si designamos S(X, M) al conjunto


de todas las funciones simples definidas en X y M(X, M) al conjunto de
todas las medidas definidas en (X, M) nos queda definido el morfismo de
integración
I: S(X, M) → M(X, M)
s 7→ Is
El problema esencial del cálculo integral es extender el morfismo de inte-
gración al mayor conjunto posible de funciones y, como podemos sospechar,
la estructura algebraica y topológica de X es determinante para que ese
superconjunto de S(X, M) sea amplio (ver [A-C-T]).

Lebesgue lo resolvió en R, construyendo un espacio de medida (R, M, m)


tal que para toda f : R → R continua que cumple {t ∈ R | f (t) 6= 0} ⊂ [a, b],
se tiene Z Z b
f dm = f (t)dt
R a
donde la última es la clásica integral de Riemann. La estructura (R, M, m)
es el espacio de medida de Lebesgue en R. La σ-álgebra M es más fina
que la de Borel B y la medida m vale en cada intervalo [a, b] su longitud
|b − a|. Obviamente, m({t}) = 0 ∀t ∈ R y m(R) = ∞, por lo que m no
es una probabilidad pero, a cambio, es invariante por traslaciones y esto la
convierte en una medida adecuada para la geometrı́a.

Cada intervalo [a, b] hereda la estructura de medida de Lebesgue convirtiéndose


en el espacio de medida ([a, b], M, m). Para 1 ≤ p < ∞, los espacios de fun-
ciones p-integrables,
 Z b 
p p
L (a, b) = f : [a, b] → R | M ⊂ Mf y |f | dm < ∞
a

contienen a todas las funciones integrables en sentido clásico (Newton, Cauchy,


Riemann...) y a otras muchas funciones y, ası́, resultan ser espacios de Ba-
nach. Lebesgue completó los espacios de funciones de forma análoga a como
los inconmensurables habı́an completado la recta.

Una medida µ : M → [0, ∞] se dice absolutamente continua respecto de


m si

∀B ∈ M que cumple m(B) = 0 se tiene que µ(B) = 0

El teorema de Lebesgue-Radon-Nikodym asegura que toda probabilidad en


(R, M) absolutamente continua respecto de m, es de la forma
µ: M → R [0, 1] donde h ∈ L1 (R)
B 7 → B hdm
88 TEMA 1. PRERREQUISITOS

A esta función h se le llama densidad de µ respecto de m porque


Z Z
µ(B) = dµ = hdm ∀B ∈ M
B B

y, abusando del sı́mbolo, se puede escribir dµ = hdm o, incluso, h =



.
dm
Hay densidades famosas, como

1. La densidad de Gauss de parámetros (m, v) ∈ R × (0, ∞):

Gm,v : R → R
1 (t−m)2
t 7→ √ e− 2v
2πv

2. La densidad de Euler de parámetros (p, q) ∈ (0, ∞) × (0, ∞):

Ep,q : R →  R

 0 si t ≤ 0
t
t 7→ tp−1 e− q

 si t > 0
Γ(p)q p

Dado un espacio de medida (X, M, µ) decimos que un dato o variable aleato-


ria f : X → R es de Dirac, de Bernouilli, binomial, de Poisson, de Gauss o
de Euler, cuando su ley µf es la probabilidad correspondiente. Es fácil ver
que para cualquier modificación del dato f : X → R
Z Z
f g
X −→ R −→ R se tiene g ◦ f dµ = gdµf
X R

y, en particular, Z Z
n
f dµ = tn dµf (t) ∀n ∈ N
X R
Estas fórmulas nos permiten calcular la esperanza y la varianza de f :
X→R
Z Z
E(f ) = f dµ y V AR(f ) = |f − E(f )|2dµ
X X

El fichero de MATLAB esperanzayvarianza nos dibuja cualquier densidad


discreta como un ”peine de deltas de Dirac”, cualquier densidad continua
como una curva dibujada sobre R y nos calcula la esperanza y la varianza
de las correspondientes variables aleatorias.

La estructura de medida de Lebesgue se puede instalar fácilmente en


1.12. ESPACIOS DE MEDIDA 89

cualquier abierto Ω ⊂ Rn convirtiéndolo en el espacio de medida (Ω, Mn, mn ).


Los métodos para calcular la integral de Riemann de funciones f : [a, b] → R
se aprovechan para integrar las funciones F : Ω → R gracias a los teoremas
del cambio de variable y de Fubini.

Teorema 1.12.1 (Cambio de variable)


Si F : Ω ⊂ Rn → R es integrable, Q ⊂ Rn es una caja abierta y C : Q → Ω
es una función diferenciable en todo punto u ∈ Q con det DC(u) 6= 0,
Z Z
F d mn = F (C(u)) · | det DC(u)|d mn(u) ♦
Ω Q

Teorema 1.12.2 (Fubini)


Si Q = (a1 , b1) × · · · × (an , bn ) es una caja abierta de Rn y F : Q → R es
integrable
Z Z b1 Z !
F dmn = F (x1 , · · · , xn)dmn−1 (x2 , · · · , xn ) dm(x1 ) ♦
Q a1 Qn−1

Los procesos de cuadratura que tanto ingenio exigieron a Tales y a Pitágoras


se resuelven ahora de modo sistemático:

v y
d
C 1-
Q - A

O a b u O x

Hallar la cuadratura de A ⊂ R2 es calcular m2 (A)


Z
m2 (A) = 1 dm2
A

Se busca un rectángulo Q = (a, b) × (c, d) ⊂ R2 y una función diferenciable


C : Q → A con det DC(u) 6= 0 en casi todo punto de Q. Entonces
Z Z
1 dm2 = |DC(u)|dm2(u)
A Q

y, con Fubini, resolvemos la más sencilla de las dos integrales siguientes


Z b Z d  Z d Z b 
|DC(u, v)|dv du o |DC(u, v)|du dv
a c c a

La mı́tica cuadratura del cı́rculo se convierte ası́, en un ejercicio elemental.


El cı́rculo A de centro el origen y radio r se representa mediante la función
90 TEMA 1. PRERREQUISITOS

C: (0, r) × (0, 2π) → A


(ρ, θ) 7→ (ρ cos θ, ρ sin θ)
cuya diferencial viene dada por la matriz
 
cos θ −ρ sin θ
DC(ρ, θ) = con det DC(ρ, θ) = ρ
sin θ ρ cos θ

y, entonces, Z Z
r 2π
r2
m2 (A) = ρ dρ · dθ = · 2π = πr 2
0 0 2

La estructura de medida de Lebesgue se puede trasladar, también, a cualquier


variedad diferenciable p-dimensional V ⊂ Rn . Si (U, α) es una carta local
tal que α(U ) = V , mediante la aplicación α transferimos a V la estructura
de medida (U, Mp, mp). En V consideramos la σ-álgebra

Aα = {E ⊂ V | α−1 (E) ∈ Mp}

y la medida
µα : Aα → Z [0,∞]
1
E 7→ |G (t1 , · · · , tp) | 2 dmp
α−1 (E)

donde |G(t1 , · · · , tp)| es el determinante de la matriz de Gram, cuadrado


de la medida p dimensional del paralelepı́pedo engendrado por los vectores
tangentes {t1 , · · · , tp }.

La aplicación lineal biyectiva Dα(u) : Rp → Tx (V ) transforma el p-cubo


determinado por los vectores {e1 , · · · , ep} en el paralelepı́pedo determinado
1
por los vectores {t1 , · · · , tp} y, por tanto, |G (t1 , · · · , tp ) | 2 no es más que el
factor de cambio de medida que produce dicha aplicación lineal.

No es difı́cil comprobar que el espacio de medida (V, Aα, µα) es independi-


ente de la carta (U, α) y, en consecuencia, la variedad diferenciable V tiene
una estructura de medida canónica (V, A, µ) que llamaremos de Lebesgue.
Ası́, cada curva y cada superficie de nuestro espacio fı́sico R3 tiene una es-
tructura de medida canónica.

Con ello, la teorı́a de la medida y la integración elaborada por Lebesgue,


recupera y aclara los importantı́simos teoremas de Gauss y de Stokes:
1.12. ESPACIOS DE MEDIDA 91

Teorema 1.12.3 (Gauss)


Sea V un abierto de R3 cuya frontera ∂V es una superficie de clase C 1 que
en cada punto x tiene definido el vector unitario normal exterior n(x) y sean
(V, M3, m3) y (∂V, A, µ) sus espacios de medida de Lebesgue. Si V̄ = V ∪∂V
es acotado y está contenido en un abierto Ω ⊂ R3 donde hay definido un
campo F : Ω ⊂ R3 → R3 de clase C 1 , se cumple
Z Z
divF dm3 = (F | n) dµ siendo divF la divergencia de F ♦
V ∂V

Teorema 1.12.4 (Stokes)


Sea Σ una superficie orientable en R3 de clase C 2 y n(x) el vector normal
unitario elegido en el punto x. Sea S ⊂ Σ un abierto relativo de Σ tal que ∂S
es una curva de clase C 2 que en cada punto y tiene definido un vector e(y)
unitario normal exterior a S dentro de Ty (Σ) y un vector unitario tangente
t(y), y supongamos que

lim n(x) = e(y) × t(y)


x→y

Sean (S, A2 , µ2 ) y (∂S, A1 , µ1 ) sus espacios de Lebesgue y supongamos que


S̄ = S ∪ ∂S es acotado y está contenido en un abierto Ω ⊂ R3 donde hay
definido un campo F : Ω → R3 de clase C 2 . Entonces,
Z Z
(rotF | n) dµ2 = (F | t) dµ1 siendo rotF el rotacional F ♦
S ∂S

De este modo, el viejo teorema fundamental del cálculo infinitesimal de


Newton
Z b
0
S (x) = f (x) o si se prefiere f (x)dx = S(b) − S(a)
a

que relaciona el comportamiento de una función en la frontera de un intervalo


con el de su fluxión o derivación en todo el intervalo, ha sido extendido a
cualquier variedad con borde pues, tanto div f como rot f , son derivaciones
de f . Ası́, las matemática han conseguido, también, la herramienta soñada
por Arquı́medes que permite conocer propiedades del interior de un cuerpo
tomando medidas en su superficie.
92 TEMA 1. PRERREQUISITOS
Tema 2

Teorı́a de grafos

2.1 Núcleos, matrices y aplicaciones lineales


Si X e Y son conjuntos no vacı́os, llamamos núcleo a toda aplicación

k : X × Y → R.

Dada la biyección natural

>: Y ×X → X×Y ,
(y, x) 7→ (x, y)

a la aplicación compuesta k ◦ > : Y × X → R la llamamos núcleo traspuesto


de k y la designamos kt .
Si X e Y son finitos y {x1 , · · · , xn } e {y1 , · · · , ym} son enumeraciones res-
pectivas, el núcleo k : X ×Y → R es representado por la matriz de Mn×m (R)
 
k(x1 , y1 ) · · · k(x1 , ym )
 .. .. .. 
 . . . 
k(xn , y1 ) · · · k(xn , ym )

Si supp(k) = {(xi , yj ) | k(xi, yj ) 6= 0} tiene cardinal menor que la mitad del


cardinal de X × Y , diremos que el núcleo k o la matriz que lo representa
son huecos. Es interesante encontrar enumeraciones adecuadas de X tales
que la matriz que represente a k tenga sus entradas no nulas acumuladas en
torno a la diagonal principal (ver programas datosdelnucleo y reordena-
matrices).
En el caso particular X = Y es muy importante el núcleo de Kronecker

δ: X×X → ( R,
1 si x = y
(x, y) 7→
6 y
0 si x =

93
94 TEMA 2. TEORÍA DE GRAFOS

que, en cualquier enumeración, se representa por la matriz unidad de Mn (R).


También son importantes los núcleos k : X × X → R que cumplen k = kt .
Se llaman simétricos y en cualquier enumeración vienen representados por
matrices simétricas.

El conjunto RX de todas las funciones f : X → R, dotado de la suma


puntual y el producto por escalares, tiene estructura de espacioX vectorial.
X
Si X es finito, se puede definir en R el producto escalar (f |g) = f (x)g(x)
x∈X
que lo convierte canónicamente en un espacio euclı́deo. Para cada x ∈ X
definimos el vector ex ∈ RX tal que
ex : X → R
y 7→ δ(x, y)
Si {x1 , · · · , xn } es una enumeración de X, los vectores {ex1 , · · · , exn } cons-
tituyen una base ortonormal del espacio euclı́deo RX . Podemos identi-
ficar RX con Rn mediante la aplicación lineal IX : RX → Rn tal que
IX (exi ) = ei ∀i = 1, · · · , n si {e1 , · · · , en} es la base canónica de Rn .

Evidentemente, todo esto se puede repetir para Y y RY .

Si X e Y son finitos, un núcleo k : X × Y → R induce la aplicación


K: RY → RX donde Kg : X → X R
g 7 → Kg x 7 → k(x, y)g(y)
y∈Y

que cumple las siguientes propiedades:


1. K(g1 + g2 ) = K(g1) + K(g2 ) ∀g1 , g2 ∈ KY

2. K(λg) = λK(g) ∀λ ∈ R, ∀g ∈ KY

3. (ex | K(ey )) = k(x, y) ∀x ∈ X, ∀y ∈ Y


Las dos primeras son inmediatas y nos aseguran que K : RY → RX es una
aplicación lineal. La tercera también es fácil:
X X
(ex |Key ) = ex (x0 )Key (x0 ) = Key (x) = k(x, y 0)ey (y 0 ) = k(x, y).
x0 ∈X y0 ∈Y

Por tanto, para enumeraciones {x1 , · · · , xn} e {y1 , · · · , ym} de X e Y o bases


{ex1 , · · · , exn } y {ey1 , · · · , eym } de RX y RY , el operador K : RY → RX
viene repredentado por la (n × m)-matriz de entradas

(exi |Keyj ) = k(xi , yj )

El núcleo traspuesto kt : Y × X → R induce el operador lineal


2.1. NÚCLEOS, MATRICES Y APLICACIONES LINEALES 95

Kt : RX → RY donde Ktf : Y → X R
t
f 7 → Ktf y 7 → k (y, x)f (x)
x∈X

y es claro que K t es el adjunto de K pues para todo f ∈ RX y g ∈ RY se


cumple:
  !
X X X X
(Kg|f ) =  k(x, y)g(y) f (x) = kt (y, x)f (x) g(y) = (g|Ktf ).
x∈X y∈Y y∈Y x∈X

Un núcleo k : X × X → R induce un operador K : RX → RX . Decimos


que un elemento no nulo f ∈ RX es autovector de K si existe un escalar λ,
llamado autovalor, tal que Kf = λf . En tal caso, f ∈ ker(K − λI) y, si X
es finito y {x1 , · · · , xn } es una enumeración de X, tendremos que

k(x1 , x1 ) − λ k(x1 , x2 ) ··· k(x1 , xn )

k(x2 , x1 )
k(x2 , x2 ) − λ · · · k(x2 , xn )
.. .. .. .. =0

. . . .

k(xn , x1 ) k(xn , x2 ) · · · k(xn , xn ) − λ
Los autovalores de K son, por tanto, raices de este polinomio de grado |X|
y coeficientes reales, al que llamaremos polinomio caracterı́stico de K.
Si alguna de estas raices fuese compleja, α+iβ, el autovector correspondiente
deberı́a ser una función compleja f + ig : X → C tal que
K(f + ig) = (α + iβ)(f + ig).

En consecuencia, (
Kf = αf − βg
.
Kg = βf + αg
Además, α − iβ también será raiz del polinomio caracterı́stico y su au-
tovector correspondiente será f − ig. Ası́ pues, un par de raices complejas
conjugadas del polinomio caracteristico constatan la existencia de un plano
invariant [f,g] en lugar del simple rayo invariante de un autovalor real.

Si el núcleo k : X × X → R es simétrico, el operador K coincidirá con


su adjunto K t y por ello se dirá autoadjunto. Estos operadores vienen car-
acterizados por cumplir

(Kg|f ) = (g|Kf ) ∀f, g ∈ RX .

Si K es autoadjunto, todos sus autovalores son reales. Si α + iβ fuese auto-


valor, existen f, g ∈ RX no nulos tales que
( (
Kf = αf − βg (Kf |g) = α(f |g) − β(g|g)
. Luego y β = 0.
Kg = βf + αg (Kg|f ) = β(f |f ) + α(g|f )
96 TEMA 2. TEORÍA DE GRAFOS

Además, autovectores asociados a autovalores distintos son ortogonales:


( (
Kf = λf (Kf |g) = λ(f |g)
⇒ ⇒ (λ − µ)(f |g) = 0.
Kg = µg (Kg|f ) = µ(g|f )

Teorema 2.1.1 Teorema espectral de operadores autoadjuntos.

Un operador lineal K : RX → RX es autoadjunto si y sólo si existe una base


ortonormal {fx | x ∈ X} de RX y una familia {λx | x ∈ X} ⊂ R tales que
X
K(f ) = λx(fx | f )fx ∀f ∈ RX
x∈X

Demostración:
Si K es autoadjunto sus valores propios {λx | x ∈ X} son reales y sus autovec-
tores asociados son ortogonales. Existe una base ortonormal {fx | x ∈ X}
de autovectores. Por tanto,
X X X
f= (fx | f )fx y K(f ) = (fx | f )K(fx) = λx(fx | f )fx.
x∈X x∈X x∈X

X
Si K(f ) = λx(fx | f )fx ∀f ∈ RX es claro que (Kg|f ) = (g|Kf ) ∀f, g ∈ RX
x∈X
y, por tanto, K es autoadjunto. Además, los λx son sus autovalores y los fx
sus autovectores asociados. ♦

Por tanto, un operador autoadjunto K : RX → RX se puede expresar como


combinación lineal de operadores de rango uno
X
K= λxfx ⊗ fx siendo fx ⊗ fx : RX → RX
x∈X
f 7→ (fx|f )fx

Teorema 2.1.2

1. Un operador autoadjunto K : RX → RX cumple

kKk = sup {|(K(f )|f )|}.


kf k=1

2. Si, además, K es definido no negativo, los extremos de la función


(K(f )|f ) sobre la variedad kf k = 1 son autovalores de K y se alcanzan
en los autovectores correspondientes.

Demostración:
2.1. NÚCLEOS, MATRICES Y APLICACIONES LINEALES 97

1. Designemos B(f ) = (K(f )|f ) y S = sup {|B(f )|}.


kf k=1
Es claro que |B(f )| ≤ kKk · kf k2 luego S ≤ kKk.
Para la desigualdad contraria tenemos en cuenta que
kKk = sup {kK(f )k} = sup { sup {(K(f )|g)}} = sup {(K(f )|g)}
kf k=1 kf k=1 kgk=1 kf k=kgk=1

También es clara la siguiente cadena de desigualdades


B(f + g) − B(f − g) |B(f + g)| + |B(f − g)|
(K(f )|g) = ≤ ≤
4 4
kf + gk2 + kf − gk2 kf k2 + kgk2
≤S =S ≤S ∀kf k = kgk = 1.
4 2
Por tanto, kKk ≤ S.
2. La lagrangiana del problema extremal es

LB : RX × R → R
(f, µ) 7→ (K(f )|f ) − µ((f |f ) − 1)

y las soluciones (f, µ) han de verificar ∇LB (f, µ) = 0, es decir, han de


cumplir que
K(f ) = µf y (f |f ) = 1.
La primera condición indica que µ debe ser autovalor de K y, multi-
plicándola escalarmente por f , vemos que µ debe ser, también, el valor
extremo buscado. El vector f en que se alcance el valor extremal debe
ser un autovector de norma 1 asociado a µ. ♦
Si X es finito, para cualquier núcleo k : X × X → R definimos su núcleo
laplaciano
`k : X ×X → R X
(x, y) 7→ −k(x, y) + δ(x, y) k(x, z)
z∈X

y el correspondiente operador laplaciano Lk : RX


→ RX .
Dada la enumeración {x1 , . . . , xn } de X o la base {ex1 , . . . , exn } de RX el
núcleo `k : X × X → R y el operador Lk : RX → RX vienen representados
por la matriz laplaciana
X 
k(x1 , xj ) −k(x1 , x2 ) · · · −k(x1 , xn )
 j6=1 
 X 
 −k(x , x ) k(x2 , xj ) · · · −k(x2 , xn ) 
 2 1 
 
Lk =  j6=2 .
 .
. .
. . . .
.


 . . . . 

X
 −k(x , x ) −k(x , x ) · · · k(x , x )
n 1 n 2 n j
j6=n
98 TEMA 2. TEORÍA DE GRAFOS

Teorema 2.1.3 La aplicación


`: RX×X → RX×X
k 7 → `k
es lineal y cumple las siguientes propiedades:
X
1. im ` = {h ∈ RX×X | h(x, y) = 0 ∀x ∈ X}
y∈X

2. ker ` = {k ∈ RX×X | k(x, y) = 0 ∀x 6= y}

3. k ≥ 0 ⇒ `k (x, x) ≥ 0 ∀x ∈ X y `k (x, y) ≤ 0 ∀x 6= y.

Demostración :
La linealidad de ` es evidente. Veamos las propiedades:

1. ∀k ∈ RX×X y ∀x ∈ X se tiene que


!
X X X
`k (x, y) = −k(x, y) + δ(x, y) k(x, z) =
y∈X y∈X z∈V
X X
=− k(x, y) + k(x, z) = 0.
y∈X z∈X
X
Además, si h(x, y) = 0 ∀x ∈ x, se tiene que `(δ−1)h = h.
y∈X
En efecto:
X
`(δ−1)h (x, y) = −(δ(x, y) − 1)h(x, y) + δ(x, y) (δ(x, z) − 1)h(x, z)
z∈X

y, por tanto,

(a) Si x 6= y, `(δ−1)h (x, y) = h(x, y).


X
(b) Si x = y, `(δ−1)h (x, x) = (δ(x, z) − 1)h(x, z) = h(x, x)
z∈X
X
2. Si −k(x, y) + δ(x, y) k(x, z) = 0 ∀(x, y) ∈ X × X se cumple que
z∈X
k(x, y) = 0 ∀x 6= y mientras k(x, x) puede tomar cualquier valor.

3. Si k : X × X → R es no negativo, es claro que


X
`k (x, x) = k(x, z) ≥ 0 y `k (x, y) = −k(x, y) ≤ 0 si x 6= y ♦
z6=x

Observaciones 2.1.4 1. Si k : X × X → R es un núcleo simétrico,


también es simétrico su núcleo laplaciano `k : X × X → R.
2.2. CUASIMÉTRICAS, MÉTRICAS Y NÚCLEOS GENERADORES 99

2. La suma de cada una de las filas de la matriz laplaciana de un núcleo


k : X × X → R es 0 pues ∀i = 1, · · · , n tenemos:
n
X X X X
`k (xi , xj ) = `k (xi , xi ) + `k (xi , xj ) = k(xi , xj ) − k(xi , xj ) = 0
j=1 j6=i j6=i j6=i

3. Si 1 : X → R es la función que toma constantemente el valor 1, la


propiedad anterior nos dice que Lk (1) = 0. El operador Lk no es
inyectivo y la matriz laplaciana Lk no es invertible.

2.2 Cuasimétricas, métricas y núcleos generadores


Definición 2.2.1 Un núcleo q : X × X → R es una cuasimétrica en X si

1. q(x, x) = 0 ∀x ∈ X

2. q(x, y) > 0 si x 6= y

3. q(x, y) ≤ q(x, z) + q(z, y) ∀(x, y, z) ∈ X × X × X

Observaciones 2.2.2

1. Una cuasimétrica q en X es una métrica si y sólo si q t = q.

2. Un núcleo no negativo con todas las propiedades de métrica salvo la 2,


se llama pseudométrica.

Recordemos ahora los siguientes resultados sobre cuasimétricas y métricas

Teorema 2.2.3

1. Si q es cuasimétrica en X, también lo es q t .

2. Si q es cuasimétrica en X y λ > 0, también lo es λq.

3. Si q1 y q2 son cuasimétricas en X, también lo es

(q1 , q2 )∞ : X ×X → R
(x, y) 7→ max{q1 (x, y), q2(x, y)}

4. Si q1 y q2 son cuasimétricas en X y r ∈ [1, ∞), también es cuasimétrica

(q1 , q2 )r : X×X → R
1
(x, y) 7 → (q1r (x, y) + q2r (x, y)) r

5. Si q es cuasimétrica en X, (q, q t)r es una métrica en X ∀r ∈ [1, ∞].

Demostración:
100 TEMA 2. TEORÍA DE GRAFOS

1, 2 Inmediatas.

3 Es inmediato que (q1 , q2 )∞ cumple las propiedades 1 y 2 de 2.2.1.


Para la 3 basta observar que si i = 1, 2, se cumple que qi (x, y) ≤
(q1 , q2 )∞ (x, z) + (q1 , q2 )∞ (z, y) ∀(x, y, z) ∈ X × X × X.

4 Para cualquier real r ∈ [1, ∞) es inmediato que (q1 , q2 )r cumple las


propiedades 1 y 2 de 2.2.1. Además, ∀(x, y, z) ∈ X × X × X se cumple
(
q1r (x, y) ≤ (q1 (x, z) + q1 (z, y))r
q2r (x, y) ≤ (q2 (x, z) + q2 (z, y))r

y, por tanto,
1 1
(q1r (x, y)+q2r(x, y)) r ≤ ((q1 (x, z) + q1 (z, y))r + (q2 (x, z) + q2 (z, y))r) r .

Por la desigualdad de Minkowski


1 1 1
(|x1 + y1 |r + |x2 + y2 |r ) r ≤ ((|x1 |r + |x2 |r ) r + ((|y1 |r + |y2 |r ) r ,

tomando q1 (x, z) = x1 , q2 (x, z) = x2 , q1 (z, y) = y1 , q2 (z, y) = y2 ,


tenemos
1
((q1 (x, z) + q1 (z, y))r + (q2 (x, z) + q2 (z, y))r) r ≤
1 1
≤ (q1r (x, z) + q2r (x, z)) r + (q1r (x, z) + q2r (z, y)) r .
1 1
Luego (q1r (x, y) + q2r (x, y)) r ≤ (q1r (x, z) + q2r (x, z)) r + (q1r (z, x) +
1
q2r (z, y)) r y, en consecuencia, (q1 , q2 )r cumple 3 de 2.2.1.

5 Por 2.2.3, (q, q t)r es cuasimétrica en X ∀r ∈ [1, ∞]. Además es claro


que (q, q t)tr = (q, q t)r . ♦

Si el conjunto X es finito, cualquier métrica d definida en él, genera la


topologı́a discreta. Para clasificar las métricas definibles en X es interesante
estudiar si existe algún espacio de Hilbert H en el que pueda ser embe-
bido isométricamente el espacio (X, d). Cuando tal cosa sucede escribimos
(X, d) ,→ H.

El teorema de Schoenberg [67] nos dice si tal embebimiento es posible o


no. Hemos redactado este resultado clásico (1935) en términos actuales,
dividiéndolo en un teorema y dos corolarios.

Teorema 2.2.4 (Schoenberg)


Sea {x0 , x1 , · · · xn } una enumeración de X y sea q : X × X → R+ un núcleo
simétrico nulo en la diagonal. En X0 = X \ {x0 }, definimos el núcleo
2.2. CUASIMÉTRICAS, MÉTRICAS Y NÚCLEOS GENERADORES101

s: X0 × X0 → R
q (xi, x0 ) + q (xj , x0 ) − q 2 (xi , xj )
2 2
(xi , xj ) 7→
2
Los siguientes hechos son equivalentes:

1. Existe un Hilbert H y vectores v0 , v1, · · · , vn ∈ H tales que

q(xi , xj ) = kvi − vj k ∀i, j = 0, 1, · · · , n

2. El operador asociado S : RX0 → RX0 es definido no negativo.

Demostración;

1 ⇒ 2) Probaremos que
2
Xn
∀f ∈ RX0 .

(S(f )|f ) = f (xi )(vi − v0 ) (2.1)

i=1

n
X
En efecto, (S(f )|f ) = s(xi , xj )f (xi )f (xj ) y, por otra parte,
i,j=1

2  
Xn n
X n
X

f (xi )(vi − v0 ) =  f (xi )(vi − v0 )| f (xj )(vj − v0 ) =

i=1 i=1 j=1

n
X
= (vi − v0 |vj − v0 )f (xi)f (xj ).
i,j=1

El teorema generalizado de Pitágoras asegura para a, b ∈ H que

kak2 + kbk2 − ka − bk2


(a|b) =
2
y, ası́,

q 2 (xi , x0 ) + q 2 (xj , x0 ) − q 2 (xi , xj


(vi − v0 |vj − v0 ) = = s(xi , xj ).
2

Por tanto (2.1) implica que (S(f )|f ) ≥ 0 ∀f ∈ RX0 y, ası́, S es


definido no negativo.
1
1⇐ 2) Por ser S simétrico y definido no negativo, existe S 2 también simétrico
y definido no negativo.
1 1
El espacio euclı́deo RX0 y sus vectores 0, S 2 ex1 , · · · , S 2 exn , verifican
las condiciones pedidas. ♦
102 TEMA 2. TEORÍA DE GRAFOS

Corolario 2.2.5 En las condiciones del teorema 2.2.4, si existen vectores


v0 , v1, · · · , vn en el espacio euclı́deo Rm que cumplen las condiciones q(xi , xj ) =
kvi − vj k ∀i, j = 0, 1, · · · , n, se verifica que rang(S) ≤ m.
Demostración:
Consideramos la aplicación lineal
T : RX0 → Rm
n
X
f 7→ f (xi )(vi − v0 )
i=1

Según (2.1) tenemos que (S(f )|f ) = kT (f )k2 ≥ 0 ∀f ∈ RX0 y, por tanto,
ker S = ker T . Es claro que rang(T ) ≤ m y, por tanto, rang(S) ≤ m. ♦

Corolario 2.2.6 En las condiciones del teorema 2.2.4, si S es definido no


negativo y rang(S) = d, existen vectores u0 , u1 , · · · , un ∈ Rd tales que
q(xi, xj ) = kui − uj k ∀i, j = 0, 1, · · · , n.
Demostración:
Como S es definido no negativo, exite un Hilbert H y vectores v0 , v1, · · · , vn
de H tales que q(xi, xj ) = kvi − vj k ∀i, j = 0, 1, · · · , n. Consideramos la
aplicación lineal
T : RX0 → H
n
X
7→ f (xk )(vk − v0 )
k=1

Como rang(S) = d resulta que dim T (RX0 ) = d. Entonces existe una isome-
tria lineal J : T (RX0 ) → Rd . Los vectores u0 = 0 y uk = J(xk − x0 ) ∀k =
1, · · · , n cumplen las condiciones pedidas. ♦

El teorema de Schoemberg está implementado en el programa embebible


de Modus.

Definiciones 2.2.7 Sea X un conjunto no vacı́o y k : X × X → R un


núcleo cualquiera. Podemos definir los siguientes núcleos que se anulan en
la diagonal de X × X:
(1)
qk : X × X → R
(x, y) 7→ k(x, x) − k(x, y)
(2)
qk : X ×X → R
(x, y) 7→ k(y, y) − k(x, y)
(3)
qk : X ×X → R
(x, y) 7→ k(x, x) + k(y, y) − 2k(x, y)
sk : X×X → R
(x, y) 7→ k(x, x) + k(y, y) − k(x, y) − k(y, x)
2.2. CUASIMÉTRICAS, MÉTRICAS Y NÚCLEOS GENERADORES103

1. El núcleo k es i-generador de cuasimétrica y lo expresamos k ∈ Gi ,


(i)
cuando qk es una cuasimétrica en X.

2. El núcleo k es generador de métrica y lo expresamos k ∈ GM, cuando


sk es una métrica en X.

Observaciones 2.2.8 En términos del operador K : RX → RX asociado al


núcleo k : X × X → R podemos expresar:
(1)
1. qk (x, y) = (K(ex − ey )|ex) ∀(x, y) ∈ X × X

2. sk (x, y) = (K(ex − ey )|ex − ey ) ∀(x, y) ∈ X × X


(1)
A los núcleos qk y sk los designaremos, a veces, qK y sK .

Teorema 2.2.9 Sea k : X × X → R un núcleo cualquiera.


1. k ∈ G1 si y sólo si se cumplen

(a) k(x, x) > k(x, y) si card(x, y) = 2.


(d) k(x, z) + k(z, y) ≤ k(x, y) + k(z, z) si card(x, y, z) = 3.

2. k ∈ G2 si y sólo si se cumplen

(b) k(y, y) > k(x, y) si card(x, y) = 2.


(d) k(x, z) + k(z, y) ≤ k(x, y) + k(z, z) si card(x, y, z) = 3.

3. k ∈ G3 si y sólo si se cumplen

(c) k(x, x) + k(y, y) > 2k(x, y) si card(x, y) = 2.


(d) k(x, z) + k(z, y) ≤ k(x, y) + k(z, z) si card(x, y, z) = 3.

Demostración:
⇒ Es inmediato en los tres casos.
(i)
⇐ Los núcleos qk son nulos en la diagonal de X × X y, por (a),(b) o (c),
son estrictamente positivos fuera de la misma.
Para cualquiera i = 1, 2, 3, la desigualdad
(i) (i) (i)
qk (x, y) ≤ qk (x, z) + qk (z, y)

se escribe en la forma k(x, z) + k(z, y) ≤ k(x, y) + k(z, z). Cuando


card(x, y, z) = 3 la desigualdad triangular se asegura en (d) y cuando
card(x, y, z) < 3, es trivial. ♦

Teorema 2.2.10 Sea k : X × X → R un núcleo cualquiera y consideramos


el operador S = K + K t : RX → RX . Entonces, k ∈ GM si y sólo S cumple
las dos condiciones siguientes:
104 TEMA 2. TEORÍA DE GRAFOS

1. (S(ex − ey )|ex − ey ) > 0 si card(x, y) = 2.

2. (S(ex − ez )|ey − ez ) ≥ 0 si card(x, y, z) = 3.

Demostración:
Como sk : X × X → R es simétrico y se anula en la diagonal, será una
métrica si y sólo si

(a) sk (x, y) > 0 si card(x, y) = 2.

(b) sk (x, y) ≤ sk (x, z) + sk (z, y) si card(x, y, z) = 3.

1. ⇔ (a) puesto que


1
sk (x, y) = (K(ex − ey )|ex − ey ) = (S(ex − ey )|ex − ey ).
2
2. ⇔ (b) puesto que

sk (x, z) + sk (z, y) − sk (x, y) = (S(ex − ez )|ey − ez ). ♦

Proposición 2.2.11 Sea X un conjunto finito y K : RX → RX un operador


autoadjunto que cumple:

1. K es definido no negativo.

2. 1 ∈ ker K.

3. rang K = |X| − 1.

Entonces sK (ver obs. 2.2.8) es una métrica y, si 3 no se satisface, es una
pseudométrica.
Demostración:
√ √ √
Por 1, existe K autoadjunto y definido no negativo tal que K · K = K.
Como √ √
sK (x, y) = (K(ex − ey )|ex − ey ) = k Kex − Key k2 ,

es claro que sK cumple todas las propiedades de pseudométrica. Para ver

que es métrica sólo falta comprobar que sK (x, √y) = 0 ⇒ x = y:

Es claro que sK (x, y) = 0 ⇒ ex − ey ∈ ker K ⊂ ker K y, por 2 y 3,
ker K = [1]. Luego, ex − ey = λ1 y, en consecuencia, x = y. ♦.

Teorema 2.2.12 Para cualquier núcleo k : X × X → R se cumplen:


(3) (1) (2)
1. qk = qk + qk .

2. k ∈ G1 ⇔ kt ∈ G2
(1) t (2) t
3. sk = qk + q (1)k = qk + q (2)k
2.2. CUASIMÉTRICAS, MÉTRICAS Y NÚCLEOS GENERADORES105

(3)
4. k = kt ⇔ qk = sk

5. G1 ∩ G2 ⊂ G3 ⊂ G1 ∪ G2 ⊂ GM
pudiendo ser estrictos todos los contenidos.
(1)
6. Si k ∈ G1 , qk es métrica si y sólo si

k(x, x) − k(y, y) = k(x, y) − k(y, x) ∀(x, y) ∈ X × X

(2)
7. Si k ∈ G2 , qk es métrica si y sólo si

k(y, y) − k(x, x) = k(x, y) − k(y, x) ∀(x, y) ∈ X × X

(3)
8. Si k ∈ G3 , qk es métrica si y sólo si k = kt y en la cadena de
contenidos 5 todos los conjuntos coinciden.
Demostración:
(1) (2)
1. qk (x, y) + qk (x, y) = k(x, x) − k(x, y) + k(y, y) − k(x, y) = k(x, x) +
(3)
k(y, y) − 2k(x, y) = qk (x, y) ∀x, y ∈ X.
(1) (1)t
2. k ∈ G1 ⇔ qk es cuasimétrica ⇔ qk es cuasimétrica.
(1)t (1)
Y sabemos que qk (x, y) = qk (y, x) = k(y, y) − k(y, x) = kt (y, y) −
(2) (1)t
kt (x, y) = qkt (x, y) ∀x, y ∈ X. Por tanto tenemos que qk es
(2)
cuasimétrica ⇔ qkt es cuasimétrica ⇔ kt ∈ G2 .

3. Por la observación 2.2.8 tememos, ∀x, y ∈ X, que:


(1) (1)t
qk (x, y) + qk (x, y) = (K(ex − ey )|ex) + (K(ey − ex )|ey ) =
= (K(ex − ey )|ex) − (K(ex − ey )|ey ) = (K(ex − ey )|ex − ey ) = sk (x, y).
La otra igualdad se deduce de 2.
(3)
4. qk = sk ⇔ k(x, x) + k(y, y) − 2k(x, y) = k(x, x) + k(y, y) −
k(x, y) − k(y, x) ⇔ k(x, y) = k(y, x) ⇔ k = kt .
(i)
5. Si k ∈ Gi ∀i = 1, 2, son cuasimétricas qk ∀i = 1, 2 y, también, su suma
(3)
qk . Luego, G1 ∩ G2 ⊂ G3 .
Si k ∈ G3 , por el teorema 2.2.9 se cumplen (c) y (d). Por cumplirse
(c) se debe cumplir (a) o (b) y, en consecuencia, G3 ⊂ G1 ∪ G2 .
El contenido G1 ∪ G2 ⊂ GM se deduce de 3.
Para ver que todos los contenidos pueden ser estrictos ponemos, re-
spectivamente, los siguientes ejemplos:
   
2 3 (3) 0 1
i) Si X = {1, 2} y k = tenemos qk = que es
2 5 3 0
 
(1) 0 −1
cuasimétrica, mientras qk = no es cuasimétrica.
3 0
106 TEMA 2. TEORÍA DE GRAFOS
   
3 3.75 (3) 0 −.5
ii) Si X = {1, 2} y k = tenemos qk =
2 4 3 0
 
(2) 0 0.25
que no es cuasimétrica mientras que qk = si es
1 0
cuasimétrica.
   
3 3.5 (1) 0 −0.5 (2)
iii) Si X = {1, 2} y k = tenemos qk = , qk =
2 3 1 0
   
0 −0.5 (3) 0 −1
, qk = que no son cuasimétricas, mientras
1 0 2 0
 
0 0.5
que sk = si es cuasimétrica.
0.5 0
(1) (1)
6. Si k ∈ G1 , qk es métrica ⇔ ∀x, y ∈ X se tiene que qk (x, y) =
(1)
qk (y, x) ⇔ k(x, x) − k(x, y) = k(y, y) − k(y, x) ⇔ k(x, x) − k(y, y) =
k(x, y) − k(y, x).
(2) (2)
7. Si k ∈ G2 , qk es métrica ⇔ ∀x, y ∈ X se tiene que qk (x, y) =
(2)
qk (y, x) ⇔ k(y, y) − k(x, y) = k(x, x) − k(y, x) ⇔ k(y, y) − k(x, x) =
k(x, y) − k(y, x).

8. Inmediato. ♦

Teorema 2.2.13 Sea q : X × X → R un núcleo nulo en la diagonal de


(i)
X × X. Para i = 1, 2, 3 existe un núcleo ki : X × X → R tal que q = qki .
Demostración:
Para todo (x, y) ∈ X × X podemos proceder:
1. Fijamos x0 ∈ X y definimos k1 (x, y) = q(x, x0 ) − q(x, y). Es claro que
(1)
qk1 (x, y) = q(x, x0 ) − q(x, x) − q(x, x0) + q(x, y) = q(x, y)

2. Fijamos x0 ∈ X y definimos k2 (x, y) = q(y, x0 ) − q(x, y). Es claro que


(2)
qk2 (x, y) = q(y, x0 ) − q(y, y) − q(y, x0) + q(x, y) = q(x, y)

q(x, x0) + q(y, x0 ) − q(x, y)


3. Fijamos x0 ∈ X y definimos k3 (x, y) = .
2
Es claro que

(3) q(x, x0) + q(y, x0) − q(x, y)


qk3 (x, y) = q(x, x0 ) + q(y, x0) − 2 = q(x, y)
2

Teorema 2.2.14 Sea X un conjunto no vacı́o y k : X × X → R un núcleo


1
no nulo y acotado. Sea kkk∞ = sup {|k(x, y)|}. Si β ∈ [0, 4kkk ∞
],
(x,y)∈X×X
se cumple:
2.2. CUASIMÉTRICAS, MÉTRICAS Y NÚCLEOS GENERADORES107

1. El núcleo δ − βk ∈ G1 ∩ G2 y, por tanto, δ − βk ∈ G3 .


(i)
2. ∀i = 1, 2, 3 la cuasimétrica qδ−βk genera la topologı́a discreta en X
Demostración:
1. Probaremos que δ − βk ∈ G1 ∩ G2 ⊂ G3 usando el teorema 2.2.9.
Comprobamos (a):
1
k(x, x) − k(x, y) ≤ |k(x, x) − k(x, y)| ≤ 2kkk∞ < 4kkk∞ ≤
β
y, por tanto, βk(x, x)−βk(x, y) < 1. Si x 6= y tenemos que δ(x, x) = 1
y δ(x, y) = 0 y, ası́, δ(x, x) − βk(x, x) > δ(x, y) − βk(x, y).
De forma similar se harı́a (b) y comprobamos (d):
−k(x, z) − k(z, y) + k(x, y) + k(z, z) ≤
1
≤ | − k(x, z) − k(z, y) + k(x, y) + k(z, z)| ≤ 4kkk∞ ≤
β
y, en consecuencia, −βk(x, z) − βk(z, y) + βk(x, y) + βk(z, z) ≤ 1.
Si card(x, y, z) = 3 tenemos que δ(x, z) = δ(z, y) = δ(x, y) = 0 y
δ(z, z) = 1 y, por tanto,
δ(x, z)−βk(x, z)+δ(z, y)−βk(z, y) ≤ δ(x, y)−βk(x, y)+δ(z, z)−βk(z, z).

2. Si x 6= y tenemos:
(1) 2kkk∞ 1
qδ−βk (x, y) = 1 − β(k(x, x) − k(x, y)) ≥ 1 − β2kkk∞ ≥ 1 − = ,
4kkk∞ 2
(2) 2kkk∞ 1
qδ−βk (x, y) = 1 − β(k(y, y) − k(x, y)) ≥ 1 − β2kkk∞ ≥ 1 − = ,
4kkk∞ 2
(3) 4kkk∞
qδ−βk (x, y) = 2−β(k(x, x)+k(y, y)−2k(x, y)) ≥ 2−β4kkk∞ ≥ 2− =1
4kkk∞
Por tanto, todas las cuasimétricas generan la topologı́a discreta.

Corolario 2.2.15 Sea X un conjunto no vacı́o y k : X × X → R un núcleo


no nulo y acotado. Sea Ci (k) = {β ∈ R+ | δ − βk ∈ Gi } ∀i = 1, 2, 3.
1
Entonces, Ci (k) es un intervalo que contiene a [0, 4kkk ∞
].
Demostración:
Sólo falta ver que Ci (k) es intervalo ∀i = 1, 2, 3. Para i = 1, es claro que
(
1
β > k(x, x) − k(x, y)
β ∈ C1 (k) ⇔ 1
β ≥ k(z, z) + k(x, y) − k(x, z) − k(z, y)

luego, si 0 ≤ γ < β, γ1 > β1 y γ ∈ C1 (k).


Para i = 2, 3 se prueba similarmente. ♦
108 TEMA 2. TEORÍA DE GRAFOS

Observaciones 2.2.16
1. Si k = kt todos los Ci (k) coinciden y los denotamos C(k).
2. En las cadenas de contenidos
 
1
0, ⊂ Ci (k) ⊂ R+ ∀i = 1, 2, 3
4kkk∞
podemos tener la igualdad o el contenido estricto en todas las posi-
ciones:
(a) Si k es una cuasimétrica, Ci (k) = R+ ∀i = 1, 2, 3.
(b) Si X = {1, 2, 3} y el núcleo k : X × X → R está dado por la
matriz  
0 −3 3
2 3 −3  ,
3 1 0
tenemos que kkk∞ = 3 y que
 
0 1 − 3β 1 + 3β
(1)
qδ−βk =  1 − β 0 1 − 6β 
1 + 3β 1+β 0
 
0 1 − 6β 1 + 3β
(2)
qδ−βk = 1 − 2β
 0 1 − 3β 
1 + 3β 1 − 2β 0
 
0 2 − 9β 2 + 6β
(3) (1) (2)
qδ−βk = qδ−βk + qδ−βk =  2 + β 0 2 − 9β  .
2 + 6β 2 − β 0
h i
1 1
son cuasimétricas si y sólo si β ≤ 12 . Luego 0, 4kkk ∞
=
Ci (k) ∀i.
(c) Si X = {1, 2, 3, 4} y el núcleo k : X × X → R está dado por la
matriz  
0 1 2 1
1 0 1 2
 
2 1 0 1
1 2 1 0
1
tenemos kkk∞ = 6 y, para β = 1, tenemos que β > 4kkk∞ y que
 
0 4 6 4
(3) 4 0 4 6
qδ−k = 
6 4 0 4

4 6 4 0
1
es una métrica. Por tanto, [0, 4kkk ∞
] ⊂ C3 (k), estrictamente.
2.2. CUASIMÉTRICAS, MÉTRICAS Y NÚCLEOS GENERADORES109

(d) Para i=1,2 se deja como ejercicio la búsqueda de los ejemplos


adecuados.
En un conjunto no vacı́o X, a partir de un núcleo k : X×X → R no nulo, aco-
(3)
tado y simétrico, hemos construido la familia de métricas {qδ−βk | β ∈ C3 (k)}
que siempre generan la topologı́a discreta. Ahora estudiaremos cuáles hacen
(3)
de (X, qδ−βk ) un espacio métrico embebible en un Hilbert.

Teorema 2.2.17 Sea X un conjunto finito y k : X × X → R un núcleo no


nulo y simétrico. Consideramos el conjunto
(3)
S(k) = {β ∈ C(k) | (X, qδ−βk) ,→ H}
Entonces, existe un β0 > 0 tal que [0, β0] ⊂ S(k).
Demostración:
Es claro que 0 ∈ S(k) y por la continuidad de los autovalores del núcleo
de Schoenberg existe un β0 > 0 que también está en S(k). La propia con-
tinuidad mencionada asegura que [0, β0] ⊂ S(k). ♦

Observaciones 2.2.18
1. El teorema 2.2.17 y los experimentos numéricos realizados nos hacen
pensar que S(k) debe ser un intervalo. Sin embargo, esta cuestión aun
no ha podido ser demostrada.
 
0 1 2 1
1 0 1 2
2. Para el núcleo k : {1, 2, 3, 4}×{1, 2, 3, 4} → R de matriz 
2 1 0 1 ,

1 2 1 0
ya considerado en el ejemplo 2.2.16,2c, tenemos, para β = 1, la
0 4 6 4
(3)  4 0 4 6
métrica qδ−k =  6 4 0 4 con núcleo de Schoenberg k3δ−k =

4 6 4 0
 
16 18 −2
 18 36 18  y espectro σ(k3δ−k ) = (−2.7308, 18, 52.7308).
−2 18 16
(3)
Por tanto, el espacio métrico ({1, 2, 3, 4}, qδ−k) no es embebible en
ningún Hilbert y, ası́, en general, el contenido S(k) ⊂ C(k) es es-
tricto.
3. Para núcleos k : X ×X → R+ generados aleatoriamente, hemos obser-
(3)
vado una alta frecuencia de casos en que (X, qδ− 1 k ) ,→ H cuando
4kkk∞
(3)
card(X) ≤ 25, mientras que los casos en que (X, qδ− 1
k
) 6,→ H son
4kkk∞
muy frecuentes cuando card(X) ≥ 35.
110 TEMA 2. TEORÍA DE GRAFOS

Estos resultados están implementados en el programa familiadecuasimet-


ricas de Modus

2.3 Relaciones
Si X es un conjunto no vacı́o, los subconjuntos de X × X constituyen el
conjunto R(X) de las relaciones de X. Son relaciones en X, por ejemplo, el
vacı́o ∅ y la diagonal 4 = {(x, x) | x ∈ X}. Un elemento p de una relación
P es un par ordenado de elementos de X que escribiremos (p− , p+). Cada
relación P tiene su traspuesta >(P ).
Se dice que una relación P es reflexiva si ∆ ⊂ P y que es simétrica si
P = >(P ). La relación Ps = P ∪ >(P ) siempre es simétrica.

En R(X) definimos la operación interna, llamada composición,

◦: R(X) × R(X) → R(X)


(P, Q) 7→ P ◦Q

tal que P ◦ Q = {(x, y) ∈ X × X | ∃z ∈ X tal que (x, z) ∈ Q y (z, y) ∈ P }.


Una relación P se dice transitiva si P ◦ P ⊂ P y se dice de equivalencia si
es reflexiva, simétrica y transitiva.
En general, (R(X), ◦) es un semigrupo no conmutativo con unidad ∆ y
elemento absorbente ∅ que admite divisores pues, por ejemplo,

{(x1 , y1 )} ◦ {(x2 , y2 )} = ∅ si x1 6= y2 .

También conviene observar que la composición es distributiva a derecha e


izquierda con la unión de relaciones. Ası́,
!  
[ [ [
Pi ◦  Qj  = Pi ◦ Qj
i∈I j∈J (i,j)∈I×J

Dada una relación P ∈ R(X), definimos P (1) = P y, sucesivamente,

P (k + 1) = P ◦ P (k) ∀k ∈ N.

Cuando k > 1 es claro que

P (k) = {(x, y) | ∃(p1 , · · · , pk ) ∈ P k con p− + + −


1 = x, pk = y y pi = pi+1 ∀i = 1, · · · , k−1}.

Definiciones 2.3.1 Sea X un conjunto no vacı́o y P ∈ R(X) una relación.


1. Una k-tupla Γ = (p1 , · · · , pk ) ∈ P k tal que p+ −
i = pi+1 ∀i = 1.2, . . . , k − 1 es
un camino en P de inicio p− +
1 y final pk .

2. Cxy es el conjunto de todos los caminos con inicio x y final y.


2.3. RELACIONES 111

3. Un ciclo es un camino (p1 , · · · , pk ) con inicio y final iguales que cumple


k
card(p− − +
1 , · · · , pk , pk ) > +1
2
para evitar que (p1 , · · · , pk , >(pk ), · · · , >(p1 )) pueda considerarse un ciclo.

Definición 2.3.2 Sea X un conjunto no vacı́o, A ⊂ X y P ∈ R(X). Decimos que


A es P -maximal si A × A ⊂ P y B × B 6⊂ P cuando A ⊂ B y A 6= B.

Teorema 2.3.3 Sea X un conjunto no vacı́o.


1. Una relación reflexiva y transitiva C 6= X × X determina una partición en X
constituida por subconjuntos C-maximales a la que llamaremos C-partición.
2. Si D ⊂ C es otra relación reflexiva y transitiva en X, la D-partición es un
refinamiento de la C-partición.
3. La C-partición y la (C ∩ >(C))-partición son iguales y, ası́, los conjuntos de
la C-partición son las clases de la relación de equivalencia (C ∩ >(C)).
Demostración:
1. Sea y ∈ X. Como (y, y) ∈ 4 ⊂ C, la familia {Xi | i ∈ I} de subconjuntos
[ de
X tales que (y, y) ∈ Xi × Xi ⊂ C es no vacı́a. Su unión Xy = Xi tambien
i∈I
cumple que Xy × Xy ⊂ C pues
[ [ [
Xy × Xy = Xi × Xj = Xi × Xj
i∈I j∈I (i,j)∈I×I

y dado cualquier (yi , yj ) ∈ Xi × Xj es claro que (yi , y) ∈ Xi × Xi ⊂ C y


(y, yj ) ∈ Xj × Xj ⊂ C con lo cual (yi , yj ) ∈ C ◦ C ⊂ C.
Ası́, para cada y ∈ X encontramos un Xy C-maximal que lo contiene.
Además, si x 6= y son dos puntos de X se tiene la alternativa Xx = Xy o
Xx ∩ Xy = ∅. En efecto:
Si Xx 6= Xy y ∃x ∈ Xx ∩ Xy es claro que
(
Xx × Xy = {(x1 , y1 ) | ∃x tal que (x1 , x) ∈ C y (x, y1 ) ∈ C} ⊂ C ◦ C ⊂ C
Xy × Xx = {(y1 , x1 ) | ∃x tal que (y1 , x) ∈ C y (x, x1) ∈ C} ⊂ C ◦ C ⊂ C

y, por tanto,

(Xx ∪ Xy )×(Xx ∪ Xy ) = (Xx ×Xx )∪ (Xy ×Xy )∪ (Xx ×Xy )∪ (Xy ×Xx ) ⊂ C

con lo que, por suponer Xx 6= Xy , ni Xx ni Xy serı́an C-maximales.


2. Inmediato.
3. Por 2, la (C ∩ >(C))-partición es un refinamiento de la C-partición. Pero es
claro que si Xi × Xi ⊂ C también se cumple que Xi × Xi ⊂ C ∩ >(C) y, por
tanto, la C partición también es un refinamiento de la (C ∩ >(C))-partición,
luego ambas particiones coinciden. ♦

Teorema 2.3.4 Sea X un conjunto no vacı́o y sea P ∈ R(X) una relación.


112 TEMA 2. TEORÍA DE GRAFOS


[
1. T = P (k) es una relación transitiva en X.
k=1
m
[
2. Si P es finito y card(P ) = m, T = P (k)
k=1

3. C = 4∪T es una relación reflexiva y transitiva en X y, por tanto, determina


una C-partición.

Demostración:

! ∞ 

[ [ [
1. T ◦ T = P (i) ◦  P (j) = P (k) = T.
i=1 j=1 k=1

m
[ ∞
[
2. Es claro que P (k) ⊂ P (k) = T . Veamos el contenido contrario:
k=1 k=1
Si (x, y) ∈ T existe un n ∈ N tal que (x, y) ∈ P (n). Si n ≤ m el resultado
es inmediato. Si n > m existe un n-camino (p1 , . . . , pn ) ∈ P n . Alguno de
estos elementos de P , por ejemplo pj , debe aparecer repetido y, sustituyendo
en el camino la parte pj , · · · , pj por pj , vemos que (x, y) ∈ P (`) con ` < p.
Si ` ≤ m el resultado es inmediato y si ` > m volvemos a rebajarlo. En un
número finito de pasos, concluimos la prueba.
3. Es evidente que 4 ⊂ C, luego es reflexiva. Además, es transitiva pues

C ◦ C = (4 ∪ U ) ◦ (4 ∪ U ) = 4 ∪ T = C.

Según 2.3.3, C determina una partición en X constituida por subconjuntos


C-maximales. ♦
Los programas de MATLAB composicion, depura y relacionT nos permiten
construir fácilmente el conjunto T \ ∆.

2.4 Digrafos y grafos


Definición 2.4.1 Un digrafo es una terna (V, E, w) donde V es un conjunto finito,
E ∈ R(V ) una relación en V y w : V × V → R+ un núcleo cuyo soporte es E. Si
∆ ∩ E = ∅ decimos que el digrafo es simple.

Los elementos de V son los vértices del digrafo y los elementos de E son los arcos
del digrafo. El núcleo w asigna pesos a los arcos. Si w = 1 hablamos de digrafo sin
pesos (V, E).

Definiciones 2.4.2 Sea G = (V, E, w) un digrafo.


1. Su digrafo traspuesto es Gt = (V, >(E), w t ) siendo w t = w ◦ >.
2. Su digrafo simetrizado es Gs = (V, Es , ws ) siendo Es = E ∪ >(E) y ws =
w + wt
.
2
3. Si G = Gs decimos que G es simétrico.
2.4. DIGRAFOS Y GRAFOS 113

Observaciones 2.4.3

1. Si el digrafo G = (V, E, w) es tal que


(
V = {1, 2, 3, 4, 5}
E = {(1, 2), (1, 5), (2, 3), (3, 2), (4, 1), (4, 2), (5, 4)}

y w : V × V → R está dada por la matriz de valores


 
0 5 0 0 2
0 0 3 0 0
 
0 4 0 2 0
 
7 1 0 0 0
0 0 0 4 0

toda esa información se puede presentar en el siguiente esquema

2 5 1
4
3

3 1 7 2

4 4 5
2. Los digrafos Gt y Gs se representan, respectivamente por los esquemas
5
2 1 2
2.5
1
2.5
3
3.5
4
3.5
3 1 7 2
3 0.5
3.5
0.5 1 1
3.5
2 1
1
4
4 5 4
2
5
2

3. Dado un digrafo simétrico Gs , en su conjunto de arcos E ∪ >(E) se puede


considerar la relación de equivalencia (u, v) ∼ (v, u) y manejar el conjunto
cociente A = (E ∪ >(E))/ ∼ constituido por los pares de vértices no ordena-
dos {u, v} que llamaremos aristas. Un digrafo simétrico es lo que se conoce
en la literatura como grafo y es frecuente su representación alternativa
114 TEMA 2. TEORÍA DE GRAFOS

2 2.5 1
3.5

3 .5 3.5 1

4 2 5
La utilización de pesos nos permite formalizar la cuestión de las aristas
múltiples, habitual en la presentacón clásica de la teorı́a de grafos.
Los programas de MATLAB datosdelgrafo y pintagrafo nos permiten obtener
fácilmente estas representaciones.

Definición 2.4.4 Un digrafo G0 = (V 0 , E 0 , w 0 ) es subdigrafo del digrafo G =


(V, E, w) cuando
V 0 ⊂ V, E 0 ⊂ E, y w 0 |E 0 = w|E 0 .
Si, además, V 0 = V decimos que G0 es subdigrafo generador de G.

[
Definición 2.4.5 Sea G = (V, E, w) un digrafo y sea la relación T = E(k).
k=1
Decimos que G es conexo cuando 4 ∪ T = V × V .

[
Teorema 2.4.6 Sea G = (V, E, w) un digrafo y sea la relación T = E(k).
k=1

1. Si G es conexo y card(V ) > 1 se tiene que 4 ⊂ T .


2. Si G no es conexo y {V1 , · · · , Vq } es la 4 ∪ T -partición de V , el digrafo
(Vi , Ei , wi ) donde Ei = E ∩ Vi × Vi y wi |Ei = w|Ei es un subdigrafo conexo
de (V, E, w) ∀i = 1, · · · , q .
Demostración:
1. Designemos Sea u ∈ V . Existe v ∈ V tal que (u, v) ∈ / 4, luego (u, v) ∈ C y
(v, u) ∈ C. Ası́, (u, u) ∈ C y, como u es cualquiera, 4 ⊂ C.
2. (Vi , Ei , wi ) es un claro subdigrafo de (V, E, w) y sólo falta probar que es
conexo, es decir, que

[
Vi × Vi = 4i ∪ Ei (k) donde 4i = 4 ∩ Vi × Vi .
k=1


[
Si card(Vi ) = 1, es trivial. Si card(Vi ) > 1, sabemos que Vi × Vi ⊂ E(k).
k=1
Ası́, ∀(u, v) ∈ Vi ×Vi existe un camino (e1 , · · · , ek ) en E con (e− +
1 , ek ) = (u, v)
2.4. DIGRAFOS Y GRAFOS 115

pero la C-maximalidad de Vi asegura que, también, (e1 , · · · , ek ) es camino



[
en Ei y, en consecuencia, Vi × Vi = Ei (k). ♦
k=1

Definición 2.4.7 Los subdigrafos (Vi , Ei , wi ) de (V, E, w), introducidos en 2.4.6,2,


son las componentes conexas de (V, E, w).

Definiciones 2.4.8
1. Un digrafo G = (V, E, w) conexo y sin ciclos se llama árbol.
2. En un digrafo G = (V, E, w), un subdigrafo generador conexo y sin ciclos se
llama árbol generador.

Observación 2.4.9 Un árbol G = (V, E, w) es siempre un digrafo simétrico y


cumple la siguiente ley |E| = 2(|V | − 1). Si consideramos aristas, en lugar de
arcos, es claro que en un árbol el número de aristas es el número de vértices menos
uno |A| = |V | − 1.

El programa de MATLAB conexion, nos permite estudiar fácilmente la conexión


en un digrafo a partir de su núcleo w.

Definición 2.4.10 Dado un digrafo G = (V, E, w) definimos su núcleo de inciden-


cia como sigue

uG : E ×V → q R
w(e) +
(e, v) 7→ 2 (δ(e , v) − δ(e− , v))

El programa de MATLAB incidencia, nos permite hallar fácilmente el núcleo de


incidencia de un digrafo a partir del núcleo w.

Teorema 2.4.11 Sea G = (V, E, w) un digrafo y sea UG : RV → RE el operador


t
de incidencia, asociado al núcleo de incidencia uG . Entonces, UG · UG = L G s .

Demostración:
Es claro que

UG : RV → RE donde UG f : E → q R
w(e) +
f 7→ UG f e 7→ 2 (f(e ) − f(e− ))

y, por tanto,
X X w(e)
t
(UG ·UG eu |ev ) = UG eu (e)·UG ev (e) = (eu (e+ )−eu (e− ))·(ev (e+ )−ev (e− ))
2
e∈E e∈E

Si u 6= v, sólo son no nulos los sumandos correspondientes a los pares (u, v) o (v, u)
si pertenecen a Es , luego

t w(u, v) w(v, u)
(UG · UG eu |ev ) = − − = −ws (u, v)
2 2
116 TEMA 2. TEORÍA DE GRAFOS

Por otra parte,


X w(e) X
t
(UG · UG eu |eu ) = (eu (e+ ) − eu (e− ))2 = ws (u, v)
2
e∈E v6=u

pues sólo son no nulos los sumandos correspondientes a elementos de Es que con-
tienen a u menos el posible lazo (u, u).
Según el teorema 2.1.3, tenemos
t t
(UG · UG eu |eu ) = `ws (u, v) ∀(u, v) ∈ V × V luego UG · UG = LGs .♦

Teorema 2.4.12 Sea G = (V, E, w) un grafo simétrico con p ≤ |V | componentes


conexas. Su operador laplaciano L tiene las siguientes propiedades:
1. Su matriz L es irreducible si y sólo si p = 1.

2. rang L = |V | − p.

3. 0 es autovalor de L de multiplicidad algebraica p.

4. L tiene |V | − p autovalores reales positivos. El menor de ellos es

λ1 = min{(L(f)|f) | f ∈ (ker L)⊥ y kfk = 1}

Demostración:
1. Si p > 1 existe una C-partición de V , no trivial, {V1 , · · · , Vp }. Si enumeramos
los vértices de V empezando por los de V1 , después los de V2 , y seguimos
ası́ hasta terminar por los de Vp , es claro que L tendrá forma diagonal por
bloques, con p bloques.

2. Si el i-ésimo bloque es de tamaño ki × ki , como la suma de cada una de sus


columnas es nula, resulta que el vector ni , de coordenadas 1 en los lugares
k1 + k2 + · · · + ki−1 + 1, · · · , k1 + k2 + · · · + ki−1 + ki y 0 en los restantes,
está en el núcleo de L. Es claro que el conjunto de vectores {n1 , · · · , np}
es linealmente independiente. Por otra parte, si f ∈ ker L, es claro que f
será constante en cada subconjunto Vi y, por tanto, los vectores {n1 , · · · , np}
son un sistema generador de ker L. Ası́, dim ker L = p y, en consecuencia,
rang L = |V | − p.

3. Acabamos de ver que 0 es un autovalor de L de multiplicidad geométrica p.


Sólo resta recordar que la multiplicidad algebraica coincide con la geométrica
si la matriz es simétrica.

4. Si el autovalor 0 tiene multiplicidad p, la suma de las multiplicidades de los


autovalores positivos es |V | − p. Sea λ1 el menor autovalor positivo.
Por ser L : RV → RV autoadjunto, (ker L)⊥ = imL. La restricción de L a
(ker L)⊥ es un operador P : (ker L)⊥ → (ker L)⊥ autoadjunto y positivo que
tiene como autovalores los autovalores positivos de L. Según 2.1.2, 2, es claro
que
λ1 = min{(L(f|f) | f ∈ (ker L)⊥ y kfk = 1}. ♦
2.5. CUASIMÉTRICAS Y MÉTRICAS EN DIGRAFOS Y GRAFOS 117

2.5 Cuasimétricas y métricas en digrafos y grafos


Definiciones 2.5.1 Sea G = (V, E, w) un digrafo.
1. Dado un camino Γ = (e1 , · · · , ek ) en E, definimos su coste como el número
Xk
w(Γ) = w(ei ).
i=1
X
2. Llamamos coste del digrafo al número w(G) = w(e).
e∈E


[
Teorema 2.5.2 Sea G = (V, E, w) un digrafo y la relación C = 4 ∪ E(k). El
k=1
núcleo
qG : V ×V →  R


 0 si (u, v) ∈ ∆
(u, v) 7→ min {w(Γ)} si (u, v) ∈ C \ ∆
 Γ∈Cuv

 1 + w(G) si (u, v) ∈
/C

es una cuasimétrica en V que se llama cuasimétrica de Dikjstra del digrafo G.


Demostración:
Las propiedades 2.2.1, 1 y 2 son evidentes. Sean (u, t, v) ∈ V ×V ×V y comprobemos
la 2.2.1, 3:
Si u, t, v están en la misma componente conexa, existen c1 ∈ Cut y c2 ∈ Ctv tales
que qG (u, t) = Γ(c1 ) y qG (t, v) = Γ(c2 ). El camino concatenado c1 c2 está en Cuv
y, por tanto,
qG(u, v) ≤ Γ(c1 c2 ) = qG (u, t) + qG(t, v).
Si u, t, v no están en la misma componente conexa, se cumple que Cut = ∅ o Ctv = ∅
y, por tanto, la desigualdad es trivial. ♦

Observaciones 2.5.3
1. Hemos definido qG(u, v) como el mı́nimo de los costes de los caminos de Cuv .
Si Cuv fuera vacı́o, qG (u, v) deberı́a ser infinito y para evitar ese inconve-
niente, le hemos dado el valor 1 + w(G) que también es un coste inalcanzable
para cualquier camino que no tenga aristas repetidas.
2. La operación de composición de relaciones juega un papel básico en la teorı́a
de los espacios uniformes y cuasiuniformes. Ahora, la relación T definida
a través de la composición, no sólo simplifica la presentación teórica de la
cuasimétrica de Dijkstra sino también nos permite el diseño de algoritmos
de cálculo efectivo de la misma como sucede con los programas de MATLAB
composicion, relacionT, depura y dijkstra.

Teorema 2.5.4 Sea G = (V, E, w) un digrafo, Gt = (V, >(E), w t ) su traspuesto y


Gs = (V, Es , ws) su simetrizado. Las respectivas cuasimétricas de Dikjstra cumplen
las siguientes relaciones:
t
1. qGt = qG .
118 TEMA 2. TEORÍA DE GRAFOS

2. qGs es una métrica


t
3. Si E = >(E), se verifica que min{qG, qG } ≤ q Gs
t
4. Si E ∩ >(E) = ∅, se verifica que qGs ≤ (qG , qG )∞ .
Demostración:
1. Tenemos que probar que qGt (u, v) = qG (v, u). Pero esto es evidente porque
Cuv en >(E) coincide con Cvu en E y los costes de los caminos son iguales.
2. Puesto que Gs = Gts del apartado anterior deducimos qG
t
s
= qGs . Ası́, q Gs
es una métrica.
t
3. Es claro que min{qG, qG }(u, v) ≤ qGs (u, v) cuando u = v o cuando el conjunto
de caminos Cuv en E es vacı́o. En otro caso, supongamos que qGs (u.v) =
k
X w(ei ) + w t (ei )
Γs (e1 , · · · , ek ) = y, ası́,
i=1
2

k
X
∃(e1 , · · · , ek ) tal que qG(u, v) ≤ w(ei )
i=1

k
X
t
∃(>(ek ), · · · , >(e1 )) tal que qG (u, v) ≤ w(>(ei ))
i=1
t t
y se verifica que 2 min{qG(u, v), qG (u, v)} ≤ qG(u, v)+qG (u, v) ≤ 2qGs (u, v)
y, por tanto,
t
min{qG(u, v), qG (u, v)} ≤ qGs (u, v)

4. Sea E ∩>(E) = ∅. La desigualdad es clara cuando u = v o cuando el conjunto


de caminos Cuv en E es vacı́o. En otro caso, supongamos, por ejemplo, que
t
(qG , qG )∞ (u, v) = qG (u, v). Entonces,
k k k
t
X X w(ei ) + 0 X w(ei ) + w t (ei )
(qG , qG )∞ (u, v) = w(ei ) ≥ = ≥ qGs (u, v)
2 2
i=1 i=1 i=1

t
y, por tanto, (qG, qG )∞ (u, v) ≥ qGs (u, v). ♦
Dado un digrafo G = (V, E, w) y un punto v∞ ∈ / V podemos elegir un vértice
v0 ∈ V y considerar un nuevo digrafo G0 = (V ∪ {v∞ }, E ∪ {(v0 , v∞)}, w 0 ) siendo
w 0 |E = w y w 0 (vo , v∞ ) > 0. Claramente, qG0 coincide con qG en V × V y esto nos
dice que la cuasimétrica de Dikjstra no puede apreciar los cambios que se producen
en un digrafo cuando se añade un nuevo vértice.

Si nuestro digrafo G = (V, E, w) modeliza un circuito eléctrico, una molécula


quı́mica o una red social, es claro que si añadimos un nuevo nodo, un nuevo átomo
o un nuevo usuario, las relaciones entre los demás se modifican y, por tanto, no
podran venir dadas por la cuasimétrica qG.

Para terminar, presentaremos tres tipos de métricas en un grafo G = (V, E, w)


simétrico y conexo, dependientes de su laplaciano L, que poseen esta sensibilidad:

1. Los teoremas 2.4.12 y 2.2.11 aseguran que sL es una métrica.
2.5. CUASIMÉTRICAS Y MÉTRICAS EN DIGRAFOS Y GRAFOS 119

2. Klein y Randic [45] probaron que si L+ es el inverso de Moore-Penrose de L,


se cumple que sL+ es una métrica.
3. Chebotarev y Shamis [15] probaron que si α > 0 y Qα = (I + αL)−1 , se
cumple que sQα es una métrica.
Los cálculos de estas métricas están implementados en los programas de MATLAB
raizlaplaciano, kleinrandic y chebotaref. Las dos primeras se obtienen a partir
del núcleo w y la tercera, a partir de w y del parámetro α.

La prueba de que sL+ es una métrica la presentamos siguiendo las ideas de Ba-
pat [7]. Comenzamos recordando un importante teorema de representación de
operadores lineales y el inverso generalizado de Moore-Penrose:

Teorema 2.5.5 Teorema espectral de operadores cualesquiera.

Sean X e Y dos conjuntos finitos y K : RY → RX un operador lineal de rango


r. Existen conjuntos ortonormales {g1 , · · · , gr } ⊂ RY y {f1 , · · · , fr } ⊂ RX y un
conjunto de reales positivos {λ1 , · · · , λr } tales que
r
X
K= λi gi ⊗ fi
i=1

Demostración:
El operador K t · K : RY → RY es autoadjunto y definido no negativo. El teorema
2.1.1 asegura la existencia de una base ortogonal {g1 , · · · , gn } de RY constituida
por vectores propios de K t · K. Si suponemos que
(
[g1 , · · · , gr ] = im K t · K = im K
[gr+1 , · · · , gn ] = ker K t · K = ker K

los autovalores asociados serán {µ1 > 0, · · · , µr > 0, 0, · · · , 0} y, en consecuencia,


r
X
Kt · K = µi gi ⊗ gi .
i=1

r
1
X √
El operador P = (K t · K) 2 = µi gi ⊗ gi cumple
i=1

kPgk2 = (K t · K(g)|g) = kKgk2 ∀g ∈ RY

y, en consecuencia, podemos definir el operador isométrico

U0 : P(RY ) → RX
Pg 7 → Kg

y extenderlo al operador
P U
K: RY → P(RY ) →0 RX
g 7 → Pg 7→ Kg
120 TEMA 2. TEORÍA DE GRAFOS

Entonces,
r
! r
X √ X √
Kg = U0 µi (gi |g)gi = µi (gi |g)U0 (gi ) ∀g ∈ RY
i=1 i=1
(
fi = U0 (gi )
y el teorema queda probado con √ ∀i = 1, · · · , r. ♦
λi = µi

Definición 2.5.6 Dado un operador lineal K : RY → RX decimos que el operador


lineal L : RX → RY es inverso generalizado o g-inverso de K si K · L · K = K.

Teorema 2.5.7 Existe un único g-inverso de K : RY → RX , llamado inverso


de Moore-Penrose y denotado K + , con las siguientes propiedades:
1. K · K + · K = K

2. K + · K · K + = K +

3. K · K + = (K · K + )t

4. K + · K = (K + · K)t

Demostración:
El teorema 2.5.5 asegura para K una representación
r
X
K= λi gi ⊗ fi
i=1

Es inmediato comprobar que el operador representado por


r
X 1
K+ = fi ⊗ gi
λ
i=1 i

es lineal K + : RX → RY y cumple las propiedades 1. 2. 3. 4.


Si suponemos que existen dos inversas K1+ y K2+ :
K1+ = K1+ · K · K1+ = K1+ · (K · K1+ )t = K1+ · (K1+ )t · K t = K1+ · (K1+ )t · (K · K2+ · K)t =
= K1+ · (K1+ )t · K t · (K2+ )t · K t = K1+ · (K · A+ t + t + +
1 ) · (K · K2 ) = K1 · K · K2 .
Por otra parte, de modo similar:
K2+ = K2+ · K · K2+ = (K2+ · K)t · K2+ = K t · (K2+ )t · K2+ = (K · K1+ · K)t · (K2+ )t · K2+ =
= K t · (K1+ )t · K t · (K2+ )t · K2+ = (K1+ · K)t · (K2+ · K)t · K2+ = K1+ · K · K2+ .
Ası́, K1+ = K2+ y la unicidad está probada. ♦

Observación 2.5.8 Si X = Y y K : RX → RX es autoadjunto y definido no


negativo, K + también es autoadjunto y definido no negativo.

Lema 2.5.9
Sea X un conjunto finito y K : RX → RX un operador autoadjunto con ker K = [1].
Si H1 y H2 son g-inversos de K, se tiene que sH1 = sH2 .
2.5. CUASIMÉTRICAS Y MÉTRICAS EN DIGRAFOS Y GRAFOS 121

Demostración:
Para todo (x, y) ∈ X × X es claro que (1|ex − ey ) = 0 y, por tanto,

ex − ey ∈ [1]⊥ = [ker K]⊥ = imK t = imK.

Existe f ∈ RX tal que ex − ey = Kf . Entonces,

sH1 (x, y) = (H1 (ex − ey )|ex − ey ) = (H1 · Kf|Kf) = (K · H1 · Kf|f) = (Kf|f)

De modo similar obtenemos

sH2 (x, y) = (H2 (ex − ey )|ex − ey ) = (H2 · Kf|Kf) = (K · H2 · Kf|f) = (Kf|f)

y, en consecuencia, sH1 (x, y) = sH2 (x, y). ♦

El siguiente lema contiene resultados matriciales necesarios para el teorema 2.5.11

Lema 2.5.10
Sea X un conjunto finito y K : RX → RX un operador autoadjunto. Sea {x1 , · · · , xn}
una enumeración de X y K = (kij ) la matriz de K en la base {ex1 , · · · , exn }.
1. Si K es definido no negativo, ker K = {0} y kij ≤ 0 ∀i 6= j se tiene:

(K −1 exi |exj ) ≥ 0 y (K −1 exi |exi ) > 0.

2. Si ker K = [1], la submatriz K[i, j] de K, obtenida al suprimir la fila i y la


columna j, es inversible ∀(i, j).
3. Si ker K = [1], kij ≤ 0 ∀i 6= j y kii ≥ 0 ∀i, se tiene:
(a) K es definido no negativo.
(b) La matriz K[k, k] es definida positiva ∀k = 1, · · · , n.
(k)
(c) Si Bk = (bij ) es la matriz inversa de K[k, k] y Nn = {1, · · · , n},
(k)
bij ≥ 0 ∀(i, j) ∈ (Nn \ {k}) × (Nn \ {k}).

(d) El operador Hk cuya matriz Hk en la base {ex1 , · · · , exn } tiene entradas


(
(k)
(k) bij si (i, j) ∈ (Nn \ {k}) × (Nn \ {k})
hij =
0 si (i, j) 6∈ (Nn \ {k}) × (Nn \ {k})

es g-inverso de K.
Demostración:
1. Sean µ1 ≥ µ2 ≥ · · · ≥ µn−1 ≥ µn > 0 los autovalores de K y sea β > 0
tal que βµ1 < 1. El operador P = I − βK es autoadjunto, con entradas no
negativas y autovalores

0 < 1 − βµ1 ≤ 1 − βµ2 ≤ · · · ≤ 1 − βµn−1 ≤ 1 − βµn < 1 .

Como P es autoadjunto definido positivo, el teorema 2.1.2, asegura que

kPk = sup{kPfk | kfk = 1} = 1 − βµn < 1.


122 TEMA 2. TEORÍA DE GRAFOS

Esto implica que



X
(I − P)−1 = I + Pk
k=1

y su matriz (I −P ) tendrá entradas no negativas. Como K −1 = β(I −P)−1 ,


−1

tambien la matrix K −1 tendrá entradas no negativas y, por tanto,

(K −1 exi |exj ) ≥ 0 ∀(i, j).

Además, ((I − P)−1 exi |exi ) > 0 ∀i luego (K −1 exi |exi ) > 0 ∀i.
2. La matriz K de entradas (kij ) es simétrica y cumple
    
k11 · · · k1n 1 0
 .. . . ..   ..  =  ..  .
 . . .  . .
kn1 · · · knn 1 0

Sus columnas {c1 , · · · , cn } forman una familia de Rn cuya suma es 0 y


dim [c1 , . . . , cn ] = n − 1. Suprimiendo cualquier cj obtenemos una familia
libre {c1 , · · · , cj−1 , cj+1 , · · · , cn } y la matriz
 
k11 · · · k1j−1 kij+1 · · · k1n
 .. .. .. .. .. .. 
 . . . . . . 
kn1 ··· knj−1 knj+1 ··· knn

tendrá rango n − 1. Sus filas {f1 , · · · , fn} forman una famiia de Rn−1 cuya
suma es 0 y dim [f1 , . . . , n] = n − 1. Suprimiendo cualquier fi obtenemos
una familia libre {f1 , · · · , fi−1 , fi+1 , · · · , fn } y la matriz
 
k11 · · · k1j−1 kij+1 ··· k1n
 .. .. .. .. .. .. 
 .
 . . . . . 

ki−11 · · · ki−1j−1 ki−1j+1 · · · ki−1n
ki+11 · · · ki+1j−1 ki+1j+1 · · · ki+1n  = K[i, j]
 
 
 . .. .. .. .. .. 
 .. . . . . . 
kn1 ··· knj−1 knj+1 ··· knn

tendrá rango n − 1. Por ser (n − 1) × (n − 1)-cuadrada, es inversible.


3. (a) Sea ∆n = {(i, i) | i ∈ Nn } y designemos

∆+
n = {(i, j) ∈ Nn × Nn | i < j} y ∆−
n = {(i, j) ∈ Nn × Nn | i > j} .

Para cualquier f ∈ RX se cumple que


n
X X X
(Kf | f) = kii f 2 (xi ) + kij f(xi )f(xj ) + kij f(xi )f(xj )
i=1 (i,j)∈∆+
n (i,j)∈∆−
n

Como 2f(xi )f(xj ) ≤ f 2 (xi ) + f 2 (xj ) y kij ≤ 0 ∀i 6= j, tenemos


n
X X f 2 (xi ) + f 2 (xj ) X f 2 (xi ) + f 2 (xj )
(Kf | f) ≥ kii f 2 (xi )+ kij + kij
i=1
2 2
(i,j)∈∆+
n (i,j)∈∆−
n
2.5. CUASIMÉTRICAS Y MÉTRICAS EN DIGRAFOS Y GRAFOS 123

Ahora bien,
n
X X f 2 (xi ) + f 2 (xj ) X f 2 (xi ) + f 2 (xj )
kii f 2 (xi )+ kij + kij =
2 2
i=1 (i,j)∈∆+
n (i,j)∈∆−
n

 
n
X 1X
= f 2 (xi ) kii + (kij + kji )
2
i=1 j6=i

n
X X
1
y, como kij = 0 ∀i ∈ Nn , kii + 2 (kij + kji ) ≥ 0 ∀i ∈ Nn .
j=1 j6=i
Luego
 
n
X 1 X
(Kf | f) ≥ f 2 (xi ) kii + (kij + kji) ≥ 0. ♦
2
i=1 j∈Nn \{i}

(b) De 3a se sigue que K[k, k] es definida no negativa y por 2 sabemos que


rang K[k, k] = n − 1. Por tanto K[k, k] es definida positiva.
(c) Se sigue de 3a y de 1 aplicada a K[k, k].
(d) Fijado xk ∈ X sea Pk : RX → RX la proyección ortogonal de rango

RX
k = [ex1 , · · · , exk−1 , exk+1 , · · · , exn ]

y sea Jk : RXk ,→ R
X
la inmersión canónica. Es claro que la restricción
de Pk · K · Pk al subespacio RX
k está representado por la matriz K[k, k]
y que, si Bk : RX X
k → Rk es el operador de matriz Bk , se tiene que

Hk = Jk · Bk · Pk .

Necesitamos probar que K · Hk · K = K y para ello es suficiente ver que

K · Hk · K(exi ) = K(exi ) ∀i ∈ Nn .

Si i 6= k, tenemos Hk · K(exi ) = Jk · Bk · Pk · K(exi ) = exi y, por tanto,

K · Hk · K(exi ) = K(exi ).

Para k, como K(1) = 0, tenemos:


X X
K · Hk · K(exk ) = K · Hk · K(1 − ex i ) = − K(exi ) = K(exk ) ♦
i6=k i6=k

Teorema 2.5.11 (Klein-Randik-Bapat [6])


Sea G = (V, E, w) un grafo conexo y simétrico. El inverso de Moore-Penrose L+
de su laplaciana L es generador de métrica.

Demostración:
Sabemos que L+ es autoadjunto, definido no negativo y tiene rango |V | − 1. Por
124 TEMA 2. TEORÍA DE GRAFOS


la proposición 2.2.11 sL+ es una métrica. Sólo falta probar que sL+ satisface la
desigualdad triangular. Fijados vi , vk , vj ∈ V distintos, debemos probar que

sL+ (vi , vj ) ≤ sL+ (vi , vk ) + sL+ (vk , vj )

Por la proposición 3d Hk es g-inversa de L y, por el lema 2.5.9, sL+ = sHk . Ası́,


probaremos, equivalentemente, que sHk (vi , vj ) ≤ sHk (vi , vk ) + sHk (vk , vj ) o, lo que
es lo mismo,
(k) (k) (k) (k)
hik + hkj ≤ hij + hkk (?).
(k) (k) (k) (k)
Por la definición de Hk , hik = hkj = hkk = 0 y, por la proposición 3c hij =
(k)
bij ≥ 0. Por tanto, se cumple (?) y la triangular queda probada. ♦

Corolario 2.5.12 Sea X un conjunto finito con |X| ≥ 3 y sea {x1 , · · · , xn } una
1
enumeración de X. Tomamos en RX una base ortonormal {f1 , . . . , fn−1 , √ } y
n
en R un conjunto de números positivos {m1 , . . . , mn−1 }. Si
n−1
X
mk (fk |exi )(fk |exj ) ≤ 0 ∀i 6= j ,
k=1

es una métrica el núcleo


q: X ×X → R
n−1
X 1
(xi , xj ) 7→ (fk |exi − exj )2 .
mk
k=1

Demostración:
n−1
X
El operador K = mk fk ⊗ fk : RX → RX es autoadjunto y ker K = [1]. Además,
k=1
las entradas de la matriz que lo representa en la base {ex1 , · · · , exn } son
n−1
X
kij = (exi |K(exj ) = mk (fk |exi )(fk |exj ) ≤ 0 ∀i 6= j
k=1

es claro que
n−1
X 1
q(xi , xj ) = (fk |exi − exj )2 = (K + (exi − exj )|(exi − exj ) = sK+ (xi , xj )
mk
k=1

y según el teorema 2.5.11, q es una métrica. ♦

La prueba de que sQα es una métrica sigue un camino muy distinto al presentado
en [15].

Teorema 2.5.13 (Chebotarev-Shamis [15])


Sea (V, E, w) un grafo simétrico y conexo y sea L su laplaciano. El operador I + L
es inversible y si Q = (I + L)−1 se cumple que sQ es una métrica.
2.6. PROBLEMAS MODELIZADOS EN DIGRAFOS Y GRAFOS. 125

Demostración:
Sea {v1 , · · · , vn } una enumeración de V . Como L : RV → RV es autoadjunto,
1
definido no negativo y ker L = [1], existe una base ortonormal {f1 , . . . , fn−1 , √ }
n
en RV constituida por vectores propios de L. Si µ1 ≥ · · · ≥ µn−1 > µn = 0 son los
valores propios correspondientes, tenemos,
n−1
X
L= µk fk ⊗ fk .
k=1

Las entradas de la matriz L que representa a L en la base {ev1 , · · · , evn } son, según
el teorema 2.1.3,
n−1
X
`ij = (evi |L(evj ) = µk (fk |evi )(fk |evj ) ≤ 0 ∀i 6= j.
k=1

1
Por ser {f1 , . . . , fn−1 , √ } base ortonormal tenemos
n
n−1
X 1 1
(evi |fk )(evj |fk ) + (evi | √ )(evj | √ ) = (evi |evj ) , ∀(i, j) ∈ Nn × Nn
n n
k=1

y, por tanto,
n−1
X 1
(evi |fk )(evj |fk ) = − < 0 cuando i 6= j .
n
k=1

Ası́,
n−1
X
(1 + µk )(evi |fk )(evj |fk ) < 0 cuando i 6= j
k=1

y el corolario 2.5.12 asegura que


n−1
X 1
sQ (vi , vj ) = (evi − evj |fk )2 ∀(vi , vj ) ∈ V × V
1 + µk
k=1

es una métrica. ♦

Observación 2.5.14
Si un grafo (V, E, w) es simétrico y conexo y tiene laplaciano L, el grafo (V, E, αw)
también es simétrico y conexo y tiene laplaciano αL para cualquier α > 0. El
teorema 2.5.13 asegura que el operador Qα = (I + αL)−1 es generador de métrica
∀α > 0. La métrica se llama métrica de Chebotaref de parámetro α y la αsQα se
llama métrica de Chebotaref ajustada de parámetro α.

2.6 Problemas modelizados en digrafos y grafos.


Los digrafos son modelos matemáticos adecuados para plantear muchos problemas
de la vida diaria.
126 TEMA 2. TEORÍA DE GRAFOS

2.6.1 Redes hidraúlicas


Un digrafo (V, E, w) puede ser interpretado como una red de tuberı́as entre los
vértices de V donde w(u, v) es el caudal de la tuberı́a (uv). Para ello debemos
tener en cada vértice u la posibilidad de una alimentación externa de caudal au y
un desagüe al exterior de caudal du , tales que
X X
(?) w(v, u) − w(u, v) + au − du = 0 ∀u ∈ V.
v∈V v∈V

Podemos elegir una enumeracion {v1 , · · · , vn } de V tal que

a = (a1 , · · · , ak , 0, · · · 0) ≥ 0 y d = (0, · · · , 0, dk+1, · · · , dn ) ≥ 0

Si D es la matriz diagonal del vector d y L es el laplaciano del digrafo, el sistema


lineal (?) se puede escribir en la forma

(Lt + D) · 1 = a

Si en los caudales de alimentación a1 , · · · , ak hay concentraciones e1 , · · · , ek de


cierta substancia, podremos calcular las concentraciones c1 , · · · , cn de dicha sub-
stancia en cada uno de los vértices de la red. Esos valores vendrán dados por la
función lineal
F : Rk → n
R  → Rn  
e e
e 7→ 7→ (Lt + D)+ · A ·
0 0

siendo A la matriz diagonal de vector a y siendo (Lt + D)+ la inversa de Moore-


Penrose de Lt + D.

2.6.2 Redes eléctricas


Una red eléctrica puede ser modelada como un grafo G(V, E) conexo y sin lazos en
el que tenemos un vector de aristas positivo llamado resistencia:
r: E → R+
e 7→ r(e)
y un vector de vértices llamado potencial:
p: V → R
v 7→ p(v)
Elegida una orientación en las aristas, la diferencia del potencial
δp : E → R
e 7→ δp(e)
y la corriente
ω: E → R
e 7→ ω(e)

deben cumplir:
2.6. PROBLEMAS MODELIZADOS EN DIGRAFOS Y GRAFOS. 127

1. La ley de Kirchhoff de las diferencias:


δp ∈ U (G)
2. La ley de Kirchhoff de las corrientes:
ω ∈ Z(G)
3. La ley de Ohm:
δp(e) = r(e)ω(e) ∀e ∈ E
La ley de Kirchhoff de las diferencias es una ley general de los grafos conexos sin
lazos (ver pág. ??). Nos dice que δp ∈ Z(G)⊥ y su aplicación práctica pasa por
determinar una base {g1 , · · · , gh} de Z(G) e imponer que (gi |δp) = 0 ∀i =
1, · · · , h. Es decir, si gi = (gi1 , · · · , gim), esta ley nos impone la ecuación
 
g11 · · · g1m
C · δp = 0 donde C =  ... .. 

. 
gh1 ··· ghm
La ley de Kirchhoff de las corrientes nos dice que éstas se producen en los ciclos.
Como Z(G) es el núcleo de la aplicación lineal dada por la matriz de incidencia U ,
nos impone la ecuación
U ·ω =0
La ley de Ohm nos proporciona una relación entre los vectores δp y ω cuando la
red está conectada a un generador.

Veamos cómo se maneja esta información en la práctica:


Sean {v1 , · · · , vk , · · · , vn−1} los vértices no generadores de la red y sea vn el gener-
ador. Sean {e1 , · · · , e`} las aristas orientadas al arbitrio que conectan entre sı́ los
vértices no generadores y sean {e`+1 , · · · , e`+k } las aristas que conectan el generador
vn con los vértices {v1 , · · · , vk } orientadas de modo que e`+i = (vn , vi ) ∀i =
1, · · · , k.
Si m = ` + k, nuestra red conectada estará representada por el grafo
(
~ V = {v1 , · · · , vn−1 , vn }
G(V, E) donde
E = {e1 , · · · , e` , e`+1 · · · , e`+k }
Si suponemos que el generador vn crea un potencial p : V → R tal que p(vn ) = 0 y
en los vértices conectados a él vale
p(v1 ) = p1, · · · , p(vk ) = pk
y suponemos que
r(e`+1 ) = 0, · · · , r(e`+k ) = 0,
la ley de Ohm se expresa mediante la ecuación
       
δp(e1 ) r(e1 ) ω(e1 ) 0
 ..   ..   ..   .. 

 .  
  .  
  .  .
  
 δp(e` )   r(e` )   ω(e` )   0 
·
δp(e`+1 ) =   ω(e`+1 ) + p1 
     
   0     
 ..   ..   ..  .
 .   .   .   .. 
δp(e`+k ) 0 ω(e`+k ) pk
128 TEMA 2. TEORÍA DE GRAFOS

que escribimos en forma compacta δp = R · ω + pg .

Las tres ecuaciones establecidas por las leyes de Kirchhoff y de Ohm



C · δp = 0

U ·ω =0


δp = R · ω + pg

nos permiten determinar la diferencia de potencial y la corriente en cada arista.


Además, por la observación ??,?? podemos conocer, salvo una constante, el poten-
cial en cada vértice. Todo ello se puede automatizar mediante los programas ?? de
MATLAB.

2.6.3 Problemas de Dirichlet en grafos


Si Ω es un abierto de R2 , una función F : Ω → R se dice armónica si cumple

∂2F ∂2F
∆F (x) := (x) + (x) = 0 ∀x ∈ Ω .
∂x2 ∂y2

Esta definición es equivalente a que F sea de clase C 2 (Ω) y cumpla la propiedad


del valor medio Z
F dλ
∂Br (p)
F (p) = ∀ Br (p) ⊂ Ω
2πr
A partir de esta segunda caracterización, es fácil ver que si Ω es conexo y F es
armónica y alcanza su máximo absoluto en Ω, F debe ser constante y, esto, asegura
que un problema de Dirichlet en un dominio regular conexo Ω
(
∆F = 0 en Ω
F = f en ∂Ω

si tiene solución, es única.

Si G(V, E) es un grafo simple diremos que F : V → R cumple la propiedad del


valor medio en W ⊂ V cuando
X
F (v)
v∈A(u)
F (u) = ∀u ∈ W
|A(u)|

siendo A(u) el conjunto de vértices adyacentes a u.

Elegida una ordenación (v1 , · · · , vn ) en V , es evidente que la propiedad del valor


medio en todo V equivale a que el vector (F (v1 ), · · · , F (vn)) pertenezca al núcleo de
la matriz de Kirchoff K = D−A. Sabemos (ver pág. ??) que 1 := (1, · · · , 1) ∈ ker K
y que la dimensión de ker K coincide con el número de componentes conexas del
grafo. Luego, si suponemos que G(V, E) es conexo, tendremos que F cumple la
propiedad del valor medio en todo V si y sólo si F es una función constante. Por
tanto, es más interesante el siguiente problema tipo Dirichlet:
2.6. PROBLEMAS MODELIZADOS EN DIGRAFOS Y GRAFOS. 129

Dado un subconjunto B ⊂ V , encontrar una F : V → R tal que


(
F tome valores predeterminados en los puntos de B
F cumpla la propiedad del valor medio en los puntos de V \ B
Es fácil observar que éste es un problema lineal inverso Ax = b donde la ma-
triz A es una submatriz cuadrada de la matriz de Kirchoff K del grafo conexo
G(V, E), obtenida por supresión de |B| filas y columnas y, como consecuencia del
teorema ”matrix-tree” (ver [?]), es siempre un problema compatible y determinado.
Además, el vector b viene determinado por los valores de F en los vértices de B.

Por ejemplo, en el siguiente grafo G(V, E)


(/).*+-,
1 ???
 ??
 ??
 ?
2 ?
 ??
/(.)-,*+
3 (/).*+-, (/).*+-,
 4 ???
 ??  ??
 ??  ??

/(.)-,*+ ? 
/(.)-,*+ (/).*+-, ?
(/).*+-, (/).*+-,
5 6 7 8 9
para determinar una F : V → R que en los vértices 1 y 4 tome los valores 100 y
500, y en el resto de vértices cumpla la condición del valor medio, de su matriz de
Kirchoff  
3 −1 −1 −1 0 0 0 0 0
−1 5 −1 0 −1 −1 −1 0 0
 
−1 −1 4 −1 0 0 −1 0 0 
 
−1 0 −1 5 0 0 −1 −1 −1 
 
 0 −1 0 0 1 0 0 0 0 
 
 0 −1 0 0 0 1 0 0 0 
 
 0 −1 0 0 0 1 0 0 0 
 
−1 0 0 −1 0 0 0 1 0
0 0 0 −1 0 0 0 0 1
suprimiremos las filas y columnas 1 y 4 y obtendremos la matriz
   
5 −1 −1 −1 −1 0 0 100
−1 4 0 0 −1 0 0  600
   
−1 0 1 0 0 0 0  0 
   
A=  −1 0 0 1 0 0 0  y el vector b =  0 
  
−1 −1 0 0 3 0 0 500
   
0 0 0 0 0 1 0 500
0 0 0 0 0 0 1 500
y, en consecuencia,    
F (2) 250
F (3) 300
   
F (5) 250
   
F (6) = A\b = 250
   
F (7) 350
   
F (8) 500
F (9) 500
130 TEMA 2. TEORÍA DE GRAFOS

Problema de Dirichlet en rejillas cuadradas


Si G(V, E) es la rejilla cuadrada Q4 y B es el subconjunto de vértices del borde,
podemos pensar en una F : V → R que tome el valor U en los vértices superiores
de B, L en los inferiores, G en los izquierdos y D en los derechos

1 2
• •
G D
3 4
• •

y cumpla la propiedad del valor medio en los cuatro vértices interiores. En este
caso el sistema lineal a resolver es el Ax = b donde
   
4 −1 −1 0 U +G
 −1 4 0 −1   y b = U + D 
 
A=  −1 0 4 −1   L + G
0 −1 −1 4 L+D

cuya solución es
0
x = A\b = F (1) F (2) F (3) F (4) .

Si G(V, E) fuese la rejilla cuadrada Q5 y B el subconjunto de vértices del borde,


para hallar una F : V → R que tome el valor U en los vértices superiores del borde
, L en los inferiores, G en los izquierdos y D en los derechos
2.6. PROBLEMAS MODELIZADOS EN DIGRAFOS Y GRAFOS. 131

1 2 3
• • •
4 5 6
G • • • D
7 8 9
• • •

y cumpla la condición de valor medio en los nueve vértices interiores, el problema


lineal inverso que debemos resolver es Ax = b donde
   
4 −1 0 −1 0 0 0 0 0 U +G
 −1 4 −1 0 −1 0 0 0 0  U 
   
 0 −1 4 0 0 −1 0 0 0
 U + D 
  
 −1 0 0 4 −1 0 −1 0 0  G 
   
A=  0 −1 0 −1 4 −1 0 −1 0
 y b= 0 
 
 0
 0 −1 0 −1 4 0 0 −1  
 D 
 
 0
 0 0 −1 0 0 4 −1 0

L + G
 
 0 0 0 0 −1 0 −1 4 −1   L 
0 0 0 0 0 −1 0 −1 4 L+D

cuya solución es 0
x = A\b = F (1) · · · F (9) .
Si G(V, E) es la rejilla cuadrada Qn+2 y B es el subconjunto de vértices del borde,
podemos hallar una F : V → R con valores predeterminados en B que cumpla las
condiciones del valor medio en los n2 vértices interiores, si hallamos inductivamente
la correspondiente matriz A ∈ Mn,n y el vector b ∈ Rn . Esto lo hemos hecho,
para n ≤ 700, en el programa de MATLAB ??. Para n = 400 y (U, L, G, D) =
(500, 100, 500, 300), hemos obtenido unos valores en los 160.000 puntos interiores
que vienen dados por la gama de colores
132 TEMA 2. TEORÍA DE GRAFOS

Esta solución F : V → R es la discretización en los vértices de la rejilla cuadrada


de una función F : [0, 1] × [0, 1] → R, armónica en (0, 1) × (0, 1) que cumpla las
condiciones de contorno

F |U = 500, F |L = 100, F |G = 500, F |D = 300.

En efecto:
Aproximando las derivadas parciales por diferencias finitas centradas como se in-
dica, por ejemplo en [?], tenemos

∂2F F (xi+1 , yj ) − 2F (xi , yj ) + F (xi−1 , yj )


(xi , yj ) ≈
∂x2 (∆x)2
y
∂2F F (xi , yj+1 ) − 2F (xi , yj ) + F (xi , yj−1)
2
(xi , yj ) ≈
∂y (∆y)2
En nuestra malla tenemos ∆x = ∆y y, por tanto, la discretización de

∂2F ∂2F
2
(x) + (x) = 0
∂x ∂y2
exige que
F (xi+1 , yj ) + F (xi−1 , yj ) + F (xi , yj+1 ) + F (xi , yj−1 )
F (xi , yj ) =
4
que es, precisamente, la propiedad del valor medio en los vértices interiores.

Problema de Dirichlet en rejillas triangulares


Si G(V, E) es la rejilla triangular T5 y B es el subconjunto de vértices del borde,
podemos pensar en una F : V → R que tome el valor L en los vértices inferiores de
B, G en los izquierdos y D en los derechos

y cumpla la propiedad del valor medio en los tres puntos interiores. En este caso
el sistema lineal a resolver es el Ax = b donde
   
6 −1 −1 G+L
A =  −1 6 −1  y b = 2 G + D
−1 −1 6 L+D
2.6. PROBLEMAS MODELIZADOS EN DIGRAFOS Y GRAFOS. 133

cuya solución es 0
x = A\b = F (1) F (2) F (3) .
Si G(V, E) es la rejilla triangular T6 y B es el subconjunto de vértices del borde,
podemos pensar en una F : V → R que tome el valor L en los vértices inferiores de
B, G en los izquierdos y D en los derechos

y cumpla la condición del valor medio en los seis puntos interiores. En este caso el
sistema lineal a resolver es el Ax = b donde
   
6 −1 0 −1 0 0 G+L
−1 6 −1 −1 −1 0  G 
   
 0 −1 6 0 −1 0 G + D
A= −1 −1 y b = 2  
 0 6 −1 −1 
 L 
 
 0 −1 −1 −1 6 −1  D 
0 0 0 −1 −1 6 L+D

cuya solución es
0
x = A\b = F (1) F (2) F (3) F (4) F (5) F (6) .

Si G(V, E) es cualquier rejilla triangular Tn+3 y B es el subconjunto de vértices


del borde, podemos hallar una F : V → R con valores predeterminados en B que
n(n+1)
cumpla las condiciones del valor medio en los m = 2 vértices interiores, si
determinamos inductivamente la correspondiente matriz A ∈ Mm,m y el vector
b ∈ Rm . Esto lo hemos hecho, para n ≤ 100, en el programa de MATLAB ??.
Para n = 100 y (G, D, L) = (100, 300, 700), hemos obtenido unos valores en los
5.050 puntos interiores que vienen dados por la siguiente gama de colores
134 TEMA 2. TEORÍA DE GRAFOS

Si T es la √
envoltura convexa de los puntos del plano x1 = (0, 0), x2 = (1, 0),
x3 = ( 12 , 23 ), queremos ver si la solución obtenida es la discretización en los vértices

de la rejilla Tn+3 , de una función F : T → R que sea armónica en T y cumpla las
condiciones de contorno
F |G = 100, F |D = 300, F |L = 700
Cada punto x ∈ T es una única combinación convexa de los vértices
x = αx1 + βx2 + γx3
Diremos que (α, β, γ) son las coordenadas convexas de x y están relacionadas
con las coordenadas cartesianas (x, y) de x mediante las ecuaciones

x 1 21 0 x 12 0 1 x
√ √
y 0 3 0 y 3 0 0 y
2 2
1 1 1 1 1 1 1 1 1
α= , β = , γ = .
0 1 12 0 1 12 0 1 12
√ √ √
0 0 3 0 0 3 0 0 3
2 2 2
1 1 1 1 1 1 1 1 1

Para cambiar, en la ecuación de Laplace, las variables (x, y) por las (α, β, γ), ten-
emos en cuenta que
 ∂F ∂F ∂α ∂F ∂β ∂F ∂γ
 ∂x = ∂α ∂x + ∂β ∂x + ∂γ ∂x

 ∂F = ∂F ∂α + ∂F ∂β + ∂F ∂γ


∂y ∂α ∂y ∂β ∂y ∂γ ∂y
y que   2  2  2

 ∂2F ∂ 2 F ∂α ∂2F ∂β ∂ 2 F ∂γ

 = + + +


 ∂x2 ∂α2 ∂x ∂β 2 ∂x ∂γ 2 ∂x 
2 2 2


 ∂ F ∂α ∂β ∂ F ∂α ∂γ ∂ F ∂β ∂γ

 +2 + +
 ∂α∂β ∂x ∂x ∂α∂γ ∂x ∂x ∂β∂γ ∂x ∂x
2 2
 2  2  2
 ∂ F = ∂ F ∂α


 ∂2F ∂β ∂ 2 F ∂γ
 2 2
+ + +


 ∂y ∂α ∂y ∂β 2 ∂y ∂γ 2 ∂y 
2


 ∂ F ∂α ∂β ∂ 2 F ∂α ∂γ ∂ 2 F ∂β ∂γ

 +2 + +
∂α∂β ∂y ∂y ∂α∂γ ∂y ∂y ∂β∂γ ∂y ∂y
2.6. PROBLEMAS MODELIZADOS EN DIGRAFOS Y GRAFOS. 135

Ası́, la ecuación de Laplace en coordenadas (α, β, γ) es


"   2 # 2 " 2  2 # 2 " 2  2 #
2
∂2F ∂α ∂α ∂ F ∂β ∂β ∂ F ∂γ ∂γ
+ + 2 + + 2 + +
∂α2 ∂x ∂y ∂β ∂x ∂y ∂γ ∂x ∂y

      
∂2F ∂α ∂β ∂α ∂β ∂2F ∂α ∂γ ∂α ∂γ ∂2F ∂β ∂γ ∂β ∂γ
+2 + + + + + =0
∂α∂β ∂x ∂x ∂y ∂y ∂α∂γ ∂x ∂x ∂y ∂y ∂β∂γ ∂x ∂x ∂y ∂y
y, en nuestro caso, resulta que
 2  2  2  2  2  2
 ∂α ∂α ∂β ∂β ∂γ ∂γ 4


 ∂x + = + = + =
∂y ∂x ∂y ∂x ∂y 3

 ∂α ∂β ∂α ∂β ∂α ∂γ ∂α ∂γ ∂β ∂γ ∂β ∂γ 2

 + = + = + =−
∂x ∂x ∂y ∂y ∂x ∂x ∂y ∂y ∂x ∂x ∂y ∂y 3
y, en consecuencia, la ecuación de Laplace se escribe:
 2 
∂2F ∂2F ∂2F ∂ F ∂2F ∂2F
+ + − + + =0
∂α2 ∂β 2 ∂γ 2 ∂α∂β ∂α∂γ ∂β∂γ
Ahora bien, como α + β + γ = 1 si mantenemos constantes dos de estas variables,
la variación con respecto a la tercera debe ser nula y, ası́, la ecuación de Laplace se
reduce a
∂2F ∂2F ∂2F
+ + =0
∂α∂β ∂α∂γ ∂β∂γ
Aproximando estas derivadas parciales por las siguientes diferencias finitas
 2
 ∂ F (αi , βj , γk ) ≈ F (αi+1 , βj−1 , γk ) − 2F (αi , βj , γk ) + F (αi−1 , βj+1 , γk )




 ∂α∂β ∆α∆β


 2
∂ F F (αi+1 , βj , γk−1 ) − 2F (αi , βj , γk ) + F (αi−1 , βj , γk+1 )
(αi , βj , γk ) ≈

 ∂α∂γ ∆α∆γ


 2

 ∂ F F (αi , βj+1 , γk−1 ) − 2F (αi , βj , γk ) + F (αi , βj−1 , γk+1 )

 (αi , βj , γk ) ≈
∂β∂γ ∆β∆γ
y, teniendo en cueta que en nuestra malla ∆α∆β = ∆α∆γ = ∆β∆γ, la dis-
cretización de la ecuación de Laplace en coordenadas convexas exige que
F (αi+1 , βj−1 , γk ) + F (αi−1 , βj+1 , γk ) + F (αi , βj+1 , γk−1 )
F (αi , βj , γk ) = +
6
F (αi , βj−1 , γk+1 ) + F (αi , βj+1 , γk−1 ) + F (αi , βj− , γk+1 )
+
6
que es, precisamente, la propiedad del valor medio en los vértices interiores.

2.6.4 Congestiones
Es fácil interpretar cualquiera grafo simétrico como un diseño en que los vértices
son núcleos de población y las aristas son las carreteras que los comunican o en
que los vértices son ordenadores y las aristas las lı́neas que los conectan entre sı́.
136 TEMA 2. TEORÍA DE GRAFOS

Por tanto, es importante evaluar los daños producidos por posibles cortes en las
comunicaciones debidos a cualquier causa (terremotos, nevadas, incendios, virus,
terrorismo, etc) y hacer diseños que minimicen los riesgos de tales cortes.

En un grafo simétrico, conexo y sin pesos (V, E), cada subconjunto propio X ⊂ V
determina una partición (X, X c ) y se han propuesto diferentes valoraciones del
daño que dicha partición genera en el grafo. Designando A(X, X c ) al conjunto de
aristas del grafo con un vértice en X y el otro en X c , tenemos:
1. La valoración isoperimétrica

card(A(X, X c ))
vi(X) =
min{card(X), card(X c )}

Un subconjunto X1 ⊂ V genera una partición óptima si

vi(X1 ) = min {vi(X)}


X⊂V

Este mı́nimo, denotado i(G), es la constante isoperimétrica de G.


2. La valoración de Cheeger

card(A(X, X c )) X
vh(X) = con v(X) = card(I(v)).
min{v(X), v(X c )}
v∈X

Un subconjunto X1 ⊂ VG genera una partición óptima si

vh(X1 ) = min {vh(X)}


X⊂V

Este mı́nimo, denotado h(G), es la constante de Cheeger de G.


Una partición (X, X c ) del conjunto V puede representarse por un vector
x ∈ {0, 1}n y se puede calcular su valoración de Cheeger como sigue:
1 1
xt Kx xt D 2 LD 2 x yt Ly 1
vh(X) = t = 1 1 = t con y = D 2 x.
xd xt D 2 D 2 x yy
Entonces, el teorema de Courant-Fisher nos asegura que

yt Ly
λ2 = min
1
y∈[D 1]⊥
2
yt y

y no es difı́cil deducir (ver [16]) que

λ2 p
≤ h(G) < 2λ2 .
2
Ası́, el menor autovalor no nulo de la matriz laplaciana de un grafo G(V, E),
llamado conectividad algebraica del grafo, nos permite una cómoda acota-
ción de la constante de Cheeger de G(V, E).
3. Las particiones más interesantes en un grafo simétrico, conexo y sin pesos
(V, E) están ligadas a la familia de sus árboles generadores T , definidos y
2.4.8 comentados en y 2.4.9. Por ejemplo, tras una gran nevada en una
2.6. PROBLEMAS MODELIZADOS EN DIGRAFOS Y GRAFOS. 137

región cuyos núcleos de población y carreteras están representadas por el


grafo, las máquinas quitanieves limpiarán las aristas de un árbol (V, AT ) ∈ T
ya que es un conjunto mı́nimo de aristas que aseguran la comunicación entre
todos los vértices. Si la nieve sigue cayendo y corta una arista a ∈ AT , se
produce una partición conexa (Xa , Xac ) pues, tanto Xa como Xac son
subconjuntos conexos en el grafo G.

La valoración de este daño puede hacerse desde diferentes puntos de vista. Si


el abastecimiento de todos los núcleos de población está asegurado, podemos
valorarlo mediante el número
d(T, a) = |A(Xa , Xac )|.
Pero si sólo se puede asegurar el abastecimiento en ciertos núcleos de población
M ⊂ V , es más adecuado valorar el daño contabilizando los núcleos de
población que no pueden abastecerse
(
|Xa | si M ⊂ Xac
d(M, T, a) =
0 en otro caso

En el primer caso, el riesgo de elegir el árbol T en el grafo G es


c(T, G) = max {d(T, a)}
a∈AT

y un árbol óptimo es un T0 ∈ TG tal que


c(T0 , G) = min {c(T, G)}
T ∈TG

Este mı́nimo, que denotamos C(G), es la constante de congestión del


grafo G y ha sido introducido recientemente por Ostrovskii [57].

En el segundo caso, el riesgo de elegir el par (M, T ) en G es


c(M, T, G) = max {d(M, T, a)}
a∈AT

y un árbol óptimo con p abastecimientos M0 será un T0 ∈ TG tal que


c(M0 , T0 , G) = min {c(M, T, G)}
|M |=p , T ∈TG

Este mı́nimo, que denotamos Cp (G), es la constante de p-abastecimiento


del grafo G y ha sido introducido recientemente por nosotros [14] y [20].
Es interesante calcular o aproximar las constantes de congestión y abastecimiento
en los grafos llamados rejillas, constituidas por yuxtaposición de polı́gonos regulares
iguales, como presentamos en los siguientes casos
1. triangulares Tn , subindicadas según los vértices de cada lado

• • •

• • • • • •

T2 = , T3 = , T4 =
• • • • • • • • •
138 TEMA 2. TEORÍA DE GRAFOS

2. cuadradas Qn , subindicadas según los vértices de cada lado

• • • •

• • • • • • •

• • • • • • • • •

Q2 = , Q3 = , Q4 =
• • • • • • • • •

3. hexagonales o panales Pn , subindicadas según los hexágonos de cada lado

P1 = , P2 = , P3 =

2.7 Prácticas
1. Sea k : X ×Y → R un núcleo y Sk su soporte. Implementarlo en el ordenador
en los siguientes casos;


 X = {x1 , x2 , x3 , x4 , x5, x6 }




 Y = {{y1 , y2 , y3 , y4 }




 card(S k) = 6

k(x1 , y1 ) = 1


(a) k(x1 , y2 ) = 5




 k(x1 , y4 ) = 3




 k(x2 , y3 ) = 7



 k(x5 , y4 ) = 3


k(x6 , y3 ) = 7
(b) En la rejilla triangular T4 , ¿cuántos caminos de 9 aristas existen entre
dos vértices extremos distintos? y ¿cuántos de 9 aristas parten de un
vértice extremo y llegan al mismo?
(c) Una pista circular está dividida en 9 tramos y al final de cada tramo hay
un control. En cada control, la probabilidad de que te dejen avanzar es
2/3 y de que te hagan retroceder es 1/3. ¿Cuál es la probabilidad de
dar una vuelta completa sin retroceder jamás? ¿Cuál es la probabilidad
de partir de un control y llegar al mismo tras recorrer nueve tramos?

2. Calcular la constante de Cheeger de la rejilla cuadrada Q3 y estimar la de la


rejilla hexagonal P4 .
3. Sea la red eléctrica de la figura, conectada en 1 y 2 al generador y tal que
r(ei ) = 1 ohmio ∀i = 1, · · · , 12. Comprobar que la distancia kleinrandic
entre los nodos coincide con la resistencia equivalente.
2.7. PRÁCTICAS 139

4. El campus de Lagoas-Marcosende puede ser interpretado como un grafo de


nueve vértices:

Bola, Deportes, Residencia, Rectorado, Tecnológico, Cientı́fico,


Juridicosocial, Filológico, Biblioteca

Considerar como arcos las direcciones permitidas que unen estos vértices y
dar una calificación de su conectividad. Averiguar que nueva arista orientada
lo mejorarı́a más.
5. Visualizar el algoritmo de Dijkstra1

1
http://www.dgp.toronto.edu/people/JamesStewart/270/9798s/Laffra/DijkstraApplet.html
140 TEMA 2. TEORÍA DE GRAFOS
Tema 3

Problemas lineales.

3.1 El problema lineal inverso


Dada una aplicación lineal f : Rn → Rm y un vector b ∈ Rm queremos saber si
existe un x ∈ Rn tal que f(x) = b y, en tal caso, calcularlo. Fijadas las bases (ui )
en Rn y (vj ) en Rm , la aplicación f queda determinada por los transformados
 
m a11 ··· a1n
X  .. .. 
f(ui ) = ai = aji vj ∀i o por la matriz A= . ..
. . 
j=1
am1 ··· amn

y resolver f(x) = b equivale a resolver el sistema lineal Ax = b.

El teorema de Rouché-Frobenius expresa las condiciones para la existencia y unici-


dad de solución en términos de la matriz A:

1. f(x) = b tiene solución si y sólo si rang(A) = rang([A, b])

2. f(x) = b tiene solución única si y sólo si rang(A) = rang([A, b]) = n

Si b ∈
/ imf podemos quedarnos con su mejor aproximación euclı́dea Aim f (b) que
(ver pág. 83) es solución de la ecuación

f ? f(x) = f ? (b)

Toda solución de f(x) = b lo es de f ? f(x) = f ? (b) pero, aunque f(x) = b no


tenga solución, f ? f(x) = f ? (b) si la tiene. Por ello, las soluciones de éste último
problema inverso se llaman soluciones generalizadas del inicial.

En MATLAB, dado un sistema Ax = b, la orden A\b nos da siempre una res-


puesta xo . En el caso de existencia y unicidad de solución, dicha respuesta es la
solución. Si el sistema es indeterminado, x0 es la solución particular con el máximo
número de coordenadas nulas. Si el sistema es incompatible, x0 es la solución de
A? Ax = A? b con el máxmo número de coordenadas nulas.

141
142 TEMA 3. PROBLEMAS LINEALES.

3.2 Métodos directos


Planteado un problema inverso Ax = b es necesario obtener algoritmos que nos
den su solución numérica. Aunque la palabra algoritmo procede del nombre del
matemático árabe Mohammet ibn Mose Al-Khwarizmi (780-835), autor del
primer tratado de álgebra, titulado Al-jabr wa’l Muqabāla, hoy se usa para des-
ignar cualquier proceso sistemático que desemboque en un resultado numérico sin
que consista, necesariamente, en técnicas de trasposición y cancelación de términos
en ambos miembros de una ecuación, como indican las palabras árabes del tı́tulo
del tratado.

Hoy, los algoritmos de tipo algebraico se llaman métodos directos y los algoritmos
que buscan aproximaciones sucesivas de las soluciones se llaman métodos iterativos.
Ante un problema determinado debemos decantarnos por seguir un método directo
o un método iterativo pero saber cúal es preferible, puede no resultar sencillo.

3.2.1 Regla de Cramer


Cuando A ∈ Mn×n la existencia y unicidad de solución es equivalente a que
det(A) 6= 0 y su expresión exacta es x = A−1 b o, si se prefiere,
     
x1 A11 ··· An1 b1
 ..  1  .. ..  ·  .. 
 . =  . .  .
det(A)
xn A1n ··· Ann bn

que recordamos fácilmente en coordenadas mediante la regla de Cramer:



a11
··· b1 ··· a1n
.. .. .. .. ..
.
. . . .
n
1 X an1 ··· bn · · · ann
xi = Aji bj = ∀i = 1, · · · , n
det(A) j=1 det(A)

El número de operaciones que hay que realizar para obtener todos los determinantes
que intervienen es tan elevado que, seguramente, el lector prefiere el método de
eliminación de Gauss que, además, es aplicable a cualquier sistema lineal Ax = b
con A ∈ Mm×n . Recordemos, brevemente, este segundo método directo.

3.2.2 Eliminación de Gauss


En el sistema

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + an2 x2 + · · · + amn xn = bm
3.2. MÉTODOS DIRECTOS 143

al menos un ai1 1 , con i1 ∈ {1, . . . , m}, será no nulo. Intercambiamos la fila de este
pivote ai1 1 con la primera fila y obtenemos el sistema equivalente

ai 1 1 x 1 + ai 1 2 x 2 + · · · + ai 1 n x n = bi 1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
a11 x1 + a12 x2 + · · · + a1n xn = b1
..
.
am1 x1 + an2 x2 + · · · + amn xn = bm

Es decir, obtenemos el sistema P1 Ax = P1 b donde


 
0 ... 1

 1 

 .. .. .. 
.
 . . 

 1 
 ∈ Mm
P1 = 1
 ... 0 


 1 

 .. 
 . 
1
a21
Restando de las filas 2a , 3a ,. . . , ma , la 1a multiplicada respectivamente por ai1 1 ,
a31 am1
ai 1 , . . . , ai 1 , obtenemos un sistema equivalente de estructura matricial
1 1

a111 x1 + a112 x2 + · · · + a11n xn = b11


a122 x2 + · · · + a12n xn = b12
..
.
am2 x2 + · · · + a1mn xn
1
= b1m

que será el sistema G1 P1 Ax = G1 P1 b donde


 
1
− aa21 1 
 i1 1 
− a31 0 1 
G1 =   ai1 1  ∈ Mm

 .. .. .. . . 
 . . . . 
am1
− ai 1 0 0 . . . 1
1

Si todos los a1ij fuesen nulos, el proceso habrá terminado. En otro caso, renom-
brando las variables, si fuese necesario, tendremos un a1i2 2 no nulo para cierto
i2 ∈ {2, . . . , m}. Entonces, multiplicando por matrices P2 y G2 , similares a las P1
y G1 , conseguimos un sistema

G2 P2 G1 P1 Ax = G2 P2 G1 P1 b
144 TEMA 3. PROBLEMAS LINEALES.

equivalente a G1 P1 Ax = G1 P1 b, donde los términos subdiagonales de la primera y


segunda columna son nulos. Reiterando el proceso llegamos a un sistema equivalente
con una estructura matricial reducida del tipo:

u11x1 + u12x2 + . . . u1k xk + . . . u1n xn = v1


u22x2 + . . . u2k xk + . . . u2n xn = v2
..
.
ukk xk + . . . ukn xn = vk
..
.
= vm

siendo uii 6= 0 ∀i = 1, · · · , k. De forma más compacta se escribirá

M ·A = v con M = Gk−1 Pk−1 · · · G1 P1

Debemos distinguir los tres casos siguientes:


1. Si n = k = m llegamos a un sistema reducido triangular superior

u11 x1 + u12 x2 + . . . u1n xn = v1


u22 x2 + . . . u2n xn = v2
..
.
unn xn = vn

y, por tanto, el problema tiene solución única.


2. Si n > k = m llegamos a un sistema reducido quasitriangular superior

u11 x1 + u12 x2 + . . . u1mxm + . . . u1n xn = v1


u22 x2 + . . . u2mxm + . . . u2n xn = v2
..
.
umm xm + . . . umn xn = vm

y, por tanto, el problema es compatible e indeterminado. El subsistema


triangular superior

u11 x1 + u12 x2 + . . . u1m xm = v1


u22 x2 + . . . u2m xm = v2
..
.
umm xk = vm

tiene solución única (s1 , · · · , sm ) ∈ Rm y es obvio que

(s1 , · · · , sm , 0, · · · , 0) ∈ Rn
3.2. MÉTODOS DIRECTOS 145

es una solución particular del sistema reducido quasitrianglar y, por tanto,


del sistema de partida. Esto explica que la orden de MATLAB A\b proponga
como solución particular de un sistema compatible e indeterminado la que
tiene mayor número de coordenadas nulas.
3. Si m > k y (vk+1 , · · · , vm ) no es nulo, llegamos a un sistema reducido quasi-
triangular incompatible

u11 x1 + u12 x2 + . . . u1k xk + . . . u1n xn = v1


u22 x2 + . . . u2k xk + . . . u2n xn = v2
..
.
ukk xk + . . . ukn xn = vk
= vk+1
..
.
= vm

Intuı́mos que la mejor aproximación se obtiene resolviendo el subsistema


quasitriangular compatible

u11 x1 + u12 x2 + . . . u1k xk + . . . u1n xn = v1


u22 x2 + . . . u2k xk + . . . u2n xn = v2
..
.
ukk xk + . . . ukn xn = vk

puesto que las soluciones de este sistema cumplen el máximo número de


ecuaciones no imposibles. Podemos confirmar esta hipótesis razonando del
siguiente modo: La mejor aproximación del vector

(v1 , · · · , vk , · · · , vm )

en el subespacio imagen, generado por los vectores {e1 , · · · , ek } de Rm , es el


vector (v1 , · · · , vk , 0, · · · , 0) de Rm que, identificado con el vector (v1 , · · · , vk )
de Rk , puede ser calculado resolviendo el mencionado subsistema quasitrian-
gular.

3.2.3 Factorización LU
Imaginemos una matriz A en la que el proceso de eliminación gaussiana se pueda
llevar a cabo sin permutar filas o, si se prefiere, con matrices de permutación Pi =
I ∀i = 1, . . . , k − 1. En tal caso (ver pág. 144),

M = Gk−1 . . . G1

y, como producto de matrices inversibles triangulares inferiores, será ella misma


una matriz inversible triangular inferior. Su inversa L := M −1 será una matriz
triangular inferior y, como U := M · A es una matriz triangular superior, podremos
escribir A como el producto de los factores L y U :

A = M −1 · M · A = L · U
146 TEMA 3. PROBLEMAS LINEALES.

Daremos algunas condiciones suficientes para que una matriz cuadrada admita una
tal descomposición en factores o factorización LU .

Teorema 3.2.4

Si A = (aij ) ∈ Mn es tal que sus n submatrices diagonales


 
a11 ... a1k
 .. .. 
∆k =  . .  ∀k = 1, . . . , n
ak1 ... akk

son inversibles, A admite una única factorización LU .


Demostración:
Como ∆1 = a11 6= 0 se puede tomar a11 como primer pivote o tomar P1 = I.
Supongamos que también P2 = · · · = Pk−1 = I y probemos que Pk = I.
Esta hipótesis inductiva se traduce en la igualdad Gk−1 . . . G1 A = Ak que desar-
rollada es
    1 
1 a11 . . . a1k × a11 . . . a11k ×
 .. . .   .. ..   .. .. 
.
 .  .
 .  
  . . 

× . . . 1  ak1 . . . akk = k
    akk 

. . .  .   . 
 .. .. ..   ..   .. 
× ... × ... 1 × × × ×

Multiplicabdo por bloques vemos que det(∆k ) = a111 . . . akkk 6= 0. Luego akkk puede
tomarse como pivote, y en consecuencia, podemos tomar Pk = I.
Con ello A tiene asegurada una factorización LU . Si suponemos que no es única,
A = L · U = L1 · U1 y, en consecuencia, (L1 )−1 · L = U −1 · U1 . Pero como la primera
es triangular inferior y la segunda, triangular superior, esta igualdad solo es posible
si (L1 )−1 · L = U −1 · U1 = I, es decir, si

L = L1 y U = U1 . ♦

Corolario 3.2.5

Toda matriz simétrica definida positiva, tiene una única factorización LU . ♦

Corolario 3.2.6

Una matriz tridiagonal


 
b1 c1
 
 
a2 b2 c2 
 

TD =  .. .. .. 
 . . . 


 an−1 bn−1 cn−1 

 
an bn
3.2. MÉTODOS DIRECTOS 147

en la que todos los números

δ0 = 1, δ1 = b1 , δk = bk δk1 − ak ck−1δk−1 ∀k = 2, . . . n

son no nulos, admite la única factorización LU:


 δ 
1 δ
1
c1
  0 
 δ  
 a2 0 1 δ2
 δ1

 δ1 c2 

 .. ..  .. .. 
TD = 
 . . 
 . . 
 ♦
 ..  
  .. 
 . 1  . cn−1 
  
  
δn−2 δn
an δn−1 1 δn−1

MATLAB nos proporciona una factorización LU de cualquier matriz A mediante


la orden [L, U, P ] = lu(A) que nos devuelve matrices quasitriangulares L y U , y
una matriz P que arregla, previamente, el problema de la permutación de filas:
P · A = L · U.

3.2.7 Factorización de Cholesky


En este apartado hacemos la siguiente mejora del corolario 3.2.5:

Teorema 3.2.8
Si A es simétrica y definida positiva existe una matriz triangular inferior B tal que

A = B · B? (factorizacion de Cholesky)

Además, podemos imponer que los elementos diagonales de B sean todos estricta-
mente positivos y, en este caso, la factorización A = B · B ? es única.
Demostración:
Si A es simétrica y definida positiva admite una única factorización LU
  
1 u11 . . . × ... ×
 .. . .  .. .. .. 
.
 . 
 . . . 
A=  × . . . 1 
 u kk . . . × 

. . .  . . 
 .. .. ..  .. .. 
× ... × ... 1 unn

Como ∆k = u11 . . . ukk > 0 ∀k = 1, . . . , n también ukk > 0 ∀k = 1, . . . , n. Con-



sideramos la matriz diagonal Λ = diag( uii ) e intercalamos en nuestra factorización
−1
LU la identidad I = ΛΛ . Entonces:

A = LΛΛ−1 U y por tanto A = (ΛL)(Λ−1 U )

Designando B = (ΛL) y C = (Λ−1 U ), por la simetrı́a de A tendremos

BC = C ? B ? y por tanto C(B ? )−1 = B −1 C ? .


148 TEMA 3. PROBLEMAS LINEALES.

Pero estas matrices son de las formas


   
1 ... × ... × 1
 .. .. ..   .. .. 

 . . .
.
 . 

C(B ? )−1 = 
 1 . . . ×  , B −1 C ? = 
× ... 1 

 .. ..  . .. .. 
 . .  .. . . 
1 × ... × ... 1

y sólo pueden ser iguales si ambas son la identidad. Por tanto, C = B ? . Esto
demuestra la existencia de una factorización de Cholesky A = B · B ? .

En la costrucción realizada de la matriz B los elementos de la diagonal de B, DB ,


son estrictamente positivos. Si hubiera otra factorización de Cholesky A = C · C ?
con esa misma propiedad, tendrı́amos
−1 −1
A = (B · DB ) · (DB · B ? ) = (C · DC ) · (DC · C ? )

pero al ser ambas factorizaciones LU con unos en DL , ocurrirı́a que


−1 −1
B · DB = C · DC y DB · B ? = DC · C ?

De la segunda igualdad se deduce que DB = DC y, por tanto, que B ? = C ? y, en


consecuencia, que B = C. ♦

MATLAB nos proporciona la factorización de Cholesky de una matriz A medi-


ante la orden B = chol(A) cuando A es simétrica y definida positiva. En otro caso,
nos da un mensaje de error. Por ello es más aconsejable la orden [B, d] = chol(A)
que no da mensaje de error cuando A es cuadrada y nos proporciona la factorización
de Cholesky de la submatriz diagonal de A de mayor tamaño que sea simétrica y
definida positiva.

3.2.9 Factorización QR
Dado cualquier vector v ∈ Rn definimos su matriz de Householder

I − 2 vv? si v 6= 0
Hv = v? v
 I si v = 0

Es fácil comprobar que


1. Hv es una matriz ortogonal, es decir, Hv−1 = Hv? .
2. Dado un vector a los vectores a+ = a+kake1 y a− = a−kake1 determinan
matrices de Householder tales que

Ha+ (a) = −kake1 y Ha− (a) = +kake1

MATLAB nos da la factorización QR de cualquier matriz A ∈ Mm×n mediante


la orden [Q, R] = qr(A). Esta instrucción nos devuelve una matriz ortogonal
Q ∈ Mm y una matriz quasitriangular superior R ∈ Mm×n tales que A = Q · R.
3.3. CONDICIONAMIENTO DEL PROBLEMA LINEAL INVERSO 149

Comentario 3.2.10

Los distintos métodos de factorización expuestos en esta sección buscan la substi-


tución de un problema lineal Ax = b por otro problema lineal equivalente

F · Ux = B

donde F es una matriz fácilmente inversible o quasitriangular inferior y U es una


matriz quasitriangular superior. La resolución de este sistema se lleva a cabo en
dos partes
1a F v = B y 2a U x = v
La 1a se resuelve automáticamente o por el método de descenso y nos lleva a la 2a
que es un sistema reducido de Gauss U x = v. Este se resuelve por el método de la
remontada, tras suprimir las ecuaciones imposibles.

Todos estos métodos directos para resolver los problemas inversos lineales se han
programado en los siguientes ficheros de MATLAB: rouche, cramer, metodos-
directos, remontada, descenso y qrhouseholder.

Ejercicios 3.2.11

Resolver los siguientes sistemas lineales


1. A=[4,8,4,0;1,5,4,-3;1,4,7,2;1,3,0,-2]
b=[8;-4;10;-4]

2. A=[10,7,8,7;7,5,6,5;8,6,10,9;7,5,9,10]
b=[32;23;33;31]

3. A=[10,7,8,7;7,5,6,5;8,6,10,9;7,5,9,10]
b=[32.1;22.9;33.1;30.9]

4. A=[1,2,3,4,5;2,5,8,-9,-6;3,5,-6,4,7;1,3,2,-4,-12]
b=[10;13;25;31]

5. A=[3,2,7,46;15,5,7,-12;3,25,-63,9;12,3,2,-4;23,35,22,-5;7,3,12,-17;2,33,24,-43]
b=[28;57;25;35;43;5;47]

6. A=[1,2,3;1,2,3;1,2,3]
b=[1;2;3]

3.3 Condicionamiento del problema lineal inverso


La solución del segundo es [1;1;1;1] y la del tercero es [9.2;-12.6;4.5;-1.1]. En estos
dos ejemplos de Wilson vemos que para una pequeña variación en el dato b se
produce una gran variación en la solución. Como los errores de observación (los
cometidos al tomar el dato b) son inevitables, es importante estudiar la repercusión
de los cambios en b sobre los cambios en x. Para ello es necesario recordar el con-
cepto de norma funcional de una matriz que es la norma de la aplicación lineal
representada por ella (ver pág. 31):
150 TEMA 3. PROBLEMAS LINEALES.

Si x y x + ∆x son las soluciones correspondientes a los datos b y b + ∆b


( (
A(x) = b A(x) = b

A(x + ∆x) = b + ∆b ∆x = A−1 (∆b)

tenemos que
(
kbk ≤ kAk · kxk k∆xk k(∆b)k
y ≤ kAk · kA−1 k .
k∆xk ≤ kA−1 k · k∆bk kxk kbk

k∆xk
Por tanto, el error relativo ε(x) = kxk
está acotado por el producto del error
k∆bk
relativo ε(b) = y el número de condición c(A) = kAk · kA−1 k. Además, esta
kbk
acotación es la mejor posible pues existe un dato bm y una desviación ∆bm cuyas
xm y ∆xm verifican la igualdad

k∆xm k k∆bm k
ε(xm ) = = kAk · kA−1 k · = c(A) · ε(bm )
kxm k kbmk

En efecto:
(
∃xm tal que kAxm k = kAk · kxm k
∃∆bm tal que kA−1 (∆bm )k = kA−1 k · k∆bm k

y, para obtener la igualdad anunciada, basta tomar


(
bm = Axm
.
∆xm = A−1 (∆bm )

Como 1 = kIk ≤ kAk · kA−1 k, c(A) es siempre mayor o igual que la unidad.
Cuanto mayor es, más repercuten los errores de observación en los resultados.

La norma funcional de una matriz A ∈ Mn y, por tanto, su número de condición,


dependen de la norma que consideremos en Rn . Por ejemplo:
n
X n
X
1. Si kxk = |xi | (norma 1) ⇒ kAk = max |aij | (norma c).
j
i=1 i=1
n
X
2. Si kxk = max |xi | (norma ∞) ⇒ kAk = max |aij | (norma f)
i i
j=1

n
! 12
X p
2
3. Si kxk = |xi | (euclı́dea) ⇒ kAk = ρ(A? A) (norma s).
i=1

Sólo necesita aclaración la tercera implicación (ver pág. 84)1

La órden de MATLAB cond(A) nos da el cs (A) correspondiente a la norma es-


pectral y las órdenes cond(A, 1) y cond(A, Inf) nos dan los correspondientes cc (A)
1
c hace refencia a sumar por columnas, f a sumar por filas y s es la inicial de spectrum.
3.3. CONDICIONAMIENTO DEL PROBLEMA LINEAL INVERSO 151

y cf (A). Por ejemplo, para la matriz de Wilson de los ejercicios 3.2.11, 2 y 3,


tenemos
cond(A) = 2984, 1 cond(A, 1) = 4488
y por ello es un buen ejemplo de matriz mal condicionada.

Un problema mal condicionado A(x) = b se puede sustituir por otro de idéntica


solución, M −1 Ax = M −1 b, siendo M una matriz tal que
c(M −1 A) < c(A)
Evidentemente, el menor valor se obtiene para M = A pues c(A−1 A) = 1, pero el
coste computacional de A−1 equivale a resolver el sistema inicial. Buscaremos una
inversa aproximada de A cuya determinación tenga un coste menor. Además, M
ha de ser fácilmente inversible para obtener M −1 b sin añadir mucho más coste.

Dependiendo del modo en que hagamos el producto de M −1 por A, obtenemos


diferentes formas de precondicionamiento:
1. Precondicionamiento por la izquierda
M −1 Ax = M −1 b

2. Precondicionamiento por la derecha


(
−1 AM −1 y = b
AM Mx = b ⇔
Mx = y

3. Precondicionamiento bilateral
(
M1−1 AM2−1 y = M1−1 b
M1−1 AM2−1 M2 x = M1−1 b ⇔
M2 x = y

El campo de posibles matrices precondicionadoras M es muy amplio, pero una


buena opción es ceñirse al subespacio de las matrices diagonales inversibles D. En
este caso podemos dar una sencilla estrategia de precondicionamiento:

Teorema 3.3.1
Dada una matriz regular A ∈ Mn existe una matriz diagonal regular D ∈ Mn tal
que D−1 A es equilibrada por filas, es decir,
n
X
D−1 A = (bij ) y |bij | = constante ∀i = 1, · · · , n
j=1

y, además, cf (D−1 A) ≤ cf (A).


Demostración:
Si D = (dii ) con dii > 0, para que la suma de los valores absolutos de la fila i-ésima
de D−1 A sea una constante k es necesario y suficiente que
n
1 X
|aij | = k
dii
j=1
152 TEMA 3. PROBLEMAS LINEALES.

Por tanto, basta tomar


n
1X
dii = |aij | ∀i = 1, · · · , n
k
j=1

para que D−1 A sea equilibrada por filas. Además,


(
kD−1 Akf = k
y, por tanto,
kAkf = kkDkf

cf (D−1 A) = kD−1 Akf · k(D−1 A)−1 kf = kkA−1 Dkf ≤ kkA−1 kf kDkf = cf (A)
El precondicionador D−1 que equilibra por filas es óptimo en cierto sentido: Para
cualquier otra matriz diagonal regular D1 tal que D1−1 A no sea equilibrada por filas
tenemos
cf (D−1 A) ≤ cf (D1−1 A)
pues D−1 A = D−1 D1 D1−1 A y es claro que D−1 D1 equilibra por filas a D1−1 A y,
por tanto, cf (D−1 A) ≤ cf (D1−1 A). ♦

Este resultado lo implementamos en el programa equilibradof de Modus.

3.4 Métodos iterativos


Los métodos directos suelen acumular muchos errores de truncamiento, sobre todo,
si se aplican a matrices huecas y, como veremos, estas matrices suelen aparecer en
problemas lineales que rigen importantes problemas técnicos. Entonces, suelen ser
aconsejables los llamados métodos iterativos, cuyo fundamento es el siguiente:

Teorema 3.4.1 Aplicación contractiva

Si (X, k k) es un espacio normado completo, Ω ⊂ X es un subconjunto cerrado y


G : Ω → X es una función que cumple
(
G(Ω) ⊂ Ω
∃L ∈ (0, 1) tal que kG(x) − G(y)k ≤ Lkx − yk ∀x, y ∈ Ω

se tiene que
1. Existe un único p ∈ Ω tal que G(p) = p.
2. El algoritmo iterativo
(
x0 ∈ Ω
xk+1 = G(xk ) ∀k ≥ 0

es convergente a p cualquiera que sea el punto de inicio x0


Lk
3. kxk − pk ≤ kx1 − x0 k ∀k ≥ 1
1−L
3.4. MÉTODOS ITERATIVOS 153

Demostración:
Para k ≥ 1 se verifica
kxk+1 − xk k = kG(xk ) − G(xk−1 )k ≤ Lkxk − xk−1 k ≤ · · · ≤ Lk kx1 − x0 k
y, en consecuencia, para n > k ≥ 1 tenemos
kxn − xk k ≤ kxn − xn−1 k + · · · kxk+1 − xk k ≤ (Ln−1 + · · · + Lk )kx1 − x0 k
luego
Lk
kxn − xk k ≤ kx1 − x0 k
1−L
Esto prueba que (xk ) es una sucesión de Cauchy en el espacio métrico completo
(Ω, dk k ). Ası́, existe p ∈ Ω tal que (xk ) → p y G(p) = p. Si existiera otro
q ∈ Ω cumpliendo G(q) = q, llegarı́amos al absurdo:
kp − qk = kG(p) − G(q)k ≤ Lkp − qk < kp − qk.
La estimación del error se obtiene tomando el lı́mite en la desigualdad
Lk
kp − xk k = lim kxn − xk k ≤ kx1 − x0 k ♦
n→∞ 1−L
Para una aplicación lineal f : Rn → Rn si f = p−q, con p y q lineales y p fácilmente
inversible, se tienen las siguientes equivalencias
f(x) = b ⇔ p(x) = q(x) + b ⇔ x = p−1 q(x) + p−1 (b)
y designando p−1 q = g y p−1 (b) = c, resulta que
f(x) = b ⇔ x = g(x) + c
Si existe una norma k k en Rn para la cual kgk < 1, la aplicación
g+c : Rn → Rn
x 7 → g(x) + c
cumple todas las condiciones del teorema 3.4.1 y la sucesión de iterantes {xn } con
x0 arbitrario y
x1 = g(x0 ) + c, x2 = g(x1 ) + c, . . . , xn+1 = g(xn ) + c, . . .
es convergente a un cierto x̄ que por cumplir
x̄ = g(x̄) + c también cumplirá f(x̄) = b.
¿Cómo podemos saber si existe una norma k k en Rn para la cual la norma funcional
de g : Rn → Rn cumpla que kgk < 1?

Es fácil ver que el radio espectral de g es cota inferior de todas las posibles normas
funcionales de g pues, si x es un autovector de g correspondiente al autovalor λ de
módulo máximo, para cualquier norma k k de Rn se cumple
kg(x)k = kλxk = ρ(g)kxk.
Comprobaremos en el teorema siguiente que ρ(g) es la cota inferior máxima. Para
ello, necesitamos recordar algunas cuestiones relativas a las normas funcionales
vistas en la pág. 150.
154 TEMA 3. PROBLEMAS LINEALES.

Observaciones 3.4.2

1. Si k k es una norma en Rn y b : Rn → Rn es una aplicación lineal biyectiva,


la aplicación

k| k| : Rn → Rn
x 7 → kb(x)k

también es una norma en Rn .


2. Si g : Rn → Rn tiene norma funcional kgk respecto de la norma k k, tendrá
norma funcional k|gk| = kbgb−1 k respecto de la norma k| k|.
3. Si g : Rn → Rn viene representada por la matriz A = (aij ) y en Rn consid-
eramos la norma k k∞, la norma funcional de g es la norma f
 
X n
kgkf = max  |aij |
i
j=1

4. Siempre existe una base en Rn respecto de la cual g : Rn → Rn viene repre-


sentada por una matriz triangular superior
 
λ1 t12 . . . t1n
 .. .. 
V −1 AV = 
 . . .
 λn−1 tn−1n 
λn

Los elementos diagonales de V −1 AV serán, pues, los autovalores de g

Teorema 3.4.3

Sea g : Rn → Rn una aplicación lineal. Su radio espectral ρ(g) cumple

ρ(g) = inf{kgk | k k norma en Rn }

Demostración:
Dado  > 0 existe δ > 0 tal que


 δ|tn−1n| <

δ|t 2
n−2n−1| + δ |tn−2n| <

 ...


δ|t12| + δ 2 |t13 | + · · · + δ n−1 |t1n | < 

Con este δ construimos la aplicación biyectiva de matriz


 
1

 δ 

Dδ =  . 
 .. 
n−1
δ
3.4. MÉTODOS ITERATIVOS 155

y hallamos la matriz producto


 
λ1 δ t12 ... δ n−1 t1n
 .. .. 
Dδ−1 V −1 AV Dδ = 
 . . 

 λn−1 δ tn−1n 
λn
Por la eleccion del δ y las observaciones 3.4.2.2 y 3 es claro que

kDδ−1 V −1 AV Dδ kf < ρ(g) +  ♦

Por tanto, el métdo iterativo es convergente si ρ(g) < 1.

Teorema 3.4.4
Sea f : Rn → Rn lineal, autoadjunta, positiva y descomponible en la forma f =
p − q, con p y q lineales y p inversible. Sea g = p−1 q.

Si p? + q es positiva ⇒ ρ(g) < 1

Demostración:
Como p = f + q, se tiene que
?
p? + q = f ? + q ? + q = f + q + q ? = p + q ? = (p? + q)

luego p? + q es autoadjunta y positiva.

Por otra parte,


g = p−1 q = p−1 (p − f) = I − p−1 f
1
El corolario ?? asegura la existencia de r = f 2 . Respecto de la norma k|xk| =
kr(x)k2 , la observación 3.4.2,2, nos dice que

k|gk| = krgr −1 k2 = kr(I − p−1 f)r −1 k2 = kI − rp−1 rk2

Por tanto,
k|gk| = sup{kx − rp−1 r(x)k2 | kxk2 = 1}.
Si kxk2 = 1, tenemos

kx − rp−1 r(x)k22 = (x − rp−1 r(x) |x − rp−1 r(x)) =

= 1 − (x|rp−1 r(x)) − (rp−1 r(x) | x) + (rp−1 r(x) | rp−1 r(x)).


Ahora bien, haciendo r(x) = y, tenemos:

E(x) := (x|rp−1 r(x)) + (rp−1 r(x) | x) − (rp−1 r(x) | rp−1 r(x)) =

= (y|p−1 (y)) + (p−1 (y) | y) − (fp−1 (y) | p−1 (y))


y haciendo p−1 (y) = z,

E(x) = (p(z)|z) + (p? (z)|z) − (f(z)|z) = ((p? + q)(z)|z) > 0

Por tanto,
k|gk| < 1 y, en consecuencia ρ(g) < 1 ♦
156 TEMA 3. PROBLEMAS LINEALES.

3.4.5 Método de Jacobi


Si A es una matriz cuadrada de orden n, con todos los términos de su diagonal no
nulos, llamaremos D a su matriz diagonal, −L a la matriz triangular infradiagonal
y −U a la matriz triangular supradiagonal. Es claro que, entonces,

A = D − (L + U )

donde D es fácilmente inversible. El método iterativo correspondiente a esta de-


scomposición es el de Jacobi y tiene por aplicación g la representada por la matriz

D−1 (L + U ) = D−1 (D − A) = I − D−1 A

La sucesión de iterantes se define en la forma

xk+1 = (I − D−1 A)xk + D−1 b

o si se prefiere
D(xk+1 ) = (L + U )(xk ) + b
El método de Jacobi será convergente cuando

ρ(D−1 (L + U )) < 1

En particular, si A es simétrica y definida positiva el teorema 3.4.4 asegura la


convergencia cuando
D? + L + U = D + L + U
es definida positiva.

3.4.6 Método de Gauss-Seidel


La matriz A también se puede descomponer en la forma

A = (D − L) − U

siendo D − L fácilmente inversible. El método iterativo correspondiente a esta


descomposición es el de Gauss-Seidel y tiene por aplicación g la representada por
la matriz
(D − L)−1 U
La sucesión de iterantes se define en la forma

(D − L)(xk+1 ) = U (xk ) + b

y el método será convergente cuando

ρ((D − L)−1 U ) < 1

En particular, si A es simétrica y definida positiva el teorema 3.4.4 asegura la


convergencia cuando

(D − L)? + U = D − L? + U = D

es definida positiva.
3.5. MÉTODO DEL GRADIENTE CONJUGADO 157

3.4.7 Método de relajación


Introduciendo un parámetro ω 6= 0, la matriz A también se puede descomponer en
la forma    
1 1−ω
A= D−L − D+U
ω ω
 
1
siendo D − L fácilmente inversible. El método iterativo correspondiente a
ω
esta descomposición es el de relajación de parámetro ω y tiene por aplicación g la
representada por la matriz
 −1  
1 1−ω
D−L D+U
ω ω
La sucesión de iterantes se define en la forma
   
1 1−ω
D − L (xk+1 ) = D + U (xk ) + b
ω ω
El método será concergente cuando
 −1  !
1 1−ω
ρ D−L D+U < 1.
ω ω

Teorema 3.4.8
Si la matriz A es simétrica definida positiva y ω ∈ (0, 2), el método de relajación
es convergente.
Demostración:
Como A es simétrica, L? = U . El teorema 3.4.4 asegura la convergencia del método
cuando  ?  
1 1−ω 2−ω
D−L + D+U = D
ω ω ω
sea definida positiva. Pero, por ser A definida positiva, también lo es D, y en
consecuencia, si ω ∈ (0, 2), también lo es
2−ω
D ♦
ω
Podemos implementar todos estos resultados en el programa metodositerativos
de Modus.

3.5 Método del gradiente conjugado


Sea f : Rn → Rn lineal autoadjunta. Se dice que f es elı́ptica si

∃α > 0 tal que αkxk2 ≤ (f(x)|x) ∀x ∈ Rn .

Evidentemente, toda aplicación elı́ptica es inversible y nos define en Rn un nuevo


producto escalar
[x|y] = (f(x)|y) ∀(x, y) ∈ Rn × Rn
158 TEMA 3. PROBLEMAS LINEALES.

y su correspondiente norma euclı́dea


p
kxkf = (f(x)|x) ∀x ∈ Rn .

El método de Gram-Schmidt (ver pág. 67) nos permite construir bases ortonor-
males respecto de este nuevo producto escalar que llamaremos bases f-ortonormales.

Si {u1 , · · · , un } es una base f-ortonormal, todo problema inverso f(x) = b puede


resolverse mediante el siguiente proceso de n pasos:


 x1 ∈ Rn vector arbitrario

r = b − f(x )
k k

 α k = (u |r
k k )


xk+1 = xk + αk uk

El vector xn+1 es la única solución del problema. En efecto:

xn+1 = xn + (un |b)un − [un |xn ]un


y, por tanto,

[xn+1 |uj ] = [xn |uj ] + (un |b)[un|uj ] − [un|xn ][un|uj ]

lo cual implica que

[xn+1 |un] = (un |b) o [xn+1 |uj ] = [xn |uj ] si 1 ≤ j < n

De igual modo deducimos que, para k = n, n − 1, · · · 2,

[xk |uk−1] = (uk−1 |b) o [xk |uj ] = [xk−1|uj ] si 1≤ j < k−1

Esto significa que




 (f(xn+1 )|un ) = (b|un)


(f(xn+1 )|un−1) = (f(xn )|un−1) = (b|un−1)
..


 .


(f(xn+1 )|u1 ) = (f(xn )|u1) = · · · = (f(x2 )|u1) = (b|u1)

y, en consecuencia,

f(xn+1 ) − b ∈ [u1 , · · · , un ]⊥ = {0}. ♦

Este método, llamado del gradiente conjugado, está implementado en el programa


gradienteconjugadogs de Modus (ver también liberar y gramschmidtliber-
ado
3.6. EJEMPLOS DE PROBLEMAS LINEALES INVERSOS 159

3.6 Ejemplos de problemas lineales inversos


Ejemplo 3.6.1
Una barra perfectamente rı́gida de longitud 2L y peso P está en reposo apoyada
en n puntos de abcisas (x1 , · · · , xn ). Determinar las fuerzas verticales (f1 , · · · , fn )
en dichos puntos.
Solución2 :
Las leyes de Newton nos proporcionan dos ecuaciones:

f1 + · · · + fn = P
x1 f1 + · · · + xn fn = PL

Si n ≥ 3, este sistema lineal es compatible e indeterminado y su solución general es


de la forma
(?) f = f o − a1 v1 − · · · − an−2 vn−2
donde f o es la solución particular de norma mı́nima y {v1 , · · · , vn−2} es una base
del núcleo de la aplicación lineal de matriz
 
1 ··· 1
A= .
x1 · · · xn

Sin embargo, desde un punto de vista mecánico, la solución debe ser única:
El apoyo xi realiza una fuerza fi si y sólo si actúa como un muelle de constante
elástica ki y sufre un desplazamiento vertical yi tal que fi = ki yi . La condición
de perfecta rigidez de la barra impone la existencia de una recta y = p + mx que
pase por los puntos {(x1 , y1 ), · · · , (xn , yn )}. Por tanto, se ha de cumplir que

pk1 + mx1 k1 + a1 v11 + · · · + an−2 v1n−2 = fo1


pk2 + mx2 k2 + a1 v21 + · · · + an−2 v2n−2 = fo2
··· = ···
pkn + mxn kn + a1 vn1 + · · · + an−2 vnn−2 = fon

Este sistema lineal de matriz


 
k1 x1 k 1 v11 ··· v1n−2
 k2
 x2 k 2 v21 ··· v2n−2 

M = . .. .. .. .. 
 .. . . . . 
kn xn k n vn1 ··· vnn−2

es compatible y determinado. Su solución (po , mo , ao 1 , · · · , ao n−2 ) nos determina


la única solución mecánica

fm = f o − ao 1 v1 + · · · − ao n−2 vn−2 .

Obsérvese que si (k1 , · · · , kn ) = (k, · · · , k) se cumple que fm = f o .

Ejemplo 3.6.2
2
Ver sujetarbarra de Modus
160 TEMA 3. PROBLEMAS LINEALES.

Estudiar el movimiento de n + 1 masas conectadas en un sistema de n poleas.


Suponemos que las poleas son de masas despreciables, actuan sin rozamientos y la
conexión entre las masas tiene lugar como se indica en la figura.

Para cada masa mi queremos calcular su aceleración absoluta ai y la tensión Ti de


la cuerda que la sujeta.
Solución3:
Razonaremos inductivamente resolviendo primero el caso de una sola polea. Las
leyes de Newton nos proporcionan las siguientes relaciones entre las aceleraciones
a1 , a2 y las tensiones T1 , T2 :

m1 a1 - T1 = -m1 g
m2 a2 - T2 = -m2 g
T1 - T2 = 0
a1 + a2 = 0

En el caso de 2 poleas:

m1 a1 - T1 = -m1 g
m2 a2 - T2 = -m2 g
m3 a3 - T3 = -m3 g
T1 - 2T2 = 0
T2 - T3 = 0
2a1 + a2 + a3 = 0

En el caso de 3 poleas:
3
Ver poleas de Modus
3.6. EJEMPLOS DE PROBLEMAS LINEALES INVERSOS 161

m1 a1 - T1 = -m1 g
m2 a2 - T2 = -m2 g
m3 a3 - T3 = -m3 g
m4 a4 - T4 = -m4 g
T1 - 2T2 = 0
T2 - 2T3 = 0
T3 - T4 = 0
4a1 + 2a2 + a3 a4 = 0

En el caso de n poleas podemos inferir que x = (a1 , · · · , an+1 , T1 , · · · , Tn+1 )0


puede ser calculado resolviendo el problema lineal Ax = b donde
 
M −I
A= y b = −g(m1 , · · · , mn+1 , 0, · · · , 0)0
L R

siendo M , −I, L, R las siguientes matrices cuadradas de orden n + 1:


   
m1 −1
M =
 .. 
−I = 
 .. 
.  . 
mn+1 −1
 
  1 −2
0 0 ··· 0 0  .. .. 
 ..   . . 
L=
 . 
R=
 
 1 −2 
 0 0 ··· 0 0   
n−1 n−2
 0 0 1 −1
2 2 ··· 1 1
0 0 0 0

Ejemplo 3.6.3
Se quiere convertir el digrafo siguiente en una red hidraúlica en la que el peso de
los arcos sea el caudal de las tuberı́as.
100 120

110 25 85 20

90

175 25

1. Hallar los vectores de alimentación y desagüe de dicha red.


2. Si los caudales de alimentación tienen concentraciones γ1 , · · · , γk de cierta
sustancia ¿cúal será la concentración de dicha substancia en cada nodo?
3. ¿Podemos obtener en los nodos concentraciones de 45, 42, 23, 34, 40 y 30?
En caso negativo, hallar las concentraciones más parecidas que se puedan
obtener.
162 TEMA 3. PROBLEMAS LINEALES.

Solución:
Enumerando los nodos de izquierda a derecha y de arriba a abajo, el programa
redhidraulica nos da

1. La alimentación [10 40 100 0 0 0] y el desagüe [0 0 0 0 0 150] y, por tanto,


tenemos la siguiente red
+ + +

10 40 100

100 120
1 2 3
110 25 85 20

90
4 5
175 25

6
150

2. La aplicación lineal F : R3 → R6 que hace corresponder a unas concentra-


ciones de entrada e, unas concentraciones en los nodos c, tiene matriz
 
0.1015 0.2567 0.6418
0.0116 0.2824 0.7060
 
0.0040 0.0465 0.9495
 
0.0667 0.2667 0.6667
 
0.0241 0.2788 0.6971
0.0667 0.2667 0.6667

3. Para cualquier vector de concentraciones b aplicamos el programa rouche(F,b).

Ejemplo 3.6.4

Dado b ∈ Rn hallar su mejor aproximación euclı́dea en el subespacio generado por


los vectores linealmente independientes {a1 , · · · , ap }.
Solución4:
Hemos visto en el teorema 1.10.6 y en el ejemplo 1.11.3 dos pruebas diferentes de
4
Ver mejoraproxeuclides de Modus
3.6. EJEMPLOS DE PROBLEMAS LINEALES INVERSOS 163

que la solución de este problema se obtiene resolviendo el problema lineal inverso


 
a11 · · · a1p
A? Au = A? b con A =  ... .. 

. 
an1 ··· anp
Este sistema tiene una única solución s que puede ser obtenida con la orden de
MATLAB A\b. As es la mejor aproximación de b en [a1 , · · · , ap ].

Observaciones 3.6.5
1. La misma técnica utilizada en el espacio Rn euclı́deo es válida en cualquier
espacio de Hilbert. En particular si f ∈ L2 (a, b), su mejor aproximación en
el subespacio generado por las funciones {g1 , · · · , gm } ⊂ L2 (a, b) la encon-
traremos resolviendo el sistema lineal
α1 (g1 |g1 ) + α2 (g2 |g1 ) + · · · + αm (gm |g1 ) = (f|g1 )
α1 (g1 |g2 ) + α2 (g2 |g2 ) + · · · + αm (gm |g2 ) = (f|g2 )
..
.
α1 (g1 |gm ) + α2 (g2 |gm) + · · · + αm (gm |gm ) = (f|gm )

donde, ahora, los productos escalares vienen dados por las integrales:
( Rb
(gi |gj ) = a gi (x)gj (x)dx
Rb
(f|gi ) = a f(x)gi (x)dx

2. También podemos usar la misma técnica en el espacio de las matrices cuadradas


Mn dotadas del producto escalar de Frobenius:
(A|B) = trace(B ? A)
que da lugar a la norma
  21
p n
X
kAkF = trace(A? A) =  |aij |2 
i,j=1

Esta norma no es funcional puesto que kIkF = n pero cumple que
kAks ≤ kAkF ∀A ∈ Mn
La inversa de A ∈ Mn es otra matriz M ∈ Mn tal que I − M A = o.
Suavizando este problema, si S es un adecuado subespacio vectorial de Mn ,
podemos buscar una Mo ∈ S tal que
kI − Mo AkF = min{kI − M AkF | M ∈ S}
Ası́, el cálculo aproximado de la inversa de una matriz que, como hemos dicho
(ver pág. 151), es una técnica de precondicionamiento, se puede ver como un
problema tı́pico de mejor aproximación en (Mn , k kF ). Como subespacio S
suele tomarse el de las matrices diagonales o el de las tridiagonales.
164 TEMA 3. PROBLEMAS LINEALES.

Los problemas de mejor aproximación los hemos implementado en los programas


mejoraproxeuclides, mejoraproxhilbert y mejoraproxfrobenius de Modus.

Ejemplo 3.6.6
Sea A : Rn → Rm una aplicación lineal y sea b ∈ imA. Hallar el vector de norma
euclı́dea mı́nima en la variedad Mb = {x ∈ Rn | Ax = b}.
Solución:
Veamos tres maneras diferentes de calcular este vector:
1. Como b ∈ imA, existe un x0 ∈ Mb . Si Mb = {x0 } el vector de norma
euclı́dea mı́nima en Mb es x0 . En otro caso, cualquier otro x ∈ Mb cumplirá
que x ∈ x0 + ker A y, por tanto, Mb = x0 + ker A. Ası́, el vector de norma
euclı́dea mı́nima xm ∈ Mb tendrá que ser ortogonal a ker A.
Sea {u1 , · · · , un } es una base ortonormal de Rn tal que [u1, · · · , ur ] = [ker A]⊥ ,
y [ur+1 , · · · , un ] = ker A, tendremos

xm = x0 + λr+1 ur+1 + · · · + λn un , con λi = −(x0 |ui ) ∀i = r + 1 · · · , n

y, en consecuencia,

xm = x0 − (x0 |ur+1 )ur+1 − · · · − (x0 |un )un .

2. Sea A+ : Rm → Rn la inversa de Moore-Penrose de A. Veamos que el vector


de norma euclı́dea mı́nima en la variedad Mb = {x ∈ Rn | Ax = b} es,
precisamente, A+ b. Para ello comprobaremos que

A+ b ∈ (x0 + ker A) ∩ [ker A]⊥ siendo Ax0 = b.

En efecto:

A · A+ b = A · A+ · Ax0 = Ax0 luego A+ b ∈ x0 + ker A.

Además, podemos suponer que existe una familia ortonormal {v1 , · · · , vr } ⊂


Rm y reales positivos {λ1 , · · · , λr } tales que
r r
X X 1
A= λi ui ⊗ vi y A+ = vi ⊗ ui .
i=1
λ
i=1 i

Por tanto,
r
X 1
A+ (b) = (vi |b)ui ∈ [ker A]⊥.
i=1
λi

3. Otra manera de proceder es utilizar el teorema de los multiplicadores de


Lagrange para obtener el mı́nimo. La lagrangiana de este problema es

Φ: Rn × Rm → R
(x, y) 7→ (x|x) − (At y|x) + (y|b)

y la anulación de su gradiente nos produce las dos ecuaciones

2xm − At y = 0 y Axm = b
3.6. EJEMPLOS DE PROBLEMAS LINEALES INVERSOS 165

y
Eliminando la xm obtenemos la ecuación lineal en
2
y y
A · At = b cuya solución en MATLAB es = A · At \b
2 2
y sustituyendo tenemos xm = At (A · At \b).

Ejemplo 3.6.7 Ajuste por mı́nimos cuadrados.

Encontrar el polinomio de grado n que mejor ajuste por ”mı́nimos cuadrados” la


nube de puntos
{(x1 , y1 ), (x2 , y2 ), ...(xN , yN )} ⊂ R2
Solución5 :
N
X
Se trata de hallar Pn (x) = a0 + a1 x + · · · + an xn tal que (yi − Pn (xi ))2 sea
i=1
mı́nimo. Podemos entender esta cuestión como un problema de mejor aproximación
del vector
 
y1
 y2 
y =  .  del espacio euclı́deo RN en el subespacio [x0 , x1 , x2 , · · · , xn ]
 
 .. 
yN
     2  n
1 x1 x1 x1
1  x2   x22   xn2 
       
donde x0 =  . , x1 =  . , x2 =  . , · · · , xn =  . 
 ..   ..   ..   .. 
1 xN x2N xnN
Ası́, la cuestión del ajuste se reduce, también, a un problema lineal. ♦.

Observación 3.6.8

En lugar de buscar la mejor combinación de las funciones {1, x, x2, · · · , xn }, es


decir, de los n + 1 primeros miembros de la familia de polinomios, podemos elegir
cualquier otra familia de funciones especiales de las archivadas en Modus. Esto es
lo que hace el programa nubedepuntos.

Ejemplo 3.6.9 Problemas de control.

En Rn llamamos sistema a un par de familias, una de vectores {v1 · · · , vm } y otra


de números reales {r1 , · · · , rm }. Decimos que el sistema es controlable si existe una
aplicacion lineal f : Rn → R tal que f(vi ) = ri ∀i = 1, · · · , m. Un control de
mı́nima norma se llama control óptimo.
Dado el sistema {[1, 3, 5, 3], [2, 0, 12, 5], [−2, 7, 1, 3]} y {1, 3, 12}
1. Determinar el conjunto de posibles controles
2. Hallar el control óptimo en la norma 3
5
Ver nubedepuntos de Modus
166 TEMA 3. PROBLEMAS LINEALES.

3.7 Prácticas
1. Del techo del laboratorio se cuelga, con un muelle de constante elástica k, una
masa m1 . De ésta se cuelga, con un segundo muelle de idéntica constante,
una masa m2 . De ésta se cuelga, con un tercer muelle de idéntica constante,
una masa m3 y ası́, sucesivamente, hasta n masas.
(a) Programar un método que determine la posición de cada masa cuando
todo el sistema está en equilibrio. Suponiendo n = 5 y k = 9.8, aplicarlo
a distintas combinaciones de masas y comentar los resultados.
(b) Si la precisión de la balanza con la que se determinan las cinco masas
es 0.01 ¿cúal es la precisión de nuestro método?
2. En las condiciones del problema anterior, se cuelga la última masa, con un
muelle de idéntica constante elástica, de otro punto del techo del laboratorio
situado a una distancia L del primero. Programar un método que determine
la posición de cada masa cuando todo el sistema está en equilibrio.
3. Una pulga situada en un alambre [0, n] da saltos de longitud unidad hacia el
0 con probabilidad α y hacia el n con probabilidad 1 − α. Designamos Pk la
probabilidad de que la pulga, partiendo del punto k, llegue al 0 antes que al
n. Ası́, P0 = 1 y Pn = 0.
Teniendo en cuenta que Pk = αPk+1 + (1 − α)Pk−1 , determinar Pk para
k = 1, · · · , n − 1 cuando α = 0.3 y n = 10
4. Resolver el sistema de ecuaciones lineales que determina las fuerzas que ac-
tuan en la siguiente armadura de seis articulaciones y nueve barras cuando
está en equilibrio actuando las dos fuerzas exteriores que se indican
1000

• ? • - 500
30o
45o 45o

• • • •
∆ ∆

5. Escribir un programa de MATLAB que obtenga la mejor aproximación hilber-


tiana de una función en el subespacio generado por las 2n+1 primeras fun-
ciones trigonométricas.
6. Hallar la inversa aproximada diagonal de la matriz hueca que rige el movimiento
de siete masas enlazadas en un sistema de seis poleas como el descrito en el
ejemplo 3.6.2.
7. Aproximar la nube de puntos
(
X = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
Y = [−3.7, −4.1, 3.3, −3.9, 0.6, 12, 0.5, −6.4, 2.7, −1.5]

(a) Por una recta.


(b) Por una parábola.
(c) Por una combinación de 3 funciones trigonométricas.
3.7. PRÁCTICAS 167

8. Ajustar por la parábola de regresión las posiciones de las masas del ejercicio
2 cuando todas son iguales y suman 1. ¿Ajusta mejor una catenaria?
9. Para cualquier natural n ≥ 2 consideramos la matriz tridiagonal
 
2 −1
−1 2 −1 
 

 −1 2 −1 

Mn =  . .. . .. . ..  ∈ Mn×n
 
 
 −1 2 −1 
−1 1

Determinar experimentalmente una fórmula que nos de el número de condición


cond(Mn , 2) en función de n.
168 TEMA 3. PROBLEMAS LINEALES.
Tema 4

Problemas espectrales

Dentro del esquema general de los problemas inversos

f(x) + u = b

estudiamos el siguiente caso particular sencillo



n
X = Y = R

(P S) f :X →Y lineal


b = o, u = −λx

La ecuación f(x) = λx siempre admite la solución x = o. Sólo tienen interés las


soluciones x 6= o que se llaman autovectores de f y, para que existan, se precisa
que (f − λI)(x) = o no tenga solución única. Es decir, si A es la matriz asociada
a f en una base {ui } , se precisa que det(A − λI) = 0 .

La ecuación det(A − λI) = 0 es polinómica mónica de grado n y se llama ecuación


caracterı́stica de A. En realidad, podemos hablar de la ecuación caracrerı́stica
de f pues las diferentes matrices que representan a f, en las diferentes bases, dan
lugar al mismo polinomio:

Si B es la matriz que representa a f en la base {vi } y V es la matriz de columnas


{vi } expresadas respecto de la base {ui }, tenemos que B = V −1 · A · V y, por
tanto,
det(B − λI) = det(V −1 (A − λI)V ) = det(A − λI).
En el campo complejo la ecuación det(A−λI) = 0 tiene aseguradas r raices distintas
λ1 , · · · , λr , con multiplicidades algebraicas α1 , · · · , αr de suma n:

α1 + · · · + αr = n

Cada λi es un autovalor de f y el conjunto de todos, es el espectro de f:

sp(f) = {λ1 , · · · , λr }.

Cada λi tiene un subespacio propio

Vλi = ker(f − λi I)

169
170 TEMA 4. PROBLEMAS ESPECTRALES

cuya dim Vλi = di > 0 se llama multiplicidad geométrica de λi y cuyos vectores no


nulos son los autovectores asociados a λi .

Mediante la orden de MATLAB [CD] = eig(A) podemos obtener la matriz di-


agonal D de los autovalores de A, repetidos según sus multiplicidades algebraicas
y la matriz C cuyas columnas son los autovectores correspondientes, de modo que
C · D · inv(C) = A. También podemos usar la orden p = poly(A) para obtener los
coeficientes del polinomio caracterı́stico de A, ordenados de mayor grado a menor1
y la orden roots(p) para obtener sus raı́ces.

Por otra parte, es fácil comprobar que dado un polinomio


a0 λn + a1 λn−1 + · · · + an−1 λ + an = 0,
su matriz de compañı́a
 a1 a2 a3 an−1 an 
− − − ··· − −
 a0 a0 a0 a0 a0 
 1 0 
 

 1 0 

 .. 

 1 . 

 .. 
 . 0 
1 0
lo tiene por polinomio caracterı́stico. MATLAB nos da esta matriz mediante la
orden compan(v) donde v = (a0 , a1 , · · · , an ).

Ası́ las cosas, el cálculo de los autovalores de una matriz n × n y el cálculo de


las raices de un polinomio de grado n son problemas equivalentes. Por ello, no
puede haber un método directo para determinar los autovalores de las matrices
A ∈ Mn con n ≥ 5, pues se opondrı́a al teorema de Abel que niega la existencia
de métodos directos para hallar las raices de polinomios de grado n con n ≥ 5. Sin
embargo, el coste computacional del polinomio caracterı́stico de una matriz es muy
elevado y por ello no suelen usarse los métodos que calculan los valores propios a
partir de él.

4.1 Ejemplos tı́picos de problemas espectrales


Muchos problemas técnicos importantes consisten, en esencia, en encontrar los au-
tovectores y los autovalores de una cierta aplicación lineal definida en un espacio
de dimensión finita. Veamos algunos ejemplos:

Ejemplo 4.1.1
Ya sabemos (pág 83) que la norma de una aplicación lineal entre espacios euclı́deos
f : Rn → Rn , es la raiz cuadrada del radio espectral de f ? f. Para n = 2 o 3,
podemos ver el significado geométrico de este resultado:
p
kfk = max{kf(x)k2 | kxk2 = 1} = ρ(f ? f)
1
Para obtener la expresión del polinomio de coeficientes p puedo usar la orden de
MATLAB P = poly2sym(p).
4.1. EJEMPLOS TÍPICOS DE PROBLEMAS ESPECTRALES 171

Si f es biyectiva, como C = {x | kxk2 = 1} es la circunferencia o la esfera unidad,


f(C) será una elipse o un elipsoide. Como f : C → Rn es continua, existen dos
autovectores de f ? f, xm y xM , cuyos transformados f(xm ) y f(xM ) serán los
semiejes menor y mayor de la elipse o del elipsoide. En la elipse, no hay nada que
añadir pero en el elipsoide, tendremos un tercer autovalor xo , ortogonal a xm y xM ,
tal que f(xo ) será el tercer semieje. Podemos visualizar todo esto en el programa
semiejes de Modus.

Ejemplo 4.1.2
En el estudio del movimiento de un sólido rı́gido es importante saber que dadas
dos posiciones del sólido que mantengan un punto fijo O siempre se puede pasar
de una a la otra mediante una rotación alrededor de un eje que pasa por O. Para
demostrar este importante resultado de Euler podemos razonar del siguiente modo:

Un sistema de referencia ortonormal {O; i, j, k} ligado al sólido en la posición 1


pasa a ser en la posición 2 otro sistema de referencia ortonormal {O; i0 , j0, k0 } con
la misma orientación. Tal cambio de sistema de referencia viene dado por una
aplicación lineal cuya matriz asociada A es ortogonal, es decir,

A−1 = A?

Todo valor propio λ de A, ha de cumplir que Ax = λx y, en consecuencia,

(x |x) = (x |A? Ax) = (Ax | Ax) = λ2 (x | x) ⇒ λ2 = 1

Además, ha de ser raı́z de la ecuación



a11 − λ a12 a13

det(A − λI) = a21 a22 − λ a23 = −λ3 + tr(A)λ2 − Dλ + det A = 0
a31 a32 a33 − λ

con tr(A) = a11 + a22 + a33 y D = a12 a21 + a13 a31 + a23 a32
y, como det A = 1, las tres raices de esta ecuación tienen su producto igual a 1. Si
las tres son reales al menos una será positiva y, por tanto, igual a 1. Pero si sólo
una es real, ella misma debe ser positiva y, por tanto, igual a 1. Ası́, A tiene un
valor propio igual a 1 y, en consecuencia, un vector propio e tal que A(e) = e. Ası́,
A representa un giro de eje e.

Ejemplo 4.1.3
Un campo lineal viene dado por una función
F : R3 → R3
x 7 → Ax
donde A es una matriz real 3 × 3. Como estas matrices o tienen sus tres autoval-
ores reales, o tienen un autovalor real y dos complejos conjugados, bajo elecciones
adecuadas de los sistemas de referencia, son de una de las dos formas siguientes:
   
k1 k1 −k2
A= k2  o A = k2 k1  con k2 6= 0
k3 k3
172 TEMA 4. PROBLEMAS ESPECTRALES

Los campos del segundo tipo se descartan por no ser conservativos, ya que tienen
rotacional no nulo:

i  k
∂ ∂ ∂

rotF (x) = = 2k2 6= 0.
∂x ∂x ∂x
k x −1k x k x +2k x k x3
1 1 2 2 2 1 1 2 3 3

Por ello, los campos lineales conservativos son de la forma F (x) = −Dx donde D
una matriz diagonal.

El centro de un campo F : R3 → R3 es un punto c ∈ R3 que cumple:



F (c) = o

∀x ∈ R3

∃λx ∈ R+ tal que F (x) = −λx (x − c)

Si un campo tiene centro diremos que es un campo central pero, naturalmente, no


todo campo es central.
Si un campo lineal conservativo tiene centro c, tras una traslación, podemos supon-
erlo en el origen. Entonces, tenemos asegurada una base de autovectores {v1 , v2 , v3 }
tales que
Dvi = ki vi ∀i = 1, 2, 3
y para cada x = x1 v1 + x2 v2 + x3 v3 un número no negativo λx tal que

Dx = λx x

Ası́,
3
X 3
X
Dx = λx xi vi = ki xi vi
i=1 i=1

y, por la unicidad de representación de un vector en la base,

k1 = k2 = k3 = λx

Por tanto, D = kI donde k es una constante positiva.

Una partı́cula de masa m, sometida a un campo lineal conservativo


F : R3 → R3
x 7 → −Dx
se mueve en el vacı́o según la ecuación diferencial
·· ··
m x +mDx = o , es decir, x +Dx = o

Esta ecuación vectorial tiene tres componentes escalares


 ··
x +k1 x1 = 0
 1



··
x2 +k2 x2 = 0



 ··
x3 +k3 x3 = 0
4.2. TEORÍA ESPECTRAL FINITO DIMENSIONAL 173

cuyas soluciones generales dependen de los signos de los valores {k1 , k2 , k3 }.


Si los tres son positivos, designando ωi2 = ki ∀i = 1, 2, 3, tenemos
 ··

x1 +ω12 x1 = 0


··
x2 +ω22 x2 = 0



 ··
x3 +ω32 x3 = 0

y sus soluciones nos dan las trayectorias y velocidades


 ·
x1 (t) = A1 cos(ω1 t − a1 )
 x1 (t) = −ω1 A1 sin(ω1 t − a1 )

·
x2 (t) = A2 cos(ω2 t − a2 ) y x2 (t) = −ω2 A2 sin(ω2 t − a2 )

 
·
x3 (t) = A3 cos(ω3 t − a3 ) x3 (t) = −ω3 A3 sin(ω3 t − a3 )

que, por ser acotadas, podemos llamar oscilaciones aunque, en general, no son
periódicas. Para que lo sean, es necesario que los tres subperiodos

Ti = ∀i = 1, 2, 3
ωi
sean conmensurables, es decir, es necesario que exista una tripleta de números
naturales (N1 , N2 , N3 ) tales que N1 T1 = N2 T2 = N3 T3 o, equivalentemente,
tales que
N12 N2 N2
= 2 = 3.
k1 k2 k3
Podemos ver la trayectoria de una partı́cula bajo la acción de diferentes campos
lineales conservativos con el programa osciladorestipo de Modus.

4.2 Teorı́a espectral finito dimensional


El lector conoce los resultados contenidos en las siguientes observaciones. Tómense,
por tanto, como un recordatorio de lo esencial de esta teorı́a.

Observaciones 4.2.1

1. f es inyectiva si y sólo si todos sus autovalores son no nulos.


2. Los autovalores de f ? son los mismos que los autovalores de f.
3. Los autovalores de f −1 son los inversos de los autovalores de f.
4. Puesto que f : Rn → Rn , los autovectores asociados a un autovalor complejo
α + iβ, tendrán que ser complejos u + iv. La igualdad
(
f(u) = αu − βv
f(u + iv) = (α + iβ)(u + iv) ⇔
f(v) = βu + αv

significa que el plano [u, v] es globalmente invariante por f pero no contiene


ningún rayo que permanezca invariante. Esta situación se da ya en R2 si f
es un giro.
174 TEMA 4. PROBLEMAS ESPECTRALES

El plano [u, v] también está en el subespacio propio del autovalor conju-


gado α − iβ lo cual es importante para que exista correspondencia entre el
cardinal de un subconjunto de autovalores y la dimensión de la suma de sus
subespacios propios.

5. Si f = f ? decimos que f es autoadjunta y su matriz asociada, en cualquier


base {vi }, es simétrica ya que (f(vi ) | vj ) = (f(vj ) | vi ) ∀i, j. Además,
todos sus autovalores son reales pues, suponiendo que α + iβ es autovalor,
( (
f(u) = αu − βv (f(u) | v) = α(u | v) − β(v | v)

f(v) = βu + αv (f(v) | u) = β(u | u) + α(v | u)

y, restándolas, β [(u | u) + (v | v)] = 0, lo cual implica que β = 0.


Finalmente, los autovectores de autovalores distintos son ortogonales:
( (
f(u) = λi u (f(u) | v) = λi (u | v)
⇒ ⇒ (λi − λj )(u | v) = 0
f(v) = λj v (f(v) | u) = λj (v | u)

6. Dada cualquier aplicación lineal f : Rn → Rn es claro que f ? f es autoadjunta.


Los autovalores de f ? f son todos reales y no negativos. Sus raices cuadradas
positivas son los valores singulares de f. Si f está representada por la
matriz A, la orden de MATLAB

[U DV ] = svd(A)

nos devuelve una matriz diagonal D con los valores singulares de f ordena-
dos de mayor a menor y repetidos según su multiplicidad algebraica y dos
matrices unitarias U y V que cumplen

U ·D·V0 =A

7. La multiplicidad geométrica de un autovalor siempre es igual o menor que su


multiplidad algebraica: Si dim Vλi = di podemos tomar en Vλi los vectores
independientes {v1 , · · · , vdi } y ampliar hasta una base {vi } de Rn . La matriz
de f en dicha base será
 .. 
λ ··· 0 .
 i 
 .. .. 
 . . X 
 
 .. 
0 λi . 
B=
 ..



 ··· ··· . ··· ··· 

 .. 

 0 . B̄ 

..
.

luego det(B − λI) = (λi − λ)di det(B̄ − λIn−di ) y, ası́, αi ≥ di .

8. La suma de subespacios propios V1 + V2 + · · · + Vr es directa:


4.2. TEORÍA ESPECTRAL FINITO DIMENSIONAL 175

(a) Veamos que V1 + V2 es suma directa probando que si x1 ∈ V1 y


x2 ∈ V2 son vectores no nulos, son independientes:
Si a1 x1 + a2 x2 = 0 es claro que f(a1 x1 + a2 x2 ) = 0, luego se
cumplen las dos ecuaciones
(
a1 x1 + a2 x2 = 0
λ1 a1 x1 + λ2 a2 x2 = 0

Multiplicando la primera por λ2 y restándole la segunda tenemos

(λ2 − λ1 )a1 x1 = o luego a1 = 0 y, también, a2 = 0.

(b) Supongamos que V1 +· · ·+Vr−1 es suma directa y probemos que también


lo es V1 + · · · + Vr−1 + Vr demostrando que si xi ∈ Vi son no nulos para
i = 1, · · · , r, son independientes: P 
Pr−1 r−1
Si i=1 ai xi + ar xr = o es claro que f i=1 a i xi + a r xr = o luego
se cumplen las dos ecuaciones
(
a1 x1 + · · · + ar−1 xr−1 + ar xr = 0
λ1 a1 x1 + · · · + λr−1 ar−1 xr−1 + λr ar xr = 0

Multiplicando la primera por λr y restándole la segunda tenemos


r−1
X
(λr − λi )ai xi = 0
i=1

Por la hipótesis de inducción a1 = · · · = ar−1 = 0 y, entonces, también


ar = 0.
9. Si coinciden las multiplicidades geométrica y algebraica de todos los auto-
valores de f : Rn → Rn , tendremos que d1 + · · · + dr = n y Rn =
Vλ1 ⊕ · · · ⊕ Vλr . Podremos elegir una base {vi } en la que la matriz de f
sea diagonal por bloques. Los bloques correspondientes a autovalores reales
serán matrices diagonales con todos sus elementos iguales.
10. Si f : Rn → Rn es autoadjunta existe en Rn una base ortonormal {ui }
constituida por autovectores de f respecto de la cual su matriz asociada es
diagonal D = U −1 · A · U y U ortogonal:
Sean {λ1 , · · · , λr } todos los autovalores distintos de f. Sabemos que son
reales y que E = Vλ1 ⊕ · · · ⊕ Vλr es suma ortogonal.

Si E = Rn , habremos concluido. En otro caso, n
( R = E⊕E y lleg-

f(E ) ∩ E 6= {o}
amos al absurdo en las dos posibles alternativas .
f(E⊥ ) ⊂ E⊥
En la primera ∃v ∈ E⊥ y ∃u ∈ E no nulo tal que f(v) = u, luego,

0 6= (u | u) = (f(v) | u) = (v | f(u)) = 0

En la segunda la restricción f |E⊥ : E⊥ → E⊥ tendrı́a un autovalor λ ∈


/
{λ1 , · · · , λr } que también serı́a autovalor de f : Rn → Rn .

De los anteriores puntos se deduce el siguiente enunciado fundamental


176 TEMA 4. PROBLEMAS ESPECTRALES

Teorema 4.2.2 Teorema espectral de operadores autoadjuntos.


Una f : Rn → Rn lineal es autoadjunta si y sólo si existe una base ortonormal {ui }
y una n-tupla de números reales {λi } tales que
n
X
f(x) = λi (ui | x)ui ∀x ∈ Rn
i=1

Es decir, si y solo si f admite la siguiente representación espectral


n
X
f= λi ui ⊗ ui
i=1

Además, f es inyectiva si y sólo si todos los λi son no nulos.

Demostración:
Si f tiene esa representación es claramente autoadjunto. Además, los λi son sus
autovalores y los ui sus autovectores asociados.
Si f es autoadjunta existe una n-tupla {λi } de autovalores y una base ortonormal
de autovectores asociados {ui }. Entonces,
n
X n
X n
X
x= (ui | x)ui ⇒ f(x) = (ui | x)f(ui ) = λi (ui | x)ui ♦
i=1 i=1 i=1

Conocida la representación espectral de una aplicación autoadjunta inyectiva, es


inmediato resolver los problemas lineales que la involucran pues si
n
X
f= λi ui ⊗ ui con λi 6= 0
i=1
n
X n
X n
X
basta escribir b = (ui | b)ui , e igualar λi (ui | x)ui = (ui | b)ui . En-
i=1 i=1 i=1
tonces,
n
(b | ui ) X (b | ui )
(ui | x) = ∀i = 1, · · · , n y x= ui .
λi λi
i=1

Este método está implementado en el programa representacionespectralfd de


Modus. En dimensión finita, suele resultar más caro hallar la representación es-
pectral de una aplicación que resolver un problema lineal que la involucre. Por
ello, este programa está pensado para el caso en que debamos resolver el mismo
problema para una gran cantidad de datos diferentes. Además, su método se puede
extender a ciertos operadores autoadjuntos entre espacios de dimensión infinita,
donde no son fáciles otros métodos.

Teorema 4.2.3 Teorema espectral de operadores cualesquiera.


Dado un operador f : Rn → Rm de rango r, existen conjuntos ortonormales
{u1, · · · , ur } ⊂ Rn e {v1 , · · · , vr } ⊂ Rm y reales positivos {λ1 , · · · , λr } tales que
r
X
f = λi ui ⊗ vi
i=1
4.2. TEORÍA ESPECTRAL FINITO DIMENSIONAL 177

Demostración:
El teorema 4.2.2 asegura para el operador f ? f : Rn → Rn una base ortonormal
{u1 , · · · , ur , ur+1 , · · · , un } de Rn constituida por vectores propios de f ? f con au-
tovalores correspondientes µ1 ≥ · · · ≥ µr > 0, · · · , 0 tales que
r
(
X [u1 , · · · , ur ] = im f ? f = im f
f?f = µi ui ⊗ ui y
i=1
[ur+1 , · · · , un ] = ker f ? f = ker f
r
? 1
X √
El operador p = (f f) = 2 µi ui ⊗ ui cumple
i=1

kp(x)k2 = (p2 (x)|x) = (f ? f(x)|x) = kf(x)k2 ∀x ∈ Rn


y, en consecuencia, podemos definir el operador isométrico
U0 : p(Rn ) → Rm
p(x) 7 → f(x)
y extenderlo al operador
p U
f : Rn → p(Rn ) →0 Rm
x 7 → p(x) 7→ f(x)
Entonces,
r
! r
X √ X √
f(x) = U0 µi (ui |x)ui = µi (ui |x)U0 (ui ) ∀x ∈ Rn
i=1 i=1
(
vi = U0 (ui )
y el teorema queda probado con √ ∀i = 1, · · · , r. ♦
λi = µi

Corolario 4.2.4
Todo operador lineal lineal f : Rn → Rm tiene un único inverso de Moore-Penrose
f + : Rm → Rn que cumple las siguientes propiedades
1. f · f + · f = f
2. f + · f · f + = f +
3. f · f + = (f · f + )t
4. f + · f = (f + · f)t
Demostración:
El teorema 4.2.3 asegura para un operador f : Rn → Rm de rango r, conjuntos
ortonormales {u1 , · · · , ur } ⊂ Rn , {v1 , · · · , vr } ⊂ Rm y un conjunto de reales es-
Xr
trictamente positivos {λ1 , · · · , λr } tales que f = λi ui ⊗ vi . Es inmediato
i=1
comprobar que el operador
r
X 1
f+ = vi ⊗ ui : Rm → Rn
i=1
λi

cumple las propiedades citadas. La unicidad se probó en el teorema ?? ♦.


178 TEMA 4. PROBLEMAS ESPECTRALES

Observación 4.2.5
En 3.6.6 hemos tratado el problema de hallar el vector de norma euclı́dea mı́nima
en la variedad Mb = {x ∈ Rn | f(x) = b} siendo f : Rn → Rm una aplicación lineal.
Allı́ concluı́mos que debı́a ser un xm ∈ (x0 + ker f) ∩ [ker f]⊥ con f(x0 ) = b.
Si x0 = f + (b), resulta que f(x0 ) = b y x0 +0 ∈ [ker f]⊥ y, por tanto, xm = f + (b).
En MATLAB obtenemos este vector mediante la orden xm = pinv(f) · b.

4.2.6 Método de la potencia


A pesar de la comodidad y precisión de la orden [CD] = eig(A) de MATLAB,
presentamos un método para calcular el autovalor de mayor módulo cuando su mu-
tiplicidad algebraica es uno.

Sea A ∈ Mn una matriz diagonalizable cuyos autovalores cumplen


|λ1 | > |λ2 | ≥ · · · ≥ |λn |
Elegimos un vector x0 cualquiera de norma 1 y lo expresamos en términos de una
base de vectores propios normalizados {v1 , v2 , · · · , vn }
x0 = α1 v1 + α2 v2 + · · · + αn vn .
El siguiente proceso iterativo
 
λ2 λn
x1 := Ax0 = λ1 α1 v1 + α2 v2 + · · · + αn vn
λ1 λ1
 2  2 !
λ2 λn
x2 := Ax1 = λ21 α1 v1 + α2 v2 + · · · + αn vn
λ1 λ1
···
 k  k !
λ2 λn
xk := Axk−1 = λk1 α1 v1 + α2 v2 + · · · + αn vn
λ1 λ1
···
nos define una (xn ) que, si la normalizamos, debe tender a v1 puesto que
 k
λi
lim = 0 ∀i = 2, · · · , n
k→∞ λ1

En tal caso, (Av1 |v1 ) será el autovalor de mayor módulo de A.

Por otra parte, si recordamos que los autovalores de A−1 son los inversos de los
autovalores de A y que ker(A) es el subespacio propio del autovalor nulo cuando
A no es inyectiva, podremos hallar, también, el autovalor de A de menor módulo.
Finalmente, si observamos que la matriz A − mI tiene por autovalores los de la
matriz A disminuidos en m podemos especializar el procedimiento para calcular el
autovalor de A más próximo a un número arbitrario.

El programa metododelapotencia de Modus recoge estas ideas para obtener


los autovalores y autovectores de matrices del tipo A? A que siempre son diagonal-
izables.
4.3. TEORÍA ESPECTRAL EN ESPACIOS DE HILBERT 179

4.3 Teorı́a espectral en espacios de Hilbert


El significado y utilidad de la teorı́a espectral alcanza su máxima importancia en
los problemas lineales infinito dimensionales. El teorema espectral para operadores
autoadjuntos que hemos probado en los espacios euclı́deos se puede extender sin
dificultad a los espacio de Hilbert separables. La falta de compacidad de la bola
unidad cerrada se puede salvar apoyándonos en que la bola unidad de un espacio de
Hilbert es débilmente secuencialmente compacta si nos limitamos a los operadores
compactos que convierten la convergencia débil en convergencia fuerte.

Teorema 4.3.1
En un Hilbert X todo operador autoadjunto f : X → X cumple:

kfk = sup {|(f(x)|x)|}


x∈B

Demostración:
Es claro que Rf := sup {|(f(x)|x)|} ≤ kfk. Para probar la desigualdad contraria
x∈B
designamos (f(x)|x) = Qf (x), aprovechamos la simetrı́a de la condición de au-
toadjunto

kfk = sup {kf(x)k} = sup { sup {(f(x)|y)}} = sup {(f(x)|y)}


x∈B x∈B y∈B x,y∈B

y tenemos en cuenta la siguiente cadena de desigualdades


Qf (x + y) − Qf (x − y) |Qf (x + y)| + |Qf (x − y)|
(f(x)|y) = ≤ ≤
4 4
kx + yk2 + kx − yk2 kxk2 + kyk2
≤ Rf = Rf ≤ Rf ∀x, y ∈ B ♦
4 2

Teorema 4.3.2 Teorema de la w-compacidad secuencial de B


Toda sucesión contenida en la bola unidad cerrada B de un Hilbert X tiene una
subsucesión w-convergente a un punto de dicha bola.
Demostración:
Sea {xn } ⊂ B. Como H = [{xn }] es un Hilbert separable tiene un subconjunto
denso numerable D = {an }. Por ser acotada la sucesión real {(a1 |xn )},

∃{x1n } subsucesión de {xn } tal que {(a1 |x1n )} → y1

y, de igual modo,

∃{x2n } subsucesión de {x1n } tal que {(a2 |x2n )} → y2

∃{x3n } subsucesión de {x2n } tal que {(a3 |x3n )} → y3


······
La subsucesión diagonal {xnn } cumple que {(ai |xnn )} → yi ∀ai ∈ D. A partir
de ella generamos la aplicación
180 TEMA 4. PROBLEMAS ESPECTRALES

ϕ: H → R
h 7 → lim {(xnn |h)}
n→∞

que está bien definida por ser {(xnn |h)} convergente ∀h ∈ H. En efecto:
ε
Dado h ∈ H y ε > 0 existe aih ∈ D tal que kh −aih k ≤ . Entonces
4
|(h|xnn) − (h|xmm )| ≤ |(h − aih |xnn − xmm )| + |(aih |xnn − xmm )|
y como

|(h − aih |xnn − xmm )| ≤ ε kxnn − xmm k ≤ ε por ser {xnn } ⊂ B
4 2
|(aih |xnn − xmm )| ≤ ε ∀n, m > Ne por ser {(ai |xnn )} de Cauchy
2
resulta que {(xnn |h)} es de Cauchy ∀h ∈ H.
Además, ϕ es claramente lineal y es acotada con kϕk ≤ 1 porque
|ϕ(h)| ≤ lim kxnn k khk ≤ khk
n→∞
pH ϕ
Podemos extender ϕ a una forma lineal acotada f : X −→ H − → R donde pH es
la proyección normal. Como kfk = kϕ ◦ pH k ≤ kϕk kpH k ≤ 1, si identificamos
f ∈ X ? con un u ∈ X que está en B y cumple:
w
{(xnn |y)} → (x|y) ∀y ∈ X . Luego {xnn } −
→x∈B ♦

Definición 4.3.3
Un operador f ∈ B(X) se dice compacto si transforma la bola unidad B en un con-
junto totalmente acotado. Ello equivale (ver pág. 27) a que f(B) sea compacto.
Al conjunto de todos los operadores compactos de B(X) lo designamos K(X) y,
claramente, contiene al conjunto de todos los operadores de rango finito F(X).
( w w
{xn } −
→ x ⇒ {f(xn )} − → f(x)
Si f ∈ B(X) es claro que pero los op-
{xn } → x ⇒ {f(xn )} → f(x)
eradores compactos transforman sucesiones w-convergentes en convergentes y por
ello se dice que son completamente continuos.

Lema 4.3.4

(
f ∈ K(X)
w ⇒ {f(xn )} → f(x)
{xn } −
→x
Demostración:
Si {f(xn )} 6→ f(x) existe ρ > 0 y una subsucesión {zn } de {xn } tal que kf(zn ) −
f(x)k > ρ. Como {zn } es acotada y f es compacto, existe una subsucesión {wn }
de {zn } tal que {f(wn )} converge fuertemente a un cierto punto y0 ∈ X que,
obviamente, será distinto de f(x). Como el lı́mite débil de una sucesión es único,
llegamos al siguiente absurdo:
( w w
{wn } −→x ⇒ {f(wn )} − → f(x)
w y y0 6= f(x) ♦
{f(wn )} → y0 ⇒ {f(wn )} −→ y0
4.3. TEORÍA ESPECTRAL EN ESPACIOS DE HILBERT 181

Teorema 4.3.5
K(X) es un ideal cerrado del álgebra B(X)
Demostración:
Es fácil ver que la suma de dos operadores compactos es un operador compacto y
que el producto de un operador compacto por un escalar es un operador compacto.
Es decir, K(X) es un subespacio vectorial de B(X).

Ser un ideal significa que si f ∈ K(X) tanto g ◦ f como f ◦ g también están en


K(X) cualquiera que sea g ∈ B(X):
g ◦ f(B) = g(f(B)) es el transformado de un conjunto totalmente acotado por una
función continua, luego es totalmente acotado.
f ◦ g(B) ⊂ kgkf(B), luego también es totalmente acotado.

Probemos, finalmente, que K(X) es cerrado en B(X):


Sea {fn } ⊂ K(X) una sucesión convergente a g ∈ B(X). Veremos que g ∈ K(X)
comprobando que g(B) es totalmente acotado:
Dado ε > 0 existe n0 tal que kfn0 − gk < 2ε . Como fn0 es compacto,
p
[ ε
∃{x1 , ..., xp} ⊂ X tal que fn0 (B) ⊂ {xi + B}
i=1
2

Por tanto,
( p
kg(v) − fn0 (v)k < ε2 [
∀v ∈ B ⇒ ε
⇒ g(B) ⊂ {xi + εB} ♦
∃ xi0 tq kfn0 (v) − xi0 k < 2 i=1

Lema 4.3.6
Sea X un espacio de Hilbert y sea f : X → X un operador compacto y autoadjunto.
Existe un u1 unitario y un θ ∈ {−1, 1} tal que

fu1 = θkfku1

Demostración:
Según el memorándum ??.4.3.1 ∃{xn } ⊂ B tal que kfk = lim {|(fxn |xn )|}
n→∞
w
El teorema 4.3.2 nos permite suponer que {xn } − → u1 ∈ B y la compacidad de f
y el lema 4.3.4 aseguran que el supremo es accesible

kfk = sup{|(fx|x)|} = |(fu1 |u1)| y, a fortriori, ku1 k = 1


B

Ası́, existe un θ ∈ {−1, 1} tal que kfk = θ(fu1 |u1 ) y, entonces2


2
fu1 − θkfku1 = kfu1 k2 − 2θkfk(fu1 |x0 ) + kfk2

luego
2
fu1 − θkfku1 ≤ kfk2 − 2kfk2 + kfk2 = 0 ♦

2
Nótese que si f es no nulo, también lo es u1
182 TEMA 4. PROBLEMAS ESPECTRALES

Teorema 4.3.7 Teorema espectral de los compactos autoadjuntos

Sea X un espacio de Hilbert separable. Todo operador f : X → X compacto,


autoadjunto e inyectivo admite una representación

X
f= λi ui ⊗ ui
i=1

donde {ui } es una base ortonormal de vectores propios y {λi } es la sucesión de


valores propios, todos no nulos, que converge a 0.
Demostración:
Sea u1 el vector unitario asegurado para f en el lema 4.3.6.
Si x ∈ [u1 ]⊥ = X1 ⇒ f(x) ∈ [u1 ]⊥ = X1 y, por tanto, f |X1 := f1 es un
operador compacto y autoadjunto en el Hilbert separable X1 .
Sea u2 el vector unitario asegurado para f1 en el lema 4.3.6.
Si x ∈ [u1 , u2 ]⊥ = X2 ⇒ f(x) ∈ [u1 , u2 ]⊥ = X2 y, por tanto, f |X2 := f2
es compacto y autoadjunto en el Hilbert separable X2 .
Sea u3 el vector unitario asegurado para f2 en el lema 4.3.6...
De esta forma construimos una sucesión ortonormal {ui } de autovectores de f
asociados a la sucesión de autovalores {λi } siguiente

|λ1 | = kfk ≥ kf1 k = |λ2 | ≥ kf2 k = |λ3 | ≥ · · ·

Como {ui } * o y f es compacto, {f(ui )} → o y, por tanto, {λi } → 0.


Probaremos que [{ui}]⊥ = Y es el ker f. Si ası́ no fuera, tendrı́amos el operador
no nulo f|Y con 0 < kf|Y k ≤ kf(ui )k pero ello está en contra de que {f(ui )} → o.

Teorema 4.3.8 Teorema espectral de operadores compactos

Sea X un espacio de Hilbert separable. Todo operador f ∈ K(X) inyectivo admite


una representación
X∞
f = λi ui ⊗ vi
i=1

donde {ui } es una base ortonormal, {vi } un conjunto ortonormal y {λi } es una
sucesión escalar nula.
Demostración:
Como X es separable tiene una base ortonormal {ui }. Claramente
∞ ∞
X X f(ui )
f(x) = (x|ui )f(ui ) = kf(ui )k(x|ui )
i=1 i=1
kf(ui )k
n o
f(ui )
Si {ui } pudiera ser elegida de modo que {vi } = kf(u i )k también fuese ortonor-
mal, el teorema quedarı́a probado con {λi } = {kf(ui k} pues, por ser f completa-
mente continuo y ser {ui } * o tendrı́amos que {λi } → 0.
Basta elegir {ui } como la que asegura el teorema 4.3.7 para el operador f ? f que
es compacto autoadjunto e inyectivo. ♦
4.3. TEORÍA ESPECTRAL EN ESPACIOS DE HILBERT 183

Corolario 4.3.9

Si X es un Hilbert separable F(X) = K(X).


Demostración:
Si f : X → X es de rango finito, f(B) es cerrado y acotado en f(X) cuya dimensión
es finita, luego compacto en él y, a fortriori, compacto en X.
Entonces, F(X) ⊂ K(X) y, por tanto, F(X) ⊂ K(X) = K(X) por ser éste un
ideal cerrado (teorema 4.3.5).
Para el contenido contrario basta partir de un f ∈ K(X) inyectivo. Entonces, el
teorema 4.3.8 asegura que

X n
X
f= λi ui ⊗ vi , luego f = lim fn con fn = λi ui ⊗ vi ∈ F(X) ♦
n→∞
i=1 i=1

Teorema 4.3.10 (Alternativa de Fredholm )

Sea (X, k k) un espacio de Hilbert separable, sea L ∈ B(X) un operador compacto


y autoadjunto y sea λ un número real. Sólo dos cosas pueden suceder:
1. El problema (L − λI)(x) = y tiene solución para todo y ∈ X
2. El problema (L − λI)(x) = 0 tiene alguna solución no nula.
En el primer caso la solución de (L − λI)(x) = y es única y depende continuamente
del dato y.
En el segundo caso, el problema (L − λI)(x) = y tiene solución si y sólo si y es
ortogonal a todas las soluciones del problema (L − λI)(x) = 0
Demostración
La alternativa es clara:
1. O bien λ no es autovalor de L.
2. O bien λ es autovalor de L.
Es decir,
1. O bien (L − λI)(x) = 0 tiene sólo la solución nula.
2. O bien (L − λI)(x) = 0 tiene alguna solución no nula.
Por ser L autoadjunto, también lo es L − λI y, por las relacones de Lörch es claro
que
1. ⇔ ker(L − λI) = {0} ⇔ im(L − λI) = X
Luego, en el primer caso, L − λI es una aplicación lineal, continua y biyectiva y
(L − λI)−1 que es lineal, por 1.7.13 también es continua. Ası́, la solución x =
(L − λI)−1 (y) es única y depende continuamente de y.
En el segundo caso, (L − λI)(x) = y tiene solución si y sólo si y ∈ im(L − λI) y,
Lörch nos asegura, de nuevo, que im(L − λI) = [ker(L − λI)]⊥ . ♦

Observaciones 4.3.11
184 TEMA 4. PROBLEMAS ESPECTRALES

1. Si (X, k k) es un espacio de Hilbert separable, L ∈ B(X) es un operador


compacto y autoadjunto y λ 6= 0 no es autovalor de L podemos expresar la
única solución del problema (L − λI)x = y de la forma

X (y|un )
un
λ
n=1 n
−λ

siendo (un ) la base ortonormal de vectores propios de L y (λn ) la correspon-


diente sucesión de valores propios.
2. Si λ 6= 0 es autovalor, sabemos que el problema (L − λI)x = y tiene solución
si y sólo si y ∈ [ker(L − λI)]⊥ .
Suponiendo que y cumple esta condición y que ker(L − λI) = [u1, · · · , uk ]
tenemos una variedad de soluciones que se pueden expresar en la forma

X (y|un)
[u1 , · · · , uk ] + un
λn − λ
n=k+1

En efecto, siempre existe un µ ∈ R tal que λ + µ no es autovalor de L.


Entonces, nuestro problema (L − λI)x = y es equivalente al problema (L −
(λ + µ)I)x = y − µx que está en el caso primero. Su solución es, por tanto,
de la forma
∞ k ∞
X (y − µx|un) X X (y − µx|un)
un = (x|un )un + un
n=1
λn − λ − µ n=1
λn − λ − µ
n=k+1

Entonces debe cumplirse que


(y − µx|un )
(x|un ) = ∀n > k
λn − λ − µ
y, despejando,
(y|un)
(x|un ) = un ∀n > k ♦
λn − λ
3. El teorema 4.3.10 también se cumple cuando λ = 0 pero, en tal caso, no
podemos asegurar la convergencia de las series que nos aparecen en los dos
puntos anteriores. Para que dichas series representen las soluciones debemos
exigir respectivamente que
∞ ∞
X (y|un)2 X (y|un )2
<∞ y < ∞.
n=1
λ2n λ2n
n=k+1

Un tipo especial de operadores compactos muy importantes en la técnica son los


que introducimos a continuación

Definición 4.3.12
Sea (X, k k) un espacio de Hilbert separable. Un operador H ∈ B(X) se dice de
Hilbert-Schmidt si existe una base hilbertiana (un ) tal que

X
kH(un )k2 < ∞
n=1
4.3. TEORÍA ESPECTRAL EN ESPACIOS DE HILBERT 185

Observaciones 4.3.13

1. La identidad de Parseval (ver 1.10.9) asegura, para cualquier otra base hilber-
tiana (vm ), que
∞ ∞ ∞
!
X X X
kH(un )k2 = |(H(un ) | vm )|2 =
n=1 n=1 m=1

∞ ∞
! ∞
X X X
2
= ?
|(un | H (vm ))| = kH ? (vm )k2
m=1 n=1 m=1

X
Esto prueba que kH(un )k2 no depende de la base inicial (un ) y, además,
n=1
si designamos HS(X) al conjunto de todos los operadores de Hilbert-Schmidt
del espacio de Hilbert separable (X, k k), resulta que H ∈ HS(X) si y sólo si
H ? ∈ HS(X).
2. La función
N: HS(X) → R

! 21
X
2
H 7→ kH(un )k
n=1

está bien definida porque no depende de la base (un ) y nos permite probar
que HS(X) es subespacio vectorial de B(X). En efecto:
(a) Si H ∈ HS(X) y λ ∈ R es claro que λH ∈ HS(X)
(b) Si H, G ∈ HS(X) tenemos ∀m ∈ N que

m
! 21 m
! 21
X X
2 2
kH(un ) + G(un )k ≤ (kH(un )k + kG(un )k) ≤ N(H)+N(G)
n=1 n=1

Luego, N(H + G) ≤ N(H) + N(G) < ∞ y H + G ∈ HS(X).


A fortiori, tenemos que N : HS(X) → R es una norma pues, N1, N2 y N3 son
claras y N4 acaba de ser probada. Esta norma procede del siguiente producto
escalar, que tampoco depende de (un ),

( | ): HS(X) × HS(X) → R

X
(H, G) 7→ (H(un )|G(un ))
n=1

3. HS(X) es un ideal en B(X) pues ∀(H, L) ∈ HS(X) × B(X) tenemos:


(a) kL ◦ H(un )k2 ≤ kLk2 · kH(un )k2 luego N(L ◦ H) ≤ kLk · N(H) y, por
tanto, L ◦ H ∈ HS(X).
(b) (H ◦ L)? = L? ◦ H ? ∈ HS(X) luego H ◦ L ∈ HS(X).
4. HS(X) ⊂ K(X). En efecto:
Todo H ∈ HS(X) es lı́mite de los operadores de rango finito
186 TEMA 4. PROBLEMAS ESPECTRALES

Hk : X → X
k
X
x 7→ (x|un )H(un )
n=1

que son acotados porque, por Hölder, tenemos


k
X
kHk (x)k ≤ |(x|un)| kH(un )k≤N(H)kxk
n=1

y, nuevamente, por Hölder,



X ∞

kH(x) − Hk (x)k = (x|un )(H − Hk )(un ) ≤N(H − Hk )kxk.

n=k+1

Como (N(H − Hk )) → 0, (kH − Hk k) → 0 y (Hk ) → H.

El espacio de Hilbert más útil para el técnico es L2 [a, b]. Este espacio es separable
pues, por el teorema 1.9.1, la sucesión de polinomios en una variable (tn−1 ) es densa
en (C[a, b], k k∞) y, a su vez, éste es denso en L2 [a, b].

Es interesante observar que si (en ) es una base ortonormal de L2 [a, b], (enm )
es una base ortonormal de L2 ([a, b] × [a, b]) donde
enm : [a, b] × [a, b] → R
(t, s) 7→ en (t) · em (s)

Teorema 4.3.14
Una aplicación lineal H : L2 [a, b] → L2 [a, b] está en HS(L2 [a, b]) si y sólo si existe
una función G ∈ L2 ([a, b] × [a, b]), llamada función de Green tal que ∀φ ∈
L2 [a, b]
H(φ) : [a, b] → R
Z b
s 7→ G(t, s)φ(t)dt
a

Además, H es autoadjunto si y sólo si G es simétrica.


Demostración:
Si H admite la representación integral mencionada, es acotado porque
Z Z !2
b b
kH(φ)k2 = G(t, s)φ(t)dt ds ≤ (Hölder)
a a

Z Z ! Z !
b b b
≤ |G(t, s)|2 dt · |φ(t)|2 dt ds = kGk2 kφk2
a a a

Usando la igualdad de Parseval al principio y al final, tenemos


∞ ∞ ∞
!
X X X
2 2
kH(en )k = |(H(en ) | em )| =
n=1 n=1 m=1
4.4. PROBLEMAS DE STURM-LIOUVILLE 187

2
∞ Z b
X

= H(en )(s) · em (s)ds =
a
n,m=1
" # 2
∞ Z b Z b
X ∞
X 2
|(G | enm)| = kGk2

= G(t, s)(en )(t)d(t) · em (s)ds =
a a
n,m=1 n,m=1
2
y, por tanto, H ∈ HS(L [a, b]). Además, si G es simétrica, H es autoadjunto:
Z b Z "Z #
b b
(H(φ) | ψ) = H(φ)(s)ψ(s)ds = G(t, s)φ(t)dt ψ(s)ds =
a a a

Z "Z # Z
b b b
G(s, t)ψ(s)ds φ(t)dt = H(ψ)(t)φ(t)dt = (φ | H(ψ))
a a a

Si partimos de que H ∈ HS(L2 [a, b]), la observación 4.3.12,4 y el teorema 4.3.8 nos
aseguran la existencia de una base ortonormal (en ), una sucesión ortonormal (vn )
y una sucesión real (λn ) de cuadrado sumable, tales que

X ∞
X
H= λn en ⊗ vn y, por tanto H(φ) = λn (en | φ)vn luego
n=1 n=1

∞ Z ! Z ∞
!
X b b X
H(φ)(s) = λn en (t)φ(t)dt vn (s) = λn en (t)vn (s) φ(t)dt
n=1 a a n=1

X
Probemos que G(t, s) = λn en (t)vn (s) está en L2 ([a, b] × [a, b]):
n=1

Z ∞
! ∞
!
bZ b Z b Z b X X
2
G (t, s)dtds = λn en (t)vn (s) λm em (t)vm (s) dtds =
a a a a n=1 n=1

∞ Z ! Z ! ∞
X b b X
λn λm en (t)em (t)dt vn (s)vm (s)ds = λ2n = N2 (H) < ∞
n,m=1 a a n=1

Además, si H es autoadjunto, podemos elegir (en ) = (vn ) y, ası́, la función



X
G(t, s) = λn en (t)en (s) es claramente simétrica. ♦
n=1

4.4 Problemas de Sturm-Liouville


Los operadores de Hilbert-Schmidt son de gran utilidad para tratar el problema
inverso que en la literatura (ver, por ejemplo, [69]) se conoce con el nombre de
problema regular de Sturm-Liouville y cuyo enunciado es:
(SL) Dadas las funciones c ∈ C[a, b] y f ∈ L2 [a, b], hallar u : [a, b] → R

00
−u (t) + c(t)u(t) = f(t) en a < t < b

tal que αu(a) + α0 u0 (a) = 0 con |α| + |α0 | > 0
 0 0
con |β| + |β 0 | > 0

βu(b) + β u (b) = 0
188 TEMA 4. PROBLEMAS ESPECTRALES

En este problema inverso, el espacio de datos es L2 [a, b] y el espacio X donde hay


que buscar la incógnita u es el subespacio de L2 [a, b] constituido por las funciones
de C 1 [a, b] que cumplen las condiciones de contorno
(
αu(a) + α0 u0 (a) = 0 con |α| + |α0 | > 0
βu(b) + β 0 u0 (b) = 0 con |β| + |β 0 | > 0

y cuya derivada segunda generalizada3 está en L2 [a, b]. La transformación L :


X → L2 [a, b] está dada por L(u) = −u00 + cu, que es lineal y cumple (L(x)|y) =
(x|L(y)) ∀x, y ∈ X. En efecto:
( Rb Rb Rb
(L(x)|y) = a (−x00 y + cxy)dt = −[x0 y]ba + a x0 y0 dt + a cxydt
Rb Rb Rb
(x|L(y)) = a (−y00 x + cxy)dt = −[xy0 ]ba + a x0 y0 dt + a cxydt

y, por las condiciones de contorno, es claro que [x0 y]ba = [xy0 ]ba . Como X es denso
L2 [a, b], podemos considerar que L es autoadjunto aunque no sea un endomorfismo
en L2 [a, b] (ver [40], pág 117).

Veamos, ahora, que el problema con la primera de las condiciones


(
−u00 (t) + c(t)u(t) = 0 en a < t < b
P CC(a)
αu(a) + α0 u0 (a) = 0 con |α| + |α0| > 0

tiene, únicamente, un rayo de soluciones. En efecto:


Es claro que el problema de condición inicial

00
−u (t) + c(t)u(t) = 0
 en a < t < b
P CI(a) u(a) = α0

 0
u (a) = −α con |α| + |α0 | > 0

tiene una única solución u1 que, necesariamente, es no nula. También es claro que
todo elemento del rayo [u1 ] es solución del P CC(a).
Por otra parte, si v es una solución no nula del P CC(a), por la condición de
contorno αv(a) + α0 v0 (a) = 0 con α 6= 0 o α0 6= 0 resulta que v0 (a) 6= 0 o v(a) 6= 0.
α0
Entonces − v 0α(a) v o v(a) v deben coincidir con la única solución u1 del P CI(a) y,
ası́, en cualquiera de los dos casos, v ∈ [u1 ].
De igual modo, el problema con la segunda condición
(
−u00 (t) + c(t)u(t) = 0 en a < t < b
P CC(b)
βu(b) + β 0 u0 (b) = 0 con |β| + |β 0 | > 0

tiene otro rayo de soluciones [u2 ].

Si el problema homogéneo asociado a nuestro (SL) inicial



00
−u (t) + c(t)u(t) = 0 en a < t < b

αu(a) + α0 u0 (a) = 0 con |α| + |α0 | > 0

βu(b) + β 0 u0 (b) = 0 con |β| + |β 0 | > 0

3
Ver la sección ?? dedicada a las distribuciones
4.4. PROBLEMAS DE STURM-LIOUVILLE 189

sólo tiene la solución nula, los rayos [u1 ] y [u2 ] tienen que ser distintos pues, de
lo contrario, habrı́a una solución no nula para el problema homogéneo. Por tanto,
u1 u02 − u2 u01 6= 0 pues,
u01 u0
u1 u02 − u2 u01 = 0 ⇒ = 2 ⇒ log u1 = log u2 + log k ⇒ u1 = ku2 .
u1 u2
Por ser u1 y u2 soluciones de la ecuación homogénea −u00 + cu = 0 se tiene que
u1 u002 − u2 u001 = 0 y como u1 u002 − u2 u001 = (u1 u02 − u2 u01 )0 resulta que u1 u02 − u2 u01 es
una constante no nula que designamos W .

Consideramos, ∀t ∈ [a, b], el sistema

ρ2 u2 (t) + ρ1 u1 (t) = 0
ρ2 u02 (t) + ρ1 u01 (t) = 1

u2 (t) u1 (t)
que tiene solución única ρ1 = − y ρ2 = . La función
W W
Gt : [a, b] →  R
 u2 (t)u1 (s)
ρ1 u1 (s) = −
 si s ∈ [a, t]
W
s 7→
−ρ2 u2 (s) = − u1 (t)u2 (s) si s ∈ [t, b]


W
es continua pero no es derivable. Definiendo G(t, s) = Gt (s) tenemos

G: [a, b] × [a, b] →  R
 u1 (t)u2 (s)
−
 si a≤t≤s≤b
W
(t, s) 7→
 u
− 2
 (t)u 1 (s)
si a≤s≤t≤b
W
que es simétrica, está en C([a, b] × [a, b]) ⊂ L2 ([a, b] × [a, b]) y, por tanto, genera un
operador de Hilbert-Schmidt autoadjunto HG : L2 [a, b] → L2 [a, b].

Veamos que HG(f) puede considerarse solución del problema (SL):


Z Z
u2 (t) t u1 (t) b
u(t) := HG (f)(t) = − u1 (s)f(s)ds − u2 (s)f(s)ds
W a W t

Si f fuese continua, u serı́a derivable en sentido clásico pero como es cualquier


elemento de L2 [a, b], sólo podemos asegurar que u es derivable como distribución.
Su derivada es
Z Z
0 u02 (t) t u01 (t) b
u (t) = − u1 (s)f(s)ds − u2 (s)f(s)ds
W a W t

que es una función continua como se puede comprobar secuencialmente. Al derivar


u0 como distribución obtenemos
Z Z
u00 (t) t u00 (t) b
u00 (t) = − 2 u1 (s)f(s)ds − 1 u2 (s)f(s)ds −
W a W t
190 TEMA 4. PROBLEMAS ESPECTRALES

u02 (t)u1 (t) − u01 (t)u2 (t)


− f(t)
W
Como u00i (t) = c(t)ui (t) tenemos que u00 (t) = c(t)u(t) − f(t). Además, u satisface
las condiciones de contorno pues
Z
0 0 αu1 (a) + α0 u01 (a) b
αu(a) + α u (a) = − u2 (s)f(s)ds = 0
W a
Z
βu2 (b) + β 0 u02 (b) b
βu(b) + β 0 u0 (b) = − u1 (s)f(s)ds = 0
W a
Por tanto, HG (f) es solución generalizada de (SL) y es la única solución posible
pues si v fuese otra solución, v −HG (f) lo serı́a del problema homogéneo asociado y
hemos supuesto que éste solo admite la solución nula. Ası́, HG : L2 [a, b] → L2 [a, b]
es un operador compacto, autoadjunto e inyectivo y el teorema 4.3.7 nos asegura
la existencia de una sucesión de valores propios reales no nulos (λn ) → 0 y una
base hilbertiana de L2 [a, b] constituida por los vectores propios (en ) que dan la
representación espectral

X ∞
X
HG = λn en ⊗ en y la solución del (SL) u = λn (f | en )en
n=1 n=1

Además, ∀g ∈ L2 [a, b] es claro que HG(g) ∈ X y podemos considerar que


HG : L2 [a, b] → X. En particular, la base de vectores propios (en ) está en el
subespacio X y, a fortiori, X es un subespacio no cerrado y denso de L2 [a, b].

La transformación lineal
L: X → L2 [a, b]
u 7→ −u00 + cu
ligada al problema (SL) tiene una inversa HG : L2 [a, b] → X con las buenas
propiedades espectrales que hemos visto. Pero L tiene el mismo conjunto de vec-
tores propios que HG y los valores propios de L son los inversos de los valores
propios de HG. La aplicación lineal L no es acotada porque tiene una sucesión de
valores propios que tiende a ∞ pero, tiene una sucesión de vectores propios que con-
stituyen una base ortonormal de L2 [a, b]. Este es el famoso teorema de oscilación
que aquı́ es un corolario del teorema 4.3.7.

En la práctica suele ser sencillo determinar los valores y vectores propios de L


y, a través de ellos, determinar la representación espectral de HG y obtener la
solución del problema (SL).

Ejemplo 4.4.1
Dada una función f ∈ L2 [0, l] hallar u : [0, l] → R tal que

00
−u (t) = f(t) en 0 < x < l

u(0) = 0


u(l) = 0
Solución:
Este problema de Sturm-Liouville esta ligado al operador
4.4. PROBLEMAS DE STURM-LIOUVILLE 191

L: X → L2 [0, l]
u 7→ −u00
Como el problema homogéneo asociado

00
u (t) = 0 en
 0<t<l
u(0) = 0


u(l) = 0
sólo tiene la solución nula, podemos construir la función de Green:
La solución general de la ecuación homogénea u00 = 0 es u = At + B. Imponiendo
la primera condición de contorno, u(0) = 0, obtenemos que B = 0 y que el rayo de
soluciones es [u1 ] con u1 (t) = t.
Análogamente, imponiendo la segunda condición de contorno, u(l) = 0, obtenemos
que 0 = Al + B ⇒ B = −Al, y el correspondiente rayo de soluciones es [u2 ] con
u2 (t) = t − l.
u (t) u2 (t) t t − l
Puesto que W = 10 = = l, la función de Green viene dada por
u1 (t) u02 (t) 1 1

u1 (t) u2 (s) t(s − l)
−
 =− , 0≤t≤s≤l
G(t, s) = W l
− u2 (t) u1 (s) = − (t − l)s , 0 ≤ s ≤ t ≤ l

W l
y la solución del problema inicial es:
Z l Z Z
t−l t t l
u(t) = G(t, s)f(s) ds = − sf(s) ds − (s − l)f(s) ds
0 l 0 l t
Otra vı́a de resolver el problema es hallar la representación espectral del operador
HG , es decir, buscar los autovalores y autofunciones de L:
1. Como el problema homogéneo asociado sólo tiene la solución nula, 0 no es
valor propio de L.
2. No hay autovalores negativos pues la ecuación diferencial −u00 = −k 2 u tiene
la solución general A sinh(kt) + B cosh(kt) y las condiciones de contorno im-
ponen (
A·0+B =0
⇒ A = B = 0.
A sinh(kl) = 0
3. Buscamos los autovalores positivos. La ecuación diferencial −u00 = k 2 u tiene
la solución general A sin(kt)+B cos(kt) y las condiciones de contorno imponen
(
A·0+B = 0
⇒ B =0
A sin(kl) = 0

pero A puede ser no nula si k = ∀n = 1, 2, · · · .
l
 2 2 r  !
n π 2 nπt
Ası́, son los autovalores de L y (en ) = sin es la correspon-
l2 l l
diente base ortonormal de vectores propios. Por tanto,

l2 X 1
HG(f) = 2 (f|en ) en
π n=1 n2
192 TEMA 4. PROBLEMAS ESPECTRALES

y la solución puede darse en la forma:


∞ Z   !  
l
2l X 1 nπt nπt
u(t) = 2 f(t) sin dt sin ♦
π n=1 n2 0 l l

En el programa Sturmliouville1 de MATLAB podemos obtener la representación


gráfica de la solución para diferentes longitudes del intervalo y diferentes funciones
f. Se puede comprobar que la obtenida mediante la representación espectral coin-
cide con la de la función de Green si tomamos un número suficiente de términos.

Hasta ahora hemos tratado los problemas de Sturm-Liouville tales que su asoci-
ado homogéneo tiene únicamente la solución nula. Ahora veremos que siempre
existe un µ ∈ R tal que el problema homogéneo

00
−u (t) + (c(t) + µ)u(t) = 0 en a < t < b

αu(a) + α0 u0 (a) =0 con |α| + |α0 | > 0

βu(b) + β 0 u0 (b) con |β| + |β 0 | > 0

=0

tiene únicamente la solución nula. Para ello necesitamos el siguiente

Lema 4.4.2
∀φ ∈ C 1 [a, b] y ∀ > 0 ∃C() > 0 tal que
Z b
2 2
kφk∞ ≤ ( φ0 (t) + C()φ2 (t))dt
a

Demostración:
Si ası́ no fuera existirı́a un  > 0 y una sucesión (ϕn ) ⊂ C 1 [a, b] tal que
Z b
2 ϕn
kϕn k2∞ > ( ϕ0 n (t) + n ϕ2n (t))dt y, tomando φn = ,
a kϕn k∞
Z b
2 2
∃(φn ) tal que 1 = kφn k∞ > ( φ0 n (t) + n φ2n (t))dt
a
Entonces,  
Z b
1 1 1
> φ2n (t)dt ≥ m t | φn (t) >
n a 4 2
y, por tanto,  
1 4
m t | φn (t) > ≤
2 n
 
4 4 8
Sea tn ∈ [a, b] tal que |φn (tn )| = 1. Como m tn − , tn + =
  n n n
4 4 1
existirá sn ∈ tn − , tn + tal que φn (sn ) ≤ y el teorema de los
n n 2
incrementos finitos en [tn , sn ] asegura que
Z sn Z b  21
1 0
Holder p
≤ |φ (t)|dt ≤ |tn − sn | |φ0n (t)|2 dt .
2 tn a
4.4. PROBLEMAS DE STURM-LIOUVILLE 193

Luego
Z b  21 Z b
1 2 n
≤√ |φ0n (t)|2 dt y ≤ |φ0n (t)|2 dt < 1
2 n a 16 a

con lo que llegamos al absurdo de acotar N. ♦.

Este lema nos dice que siempre existe un K > 0 tal que si c(t) ≥ K, el
problema homogéneo asociado al (SL) inicial sólo tiene la solución trivial.
Veámoslo:
Si v es solución del problema homogéneo asociado es claro que
Z b 
0= −v 00 (t) + c(t)v(t) v(t) dt luego
a
Z b
2 α 2 β
(v 0 (t) + c(t)v 2(t))dt = v 0 (b)v(b) − v 0 (a)v(a) = v (a) − 0 v 2 (b) ≤ 4
a α0 β
    Z b
α β 2 α β 2
≤ 0 + 0 kvk∞ ≤ 0 + 0 (v 0 (t) + C(1)v 2 (t))dt
α β α β a

Por tanto, si c(t) es suficientemente grande, la desigualdad sólo es posible si


v(t) = 0.

Sea un problema de Sturm-Liouville



00
−u (t) + c(t)u(t) = f (t) en a < t < b

(SL) αu(a) + α0 u0 (a) = 0 con |α| + |α0 | > 0


βu(b) + β 0 u0 (b) = 0 con |β| + |β 0 | > 0

cuyo problema homogéneo asociado tiene una solución u1 no nula. Eso


quiere decir que el operador L : X → L2 [a, b] tal que L(u) = −u00 + cu
admite el autovalor 0 y su subespacio propio es ker L = [u1 ].
Sin embargo, como c : [a, b] → R es continua y, por tanto, acotada, siempre
hay un µ suficientemente grande para asegurar que el problema de Sturm-
Liouville

00
−u (t) + (c(t) + µ)u(t) = f (t) + µu(t) en a < t < b

(SLµ ) αu(a) + α0 u0 (a) =0 con |α| + |α0 | > 0


βu(b) + β 0 u0 (b) =0 con |β| + |β 0 | > 0

equivalente al inicial, tiene un problema homogéneo asociado que sólo ad-


mite la solución trivial y, por tanto, a esta formulación le podemos aplicar
los métodos conocidos que ya han sido expuestos (ver pág 190). La solución
4
Si α0 o β 0 fuesen nulos, no aparecerı́a el término correspondiente
194 TEMA 4. PROBLEMAS ESPECTRALES

de SLµ es de la forma u = HGµ (f + µu) donde HGµ : L2 [a, b] → X es un


operador de Hilbert-Schmidt autoadjunto e inyectivo.

Podemos calcular la función de Green Gµ y escribir


Z b Z b
u = HGµ (f + µu) = Gµ (t, s)f (s)ds + µ Gµ (t, s)u(s)ds
a a

pero de aquı́ no podemos obtener una expresión explı́cita de la solución u


puesto que aparece en ambos miembros de la ecuación y no podemos de-
spejarla. Sin embargo, la información de que el operador HGµ es compacto,
autoadjunto e inyectivo nos sitúa en la alternativa de Fredholm y nos permite
obtener una expresión de la solución u del problema SL cuando f ∈ [u1 ]⊥ .

Es claro que HGµ es el inverso  de L + µI y, por tanto, su sucesión de


1
autovalores convergente a 0 es donde (λn ) son los autovalores de
λn + µ
L y su correspondiente base hilbertiana de autovectores (un ) son también
los autovectores de L. Podemos suponer sin restricción que λ1 = 0 y su
autovector correspondiente es u1 . Entonces,
∞ ∞
X (f + µu|un ) X (f + µu|un )
u = HGµ (f + µu) = un = (u|u1 )u1 + un
λn + µ λn + µ
n=1 n=2

y, por tanto,
(f + µu|un )
(u|un ) = ∀n ≥ 2
λn + µ
y despejando,
(f |un)
(u|un ) = ∀n ≥ 2.
λn
El único producto (u|un ) que queda sin determinar y que, por tanto, es una
constante arbitraria k, es (u|u1 ) y, ası́, la solución se expresa en la forma

X (f |un )
u = ku1 + un
λn
n=2

Ejemplo 4.4.3
Resolver el problema

00
−u (t) − u(t)
 = cos t + sin t , t ∈ [0, π]
0
u(0) + u (0) = 0


u(π) + u0 (π) = 0

Solución:
4.4. PROBLEMAS DE STURM-LIOUVILLE 195

La ecuación homogénea u00 + u = 0 tiene como solución general u(t) =


C1 cos t + C2 sin t e imponiendo las condiciones de contorno obtenemos
)
C1 + C2 = 0
⇒ C2 = −C1
−C1 − C2 = 0

Luego u1 (t) = cos t − sin t es solución no nula del problema homogéneo


asociado, el operador L : X → L2 [0, π], tal que L(u) = −u00 − u tiene el
autovalor λ1 = 0 y ker L = [u1 ].
Según la alternativa de Fredholm el problema tiene solución si f ∈ [u1 ]⊥ y
este es el caso ya que
Z π Z π
(f |u1 ) = (cos t + sin t)(cos t − sin t) dt = cos 2t dt = 0
0 0

Como hemos dicho, la solución viene dada por:



X 1
u(t) = cu1 (t) + (un |f )un
λn
n=2

donde c es una constante arbitraria, (λn ) la sucesión de autovalores no nulos


de L y (un ) la correspondiente sucesión ortonormal de vectores propios.
Calculemos en primer lugar los autovalores de L, es decir, los valores de λ
tales que −u00 (t) − u(t) = λu(t), o bien −u00 (t) = (1 + λ)u(t).
La solución general de esta ecuación diferencial homogénea es distinta según
sea 1 + λ < 0, 1 + λ = 0 o 1 + λ > 0.
Si 1 + λ < 0, hacemos 1 + λ = −k2 y la ecuación
√ u00 (t) = k2 u(t) tiene como
solución u(t) = Aekt + Be−kt , con k = + k2 , que derivada y sustituida en
las condiciones de contorno nos proporciona el sistema:
)
(1 + k)A + (1 − k)B =0
(1 + k)ekπ A + (1 − k)e−kπ B =0

El determinante de este sistema lineal es



1+k 1 − k 2
(1 + k)ekπ (1 − k)e−kπ = −2(1 − k ) sinh kπ

que, por ser k 6= 0, se anula únicamente para k2 = 1 ⇒ k = 1.


Ası́ pues, 1 + λ = −k2 = −1 nos da el autovalor λ = −2 y el correspondiente
vector propio se obtiene resolviendo el sistema anterior para k = 1:
)
2A =0
⇒ A = 0 ⇒ u−2 (t) = e−t
2eπ A =0
196 TEMA 4. PROBLEMAS ESPECTRALES

Si 1 + λ = 0, la solución general de la ecuación diferencial u00 (t) = 0 es


u(t) = At + B. Derivada y sustituida en las condiciones de contorno nos da:
)
B+A = 0
⇒A=B =0
Aπ + B + A = 0
de modo que λ = −1 no es autovalor de L.

Si 1 + λ > 0, hacemos 1 + λ = k2 y la ecuación −u00 (t) = k2 u(t) tiene


como solución general u(t) = A cos kt + B sin kt que, derivada y sustituida
en las condiciones de contorno, nos proporciona el sistema:
)
A + kB = 0
(A + kB) cos kπ + (B − kA) sin kπ = 0
Si A + kB = 0 y B − kA = 0 , la única solución es la trivial, A = 0 , B = 0,
pero también puede ser B − kA 6= 0 y sin kπ = 0, es decir, kπ = nπ , n =
1, 2, · · ·, con lo cual 1+λ = n2 y λn = n2 −1, n = 1, 2, · · · son autovalores de
L. Los correspondientes vectores propios se obtienen resolviendo el sistema
anterior para k = n y sustituyendo en la solución general:
1
A = −nB , sin nt , n = 1, 2, · · ·
un (t) = cos nt −
n
Para n = 1 se obtiene λ1 = 0 que, como ya sabı́amos, es el autovalor aso-
ciado a u1 (t) = cos t − sin t .

Para expresar la solución como se ha indicado falta normalizar la base de


vectores propios y calcular los productos escalares. Por simplicidad procede-
mos a la inversa, calculamos primero los productos escalares (u−2 |f ), (un |f )
y después dividimos por la norma:
Z π
(u−2 |f ) = e−t (cos t + sin t) dt = 1 + e−π
0

Z π 
1
  −4 , n par
(un |f ) = cos nt − sin nt (cos t + sin t) dt = n2 − 1
0 n  0 , n impar
o bien, sustituyendo n por 2n:
−4
(u2n |f ) = , n = 1, 2, · · ·
4n2 − 1
Como, además,
Z
2
π
1 − e−2π
ku−2 k = e−2t dt =
0 2
Z π 2
2 1 4n2 + 1
ku2n k = cos 2nt − sin 2nt dt = π
0 2n 8n2
4.4. PROBLEMAS DE STURM-LIOUVILLE 197

la solución del problema inicial es:



1 (u−2 |f )u−2 X 1 (u2n |f )u2n
u(t) = cu1 (t) + + =
λ−2 ku−2 k2 λ2n ku2n k2
n=1
−t ∞
e X −32n2 1
= c(cos t− sin t) − −π
+ 2 2 2
(cos 2nt − sin 2nt)
1−e n=1
π(4n − 1) (4n + 1) 2n
donde c es una constante arbitraria. ♦

Para finalizar tratamos los problemas de Sturm-Liouville en que las condi-


ciones de contorno no son homogéneas,

00
−u (t) + c(t)u(t)
 = f (t) en a < t < b
(SLN H) αu(a) + α0 u0 (a) =A con |α| + |α0 | > 0


βu(b) + β 0 u0 (b) =B con |β| + |β 0 | > 0

Si podemos descomponer el problema en los dos subproblemas siguientes



00
−u (t) + c(t)u(t) = f (t)
 en a < t < b
SL αu(a) + α0 u0 (a) = 0 con |α| + |α0 | > 0


βu(b) + β 0 u0 (b) = 0 con |β| + |β 0 | > 0
y 
00
−u (t) + c(t)u(t) = 0 en a < t < b

P αu(a) + α0 u0 (a) = A con |α| + |α0 | > 0


βu(b) + β 0 u0 (b) = B con |β| + |β 0 | > 0
y resulta que
1. SL es un problema de Sturm-Liouville cuya solución sabemos calcular
por alguno de los métodos expuestos anteriormente,

2. en el problema P , es compatible el sistema lineal que resulta de im-


poner las condiciones de contorno no homogéneas a la solución general
de la ecuación diferencial,
entonces, la solución del problema SLNH será la suma de las soluciones de
SL y P .

Ejemplo 4.4.4
Resolver el siguiente problema de contorno:
 h πi

 u00 (t) + 4 u(t) = et en t ∈ 0,
 4
u(0)
π= 1


 u = −1
4
198 TEMA 4. PROBLEMAS ESPECTRALES

Solución:
Descomponemos el problema en los dos subproblemas
 h πi

 −u00 (t) − 4u(t) = −et , t ∈ 0,
 4
SL u(0) = 0

 π 
 u =0
4
y h i
00 (t) − 4u(t) = 0 , t ∈ 0, π


 −u
 4
P u(0) = 1

 π
 u = −1
4
SL es un problema de Sturm-Liouville regular que vamos a resolver en primer
lugar. La solución general de la ecuación diferencial u00 + 4u = 0 es u =
A cos 2t+B sin 2t que, sustituida en las condiciones de contorno homogéneas,
nos da π 
u(0) = 0 = A , u =0=B
4
Ası́, el problema homogéneo asociado a SL solo tiene la solución 0 y, por
ello, SL tiene una única solución que podemos hallar a través de la función
de Green o mediante la representación espectral del operador HG . Con-
struyamos en primer lugar la función de Green:
Resolvemos el sistema formado por la ecuación diferencial homogénea y la
primera condición de contorno para obtener el rayo [u1 ]:
)
u00 + 4u =0 ⇒ u = A cos 2t + B sin 2t
⇒ u1 (t) = sin 2t
u(0) = 0 =A
Procediendo de igual manera con la segunda condición de contorno,

u00 + 4u =0 ⇒ u = A cos 2t + B sin 2t
π ⇒ u2 (t) = cos 2t
u =0=B 
4

sin 2t cos 2t
W es, W = = −2, y la función de Green:
2 cos 2t −2 sin 2t

u (t) u2 (s) sin 2t cos 2s π
− 1
 = , 0≤t≤s≤
G(t, s) = W 2 4

− u2 (t) u 1 (s) cos 2t sin 2s π
= , 0≤s≤t≤
W 2 4
La solución del problema (SL), teniendo en cuenta que debemos escribir la
ecuación diferencial en la forma −u00 − 4u = −et , es:
Z π Z t
4 1
u(t) = G(t, s)(−es ) ds = − cos 2t es sin 2s ds −
0 2 0
4.4. PROBLEMAS DE STURM-LIOUVILLE 199

Z π π
1 4 et cos 2t e 4 sin 2t
− sin 2t es cos 2s ds = − −
2 t 5 5 5
Hallemos ahora la solución de SL mediante la representación espectral del
operador HG . Debemos calcular los autovalores de su inversa L, tal que
L(u) = −u00 − 4u, es decir, los valores de λ para los cuales existe un u, no
nulo, verificando −u00 − 4u = λu, o bien, u00 + (4 + λ)u = 0.

La solución general de esta ecuación diferencial homogénea es distinta


según sea 4 + λ < 0 , 4 + λ = 0 o 4 + λ > 0 .
Para 4 + λ < 0 , hacemos 4 + λ = −k2 y la solución general de la ecuación
diferencial u00 − k2 u = 0 es u(t) = Ae kt + Be− kt
Sustituyendo en las condiciones de contorno,

u(0) = 0 = A + B 
π  π π ⇒ A = B = 0, pues
u = 0 = Aek 4 + Be−k 4 
4

el determinante del sistema vale −2 sinh , distinto de cero salvo para
4
k = 0, que no es el caso. Por tanto, los λ < −4 no son autovalores.
Para λ = −4 , u(t) = At + B
Sustituyendo en las condiciones de contorno,

u(0) = 0 = B 
π  π ⇒ A = B = 0, y λ = −4 no es autovalor.
u = 0 = A + B
4 4
Para 4 + λ > 0 , hacemos 4 + λ = k2 y la solución general de la ecuación
es u(t) = A cos kt + B sin kt
Sustituyendo en las condiciones de contorno,

u(0) = 0 = A 
π  kπ kπ 
u = 0 = A cos + B sin
4 4 4

Este sistema admite la solución A = 0 , B 6= 0 si sin = 0.
4

Es decir, si = nπ ⇒ k = 4n ⇒ λ = 16n2 − 4 , n = 1, 2, · · ·
4
La sucesión de autovalores es (λn ) = (16n2 − 4) y la correspondiente base
de vectores propios (un ) = (sin 4nt), que podemos normalizar para obtener
la base hilbertiana:
Z π   r !
2
4
2 π un 8
kun k = sin 4nt dt = , (en ) = = sin 4nt
0 8 kun k π
200 TEMA 4. PROBLEMAS ESPECTRALES

La representación espectral de HG es,



X 1
u = HG (f ) = (f |en )en
λn
n=1

Para f (t) = −et , se tiene: !r


∞ r Z π
X 1 8 4 8
u(t) = 2
−et sin 4nt dt sin 4nt =
n=1
16n − 4 π 0 π
π ∞
2e 4 + 4 X sin 4nt
=−
5π 4n2 − 1
n=1
 h πi
00

 u (t) + 4 u(t) = 0 , t ∈ 0,
 4
Resolvemos, por último, el problema P u(0) = 1

 π 
 u = −1
4
La solución general de la ecuación diferencial es
v(t) = A cos 2t + B sin 2t , que sustituida en las condiciones de contorno
permite calcular Ay B:
π
v(0) = 1 = A , v = −1 = B , v(t) = cos 2t − sin 2t
4
La solución del problema propuesto, calculada a través de la función de
Green, es:
 π

et π
cos 2t e 4 sin 2t e t 4 cos 2t 1 + e 4 sin 2t
u(t) = − − + v(t) = + −
5 5 5 5 5 5
y calculada a través de la representación espectral del operador HG , es:
π ∞
2e 4 + 4 X sin 4nt
u(t) = cos 2t − sin 2t − ♦
5π 4n2 − 1
n=1

La teorı́a de Sturm-Liouville combinada con el método de separación de


variables permite resolver muchos problemas de la fı́sica gobernados por
ecuaciones en derivadas parciales que cumplen determinadas condiciones
iniciales y de contorno. Ejemplos clásicos son el tratamiento de la ecuación
de ondas y la ecuación del calor.

Ejemplo 4.4.5 (Cuerda vibrante)


La función
U: (0, l) × (0, ∞) → R,
(x, t) 7→ U (x, t)

nos describe, en un instante t, la pequeña ordenada y = U (x, t) de un punto


de abcisa x de una cuerda flexible de extremos 0 y l que tiene una masa µ
4.4. PROBLEMAS DE STURM-LIOUVILLE 201

por unidad de longitud y está sometida a vibración en el plano xy bajo una


tensión constante τ , cuando satisface la ecuación de ondas
τ
Utt = · Uxx en (0, l) × (0, ∞)
µ

Se quiere determinar la función U (x, t) con las condiciones


( (
U (0, t) = 0 U (x, 0) = f (x)
CC ∀t ∈ (0, ∞) y CI ∀x ∈ (0, l)
U (l, t) = 0 Ut(x, 0) = 0

Solución:
Buscamos una solución U (x, t) = X(x) · T (t) en variables separadas pues,
en tal caso,
T 00 τ X 00
=
T µ X
y esta igualdad entre funciones de variables que se suponen independientes,
obliga a que ambas sean iguales a una constante k. Ası́, aparecen los prob-
lemas separados


X” − τ X = 0

 (
T 00 − kT = 0
X(0) = 0, X(l) = 0 y


 T 0 (0) = 0
X(x) · T (0) = f (x)

o, si se prefiere,

00 kµ 
00
X − τ X = 0 T − kT = 0

 
(I) X(0) = 0, X(l) = 0 y (II) T 0 (0) = 0

 


X(x) = f (x) T (0) = 1

Para que (I) tenga solución no nula, según 4.4.1, se precisa que

n2 π 2 τ
k=− con n ∈ N
l2µ

y, en tal caso, la solución es de la forma


 nπx 
Xn = An sin
l
El correspondiente problema (II) tiene, entonces, solución general
r  r 
0 τ nπt 0 τ nπt
An sin + Bn cos
µ l µ l
202 TEMA 4. PROBLEMAS ESPECTRALES

e imponiendo que T 0 (0) = 0 y T (0) = 1 obtenemos la solución


r 
τ nπt
Tn = cos
µ l
Conseguimos, ası́, una familia numerable de funciones
r   nπx 
τ nπt
Un (x, t) = An cos sin
µ l l
que, por el principio de superposición, nos da la solución general
∞ r   nπx 
X τ nπt
U (x, t) = An cos sin
n=1
µ l l

del problema 
τ

Utt = · Uxx en (0, l) × (0, ∞)


 µ

U (0, t) = 0 ∀t ∈ (0, ∞)


U (l, t) = 0 ∀t ∈ (0, ∞)


U (x, 0) = 0 ∀x ∈ (0, l)
t

Sólo nos falta determinar los coeficientes An para imponer la última condición
U (x, 0) = f (x) ∀x ∈ (0, l)
Esto se consigue obteniendo el desarrollo de Fourier de f respecto de la
misma base ortogonal en que tenemos desarrollada

X  nπx 
U (x, 0) = An sin
n=1
l

Ası́,
∞ Z l  nπx    nπx 
2X
f (x) = f (x) sin dx sin
l 0 l l
n=1
y, como el desarrollo es único, deducimos que
Z
2 l  nπx 
An = f (x) sin dx ∀n ∈ N
l 0 l
Por tanto, la función
∞ Z l  nπx   r   nπx 
2X τ nπt
U (x, t) = f (x) sin dx cos sin
l 0 l µ l l
n=1

cumple la ecuación de ondas y el resto de las condiciones exigidas. ♦

Todo ello lo hemos plasmado en el programa cuerdavibrante1 de Modus


que nos proporciona la pelı́cula del movimiento de una cuerda tensa anclada
en sus extremos.
4.4. PROBLEMAS DE STURM-LIOUVILLE 203

Ejemplo 4.4.6 (Ecuacion del calor)


La función
U: (0, l) × (0, ∞) → R,
(x, t) 7→ U (x, t)
nos describe, en un instante t, la temperatura de un punto de abcisa x de una
barra cilı́ndrica, isótropa y homogénea de extremos 0 y l cuando la superficie
lateral de la barra está aislada térmicamente si satisface la ecuación del
calor
ν
Ut (x, t) = Uxx (x, t) 0 < x < l 0 < t < ∞

donde ν, c, ρ son respectivamente el coeficiente de conductividad térmica,
el calor especı́fico y la densidad del material que constituye la barra. En
estas condiciones, las superficies isotérmicas son las secciones transversales
y, en cada instante t, la temperatura de los puntos de la barra depende de
una única variable espacial, la abscisa x.
Se quiere determinar la función U (x, t) cuando los extremos de la barra se
mantienen constantemente a temperatura cero y la temperatura de la barra
en el instante inicial viene dada por una función conocida f (x). Es decir, se
quiere resolver el problema

2
Ut (x, t) = a Uxx (x, t) 0 < x < l 0 < t < ∞

U (0, t) = 0 , U (l, t) = 0


U (x, 0) = f (x)
ν
donde a2 = es el llamado coeficiente de termodifusión.

La aplicación del método de separación de variables

U (x, t) = X(x) T (t)

nos conduce, como en el ejemplo anterior, al problema de Sturm-Liouville


homogéneo

 00 k
X (x) − 2 X(x) = 0 , 0 < x < l
(I) a
X(0) = 0 , X(l) = 0

al problema de condición inicial


(
T 0 (t) − kT (t) = 0
(II) , 0<t<∞
T (0) = 1

y a la ecuación

(III) X(x) = f (x)


204 TEMA 4. PROBLEMAS ESPECTRALES

Según 4.4.1, el problema (I) tiene soluciones no nulas para los valores de k
k n2 π 2
tales que 2 = − 2 y, en ese caso, la solución correspondiente es
a l
nπx
Xn (x) = An sin
l
Para estos valores de k resolvemos el correspondiente problema (II):

 0 n2 π 2 a2
T (t) = − T (t)
l2
T (0) = 1

y obtenemos la solución

n2 π 2 a2 t

Tn (t) = e l2

Ası́ tenemos la sucesión de soluciones del problema inicial

n2 π 2 a2 t
− nπx
Un (x, t) = An e l2 sin , n∈N
l
y, por el principio de superposición, la solución

∞ n2 π 2 a2 t
X − nπx
U (x, t) = An e l2 sin
l
n=1

La condición (III) nos permite escribir



X nπx
U (x, 0) = An sin = f (x)
n=1
l

y desarrollando f (x) en serie de Fourier respecto de la base de vectores


propios obtenida podremos identificar los coeficientes correspondientes. Por
tanto, la función

∞ Z l  nπx   n2 π 2 a2 t  nπx 
2X −
U (x, t) = f (x) sin dx e l2 sin ♦
l 0 l l
n=1

El método de separación de variables también nos permite abordar proble-


mas con las condiciones de contorno no homogéneas pero, en este caso,
debemos buscar la separación en la forma

U (x, t) = X(x) · T (t) + ϕ(x)


4.5. PRÁCTICAS 205

Si en el Ejemplo 4.4.5 las condiciones de controno fuesen


(
U (0, t) = A
CC ∀t ∈ (0, ∞)
U (l, t) = B

deberı́amos resolver, en primer lugar, el problema



00
ϕ (x) = 0

ϕ(0) = A


ϕ(l) = B

B−A
cuya solución es ϕ(x) = x + A, y a continuación, los problemas
l

00 kµ 
00
X − τ X = 0 T − kT = 0

 
(I) X(0) = 0, X(l) = 0 y (II) T 0 (0) = 0

 


X(x) = f (x) − ϕ(x) T (0) = 1

La solución será,
∞ Z l ! r 
2X  nπx  τ nπt  nπx 
U (x, t) = ϕ(x) + (f − ϕ)(x) sin dx cos sin
l n=1 0 l µ l l

Si en el Ejemplo 4.4.6 suponemos que los extremos de la barra se mantienen


a temperaturas fijas A y B, el problema a resolver es

2
Ut (x, t) = a Uxx (x, t) , 0 < x < l , 0 < t < ∞

U (0, t) = A , U (l, t) = B


U (x, 0) = f (x)

y, como antes, la solución será

∞ Z l ! n 2 π 2 a2 t
2X  nπx  −  nπx 
U (x, t) = ϕ(x) + (f − ϕ)(x) sin dx e l2 sin
l n=1 0 l l

B−A
donde ϕ(x) = x + A.
l

4.5 Prácticas
1. Pasar los sistemas lineales del Ejercicio 3.2.11 a sus formas autoadjun-
tas y hallar sus representaciones espectrales.
206 TEMA 4. PROBLEMAS ESPECTRALES

2. Aplicar el método de la potencia a las matrices cuadradas:


A=[6 -11 6;1 0 0;0 1 0]
A=[1 2 3 4 5;2 4 1 3 6;6 -2 5 2 0;2 -13 7 -12 0; 2 0 -1 3 7]
A=[7 2 1 3 5 4 3 1;78 2 -1 2 0 5 2 1;0 1 0 2 0 1 3 7;14 23 15 7 18 0 12
11;3 2 1 5 6 3 7 9;1 1 1 2 3 4 12 8;2 5 1 7 1 4 5 5;5 6 7 1 2 3 8 9]

3. Una barra homogénea de longitud L está construida de un material


cuya difusividad térmica es d. Si sus extremos se mantienen a tempe-
ratura 0 y se supone que la temperatura inicial en los puntos de abcisa
x es f (x), mostrar gráficamente como cambia la temperatura con el
tiempo.
Tema 5

Problemas no lineales

5.1 Métodos directos, de bisección y de punto fijo

Un problema inverso f (x) = b en el que f : X → Y no es lineal es,


en general, un problema difı́cil. Si designamos F = f − b tenemos el
problema equivalente F (x) = 0 que no es fácil ni cuando

X=Y =R y F es un polinomio de grado mayor que 1.

Al-Khwarizmi nos enseñó a resolverlo cuando F (x) = ax2 + bx + c pues,


b
mediante el cambio x = X − , llegamos a
2a


2b2 − 4ac −b ± b2 − 4ac
X = y, por tanto, x =
4a2 2a

Tartaglia nos enseñó a resolverlo cuando F (x) = ax3 + bx2 + cx + d pues,


b
mediante el cambio x = X − , podemos reducirlo a uno del tipo
3a


 27ca2 − 9ab2
A =

27a3
X 3 + AX = B con .

 9cab − 27da2 − 2b3
 B=
27a3

y resolverlo siguiendo las instrucciones de su verso:

207
208 TEMA 5. PROBLEMAS NO LINEALES

Cuando está el cubo con las cosas preso


y se iguala a algún número discreto
busca otros dos que difieran en eso

Después harás esto que te espeto


que su producto siempre sea igual
al tercio cubo de la cosa neto

Después el resultado general


de sus lados cúbicos bien restados
te dará a ti la cosa principal

Es decir, debemos buscar dos números p y q tales que


 3
A √ √
p−q = B y pq = y tomar X = 3
p− 3
q
3

En efecto,
√ √ p p
X 3 = ( 3 p − 3 q)3 = p − 3 3 p2 q + 3 3 pq 2 − q
y se cumple que
A X B
z√}| { z√ }| √ { z }| {
3
X + 3 3 pq ( 3 p − 3 q) = p − q .
Euler nos enseñó a resolver el caso F (x) = ax4 + bx3 + cx2 + dx + e pues,
b
mediante el cambio x = X − , se reduce a una ecuación del tipo
4a

 96a2 b2 − 256ca3

A =


 256a4

128ca2b − 32ab3 − 256da3
X 4 = AX 2 + BX + C con B = .
 256a4


 2 3 2 4
C = 64da b − 256ea − 16cab + 3b


256a4
Esta ecuación admite la solución
 A

p+q+r =

 2
√ √ √ 
B2
X= p+ q+ r si p, q, r cumplen pqr =

 64 2
pq + pr + qr = A + 4C


16
es decir, si p, q, r son las raices de la ecuación cúbica

A 2 A2 + 4C B2
x3 − x + x− = 0.
2 16 64
5.1. MÉTODOS DIRECTOS, DE BISECCIÓN Y DE PUNTO FIJO 209

Los métodos directos para polinomios de hasta cuarto grado están imple-
mentados en raicespoldir de Modus. No es posible llegar más lejos pues
Abel probó en 1824 que para la ecuación general de grado mayor que cuatro
no puede haber una solución formal conseguida mediante operaciones alge-
braicas sobre los coeficientes de la ecuación.

Sin embargo, si F : [a, b] → R es continua y F (a) · F (b) < 0, el teorema


de Bolzano asegura una solución s ∈ (a, b) a la que podemos aproximarnos
por el método iterativo implementado en el programa biseccion de Modus.

Si X = Y y designamos G = f − b + I, f (x) = b equivale a G(x) = x.


Entonces, si Y es completo y G es contractiva, el teorema 3.4.1 asegura la
existencia de una solución a la que podemos aproximarnos por el método ite-
rativo implementado en el programa puntofijo de Modus. Pero si X ⊂ Y ,
para usar este programa, no sólo debemos comprobar que G es contractiva
sino también que X es cerrado en Y y G(X) ⊂ X.

Sin embargo, la mayor dificultad suele encontrarla el alumno en detectar


los conjuntos X e Y y la función f : X → Y subyacentes en un problema
inverso planteado en la vida corriente.

Ejemplo 5.1.1
Se busca la V : [0, 10] → R que nos de el volumen de gasóleo de un depósito
esférico de 5m de radio en función de la altura del lı́quido y se nos pide la
altura cuando esté al 80% de su capacidad.
Solución:
Si integramos por discos podemos calcular el volumen en función de H:
Z H
V (H) = π(2rh − h2 )dh = πrH 2 − πH 3
0
Debemos encontrar un Ho ∈ (5, 10) que sea raiz de la ecuación polinómica
4 3 80
π5H 2 − πH 3 = π5 ⇔ H 3 − 15H 2 + 400 = 0.
3 100
Usando raicespolir obtenemos
Ho = 7.1285927458325923922188849246595
Usando biseccion con T OL = 10−12 obtenemos
Ho = 7.1285927458328046668611932545900 en 43 iteraciones
400
Usando puntofijo con G(H) = , T OL = 10−12 e inicio 7,
15H − H 2
obtenemos
Ho = 7.1285927458325204497668892145157 en 13 iteraciones
210 TEMA 5. PROBLEMAS NO LINEALES

Ejemplo 5.1.2
Nieva de forma regular y los quitanieves retiran una cantidad constante
de nieve por unidad de tiempo. Sale un quitanieves a las 12 horas y en la
primera hora recorre doble distancia que en la segunda. ¿A que hora empezó
a nevar? A las 12:30 horas sale otro quitanieves desde el mismo punto y por
la misma ruta que el primero. ¿A qué hora lo alcanza?
Solución:
Sabemos que la cantidad de nieve quitada por unidad de tiempo es una
constante C y que la altura que alcanza la nieve en el instante t es k(t-t0)
siendo k otra constante y t0 el instante en que empezó a nevar. Entonces,
si L es la ancura del quitanieves y v(t) es su velocidad tendremos:

C = Lk(t − t0 )v(t)

La primera pregunta la contestamos resolviendo la ecuación en t0 :


Z 13 Z 14
dt dt
=2
12 t − t0 13 t − t0

y la segunda resolviendo la ecuación en T :


Z T Z T
dt dt
=
12 t − t0 12.5 t − 12

(ver quitanieves de Modus)

5.2 Métodos de linealización


En esta sección tratamos los métodos más usuales para aproximar un pro-
blema inverso f (x) = b por una sucesión An x = bn de problemas lineales
de dimensión finita. La f tanto será una función no lineal como una función
lineal entre espacios de dimensión infinita.

5.2.1 Método de Newton


Sean X e Y espacios de Banach, sea Ω ⊂ X un abierto y sea f : Ω → Y una
función diferenciable. Dado b ∈ Y se busca un x ∈ Ω tal que f (x) = b.
Si en x0 ∈ Ω conocemos el valor f (x0 ), sabemos que

f (x) ≈ f (x0 ) + Df (x0 )(x − x0 )

y podemos sustituir el problema f (x) = b por el problema lineal


(
A0 = Df (x0 )
A0 x = b0 donde .
b0 = b − f (x0 ) + Df (x0 )(x0)
5.2. MÉTODOS DE LINEALIZACIÓN 211

La solución x1 = A0 \b0 puede no ser aceptable porque x1 ∈ / Ω o porque


kf (x1 ) − bk sea mayor que el error que estemos dispuestos a tolerar. Sin
embargo, si x1 ∈ Ω, puede servirnos para plantear un nuevo problema lineal
(
A1 = Df (x1 )
A1 (x) = b1 donde
b1 = b − f (x1 ) + Df (x1 )(x1 )

cuya solución x2 = A1 \b1 sea mejor que x1 porque cumpla que

kf (x2 ) − bk < kf (x1) − bk.

Esto nos sugiere iterar el procedimiento hasta un xn tal que kf (xn) − bk


sea menor que un cierto número fijado según las necesidades de precisión,
al que llamaremos tolerancia. En el caso particular X = Rn e Y = Rm ,
este proceso iterativo se recoge en el programa linealizacion de Modus.
El punto inicial x0 debe ser elegido con tino, según el arte de cada cual.

Ejemplo 5.2.2
Desde un punto de una circunferencia C1 se traza otra circunferencia C2 de
modo que la intersección de sus cı́rculos ocupe la mitad del área del cı́rculo
de C1 . ¿Es el radio de C2 igual al radio del hexágno circunscrito a C1 ?
Solución:
Tomando como sistema de referencia polar el centro de C2 y la tangente por
él a C1 , la ecuación de C1 es ρ = 2r sin θ. Como vemos en la figura
212 TEMA 5. PROBLEMAS NO LINEALES

debemos encontrar un ángulo Θ tal que


Z Θ π  πr 2
1 1
4r 2 sin2 θdθ + 4r 2 sin2 Θ −Θ =
2 0 2 2 4
es decir, debemos resolver la ecuación
π
Θ(1 − 2 sin2 Θ) − sin Θ cos Θ + π sin2 Θ = .
4
Usando biseccion en [0, π2 ] con T OL = 10−12 obtenemos

Θ = .61794846213990661798476367039257 en 41 iteraciones
π
Usando linealizacion con T OL = 10−12 y punto inicial 4 obtenemos

Θ = .61794846213995480166403240218642 en 5 iteraciones

Tomando como buenas las trece primeras cifras decimales (coincidentes en


ambos métodos) deducimos que la razón entre los radios de C2 y C1 es

2 sin(.6179484621399) = 1.1587284730180322789294677932048

mientras que la razón entre el radio del hexágono circunscrito y el de C1 es


2
√ = 1.1547005383792515290182975610039
3
Estas razones difieren en más de una milésima y, por tanto, podemos ase-
gurar que el radio de C2 no es el radio del hexágono circunscrito a C1 .

5.2.3 Método de elementos finitos


Esta técnica es una creación de la Matemática del siglo XX para linealizar
problemas de contorno.

Elementos finitos unidimensionales


Si c, f : [0, 1] → R son funciones continuas, se pretende hallar una función
u : [0, 1] → R que cumpla
(
−u00 (x) + c(x)u(x) = f (x) en 0 < x < 1
(P C)
u(0) = u(1) = 0

Consideramos el espacio vectorial V = {v ∈ C1 [0, 1] | v(0) = v(1) = 0}


dotado del producto escalar
Z 1
(v | w) = [v 0 (x)w 0 (x) + v(x)w(x)]dx
0
5.2. MÉTODOS DE LINEALIZACIÓN 213

y de la norma correspondiente
Z 1  21
0 2 2
kvk = |v (x)| + |v(x)| dx
0

Es claro que (V, k k) es un espacio prehilbertiano y puede ser completado a


un espacio de Hilbert si fuese necesario para algún raciocinio. En V podemos
considerar la forma bilineal
B: V ×V → R
Z 1
(v, w) 7→ [v 0 (x)w 0(x) + c(x)v(x)w(x)]dx
0

y la forma lineal
L: V → R
Z 1
v 7→ f (x)v(x)dx
0

y es fácil comprobar que toda u ∈ C2 [0, 1] solución de (P C) cumple que

B(u, v) = L(v) ∀v ∈ V

En efecto:

−u00 (x)+c(x)u(x) = f (x) ⇒ −u00 (x)v(x)+c(x)u(x)v(x) = f (x)v(x) ⇒


Z 1 Z 1
00
[−u (x)v(x) + c(x)u(x)v(x)]dx = f (x)v(x)dx
0 0
e, integrando por partes,
Z 1 h i1 Z 1 Z 1
00 0 0 0
−u (x)v(x)dx = − u (x)v(x) + u (x)v (x)dx = u0 (x)v 0 (x)dx
0 0 0 0

pues el corchete se anula para toda v ∈ V . Ası́,


Z 1 Z 1
0 0
u (x)v (x) + c(x)u(x)v(x)dx = f (x)v(x)dx ∀v ∈ V
0 0

y, por tanto,
B(u, v) = L(v) ∀v ∈ V
En lugar de resolver el problema inicial (P C) resolvemos este problema
asociado y buscamos un u ∈ V tal que B(u, v) = L(v) ∀v ∈ V al que
llamaremos solución generalizada del (P C).

En realidad, lo que haremos es elegir un subespacio Vn ⊂ V de dimensión


finita y buscar en él un u ∈ Vn tal que B(u, v) = L(v) ∀v ∈ Vn con
214 TEMA 5. PROBLEMAS NO LINEALES

la idea de que al hacer crecer la dimensión Vn ⊂ Vn1 ⊂ Vn2 ⊂ ... las cor-
respondientes soluciones aproximadas u, u1 , u2 , ... tiendan a la solución
generalizada del problema inicial.

Ahora bien, si {v1 , · · · , vn } esP


una base de Vn y la solución u ∈ Vn se ex-
presa en dicha base como u = ni=1 ai vi , los coeficientes {a1 , · · · , an } deben
cumplir el sistema lineal

a1 B(v1 , v1 ) + a2 B(v2 , v1 ) + · · · + an B(vn , v1 ) = L(v1 )


a1 B(v1 , v2 ) + a2 B(v2 , v2 ) + · · · + an B(vn , v2 ) = L(v2 )
..
.
a1 B(v1 , vn ) + a2 B(v2 , vn ) + · · · + an B(vn , vn ) = L(vn )

Ası́ pues, la obtención de aproximaciones a la solución generalizada de un


problema de contorno se reduce a la resolución de un problema lineal au-
toadjunto que será positivo cuando la función dato c : [0, 1] → R sea positiva.

La elección de los subespacios Vn es una cuestión importante. Podemos,


por ejemplo, elegir una partición {x1 , · · · , xn } en (0, 1) y considerar
n
Y
Vn = [P1 · · · , Pn ] donde Pj (x) = x(x − 1) (x − xi )
i=1
i6=j

e ir refinando la partición, en caso necesario. También podemos tomar


funciones de las familias de funciones que tenemos almacenadas en Modus
e ir aumentando el número de ellas, en caso necesario. Todo ello lo hemos
implementado en el programa elementosfinitos1 de Modus.

Elementos finitos multidimensionales


Si Ω es un dominio regular de R3 con borde ∂Ω y c, f : Ω → R son funciones
continuas, se pretende hallar una función u : Ω → R que cumpla
(
− 4u + cu = f en Ω
(P C)
u = 0 en ∂Ω

siendo 4u el laplaciano.
Si u es solución de (P C), −v4u + cuv = f v ∀v de un adecuado espacio
de funciones que se anulan en ∂Ω. Ası́, toda solución u de (P C) cumple
Z Z Z
−v4udm + cuvdm = f · vdm
Ω Ω Ω
5.2. MÉTODOS DE LINEALIZACIÓN 215

y, como div(v∇u) = v4u + (∇u | ∇v), por el teorema de la divergencia


Z Z Z
−v4udm = (∇u | ∇v)dm ya que (v∇u | n)dσ = 0
Ω Ω ∂Ω

Toda solución del problema inicial es solución del problema asociado


Z Z
((∇u | ∇v) + cuv) dm = f · vdm ∀v ∈ V
Ω Ω

que es de la misma forma B(u, v) = L(v) ∀v ∈ V del ejercicio anterior.

Podemos elegir un subespacio Vn ⊂ V de dimensión finita y buscar en él


un u ∈ Vn tal que B(u, v) = L(v) ∀v ∈ Vn con la idea de que al hacer
crecer la dimensión Vn ⊂ Vn1 ⊂ Vn2 ⊂ ... las correspondientes soluciones
aproximadas u, u1 , u2 , ... tiendan a la solución generalizada del inicial.

La elección de los subespacios Vn en los problemas de contorno multidimen-


sionales es una cuestión más delicada que en el caso unidimensional. Suele
utilizarse el método que describimos con el ejemplo bidimensional más sen-
cillo posible, Ω = (0, 1) × (0, 1):

Elegido un natural M , tomamos h = M1+1 y consideramos la malla rect-


angular cuyos nodos son los puntos alm = (lh, mh) con 0 ≤ l, m ≤ M + 1.
Denotamos Klm al cuadradito cuyo vértice inferior izquierdo es alm y deno-
tamos P1 al espacio de los polinomios en dos variables generado por 1, x, y
y xy y tomamos

VM = {v ∈ C(Ω) | v |∂Ω = 0 y v |Klm ∈ P1 ∀0 ≤ l, m ≤ M }

No es difı́cil ver que una función de VM está determinada de manera única


por los valores que toma en los puntos alm con 1 ≤ l, m ≤ M luego el espacio
VM tiene dimensión M 2 . Una base de VM es {φ1 , · · · , φM 2 } donde

φi (alm ) = δi,l+M (m−1) ∀(l, m)

Puede verse el programa elementosfinitos2 de Modus.

5.2.4 Método de diferencias finitas


Si X e Y son espacios de funciones definidas en un intervalo [a, b], podemos
aproximarnos a la solución de un problema inverso F (x) = b con F : X → Y
tomando una partición {x0 , · · · , xN +1 } ⊂ [a, b] y resolviendo el problema
discretizado F : RN +2 → RN +2 para el dato (b(x0 ), · · · , b(xN +1 )).
216 TEMA 5. PROBLEMAS NO LINEALES

Sean c, f : [a, b] → R funciones continuas. Nos planteamos hallar una función


u : [a, b] → R que cumpla
(
−u00 (x) + c(x)u(x) = f (x) en a < x < b
(P C)
u(a) = ua u(b) = ub

Suponemos que (P C) tiene una solución φ ∈ C 4 (a, b). Si hacemos en [a, b]


la partición de N + 2 puntos {xi = a + i(b−a)
N +1 | i = 0, 1, ..., N + 1} cuya cota
b−a
es h = N +1 , la fórmula de Taylor nos permite escribir para i = 1, · · · , N :

h2 00 h3 h4
φ(xi+1 ) = φ(xi) + hφ0 (xi) + φ (xi ) + φ000 (xi) + φ0000 (xi + θi+ h)
2 6 24
h2 00 h3 h4
φ (xi ) − φ000 (xi) + φ0000 (xi + θi− h)
φ(xi−1 ) = φ(xi) − hφ0 (xi) +
2 6 24
Sumando ambas expresiones obtenemos
h4 0000 
−h2 φ00 (xi ) = −φ(xi−1 )+2φ(xi )−φ(xi+1 )+ φ (xi + θi+ h) + φ0000(xi + θi− h)
24
y si despreciamos el último sumando
−h2 φ00 (xi ) = −φ(xi−1 ) + 2φ(xi) − φ(xi+1 ) ∀i = 1, · · · , N
Ello obliga a la solución φ a cumplir el sistema de ecuaciones lineales

2 + c(x1 )h2 φ(x1 ) − φ(x2 ) = h2 f (x1 ) + ua

−φ(xi−1 ) + 2 + c(xi)h2 φ(xi ) − φ(xi+1 ) = h2 f (xi ) ∀i = 2, · · · , N − 1

−φ(xN −1 ) + 2 + c(xN )h2 φ(xN ) = h2 f (xN ) + ub
La matriz de este sistema es la tridiagonal
 
2 + c(x1 )h2 −1
−1 2 + c(x 2 −1
2 )h
 
 
 .. 
A=
 . 

 
 
 −1 2 + c(xN −1 )h2 −1 
−1 2 + c(xN )h2
y el vector dato es  
h2 f (x1 ) + ua
 h2 f (x2 ) 
 

b= .
. 
 2 .


 h f (xN −1 ) 
h2 f (xN ) + ub
La solución del problema Ax = b es la discretización (φ(x1 ), · · · , φ(xN )) de
la solución φ : [a, b] → R del problema (PC). Todo esto está implementado
en el programa diferenciasfinitas de Modus.
5.2. MÉTODOS DE LINEALIZACIÓN 217

5.2.5 Antitransformada rápida de Fourier


Si (T, d) es un espacio métrico y C es el cuerpo complejo, el teorema 1.9.11
identifica los subconjuntos W ⊂ C(T, C) tales que [Π(W )] = C(T, C). Si
(T, d) es localmente compacto, estos subconjuntos nos permiten identificar
las medidas finitas definidas en la σ-álgebra de Borel de T . En el siguiente
teorema lo vemos cuando (T, d) es (R, | |).

Teorema 5.2.6 Tranformada de Fourier


Sea M(R) el conjunto de todas las medidas finitas definidas en la σ-álgebra
de Borel B(R). Si, para x ∈ R definimos el carácter

Fx : R → C ,
y 7→ e−ixy
la aplicación
F : M(R) → C(R, C) donde µ̂ : R → R C
µ 7→ µ̂ x 7→ R Fx dµ

está bien definida1 y es inyectiva.


Demostración:
Para probar que µ̂ ∈ C(R, C), tomamos (xi ) → x. Entonces (Fxi ) → Fx
puntualmente, |Fxi | ≤ 1 ∀ i ∈ N y 1 ∈ L1 (R, µ) ya que µ(R) < ∞.
El teorema de la convergencia dominada concluye que
Z  Z
Fxi dµ → Fx dµ ⇔ (µ̂(xi)) → µ̂(x) ⇒ µ̂ ∈ C(R, C).
R R

Para demostrar la inyectividad fijamos µ1 , µ2 ∈ M(R) tales que µ̂1 = µ̂2 .


Necesitamos probar que µ1 = µ2 . Para ello es suficiente probar la igualdad
Z Z
f dµ1 = f dµ2 ∀f ∈ Cb (R, R). (5.1)
R R

Lo hacemos en 3 pasos.

Paso 1:
Sea A0 (R, C) el conjunto de todas las combinaciones lineales con coeficientes
complejos del conjunto {Fx | x ∈ R}. De la igualdad µ̂1 = µ̂2 y de la aditivi-
dad de la integral se sigue que
Z Z
a0 dµ1 = a0 dµ2 ∀a0 ∈ A0 (R, C). (5.2)
R R
1
La aplicación F es la Transformación de Fourer. La curva R → R3 definida de modo
que x 7→ (<(µ̂(x)), =(µ̂(x)), x) es la Tranformada de Fourier de la medida µ.
218 TEMA 5. PROBLEMAS NO LINEALES

Sea A(R, C) la clausura of A0 (R, C) en Cb (R, C) respecto de la norma k k∞.


De (5.2), como µ1 y µ2 son medidas finitas, obtenemos fácilmente
Z Z
adµ1 = adµ2 ∀a ∈ A(R, C). (5.3)
R R

Sea A(R, R) := A(R, C) ∩ Cb (R, R). De (5.3) obtenemos


Z Z
adµ1 = adµ2 ∀a ∈ A(R, R). (5.4)
R R

Paso 2.
Sea K ⊂ R un compacto no vacı́o, f ∈ Cb (R, R) una función no identica-
mente nula en K y ε ∈]0, 1[ un número real. Existe a ∈ A(R, R) tal que

sup{|f (x) − a(x)| : x ∈ K} < ε y kak ≤ kf k . (5.5)

En efecto:
Usaremos el siguiente hecho establecido en el lema 1.9.4:
A(R, R) es un álgebra que contiene las constantes reales, separa los puntos
de R y es cerrada en la toma de máximos y mı́nimos:
(
a1 ∨ a2 = max(a1 , a2 ) ∈ A(R, R)
a1 , a2 ∈ A(R, R) ⇒
a1 ∧ a2 = min(a1 , a2 ) ∈ A(R, R)

Sea AK (R, R) = {a|K : a ∈ A(R, R)} y sea kgkK = sup{|g(x)| : x ∈ K}


si g ∈ Cb (R, R). Por el teorema 1.9.1 existe g1 ∈ A(R, R) tal que
ε
kf − g1 kK < . (5.6)
2
Como f |K 6= 0, de (5.6) deducimos que kg1 kK > 0 y, ası́, podemos considerar

kf kK
g := g1 ∈ A(R, R).
kg1 kK

Es claro que kgkK ≤ kf kK y además se cumple que

kf − gkK < ε (5.7)

puesto que

kf kK
kf − gkK ≤ kf − g1 kK + kg1 − gkK = kf − g1 kK +
g1 − g1 kg k

=
1 K K

kf kK
= kf − g1 kK + kg1 kK 1 −
=
kg1 kK
= kf − g1 kK + |kg1 kK − kf kK | ≤ 2kf − g1 kK < ε.
5.2. MÉTODOS DE LINEALIZACIÓN 219

Ahora, si consideramos la función

a := (−kgkK ∨ g) ∧ kgkK

tenemos que a ∈ A(R, R) y −kgkK ≤ a(x) ≤ kgkK ∀x ∈ R. Por


tanto, kak ≤ kgkK ≤ kf kK ≤ kf k y también tenemos que a|K = g|K .
Entonces, por (5.7), vemos que (5.5) se satisface para a.

Paso 3.
Fijemos una f ∈ Cb (R, R) no idénticamente nula y un ε ∈]0, 1[. Existe un
compacto K ⊂ R tal que

µ1 (R \ K) < ε, µ2 (R \ K) < ε y f |K 6= 0.

De acuerdo con el Paso 2 existe un a ∈ A(R, R) para el que se satisface (5.5).


De (5.3) obtenemos:
Z Z Z Z
f dµ1 − f dµ2 = (f − a)dµ1 − (f − a)dµ2
R R R R

y, también,
Z Z Z
(f − a)dµ1 = (f − a)dµ1 + (f − a)dµ1 .
R K R\K

De acuerdo con 5.5 se cumple que kf − ak ≤ kf k + kak ≤ 2kf k y, ası́,


Z Z Z


(f − a)dµ1 ≤ (f − a)dµ1 + (f − a)dµ1 ≤

R K R\K

≤ kf − akK µ1 (K) + kf − akµ1 (R \ K) ≤ εµ1 (K) + 2εkf k .


Similarmente, Z

(f − a)dµ2 ≤ εµ2 (K) + 2εkf k

R
y, en consecuencia,
Z Z

f dµ1 − f dµ2
≤ ε(µ1 (K) + µ2 (K) + 4kf k)

R R

y, como ε > 0 es arbitrario, obtenemos (5.1). ♦

Esta prueba está inspirada en la que podemos encontrar en la pág 69 de


[23] y contiene las correcciones propuestas en [73] para evitar el error que
aquélla contiene.

Consecuencias 5.2.7
220 TEMA 5. PROBLEMAS NO LINEALES

1. Para identificar una medida µ ∈ M(R) no es necesario conocer


Z Z
1E dµ ∀E ∈ B(R) sino Fx dµ ∀x ∈ R.
R R

Por eso los estadı́sticos dicen que µ̂ es la función caracterı́stica de µ.


2. Si µ ∈ M(R) es absolutamente continua respecto de la medida de
Lebesgue, escribimos µ << m y el teorema de Radon-Nikodym (ver
[21]) asegura una h ∈ L1 (R, m) tal que dµ = hdm. Entonces se habla
de la transformada de Fourier de la función h
Z
ĥ(x) = Fx · h dm.
R

Si µ es una medida discreta, combinación de deltas de Dirac, tenemos


n
X n
X
µ= hp δp−1 y µ̂(s) = hp e−i(p−1)s .
p=1 p=1

En los puntos sq = 2π q−1


n con q = 1, · · · , n se cumple que
n
X n
X
(p−1)(q−1)
µ̂(sq ) = hp e−2πi n = hp wqp
p=1 p=1

La matriz compleja
 
w11 · · · w1n
 .. .. ..  con w = e−2πi (p−1)(q−1)
W = . . .  qp n

wn1 · · · wnn
tiene una inversa especialmente sencilla:
1
W −1 = W donde W = (wqp)
n
pues es fácil2 comprobar que
n n
(
1X 1 X 2πi (k−1)(q−p) 1 si p = q
wpk w kq = e n =
n n 0 6 q
si p =
k=1 k=1

Por tanto, es fácil resolver el sistema lineal


    
w11 w12 · · · w1n h1 µ̂(0)
 w21 w22 · · · w2n   h2   µ̂ 2πn

    .

 .. .. . . ..   ..  = 
 . 
.  .    .
 . . 
. 
2π(n−1)
wn1 wn2 · · · wnn hn µ̂ n

2
Cuando p 6= q tenemos la suma de las raices del polinomio z n − 1 = 0 que es nula
como el coeficiente del término de grado n − 1.
5.2. MÉTODOS DE LINEALIZACIÓN 221

Su solución es
    
h1 w11 w12 · · · w1n µ̂(0)
 µ̂ 2π 
h2 
  1  w21 w22 · · ·
 w2n 
 n 
 ..  =  .. .. .. ..  
 .. 
 .  n . .   .
. 
. 
2π(n−1)
hn wn1 wn2 · · · wnn µ̂ n

Si conocemos la µ̂ de una combinación de deltas podemos recuperar dicha


combinación tomando una muestra adecuada de µ̂ en [0, 2π]. Esta anti-
transformada rápida la determinamos con el programa IFFTDiscreta de
Modus.

Si µ << m con densidad h : [a, a + T ] → R:


Z Z a+T
ĥ(s) = e−ist dµ(t) = h(t)e−ist dt
R a

Si dividimos [a,a+T] según la partición


T (p − 1)
tp = a + con p = 1, · · · , n + 1
n
tenemos
n Z
X tp+1
ĥ(s) = h(t)e−ist dt ≈
p=1 tp

n
T −ias X T (p−1)
≈ e h(tp )e−is n
n
p=1

En los puntos sq = 2π q−1


T con q = 1, · · · , n
n
n iasq X
e ĥ(sq ) ≈ h(tp )wqp
T p=1

El sistema lineal
    
w11 w12 ··· w1n h(t1 ) ĥ(0)
i2πa 
 w21 w22 ··· w2n 
 e T ĥ 2π 
  h(t2 ) 
  n n 

 .. .. .. ..   ..  =  .
.

.  .  T  .
 . .  
.  
i2πa(n−1)
wn1 wn2 ··· wnn h(yn ) e T ĥ 2π(n−1)
n

se resuelve automáticamente:
    ĥ(0)

h(t1 ) w11 w12 ··· w1n i2πa 
 h(t2 )  1  w21
 w22 ··· w2n 
 e T ĥ 2π n

   
 ..  =  .. .. .. ..   .. 
 .  T  . . . . 
 . 


i2πa(n−1)
h(tn ) wn1 wn2 ··· wnn e T ĥ 2π(n−1)
n
222 TEMA 5. PROBLEMAS NO LINEALES

Ello nos permite obtener una muestra discreta de la densidad de µ a partir


del conocimiento de ĥ. Esta antitransformación rápida la calculamos con el
programa IFFTContinua de Modus

5.3 Prácticas
1. Hallar la raiz real del polinomio x3 +3x−5 por el método de la bisección
y por el del punto fijo. En este último caso probar con las funciones
5 − x3
(a) G(x) = e inicio en 1.15
3
5
(b) G(x) = 2 e inicio en 1
x +3
2. Usando el método del punto fijo, hallar una solución del sistema

x21 − 10x1 + x22 + 8 = 0


x1 x22 + x1 − 10x2 + 8 = 0

Probar con
 
x21 + x22 + 8 x1 x22 + x1 + 8
G(x1 , x2 ) = , e inicio en (0, 0)
10 10

3. Hallar una solución del sistema

x21 + x2 − 37 = 0
x1 − x22 − 5 = 0
x1 + x2 + x3 − 3 = 0

Sol:(6,1,-4), (6,-1,-2)

4. Usando el método de Newton hallar soluciones de las siguientes ecua-


ciones y sistemas:

(a) 2x1 − e−x1 = 0


(b) 4x51 − 2x41 + 3x31 − x1 + 4 = 0
(
2x1 − x2 − e−x1 = 0
(c)
x1 + 2x2 − e−x2 = 0
(
x1 x2 + x2 ex1 + 10 = 0
(d)
x31 − x2 − 7 = 0
(
x1 + cos x2 = 0
(e)
x2 − sinh x1 = 0
5.3. PRÁCTICAS 223
(
x21 + x22 − 1 = 0
(f) (inicio en (2,0) y (-2,0))
x1 − x2 = 0

2 2 2
x1 + x2 + x3 − 9 = 0

(g) x1 − x2 = 0


x1 + x22 − x3 − 4 = 0

x1 x2 + x3 = 1

(h) x1 cos(x2 + x3 ) = 1 inicio (1, 0, 0)


sin(x1 x3 ) = 1/2

2 3
x1 + x4 = 1

(i) x1 x2 + x3 x4 = 2 inicio (1, 0, 1, 0)


x1 + x2 + x3 x4 = 3
(
−4x21 + x22 = −1
(j) inicios (2, 2), (2, −2), (−1, 1), (−1, −1).
x21 − 2x1 + x22 = 3

3
x1 + x2 + x3 = 5

(k) 5x1 − 2x2 + 3x3 = 9

 2
x1 − x22 − 12x3 = 0

cos(x1 x2 + x3 x4) = 1

(l) 5x1 − 2x2 + 3x3 − x4 = 9

 2
x1 − x22 − 12x3 + 14x4 = 20

5. La impedancia Z en un circuito eléctrico verifica la fórmula


s  
1 1 1 2
= + ωC −
Z R2 ωL

Hallar la frecuencia angular ω para

(Z, R, C, L) = (100 Ω, 225 Ω, 0.6 × 10−6 F, 0.5 H)

6. Una partı́cula M situada en (4,0) inicia un movimiento circular uni-


forme levógiro de radio 3 y velocidad angular 3 en torno a un punto C,
al tiempo que este punto C inicia desde (1,0) otro movimiento circular
uniforme levógiro de radio 1 y velocidad angular 1 en torno al origen
de coordenadas.

(a) Determinar y representar la trayectoria de la partı́cula en el in-


tervalo de tiempo [0, 2π).
(b) Hallar los puntos del plano por los que la partı́cula pasa dos veces
en ese periodo.
224 TEMA 5. PROBLEMAS NO LINEALES

7. Aproximar el primer cuadrante de una elipse de semiejes M y m por


dos arcos de circunfencia cuya yuxtaposición sea diferenciable y tenga
la misma longitud que el trozo de elipse. (Ver eliap).

8. Aproximar el primer cuadrante de una elipse de semiejes M y m por


tres arcos de circunfencia cuya yuxtaposición sean diferenciable, tenga
la misma longitud que el trozo de elipse y encierre con los ejes la misma
área.

9. Una viga horizontal de longitud L está construida de un material cuyo


módulo de Young es E y el momento principal de inercia de su sección
en el punto de abcisa x es I(x). Si está simplemente apoyada en
sus extremos, estirada en ellos por fuerzas constantes −F y F , y la
sometemos a una densidad de carga transversal f (x), su momento
flector u(x) cumple

−u”(x) + F
u(x) = f (x) en 0 < x < L
I(x) · E

u(0) = 0 , u(L) = 0

Usar los métodos de elementos finitos y diferencias finitas para hallar


el momento flector de vigas de diferentes secciones y materiales con
diferentes cargas.
Tema 6

Aproximación no hilbertiana

6.1 Introducción
Si Y es un subespacio cerrado de un espacio normado (X, k k), para cada
x ∈ X hemos definido en la pág. 29 la distancia al subespacio

d(x, Y ) := inf{kx − yk | y ∈ Y }.

Si (X, k k) es un Hilbert, el teorema 1.10.5 asegura para cada x ∈ X que


1. El conjunto de mejores aproximaciones es no vacı́o

A(x, Y ) := {y ∈ Y | kx − yk = d(x, Y )} =
6 ∅

Es decir, todo subespacio cerrado es proximinal.

2. El conjunto de mejores aproximaciones tiene un único elemento AY (x).

3. La aplicación de mejor aproximación

AY : X → X
x 7 → AY (x)

es lineal, continua e idempotente, es decir, es una proyección.

4. Además, x − AY (x) ∈ Y ⊥ por lo que AY es una proyección orto-


gonal de norma 1.
Sin embargo, si (X, k k) no es un Hilbert, ninguno de los puntos anteriores
tiene por que cumplirse.

La existencia de mejores aproximaciones está asegurada en los subespacios Y


de dimensión finita: Al ser Y localmente compacto, toda sucesión (yn ) ⊂ Y
tal que kx − yn k → d(x, Y ), por ser acotada, tiene una subsucesión conver-
gente (ynk ) → yx ∈ Y y, ası́, aseguramos que kx − yx k = d(x, Y ).

225
226 TEMA 6. APROXIMACIÓN NO HILBERTIANA

La existencia de mejores aproximaciones es más fácil en los espacios duales.


El siguiente corolario del teorema 1.4.2 asegura que aunque un subespacio
cerrado Y ⊂ X no sea proximinal, Y ⊥ = {g ∈ X ? | g(y) = 0 ∀y ∈ Y }
siempre es proximinal en (X ? , k k).

Corolario 6.1.1
Sea (X, k k) un espacio normado y sea Y un subespacio. Entonces:
1. Y ⊥ es subespacio cerrado de (X ?, k k).

2. Para cualquier f ∈ X ? , existe un gf ∈ Y ⊥ que cumple

kf − gf k = inf{kf − gk | g ∈ Y ⊥ } = kf kY

3. Si f |Y está alineado con y ∈ Y , también lo está f − gf .


Demostración:
1. Cada x ∈ X puede entenderse como un funcional lineal y continuo

ux : X? → R
f 7→ f (x)

Para cada y ∈ Y , ker uy es un subespacio vectorial cerrado y


\
Y⊥ = ker uy
y∈Y

luego, como itersección de subespacios cerrados, es subespacio cerrado.

2. Dado f ∈ X ? , para cada g ∈ Y ⊥ se tiene que

kf − gk = sup{(f − g)(x) | x ∈ X, kxk = 1} ≥

≥ sup{(f − g)(y) | y ∈ Y, kyk = 1} =


= sup{f (y) | y ∈ Y, kyk = 1} = kf kY
Luego
inf{kf − gk | g ∈ Y ⊥ } ≥ kf kY
Ahora bien, f |Y : Y → R es un funcional lineal y continuo y, según
1.6.5, tiene una extensión f¯ : X → R de igual norma que f |Y . En-
tonces, gf := f − f¯ se anula en Y , es decir, gf ∈ Y ⊥ . Además,

kf − gf k = kf¯k = kf kY ≤ inf{kf − gk | g ∈ Y ⊥ }

Como la desigualdad contraria es evidente, Y ⊥ es proximinal en X ? y


2. está completamente probado.
6.1. INTRODUCCIÓN 227

3. Si f |Y estuviera alineado con y ∈ Y tendrı́amos

(f − gf )(y) = f (y) = kf kY kyk = kf − gf kkyk

luego f − gf también estarı́a alineado con y ♦


El hecho de que un subespacio cerrado Y sea proximinal en (X, k k), no
significa que el conjunto A(x, Y ) de mejores aproximaciones tenga un único
elemento. Es fácil ver que A(x, Y ) siempre es convexo, cerrado y acotado
pero, en general, no es atómico.

Diremos que un espacio normado (X, k k) es estrictamente convexo si


(
kxk = kyk x + y
⇒ 2 < kxk

x 6= y

Es interesante la siguiente caracterización de convexidad estricta:

Lema 6.1.2
Sea (X, k k) un espacio normado, B(X) su bola unidad cerrada y S(X) su
frontera.
1. ext(B(X)) ⊂ S(X).

2. ext(B(X)) = S(X) si y sólo si (X, k k) es estrictamente convexo.


Demostración:
1. En todo espacio normado tenemos que co(S(X)) = B(X). El lema
1.5.1 nos asegura que ext(B(X)) ⊂ S(X).

2. Probamos en primer lugar que si (X, k k) no es estrictamente con-


vexo, S(X) 6⊂ ext(B(X)): Existen x 6= y con kxk = kyk = 1 tales
x+y x+y x+y
2 ∈ S(X). Es claro que x, y ∈ B(X)\{ 2 } y 2 ∈ / B(X)\{ x+y
2 },
x+y x+y
luego B(X) \ { 2 } no es convexo y, por tanto 2 ∈ / ext(B(X)).

Ahora, suponemos que (X, k k) es estrictamente convexo y probamos


que S(X) ⊂ ext(B(X)) por reducción al absurdo: Sea e ∈ S(X).
Si suponemos que B(X) \ {e} no es convexo es fácil ver que existen
x1 , x2 ∈ B(X) \ {e} tales que x1 6= x2 y x1 +x2
2

/ B(X) \ {e}. En-
x1 +x2
tonces, 2 = e y, por tanto, kx1 k = kx2 k = 1. Esto contradice la
hipótesis de ser (X, k k) estrctamente convexo. ♦
En Rn , para 1 ≤ p ≤ ∞, consideramos las normas
 1
kxkp = (Pn |xi |p) p si p < ∞
i=1
kxk∞ = max {|xi|} si p = ∞
1≤i≤n
228 TEMA 6. APROXIMACIÓN NO HILBERTIANA

y utilizaremos frecuentemente las siguientes abreviaturas:

lpn := (Rn , k kp ) Bpn := B(lpn ) y Spn−1 := S(lpn)

Lema 6.1.3
Si 1 < p < ∞, el espacio lpn es estrictamente convexo.
Demostración:
Sean x 6= y tales que kxkp = kykp. Debemos probar que, entonces,

x + y
2 < kxkp

p

Supongamos, en primer lugar, que x ≥ 0 e y ≥ 0, es decir, que todas las


coordenadas de ambos vectores son positivas. Como la derivada segunda de
la función f : R+ 3 t 7→ tp ∈ R es una función positiva, f es una función
convexa y, por tanto,
 
xi + yi p 1 p 1 p
≤ xi + yi ∀i = 1, · · · , n
2 2 2
y sumando todos
n   n n n n
X xi + yi p 1 X p 1 X p X p X p
≤ xi + yi = xi = yi
2 2 2
i=1 i=1 i=1 i=1 i=1

pero, como x 6= y, existe algún i0 para el que


1 p 1
xi0 + yip0 < max{xpi0 , yip0 }
2 2
y, por tanto, el menor estricto debe darse también en la suma. Ası́,
n   n n
X xi + yi p X p X p
< xi = yi
2
i=1 i=1 i=1

En el caso general, llegamos, con los mismos argumentos, a las relaciones


n n   n n
X xi + yi p X |xi | + |yi | p X p
X

2
≤ ≤ |xi| = |yi |p
2
i=1 i=1 i=1 i=1

y, como x 6= y, existe algún i0 para el que o bien


1 1
|xi |p + |yi0 |p < max{|xi0 |p, |yi0 |p}
2 0 2
o bien
xi0 + yi0 p 1
0=
< |xi |p + 1 |yi |p
2 2 0 2 0
6.2. MEJOR APROXIMACIÓN EN (C[A, B], k k∞) 229

luego, una de las desigualdades entre las sumas tiene que ser estricta. ♦

Una condición suficiente para que los conjuntos A(x, Y ) sean atómicos es
que (X, k k) sea estrictamente convexo. En efecto, si y1 , y2 ∈ A(x, Y ) con
y1 6= y2 llegamos a un absurdo:
(
kx − y1 k = kx − y2 k y1 + y2
⇒ x −
< d(x, Y )
x − y1 6= x − y2 2

Los Hilbert son estrictamente convexos debido a la ley del paralelogramo:


(
kxk = kyk
⇒ kx + yk2 + kx − yk2 = 4kxk2 ⇒ kx + yk2 < 4kxk2
x 6= y

Sin embargo, (C[a, b], k k∞) no es estrictamente convexo, pues las funciones
x−a
f1 (x) = 1 y f2 (x) = tienen norma 1 y su semisuma f1 +f 2
2
también
b−a
tienen norma 1.

Aunque podamos definir la aplicación de aproximación AY , puede que no


sea lineal. Entonces, puede ser preferible usar una proyección P : X → X
cuya imagen sea Y y tomar P (x) como una aproximación suficiente de x en
Y . El error cometido al tomar esta decisión es kx − P (x)k y es claro que

d(x, Y ) ≤ kx−P (x)k = kx−AY (x)+P ◦AY (x)−P (x)k ≤ (1+kP k)d(x, Y )

Ası́, la razón entre el error cometido y el menor error posible de aproxi-


mación, es menor o igual que 1 + kP k. Convendrá, pues, que la norma de
la proyección elegida sea lo menor posible.

6.2 Mejor aproximación en (C[a, b], k k∞)


Es claro que C[a, b] ⊂ L2 [a, b] y que (L2 [a, b], k k2) es un espacio de Hilbert.
Sin embargo, para muchas cuestiones técnicas nos interesa más distinguir
los elementos f, g ∈ C[a, b] puntualmente

kf − gk∞ = sup{|f (x) − g(x)| | x ∈ [a, b]}

que en promedio
Z b  12
kf − gk2 = |f (x) − g(x)|2dx
a

Chebychev estudió la unicidad de la mejor aproximación de una f ∈ C[a, b]


en determinados subespacios de dimensión finita y tendremos ocasión de
ver que los resultados son mucho más costosos que en (L2 [a, b], k k2). Em-
pezamos con una definición y un teorema de caracterización.
230 TEMA 6. APROXIMACIÓN NO HILBERTIANA

Definición 6.2.1
Si f, g ∈ C[a, b], designamos

D(f, g) = {x ∈ [a, b] | |f (x) − g(x)| = kf − gk∞}

Teorema 6.2.2
Sea Y ⊂ C[a, b] un subespacio de dimensión finita y sea f ∈ C[a, b].

y0 ∈ A(f, Y ) ⇔ min {[f (x) − y0 (x)] · y(x)} ≤ 0 ∀y ∈ Y


x∈D(f,y0)

Demostración:
Notemos que si f ∈ Y , ambas afirmaciones se verifican trivialmente. Por
tanto, supondremos que f ∈
/ Y.
⇐) Si y0 ∈
/ A(f, Y ) existe una y1 ∈ Y tal que
|f (x) − y1 (x)| < |f (x) − y0 (x)| ∀x ∈ D(f, y0 )

y, por tanto,

|f (x) − y0 (x)|2 − |f (x) − y1 (x)| · |f (x) − y0 (x)| > 0 ∀x ∈ D(f, y0 )

La función y1 − y0 ∈ Y niega la segunda afirmación:

[f (x)−y0 (x)]·[y1(x)−y0 (x)] = [f (x)−y0 (x)]·[f (x)−y0(x)−f (x)+y1 (x)] =


[f (x) − y0 (x)]2 − [f (x) − y1 (x)] · [f (x) − y0 (x)] > 0 ∀x ∈ D

⇒) Supongamos que existe y2 ∈ Y tal que

min {[f (x) − y0 (x)] · y2 (x)} = k > 0


x∈D(f,y0)

Por ser f , y0 e y2 continuas, ∀x ∈ D(f, y0 ) existe un entorno abierto


donde
[f (x) − y0 (x)] · y2 (x) > k/2
y siendo U la unión de todos esos entornos abiertos tenemos que

[f (x) − y0 (x)] · y2 (x) > k/2 ∀x ∈ U

Como D(f, y0 ) ⊂ U , el máximo kf − y0 k∞ no se puede alcanzar en el


compacto K = [a, b] \ U y, por tanto,

kf − y0 k∞ − max{|f (x) − y0 (x)|} = c > 0


x∈K

Con estos mimbres construimos una y3 ∈ Y más próxima a f que y0 :


 
c k
y3 = y0 + δy2 siendo δ = min ,
2ky2 k∞ 2ky2 k2∞
6.2. MEJOR APROXIMACIÓN EN (C[A, B], k k∞) 231

(a) Si x ∈ U :

|f (x) − y3 (x)|2 = |f (x) − y0 (x) − δy2 (x)|2 =

|f (x) − y0 (x)|2 − 2δ|f (x) − y0 (x)| · |y2 (x)| + δ 2 |y2 (x)|2 ≤


δk
≤ |f (x) − y0 (x)|2 − δk + δ 2 |y2 (x)|2 ≤ |f (x) − y0 (x)|2 − δk +
2
luego

δk
|f (x) − y3 (x)|2 ≤ kf − y0 k2∞ − < kf − y0 k2∞
2

(b) Si x ∈ K:
c
|f (x) − y3 (x)| = |f (x) − y0 (x)| + δ|y2 (x)| ≤ |f (x) − y0 (x)| + ≤
2
c c
≤ max{|f (x) − y0 (x)|} + = kf − y0 k∞ − < kf − y0 k∞ ♦
x∈K 2 2

6.2.3 Subespacios de Chebychev


Definición 6.2.4

Las funciones linealmente independientes {y1 , y2 , · · · , yn } ⊂ C[a, b] forman


un sistema de Haar o el subespacio Y = [y1 , y2 , · · · , yn ] es de Haar, si
cualquier elemento no nulo de Y tiene menos de n raices en [a, b].

Lema 6.2.5

( (
{y1 , y2 , · · · , yn } ⊂ C[a, b] ∀{x1 , x2 , · · · , xn} ⊂ [a, b]
es de Haar ⇔
lin. ind. dispersa, det[yi (xj )] 6= 0
Demostración:

2⇒1 Existe una combinación no nula con n raices distintas, luego el sistema
siguiente tiene solución no trivial:

λ1 y1 (x1 ) + λ2 y2 (x1 ) + · · · + λn yn (x1 ) = 0


λ1 y1 (x2 ) + λ2 y2 (x2 ) + · · · + λn yn (x2 ) = 0
..
.
λ1 y1 (xn ) + λ2 y2 (xn ) + · · · + λn yn (xn ) = 0

Ası́, su matriz debe tener el determinante nulo.


232 TEMA 6. APROXIMACIÓN NO HILBERTIANA

1⇒2 Existe una n-tupla dispersa1 en [a, b] con det[yi (xj )] = 0. El sistema
anterior
P tiene solución no trivial y, por tanto, existe una combinación
λiyi no identicamente nula con n raices. Luego {y1 , y2 , · · · , yn } no
es un sistema de Haar.

Lema 6.2.6

Sea Y ⊂ C[a, b] un subespacio de Haar n-dimensional y f ∈ C[a, b] \ Y .


Entonces:
y0 ∈ A(f, Y ) ⇒ card(D(f, y0 )) ≥ n + 1
Demostración:
Supongamos que D(f, y0 ) = {x1 , · · · , xp} con p ≤ n. Si {y1 , · · · , yn } es una
base de Haar de Y , el sistema

λ1 y1 (x1 ) + λ2 y2 (x1 ) + · · · + λn yn (x1 ) = f (x1 ) − y0 (x1 )


λ1 y1 (x2 ) + λ2 y2 (x2 ) + · · · + λn yn (x2 ) = f (x2 ) − y0 (x2 )
..
.
λ1 y1 (xp) + λ2 y2 (xp) + · · · + λn yn (xp) = f (xp ) − y0 (xp )
P
tiene solución, digamos, {`1 , · · · , `n}. Consideramos h = `i yi ∈ Y . Esta
función cumple que

[f (xi ) − y0 (xi )] · h(xi ) = |f (xi) − y0 (xi)|2 = d(f, Y )2 > 0 ∀i = 1 · · · n

y, según el teorema 6.2.2, y0 ∈


/ A(f, Y ). ♦

Teorema 6.2.7

Si Y ⊂ C[a, b] es de Haar, A(f, Y ) es atómico ∀f ∈ C[a, b]


Demostración:2
Supongamos que Y es n-dimensional y existen y1 6= y2 en A(f, Y ). Como
A(f, Y ) es convexo,
y1 + y2
y0 = ∈ A(f, Y )
2
Tenemos, entonces, que card(D(f, y0 )) ≥ n + 1 y

|f (x) − y1 (x)| ≤ d(f, Y )

|f (x) − y2 (x)| ≤ d(f, Y ) ∀x ∈ D(f, y0 )


|f (x) − y0 (x)| = d(f, Y )
1
Decimos que la n-tupla {x1 , · · · , xn } es dispersa si x1 < · · · < xn .
2
El recı́proco también es cierto pero no presentamos la demostración.
6.2. MEJOR APROXIMACIÓN EN (C[A, B], k k∞) 233

y como
f (x) − y1 (x) + f (x) − y2 (x)
f (x) − y0 (x) =
2
resulta que

|f (x) − y1 (x)| = |f (x) − y2 (x)| ∀x ∈ D(f, y0 )

Como el valor absoluto es una norma estrictamente convexa en R y no se


cumple la desigualdad con la semisuma, se deduce que y1 = y2 en D. Ası́,
y1 − y2 es no nula en Y y tiene n + 1 raices en [a, b]: Y no es de Haar. ♦

Es fácil comprobar que {1, x, · · · , xn−1 } y {1, e−x, · · · , e−nx } son sistemas
de Haar en cualquier C[a, b] y {1, cos x, sin x, · · · , cos nx, sin nx} lo es en
C[−π, π − ] para  < 2π. Ası́, en los más importantes subespacios fini-
todimensionales de funciones continuas, tenemos asegurada la unicidad de
la mejor aproximación. Nuestro siguiente objetivo es cracterizarla.

6.2.8 Caracterización de la mejor aproximación


Para un subespacio cerrado Y de un espacio normado (X, k k), el funcional
dY : X → R+
x 7 → d(x, Y )
es una seminorma que se anula en Y . Para caracterizar la atomicidad de los
suconjuntos A(x, Y ) de un subespacio proximinal Y , es conveniente estudiar
los funcionales lineales L : X → R dominados por dY . Se caracterizan por
cumplir
Y ⊂ ker L y kLk ≤ 1

Corolario 6.2.9 Existencia de funcionales maximales


Sea (X, k k) un espacio normado, Y ⊂ X un subespacio proximinal y x0 ∈
/ Y.
Existe un funcional M ≤ dY tal que kM k = 1 y M (x0 ) = dY (x0 ).
Demostración:
Consideremos el funcional lineal
m: [x0 ] ⊕ Y → R
λx0 + y 7→ λdY (x0 )
Es claro que m ≤ dY . El teorema 1.4.2 nos asegura la existencia de una
extensión lineal de m, M : X → R, también dominado por dY . Entonces,
kmk ≤ kM k ≤ 1. Pero el carácter proximinal de Y garantiza la existencia
de y0 ∈ Y tal que kx0 − y0 k = d(x0 , Y ). Luego
 
x0 − y0
m = 1 y, por tanto, kmk ≥ 1 ♦
kx0 − y0 k
234 TEMA 6. APROXIMACIÓN NO HILBERTIANA

En (C[a, b], k k∞), para un subespacio de Haar y una función no contenida


en él, es sencillo construir un funcional maximal de los asegurados en el
corolario 6.2.9.

Lema 6.2.10

Sea Y ⊂ C[a, b] un subespacio de Haar n-dimensional, y X = {x1 , · · · , xn+1 }


una (n+1)-tupla dispersa de [a, b]. Existe un único funcional lineal maximal

M: C[a, b] → R
n+1
X
f 7→ µi f (xi )
i=1

que cumple:

n+1
Y n+1
X
i+1
µi 6= 0 , sig(µi) = (−1) ∀i = 1, · · · , n y |µi | = 1
i=1 i=1

Demostración:
Dada una base de Haar {y1 , · · · , yn } de Y y la (n + 1)-tupla X, el sistema

λ1 y1 (x1 ) + · · · + λn+1 y1 (xn+1 ) = 0


λ1 y2 (x1 ) + · · · + λn+1 y2 (xn+1 ) = 0
..
.
λ1 yn (x1 ) + · · · + λn+1 yn (xn+1 ) = 0

n+1
Y
tiene un rayo de soluciones [(λ̄1, · · · , λ̄n+1 )] tal que λ̄i 6= 0 pues si
i=1
algún λ̄i fuese nulo, pasando su columna al segundo miembro, verı́amos
que también deberı́an ser nulos todos los demás.
Con cualquier solución particular no nula, {λ · λ̄1, · · · , λ · λ̄n+1} construimos
un funcional lineal
n+1
X
L(f ) = λ λ̄i f (xi )
i=1

que cumple Y ⊂ ker L y basta elegir

sig(λ̄1) sig(λ̄1 )λ̄i


λ= n+1
para que los µi = n+1
i = 1, · · ·n + 1
X X
|λ̄i| |λ̄i|
i=1 i=1
6.2. MEJOR APROXIMACIÓN EN (C[A, B], k k∞) 235

n+1
Y n+1
X
cumplan que µ1 > 0 , µi 6= 0 y |µi | = 1.
i=1 i=1
Por otra parte, es claro que existe una y ∈ Y que tiene sus n − 1 raices en
{x1 , · · · , xn+1 } \ {xi, xi+1 } y, por tanto, y(xi ) · y(xi+1 ) > 0. Ası́,

M (y) = µi y(xi ) + µi+1 y(xi+1 ) = 0 luego sig(µi+1 ) = −sig(µi )

El funcional M cumple que kM k ≤ 1 porque


!
n+1 n+1 n+1
X X X
|M (f )| = µi f (xi ) ≤ |µi | · |f (xi)| ≤ |µi | kf k∞

i=1 i=1 i=1

Además, eligiendo una función f de norma 1 tal que


n+1
X
f (xi ) = sig(µi ) vemos que kM k ≥ |µi | = 1 ♦
i=1

Corolario 6.2.11
Dada f ∈ C[a, b], M (f ) depende continuamente de X = {x1 , · · · , xn+1 } y

lim M (f ) = 0
xi →xi+1

Demostración:
Si {y1 , · · · , yn } es una base de Haar de Y , el sistema

λ1 y1 (x1 ) + · · · · · · + λi yi (x1 ) + · · · · · · + λn yn (x1 ) = f (x1 )


..
.
λ1 y1 (xi−1 ) + · · · + λiyi (xi−1 ) + · · · + λn yn (xi−1 ) = f (xi−1 )
λ1 y1 (xi+1 ) + · · · + λiyi (xi+1 ) + · · · + λn yn (xi+1 ) = f (xi+1 )
..
.
λ1 y1 (xn+1 ) + · · · + λiyi (xn+1 ) + · · +λn yn (xn+1 ) = f (xn+1 )

tiene solución única. Existe y ∈ Y tal que y = f en X \ {xi } y, por tanto,

|M (f )| = |M (f − y)| = |µi ||f (xi ) − y(xi)| ≤ |f (xi ) − y(xi )|

Ası́,
lim |f (xi) − y(xi )| = 0 ≥ lim |M (f )| ≥ 0 ♦
xi →xi+1 xi →xi+1
236 TEMA 6. APROXIMACIÓN NO HILBERTIANA

Corolario 6.2.12
Dado un subespacio de Haar n-dimensional Y ⊂ C[a, b] suponemos que para
una f ∈ C[a, b] y una y ∈ Y existe una (n+1)-tupla dispersa {x1 , · · · , xn+1 } =
X ⊂ [a, b] tal que
sig(f (xi) − y(xi)) = ±(−1)i ∀i = 1, · · · , n + 1
Entonces,
d(f, Y ) > min {|f (xi) − y(xi)|}
xi ∈X
Demostración:
Siendo M el funcional maximal de Y asociado a la (n + 1)-tupla X tenemos
n+1
X

d(f, Y ) = d(f − y, Y ) ≥ |M (f − y)| = µi (f (xi) − g(xi))

i=1

Nos dicen que todos los sumandos tienen signo constante. Por tanto,
n+1
X
d(f, Y ) = |µi | · |(f (xi) − g(xi))| ≥ min {|f (xi) − g(xi )|} ♦
xi ∈X
i=1

Lema 6.2.13
Sea Y ⊂ C[a, b] un subespacio de Haar n dimensinal y M : C[a, b] → R el
funcional maximal asociado a la (n + 1)-tupla dispersa X = {x1 , · · · , xn+1 }.
Para cada f ∈ C[a, b] existe una única y0 ∈ Y tal que
µi
y0 (xi ) + M (f ) = f (xi ) ∀xi ∈ X
|µi|
Además, y0 |X es la mejor aproximación de f |X .
Demostración:
Dada una base de Haar {y1 , · · · , yn } de Y consideramos el sistema
µ1
α1 y1 (x1 ) + · · · · · · + αn yn (x1 ) + αn+1 = f (x1 )
|µ1 |
..
.
µn+1
α1 y1 (xn+1 ) + · · · + αn yn (xn+1 ) + αn+1 = f (xn+1 )
|µn+1 |

Multiplicando cada ecuación por su µ tenemos el sistema equivalente


α1 µ1 y1 (x1 ) + · · · + αn µ1 yn (x1 ) + αn+1 |µ1 | = µ1 f (x1 )
..
.
α1 µn+1 y1 (xn+1 ) + · · · + αn µn+1 yn (xn+1 ) + αn+1 |µn+1 | = µn+1 f (xn+1 )
6.2. MEJOR APROXIMACIÓN EN (C[A, B], k k∞) 237

y sumando tenemos
n+1
X n+1
X
α1 µi y1 (xi ) + · · · + αn µi yn (xi ) +αn+1 = M (f )
i=1 i=1
| {z } | {z }
0 0

luego αn+1 = M (f ) y eliminándolo del sistema inicial tendremos


µ1
α1 y1 (x1 ) + · · · + αn yn (x1 ) = f (x1 ) − M (f )
|µ1 |
..
.
µn+1
α1 y1 (xn+1 ) + · · · + αn yn (xn+1 ) = f (xn+1 ) − M (f )
|µn+1 |

Este sistema tiene una solucı́on {ᾱ1 , · · · , ᾱn } y tomando


n
X µi
y0 = ᾱi yi ⇒ y0 (xi ) + M (f ) = f (xi ) ∀xi ∈ X
|µi |
i=1

Observemos que el teorema 6.2.2 mantiene su validez si sustituimos [a, b]


por cualquier espacio compacto, por ejemplo, por el espacio discreto X. Si
y0 |X no fuese la mejor aproximación de f |X existirı́a alguna y ∈ Y tal que
µi y(xi)
[f (xi ) − y0 (xi )] · y(xi) = M (f ) > 0 ∀xi ∈ X
|µi |
n+1
X 1
y, en tal caso, µi y(xi ) > en contra del supuesto Y ⊂ ker M . ♦.
M (f )
i=1

Teorema 6.2.14
Sea Y ⊂ C[a, b] un subespacio de Haar n-dimensional y f ∈ C[a, b]:
(
∃X = {x1 , · · · , xn+1 } ⊂ [a, b] dispersa tq
(1) y0 ∈ A(f, Y ) ⇔ (2)
f (xi ) − y0 (xi ) = ±(−1)i kf − y0 k∞ ∀xi ∈ X

Demostración:
2⇒1 Suponiendo (2 ∧ ¬1) llegaremos a un absurdo: ∃y1 ∈ Y tal que

|f (xi) − y1 (xi )| ≤ kf − y1 k∞ < kf − y0 k∞ = |f (xi ) − y0 (xi )| ∀xi ∈ X

Por tanto, y1 − y0 = (f − y0 ) − (f − y1 ) tiene el mismo signo que f − y0


en cada xi ∈ X. Esto quiere decir que y1 − y0 ∈ Y cambia de signo n
veces en [a, b], luego tiene al menos n raices en [a, b], luego Y no es de
Haar, contra la hipótesis.
238 TEMA 6. APROXIMACIÓN NO HILBERTIANA

1⇒2 Sea y0 ∈ A(f, Y ). Para cada (n + 1)-tupla X ⊂ [a, b] dispersa consid-


eramos el funcional maximal MX . De acuerdo con el corolario 6.2.11,

M = max{|MX (f )| | X ⊂ [a, b] dispersa}

se alcanza en una X̄ = {x̄1 , · · · , x̄n+1 } ⊂ [a, b] dispersa.


Probemos que y0 coincide con la mejor aproximación y1 de f en X̄.
Si, ası́ no fuera tendrı́amos, por el lema 6.2.13 que

|f (ξ) − y1 (ξ)| > |M̄ (f )| para algún ξ ∈ [a, b]

siendo M̄ el funcional maximal respecto de X̄ y podriamos sustituir


un punto de X̄ por este ξ de modo que obtuviéramos otra (n+1)-tupla
¯ = {x̄
dispersa X̄ ¯1 , · · · , x̄
¯n+1 } que cumpliera
1

¯i) − y1 (x̄
sig(f (x̄ ¯i)) = ±sig(f (x̄i) − y1 (x̄i)) ∀i = 1, · · · , n + 1
¯ fuera el funcional maximal respecto de X̄
Si M̄ ¯ tendrı́amos

n+1
X
¯ (f )| = |M̄
|M̄ ¯ (f − y )| = ¯i | · |f (x̄
|µ̄ ¯i ) − y1 (x̄
¯i )| =
1
i=1

n+1
X 
= |M̄(f )| + ¯i | · |f (x̄
|µ̄ ¯i) − y1 (x̄
¯i )| − |M̄ (f )| > |M̄ (f )| = M
i=1
en contra del carácter máximo de M. Luego y0 es la mejor aproxi-
mación de f en la (n + 1)-tupla X0 . ♦

6.2.15 El algoritmo de Remez


La (n + 1)-tupla X̄ = {x̄1 , · · · , x̄n+1 } ⊂ [a, b] dispersa que cumple las condi-
ciones del teorema 6.2.14 se llama (n+1)-tupla alternante de f en Y . Remez
diseñó un algoritmo para obtenerla:
1. Tomar cualquier {x01 , · · · , x0n+1 } como (n + 1)-tupla inicial.
2. Determinar el único polinomio p de grado n − 1 tal que

f (x0i ) − p(x0i ) = −[f (x0i+1 ) − p(x0i+1 )] ∀i = 1, · · · , n

3. Calcular la norma kf − pk∞

4. Si kf − pk∞ − |f (x0i ) − p(x0i )| <tolerancia acabar.


5. Si no, calcular y ∈ [a, b] tal que

kf − pk∞ = |f (y) − p(y)| > |f (x0i ) − p(x0i )|

y substituir un punto de X0 por y para obtener una nueva (n+1)-tupla


X1 = {x11 , · · · , x1n+1 } a la que aplicar de nuevo todo el proceso.
6.3. PROYECCIONES VERSUS MEJOR APROXIMACIÓN 239

Nosotros lo hemos implementado en el programa remez de Modus.

Es fácil comprobar que los polinomios de grado menor o igual que 1 que
mejor aproximan a ex , cos(x) y ex + cos(x) en [0,1] son

.8940 + 1.7183 x, 1.0537 − .4596 x y 1.9462 + 1.2586 x

y ası́, vemos que la aplicación de aproximación AY : C[a, b] → P1 aunque


es idempotente, no es lineal.

6.3 Proyecciones versus Mejor Aproximación


Como ya hemos dicho, casi siempre es preferible una proyección de imagen
Y que una aplicación de aproximación sobre Y que no sea lineal. Una
proyección de imagen Y es una aplicación lineal continua e idempotente
P: C[a, b] → Y
f 7→ P (f )
y, por tanto, un elemento del producto tensor C[a, b]? ⊗ Y . Si {y1 , · · · , yn }
es una base de Y , tendremos
n
X
P = µi ⊗ yi
i=1

donde µi : C[a, b] → R es una medida con signo, de las aseguradas por el


teorema de representación de Riesz (ver [21]). Si Y = Pn es el subespacio
de los polinomios de grado menor o igual que n y {p0 , · · · , pn} es una de sus
bases, tendremos
n Z b
X 
Pn (f ) = f dµi pi
i=0 a

y, para asegurar la idempotencia es necesario y suficiente que la base cumpla


Z b
pj dµi = δij ∀i, j = 0, ..., n
a

6.3.1 Proyecciones interpolatorias


Si tomamos µi = δxi siendo {x0 , ..., xn} una (n + 1)-tupla dispersa
Z b
pj dδxi = pj (xi ) = δij ∀i, j = 0, ..., n
a

y la base {p0 , ..., pn} debe ser la de Lagrange para {x0 , ..., xn}:
Y  x − xi 
pj (x) = ∀j = 0, · · · , n
xj − xi
i6=j
240 TEMA 6. APROXIMACIÓN NO HILBERTIANA

En este caso tenemos la interpolación de Lagrange:


n
X
Pn (f ) = f (xi)pi
i=0

Para estimar la norma de la proyección interpolatoria de Lagrange


n
X
Pn = δxi ⊗ pi
i=0

n
X
observemos que la función Λn = |pi| : [a, b] → R cumple que
i=0

Xn X n

kPn k = δxi ⊗ pi ≤ kpik∞ = kΛn k∞ .

i=0 i=0

Por otra parte, si x̄ ∈ [a, b] es un punto donde Λn alcanza el máximo abso-


luto, la función poligonal
q: [a, b] → R
xi 7→ sign pi (x̄)
tiene norma uniforme 1 y cumple que
n n
X X

kPn (q)k∞ = max sign pi (x̄)pi(x) ≥ sign pi (x̄)pi (x̄) = kΛk∞
x∈[a,b]
i=0 i=0

En consecuencia, kPn k = kΛn k∞ y no es difı́cil ver que kΛn k∞ ≥ n. Pero,


evidentemente, kΛn k∞ depende de la particular distribución de la (n + 1)-
tupla {x0 , ..., xn} en el intervalo [a, b]. Presentamos una tabla comparativa
para la distribución equidistante sobre [a, b] (E) y la distribución proyectada
en [a, b] de la equidistante sobre la semicircunferencia de diámetro [a, b]
(CH):

Tabla comparativa
n kPn (E)k kPn (CH)k
2 2 2
3 3 3
4 4.1126 4.0214
5 5.3046 5.0377
6 6.5545 6.0492
7 8.1377 7.0567
8 11.4577 8.0629
9 16.6223 9.0655
10 25.6438 10.0686
6.3. PROYECCIONES VERSUS MEJOR APROXIMACIÓN 241

La distribución uniforme sobre la semicircunferencia, introducida por Cheby-


chev, puede ser considerada óptima pues kPn (CH)k ≈ n y n es una cota
inferior para todas las distribuciones posibles. Sin embargo, las interpola-
ciones habituales en los labaratorios suelen ser las equidistantes sobre [a, b].
Ambas están implementadas en el programa interpolaciondelagrange de
Modus.

La interpolación de Lagrange de una función f ∈ C 1 [a, b] en los nodos


{x0 , · · · , xn } puede ser especializada en el siguiente sentido:
Añadimos el nuevo nodo xi + t o xi − t, con t suficientemente pequeño, e
imponemos que en él, el polinomio interpolador tome el valor f (xi ) + tf 0 (xi )
o f (xi ) − tf 0 (xi ). Si hacemos que t → 0, el resultado es un polinomio que en
los nodos iniciales coincide con la función f y, además, en el nodo xi , su poli-
nomio derivado coincide con f 0 . El polinomio interpolador habrá aumentado
un grado para obtener esta especialización. Naturalmente, esto lo podemos
hacer en más nodos. El tipo de interpolación en el que exigimos la coinci-
dencia de los valores de la función y de sus derivadas se llama interpolación
de Hermite y está implementada en el programa interpolaciondehermite
de Modus.

A partir de la interpolación de Hermite se puede desarrollar la interpolación


por splines: Si se quiere interpolar una función f ∈ C 1 [a, b] podemos dividir
[a, b] en n partes. En cada una de ellas encontramos un polinomio cúbico
que coincide con la función en sus extremos y, en ellos, también coincide el
polinomio derivado con f 0 . Esos trozos de polinomios cúbicos se ”unen” muy
bien, porque en sus extremos las tangentes coinciden. Ası́ encontramos una
función ”buena a trozos” cuyo grado no es elevado. Esto está implementado
en interpolacionsplin de Modus.

6.3.2 Proyecciones ortogonales

Si elegimos medidas absolutamente continuas respecto de la de Lebesgue,


µi << m, tendremos dµi = hi dm en [a, b], y, entonces, la condición de
idempotencia en los elementos de la base nos exige que
Z b Z b
pj dµi = pj hi dm = δij ∀i, j = 0, ..., n
a a

Tomando hi = ωpi donde {p0 , ..., pn} es una base de polinomios ortonormales
respecto de cualquier peso ω : [a, b] → R+ cumpliremos la condición:

Z b
ωpj pi dm = δij ∀i, j = 0, ..., n
a
242 TEMA 6. APROXIMACIÓN NO HILBERTIANA

En este caso tenemos la ω-proyeccion:


n
X
Pn (f ) = (f | pi)pi
i=0

Disponemos de dos modos muy sencillos de obtener bases de polinomios


ortogonales en el intervalo [−1, 1] y, con un cambio de variable, en cualquier
intervalo [a, b]:
El primero consiste en realizar un proceso de ortonormalización de Gram-
Schmidt en el conjunto de los polinomios básicos 1, x, x2 ,.... Ası́ obtenemos
los polinomios ortonormales de Legendre en [−1, 1] L0 (x), L1 (x), L2(x), · · ·
El segundo se deduce de comprobar que
Z π
π
(∗) cos nt · cos mt dt = δnm ∀n, m ≥ 1
0 2
La fórmula de Moivre nos dice que cos nt se puede expresar como un poli-
nomio de grado n y coeficientes enteros en cos t. Es el n-ésimo polinomio de
Chebychev Cn que cumple

Cn (cos t) = cos nt.

Es inmediato comprobar que


C0 (cos t) = 1,

C1 (cos t) = cos t,

Cn+1 (cos t) + Cn−1 (cos t) = cos(nt + t) + cos(nt − t) = 2 cos tCn (cos t),

Cn·m (cos t) = cos(n · mt) = Cn (cos mt) = Cn (Cm (cos t))


y, haciendo el cambio cos t = x, lo expresamos en la forma
1. C0 (x) = 1

2. C1 (x) = x

3. Cn+1 (x) = 2xCn (x) − Cn−1 (x)

4. Cn·m (x) = Cn (Cm (x)).


Además, de (∗) obtenemos que
Z 1
1 π
√ Cn (x) · Cm (x) dx = δnm ∀n, m ≥ 1
−1 1−x 2 2

y, por tanto, los polinomios Cn son ortogonales en [−1, 1] respecto del peso
1
ω(x) = √
1 − x2
6.4. PRÁCTICAS 243

Si los normalizamos, tenemos la familia ω-ortonormal


r
1 2
Ch0 (x) = √ , Chn (x) = Cn (x) ∀n ≥ 1
π π

Todo esto lo hemos implementado en el programa proyeccionortogonal


de Modus

6.4 Prácticas
1 x2
1. Consideramos la función f (x) = √ e− 2 en el intervalo [−1, 1].

(a) Hallar un polinomio de interpolación de grado 4 en el intervalo.
R1
(b) ¿Qué error se comete si aproximamos −1 f (x)dx por la integral
de dicho polinomio?
1
2. Consideramos la función f (x) = en el intervalo [−1, 1].
1 + x2
(a) Interpolar f en dicho intervalo con 3 splines cúbicos.
R1
(b) ¿Qué error se comete si aproximamos −1 f (x)dx por la integral
de su interpolada?
cosh(x−3 − 2)
3. Consideramos la función f (x) = x3 en el intervalo [1, 8].
x4 + 2
(a) Elegir los 3, 4, 5, 6 y 7 puntos intermedios de dicho intervalo que
se estimen más convenientes para realizar las correspondientes
interpolaciones de 4, 5, 6 , 7 y 8 splines.
(b) MATLAB nos dice que
Z 8
I= f (x)dx ≈ 6.1951157
1

Substituir, sucesivamente, f (x) por las anteriores interpolaciones


spline y calcular sus integrales I3 , I4 , I5 , I6 y I7 en [1, 8]
(c) Estudiar la tabla
3 4 5 6 7
I − I3 I − I4 I − I5 I − I6 I − I7
244 TEMA 6. APROXIMACIÓN NO HILBERTIANA
Tema 7

Métodos numéricos para


EEDD

7.1 Introducción
A partir de la revolución cientı́fica protagonizada por Newton y Leibnitz
en el siglo XVII, muchos de los fenómenos de la naturaleza han podido
modelarse en términos de un sistema de ecuaciones diferenciales (EEDD):
dxi
= fi (t, x1 (t), · · · , xn (t)); i = 1, · · · , n; t ∈ [t0 , t0 + T ]
dt
o, si se prefiere, en términos de una ecuación diferencial vectorial (EDV):

x0 (t) = f (t, x(t)); t ∈ [t0 , t0 + T ]

Su solución general es una familia de curvas SG = {sp | p ∈ Rn } donde


sp : [t0 , t0 + T ] → Rn
t 7→ sp (t)
que substutuı́das en la expresión (EDV), la verifican idénticamente:

sp 0 (t) ≡ f (t, sp(t)) ∀t ∈ [t0 , t0 + T ], ∀p ∈ Rn .

En condiciones muy generales para la función


f: [t0 , t0 + T ] × Rn → Rn
(t, x) 7 → f (t, x)
sabemos que, fijado p0 ∈ Rn , existe una curva sp0 ∈ SG tal que
(
sp0 0 (t) ≡ f (t, sp0 (t)) ∀t ∈ [t0 , t0 + T ]
sp0 (t0 ) = p0

llamada solución particular con condición inicial p0 .

245
246 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

Recopilamos dichas condiciones en el siguiente

Teorema 7.1.1

Sea f : [t0 , t0 + T ] × Rn → Rn una función cualquiera y sea p0 ∈ Rn .

1. Si f es continua en un entorno de (t0 , p0 ), existe un T 0 ≤ T y una


s : [t0 , t0 + T 0 ] → Rn tal que
(
s0 (t) = f (t, s(t)) ∀t ∈ [t0 , t0 + T ‘]
s(t0 ) = p0

2. Si f es continua y existe una función ` ∈ L1 ([t0 , t0 + T ]) verificando


una de las siguientes condiciones

(a) (f (t, x)|x) ≤ `(t)(1 + kxk22 ) ∀(t, x) ∈ [t0 , t0 + T ] × Rn


(b) kf (t, x)k ≤ `(t)(1 + kxk) ∀(t, x) ∈ [t0 , t0 + T ] × Rn

existe una s : [t0 , t0 + T ] → Rn tal que


(
s0 (t) = f (t, s(t)) ∀t ∈ [t0 , t0 + T ]
s(t0 ) = p0

3. Si f es continua y existe una función ` ∈ L1 ([t0 , t0 + T ]) verificando

(f (t, x)−f (t, y)|x−y) ≤ `(t)(kx−yk22) ∀(t, x, y) ∈ [t0 , t0 +T ]×Rn ×Rn

existe una y solo una s : [t0 , t0 + T ] → Rn tal que


(
s0 (t) = f (t, s(t)) ∀t ∈ [t0 , t0 + T ]
s(t0 ) = p0

4. Si f es continua y existe un número real λ verificando que

kf (t, x) − f (t, y)k ≤ λ(kx − yk) ∀(t, x, y) ∈ [t0 , t0 + T ] × Rn × Rn

existe una y solo una s : [t0 , t0 + T ] → Rn tal que


(
s0 (t) = f (t, s(t)) ∀t ∈ [t0 , t0 + T ]
s(t0 ) = p0

En MATLAB la orden

dsolve(’Dx1 = f1 (t, x), · · · , Dxn = fn (t, x)’)


7.1. INTRODUCCIÓN 247

busca la solución general sp y la orden

dsolve(’Dx1 = f1 (t, x), · · · , Dxn = fn (t, x)’, ’x1 (t0 ) = p01 , · · · , xn (t0 ) = p0n ’)

busca la solución sp0 de condición inicial p0 = (p01 , · · · , p0n).

Sin embargo, en muchos casos de interés técnico, MATLAB responde

Warning: Compact, analytic solution could not be found.

y es que, realmente, son excepcionales las EDV para las que se sabe hallar
la expresión de las curvas sp : [t0 , t0 + T ] → Rn en términos elementales.

Uno de esos casos excepcionales es el de las ecuaciones diferenciales lineales


de coeficientes constantes

f (t, x) = Ax + u(t)

donde A ∈ Mn (R) y u : [t0 , t0 + T ] → Rn es una función continua cuya


solución particular de condición inicial p0 obedece a la fórmula
Z t
(?) x = eA(t−t0 ) p0 + eA(t−s) u(s) ds .
t0

Este tipo de ecuaciones aparecen, por ejemplo, en el estudio de circuitos en


serie de corriente alterna.

Circuitos RLC:
Un alternador bipolar de velocidad angular ω genera una diferencia de po-
tencial instantánea V sin ωt. Si alimenta a un circuito en serie con una
resistencia de R ohmios, un condensador de C f aradios y una bobina de
L henrios, la carga q(t) y la intensidad i(t) cumplen el sistema lineal
(
dq(t)
dt = i(t)
di(t) 1 R V
dt = − CL q(t) − L i(t) + L sin ωt

que podemos escribir en la forma


 0     
q 0 1 q 0
= 1 + V
i − LC −R
L i L sin ωt

Ası́ aparece la ecuación lineal x0 = Ax + u(t) donde


     
q 0 1 0
x= , A= 1 , u(t) = V
i − LC −RL L sin ωt

Su solución está programada en circuitosRLC de Modus.


248 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

Tambien aparece este tipo de ecuaciones en el estudio del movimiento de


una partı́cula bajo la acción de un campo de fuerzas lineal.

Oscilador lineal:
Sea L : R3 → R3 un campo de fuerzas lineal. Una partı́cula de masa 1 se
moverá en un medio viscoso de coeficiente b bajo la acción del campo L,
según la ecuación diferencial

x00 = Lx − bx0 .

Si añadimos una fuerza externa φ(t), por ejemplo, para anular el rozamiento
viscoso, el movimiento de la partı́cula estará gobernado por la ecuación:

x00 = Lx − bx0 + φ(t).

Haciendo x0 = v podemos transformarla en el sitema de primer orden:


 0      
x 0 I x o
= · +
v0 L −bI v φ

Designando
     
x 0 I o
X= , A= y Φ=
v L −bI φ

nuestro sistema se puede escribir en R6 la forma anunciada

X 0 = AX + Φ.

En realidad, tendremos esencialmente dos tipos de matrices L


   
k1 0 0 k1 0 0
L =  0 k2 0  y L =  0 k2 k3 
0 0 k3 0 −k3 k2

que dan lugar a los casos


   
0 0 0 1 0 0 0 0 0 1 0 0
0 0 0 0 1 0 0 0 0 0 1 0
   
0 0 0 0 0 1 0 0 0 0 0 1
A=  y A=
 
k 1 0
 0 −b 0 0 k 1 0 0 −b 0 0
 0 k2 0 0 −b 0  0 k2 k3 0 −b 0 
0 0 k3 0 0 −b 0 −k3 k2 0 0 −b

y es curioso comprobar que MATLAB 6.5 calcula sin problemas eAt , me-
diante la orden expm(A. ∗ t), en el primer caso pero no lo consigue en el
segundo.
7.1. INTRODUCCIÓN 249

Cuando la función f (t, x) no depende explı́citamente del tiempo, la ecuación


diferencial x0 = f (x) se llama autónoma. Si f : Ω ⊂ Rn → Rn es diferen-
ciable en el abierto Ω y si xe es un cero de la función f , la curva constante
x(t) = xe es, trivialmente, una solución particular de x0 = f (x) y, en el
entorno de xe , podemos aproximarla por la ecuación lineal

x0 = f (x) ≈ f (xe ) + Df (xe)(x − xe ) = Df (xe )x − Df (xe)xe

y estudiar el comportamiento de ésta para inferir el de la original1

Ası́ podemos proceder, por ejemplo, en el ecosistema autónomo consistente


en un prado ideal en el que coexisten en cada instante x(t) corderos e y(t)
lobos y la posibilidad de alimento de los corderos es ilimitada. Este sistema
autónomo fué modelado por Lotka y Volterra según las EEDD
(
x0 = αx − β x y
y 0 = −γ y + δ x y

donde α, β, γ, δ son parámetros positivos estimados experimentalmente 2 .

Si intentamos un dsolve podremos leer el mencionado warning de MAT-


LAB. Sin embargo, es inmediato observar que
 
γ α
x(t) = , = xe
δ β

es una solución constante. Ası́, el ecosistema permanecerá estacionario en


el tiempo si se inicia con esas cantidades concretos de lobos y corderos. La
aproximación lineal en el entorno de dicho punto de equilibrio es
 
βγ  
 0
x 0 −  x αγ 1
 

= α δ δ −
y0

0 y δ 1
β

y sobre ella actúa con eficacia la fórmula (?) dando como solución una familia
de elipses centradas en xe . La conclusión que nos interesa destacar es que si
partimos de una condición inicial próxima a xe , el ecosistema evolucionará
en el tiempo sin que se extinga ni crezca indefinidamente ninguna de las dos
especies. Este problema está resuelto en el programa corderosylobos de
Modus.

La ecuación diferencial x0 = f (t, x) que gobierna a un determinado problema


1
Ver [Ra], 3.5, por ejemplo.
2
Tómese, por ejemplo, α = 0.25, β = 0.01, γ = 1 y δ = 0.01
250 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

se obtiene, en general, de leyes experimentales descubiertas en los labora-


torios y se aplicarán de forma más o menos estricta según la precisión que
necesitemos en el problema. Veamos algunos ejemplos:
Reacciones quı́micas:
En una reacción quı́mica elemental X1 + X2 → X3 si xi (t) es la concen-
tración de Xi en el istante t, se cumple la ley de conservación de la materia:

dxi dx3
xi (t) + x3 (t) = Ci o + = 0 para i = 1, 2.
dt dt
dx3
La función se llama velocidad de la reacción y la ley de acción de masas
dt
asegura que existe una constante k tal que

dx3
= kx1 x2 .
dt
Si x = (x1 , x2 , x3 ) y u = (−1, −1, 1), una reacción quı́mica de constante k
estará gobernada por la ecuación diferencial x0 = f (t, x) donde

f : [0, ∞) × R3 → R3
(t, x) 7 → kx1 x2 u

Las condiciones iniciales fijarán las concentraciones xi (0) para i = 1, 2, 3.

Obuses:
Si disparamos un obús, su trayectoria x se deduce de la ley de Newton que
asegura que la fuerza total externa es igual a la derivada de la cantidad de
movimiento:
d(mv) dx
F = siendo v = .
dt dt
Como la masa m del obús es constante, si suponemos que la fuerza actuante
es la gravitatoria, tendremos

dv
F = mg = m ⇒ x00 = g
dt
Si suponemos que el coeficiente de viscosidad del aire es β, además de la
gravitatoria hay que considerar una fuerza resistente −βv y tendremos

β 0
F = mg − βx0 = mx00 ⇒ x00 = g − x
m
Si necesitamos aumentar la precisión podrı́amos considerar, también, los
efectos de la rotación de La Tierra o la fuerza del viento dominante en el
campo de tiro pero, es claro, que cada una de estas consideraciones com-
plicará la ecuación diferencial que tengamos que resolver.
7.1. INTRODUCCIÓN 251

β
Si nos quedamos en la ecuación x00 = g − x0 , consideraremos el sistema
m

x0 = v
v 0 = g − β v
m

y, con X = vx , la ecuación vectorial X 0 = f (t, X) donde
f : [0, ∞) × R4 →  R4 
   x3
x1  x4 
 x2   
7→  − β x3 
t,    
 x3   m 
x4
 β 
−9.8 − x4
m
Las condiciones iniciales fijarán el punto (x0 , y0 ) donde está emplazado el
cañon y la velocidad (vx0 , vy0 ) de salida del proyectil.

Cohetes:
Si en lugar de un obús lanzamos un cohete de 750 kg, de los cuales 450 kg son
de un propulsante que se consume uniformemente en 45 seg imprimiendo a
los gases de escape una velocidad de 1900 m/seg, la cantidad de movimiento
en el instante t es
 
v
(300 + 10(45 − t))v + 10 v − 1900
kvk
cuya derivada es
v0 (v|v 0)
−10v + 10v 0 − 19000 + 19000v
kvk kvk3
Si actua la fuerza gravitatoria y la resistencia del aire, tendremos
β v0 (v|v0)
(75 − t)g − v = −v + v 0 − 1900 + 1900v
10 kvk kvk3
que es una ecuación diferencial implı́cita F (t, v, v 0) = 0.
Si multiplicamos escalarmente por v obtenemos que
 
(v|v 0) −2 β
= 9.8(75 − t)kvk cos a(t) + 1 − kvk−1
kvk3 10
siendo a(t) el ángulo que forma el cohete con la gravedad. Si, mediante un
giróscopo, deflectores de flujo y timones aerodinámicos, conseguimos una
determinada función a(t), la ecuación del movimiento ya será explı́cita:

x0 = v  
0 (75 − t)kvk 10 − β 18620(75 − t) cos a(t)
v = g+ − v
kvk − 1900 10 kvk2 − 1900kvk
252 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

Si
π
a(t) = π − t
180
resulta que el cohete sale verticalmente y durante los 45seg en que consume
el combustible se va colocando de modo que acaba formando un ángulo de
π
4 con la horizontal. Ası́, consumido el combustible, el cohete se convierte
en un obús con condiciones iniciales de máximo alcance.

Curvas de persecución:
Imaginemos que un móvil, de trayectoria conocida c : [t0 , t0 + T ] → R3 , es
perseguido por otro móvil. La trayectoria x(t) del perseguidor cumplirá

c(t) − x(t)
x0 (t) = k(t) donde |k(t)| = kx0 (t)k.
kc(t) − x(t)k
kx0 (t)k
Si suponemos conocida la relación r(t) = kc0(t)k
podremos concluir que

c(t) − x(t)
x0 (t) = f (t, x(t)) con f (t, x(t)) = r(t)kc0 (t)k
kc(t) − x(t)k

y, para cada posición inicial del perseguidor x(t0 ) = x0 , tendremos una única
curva solución. Este problema está resuelto en el programa curvadeperse-
cucion de Modus.

Curvas de arrastre:
Imaginemos que un móvil, de trayectoria conocida c : [t0 , t0 + T ] → R3 , lleva
ligada, mediante una articulación esférica, una varilla de longitud ` en cuyo
extremo hay una bola. Si sobre la bola actúa, además, una fuerza exterior
φ : [t0 , t0 + T ] → R3 y una fricción viscosa proporcional a la velocidad, la
trayectoria x(t) de la bola cumplirá

x(t) = c(t) + `u(t) con ku(t)k = 1 ,

su velocidad cumplirá

x0 (t) = c0 (t) + `u0 (t) con (u(t)|u0(t)) = 0

y, según las leyes de Newton, su aceleración cumplirá


(
x00 (t) = c00 (t) + `u00 (t) = k(t)u(t) − β(c0 (t) + `u0 (t)) + φ(t)
con (u(t)|u0(t)) = 0 y (u(t)|u00(t)) = −(u0 (t)|u0 (t))

donde k(t) es una función escalar y β es el coeficiente de viscosidad.


Multiplicando por u(t) tendremos

k(t) = (c00 (t)|u(t)) − `(u0 (t)|u0 (t)) + β(c0 (t)|u(t)) − (φ(t)|u(t))


7.1. INTRODUCCIÓN 253

y, en consecuencia,

−c00 + ((c00 |u) − `(u0 |u0 ) + β(c0 |u) − (φ|u)) u − βc0 − β`u0 + φ
u00 =
`
Esta ecuación de segundo orden es equivalente al sistema

u0 = v
00 00 0 0
v 0 = −c + ((c |u) − `(v|v) + β(c |u) − (Φ|u)) u − βc − β`v + φ
`
 
u
y designando U = podemos escribirlo como una ecuación vectorial
v
U 0 = f (t, U ). Para cada condición inicial U (t0 ) = U0 tendremos una única
solución U (t) cuyas tres primeras componentes constituirán un u(t) que nos
permitirá escribir la trayectoria de la bola

x(t) = c(t) + `u(t).

Este problema está resuelto en el programa arrastre de Modus.

En el caso particular de que la función c : [t0 , t0 +T ] → R3 sea idénticamente


nula, la bola se moverá en una esfera de centro 0 y radio ` describiendo una
trayectoria `u donde

u0 = v
v 0 = (−`(v|v) − (φ|u)) u − β`v + φ
`
En el caso particular de que el coeficiente de viscosidad sea muy grande
podemos suponer que la trayectoria de la bola será

x(t) = c(t) + `u(t) con ku(t)k = 1 y x0 (t) k u(t).

Entonces, el problema queda de primer orden e independiente de cualquier


fuerza externa φ pues tendrá que existir una cierta función escalar h(t) tal
que
c0 (t) + `u0 (t) = h(t)u(t) con (u(t)|u0 (t)) = 0.
Multiplicando por u(t) tenemos que h(t) = (c0 (t)|u(t)) y, por tanto,

(c0 (t)|u(t))u(t) − c0 (t)


u0 (t) = f (t, u(t)) con f (t, u(t)) = .
`
Ası́, para cada vector unitario inicial u(t0 ) = u0 , tendremos una única
solución u(t) y una única trayectoria x(t) = c(t) + `u(t). Este problema
está resuelto en el programa arrastre1orden de Modus.
254 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

Mecánica Hamiltoniana
Veremos aquı́ como ha sido magistralmente generalizada por Hamilton la
técnica de pasar al espacio de fases para plantear problemas mecánicos bajo
la forma de una ecuación diferencial x0 = f (t, x) :

Si la energı́a cinética de un sistema es T (t, x, x0) y la potencial es V(t, x),


su diferencia es la lagrangiana del sistema

L(t, x, x0) = T (t, x, x0) − V(t, x).

La trayectoria debe venir dada por una función xo : [t1 , t2 ] → Rn que sea
punto extremal del funcional
Z t2
J(x) = L(t, x(t), x0(t))dt
t1

y, ası́, debe cumplir la ecuación de Lagrange:


 
∂L d ∂L
− =o
∂x dt ∂x0

Esta ecuación vectorial equivale al sistema de n ecuaciones segundo orden


 
∂L d ∂L
− =0 ∀i = 1, . . . , n
∂xi dt ∂x0i

que debe ser resuelto para encontrar las n componentes de xo(t) = (xo1 (t), . . .xon (t)).
Haciendo el cambio de variables
∂L
yi = ∀i = 1, . . ., n
∂x0i

pasamos al sistema de 2n ecuaciones de primer orden:



 ∂L
yi = ∂x0

i
(?)
 ∂L
yi0 =

∂xi

Hamilton tuvo la idea de considerar la función

H = (x0| y) − L(t, x, x0)

y no es difı́cil probar que se puede expresar en términos de las coordenadas


generalizadas (t, x, y). Ası́, suponiendo

H = H(t, x, y) ,
7.1. INTRODUCCIÓN 255

la derivada total de H respecto de t se puede calcular de dos maneras:



dH ∂H 0 ∂H 0 ∂H
 dt = ∂x x + ∂y y + ∂t

 dH = (x00 | y) + (x0 | y 0) − ∂L x0 − ∂L x00 − ∂L = − ∂L x0 + (x0 | y 0) − ∂L




dt ∂x ∂x0 ∂t ∂x ∂t
y de su igualdad deducimos que
∂H ∂L ∂H ∂H ∂L
=− , = x0 , =−
∂x ∂x ∂y ∂t ∂t

En consecuencia, el sistema (?) se puede escribir en la forma hamiltoniana


 ∂H
x0 =

∂y
y 0 = − ∂H

∂x
 
x
y considerando vectores X = escribirlo en forma de ecuación vectorial
y

X 0 = f (t, X).

La expresión más general de la energı́a cinética es

T = (Ax0 | x0) + (b| x0) + c

donde A ∈ Mn (R), b ∈ Rn y c ∈ R. Entonces,

∂L ∂T
y= = = 2Ax0 + b
∂x0 ∂x0
y, por tanto,

H = 2(Ax0 | x0) + (b| x0 ) − T + V = (Ax0 | x0) − c + V.

Es frecuente que b = o y c = 0 y, en tal caso,

H = T + V = E = energı́a total del sistema.

La función de Hamilton para partı́culas de masa 1 bajo la acción de algunos


campos de fuerzas conocidos, es la siguiente:

1. Para un campo constante k : R3 → R3 tenemos



T = 1 (v|v) 1
2 y, por tanto, H = (v|v) − (x|k)
V = −(x|k) 2
256 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

2. Para el campo identidad I : R3 → R3 tenemos



T = 1 (v|v)

1
2 y, por tanto, H = ((v|v) − (x|x))
1 2
V = − (x|x)

2

3. Para un campo newtoniano de constante K

N: R3 \ {0} → R3
x
x 7→ K
kxk3

tenemos

1
T = (v|v)

1 K
2 y, por tanto, H = (v|v) −
−K 2 kxk
V =

kxk

Ejemplos muy importantes de campos newtonianos son

• El campo gravitatorio creado por una masa puntual m. En este


new · m2
caso K = −Kg m donde Kg = 6, 67 × 10−11 es la
kg2
constante de gravitación universal.
• El campo eléctrico creado por una carga puntual q. En este caso
q
K = donde  es la permitividad eléctrica del medio. Por
4π
coul2
ejemplo, en el vacı́o  = 8, 85 × 10−12 .
new · m2
Como vemos, son muchos los casos en que interesa resolver un problema
de condición inicial
(
x0 (t) = f (t, x(t)) ∀t ∈ [t0 , t0 + T ]
(P CI)
x(t0 ) = p0

cuya solución x : [t0 , t0 + T ] → Rn sabemos existente y única.

7.2 Métodos de un paso


Cuando dsolve no nos proporcione la solución, podemos discretizar la EDV
para obtener aproximaciones numéricas de la misma. Esta técnica consiste
en hacer una partición equidistante del intervalo [t0 , t0 + T ]

t0 < t1 < · · · < tk < tk+1 < · · · < tN = t0 + T


7.2. MÉTODOS DE UN PASO 257

y calcular una N + 1-tupla (xk ) que aproxime a la N + 1-tupla (x(tk )),


mediante un proceso recursivo de la forma
(
x0 = p0
xk+1 = xk + hφ(tk , xk ; h)

que se llaman método de un paso porque para la función φ uutilizada para


T
hallar xk+1 sólo se depende de tk , xk y el paso h = N .
El desarrollo de Taylor
 
0 h 00
x(tk+1 ) ≈ x(tk ) + h x (tk ) + x (tk ) + · · ·
2!
o la regla de Barrow
Z tk+1
x(tk+1 ) − x(tk ) = f (t, x(t))dt
tk

nos sugiere dos maneras de obtener diferentes funciones φ según los términos
del desarrollo del Taylor que tomemos o los diferentes métodos de integración
aproximada que consideremos.

Estableciendo las notaciones




 x0 = f (t, x)


 ∂f ∂f
x00 =

 (t, x) + (t, x) · f (t, x) := f (1) (t, x)

 ∂t ∂x
(1)
000 = ∂f ∂f (1)
x (t, x) + (t, x) · f (t, x) := f (2)(t, x)

 ∂t ∂x


 ..


 .

x = f (p−1) (t, x)
 p)

podemos poner los siguientes

Ejemplos 7.2.1

1. Si tomamos un sólo término del desarrollo de Taylor

x(tk+1 ) ≈ x(tk ) + hx0 (tk )

o integramos por la fórmula de los rectángulos


Z tk+1
f (t, x(t))dt ≈ hf (tk , xk )
tk

tenemos

xk+1 = xk + hf (tk , xk ) luego φ(t, x; h) = f (t, x).


258 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

2. Si tomamos dos términos del desarrollo de Taylor


h2 00
x(tk+1 ) ≈ x(tk ) + hx0 (tk ) + x (tk )
2!
tenemos  
h (1)
xk+1 = xk + h f (tk , xk ) + f (tk , xk )
2
luego
h (1)
φ(t, x; h) = f (t, x) + f (t, x).
2
3. Si integramos por la fórmula de los trapecios modificada
Z tk+1
f (tk , xk ) + f (tk + h, xk + hf (tk , xk ))
f (t, x(t)) dt ≈ h
tk 2
tenemos
f (tk , xk ) + f (tk + h, xk + hf (tk , xk ))
xk+1 = xk + h
2
luego
f (tk , xk ) + f (tk + h, xk + hf (tk , xk ))
φ(tk , xk ; h) = .
2
Definiciones 7.2.2
Un método de un paso de función φ se dice:
1. Consistente si
N −1
!
X
lim kx(tk+1 ) − x(tk ) − hφ(tk , x(tk ); h)k =0
h→0
k=0

2. De orden p si existe una constante K ≥ 0 tal que


N
X −1
kx(tk+1 ) − x(tk ) − hφ(tk , x(tk ); h)k ≤ Khp
k=0

3. Estable si existe una constante M independiente de h tal que para


todas las N -tuplas (yk ) y (εk ) que verifiquen

yk+1 = yk + hφ(tk , yk ; h) + εk

se cumple que
N −1
!
X
max{kyk − xk k | k = 0, · · · , N } ≤ M ky0 − x0 k + kεk k
k=0
7.2. MÉTODOS DE UN PASO 259

4. Convergente si el error de discretización

E(h) = max{kxk −x(tk )k | k = 0, · · · , N } cumple que lim E(h) = 0


h→0

Consecuencia inmediata de estas definiciones es el siguiente

Lema 7.2.3

Si un método es consistente y estable, es convergente.


Demostración:
Sea
εk = x(tk+1 ) − x(tk ) − hφ(tk , x(tk ); h)
Por ser el método estable existe una constante M tal que

N −1
!
X
E(h) ≤ M kx(tk+1 ) − x(tk ) − hφ(tk , x(tk ); h)k
k=0

y, por ser consistente, lim E(h) = 0. ♦


h→0

No son tan inmediatos los tres lemas siguientes cuyas demostraciones pueden
verse en [Cr-Mi].

Lema 7.2.4

Una condición necesaria y suficiente para que un método de un paso sea


consistente es que

φ(t, x; 0) = f (t, x) ∀(t, x) ∈ [to , to + T ] × Rn . ♦

Lema 7.2.5

Una condición necesaria y suficiente para que un método de un paso sea


estable es que exista un H > 0 y una constante L tales que

kφ(t, x; h)−φ(t, y; h)k ≤ Lkx−yk ∀t ∈ [to , to +T ], ∀x, y ∈ Rn , ∀h ∈ [0, H]. ♦

Lema 7.2.6

Si f : [to , to + T ] × Rn → Rn es p veces continuamente diferenciable y existen


y son continuas en [to , to + T ] × Rn × [0, H] las funciones

∂φ ∂pφ
φ, ,··· , p ,
∂h ∂h
260 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

la condición necesaria y suficiente para que el método de un paso de función


φ sea de orden p es que se cumplan las condiciones



 φ(t, x; 0) = f (t, x)

 ∂φ 1

 (t, x; 0)
 = f (1) (t, x)
∂h 2
.. ∀(t, x) ∈ [t0 , t0 + T ] × Rn ♦


 .
∂ p−1 φ


 1
 p−1 (t, x; 0) = f (p−1)(t, x)

∂h p

7.2.7 Método de Euler


El más sencillo de los métodos de un paso para resolver el PCI
(
x0 (t) = f (t, x(t)) ∀t ∈ [to , to + T ]
x(to ) = po

es el correspondiente a φ(t, x; h) = f (t, x). Su esquema iterativo es


(
x0 = p0
xk+1 = xk + hf (tk , xk ), k = 0, · · · , N − 1

y, de acuerdo con el lema 7.2.4, siempre será un método consistente. Cuando


f : [t0 , t0 + T ] × Rn → Rn sea lipshitziana, de acuerdo con el lema 7.2.5, será
un método estable y, por tanto, convergente. Cuando f sea derivable con
continuidad, de acuerdo con el lema 7.2.6, será un método de orden 1.

Este método está implementado en el programa euler de Modus

7.2.8 Métodos de Taylor


Estos métodos de un paso se obtienen para la función

h (1) hp−1 (p−1)


φ(t, x; h) = f (t, x) + f (t, x) + · · · + f (t, x)
2 p!

cuando p = 0, 1, 2, · · ·. Para p = 0 obtenemos, sencillamente, el método


de Euler. Para p ≥ 2 el método emplea mucha memoria con las funciones
f (2), · · · , que, además, suelen resultar de incómoda complejidad analı́tica.
El más usado es el correspondiente a p = 1 que ya hemos visto en el ejemplo
7.2.1,2 con el esquema iterativo

x0 = p0 ,
2
xk+1 = xk + hf (tk , xk ) + h f (1)(tk , xk ), k = 0, · · · , N − 1
2
7.2. MÉTODOS DE UN PASO 261

y que, de acuerdo con 7.2.4, será consistente y, si f y f (1) son lipshitzianas,


por 7.2.3 y 7.2.5, será estable y convergente. Además, si f es dos veces
derivable con continuidad, por 7.2.6, será de orden 2.

Este método está implementado en el programa taylor de Modus.

7.2.9 Métodos de Runge-Kutta


Estos métodos definen para cada p ∈ N las siguientes funciones φ(t, x; h):

1. Se eligen c = (c1 , · · · , cp) y b = (b1 , · · · , bp), y la matriz subdiagonal


 
0 0 ··· 0 0
a21 0
 ··· 0 0

A = a31 a32
 ··· 0 0

 .. .. .. 
 . . . 0 0
ap1 ap2 ··· app−1 0

2. Se definen las magnitudes:




 Fk1 = f (tk + c1 h, xk )


Fk2 = f (tk + c2 h, xk + a21 Fk1 h)


Fk3 = f (tk + c3 h, xk + a31 Fk1 h + a32 Fk2 h)




 ···


Fkp = f (tk + cph, xk + ap1 Fk1 h + ap2 Fk2 h + · · · + app−1 Fkp−1 h)

3. Se define
φ(tk , xk , h) = b1 Fk1 + · · · + bp Fkp

Algunos casos concretos son:

1. Si p = 1, c = 0, b = 1 y A = 0, tenemos φ(tk , xk ; h) = f (tk , xk ) y


estamos en el método de Euler.
  1  
0 0 0
2. Si p = 2, c = , b = 21 y A = , tenemos
1 2 1 0

f (tk , xk ) + f (tk + h, xk + hf (tk , xk ))


φ(tk , xk , h) =
2
y estamos en el caso de integrar mediante la fórmula de los trapecios
modificada que hemos visto en el ejemplo 7.2.1, 3. Este método de un
paso de llama método de Heun y está implementado en el programa
heun de Modus.
262 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD
  1
0 6  
1 2 0 0 0 0
 
2
 
6 1 0 0 0
3. Si p = 4, c =  , b =   y A =  2 
1 2 0 1 0 0
2 6 2
1
0 0 1 0
1 6



 Fk1 = f (tk , xk )


F = f (t + h , x + h F )


 k2 k k k1
2 2

 h h

 Fk3 = f (tk + , x k + Fk2 )


 2 2

F = f (t , x + hF )
k4 k+1 k k3

y obtenemos la función
Fk1 + 2Fk2 + 2Fk3 + Fk4
φ(tk , xk ; h) =
6
Este método es el Runge-Kutta clásico y está implementado en el
programa rungekutta4 de Modus.
En [Cr-Mi] se puede hallar la prueba del siguiente resultado que nos permite
determinar los vectores c y b y la matriz A de un Runge-Kutta de orden
prefijado:

Lema 7.2.10
Sea un Runge-Kutta (p,c,b,A) y sean 1p ∈ Rp y C = diag(c). La condición
necesaria y suficiente para que sea
1. De orden 1 es que (b|1p) = 1.
1
2. De orden 2 es que (b|1p) = 1 y (b|C1p ) = (b|A1p ) =
2
3. De orden 3 es que A1p = C1p y
1 1 1
(b|1p) = 1, (b|C1p ) = , (b|C 2 1p ) = , (b|AC1p ) =
2 3 6
4. De orden 4 es que A1p = C1p y
1 1 1 1
(b|C 3 1p ) = , (b|AC 2 1p) = , (b|A2 C1p ) = , (b|CAC1p ) = ♦
4 12 24 8
Corolario 7.2.11

1. El método de Heun es un Runge-Kutta de orden 2.

2. El Runge-Kutta clásico es un método de orden 4. ♦


7.3. MÉTODOS MULTIPASO 263

7.3 Métodos multipaso


Estos métodos aparecen al realizar integraciones numéricas del tipo
Z tk+1 Z tk+1
f (s, x(s)) ds ≈ Qk,r (s) ds
tk tk

donde Qk,r (s) es el polinomio de interpolación en los nodos

{(tk−r , f (tk−r , xk−r )), · · · , (tk , f (tk , xk )), (tk+1 , f (tk+1 , xk+1 ))}

que escribiremos, en lo sucesivo, abreviadamente

{(tk−r , fk−r ), · · · , (tk , fk ), (tk+1 , fk+1 )}

Podemos ver en [Cr-Mi] que, si f es derivable con continuidad tantas veces


como el número de nodos utilizados, digamos p, el correspondiente método
será de orden p.

7.3.1 Métodos de Adams-Bashforth


Son métodos multipaso explı́citos en los que la interpolación se realiza en el
nodo (tk , fk ) y en los r = 1, 2, · · · nodos anteriores. Por eso, designaremos
Ak,r a los correspondientes polinomios de interpolación.

1. Si r = 1
fk − fk−1 tk fk−1 − tk−1 fk
Ak,1 (s) = s+
h h
con lo que Z tk+1
h
Ak,1 (s) ds = (3fk − fk−1 )
tk 2
y el algoritmo iterativo es
3fk − fk−1
x0 = p0 ; xk+1 = xk + h ∀k ≥ 1.
2
Obsérvese que x1 debe ser determinado con un métdodo de un paso.

2. Si r = 2
Z tk+1
h
Ak,2 (s) ds = (23fk − 16fk−1 + 5fk−2 )
tk 12
con lo que tenemos el algoritmo iterativo
23fk − 16fk−1 + 5fk−2
x0 = p0 ; xk+1 = xk + h ∀k ≥ 2
12
Obsérvese que x1 y x2 deben calcularse por otros métodos.
264 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

3. Si r = 3
Z tk+1
h
Ak,3 (s) ds = (55fk − 59fk−1 + 37fk−2 − 9fk−3 )
tk 24

con lo que tenemos el algoritmo iterativo

55fk − 59fk−1 + 37fk−2 − 9fk−3


x0 = p0 ; xk+1 = xk + h ∀k ≥ 3
24
Obsérvese que x1 , x2 y x3 deben calcularse por otros métodos.

Este método está implementado en el programa adamsbash de Modus.

7.3.2 Métodos de Adams-Moulton


Son métodos multipaso implı́citos en los que la interpolación se realiza en el
nodo (tk , fk ), en sus r = 0, 1, 2, · · · nodos anteriores, y en el nodo posterior
(tk+1 , fk+1 ). Por eso designaremos genéricamente Pk+1,r a los correspondi-
entes polinomios de interpolación.

1. Si r = 0 Z tk+1
h
Pk+1,0 (s) ds = (fk+1 + fk )
tk 2
y el algoritmo iterativo es

fk+1 + fk
x0 = p0 ; xk+1 = xk + h ∀k ≥ 0
2
Obsérvese que este algoritmo coincide con el de la fórmula del trapecio
y, por tanto, será necesario en cada paso despejar xk+1 que sólo está
definido de forma implı́cita.

2. Si r = 1 Z tk+1
h
Pk+1,1 (s) ds = (fk+1 + 8fk − fk−1 )
tk 12
con lo que tenemos el algoritmo iterativo

fk+1 + 8fk − fk−1


x0 = p0 ; xk+1 = xk + h ∀k ≥ 1
12
Obsérvese que x1 debe calcularse por algún método de un paso y que
cualquier xk+1 debe ser despejado en esta ecuación implı́cita.

3. Si r = 2
Z tk+1
h
Pk+1,2 (s) ds = (9fk+1 + 19fk − 5fk−1 + fk−2 )
tk 24
7.4. PRÁCTICAS 265

con lo que tenemos el algoritmo iterativo


9fk+1 + 19fk − 5fk−1 + fk−2
x0 = p0 ; xk+1 = xk + h ∀k ≥ 2
24
donde x1 y x2 deben calcularse por algún otro método y cualquier
xk+1 debe ser despejado en esta ecuación implı́cita.

En la práctica, no se resuelven estas ecuaciones implı́citas, sino que se com-


binan los métodos de Adams-Moulton con los de Adams-Bashforth, en un
proceso de predicción y corrección.

Para explicar este proceso combinaremos, por ejemplo, el método de Adams-


Bashforth con r = 3 y el de Adams-Moulton con r = 2:

1. Predecimos:
(p) h
xk+1 = xk + (55fk − 59fk−1 + 37fk−2 − 9fk−3 )
24

2. Calculamos:
(p) (p)
fk+1 = f (tk+1 , xk+1 )

3. Corregimos:
(p)
9f + 19fk − 5fk−1 + fk−2
xk+1 = xk + h k+1
24

Esto lo hemos implementado en el programa adamsmoul de Modus.

Todos los programas mencionados en este tema, euler, heun, taylor, rungekutta4,
adamsbash y adamsmoul, se ejecutan desde el programa numericedos
de Modus.

7.4 Prácticas
1. Sea el campo de fuerzas lineal no conservativo F : R3 → R3 con
  
1 0 0 x1
F (x) = 0
 2 3   x2 
0 −3 2 x3

(a) Calcular la trayectoria de una partı́cula de masa 1 en el intervalo


 
1 −5
de tiempos [0 5] si en el inicio está en 1 con velocidad
   4
1 −3
(b) Calcular la posición y la velocidad al final del recorrido.
266 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

(c) Presentar la pelı́cula del movimiento

2. Sea el sistema autónomo


(
x0 = cos(x + y)
y 0 = sin(x − y)

(a) Estudiar sus puntos estacionarios.


(b) Comprobar que toda solución de condición inicial situada en un
entorno punteado de (− π4 , − π4 ) se dirige a ( π4 , π4 ) o a (− 3π 3π
4 , − 4 ).

3. Diseñar un programa de MATLAB que nos de la aproximación lineal


de cualquier ecuación diferencial autonoma en el entorno de un punto
estacionario. (Solución: linealizarautonoma de Modus).

4. Según Malthus y Verhulst las poblaciones evolucionan según la ecuación

p0 = kp − mp2 .

Si k = 0.05 y m = 0.001, pronosticar la evolución de una población de


100 individuos en 9 años, usando un Runge-Kutta de orden 4.

5. Un ecosistema de tres especies está regido por el sistema de EEDD



0
x = 0.25x + 0.01 x y − 0.01 x z

y 0 = 0.3 y + 0.001 x y − .1 y z

 0
z = − z + 0.01 x z + 0.01 y z

En un determinado instante el número de individuos de cada especie


es (xo , yo , zo) = (100, 80, 20) y nos preguntamos

(a) ¿Cuál de las especies se extingue?


(b) ¿En cuánto tiempo?

6. La posición x(t) y la velocidad v(t) de un móvil están ligadas por la


ecuación diferencial
 
cos( 2t ) − sin( 2t )
v(t) = A(t) · x(t) siendo A(t) =
sin( 2t ) cos( 2t )
 
1
(a) Hallar la trayectoria en el periodo [0, 4π] siendo x(0) = .
1
(b) ¿En qué instante está el móvil más lejos del punto de salida?
(c) ¿Cúal es la máxima celeridad que alcanza el móvil?

(Solución: móvil de Modus)


7.4. PRÁCTICAS 267

7. Un avión espı́a vuela en cı́rculo a 3000 m de altura sobre nuestra


posición (0,0,0), describiendo una circunferencia de 2000 m de radio
con una velocidad constante de 200 m/s.

(a) Para advertirle que nos molesta su presencia le lanzamos un misil


inteligente que lo persigue con una celeridad igual a 2/3 de la
suya. Hallar la trayectoria de este misil.
(b) Como insiste en espiarnos, uno de nuestros cazas le dispara cuando
pasa por (2000, 0, 3000) y desde la posición (4000, 6000, 5000),
otro misil inteligente que lo persigue con celeridad igual a 10/9 de
la suya para darle tiempo al piloto a saltar en paracaidas. Hallar
la trayectoria de este misil y determinar el tiempo y el lugar del
impacto.

(Solución: misil de Modus).

8. Supongamos que el avión enemigo vuela en lı́nea recta a 500 m/seg y


es detectado en (−4000, −3000, 5000) dirigiéndose a (10000, 2000, 300).
Le ordenamos a un helicóptero que está en (2000, 4000, 7000) que en 5
seg le dispare un misil inteligente con celeridad de 750 m/s. Calcular
la trayectoria del misil y el tiempo de impacto.
(Ayuda: Adaptar el programa misil del ejercicio anterior).

9. La ecuación que rige el movimiento de un péndulo simple de 1 m de


longitud, en el vacı́o, sin rozamientos y bajo la acción de la gravedad
es
··
θ= −g sin(θ),
siendo θ(t) el desplazamiento angular respecto de la vertical. Esta
ecuación se suele substituir por su linealizada
··
θ = −gθ

que tiene periodo independiente de las condiciones iniciales, T = √
g.

Usando un Runge-Kutta de orden 4, integrar la ecuación primera en


[0,T] y comprobar que, ahora, el periodo depende de las condiciones
iniciales.
(Solución: pendulo de Modus).

10. En R3 , una curva x(s) dada en función de su arco cumple las fórmulas
de Frenet  0   
t 0 κ(s) 0 t
n0  = −κ(s) 0 τ (s) n
b0 0 −τ (s) 0 b
268 TEMA 7. MÉTODOS NUMÉRICOS PARA EEDD

siendo
x00 (s)
t = x0 (s) n= b = t∧n
kx00(s)k
[x0 (s), x00(s), x000(s)]
κ(s) = kx00 (s)k y τ (s) =
κ2 (s)
Hacer un programa de MATLAB que nos dibuje la curva conociendo
las funciones κ(s), τ (s) y los valores iniciales t(0), n(0), b(0) y x(0).
(Solución: formulasdefrenet de Modus).
Bibliografı́a

[1] Abreu, T., Corbacho, E., Tarieladze, V. Integration in quasi-uniforms


monoids. V Iberoamerican Conference in Topology and its Applications.
Lorca (2003).

[2] Aigner, M., Ziegler. M. El libro de las demostraciones. Madrid, Nivola,


2005.

[3] Amigó, J.M., Falcó, A., Gálvez, J., Villar, V., Topologı́a molecular. Bol.
Soc. Esp. Mat. Apl., 39 (2007) 137–151.

[4] Andrews, P.L. Fuel Management. How to measure success. Conference


Proceedings, 2006.

[5] Arquı́medes. El Método. Madrid, Alianza Editorial, 1986.

[6] Banach, S., Oeuvres. Volume II. Warszawa, PWN Editions scientifiques
de Pologne, 1979.

[7] R. B. Bapat.Resistance distance in graphs.


The Mathematics Student, vol.68, págs. 87–98, 1999.

[8] Bezrukov, S. Edge isoperimetrc problems on graphs.

[9] Bezrukov, S. Isoperimetrc problems in discrete spaces.

[10] Bollobás, B. Modern graph theory. New York, Springer-Verlag, 1998.

[11] Bochner, S., El papel de la matemática en el desarrollo de la ciencia.


Madrid, Alianza Universidad Ciencia (689), 1991.

[12] Bollobas, B., Leader I. Edge-isoperimetric inequalities in the grid. Com-


binatorica., 11 (1990), 229–314.

[13] Bombal, F., Matemática y desarrollo cientı́fico. Madrid, UCM, 2000.

[14] Castejón, A., Corbacho, E., Vidal, R. Árboles óptimos en rejillas. Actas
del VEAMD, 79-86, 2007.

269
270 BIBLIOGRAFÍA

[15] P. Chebotarev and E. Shamis. The Matrix-Forest theorem and measur-


ing relations in small social groups.
Automation and Remote Control, Vol. 58, No. 9, 1505-1514. Institute
of Control Sciences, Russian Academy of Sciences, Moscow. Translated
from Avtomatika i Telemekhanika, No. 9, págs, 125-137, september,
1997.

[16] Chung, F.R.K. Spectral Graph Theory. CBMS, 1997.

[17] Chung, F., Lu, L. Complex Graphs and Networks. CBMS (107), 2006.

[18] Ciarlet, P.G. Introduction à l’analyse numérique matricielle et à


l’optimisation. Paris, Masson, 1990.

[19] Collette, J.P. Historia de las Matemáticas I, II. Madrid, Siglo XXI
Editores, 1985.

[20] Corbacho, E., Estevez, E. Árboles generadores de grafos aplicados al


diseño de cortafuegos y riegos por goteo. Actas del AEIPRO, 2007.

[21] Corbacho, E., Rodrı́guez, V. Ampliación de Cálculo. Vigo. Apuntes de


clase. 2003.

[22] Crouzeix, M., Mignot, A.L. Analyse numérique des équations différen-
tielles. Paris, Masson, 1984.

[23] Dacuha-Castelle, D., Duflo, M. Probabilités et Statistiques 1. Paris,


Masson, 1982.

[24] Danaila, I., Joly, P., Kaber, S.D., Postel, M. Introduction au calcul
scientifique par la pratique. Paris, Dunod, 2005.

[25] Dunhan, W. Viaje a través de los genios. Madrid, Pirámide, 1993.

[26] Dudundji, J. Topology. Boston, Allyn and Bacon, 1967.

[27] Duvaut, G., A counterexample to the approximation problem in Banach


spaces. Acta Math. 130, 1973.

[28] Enflo, P., Mécanique des milieux continus. Paris, Masson, 1990.

[29] Estevez, E. Árboles óptimos y desigualdades de Sobolev en rejillas. Tesis


doctoral en elaboración. Vigo, 2007.

[30] Euclides. Elementos I-IV; V-IX; X-XIII. Madrid, Editorial Gredos,


1996.

[31] Feyman, R., El Carácter de la ley fı́sica. Barcelona, Metatemas, 2000.


BIBLIOGRAFÍA 271

[32] Fiedler, M. Special matrices and their applications in numerical math-


ematics. Martinus Njhoff Publishers. 1986.

[33] L.R. Foulds. Graph theory. Applications New York, Springer-Verlag,


1994.

[34] Gallager, R.G. Low Density Parity Check Codes. MIT Press, 1963.

[35] Garcı́a Barreno, P., La Ciencia en tus manos. Madrid, Espasa-Forum,


2000.

[36] González Urbaneja, P.M., Las raices del cálculo infinitesimal en el siglo
XVII. Madrid, Alianza Editorial, 1992.

[37] Grady, L., Schwartz, E.L. Isoperimetric Graph Partitioning for Data
Clustering and Image Segmentation. IEEE Trans. on Pattern Anal.
and Machine Int. XX (2004), 1–30.

[38] Guénard, F., Leliêvre, G. Pensar la matemática. Barcelona, Metatemas,


1999.

[39] Guillen, M., Cinco ecuaciones que cambiaron el mundo. Barcelona,


Temas de Debate, 2001.

[40] Helmberg, G., Introduction to spectral theory in Hilbert spaces. Horth-


Holland. 1969.

[41] Hoory, S., Linial, N., Wigderson, A. Expanders graphs and their appli-
cations. Bulletin A.M.S., 43 (2006), 439–561.

[42] Ifrah, G. Historia universal de las cifras. Madrid, Espasa-Forum, 1997.

[43] Javaheri, M. Dirichlet problems in locally finite graphs. Discrete Appl.


Math., 155, (2007), 2496–2506.

[44] Kline, M. El pensamiento matemático de la antigúedad a nuestros dı́as


I, II, III. Madrid, Alianza Editorial, 1992.

[45] D. Klein and M. Randic.Resistance distance.


Journal of Mathematical Chemistry, vol 12, págs 81–95, 1993.

[46] Köthe, G. Topological vector spaces I. Berlin, Springer, 1969.

[47] Kowalski, M., Sikorski, K., Stenger, F. Select topics in approximation


and computation. Oxford, Oxford University Press 1995.

[48] Luenberger, D.G. Optimization by vector space methods. New York, J.


Wiley, 1969.
272 BIBLIOGRAFÍA

[49] Matousek, J. Lectures on discrete geometry. New York, Springer-Verlag,


2002.

[50] L. Merino, E. Santos. Álgebra Lineal con Métodos Elementales. Univer-


sidad de Granada. 1997.

[51] Mohar, B. Some applications of Laplace eigenvalues of graphs. Preprint


series University of Ljubljana, 35 (1997), 1–52.

[52] Montero, G., Montenegro, R., Escobar, J.M., Rodriguez, E. Resolución


de sistemas de ecuaciones lineales tipo sparse: La estrategia RPK.

[53] Mosterı́n, J., Los lógicos. Madrid, Espasa-Forum, 2000.

[54] Newton, I. Principios matemáticos de la filosofı́a natural. Madrid, Ed-


itorial Tecnos, 1987.

[55] Ortega, J.M., Poole, W.G. Numerical methods for differential equations.
Marshfield (Massachusetts), Pitman, 1981.

[56] Ostrovskii, M. Sobolev seminorms for functions on graphs. Seminario


del DMA I, Vigo, 2003.

[57] Ostrovskii, M. Minimal congestion trees, Discrete Math., 285 (2004),


219–226.

[58] Ostrovskii, M., Castejón, A. Minimum congestion spanning trees of


grids and discrete toruses, to appear.

[59] Pinsker, M.S. On the complexity of a concentrator, 7th International


Telegraffic Conference, 318 , 1–4. 1973.

[60] Pisier, G. On Read’s proof that B(`1 ) is not amenable, Geometric As-
pects of Functional Analysis 2002-2003, LN 1850, 269–275, 2004.

[61] Pólya, G., Szegö, G. Isoperimetric inequalities in mathematical physics.


Princeton University Press, 1966.

[62] Rao, M.R.M. Ordinary differential equations. London, E. Arnold, 1981.

[63] Rubio de Francia, J.L., Memoria Analisis II. Zaragoza, 1975.

[64] Rudin, W. Análisis real y complejo (3a edición). Madrid, Mc. Graw-
Hill, 1988.

[65] Rudin, W. Functional Analysis. New York, Mc. Graw-Hill, 1973.

[66] Santaló, L. La matemática: Una filosofı́a y una técnica. Barcelona,


Editorial Ariel, 1994.
BIBLIOGRAFÍA 273

[67] I. J. Schoenberg. Remarks to Maurice Fréchet’s article ”Sur la


définition axiomatique d’une classe d’espace distsnciés vectoriellment
applicable sur l’espace de Hilbert”.
The Annals of Mathematics, Second Series, Vol. 36, No. 3, págs 724–
732, 1935.

[68] Schrijver, A. Theory of linear and integer programming. John Wiley


and Sons, 1998.

[69] L. Schwartz. Analyse hilbertienne. Paris, Hermann, 1979.

[70] Shannon, C.E. A mathematical theory of communication, Bell System


Tech. Journal. 27 379–423 y 623–656, 1948.

[71] Sipser, M., Spielman, D.A. Expander codes, IEEE Trans. Inform. The-
ory. 42 1710–1722, 1996.

[72] Sobolev, S.L. On a theorem of functional analysis, Mat. Sb.. 4 471–479,


1938.

[73] Tarieladze, V.I. A uniqueness theorem for the Fourier transform. (Rus-
sian) Proc. Inst. Computational Math. Georgian Acad. Sci. 27-1 195–
207, 1987.

[74] Ueberhuber, C.W. Numerical computation 2. Berlin, Springer-Verlag,


1997.

[75] Weil, A. Number Theory, Birkhäuser, Boston, 2001.

[76] Weisstein, E.W. et al. Biconjugate Gradient Method. A Wolfram Web


Resource.
http://mathworld.wolfram.com/BiconjugateGradientMethod.html
Index

función
de soporte compacto, 63

grafo, 93

parametros, 120

soporte de una función, 63


Stone, 55

teorema
de Stone-Weierstrass, 55

variablesx, 120

Weierstrass, 54, 55

274
INDEX 275

Índice de programas

You might also like