Professional Documents
Culture Documents
i=1
i i
As,
2.3. Matrices sparse
Las matrices sparse son un importante subtipo de matrices que surgen en diferentes
ambitos del Analisis Numerico y de las Matematicas en general (elementos nitos, teora
de grafos,...).
En la gura 2.1 se puede ver un ejemplo de una matriz sparse simetrica donde los
puntos indican las entradas diferentes de cero. Desde una optica puramente computacional
hace falta desarrollar sistemas de almacenamiento especiales dado que la inmensa mayora
de las entradas no deben ser almacenados porque son nulas.
provee de forma muy sencilla de ese almacenamiento. Con
5
Esto es, el n umero maximo de las o columnas linealmente independientes. Una matriz tiene, en
general, rango maximo por los errores de precision de la maquina. Este comando hace una estimacion del
rango, eliminando este factor.
#2 12
PROYECTO #2 Cap
_
_
_
_
_
y la matriz es ahora llena. Sin llegar a esos extremos, es habitual que las necesidades de
memoria se multipliquen al aplicar la eliminacion gaussiana. En la descomposicion
esto se reeja en un incremento en el n umero de entradas no nulas de la matriz con los
problemas que ello lleva consigo (mayores requerimientos de memoria, mayor n umero de
operaciones,...).
Figura 4.1: Efecto relleno.
La gura 4.1 es un buen ejemplo de este comportamiento. Se puede obtener mediante
las siguientes instrucciones en (que se pueden recoger para mayor comodidad en
un chero script)
#2 24
PROYECTO #2 Cap
R
n
tenemos entre sus normas habituales,
|x|
1
:= [
1
[ +[
2
[ + +[
n
[ |x|
2
:=
_
2
1
+
2
2
+ +
2
n
|x|
:= max
i=1,...,n
[
i
[
Todas ellas son equivalentes, dado que
|x|
2
|x|
1
|x|
2
|x|
|x|
1
|x|
|x|
|x|
2
|x|
i=1
[
ij
[ | |
= max
i=1,...,n
n
j=1
[
ij
[
La norma | |
2
tiene una expresion mas complicada que hace difcil su calculo real. En
concreto
| |
2
=
_
(
)
5
Existe otro problema: que la solucion crezca de forma que supere la cantidad maxima representable
en coma otante overow. Matlab devolvera o .
6
La norma matricial mide cuanto cambia el tama no de un vector al multiplicarlo por la matriz
#2 33
PROYECTO #2
donde ( ), denominado radio espectral, denota el mayor de los valores absolutos de
los valores propios de
7
. En cualquier caso, la orden aplicada a matrices devuelve
las correspondientes normas matriciales.
Una norma vectorial y su norma matricial inducida se relacionan con
| x|
. .
norma vectorial
| |
..
norma matricial
|x|
..
norma vectorial
5.3.2. Denicion y condiciones de convergencia
Los metodos iterativos lineales (o basados en iteraciones anes) comienzan conside-
rando una particion de t
=
con invertible. As, si x es solucion de x = b,
x = x +b
El metodo iterativo consiste en
Tomar x
0
una aproximacion de la solucion. Si no se conoce se puede tomar por
ejemplo el vector nulo.
Resolver en cada paso
x
m+1
= x
m
+b (5.1)
Es facil ver que si (5.1) converge a alg un x, entonces el vector es la solucion del sistema.
A un es mas, restando dos iteraciones sucesivas es inmediato comprobar que
x
m+k+1
x = (
1
)(x
m+k
x) = = (
1
)
k
(x
m+1
x)
Denotando por =
1
se tiene el siguiente resultado
Teorema 1 El metodo iterativo converge si y solo si existe tal que |
k
| 1.
Un detalle al que a veces se presta poca atencion es que la convergencia del metodo
ocurre sea cual sea x
0
, es decir, independientemente de como se arranque el metodo y
de cualquier termino independiente. Obviamente, si se tiene una estimacion buena de
la solucion el metodo convergera en menos iteraciones, pero no es una condicion para
asegurar la convergencia
8
.
No es difcil ver que
( ) | |
para cualquier norma inducida, y por tanto
( (
k
))
1/k
(|
k
|)
1/k
N
7
Si A es simetrica se verica facilmente que |A|
2
= (A)
8
Esta propiedad se pierde en general cuando se resuelve ecuaciones y sistemas no lineales. En este caso,
los metodos numericos habitualmente convergen solo si se arranca sucientemente cerca de la solucion.
#2 34
PROYECTO #2 Cap
_
11 12 1n
21 22 2n
.
.
.
.
.
.
.
.
.
.
.
.
n1 n2 nn
_
_
La familia de metodos que vamos a exponer comienzan trabajando sobre la siguiente
particion de
=
_
_
11
22
.
.
.
nn
_
_
=
_
_
0 0 0
21
0 0
.
.
.
.
.
.
.
.
.
.
.
.
n1
n2
0
_
_
=
_
_
0
12
1n
0 0
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
de forma que
=
9
La iteracion es ahora resolver directamente el sistema de ecuaciones.
#2 35
PROYECTO #2
Metodo de Jacobi
Consiste en tomar en la denicion del metodo iterativo = y = + , es decir
x
m+1
= ( + )x
m
+b
Para calcular x
m+1
hay que resolver por tanto un sistema diagonal cuyo coste es despre-
ciable. Visto componente a componente, tenemos que si
x
m+1
= (
(m+1)
1
(m+1)
2
(m+1)
n
)
R
n
entonces
(m+1)
i
=
1
ii
_
i
j=i
ij
(m)
j
_
= 1
Una matriz es diagonal dominante por las si
[
ii
[
j=i
[
ij
[
y por columnas si
[
jj
[
i=j
[
ij
[
Teorema 3 Si la matriz es diagonal dominante por las o columnas el metodo de Jacobi
converge.
Nota La situacion anterior es una constante en los metodos iterativos. En general se
enuncian condiciones sucientes para asegurar la convergencia, pero pocos resultados dan
condiciones necesarias, y a un estos suelen dar hipotesis complicadas de comprobar.
Ejercicio 5 (matematico) Probar el teorema anterior.
(Ayuda. Construir la matriz B = D
1
(L+U). Probar que |B|
ij j
= + 1 :
i
=
i
ij j
i
=
i ii
[
i
i
[
x
Ejercicio 6 Implementar el metodo de Jacobi en con la siguiente cabecera
Solucion. He aqu una implementacion de este metodo
#2 37
PROYECTO #2
#2 38
PROYECTO #2 Cap
i1
j=1
ij
(m+1)
j
n
j=i+1
ij
(m)
j
_
= 1
Escrito en forma algortmica,
Gauss-Seidel
y x
i
=
i
= 1 : 1
i
=
i
ij j
= + 1 :
i
=
i
ij j
i
=
i ii
[
i
i
[
x
As pues, la unica diferencia con el metodo de Jacobi es que Gauss-Seidel procede a
utilizar la nueva componente calculada
i
tan pronto es posible (lneas ) mientras
que Jacobi solo las utiliza en la nueva iteracion. Esta propiedad crea la sensacion de
que Gauss-Seidel es superior a Jacobi. No hay razones matematicas que permitan apoyar
esta impresion. De hecho existen matrices para las que Jacobi converge y Gauss-Seidel
diverge, aunque hace falta construir un ejemplo ex professo (no es facil encontrar uno)
para comprobar esta armacion. Desde un punto de vista practico, si Jacobi converge
es altamente probable que lo haga tambien Gauss-Seidel y generalmente, este lo hara en
menos iteraciones.
Teorema 4 El metodo de Gauss-Seidel converge si
la matriz es diagonal dominante por las o columnas;
la matriz es simetrica denida positiva.
#2 40
PROYECTO #2 Cap
_
1 1
2 2 2
.
.
.
.
.
.
.
.
.
n n
_
_
donde
i i
y
i
son submatrices. En este caso, el metodo de Jacobi converge si y solo si
Gauss-Seidel converge y este caso el metodo de Gauss-Seidel converge a doble velocidad
que el primero.
Ejercicio 9 Programa el metodo de Gauss-Seidel modicando de forma apropiada la funcion
del Ejercicio 6.
Ejercicio 10 De manera similar a lo que se propuso en el ejercicio 8, podemos implementar
la parte central del metodo mediante
o equivalentemente
donde
Implementa el metodo resultante
(Ayuda: recuerda los comandos , y de la seccion 2.3)
Ejercicio 11 El metodo de Gauss-Seidel tiene una curiosa asimetra. Si observamos, la pri-
mera componente de cada x
m
, comprobamos que esta se calcula utilizando los valores de
la anterior iteracion x
m1
, mientras que la ultima utiliza todas las componentes de la nueva
iteracion x
m
. Se puede plantear el metodo de Gauss-Seidel inverso que es el que resulta de in-
tercambiar los papeles de y en (5.2). Ahora la situacion es justamente la inversa. Mejora
la velocidad de convergencia del metodo?
Ejercicio 12 El metodo de Gauss-Seidel simetrizado trata de solventar la asimetra se nalada
en el ejercicio anterior. Consiste en dos iteraciones, una con Gauss-Seidel y otra con el
metodo de Gauss-Seidel inverso. Es decir, dado x
m
, se aplica el metodo de Gauss-Seidel para
obtener x
m+1/2
para luego obtener con el metodo de Gauss-Seidel inverso x
m+1
.
Implementa este metodo. Se reduce el n umero de iteraciones necesarias para alcanzar la
convergencia? Y el costo por iteracion? Te parece rentable esta aproximacion?.
#2 41
PROYECTO #2
Metodo de Relajacion
El metodo de relajacion es una simple modicacion sobre el metodo de Gauss-Seidel
consistente en realizar un promedio sobre la aproximacion que proporcionara Gauss-Seidel
y la iteracion anterior.
Concretamente, la expresion es
(m+1)
i
= (1 )
(m)
i
+
ii
_
i
i1
j=1
ij
(m+1)
j
n
j=i+1
ij
(m)
j
_
= 1
Si = 1 recuperamos el metodo de Gauss-Seidel. El objetivo es escoger adecuado para
acelerar la convergencia del metodo.
No es facil encontrar el valor optimo de , aunque necesariamente (0 2) pues en
caso contrario el metodo diverge.
Si la matriz es simetrica denida positiva o tridiagonal por bloques el metodo de
relajacion converge. Tambien converge si es diagonal dominante (por las o columnas),
pero, salvo para matrices tridiagonales por bloques, poco se puede decir acerca de la
eleccion optima del parametro
12
.
Desde un punto de vista practico, se suele determinar este parametro mediante ensayo
error. De forma algo sorprendente, es muy habitual que 1 en problemas practicos
de ah el nombre que se le da a veces de sobrerelajacion (overrelaxed).
Por ultimo, aunque no sea inmediato, se puede comprobar que este metodo encaja en
el marco anterior, sin mas que tomar
=
1
=
1
+
Ejercicio 13 Implementar el metodo de Relajacion a partir del metodo de Gauss-Seidel.
Incluir como nuevo argumento de entrada el parametro . Un posible valor por defecto podra
ser = 1 con lo que tendramos el metodo de Gauss-Seidel.
Ejercicio 14 De nuevo, el metodo de relajacion se puede escribir en la forma
donde es una matriz adecuada. Cual es esa matriz?
Nota nal
Los metodos clasicos son en la actualidad poco utilizados en la practica y han sido
reemplazados por metodos mas potentes como los metodos de tipo Krylov de los que
probablemente el metodo del Gradiente Conjugado es el representante mas famoso. Sin
embargo, son utilizados como precondicionadores de estos metodos, es decir, como un
preproceso que acelera la convergencia de estos metodos mas potentes.
12
Y a un en este caso, la determinacion exacta del parametro optimo exige resolver un problema bastante
complicado.
#2 42
PROYECTO #2 Cap
y
es un producto escalar
13
. En particular, si es la identidad,
x
n
y = x
y
es simplemente el producto escalar eucldeo de x por y. Denotaremos
x y x
y = 0
y diremos en este caso que x e y son ortogonales. La misma notacion se puede extender
al producto denido por , de forma que
x
A
y x
y = 0
y en este caso x e y se dicen ortogonales.
La norma asociada al producto escalar anterior se conoce como norma de energa
y su expresion viene dada, obviamente, por
|x|
A
:=
x
Todas normas son equivalentes en R
n
, pero para esta norma se tiene ademas
n
|x|
2
|x|
A
1
|x|
2
donde
1
2
n
0 son los valores propios
14
de . La cantidad
( ) =
1
n
que sera relevante en lo que sigue, es conocida como condicionamiento de la matriz
15
.
Construimos la funcion
(x) =
1
2
x
x x
b
conocido como funcional de energa. Como es denida positiva
(x) cuando |x|
2
13
Esto es, cumple las propiedades que denen un producto escalar: 1) (x+y) Az = x Ay+z Az;
2) x Ay = y Ax; 3) x Ax > 0 si x ,= 0.
14
Todos reales por ser A simetrica y positivos por ser (que)-Rlazari.63T2.6203Tx
PROYECTO #2
y por tanto tiene al menos un mnimo. Tras unos simples calculos, se comprueba que
= x b
Por tanto existe un unico extremo que necesariamente es mnimo. Hemos llegado por
tanto a la siguiente conclusion:
Los problemas resolver x = b y encontrar el mnimo de son
equivalentes
En esta observacion se basan los metodos de descenso: en lugar de resolver el sistema de
ecuaciones x = b, nos preocupamos en buscar el mnimo de . Observese que es esencial
que sea denida positiva para que estos argumentos sean validos.
5.4.2. Metodos de descenso. Aspectos generales
La idea de estos metodos es sencilla. Consiste en dada una aproximacion x
m
de x,
seguir los siguientes pasos
Calcular una direccion de descenso d
m
.
Descender una cantidad
m
, tomando como nueva aproximacion
x
m+1
= x
m
+
m
d
m
Se procede as hasta que hay convergencia. Dos aspectos determinan el metodo: que di-
reccion se toma y cuanto se desciende.
En el metodo del Gradiente, como en el metodo de Gradiente Conjugado, se toma
m
de forma que
(x
m+1
) = mn
tR
(x
m
+ d
m
)
es decir, se trata de minimizar, una vez escogida la direccion de descenso d
m
, el funcional
de energa. Deniendo
( ) = (x
m
+ d
m
)
podemos comprobar que
0 =
( ) = d
m
d
m
d
m
(b x
m
)
. .
r
m
y por tanto la longitud de descenso viene dada por
m
:=
r
m
d
m
d
m
d
m
(5.3)
Notese que r
m
= b x
m
es el residuo de x
m
, que ya ha surgido en estas notas. Se
puede probar facilmente que
r
m+1
= b x
m+1
= b x
m
m
d
m
= r
m
m
d
m
#2 44
PROYECTO #2 Cap
m
d
m
d
m
d
m
x
m+1
= x
m
+
m
d
m
r
m+1
= r
m
m
d
m
5.4.3. Metodo del Gradiente
Dado que (x
m
) = b x
m
= r
m
, se sigue la direccion de maximo descenso es la
del residuo. Por tanto, esta parece una buena eleccion para d
m
. El metodo as denido es
el metodo del gradiente
Metodo del Gradiente
x
0
r
0
= b x
0 0
= r
r
p
m
= r
m
m
=
m
r
m
p
m
x
m+1
= x
m
+
m
r
m
r
m+1
= r
m
m
p
m
m+1
= r
m+1
r
m+1
m+1
|b|
En el paso estamos calculando el residuo de la solucion, y en
m+1
guardamos su norma
al cuadrado.
El criterio de parada se toma ahora a partir del residuo. Hemos escogido el basado en
el tama no relativo del residuo ( |b|). La norma que utilizamos es la eucldea, que es
connatural al metodo.
#2 45
PROYECTO #2
Ejercicio 15 Programa el metodo del Gradiente
Solucion. Una posible implementacion del metodo es la que sigue
#2 46
PROYECTO #2 Cap
n
1
+
n
(Ayuda: Toma varios valores de c en la denicion de la funcion g
c
() y dibuja la gracas
resultantes. Obtendras algo similar a esto
0 1 2 3 4 5
0
0.5
1
Cuales son las gracas de los valores extremos? Cuanto vale el corte?)
5.4.4. El Gradiente Conjugado
El metodo del Gradiente Conjugado trata de resolver alguna de las dicultades obser-
vadas con el metodo del Gradiente, como por ejemplo el comportamiento oscilatorio del
residuo.
Observemos que en un metodo de descenso, y por la eleccion de
m
hecha en (5.4.2),
r
m+1
d
m
= r
m
d
m
m
d
m
d
m
= 0
por lo que r
m+1
d
m
. Esto es el, el residuo del paso + 1 es ortogonal a la direccion
de descenso anterior.
Sin embargo, en general ya no es cierto que
r
m+1
d
m1
(5.4)
#2 49
PROYECTO #2
y por tanto se pierde esta propiedad de ortogonalidad.
Una forma de evitar, o de mitigar, el aspecto oscilante del metodo de Gradiente, es
exigir que la direccion de descenso d
m
satisfaga (5.4). Dado que
r
m+1
= r
m
m
d
m
concluimos que
d
m1
r
m+1
= 0 d
m1
d
m
d
m1
A
d
m
Optamos por tomar, por tanto, como direccion de descenso una perturbacion de la di-
reccion natural (el residuo) en la direccion del descenso anterior para que se satisfaga la
propiedad de ortogonalidad anterior. As
d
m
= r
m
+
m
d
m1
De esta forma
d
m
A
d
m1
r
m
d
m1
+
m
d
m1
d
m1
= 0
m
=
r
m
d
m1
d
m1
d
m1
Con todo esto, la primera version del metodo del Gradiente Conjugado es la que sigue
Gradiente Conjugado - Primera version
x
0
d
0
= b x
0 0
= r
r
p
m
= d
m
m
=
r
m
d
m
d
m
p
m
x
m+1
= x
m
+
m
d
m
r
m+1
= r
m
m
p
m
m+1
= r
m+1
r
m+1
m+1
|b|
m+1
=
r
m+1
p
m
d
m
p
m
d
m+1
= r
m+1
+
m+1
d
m
Como puede verse, las modicaciones sobre el metodo del Gradiente son mnimas. En
cada paso, es necesario calcular un producto matrizvector (lnea ) y dos productos
escalares ( y ) ademas de guardar la norma del residuo de la iteracion anterior.
#2 50
PROYECTO #2 Cap
m
d
m
= r
m
r
m
Por tanto
m
=
r
m
r
m
d
m
d
m
Demostracion. Como r
m
d
m1
,
r
m
d
m
= r
m
r
m
+
m
r
m
d
m1
. .
= 0 (5.5)
El segundo resultado es inmediato de la denicion de
m
.
Lema 7 Para todo 0 se satisfacen las siguientes relaciones
i) d
m+1
A
d
m
.
ii) r
m+1
d
m
, r
m+1
d
m1
.
iii) r
m+1
r
m
.
Demostracion Los puntos i) y ii) ya se han probado. Para probar iii) basta comprobar que
r
m+1
r
m
= r
m
r
m
m
d
m
r
m
= r
m
r
m
m
d
m
d
m
+
m
d
m
d
m1
. .
=0
= r
m
r
m
m
d
m
d
m
El resultado es consecuencia del Lema 6
Lema 8 Para todo 0
m+1
:=
r
m+1
r
m+1
r
m
r
m
Demostracion. Del Lema anterior sabemos que r
m+1
r
m
. As,
m+1
=
r
m+1
d
m
d
m
d
m
=
1
m
r
m+1
(r
m+1
r
m
)
d
m
d
m
=
1
m
r
m+1
r
m+1
d
m
d
m
=
r
m+1
r
m+1
r
m
d
m
=
r
m+1
r
m+1
r
m
r
m
donde en el ultimo paso hemos utilizado el Lema 6.
Los lemas 6 y 9 dan expresiones mas simples de los parametros
m
y
m
. De hecho
mas economicas, dado que r
m
r
m
es conocido del paso anterior y por tanto no es preciso
calcularlo de nuevo.
Ejercicio 19 Modicar el algoritmo del Gradiente Conjugado con las nuevas expresiones de
m
y
m
. Observa que ahora solo es necesario un producto matriz-vector y un producto escalar.
#2 51
PROYECTO #2
El resultado mas sorprendente y que descubre parte de las buenas propiedades del
Gradiente Conjugado es que estas propiedades de ortogonalidad se extienden a todo el
conjunto de residuos y direcciones generados en los pasos anteriores.
Lema 9 Para todo
i) d
m
A
d
, 1.
ii) r
m+1
d
, .
iii) r
m+1
r
,
La tercera propiedad implica en particular la convergencia del Gradiente Conjugado en
aritmetica exacta en a lo sumo pasos dado que no puede haber +1 vectores ortogonales
en R
n
. Sin embargo, en aplicaciones practicas puede requerir de mas de iteraciones por
los errores introducidos por la precision de la maquina.
Ejercicio 20 Modicar el programa para implementar en una funcion de nombre
el metodo del Gradiente Conjugado.
Hemos ejecutado como antes
y hemos desplegado en la gura 5.2 las normas de los residuos en cada paso. Como se
0 2 4 6 8 10 12 14
10
2
10
1
10
0
10
1
10
2
10
3
10
4
Residuo
Iteraciones
Figura 5.2: Residuo para el metodo del Gradiente Conjugado
puede comprobar la convergencia es mas rapida y hemos reducido notablemente el molesto
comportamiento oscilatorio del residuo.
#2 52
PROYECTO #2 Cap
, 1 y d
0
d
1
d
m
es una base de /
m
( r
0
).
ii) r
m+1
d
, .
iii) r
m+1
r
, y r
0
r
1
r
m+1
es una base ortogonal de /
m+1
( r
0
).
Veamos como se sigue cumpliendo los puntos i)iii para + 1.
i) d
m+1
A
d
, :
El resultado esta probado ya para = . Para 1, utilizamos que
d
m+1
= r
m+1
+
m+1
d
m
Por tanto el resultado se tiene una vez que hayamos probado que
r
m+1
A
r
d
m
A
d
r
m+1
r
Como r
/
+1
( r
0
) y una base de este subespacio es r
0
r
1
r
+1
,
concluimos que
r
=
0
r
0
+
1
r
1
+ +
+1
r
+1
con
j
R adecuados. El resultado se sigue ahora de iii) puesto que r
m+1
r
,
para todo .
Por ultimo si d
m+1
,= 0 entonces d
0
d
m+1
es una base de /
m+1
( r
0
) por
ser ortogonales y por tanto linealmente independientes.
#2 53
PROYECTO #2
PROYECTO #2 Cap
Indice de guras
2.1. Matriz sparse 400 400 con 2690 entradas no nulas . . . . . . . . . . . . . 13
4.1. Efecto relleno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2. Resultado de reordenar las las y columnas con y . . . . . . 26
4.3. eliminacion gaussiana y su representacion como un grafo. . . . . . . . . . . 29
5.1. Residuo en las sucesivas iteraciones del metodo del Gradiente . . . . . . . . 47
5.2. Residuo para el metodo del Gradiente Conjugado . . . . . . . . . . . . . . 52
5.3. Precondicionamiento versus no precondicionamiento . . . . . . . . . . . . . 57
#2 59
PROYECTO #2
#2 60
Indice general
1. Introduccion 1
I Matlab: programacion avanzada 3
2. Las matrices revisitadas 5
2.1. Acceso a partes estructuras de una matriz . . . . . . . . . . . . . . . . . . 5
2.2. Mas operaciones sobre matrices . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3. Matrices sparse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3. Programacion de funciones 17
II Matrices sparse en Matematicas.
Metodos iterativos para sistemas de ecuaciones lineales 21
4. Matrices sparse en Matematicas 23
4.1. Metodo de Gauss con matrices sparse . . . . . . . . . . . . . . . . . . . . . 23
5. Metodos iterativos 31
5.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.2. Detalles sobre su implementacion . . . . . . . . . . . . . . . . . . . . . . . 32
5.3. Metodos iterativos clasicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.3.1. Conocimientos previos . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.3.2. Denicion y condiciones de convergencia . . . . . . . . . . . . . . . 34
5.3.3. Metodos de Jacobi, Gauss-Seidel y Relajacion . . . . . . . . . . . . 35
5.4. Metodos de tipo gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.4.2. Metodos de descenso. Aspectos generales . . . . . . . . . . . . . . . 44
5.4.3. Metodo del Gradiente . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.4.4. El Gradiente Conjugado . . . . . . . . . . . . . . . . . . . . . . . . 49
#2 61