Professional Documents
Culture Documents
Avr 2015
Table des matires
Introduction Gnrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1
3.2.2 Mthode de balayage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Approximation des racines : Mthodes itrative . . . . . . . . . . . . . . . . . . 64
3.3.1 Mthode de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.2 Mthode de Newton-Raphson pour deux inconnues . . . . . . . . . . . . 67
3.3.3 La mthode de Newton-Raphson et les polynme . . . . . . . . . . . . . 69
3.3.4 Mthode de point xe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3.5 Acclration de la convergence . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.6 Convergence de la mthode de newton-Raphson . . . . . . . . . . . . . . 76
3.3.7 Mthode de la scante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.3.8 Mthode de dichotomie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.4 Travaux dirigs 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2
0.1. INTRODUCTION GNRALE
1
des machines et permet des simulations numriques de ralisme croissant. Cet eort de minia-
turisation est dailleurs impos par la course la conqute de lespace. Apparaissent ainsi en
1970 les fameux microprocesseurs mis au point par les rmes Intel et Motorola qui quipent
la majeure partie des sondes spatiales de lpoque. Le calcul numrique devient rapidement
une science part entire. Les annes 70 marquent aussi le tournant pour les langages de pro-
grammation : certains sont dnitivement produits des ns scientiques, alors que dautres
seront penss pour la gestion, comme le Cobol. Au dbut des annes 1980, lordinateur le plus
puissant du monde sappelle CRAY I. Sa forme est spcialement choisie pour optimiser la rapi-
dit des calculs. Cest aussi le dbut de linformatique familiale avec la mise sur le march des
PERSONAL COMPUTERS DIBM
En une quinzaine dannes, la rapidit des calculateurs a t multiplie par plus de 10000.
La vitesse dexcution des oprations lmentaires se compte maintenant en dizaines de millions
de millions doprations la seconde (ou dizaines de Tra-ops, comparer la centaine de
mga -ops du CRAY I). Les capacits de stockage ont gagn 7 ordres de grandeur au moins.
Aujourdhui, toutes ces performances doublent tous les ans. Pour le monde scientique, celui de
la Recherche Fondamentale et de lIndustrie, les calculateurs et le dveloppement de techniques
de programmation spciques (comme la programmation parallle) sont devenus des outils
incontournables la connaissance et ouvrent de nouveaux horizons pour la modlisation et la
comprhension des phnomnes complexes et la mise au point de nouvelles technologies.
On regroupe sous le terme gnrique de "mthodes numriques", toutes les techniques de
calcul qui permettent de rsoudre de manire exacte ou, le plus souvent, de manire appro-
che un problme donn. Le concept de calcul est assez vaste et doit tre pris au sens large.
Il peut sagir de dterminer linconnue dune quation, de calculer la valeur dune fonction en
un point ou sur un intervalle, dintgrer une fonction, dinverser une matrice, etc. Bien que la
mise en quation dun problme et sa rsolution passent naturellement par les Mathmatiques,
les problmatiques sous-jacentes concernent des disciplines aussi varies que la Physique, lAs-
trophysique, la Biologie, la Mdecine, lEconomie, etc. Il existe ainsi une grande varit de
problmes possibles avec pour chacun deux, des mthodes trs spciques. De fait, le nombre
total de mthodes numriques dont nous disposons lheure actuelle est vraisemblablement
gigantesque.
Une mthode numrique met en uvre une certaine procdure, une suite doprations, gn-
ralement en tries grand nombre, que lon transcrira ensuite dans un langage de programmation.
Bien quune mthode numrique puisse seectuer mentalement (du moins avec pun crayon et un
papier) comme inverser une matrice 2x2, rsoudre tan x 1 = 0, ou calculer 2, elle ncessite
dans la majorit des cas un ordinateur qui a lavantage de la rapidit (mais pas de la prcision).
Il convient ce niveau de bien direncier la partie mthode numrique, souvent indpendante
du calculateur et du langage, et la partie programmation qui met en uvre dune part lalgo-
rithme et dautre part une suite dinstructions crites dans un langage de programmation. Bien
sr, une mthode numrique pourra dpendre de larchitecture dun ordinateur et du langage
utilis. Toutefois, lun des soucis majeurs de lutilisateur et du programmeur est dassurer
son programme une certaine portabilit, cest--dire de pouvoir lexcuter sur des machines
direntes sans avoir besoin dadaptations (trop) spciques.
Les mthodes numriques sont indispensables la ralisation de programmes de calculs ou
2
0.1. INTRODUCTION GNRALE
codes de calcul. En particulier, pour les astrophysiciens qui ne bncient pas dun laboratoire
permettant de valider leurs thories partir dexpriences renouvelables loisir et contrlables,
ces outils sont le seul moyen de simuler ou de modliser les phnomnes que nous observons,
de les interprter et de les comprendre. Rappelons que les mthodes numriques sont en eet
prsentent dans toutes les disciplines de lAstrophysique moderne : la cosmologie, linstrumen-
tation, le traitement de donnes, la plantologie, la physique solaire, la physique des galaxies,
la physique extragalactique, etc. Sil est vrai quil existe une trs grande diversit de mthodes
numriques avec lesquelles ont peut, en pratique, quasiment tout faire, certains problmes (par
exemple en traitement du signal, en mcanique cleste ou en mcanique des uides) ont ncessit
la mise au point de mthodes trs spciques.
Lobjet de lanalyse numrique est de concevoir et dtudier des mthodes de rsolution de
certains problmes mathmatiques, en gnral issus de la modlisation de problmes rels", et
dont on cherche calculer la solution laide dun ordinateur.
Le cours est structur en quatre grands chapitres :
Rsolution des systmes linaires
Calcul des valeurs et vecteurs propres
Systmes non linaires
Equations direntielles.
3
Chapitre 1
On note MN (R) lensemble des matrices carres dordre N . Soit A 2 MN (R) une matrice
inversible, et b 2 Rn , on a comme objectif de rsoudre le systme linaire Ax = b, cest dire
de trouver x solution de :
x 2 RN
(P)
Ax = b
Comme A est inversible, il existe un unique vecteur x 2 RN solution de (P). Nous allons
tudier dans les deux chapitres suivants des mthodes de calcul de ce vecteur x : la premire
partie de ce chapitre sera consacre aux mthodes directes" et la deuxime aux mthodes it-
ratives". Nous aborderons ensuite en troisime partie les mthodes de rsolution de problmes
aux valeurs propres.
Un des points essentiels dans le cacit des mthodes envisages concerne la taille des
systmes rsoudre. Entre 1980 et 2000, la taille de la mmoire des ordinateurs a augment
de faon drastique. La taille des systmes quon peut rsoudre sur ordinateur a donc galement
augment.
Le dveloppement des mthodes de rsolution de systmes linaires est lie lvolution des
machines informatiques. Un grand nombre de recherches sont dailleurs en cours pour proter
au mieux de larchitecture des machines (mthodes de dcomposition en sous domaines pour
proter des architectures parallles, par exemple).
Dans la suite de ce chapitre, nous verrons deux types de mthodes pour rsoudre les systmes
linaires : les mthodes directes et les mthodes itratives. Pour faciliter la comprhension de
leur tude, nous commenons par quelques rappels dalgbre linaire.
4
1.1. QUELQUES RAPPELS DALGBRE LINAIRE
1. On appelle norme matricielle sur MN (R) une norme k:ksur MN (R) t.q.
2. On considre MN (R) muni dune norme k:k. On appelle norme matricielle induite (ou
norme induite) sur MN (R) par la norme k:k, encore note k:k, la norme sur MN (R) dnie par :
Proposition 1 Soit MN (R) muni dune norme induite k:k. Alors pour toute matrice A 2
MN (R), on a :
1. kAxk kAk kxk ; 8x 2 Rn ;
2. kAk = max fkAxk
n ; kxk = 1; xo2 Rn g ;
3. kAk = max kAxkkxk
; x 2 Rn n f0g
4. k:k est une norme matricielle.
Lemme 1.1.1 (Convergence et rayon spectral) On munit MN (R) dune norme, note k:k.
Soit A 2 MN (R).
Alors :
1. (A) < 1 si et seulement si Ak ! 0 quand k ! 1.
1
2. (A) < 1 ) lim supk!1 Ak k
1.
1
k
3. lim inf k!1 A k
< 1.
5
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
1
4. (A) = limk!1 Ak k :
5. On suppose de plus que k:k une norme matricielle (induite ou non). Alors
(A) kAk :
Remarque 1.1.1 (Convergence des suites) Une consquence immdiate du lemme est que
si x(0) est donn et x(k) dni par x(k+1) = Ax(k) , alors la suite x(k) k2N converge vers 0 si et
seulement si (A) < 1.
Proposition 3 (Rayon spectral et norme induite) Soient A 2 MN (R) et " > 0. Il existe
une norme sur Rn (qui dpend de A et ") telle que la norme induite sur MN (R), note k:kA; "
vrie kAkA; " (A) + ".
Lemme 1.1.2 (Triangularisation dune matrice) Soit A 2 MN (R) une matrice carre
quelconque, alors il existe une base (f1 ; :::; fN ) de C et une famille de complexes ( i; j )i=1;:::;N;j=1;:::;N;j<i
P
telles que Afi = i;i fi + i;j fj De plus i;j est valeur propre de A pour tout i 2 f1; :::; N g.
j<i
On admettra ce lemme.
Nous donnons maintenant un thorme qui nous sera utile dans ltude du conditionnement,
ainsi que plus tard dans ltude des mthodes itratives.
1 1
(Id + A) :
1 kAk
2. Si une matrice de la forme Id + A 2 MN (R) est singulire, alors kAk 1 pour toute
norme matricielle k:k :
Lemme 1.1.3 Soit A une matrice relle carre dordre n, diagonalisable dans R. Alors
1
A = P diag ( 1 ; :::; n) P ;
o P est la matrice dont les vecteurs colonnes sont gaux aux vecteurs 1 ; :::; n.
6
1.2. MTHODES DIRECTES
Lemme 1.1.4 Soit E un espace vectoriel sur R de dimension nie : dimE = n; n 2 N ; muni
dun produit scalaire i.e. dune application
E E ! R;
(x; y) ! < x; y >E
qui vrie :
8x 2 E; < x; x >E 0 et < x; x >E = 0 , x = 0;
2
8(x; y) 2 E ; < x; y >E =< y; x >E ;
8y 2 E; lapplication de E dans R; dnie par x !< x; y >E est linaire:
p
Ce produit scalaire induit une norme sur E, kxk = < x; x >E :
Soit T une application linaire de E dans E. On suppose que T est symtrique, c..d. que
< T (x); y >E =< x; T (y) >E , 8(x; y) 2 E 2 . Alors il existe une base orthonorme (f1 :::fn ) de E
(c..d. telle que (fi ; fj )E = i;j ) et ( 1 ; :::; n ) 2 Rn tels que T (fi ) = i fi pour tout i 2 f1:::ng.
Consquence immdiate : Dans le cas o E = Rn , le produit P scalaire canonique de
x = (x1 ; :::; xN )t et y = (y1 ; :::; yN )t est dni par < x; y >E = x y = N i=1 xi yi Si A 2 MN (R)
est une matrice symtrique, alors lapplication T dnie de E dans E par : T (x) = Ax est
linaire, et : < T (x); y >= Ax y = x At y = x Ay =< x; T (y) >. Donc T est linaire symtrique.
Par le lemme prcdent, il existe (f1 ; :::; fN ) et ( 1 ; :::; N ) 2 RN tels que T fi = Afi = i fi
8i 2 f1; :::; N g et fi .fj = i;j ; 8(i; j) 2 f1; :::; N g2 .
Interprtation algbrique : Il existe une matrice de passage P de (e1 ; :::; eN ) base ca-
nonique dans (f1 ; :::; fN ) dont la premire colonne de P est constitue des coordonnes de fi
dans (e1 ; :::; eN ). On a : P ei = fi . On a alors P 1 AP ei = P 1 Afi = P 1 ( i fi ) = i ei =
diag ( 1 ; :::; N ) ei , o diag ( 1 ; :::; N ) dsigne la matrice diagonale de coe cients diagonaux
1 ; :::; N On a donc :
i 0
P 1 AP = = D:
0 N
De plus P est orthogonale, i.e. P 1 = P t . En eet,
P t P ei ej = P ei P ej =< fi ; fj >= i;j 8i; j 2 f1:::N g;
et donc (P t P ei ei ) ej = 0 8j 2 f1:::N g 8i 2 f1; :::N g. On en dduit P t P ei = ei pour tout
i = 1; :::N ,
i.e. P t P = P P t = Id.
7
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
0 1 0 0 0 0 0
1
a11 a12 a1n b1 a11 a12 a1n b1
B a21 a22 a2n b2 C B 0
0
a22
0
a2n b2
0
C
B C B C
B .. .. .. .. .. C !B .. .. .. .. .. C
@ . . . . . A @ . . . . . A
0 0
an1 an2 ann bn 0 0 ann bn
. .
A .. b ! A0 .. b0
0 0
? Puis, on rsout le systme A x = b (dont la solution est exactement la solution du systme
Ax = b )
ETAPES : On pose A = A(1) et b = b(1) :
1ere tape :
(1)
? Si a11 6= 0; on fait les aectations suivantes
(2) (1)
La ligne L1 est maintenue ie : L1 L1
(1)
(2) (2) ai1 (1)
pour i = 2; n ; Li Li (1) L1
a11
On obtient alors :
0 (1) (1) (1) (1) 1 0 (2) (2) (2) (2) 1
a11 a12 a1n b1 a11 a12 a1n b1
B a(1) a(1) a2n
(1)
b2
(1) C B 0
(2)
a22
(2)
a2n b2
(2) C
B 21 22 C B C
B . . .. .. .. C !B .. .. .. .. .. C
@ .. .
. . . . A @ . . . . . A
(1) (1) (1) (1) (2) (2)
an1 an2 ann bn 0 0 ann bn
. .
A(1) .. b(1) ! A(2) .. b(2)
o : 8
< a(2) (1)
1j = a1j j = 1; n
(1)
(2) (1) ai1 (1)
: aij = aij (1) a1j , i = 2; n ; j = 1; n
a11
et 8
< b(2) (1)
1 = b1
(1)
(2) (1) ai1 (1)
: b1 = bi (1) b1 , i = 2; n
a11
8
1.2. MTHODES DIRECTES
et 8
< b(k+1)
i
(k)
= bi i = 1; k
(k)
(k+1) (k) aik (k)
: bi = bi (k) bk ; i = k + 1; n
akk
Rsolution de A0 x = b0 :
On pose 0 1
(n) (n) (n) (n)
a11 a11 a11 b1
B (n) (n) (n) C
.. 0 (n) .. (n)
B 0 a11 a11 b2 C
0
A .b = A .b =B
B .. .. .. .. .. C
C
@ . . . . . A
.. (n) (n)
0 . a11 bn
9
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
Et del
Ax = b () A(1) x = b(1)
() A(2) x = b(2)
..
.
() A(n) x = b(n)
() A0 x = b0
do (Rsolution par remonte)
8 0 0
> x1 = a10 (b01 a1;2 x2 a1;n xn )
>
> 11
>
< ..
.
1 0
>
> x n 1 = a0 (b0n 1 an 1;2 xn )
>
> n 1;n 1
: x = 01 b0
n an;n n
1ere tape :
(1)
? a11 = 2 6= 0
0 1 0 1
2 3 1 5 2 3 1 5
@ 4 4 3 3 A ! @ 0 2 1 7 A
2 3 1 1 0 6 2 6
. .
A(1) ..b(1) ! A(2) ..b(2)
10
1.2. MTHODES DIRECTES
2eme tape :
(2)
? a22 = 2 6= 0
0 1 0 1
2 3 1 5 1 0 0 1
@ 0 2 1 7 A !@ 0 1 0 2 A
0 6 2 6 0 0 1 3
. .
A(2) ..b(2) ! A(3) ..b(3)
Rsolution de A0 x = b0 :
.
Posons A0 .. b0 : On a alors :
1 0 1 0
0 1
2 3 1 x1 5
A0 x = b0 () @ 0 2 1 A @ x2 A = @ 7 A
0 0 5 x3 15
8 8
< 2x1 + 3x2 x3 = 5 < x1 = 1
() 2x2 + x3 = 7 () x2 = 2
: :
5x3 = 12 x3 = 3
. .
A(1) ..b(1) ! A(2) ..b(2)
11
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
avec :
8 (1)
>
> (2) a1j
< a1j = (1)
a11
; j = 1; n
(2) (1) (1) (2)
> aij = aij ai1 a1j ; i = 2; n ; j = 2; n
>
: (2)
aij = 0 , i = 2; n ; j = 1
et 8
< b(2) = b(1)
1
1 (1)
a11
: (2)
b =b
(1)
ai1
(1)
bi ;
(2)
i = 2; n
i i
1ere tape :
(2)
? Si a22 6= 0; on fait les aectations suivantes
(3) 1 (2)
L2 (2) L2
a22
(3) (2) (2) (3)
Li Li ai2 L2 ; i = 1; n avec i 6= 2
do :
0 (2) (2) (2) 1 0 (3) (3) (3) 1
1 a12 a1n b1 1 0 a13 a1n a1
B 0
(2)
a22
(2)
a2n b2
(2) C B 0 1
(3)
a23
(3)
a2n a2
(3) C
B C B C
B .. .. .. .. C !B .. .. .. .. .. .. C
@ . . . . A @ . . . . . . A
(2) (2) (2) (3) (3) (3)
0 an2 ann bn 0 0 an3 ann an
. .
A(2) ..b(2) ! A(3) ..b(3)
avec :
8 (1)
>
> (2) a1j
< a1j = a11
(1) ; j = 1; n
(2) (1) (1) (2)
> aij = aij ai1 a1j ; i = 2; n ; j = 2; n
>
: (2)
aij = 0; i = 2; n ; j = 1
et 8
< b(2) = b(1)
1
1 (1)
a11
: b(3) = b(2) ai2
(e)
b2 ;
(")
i = 1; n; i 6= 0
i i
k eme tape :
(k)
? akk 6= 0 :
(1) 1 (k)
Lk (k) Lk
akk
(k+1) (k) (k) (k+1)
Li Li aik Lk ; i = 1; n avec i 6= k
12
1.2. MTHODES DIRECTES
On obtient :
0 (k) (k) (k)
1 0 (k+1) (k+1) (k+1)
1
1 0 a1k a1n b1 1 0 a1;k+1 a1n b1
B (k) (k) (k) C B (k+1) (k+1) (k+1) C
B 0 0 a2k a2n b2 C B 0 0 a2;k+1 a2n b2 C
B .. .. C B .. .. C
B . . C B . . C
B C B C
B (k) (k) (k) C B (k+1) (k+1) (k+1) C
B 0 1 ak 1;k ak 1;n bk 1 C !B 0 1 ak;k+1 ak;n bk C
B C B C
B 0
(k)
0 akk
(k)
a1k bk
(k) C B 0 (k+1)
0 ak+1;k+1
(k+1)
ak+1;n
(k+1)
bk+1 C
B C B C
B .. .. C B .. .. C
@ . . A @ . . A
(k) (k) (k) (k+1) (k+1) (k+1)
0 0 ank ann bn 0 0 an;k+1 ann bn
. .
A(k) .. b(k) ! A(k+1) .. b(k+1)
avec
8 (k)
< (k+1)
akj =
akj
; j = k; n
(k)
akk
: a(k+1) = a(k) (k)
aik
(k+1)
akj ; i = 1; n; i 6= k; j = k + 1; n
ij ij
et 8 (k)
< bk
(k+1)
=
bk
(k)
akk
: b(k+1) = b(k) (k)
aik
(k+1)
bk ; i = 1; n ; i 6= k
i i
13
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
. .
A(1) ..b(1) ! A(2) ..b(2)
2eme tape :
(2)
? a22 = 2 6= 0
0 1 0 1
1 3 2 1 2 5 2 1 0 5 4 11 4
@ 0 2 1 7 A !@ 0 1 1 2 7 2 A
0 6 2 6 0 0 5 15
. .
A(2) ..b(2) ! A(3) ..b(3)
3eme tape :
(3)
? a33 = 5 6= 0
0 1 0 1
1 0 5 4 11 4 1 0 0 1
@ 0 1 1 2 7 2 A ! @ 0 1 0 2 A
0 0 5 15 0 0 1 3
. .
A(3) ..b(3) ! A(4) ..b(4)
Solution de A0 x = b0 :
Posons b0 = b(4) :On a alors : x = b0 = (1:2:3) :
? Posons
0:0003 3 2:0001
A= et b=
1 1 1
Nous avons : a11 = 0:0003 6= 0; do :
. .
A .. b ! A0 .. b0
14
1.2. MTHODES DIRECTES
et del :
x2 = 6666
9999
= 2222
3333
=?
1
x1 = 0:0003 (2:0001 3x2 ) =?
Question 1 : Eectuer les calculs avec quatre(04) c.s
Rponse 1 : x2 = 0:6667 et x1 = 0:3333
Question 2 : mme question avec cinq (05) c.s
Rponse 2 : x2 = 0:66667 et x1 = 0:3
Question 3 : avec trois (03) c.s
Rponse 3 : x2 = 0:667 et x1 = 3
Remarque 1.2.3 1. Les chires de la valeur x2 restent stables. Par contre ceux de x1 mtent
chaque nouvelle prcision.
2. Les solutions auxquelles on aboutit sont, des chelles dirents, loignes de la solution
exacte.
Commentaire 1 Cette perte dans la prcision est due au pivot a11 = 0:0003 qui est trs
petit.
Cas gnral
Soit le systme
8
>
> a11 x1 + a12 x2 + + a1n xn = b1
>
< a22 x2 + + a2n xn = b2
> ..
> .
>
: ann xn = bn
15
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
16
1.2. MTHODES DIRECTES
(2)
k = 2 : max aij ; i = 2; 3 j = 2; 3 = 2 La ligne du pivot total est alor L3 : Et donc on
permute les lignes 2 et 3 :
0 1 0 1
6 2 3 12 6 2 3 12
@ 0 2 1 2 8 A ! @ 0 2 1 2 8 A
0 1 3 1 2 2 0 0 5 12 5 3
avec : Ax = b () A0 x = b 0
On pose alors U = A0
17
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
18
1.2. MTHODES DIRECTES
0 1
a11 a12 a13 a14
(k)
B a21 a22 a23 a24 C a
=B
@ a31
C = A car a(k+1) = a(k) + a(k) kj
a32 a33 a34 A ij ij ik (k)
akk
a41 a42 a43 a44
Dnition 1.2.1 Soit A 2 Mn (R) est dite symtrique si elle coincide avec sa transpose ie :
A = AT ou encore : aij = aji , i; j = 1; n
Thorme 1.2.1 (Sylvester) Soit A 2 Mn (R) une matrice symtrique. Alors A est dnie
positive si et seulement si
8x 2 Rn ; x 6= 0; hAx; xi = xT :Ax 0:
Thorme 1.2.3 (Cholesky) Soit A une matrice carre dordre n, non singulire et sym-
trique. Pour quil existe une matrice triangulaire infrieure L, de meme dimension que A, telle
que : A = LLT ; il faut et il su t que A soit dnie positive .
Algorithme de dcomposition
An dobtenir les lments lij de la matrice L on multiplie les matrices L et LT , puis on iden-
tie les coe cients respectifs dans lgalit : A = L LT pour obtenir les quations
2
l11 = a11
2 2 2 2 2
li1 + li2 + li3 + + li;i 1 + lii = aii
li1 lji + li2 lj2 + li3 lj3 + +lij ljj = aij , i j
lij = 0 i j
19
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
Rsolution du Ax = b
Rsoudre le systme Ax = b revient alors rsoudre :
Ly = b
LT x = b
L |{z} ()
LT x = y
y
do lon dduit : 8 b1
>
> y1 = l11
>
<
!
> X
i 1
>
> 1
: yi = lii
bi lik yk ; i = 2; n
k=1
et 8 yn
>
> xn = lnn
>
<
!
> X
n
>
> 1
: xi = lii
yi lki xk ; i = 1; n 1
k=i+1
3
Remarque 1.2.5 La mthode de Cholesky ncessite n3 opirations lmentaires (meilleur que
celle de Gauss).
La mthode de Cholesky permet le calcul du dterminant de A:
En eet : A = L LT =) det (A) = det LLT = det (L) det LT
!2
2
Yn
= (det (L)) = lii
i=1
1.3 Conditionnement
Dans ce paragraphe, nous allons dnir la notion de conditionnement dune matrice, qui
peut servir tablir une majoration des erreurs darrondi dues aux erreurs sur les donnes.
Malheureusement, nous verrons galement que cette majoration nest pas forcment trs utile
dans des cas pratiques, et nous nous eorcerons dy remdier. la notion de conditionnement est
galement utilise dans ltude des mthodes itratives que nous verrons plus loin.
20
1.3. CONDITIONNEMENT
x + x 2 Rn
(1.1)
(A + A ) (x + x ) = b + b
On va montrer que si A "nest pas trop grand", alors la matrice A + A est inversible, et
quon peut estimer x enfonction de A et A .
21
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
2. Si de plus A une matrice symtrique dnie positive, alors cond2 (A) = n1 , o n [resp.
1 ] est la plus grande [resp. petite] valeur propre de A.
3. Si A et B sont deuxmatrices symtriques dnies positives, alors cond2 (A+B) max(cond2 (A); c
4. Soit A 2 Mn (R) une matrice inversible. Alors cond2 (A) = 1 si et seulement si A = Q
o 2 R et Q est une matrice orthogonale (cest--dire Qt = Q 1 ).
5. Soit A 2 Mn (R) une matrice inversible. On suppose que A = QR o Q est une matrice
orthogonale. Alors cond2 (A) = cond2 (R).
6. Soient A; B 2 Mn (R) deux matrices symtriques dnies positives. Montrer que cond2 (A+
B) maxfcond2 (A); cond2 (B)g.
Dnition 1.4.1 On appelle mthode itrative de rsolution du systme linaire (P) une m-
thode qui construit une suite (x(k) )k2N (o litr" x(k) est calcul partir des itrs x(0) :::x(k 1) )
cense converger vers x solution de (P)).
Dnition 1.4.2 On dit quune mthode itrative est convergente si pour tout choix initial x(0)
2 Rn , on a :
x(k) ! x quand n ! +1
22
1.4. MTHODES ITRATIVES
Puisquil sagit de rsoudre un sytme linaire, il est naturel dessayer de construire la suite des
itrs sous la forme x(k+1) = Bx(k) + c, o B 2 Mn (R) et c 2 Rn seront choisis de manire
ce que la mthode itrative ainsi dnie soit convergente.On appellera ce type de mthode
Mthode I, et on verra par la suite un choix plus restrictif quon appellera Mthode II.
Initialisation x(0) 2 Rn
Itration n x(k+1) = Bx(k) + c
o B 2 Mn (R) et c 2 Rn .
Remarque 1.4.2 (Intrt pratique) La mthode I est assez peu intressante en pra-
tique, car il faut calculer A 1 b, sauf si (Id B)A 1 = Id, avec 2 R. On obtient dans ce
cas :
B= A + Id
et c= b
cestdire
xn+1 = xn + (b Axn ):
Le terme b Axn est appel rsidu et la mthode sappelle dans ce cas la mthode dextrapolation
de Richardson.
Dnition 1.4.4 (Mthode II) Soit A 2 Mn (R) une matrice inversible, b 2 Rn . Soient M ~
~ ~ ~ ~
et N 2 Mn (R) des matrices telles que A = M N et M est inversible (et facile inverser).
On appelle mthode de type II pour la rsolution du systme linaire (P) une mthode
itrative o la suite des itrs (x(k) )k2N est donne par :
Initialisation x(0) 2 Rn
~ x(k+1) = N
~ x(k) + b (1.4)
Itration n M
23
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
Thorme 1.4.2 (Convergence de la mthode II) Soit A 2 Mn (R) une matrice inver-
~ et N
sible, b 2 Rn . Soient M ~ 2 Mn (R) des matrices telles que A = M
~ N ~ et M ~ est inversible.
Alors :
1. La mthode dnie par (1.2) converge si et seulement si ~ 1N
M ~ < 1.
2. La mthode itrative dnie par (1.2) converge si et seulement si il existe une norme
induite note k:k telle que M ~ 1N
~ < 1.
Dnition 1.4.5 Soit A 2 Mn (R) une matrice inversible. Une P dcomposition par blocs de A
est dnie par un entier S N , des entiers (ni )i=1;:::;S tels que Si=1 ni = N , et S 2 matrices
Ai;j 2 Mni ;nj (R) (ensemble des matrices rectangulaires ni lignes et nj colonnes, telles que les
matrices Ai;j soient inversibles pour i = 1; :::; S et
2 3
A1;1 A1;2 A1;S
6 .. 7
6 A2;1 . . . . . . . 7
6 . 7
6 . ..
.
.. ..
. . 7
6 . 7
A=6 . . . . 7 (1.5)
6 .. .. .. .. 7
6 7
6 .. .. .. 7
4 . . . AS 1;S 5
AS;1 AS;S 1 AS;S
Remarque 1.4.4 1. Si S = N et ni = 1 8i 2 f1; :::; Sg, chaque bloc est constitu dun seul
coe cient.
2. Si A est symtrique dnie positive, la condition Ai;j inversible dans la dnition 1.3.5
est inutile car Ai;j est ncessairement symtrique dnie positive donc inversible. Prenons par
exemple i = 1 ; soit y 2 Rn1 , y 6= 0 et x = (y; 0:::; 0)t 2 Rn . Alors A1;1 y y = Ax x > 0 donc
A1;1 est symtrique dnie positive.
24
1.4. MTHODES ITRATIVES
3. Si A est une matrice triangulaire par blocs, c..d. de la forme (1.3) avec Ai;j = 0 si j > i,
alors
QS
det(A) = det(Ai;i ):
i=1
Par contre si A est dcompose en 2 2 blocs carrs (i.e. tels que ni = mj ; 8(i; j) 2 f1; 2g),
on a en gnral : det(A) 6= det(A1;1 ) det(A2;2 ) det(A1;2 ) det(A2;1 ).
Mthode de Jacobi
On peut remarquer que le choix le plus simple pour le systme M ~ x = d soit facile rsoudre
(on rappelle que cest un objectif de la mise sous forme mthode de type II) est de prendre
pour M~ une matrice diagonale. La mthode de Jacobi consiste prendre pour M ~ la matrice
diagonale D forme par les blocs diagonaux de A :
2 3
A1;1 0 0
6 .. .. .. 7
6 0 . . . 7
6 . 7
6 . ... ..
.
..
. 7
6 . 7
D=6 . . . . 7
6 .. .. .. .. 7
6 7
6 .. . . . . 7
4 . . . 0 5
0 0 AS;S
Dans la matrice ci-dessus, 0 dsigne un bloc nul.
On a alors N ~ = E + F , o E et F sont constitus des blocs triangulaires infrieurs et
suprieurs de la matrice A :
2 3
0 0 0
6 .. 7
6 A1;1 . . . . . . . 7
6 . 7
6 . ..
.
..
.
..
. 7
6 . 7
E=6 .. .. .. .. 7
6 . . . . 7
6 7
6 .. . . . . 7
4 . . . 0 5
AS;1 AS;S 1 0
et 2 3
0 A1;2 A1;S
6 .. .. .. 7
6 0 . . . 7
6 .. 7
6 ..
.
..
.
..
. 7
6 . 7
F =6 .. .. .. .. 7:
6 . . . . 7
6 7
6 .. .. .. 7
4 . . . AS 1;S 5
0 0 0
~
On a bien A = M ~ et avec D; E et F dnies comme ci-dessus, la mthode de Jacobi
N
scrit :
x(0) 2 Rn
(1.6)
Dx(k+1) = (E + F ) x(k) + b
25
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
Si S = N et ni = 1 8i 2 f1; :::; Sg, chaque bloc est constitu dun seul coe cient, et on
obtient la mthode de Jacobi par points (aussi appele mthode de Jacobi), qui scrit donc :
(
x(0) 2 Rn
(k+1) P (k) P (k) (1.8)
ai;i xi = ai;j xj ai;j xj + bi i = 1; :::; n
j<i j>i
Mthode de Gauss-Seidel
Lide de la mthode de Gauss-Seidel est dutiliser le calcul des composantes de litr
(k+1)
(k + 1) ds quil est eectu. Par exemple, pour calculer la deuxime composante x2 du
(k+1) (k+1)
vecteur x , on pourrait employer la nouvelle" valeur x1 quon vient de calculer plutt
(k) (k+1)
que la valeur x1 comme dans (1.5) ; de mme, dans le calcul de x3 , on pourrait employer
(k+1) (k+1) (k) (k)
les nouvelles" valeurs x1 et x2 plutt que les valeurs x1 et x2 .
(k) (k+1)
Cette ide nous suggre de remplacer dans (1.5) xj par xj si j < i. On obtient donc
lalgorithme suivant :
(
x(0) 2 Rn
(k+1) P (k+1) P (k) (1.9)
Ai;i xi = Ai;j xj Ai;j xj + bi i = 1; :::; S
j<i i<j
26
1.4. MTHODES ITRATIVES
On obtient donc
~ =D
M ~ =F+
E et N
1 !
D:
! !
~ N
Il est facile de vrier que A = M ~.
Lalgorithme SOR scrit aussi comme une mthode I avec
1
D 1 !
B= E (F + D):
! !
27
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES
3. Peut-on estimer le coe cient de relaxation ! optimal dans la mthode SOR, c..d. celui
qui donnera la plus grande vitesse de convergence ?
On va maintenant donner des rponses, partielles dans certains cas, faute de mieux, ces
questions.
Convergence On rappelle quune mthode itrative de type I, i.e. crite sous la forme
(n+1)
x = Bx(n) + C converge si et seulement si (B)n1.
Thorme 1.4.4 (Sur la convergence de la mthode SOR) Soit A 2 Mn (R) qui admet
une dcomposition par blocs dnie dans la dnition 1.3 ; soient D la matrice constitue par
les blocs diagonaux, E (resp. F ) la matrice constitue par les blocs triangulaires infrieurs
(resp. suprieurs) ; on a donc : A = D E F . Soit L! la matrice ditration de la mthode
SOR (et de la mthode de GaussSeidel pour ! = 1) dnie par :
1
D 1 !
L! = E (F + D); ! 6= 0:
! !
Alors :
1. Si (L! ) < 1 alors 0 < ! < 2.
2. Si on suppose de plus que A symtrique dnie positive, alors :
Remarque 1.4.5 On a vu (thorme 1.35) que si A est une matrice symtrique dnie positive,
la mthode de GaussSeidel converge. Par contre, mme dans le cas o A est symtrique dnie
positive, il existe des cas o la mthode de Jacobi ne converge pas.
Remarquons que le rsultat de convergence des mthodes itratives donn par le thorme
prcdent nest que partiel, puisquil ne concerne que les matrices symtriques dnies positives
et que les mthodes Gauss-Seidel et SOR. On a aussi un rsultat de convergence de la mthode
de Jacobi pour les matrices diagonale dominante stricte, et un rsultat de comparaison des
mthodes pour les matrices tridiagonales par blocs, voir le thorme 1.3.5 donn ci-aprs. Dans
la pratique, il faudra souvent compter sur sa bonne toile. . .
Estimation du coe cient de relaxation optimal de SOR
La question est ici destimer le coe cient de relaxation, optimal dans la mthode SOR,
c..d. le coe cient, ! 0 2 ]0; 2[ (condition ncessaire pour que la mthode SOR converge, voir
thorme 1.3.4) tel que (L!0 ) < (L! ) 8! 2 ]0; 2[.
Daprs le paragraphe prcdent ce ! 0 donnera lameilleure convergence possible pour SOR.
On sait le faire dans le cas assez restrictif des matrices tridiagonales par blocs.
Thorme 1.4.5 (Coe cient optimal, matrice tridiagonale) On considre une matrice
A 2 Mn (R) qui admet une dcomposition par blocs dnie dans la dnition 1.3 ; on suppose
28
1.4. MTHODES ITRATIVES
que la matrice A est tridiagonale par blocs, c..d. Ai;j = 0 si ji jj > 1 ; soient L1 et J les
matrices ditration respectives des mthodes de Gauss-Seidel et Jacobi, alors :
1. (L1 ) < ( (J))2 : la mthode de GaussSeidel converge (ou diverge) donc plus vite que
celle de Jacobi.
2. On suppose de plus que toutes les valeurs propres de la matrice ditration J de la mthode
de Jacobi sont relles. alors le paramtre de relaxation optimal, c..d. le paramtre ! 0 tel que
(L!0 ) = min f (L! ) ; ! 2 ]0; 2[g, sexprime en fonction du rayon spectral (J) de la matrice
J par la formule :
2
!0 = q > 1;
1+ 1 (J)2
et on a : (L!0 ) = ! 0 1:
29
TRAVAUX DIRIGS 1
Travaux dirigs 1
Exercice 01 :
Soit le systeme lineaire suivant :
]V%
&&
,
- .
+= VM&
(V% ]
" J
Factoriser la matrice en produit puis resoudre le systeme.
Exercice 03
Exercice 04
Soit a IR et
1 a a
A= a 1 a
a a 1
Montrer que A est symtrique dfinie positive si et seulement si 1/2 < a < 1
et que la mthode de Jacobi
converge si et seulement si 1/2 < a < 1/2.
30
Exercice 05
0 1
2 1
1. Soit A = .
1 0
Calculer la dcomposition LDLt de A. Existe-t-il une dcomposition LLt de A ?
2. Montrer que toute matrice de MN (IR) symtrique dfinie positive admet une dcomposition LDLt .
0 1
t 0 1
3. Ecrire lalgorithme de dcomposition LDL . La matrice A = admet-elle une dcomposition LDLt ?
1 0
Exercice 06
Soit N 1. Soit A = (ai,j )i,j=1,...,N MN (IR) une matrice symtrique. On note D la partie diagonale de A,
E la partie triangulaire infrieure de A et F la partie triangulaire suprieure de A, cest--dire :
Initialisation. x(0) IR N
Itrations. Pour n IN, Dx(n+1) = (E + F )x(n) + b.
On pose J = D1 (E + F ).
1. Montrer, en donnant un exemple avec N = 2, que J peut ne pas tre symtrique.
2. Montrer que J est diagonalisable dans IR et, plus prcisement, quil existe une base de IR N , note {f1 , . . . ,
fN }, et il existe {1 , . . . , N } IR t.q. Jfi = i fi pour tout i {1, . . . , N } et t.q. Dfi fj = i,j pour
tout i, j {1, . . . , N }.
En ordonnant les valeurs propres de J, on a donc 1 . . . N , on conserve cette notation dans la suite.
3. Montrer que la trace de J est nulle et en dduire que 1 0 et N 0.
On suppose maintenant que A et 2D A sont symtriques dfinies positives et on pose x = A1 b.
4. Montrer que la mthode de Jacobi (par points) converge (cest--dire x(n) x quand n ). [Utiliser un
thorme du cours.]
On se propose maintenant damliorer la convergence de la mthode par une technique de relaxation. Soit
> 0, on considre la mthode suivante :
Initialisation. x(0) IR N
Itrations. Pour n IN, Dx(n+1) = (E + F )x(n) + b, x(n+1) = x(n+1) + (1 )x(n) .
5. Calculer les matrices M (inversible) et N telles que M x(n+1) = N x(n) + b pour tout n IN, en
fonction de , D et A. On note, dans la suite J = (M )1 N .
31
TRAVAUX DIRIGS 1
6. On suppose dans cette question que (2/)D A est symtrique dfinie positive. Montrer que la mthode
converge (cest--dire que x(n) x quand n .)
7. Montrer que (2/)D A est symtrique dfinie positive si et seulement si < 2/(1 1 ).
8. Calculer les valeurs propres de J en fonction de celles de J. En dduire, en fonction des i , la valeur
optimale" de , cest--dire la valeur de minimisant le rayon spectral de J .
Exercice 07
Soit A = (ai;j )i;j2f1;:::;N g 2 Mn (R).
1. On munit Rn de la norme k k et: M 1 (R)Pde
n la norme induite correspondante, note aussi
k:k1 .Montrer que kAk1 = maxi2f1;:::;N g N j=1 jai;j j :
2. On munit Rn de la norme k:k1 et M (R) de la norme induite correspondante, note aussi
PnN
k:k1 . Montrer que kAk1 = maxj2f1;:::;N g i=1 jai;j j :
3. On munit Rn de la norme k:k2 et Mn (R) de la norme induite correspondante, note aussi
1
k:k2 . Montrer que kAk2 = ( (At A)) 2 :
Exercice 08
Soient A 2 Mn (R) et k:k une norme matricielle.
1. Montrer que si (A) < 1, les matrices Id A et Id + A sont inversibles.
2. Montrer que la srie de terme gnral Ak converge (vers (Id A) 1 ) si et seulement si
(A) < 1.
Exercice 09
8
>
> 2x1 + x2 + x4 = 2
<
4x1 2x2 + 3x3 7x4 = 9
(1)
>
> 4x1 + x2 2x3 + 8x4 = 2
:
3x2 12x3 x4 = 2
32
SUGGESTIONS ET CORRIGS
Suggestions et Corrigs
Exercice 01
]V%
&&
,
- . "
VM&
~
(V% ]
u J
et
Posons m
n
, on calcule
m
n
m
n
m
n
, ou
n
m
dou :
;
on calcule m n
m
n
m
n
, ou
n
m
Donc,
;
La matrice m est ainsi triangulaire superieure, cest la matrice recherchee.
n n n n n n
Dautre part, on a m m m m m m , on en deduit donc que
m
n
m
n
m
n
m
n
33
Ainsi, 6m
n
, avec
7 7
7
2
Presantation de la methode didentification
Resoudre revient a resoudre . On pose alors
, la
resolution du systeme initial revient a resoudre successivement les deux systemes
triangulaires :
;
; ; ;
7
2
Finalement, on resout :
;
V ; ;
;
Exercice 02
Soit le systeme lineaire
ou :
et
Posons m
Factorisons la matrice en produit .
n
, on calcule m
n
m
n
m
n
, ou
m
n
34
SUGGESTIONS ET CORRIGS
dou :
m
n
on calcule m n
m
n
m
n
, ou
m
n
Donc,
m
n
3
La matrice m est ainsi triangulaire superieure, cest la matrice recherchee.
n n n nP n n
Dautre part, on a m m m m m m . On en deduit donc
m
n
m
n
m
n
m
n
Ainsi, m
n
, avec
se factorise donc sous la forme :
3
Resolvons le systeme
. Cela revient a resoudre , cest a
dire a resoudre successivement les systemes puis .
Finalement, on resout :
V
3
35
Exercice 03
On utilise le rsultat de conservation du profil de la matrice nonc dans le cours. Comme A est symtrique,
le nombre p de diagonales de la matrice A est forcment impair si A ; notons q = p1 2 le nombre de sous- et
sur-diagonales non nulles de la matrice A, alors la matrice L aura galement q sous-diagonales non nulles.
n
!
X 1
et i,n+1 = ai,n+1 i,k n+1,k ,
n+1,n+1
k=1
Pn
est toujours infrieur 2q + 1, car la somme k=1 fait intervenir au plus q termes non nuls.
De plus, pour chaque colonne n + 1, il y a au plus q + 1 coefficients i,n+1 non nuls, donc au plus q + 1 coefficients
calculer. Donc le nombre doprations pour chaque colonne peut tre major par (2q + 1)(q + 1).
On peut donc majorer le nombre doprations zq pour les q premires colonnes et les q dernires par 2q(2q +
1)(q + 1), qui est indpendant de n (on rappelle quon cherche une estimation en fonction de n, et donc le nombre
zq est O(1) par rapport n.)
Calculons maintenant le nombre doprations xn ncessaires une colonne n = q + 1 n q 1. Dans (1.50) et
(1.51), les termes non nuls de la somme sont pour k = i q, . . . , n, et donc on a (n i + q + 1) multiplications
et additions, une division ou extraction de racine. On a donc
36
SUGGESTIONS ET CORRIGS
Exercice 04
Si a = 0, alors A = Id, donc A est s.d.p. et la mthode de Jacobi converge.
Si a %= 0, posons a = (1 ), et calculons le polynme caractristique de la matrice A en fonction de la
variable . V V V V
V a a a V V 1 1 V
V V V V
P () = det VV a a a VV = a3 det VV 1 1 VV = a3 (3 3 + 2).
V a a a V V 1 1 V
On a donc P () = a3 ( 1)2 ( + 2). Les valeurs propres de la matrice A sont donc obtenues pour = 1 et
= 2, cestdire : 1 = 1 a et 2 = 1 + 2a.
La matrice A est dfinie positive si 1 > 0 et 2 > 0, cestdire si 21 < a < 1.
La mthode de Jacobi scrit :
X (n+1) = D1 (D A)X (n) ,
avec D = Id dans le cas prsent ; donc la mthode converge si et seulement si (D A) < 1.
Les valeurs propres de D A sont de la forme = 1 o est valeur propre de A. Les valeurs propres de
D A sont donc 1 == a (valeur propre double) et 2 = 2a.. On en conclut que la mthode de Jacobi converge
si et seulement si 1 < a < 1 et 1 < 2a < 1, i.e. 12 < a < 12 .
La mthode de Jacobi ne converge donc que sur lintervalle ] 12 , 12 [ qui est strictement inclus dans lintervalle
] 12 , 1[ des valeurs de a pour lesquelles la matrice A est s.d.p..
Exercice 05
' 1 0 ( ' 0 (
1. On pose L = et D = .
1 0
Par identification, on obtient = 2, = 21 et = 12 .
' a 0 (
Si maintenant on essaye dcrire A = LLt avec L = , on obtient c2 = 12 ce qui est impossible dans IR.
b c
En fait, on peut remarquer quil est normal que A nadmette pas de dcomposition LLt , car elle nest pas dfinie
positive. En effet, soit x = (x1 , x2 )t IR 2 ,, alors Ax x = 2x1 (x1 + x2 ), et en prenant x = (1, 2)t , on a
Ax x < 0.
2. 2. Reprenons en ladaptant la dmonstration du thorme 1.3. On raisonne donc par rcurrence sur la dimension.
1. Dans le cas N = 1, on a A = (a1,1 ). On peut donc dfinir L = ()1,1 ) o )1,1 = 1, D = (a1,1 ), d1,1 %= 0, et
on a bien A = LDLt .
2. On suppose que, pour 1 p N , la dcomposition A = LDLt sobtient pour A Mp (IR) symtrique
dfinie positive ou ngative, avec di,i %= 0 pour 1 i N et on va dmontrer que la proprit est encore
vraie pour A MN +1 (IR) symtrique dfinie positive ou ngative. Soit donc A MN +1 (IR) symtrique
dfinie positive ou ngative ; on peut crire A sous la forme :
B a
A=
at
37
o B MN (IR) est symtrique dfinie positive ou ngative (calculer Axx avec x = (y, 0)t , avec y IR N
pour le vrifier), a IR N et IR.
Par hypothse de rcurrence, il existe une matrice M MN (IR) M = (mi,j )N i,j=1 et une matrice diagonale
D = diag(d1,1 , d2,2 , . . . , dN,N ) dont les coefficients sont tous non nuls, telles que :
(a) mi,j = 0 si j > i
(b) mi,i = 1
(c) B = M DM t .
On va chercher L et D sous la forme :
M 0 D 0
L=
, D =
,
bt 1 0
avec b IR N , IR tels que LDLt = A. Pour dterminer b et , calculons LDLt avec L et D de la forme
(1.8.75) et identifions avec A :
t
M 0 D 0 M b M DM t M Db
LDLt =
=
t t t t
b 1 0 0 1 b DM b Db +
On cherche b IR N et IR tels que LDLt = A, et on veut donc que les galits suivantes soient
vrifies :
M Db = a et bt Db + = .
;N
La matrice M est inversible (en effet, le dterminant de M scrit det(M ) = i=1 1 = 1). Par hypothse
de rcurrence, la matrice D est aussi inversible. La premire galit ci-dessus donne : b = D1 M 1 a. On
calcule alors = bt M 1 a. Remarquons quon a forcment %= 0, car si = 0,
M DM t M Db
A = LDLt =
bt DM t bt Db
on se rend compte facilement que tous les couples de la forme (M t by, y)t , y IR, sont solutions. Le
noyau de la matrice nest donc pas rduit {0} et la matrice nest donc pas inversible. On a ainsi montr que
dN +1,N +1 %= 0 ce qui termine la rcurrence.
38
SUGGESTIONS ET CORRIGS
et donc, comme on a montr dans la question 2 que les coefficients dk,k sont tous non nuls, on peut crire :
< n
=
% 1
)i,n+1 = ai,n+1 )i,k dk,k )n+1,k .
dn+1,n+1
k=1
39
Exercice 06
1. J = D1 (E + F ) peut ne pas tre symtrique, mme si A est symtrique :
0 1
2 1
En effet, prenons A = .
1 1
Alors 0 1 10 1 0 1 0 1
1 2 0 0 1 0 12 0 1
J = D (E + F ) = = %= 1 .
0 1 1 0 1 0 2 0
donc J nest pas symtrique.
2. On applique lexercice prcdent pour lapplication linaire T de matrice D, qui est, par hypothse, dfinie
positive (et videmment symtrique puisque diagonale) et S = E + F , symtrique car A est symtrique.
Il existe donc (f1 . . . fN ) base de E et (1 . . . N ) IR N tels que
N
%
3. Par dfinition de J, tous les lments diagonaux de J sont nuls et donc sa trace galement. Or T rJ = i .
i=1
Si i > 0 i = 1, . . . , N , alors T rJ > 0, donc i0 ; i 0 et comme 1 i0 , on a 1 0. Un
raisonnement similaire montre que N 0.
4. La mthode de Jacobi converge si et seulement si (J) < 1 (thorme 1.27 page 28). Or, par la question
prcdente, (A) = max(1 , N ). Supposons que 1 1, alors 1 = , avec 1. On a alors
D1 (E +F )f1 = f1 ou encore (E +F )f1 = Df1 , ce qui scrit aussi (D +E +F )f1 = D(1)f1
cestdire (2D A)f1 = Df1 avec 0. On en dduit que ((2D A)f1 , f1 ) = 0, ce qui contredit
le fait que 2D A est dfinie positive. En consquence, on a bien 1 1.
Supposons maintenant que N = 1. On a alors D1 (E + F )f1 = fN , soit encore (E + F )fN =
DfN . On en dduit que AfN = (D E F )fN = D(1 )fN = DfN avec 0. On a
alors(AfN , fN ) 0, ce qui contredit le fait que A est dfinie positive.
5. Par dfinition, on a :Dx(n+1) s = (E + F )x(n) + b et x(n+1) = x(n+1) + (1 )x(n). On a donc x(n+1) =
[D1 (E+F )x(n) +D1 b]+(1)x(n) cestdire x(n+1) = [Id(IdD1 (E+F ))]x(n) +D1 b,,
soit encore 1 Dx(n+1) = [ 1 D (D (E + F ))]x(n) + b. On en dduit que M x(n+1) = N x(n) + b avec
M = 1 D et N = 1 D A.
6. La matrice ditration est donc maintenant J = M1 N qui est symtrique pour le produit scalaire
(, )M donc en reprenant le raisonnement de la question 2, il existe une base (f1 , . . . , fN ) (IR N )N
et (1 , . . . N ) IR N tels que
0 1
1
J fi = M 1
N fi = D 1
D A fi = i fi , i = 1, . . . , N,
1
et Dfi f = , i, = 1, . . . , N, j, = 1, . . . , N.
40
SUGGESTIONS ET CORRIGS
et donc AfN = (1) 1 DfN ce qui entrane en particulier que AfN fN 0 ; or ceci contredit lhypothse
A dfinie positive.
7. On cherche une condition ncessaire et suffisante pour que
0 1
2
D A x x > 0, x %= 0,
On a
1 1 1
(1 1 ) (i 1 ) (N 1 ),
et
1 1 1
(N 1 ) (1 1 ) (i 1 ),
donc 0 1
1 1
(J ) = max |(N 1 )|, | (1 1 |)
dont le minimum est atteint (voir Figure 1.8) pour
2
(1 1 ) 1 = 1 (1 N ) cestdire = .
2 1 N
Exercice 07
P
1. Pour montrer lgalit, prendre x tel que xj = sign(ai0 ;j ) o i0 est tel que j=1;:::;N jai0 ;j j
P
j=1;:::;N jai;j j ; 8i = 1; :::; N , et sign(s) dsigne le signe de s.
2. Pour montrer lgalit, prendre x tel que xj0 = 1 et xj = 0 si j 6= j0, o j0 est tel que
P P
j=1;:::;N jai;j0 j = i=1;:::;N jai;j j :
3. Utiliser le fait que At A est une matrice symtrique positive pour montrer lingalit, et
pour lgalit, prendre pour x le vecteur propre associ la plus grande valeur propre de A.
Exercice 08
1. Montrer que si (A) < 1, alors 0 nest pas valeur propre de Id + A et Id A.
2. Utiliser le rsultat de Rayon spectral.
42
SUGGESTIONS ET CORRIGS
Exercice 09
1ere tape :
(1)
? Le pivot a11 = 2 6= 0
0 1 1 0
2 1 0 4 2 1 20 4 2
B 4 2 3 7 9 C B 5 C
B C ! B 0 0 3 1 C
@ 4 1 2 8 2 A @ 0 1 2 0 2 A
0 3 12 1 2 0 3 12 1 2
. .
A(1) ..b(1) ! A(2) ..b(2)
2eme tape :
.
Dans A(2) ..b(2) on constate que le pivot a22 = 0. Do on fait une permutation des lignes
(2)
(2) . (2)
2 et 3 (par exemple) : Ce qui revient considerer A .. b avec :
0 1
8 (2) 1 0 0 0
< B 0
A = P (2) A(2) 0 1 0 C
(2) ou P (2) =B C
: 0 1 0 0
b = P (2) b(2)
0 0 0 1
(2)
On a alors : Le pivot a22 6= 0
(2) (2)
a22 = a22 = 1
et 0 1 0 1
2 1 0 4 2 2 1 0 4 2
B 0 2 C B 2 C
B 1 2 0 C !B 0 1 2 0 C
@ 0 0 3 1 5 A @ 0 0 3 1 5 A
0 3 12 1 2 0 0 6 1 8
(2) . (2) .
A .. b ! A(3) .. b(3)
3eme tape :
(3)
? Le pivot a33 = 3 6= 0
43
0 1 0 1
2 1 0 4 2 2 1 0 4 2
B 0 2 C B 2 C
B 1 2 0 C !B 0 1 2 0 C
@ 0 0 3 1 5 A @ 0 0 3 1 5 A
0 3 12 1 2 0 0 6 1 8
. .
A(3) .. b(3) ! A(4) .. b(4)
Rsolution de A0 x = b0 :
. .
Posons A0 .. b0 = A(4) .. b(4) : On a alors
0 10 1 0 1
2 1 0 4 x1 2
B 0 1 2 0 C B C B 2 C
A0 x = b0 () B C B x2 C = B C
@ 0 0 3 1 A @ x3 A @ 5 A
0 0 0 1 x4 2
8 8
>
> 2x 1 + x 2 0x 3 + 4x 4 = 2 >
> x1 = 3
< <
x2 2x3 + 0x4 = 2 x2 = 4
() ()
>
> 3x3 + x4 = 5 >
> x3 = 1
: :
x4 = 2 x4 = 2
44
Chapitre 2
Les valeurs propres dune matrice sont un outil prcieux pour lingnieur. Comme application
principale, on notera le calcul des oscillations propres dun systme quil soit mcanique ou
lectrique. Les valeurs propres peuvent galement donner linformation contenue dans un grand
ensemble de donnes, telles les directions principales dun nuage de points, ou linformation
contenue dans un grand graphe. Et la liste ne sarrte videmment pas l. Rappelons tout
dabord la dnition mathmatique dune valeur propre et de son vecteur propre associ.
Dnition 2.0.1 Soit A 2 Rn n une matrice relle. La valeur 2 C est une valeur propre de
A sil existe v 2 Cn v 6= 0 (appel vecteur propre associ ) tel que Av = v.
La question du calcul des valeurs propres dune matrice est fondamentale. Il est cependant
peu pratique de devoir calculer les racines du polynme caractristique dune matrice det(A I)
an den connatre les valeurs propres.
Dans cette section, nous allons montrer comment on peut obtenir trs rapidement quelques
valeurs propres et leurs vecteurs propres associs en appliquant une mthode itrative, connue
sous le nom de mthode de la puissance. La question du calcul de toutes les valeurs propres
dune matrice, bien quimportante, dborde du cadre de ce cours.
45
CHAPITRE 2. CALCUL DES VALEURS ET VECTEURS PROPRES
avec i 2 C pour tout i : Supposons encore que 1 6= 0 : Nous procdons prsent aux
direntes itrations de la m ethode de la puissance. On calcule successivement
w(1) = Aw(0)
w(2) = Aw(1) = A2 w(0)
...
w(k) = Aw(k 1) = Ak w(0) :
Si on reprend (1), on peut egalement crire
w(k) = Ak w(0)
= Ak ( 1 v (1) + ::: + n v (n) )
= 1 k1 v (1) + ::: + n kn v (n)
en utilisant la proprit des vecteurs propres. Finalement, la dernire expression se recrit
k 2 k (2) n k (n)
w(k) = 1 1v
(1)
+ 2( ) v + ::: + n( ) v
1 1
Comme j 1 j > j j j pour tout j 6= 1, tous les termes ( 1j )k tendent vers 0 quand k tend vers
linni. A linni, la quantit w(k) tend donc vers la
direction du vecteur propre dominant de A. En gnral videmment, soit si j 1 j > 1, la
quantit tend vers linni, soit si j 1 j < 1, la quantit tend vers 0, et il sera di cile de localiser
la vraie direction. Dans la pratique, on procde donc la normalisation des vecteurs aprs
chaque tape :
(k) w(k)
z = (k)
; w(k+1) = Az (k) :
kw k
Le processus converge alors vers le vecteur propre dominant. On peut obtenir la valeur
propre dominante en calculant chaque tape
T
k = z (k) w(k+1)
46
2.1. MTHODE DE LA PUISSANCE
Exemple
Soit la
0 matrice A : 1
1 2 0
A= @ 2 1 0 A
0 0 1
0 1
1
On se donne le vecteur : V1 = @ 0 A
0
partir duquel on construit la suite de vecteurs AV1 ; A2 V1 ; :::, reporte dans le tableau
ci-dessous.
1 5 13=5 41=13 121=41 365=121 ::::::
1 1 1 1 1 1 1
4 14 40 122 364
v 0 2 5 13 41 121 365
::::::
0 0 0 0 0 0 0
Les composantes des vecteurs de ce tableau ont t divises par0la premire
1 composante.
1
Il est clair que la suite des vecteurs tend vers le vecteur : u1 = @ 1 A
0
et que la suite des valeurs de converge vers la valeur 1 = 3:
La matrice A considre tant symtrique, le vecteur propre de sa transpose, correspondant
la valeur propre
0 1 1 sera :
1
v 1 = u1 = @ 1 A
0
Construisons prsent la matrice A1 qui est telle que :
0 1
t 1=2 1=2 0
u1 v 1 @
A1 = A 1 t = 1=2 1=2 0 A
v 1 u1
0 0 1
1 0
1
On se donne nouveau un vecteur V1 : V1 = @ 0 A
0
et on procde de la mme manire quavec la matrice A
1
2
5 13=5 41=13
1 1 1 1
v 0 1 1 1 ::::::
0 0 0 0
01
1
On voit que cette suite de vecteurs converge vers le vecteur propre : u2 = @ 1 A
0
et que la valeur propre qui lui correspond est 2 = 1:
47
CHAPITRE 2. CALCUL DES VALEURS ET VECTEURS PROPRES
1 1
Ax = x , x = A ( x) , A 1 x = x
Ds lors, si est une valeur propre de A, 1 est une valeur propre de A 1 . On en dduit aussi
que si est la valeur propre de plus petit module de A, 1 sera la valeur propre de plus grand
module deA 1 . On peut donc appliquer la mthode de la puissance de manire totalement
similaire avec A 1 et ecrire
w(k)
z (k) = ; w(k+1) = A 1 z (k) :
kw(k) k
Remarquons que dans la dernire expression, il nest pas ncessaire dectuer la coteuse
opration de linversion de la matrice A. On peut tout fait se contenter dune factorisation
LU de la matrice et rsoudre le systme Aw(k+1) = z (k) a chaque itration. Finalement, on
peut remarquer que lon peut se servir de la mthode inverse de la puissance, associe un
changement de matrice B = A mI pour trouver la valeur propre qui est la plus proche dun
scalaire m.
48
2.4. ALGORITHME QR
A1 a tous les vecteurs propres de A et toutes ses valeurs propres except 1 qui est remplace
par zro.
Lorsque 2 et v 2 ont t calculs a partir de A1 , le processus peut tre rpt en formant
2 2T
A 2 = A1 2v v , et ainsi de suite pour la dtermination des valeurs propres et vecteurs
propres restant.
Une autre mthode de dation consiste trouver une matrice nonsingulire P telle que
P v = e1 o e1 est le vecteur canonique e1 = (1; 0:::0)T .
1
1
(P AP )e1 = 1 e1 :
1
La dernire galit signie que la matrice P AP , qui a les mmes valeurs propres que A,
doit tre de la forme 0 1
1 bT
P AP 1
=@ 0 A1 A
0
et la matrice dordre (n 1) occupant le coin infrieur droit de P AP 1 possde donc bien les
proprits recherches. Comme pour lautre mthode de dation, on peut rpter le processus
en calculant A2 a partir de A1 une fois 2 et v 2 calculs.
2.4 Algorithme QR
La mthode que nous allons tudier maintenant sest rvle dans la pratique comme lune
des plus e caces pour la recherche de toutes les valeurs propres dune matrice symtrique ou
non-symtrique.
Lalgorithme QR consiste a construire une suite de matrices A = A1 ; A2 ; A3 ; ::: au moyen
des relations
Thorme 2.4.1 Toute matrice A 2 Rn n carre non singulire peut tre ecrite sous la forme
A = QR o R dsigne une matrice non singulire triangulaire suprieure et o Q dsigne une
matrice unitaire, cest- -dire QQT = QT Q = I:
On peut montrer que la matrice Ak tend vers une matrice triangulaire suprieure dont les
lments diagonaux sont les valeurs propres de A.
49
CHAPITRE 2. CALCUL DES VALEURS ET VECTEURS PROPRES
alors la matrice Ak dnie en (4) tend vers une matrice triangulaire suprieure dont les
lments diagonaux sont les valeurs propres de A, ranges dans lordre des modules dcroissants.
Preuve. Puisque les valeurs propres de A sont toutes direntes (et relles), il existe une
matrice non-singulire (et relle) X, telle que :
1
A = XDX (05)
o
D := diag( 1 ; 2 ; :::; n)
o
Pk := Q1 Q2 :::Qk (09)
Si lon pose alors
Uk := Rk Rk 1 :::R1 (10)
on calcule
Pk Uk = Q1 Q2 :::Qk 1 (Qk Rk ) Rk 1 :::R2 R1
= Pk 1 Ak Uk 1
= APk 1 Uk 1 (11)
o la dernire galit est obtenue grce (08). On obtient alors par rcurrence de (11)
Pk Uk = Ak (12)
50
2.4. ALGORITHME QR
= PkT XDX 1
Pk
Le premier des facteurs de (15) est orthogonal et le second est triangulaire suprieur : on a
donc bien obtenu une dcomposition QR de Ak . Mais cette dcomposition est unique puisque
~
Ak est non-singulire. Comparant alors (15) et (12) on a Pk = QQk et donc Pk ! Q puisque
~
Qk ! I.
51
CHAPITRE 2. CALCUL DES VALEURS ET VECTEURS PROPRES
Vi = T1 T2 :::Tk i i = 1; :::; n
52
2.5. MTHODE DE JACOBI
do 0 1
3 0 0
A1 = T12 AT12 = @ 0 1 0 A
0 0 1
qui est diagonale. Les valeurs propres de A1 ; et par consquent de A sont donc : x1 = 3 et
x2 = x3 = 1:
Quant aux vecteurs propres, puisque le calcul sest opr en une seule tape, ils sont donns
directement par les colonnes de la matrice T . On a donc :
0 1 0 1 0 1 0 1 0 1 0 1
1 1 0 1 0 0
V1 = T12 @ 0 A u @ 0 A ; V2 = T12 @ 1 A u @ 1 A ; V3 = T12 @ 0 A u @ 0 A
0 0 0 0 1 1
53
TRAVAUX DIRIGS 2
Travaux dirigs 2
Exercice 01
1. Soit A MN (IR) une matrice symtrique. Soit N IR valeur propre de A t.q. |N | = (A) et soit
x(0) IR N . On suppose que N nest pas une valeur propre de A et que x(0) nest pas orthogonal
Ker(A N Id). On dfinit la suite (x(n) )nIN par x(n+1) = Ax(n) pour n IN. Montrer que
x(n)
(a) (N )n x, quand n , avec x %= 0 et Ax = N x.
)x(n+1) )
(b) )x(n) )
(A) quand n .
Exercice 02
cos sin
Soit A =
sin 0
Exercice 03
1. Soit A Mn (IR) une matrice symtrique. Soit n IR valeur propre de A t.q. |n | = (A) et soit
x(0) IR n . On suppose que n nest pas une valeur propre de A et que x(0) nest pas orthogonal
Ker(A n Id), ce qui revient dire que . lorsquon crit le vecteur propre x(0) dans la base des vecteurs
propres, la composante sur le vecteur propre associ n est non nulle. On dfinit la suite (x(k) )nIN par
x(k+1) = Ax(k) pour n IN. Montrer que
x(k)
(a) (n )n x, quand k , avec x 6= 0 et Ax = n x.
kx(k+1) k
(b) kx(k) k
(A) quand n .
Cette mthode de calcul de la plus grande valeur propre sappelle mthode de la puissance".
54
2. Soit A Mn (IR) une matrice inversible et b IR n . Pour calculer x t.q. Ax = b, on considre un mthode
itrative : on se donne un choix initial x(0) , et on construit la suite x(k) telle que x(k+1) = Bx(k) + c
avec c = (Id B)A1 b, et on suppose B symtrique. On rappelle que si (B) < 1, la suite tend vers x.
Montrer que, sauf cas particuliers prciser,
kx(k+1) xk
(a) kx(k) xk
(B) quand k (ceci donne une estimation de la vitesse de convergence de la
mthode itrative).
kx(k+1) x(k) k
(b) kx(k x(k1) k
(B) quand k (ceci permet destimer (B) au cours des itrations).
Exercice 04
Soient u et v deux vecteurs de IR n . On rappelle que la projection orthogonale proju (v) du vecteur v sur la droite
vectorielle engendre par u peut scrire de la manire suivante :
vu
proju (v) = u,
uu
o u v dsigne le produit scalaire des vecteurs u et v. On note k k la norme euclidienne sur IR n .
1. Soient (a1 , . . . , an ) une base de IR n . On rappelle qu partir de cette base, on peut obtenir une base orthogonale
(v1 , . . . , vn ) et une base orthonormale (q1 , . . . , qn ) par le procd de Gram-Schmidt qui scrit :
a1
v1 = a1 , q1 =
ka1 k
v2
v2 = a2 projv1 (a2 ), q2 =
kv2 k
v3
v3 = a3 projv1 (a3 ) projv2 (a3 ), q3 =
kv3 k
v4
v4 = a4 projv1 (a4 ) projv2 (a4 ) projv3 (a4 ), q4 =
kv4 k
.. ..
. .
k1
X vk
vk = ak projvj (ak ), qk =
j=1
kvk k
On a donc
k1
X ak vj vk
vk = ak vj , qk = .
j=1
vj vj kvk k
1. Montrer par rcurrence que la famille (v1 , . . . , vn ) est une base orthogonale de IR n .
2. Soient A la matrice carre dordre n dont les colonnes sont les vecteurs aj et Q la matrice carre dordre N dont
les colonnes sont les vecteurs qj dfinis par le procd de Gram-Schmidt (1.132), ce quon note :
A = a1 a2 . . . an , Q = q1 q2 . . . qn .
55
TRAVAUX DIRIGS 2
Montrer que
k1
X ak vj
ak = kvk kqk + qj .
j=1
kvj k
En dduire que A = QR, o R est une matrice triangulaire suprieure dont les coefficients diagonaux sont positifs.
3. Montrer que pour toute matrice A Mn (IR) inversible, on peut construire une matrice orthogonale Q (c.. d.
telle que QQt = Id) et une matrice triangulaire suprieure R coefficients diagonaux positifs telles que A = QR.
1 4
4. Donner la dcomposition QR de A = .
1 0
5. On considre maintenant lalgorithme suivant (o lon stocke la matrice Q orthogonale cherche dans la matrice
A de dpart (qui est donc crase)
Algorithme 1.63 (Gram-Schmidt modifi).
Pour k = 1, . . . , n,
Calcul de la norme de ak
Pn 1
rkk := ( i=1 a2ik ) 2
Normalisation
Pour = 1, . . . , n
ak := ak /rkk
Fin pour
Pour j = k + 1, . . . , n
Produit scalaire correspondant qk aj
Pn
rkj := i=1 aik aij
On soustrait la projection de ak sur qj sur tous les vecteurs de A aprs k.
Pour i = k + 1, . . . , n,
aij := aij aik rkj
Fin pour i
Fin pour j
Montrer que la matrice A rsultant de cet algorithme est identique la matrice Q donne par la mthode de Gram-
Schmidt, et que la matrice R est celle de Gram-Schmidt. (Cet algorithme est celui qui est effectivement implant,
car il est plus stable que le calcul par le procd de Gram-Schmidt original. )
56
SUGGESTIONS ET CORRIGS
Suggestions et Corrigs
Exercice 01
1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fN ) (IR N )N une base
orthonorme de vecteurs propres de A associe aux valeurs propres (1 , . . . , N ) IR N . On dcompose
&N &N &N
x(0) sur (fi )i=1,...,N : x(0) = i=1 i fi . On a donc Ax(0) = i=1 i i fi et An x(0) = i=1 ni i fi .
On en dduit :
N 0 1n
x(n) % i
= i fi .
nN i=1
N
i n
lim ( ) = 0 si i %= N .
n+ N
x(n+1)
" "
"x(n+1) " n+1 "x"
(n)
= nN N
N = N lorsque n +.
"x " x(n) "x"
" "
N
2. a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) % Ker(B N Id)
o N est la plus grande valeur propre de B, (avec |N | = (B)et N non valeur propre), alors
cestdire
"x(n+1) x"
(B) lorsque n +.
"x(n) x"
57
Exercice 03
1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fn ) (IR n )n une base
orthonorme de vecteurs propres
Pn de A associe aux valeurs propres
Pn (1 , . . . , n ) IR nP. On dcompose
n
x sur (fi )i=1,...,n : x = i=1 i fi . On a donc Ax = i=1 i i fi et A x = i=1 ni i fi .
(0) (0) (0) n (0)
On en dduit :
Xn n
x(n) i
= i fi .
nn i=1
n
Comme n nest pas valeur propre,
i n
lim ( ) = 0 si i 6= n .
n+ n
Soient 1 , . . . , p les valeurs propres diffrentes de n , et p+1 , . . . , n = n . On a donc
(n) Pn
limn+ xn = i=p+1 i fi = x, avec Ax = n x.
n
x(n+1)
k k
kx(n+1) k n+1 kxk
= nn n
n = n lorsque n +.
kx(n) k x(n) kxk
k k
n
2. a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) 6 Ker(B n Id) o
n est la plus grande valeur propre de B, (avec |n | = (B)et n non valeur propre), alors
ky (n+1) k
(B) lorsque n +,
ky (n) k
cestdire
kx(n+1) xk
(B) lorsque n +.
kx(n) xk
58
SUGGESTIONS ET CORRIGS
On demande que x(1) x(0) / Ker(B n Id) comme en a), et on a bien y (n+1) = By (n) , donc
ky (n+1) k
(B) lorsque n +.
ky (n) k
Exercice 04
n1
X an vj an vi
vn vi = an vi vj vi = an vi
j=1
vj vj vi vi
par hypothse de rcurrence. On en dduit que vn vi = 0 et donc que la famille (v1 , . . . vn ) est une base orthogo-
nale.
2. De la relation (1.132), on dduit que :
k1
X wk vj vk
ak = vk + vj , qk = ,
j=1
vj vj kvk k
La k-ime colonne de A est donc une combinaison linaire de la k-me colonne de Q affecte du poids kvk k et
ak vj
des k 1 premires affectes des poids klv jk
. Ceci scrit sous forme matricielle A = QR o R est une matrice
ak vj
carre dont les coefficients sont Rk,k = kvk k, Rj,k = kv jk
si j < k, et Rj,k = 0 si j > k. La matrice R est donc
bien triangulaire suprieure et coefficients diagonaux positifs.
3. Si A est inversible, par le procd de Gram-Schmidt (1.132) on construit la matrice Q = q1 q2 . . . qn ,
et par la question 1.b, on sait construire une matrice R triangulaire suprieure coefficients diagonaux positifs
A = QR.
1 1 2
4. On a a1 = et donc q1 = 2
1 2
4 a2 v1 4 4 1 2 1 2 1 2 2 .
Puis a2 = et donc v2 = a2 v1 v1 v1 = 2 = . Donc q 2 = 2 , et Q = 2
0 0 1 2 2 2 2
a2 v1
kv1 k kv1 k 2 22 2
Enfin, R = = , et Q = 21 2 .
0 kv1 k 0 2 2 2 2
59
Chapitre 3
Rsoudre lquation (1) cest trouver tous les nombres rels tels que (2) soit vrie.
En dautres termes, on cherche dterminer lensemble
Z (f ) = fx 2 Df =f (x) = 0g, appel les de f . Z (f ) est donc lensemble des racinees de f (x) = 0:
Il nest pas toujours possible de rsoudre compltement ce problme pour toutes formes de fonc-
tions f . Z (f ) peut en eet, avoir un grand nombre de structures possibles.
Exemples 2.1
1- Soit f (x) = ax2 + bx + c; a; b; c 2 R, avec Df = R: Alors ker f contient au plus deux lments
et peut aussi tre vide.
2- Soit f (x) = sin(x) et Df = R+ ; alors les racines de lquation f (x) = 0 sont en nombres
inni dnombrable et Z (f ) = fx 2 R+ =x = k ; k = 0; 1; 2; 3; :::g
3- Pour f dnie par
sin( x1 ) si x > 0
f (x) =
0 si x 0
Les racines de lquation f (x) = 0 sont dans ce cas la demi droite ngative R et les lments
de la suite S = k1 ; k = 1; 2; 3; ::: :
Ainsi Z (f ) = R [ x 2 R = x = k1 ; k = 1; 2; 3; :::
On peut remarquer quil existe (au moins) une racine dans S (dirente de 0) aussi prs que
lon veut de 0: On dit que 0 est un point daccumulation de la suite S:
60
3.2. SPARATION DES RACINES
Dnition 3.1.2 On dit quune racine dune quation f (x) = 0 est sparable si on peut
trouver un intervalle [a; b] tel que soit la seule racine de cette quation dans [a; b] ; ou encore
si Z (f ) \ [a; b] = f g
La racine est alors dite spare ( on dit aussi racine isole).
Remarque 3.1.1 Dans les deux cas 1 et 2 de lexemple 2:1 ci-dessus, toutes les racines sont
sparables. Par contre dans le cas 3, les seules racines sparables sont les lments de S. Les
lments de S qui sont les plus prs de 0 sont les plus di cile sparer. La longueur de
lintervalle [a; b] de la dnition 2:2 devient en eet, de plus en plus petite au fur et mesure
que lon sapproche de 0 dans S.
Remarque 3.2.1 On choisit souvent f1 et f2 de faon ce que leur courbes soient des courbes
connues.
Exemples 2.2
1- Soit rsoudre graphiquement lquation : x2 a = 0; o a > 0; x. (D = R)
Les variations et la courbe reprsentative de la fonction f (x) = x2 a sont donnes par le
tableau et le graphe suivants :
61
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
p
Bien que dans cet exemple les solutions soient videment connues (x = + a): on voit que
lintersection du graphe de la fonction f (x) = x2 a avec laxe Ox permet de localiser les
racines de lquation f (x) = 0:
62
3.2. SPARATION DES RACINES
On considre une suite croissante nie fxi g ; (i = 0; 1; :::; n) de valeurs de x rparties sur linter-
vale [a; b] contenu dans le domaine de dnition D de f . Si f est continue et si f (xi )f (xi+1 ) < 0
alors il existe entre xi et xi+1 au moins une racine de f (x) = 0 (cest le thorme classique des
valeurs intermdiaires).
La mthode consiste donc dterminer parmi les quantits f (xi )f (xi+1 ); (i = 0; 1; :::; n) celles
qui sont ngatives.
Remarque 2.3
1- La mthode de balayage ne permet de conclure qu lexistence d(au moins) une racine dans
un intervalle [xi ; xi+1 ] :
Si une racine est double (f ( ) = f 0 ( ) = 0 et f "( ) 6= 0); cette mthode ne permet pas de
la sparer.
63
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
De mme, si deux racines sont trs voisines, on risque de ne pas les sparer dans le processus
ci-dessus comme le montre la gure suivante :
2- Lintervalle de dpart [a; b] doit tre su samment grand an de contenir les racines ven-
tuelles de lquation f (x) = 0; mais sauf dans des cas particulier, on ne peut pas estimer
correctement sa longueur.
Parmi les mthode numrique en gnral et les mthode itratives en particulier, les plus
puissantes permettant la rsolution approche des quations de la forme f (x) = 0 gure la
mthode suivante :
64
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE
Notons par x une racine (exacte) recharche et par x0 une valeur approche de x .
On suppose que f est de classe C 1 au voisinage de x . Le dveloppement de Taylor dordre
deux de f nous donne :
f "( )
f (x ) = f (x0 ) + f 0 (x0 )(x x0 ) + (x x0 )2 o 2 (x ; x0 )
2
f (x0 ) f "( )
x = x0 (x x0 )2 (b)
f 0 (x0 ) 2f 0 (x0 )
f (xk )
xk+1 = xk k = 0; 1; 2; :::
f 0 (xk )
Gomtriquement :
f (xk )
tg( ) = 4xk
= f 0 (xk ) o 4xk = xk xk+1
f (xk ) f (xk )
et donc 4xk = f 0 (xk )
= xk xk+1 ) xk+1 = xk f 0 (xk )
Commentaire 2.1 Une mthode itrative ne prsente de lintrt que si elle est convergente
(vers les valeurs recherches), et cest dans ce sens que lon tudiera la convergence de la mthode
de Newton-Raphson de manire plus approfondie plus bas.
65
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
ii) Posons y = x1 :
1
Lquation (1) devient alors y
exp(y) , 1 y exp(y) = f (y) = 0 et la formule de Newton-
Raphson donne encore :
exp( yk ) yk
yk+1 = yk + (ii)
1 + yk
iii) x = exp( x1 ) , log(x) = 1
x
,1 x log(x) = f (x) = 0 et la formule de Newton-Raphson
donne enn :
1 xk log(xk )
xk+1 = xk + (iii)
1 + log(xk )
Nous disposons ainsi de trois formules rcurrentes direntes pour le mme problme, et on
constate que les formules (ii) et (iii) sont mieux adaptes au calcul que la formule (i)
En tudiant les variations de f , par exemple f (x) = x exp( x1 ); on constate quil nexiste
quune seule racine x de (1); et quelle se trouve au voisinage de x0 = 1:8 .
Et del :
1
Pour le (ii) : En partant de y0 = 0:6 ' 1:8 ; nous obtenons :
y1 = 0:568007; y2 = 0:567144; y3 = 0:567143; etc::: et x ' y13 ' 1:763223
Pour le (iii) : En partant de x0 = 1:8 :
x1 = 1:763461; x2 = 1:763223; x3 = 1:763223; etc::: et x ' 1:763223 = x3
66
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE
Soit x une racine isole de lquation f (x) = 0; x0 une approximation de x et (xk ) la suite des
approximations obtenue a laide de la formule de rcurence de Newton-Raphson. On suppose
que f est de classe C 1 au voisinage de x .
Le dveloppement de Taylor a lordre 1 donne, pour k 2 N :
et on fait lapproximation f 0 ( ) ' f 0 (xk ) pour obtenir enn : jxk x j ' jxk+1 xk j :
Ainsi, si on veut calculer une approximation de x avec n dcimales exactes, il su t daller
dans les itrations jusqua ce que k vrie :
jxk+1 xk j 0:5 10 n .
F (x; y) = 0
G(x; y) = 0
Posons :
x = x 0 + "0
o "0 et 0 sont les erreurs absolues de x0 et y0 :
y = y0 + 0
En faisant un dveloppement de Taylor lordre 1 des deux fonctions F et G au point (x0 ; y0 ),
on obtient :
@F @F
0 = F (x ; y ) = F (x0 + "0 ; y0 + 0) = F (x0 ; y0 ) + (x0 ; y0 ):"0 + (x0 ; y0 ): 0 + R0
@x @x
@F @F 1
@x @y
On suppose lexistence de @G @G , et donc :
@x @y
@F @F 1
"0 x x0 @x @y F termes dordre supr-
= = @G @G : +
0 y y0 @x @y
G (x0 ;y0 )
ieurs 1en "0 et 0 :
(x0 ;y0 )
del :
@F @F 1
x x0 @x @y F termes dordre suprieurs
= @G @G : +
y y0 @x @y
G (x0 ;y0 )
1 en "0 et 0 :
(x0 ;y0 )
Et en ngligeante le reste qui est form des termes dordres suprieurs 1, la quantit :
@F @F 1
x0 @x @y F
@G @G :
y0 @x @y
G (x0 ;y0 )
(x0 ;y0 )
f (xk ) xk 2 sin xk
xk+1 = xk = xk ; k = 0; 1; 2; :::
f 0 (xk ) 1 2 cos xk
68
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE
On suppose que f est un polynme Pn de dgr n coe cients rels, nayant que des racines
distinctes :
f (x) = Pn (x) = a0 xn + a1 xn 1 + ::: + an 1 x + an ; a0 6= 0
Question : Estimer les racines relles de lquation non linaire Pn (x) = 0.
Dnition 3.3.2 On appelle suite de sturm la suite dnie par :
8
> S0 (x) = Pn (x)
>
> S (x) = P 0 (x)
>
> 1
>
>
n
>
> S 2 (x) = Reste(S0 (x)=S1 (x))
< .
..
>
>
>
> Si (x) = Reste(Si 2 (x)=Si 1 (x))
>
> .
>
> ..
>
:
Sn (x) = Reste(Sn 2 (x)=Sn 1 (x))
Thorme 3.3.1 (Thorme de Sturm : Nombres de racines relles)
Le nombre de solutions relles (qui sont supposes simples) de lquation Pn (x) = 0 est gale
N (a) N (b) ou N ( ) est le nombre de changement de signe de la suite fSi ( )g : Les relles a
et b tant les extrmits de lintervalle contenant les racines.
Thorme 3.3.2 (Localisation) Les racines relles de lquation Pn (x) = 0 sont contenues
1
dans lintervalle ] T; T [ avec T = 1 + max jai j .
ja0 j i=1;n
69
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
x3 3x2 + x 3=0
Commentaire 2.2 La rsolution dun problme laide dune formule de rcurrence xk+1 =
f (xk ); k 2 N peut etre considre comme dtemination dun point xe de la fonction f:
En eet : Soit (xk ) la suite dfnie par xk+1 = f (xk ), On suppose quelle converge vers une
valeur quon notera x . Par passage limite dans lexpression xk+1 = f (xk ), on obtient :
70
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE
() x = f (x ) (car lim xk = x )
k!1
Thorme 3.3.3 (Thorme du point xe) Supposons que f est dnie sur lintervalle [a ,b]
et satisfait aux conditions suivantes :
i) f ([a ,b]) [a,b] ie : 8 x 2 [a,b], a f (x) b
ii) f est contractante ie :9L 2 R; 0 L < 1 tel que
Alors : f admet un point xe unique x 2 [a,b] : De plus, pour tout point x0 2 [a,b] ; la suite
(xk ) dnie par xk+1 = f (xk ) converge vers x :
Existence du point xe : Soient x0 un point initial dans [a,b] et (xk ) la suite associe f .
Pour montrer que la suite (xk ) converge, on va montrer quelle est de Cauchy.
Le point xe sera alors la limite de (xk ):
Soit k 2 N; alors
jxk+1 xk j = jf (xk ) f (xk 1 )j L jxk xk 1 j :
et par rcurrence, on dmontre que :
nous aurons :
jxn xk j jxn xn 1 j + jxn 1 xn 2 j + + jxk+1 xk j
(Ln 1
+ Ln 2
+ + Lk ) jx1 x0 j
1 Ln k
Lk jx1 x0 j
1 L
71
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
Lk
jx1 x0 j
1 L
et del on dduit que (xk ) est une suite de Cauchy, donc elle converge vers x 2 [a,b] :
Montrons que x est un point xe.
En eet : lgalit xk+1 = f (xk ) et la continuit de f entrainent que
x = f (x ):
Unicit de point xe : Supposons quil existe un autre point xe y avec
y 6= x .
Alors :
0 < jy x j = jf (y ) f (x )j L jy x j < jy x j car L 1
72
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE
Critre darrt n 1
Soit f : [a; b] ! R satisfaisant aux hypothses du thorme du point xe, et soit (xk ) la
suite des approximations dnie par xk+1 = f (xk ); k = 0; 1; 2; :::
Pour k; n 2 N, n > k :
et par rcurrence :
Critre darrt n 2
Soit k 2 N :
jxk+1 x j = jf (xk ) f (x )j L jxk x j L jxk xk+1 j+L jxk+1 x j L jxk xk+1 j+
L jxk+1 x j
) jxk+1 x j (1 L) L jxk xk+1 j
) jxk+1 x j 1 LL jxk xk+1 j
et donc pour avoir n dcimales exactes, on arrte les itrations lorsque :
1 L n
jxk xk+1 j 0:5 10
L
Remarque 3.3.2 Gnralement L est assez petit pour que 2L < 1, et del L < 1 L, et donc
1 < (1 L)=L. Consquence : au lieu du critre darrte ci dessus on impose la condition
n
jxk xk+1 j 0:5 10 :
On remarquera que (a) admet deux racines relles x1 et x2 , lune au voisinage de 10 2 et lautre
au voisinage de 102 .
Pour x1 : En tenant compte du fait que x1 ' 10 2 , lquation (a) peut se mettre sous la forme :
73
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
1
x = f (x) = 100 (x2 + 1) et la formule de rcurrence est donne par :
1 2
xk+1 = f (xk ) = 100 (x2k + 1). Comme f 0 (x) = 100 x = 0:02x est petit, prenons lintervalle [10 2 ; 1]
comme voisinage de x1 .
Nous avons, en eet :
'(10 2 ) = 10 4 > 0
) x1 2 [10 2 ; 1]:
'(1) = 98 < 0
et on vrie aisement que :
i)- f ([10 2 ; 1]) = [f (10 2 ); f (1)] [10 2 ; 1]
ii)- Pour L = 0:02, f est contractante
Ainsi : 8x0 2 [10 2 ; 1], la suite (xk ) converge vers x1 2 [10 2 ; 1].
Prenons par exemple, x0 = 1. On calcule :
x1 = 0:02 ; x2 = 0:010004 ; x3 = 0:0100010008 ; x4 = 0:0100010020017 donc : x1 ' 0:010001002002
(11 c.s.e)
Pour x2 : En tenant compte du fait que x2 ' 102 , lquation (a) peut se mttre sous la forme :
x2 = 100x 1, puis en divisant par x en trouve la formule de rcurrence :
xk+1 = 100 x1k = f (xk ), o f (x) = 100 x1 . Comme f 0 (x) = x12 est petit pour x assez grand,
prenons lintervalle [10; 102 ] comme voisinage de x2 .
Nous avons, en eet :
'(10) = 990 < 0
) x2 2 [10; 102 ]:
'(102 ) = 1 > 0
et on vrie que :
i)- f ([10; 102 ]) = [f (10); f (102 )] [10; 102 ]
ii)- Pour L = 0:01, f est contractante
Ainsi : 8x0 2 [10; 102 ], la suite (xk ) converge vers x2 2 [10; 102 ].
Prenons par exemple, x0 = 10. On calcule : (avec 5 dcimales exactes)
x1 = 99:9 ; x2 = 99:989990 ; x3 = 99:989990 ; x4 = 99:989999
donc : x2 ' 99:99000 10 5
Preuve.
On pose E
k = xk x , et un dveloppement de Taylor de f nous donne :
Ek2 00
xk+1 = f (xk ) = f (x + Ek ) = f (x ) + Ek f 0 (x ) + f (x ) +
2!
En ngligeant les termes dordre suprieur 1 en Ek , il vient :
xk+1 f (x ) = xk+1 x ' f 0 (x ):Ek )= Ek+1 = xk+1 x ' f 0 (x ):Ek
74
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE
Comme (Ek ) est une suite convergente vers zro (0), on voit que plus f 0 (x ) est petit, plus la
convergence est rapide.
Acclration
x + f (x)
Soit 6= 1. posons G(x) = .
1+
Comme f (x) = x , G(x) = x : alors, x est un point xe de f si et suelement si il lest pour
G.
+ f 0 (x) + f 0 (x )
On a G0 (x) = ; donc G0 (x ) = . Il su t alors de prendre voisin de f 0 (x )
1+ 1+
pourvu que f 0 (x ) soit petit. Et donc daprs le lemme 2.1, la convergence sera plus rapide que
celle donne par f (x) = x.
Algorithme dacclration
x0 2 [a; b]
xk+1 = f (xk ), k = 0,1,...,n 1
(1) x = e x:
0:5 0:61
1- Posons x0 = 0:5. On a alors, x1 = f (x0 ) = e = 0:6065306 ' 0:61 et x2 = f (x1 ) = e =
75
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
x1 = G(x0 ) = 0:56705684
x2 = G(x1 ) = 0:56714259
x3 = G(x2 ) = 0:56714328
x4 = G(x3 ) = 0:56714329
do x = 0:5671433 0:5 10 7
Question : Dterminer le nombre ditrations correspondant au cas de la mthode lente (R-
ponse : k = 30).
f (xk )
xk+1 = xk ; k = 0; 1; 2; :::
f 0 (xk )
f (xk )
On a donc : xk+1 = g(xk ), o g(x) = xk .
f 0 (xk )
(f 0 (x))2 f (x)f 00 (x) f (x)f 00 (x)
Et comme g 0 (x) = 1 = ; alors pour
(f 0 (x))2 (f 0 (x))2
x = x , x tant une racine spare de lquation f (x) = 0, on a g 0 (x) = 0 (puisque f (x ) = 0)
et del jg 0 (x)j < 1 au "voisinage" de x . Consquence : les conditions i) et ii) du thorme du
point xe sont alors ralises, et par suite, on a convergence de la suite (xk ) vers x .
Et cest dans ce but quon choisit comme voisinage de x un intervalle [a; b] telle que :
1. x 2 [a; b]
2. f est de classe C 2 sur [a; b]
3. f 0 6= 0 sur [a; b]
Et on verera ci-aprs quavec une condition supplmentaire sur lintervalle [a; b], la suite (xk )
76
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE
Commentaire 2.4
f tant de classe C 2 sur [a; b], f 00 est continue sur [a; b] et donc borne
sur [a; b] par une constante M > 0 de manire ce quon ait : 8x 2 [a; b],
jf 00 (x)j M
f 0 ne sannulant pas sur [a; b], il existe m > 0 tel que : 8 x 2 [a; b],
jf 0 (x)j m
Sous les hypothses 1), 2) et 3), faisons un developpement de taylor de f lordre 1 au voisinage
de xk . On obtien :
1
f (x) = f (xk ) + f 0 (xk )(x xk ) + f 00 ( k )(x xk )2 , o k 2 (x; xk )
2
comme f (x) = 0 pour x = x , il sensuit :
1
0 = f (xk ) + f 0 (xk )(x xk ) + f 00 ( k )(x xk )2 , o k 2 (x; xk )
2
en divisant par f 0 (xk ) 6= 0 et on translatant, on aura :
f (xk ) f 00 ( k )(x xk )2
=x xk +
f 0 (xk ) 2f 0 (xk )
f (xk ) f (xk )
or : xk+1 = xk ) = xk+1 xk
f 0 (xk ) f 0 (xk )
f 00 ( k )(x xk )2
Do, aprs simplication : xk+1 x =
2f 0 (xk )
et comme jf 00 (x)j M et jf 0 (x)j m > 0; on aboutit alors :
M jx xk j2
jxk+1 xj ( )
2m
On constate que lerreur absolue de la (k + 1)eme approximation est proportionnelle au carr
de lerreur absolue de la k eme approximation. On dit que la mthode de Newton-Raphson est
une mthode itrative du deuxime ordre.
M
Posons C = . Lingalit (*) entrane par induction :
2m
k+1
x j2 x j4 x j2
k+1
jxk+1 xj C jxk C 3 jxk 1 ::: C2 1
jx0
k
x j C 2 1 jx0 x j2
k
ou encore jxk
k k
comme : jx0 x j jb aj = b a, alors jxk xj C2 1
(b a)2
ou encore :
77
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
k
[C(b a)]2
jxk xj , k = 0; 1; 2; :::
C
M
Il y a donc convergence vers x si C(b a) = (b a) < 1, et cest pour cette raison que
2m
2m
lon choisit [a; b] de longueur b a < .
M
Conclusion :
2m
Si en plus des conditions 1), 2) et 3), on choisit [a; b] tel que b a< , alors : 8 x0 2 [a; b],
M
lalgorithme de Newton-Raphson converge ( vers x ).
Dans certaines circonstances (si f provient dun calcul exprimental par exemple), on ne peut
calculer f 0 . Lide est alors de remplacer f 0 par le taux daccroissement de f sur un petit
intervalle.
Supposons que x0 et x1 soient deux valeurs approches de la racine x de lquation
f (x1 )
x2 = x1 (obtenu en posant y = 0 dans(1))
1
78
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE
Critre darrt
Cest le mme que celui correspondant la mthode de Newton-Raphson.
Lide : Construction dune suite dintervalles de plus en plus petits contenant une racine isole
de lquation f (x) = 0.
Loutil utilis : Thorme des valeurs intermdiaires.
Thorme 3.3.4 (Thorme des valeurs intermdiaires) Soit f : [a; b] ! R continue,
avec f (a)f (b) < 0. Alors : il existe au moins x 2 ]a; b[ tel que : f (x ) = 0
Remarque 3.3.4 Si de plus f est injective, alors x est unique.
Algorithme
Supposons que a et b soient tels que : x 2 [a; b], avec f (a)f (b) < 0. On pose a = a0 . b = b0 et
[a; b] = [a0 ; b0 ] = I0 .
On divise lintervalle I0 = [a0 ; b0 ] en deux, et on construit lintervalle
I1 = [a1 ; b1 ] comme suit :
a0 + b0
Pour x0 = (milieu du segment [a0 ; b0 ]) on fait le test suivant :
2
Si f (a0 )f (x0 ) < 0 alors [a0 ; x0 ] = [a1 ; b1 ] = I1
sinon [x0 ; b0 ] = [a1 ; b1 ] = I1
On itre le procd pour obtenir une suite dintervalles emboits :
Ik = [ak ; bk ], k = 1; 2; 3; :::
comme suit :
ak + b k
On pose : xk =
2
Si f (ak )f (xk ) < 0 alors [ak ; bk ] = [ak+1 ; bk+1 ] = Ik+1
sinon [xk ; bk ] = [ak+1 ; bk+1 ] = Ik+1 .
Et on prend comme approximation de x la valeur xk .
Critre darrt
79
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES
bk ak bk 1 ak 1 b 0 a0
bk+1 ak+1 = = = ::: =
2 22 2k+1
et si x est la racine de lquation f (x) = 0, nous aurons :
bk ak b 0 a0
jx xk j bk+1 ak+1 = =
2 2k+1
Et donc, si on dsire calculer une approximation xk de x avec n dcimales exactes, il su t
b 0 a0
de poser k+1 0:5 10 n .
2
Ce qui revient ce quon aille dans les itrations jusqu ce que k vrie lingalit :
b 0 a0
log
k 0:5 10 n 1.
log 2
80
TRAVAUX DIRIGS 3
Travaux dirigs 3
Exercice 1 :
Parmi les fonctions suivantes lesquelles sont contractantes et sur quel intervalle si
celui-ci nest pas indique :
t ]
8
(a) 798;:< , >= ?= A@ ;
(b) , D= ?= ;
(c)
CB
<EGF
B
(d)
IH
J .
Exercice 2 :
Voir si chacune des fonctions suivantes admet zero, un ou plusieurs points fixes,
Z' #j Q # &'
puis donner pour chacun un intervalle de separation :
LK
NMPO
0
@
Exercice 3 :
Montrer que lequation RQ
TS <EUF admet une unique racine dans lintervalle
Q
WV : 7
Q
"V ;Q IR, et S B B
8 .
=
Exercice 4 :
=#] s
Determiner a laide de la methode du point fixe les deux racines reelles de
=
=(t
avec une erreur K =
. Utiliser pour lune de ces racines la
NX
methode iterative , et pour lautre Y .
P'
Exercice 5 :
Soit la fonction , on se propose de trouver les racines reelles
D=
(] )
;
( ) D= .
`
_
^
81
Exercice 6 :
Soit lequation Ya F + & /
b dans IR .
Montrer que la methode iterative definie par ca
F + &/ est conver-
b
Exercice 7 :
On veut resoudre dans IR lequation Y
ou,
a
jq
F ,
a) 1) Montrer quelle admet une seule racine Z , montrer que Z ed f[ .
D= D#
$
2) Montrer que la methode iterative : diverge.
ih
D=
g
3) on considere alors
, (remarquer que
existe),
$
D
montrer que la methode iterative :
converge.
En posant K
LZ montrer que
K
=
est de signe oppose a K , quen conclut-
=
on ? 7
Donner le bon test darret des iterations pour avoir Z a S j
pres, puis donner
cette racine approchee.
b)
Retrouver Z a laide de la methode de Newton.
Remarquer que Newton est dordre 2.
82
SUGGESTIONS ET CORRIGS
Suggestions et Corrigs
Exercice 1
(a)
2
<EUF IR. (ac
Montrons que est contractante sur IR, on a :
8':< ]
et
B
B
=
donc, dapres la proposition
7
1, est contractante de rapport de contraction
m1N #jq
inferieur ou egal a 2 .
% '
(b) .
Soient '& (jq
B B
, montrons que
= . On a
B B B B
B
% /
B
B B
u
B
B
'
B B B B
= W
B B
u "
B B B B
=
B
u
B
B
B
dapres linegalite triangulaire
=
B
B
u
B
B
B B B B
, dou le resultat .
et le rapport de contraction est
On fait de meme si = = u
/
B B B B B B B B B B
Ainsi,
m & ]
= u x
B B CB B
(c) .
On a :
et
%
= =
.
donc, & |
.
* = 7
B B
Ainsi, est contractante de rapport
(d)
x= 7
. H
J
est definie sur 8 mais ny est pas lipschitzienne.
83
En effet,
est lipschitzienne sur d sil existe une constante reelle ,
telle que / d
Q ,
, cest a dire que le rapport
% / , pour N , est borne.
ed =$ W
B B B B
. Ce rapport vaut
u
Posons
+ # Z
H
J
q
J
H
J
donc non bornable sur tout intervalle contenant ; ainsi ne peut etre
lipschitzienne sur . 8
En fait, on montre que est lipschitzienne sur tout intervalle avec D 8
En outre,
est contractante si , donc si H
z , cest a dire
Q
J
pour .
8 .
En conclusion, est contractante sur
Exercice 2
(a) Points fixes de
. Rappelons quun point fixe de est un point
H
dabscisse Z verifiant
. Par abus de langage, et dans tous les exer-
cices qui suivent, on dira que est le point fixe de (au lieu de labscisse
du point fixe de ).
Ici est definie sur
1
et on a
H
#
P Q et
H
H
Posons Q 8 ; est continue sur IR et derivable sur IR et
, donc est strictement croissante sur . Dautre part,
H
H
84
SUGGESTIONS ET CORRIGS
{ C/# ~
Q q
de la valeur intermediaire, il existe un et un seul reel tel que
/#
; celui-ci est donc le seul point fixe de sur . Le lecteur
1
pourra aisement demontrer que cela reste vrai sur tout .
YK
(b) Points fixes de
.
K
J
I
Posons
. est continue et derivable sur IR, et
Lv
K
, donc est strictement decroissante. Dautre part,
+= YJ
Q q
et . Dapres le theoreme de la valeur intermediaire,
M
il existe un et un seul reel /j
tel que
. Ce reel est donc
lunique point fixe de sur
/jq
. De meme, on peut aisement demontrer
OQ #+
que cela reste vrai sur tout IR.
(c) Points fixes de " .
#
Donc 2 est lunique point fixe de sur IR ; ce point fixe est dit triple a cause
de la puissance du terme " . Q #
Q #
K
#
K
V
' #
K
u
V
#%
V
1 a
K
K a
RV F PV
V
En consequence, est strictement croissante sur D a F PV , strictement +
: v c L
croissante sur a F V et a
F V . Ainsi, IR , F L
donc est strictement decroissante.
Dapres le theoreme de la valeur intermediaire, il existe un et un seul reel
t& q
/
a
F PV tel que . Ce dernier est lunique point fixe de .
85
Exercice 3
%Q
<EUF , Q
? 8 .
=
Q / Q
u <EUF
On a
W 8;:< , car 8# =
B B
WV V " WV
Q i Q
"V V " <EUF
Q
V
Exercice 4
Soit lequation v=(]J .
a) Posons
J
=#
=# Z Z )Z
(puisque ] sur
2
t
Demontrons que
? est contractante sur Cjq :
=#
j# W
Q
"
=# ( B B
B
u
B
=
B
u
B
86
SUGGESTIONS ET CORRIGS
V q I# =# /j##/
Y
q I/j##/=(# (#(/~ W
Y
q W
7
Si on cherche Z a pres, on arretera les calculs a literation o telle que
/_/=## j B ~
D= D
=R . Ainsi la solution Z ici vaut a
pres.
~ B
=#
z
b) Lautre solution est obtenue grace a la methode iterative
. Cette question est laissee en exercice.
Exercice 5
Soit lequation
Y . Il est clair que est continue et
+~ Q #
derivable sur .
On a , , donc P Q~c (
. Dautre part,
] #
sur . Donc, dapres le theoreme de la valeur intermediaire, il existe
& #
D= D
une seule solution Z telle que )Z .
(a) Etudions la convergence de la suite c . Tout
donc Q /
Z Z )Z Z IZ "
Par ailleurs, ]
sur # . Par consequent, grace au theoreme
B
Y
B B
87
Donc
Djm% D
DjPD
B B
DPD
B
B
..
.
VP
B B
elle converge conduit vers la racine de Q dans # , car si est la limite de
Z Z
donc v /
Z
Z
)Z Z Z
]
3
v~
P
D %J~
3
~ v=
P
+
3D 7
' 1
or Z le point fixe de verifie
Qv
Z
Z
Donc )Z 7
Z
, et comme est continue, il existe un voisinage de Z tel
que , et ( :
B
B
$ . Donc cette methode ne peut pas converger
a
V %n
dapres la proposition 3. En effet, grace au theoreme des accroissements finis, on
D=PD .
B Bj B B
88
SUGGESTIONS ET CORRIGS
N _
(c) Etudions la convergence de
cette methode conduit a la racine de dans # car si est la limite de
Z
donc et Q
Z
_
Z
Qv
Z
Z
)Z Z Z
On a
(
`
_
_ H _
P *
& (
D= D#
$
j
:
0 1 2 3 4
D 1 1.144 1.162 1.165 0.165
Donc #
Z est solution de lequation a =
pres.
Exercice 6
Soit lequation La F
dans . + &M/
Considerons la methode iterative definie par :
Dj D(
$ $a
F &D#M /
Q~ ?/ &
lequation admet au plus une racine. Dautre part on a et
a
F 3 , donc I#c+~5
; ainsi, dapres le theoreme de la
&O /jq
valeur intermediaire, il existe une unique racine Z solution de lequation
Q
& /
.
Appliquons la Methode du point fixe pour Ya
F * .
89
est contractante sur d HF U/jq car
1 H N ( d
C/ F ] . En effet, I/ #
Z
/ /WD et I/ / /Wv .
3 3
b b 3 b3 3
0 1 2 3 4 5 6 7 8 9
D 0.7 0.730 0.748 0.758 0.764 0.767 0.769 0.770 0.771 0.771
Exercice 7
Soit lequation ou . Y a
F
1. 1) Posons P , 5 IR . Appliquons le a
F
2) Si Dj
Z )Z Z )Z F Z
7 Z V Z
a
F )Z Z
a
F )Z
Mais, v8CDjd , et donc la methode Dj
Attention a la notation utilisee :
.
.
est derivable et on a
, par consequent
bP*
90
SUGGESTIONS ET CORRIGS
.
B B
K K K
t , donc ' et /
K K
R
.
B B
Par consequent
B Y B
Z
converge IZ
K
Ainsi, j / # . Or, /t& IR . Donc = et sont
K
K K
B B B B
d d d +$d
B B
car :
/W= / W NK
+~
K
LK
/W(jq
Dj
et
est monotone sur
j
Calcul numerique de la racine a
pres. Soit donc la methode
K
et
0 1 2 3 4 5 6 7 8
D
1 0.367 0.692 0.500 0.606 0.545 0.579 0.560 0.571
9 10 11 12 13 14 15
D 0.564 0.568 0.566 0.567 0.566 0.567 0.567
91
methode de Newton secrit,
Dj D D# D D
D# K
Dautre part on a I v et Q~
v , donc +=cI
et la racine est situee dans C/qq , elle est unique puisque est strictem- M
K
O pour tout . Ainsi dapres le theoreme de conver-
gence globale de cette methode (voir theoreme 3), pour tout ?C/qq tel
que Qac a literation de Newton converge. Prenons alors, par
exemple, , alors I+ t , donc la methode
K
D= D D
K
K
92
Chapitre 4
4.1 Introduction
Soit le problme de cauchy
y 0 = f (t; y)
(1)
y (t0 ) = y0
Thorme 4.1.1 Si f est continue et sil existe une constante L strictement positive telle
que pour toute t 2 [t0 ; t0 + T ] ;et tout y1; y2 2 R; on ait f (t; y1 ) f (t; y2) L jy1 y2 j alors,
le poblme de Cauchy admet une solution unique ,quelque soit y0 2 R: On dit alors que f est
L-lipchitzienne ,o L est la constante de Lipschitz.
REMARQUE 7.1
Nous nous placerons toujours dans les conditions du thorme7:1
Lobjectif de ce chapitre est de dcrire un certain nombre de mthodes permettant
de rsoudre numriquement le problme de Cauchy :
Etant donn une subdivition t0 < t1 < ::: < tN = t0 + T de [t0; t0 + T ] ; on cherche
dterminer des valeurs approches y0 ; y1; ; yN des valeurs y (tn ) prises par la solutionexacte y:
On notera les pas succssives
hn = tn+1 tn ; 0 n N 1
et hmax = max (hn ) le maximum des pas
93
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
(t0 + T ) t0 T
h= =
N N
limits par les points
tn = t0 + nh; 0 n N (1.2)
y 0 (t0 ) = f (t0 ; y0 ):
Si y(t) est la solution exacte de (1). y(t) est approche sur lintervalle [t0 ; t1 ] par sa tangente
au point t0 .
Et ainsi, on a
y1 = y0 + hf (t0 ; y0 ):
Sur lintervalle [t1 ; t2 ] ; y(t) sera remplace par la tangente au point (t1 ; y1 ): On trouve
y2 = y1 + hf (t1; y1 ):
yn+1 = yn + hf (tn; yn ); 0 n N 1
Ceci conduit lAlgorithme dEuler :
tn+1= tn + h;
Prcision de la mthode dEuler
94
4.2. MTHODES NUMRIQUES UN PAS
la mthode dEuler est une mthode du premier ordre , cest--dire que lerreur au point tn
sexprime par lingalit
jyn y(tn )j kh (1.3)
o yn est la valeur approche dnie par lalgorithme dEuler, y(tn ) est la valeur exacte
de la soltion du problme de Cauchy au point
t = tn = t0 + nh
Application
Rsolution dune quation selon la mthode dEuler
Soit le peoblme de Cauchy
y0 = t + y
(1.4)
y (0) = 1
On veut approcher, 10 3 , la solution de (1.4) en t = 1 laide de la mthode dEuler, en
subdivisant lintervalle [0,1] en dix parties gales.
Selon lalgorithme dEuler :
Remarque 4.2.1 (1.1) Lerreur dans la mthode dEuler est relativement importante. Elle
peut tre amliore en choisissant plus petit le pas h, ce qui augmente considrablement le
volume des calculs eectuer, ou en approchant la solution du problme de Cauchy par des
mthodes permettant de rduire cette erreur .
Programme
En Matlab, on peut facilement programmer la mthode dEuler avec la fonction suivante :
*************************************************************************************
Programme dEuler
95
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
********************************************************************************************
function [t,y] = Euler(f,tmin,tmax,Nint,y0) % Mthode dEuler
% Nint - nombre de sous intervalles N
% tmin - temps t 0
% tmax - temps t 0+ T
% f est une fonction avec comme arguments t et y(t) : f(t, y(t))
% y0 lentre est compos des valeurs des conditions limites y 0= y (t 0) (E)
h = (tmax-tmin)/Nint ; % valeur du pas
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
y(1) = y0 ; % initialisation : y(1)=y(t 0) = y 0
for n = 2 : Nint+1
y(n) =y(n-1) + h*feval(f,t(n-1),y(n-1)) ; % Calcul dEuler
end % for n
end % fonction Euler
*********************************************************************************************
*********************************************************************************************
h2
y(tn+1 ) = y(tn + h) = y(tn ) + hy0(tn ) + y00(tn ) + o(h2 ) (1.7)
2!
et comme :
dune part,
y0(tn ) = f tn ; y(tn) (1.8)
dautre part
d d @f @f dy
y00(tn ) = (y0(t)) jt=tn = (f (t; y(t))) jt=tn = ( + : ) jt=tn
dt dt @t @y dt
@f @f @f @f
=( + :y0) jt=tn = (tn ; y(tn )) + (tn ; y(tn )):f (tn ; y(tn )):
@t @y @t @y
Il vient :
h2 @f @f
y(tn+1 ) = y(tn ) + hf (tn ; y(tn )) + (tn ; y(tn )) + (tn ; y(tn ))f (tn ; y(tn )) + o(h2 )
2 @t @y
96
4.2. MTHODES NUMRIQUES UN PAS
o yn est la valeur approche dnie par lalgorithme de Taylor (dordre 2), y(tn ) est la valeur
exacte de la solution du problme de Cauchy au point tn , et k une constante indpendante de
n et h.
Consquence
Lalgorithme de Taylor (dordre 2), est plus prcis que celui dEuler
Remarque 4.2.3 Si lon veut encore rduire la marge derreur, on tiendra compte dun plus
grand nombre de termes dans le dveloppement de Taylor cest--dire, on suppose f de class
C p , et donc y en sera en class C p+1 et sa drive k eme est
y (k) (t) = f [k 1]
(t; y(t))
avec
f [1] = ft0 + fy0 f:
Le dveloppement de Taylor dordre p permet daboutir lalgorithme de Taylor dordre p
8
< y Pp
hk (k 1)
n+1 = yn + hf (tn ; yn ) + k
f (tn yn )
k=1
:
tn+1 = tn + h
Applications
Rsolution dune quation avec la mthode de Taylor
Soit lquation direntielle rgissant le mouvement du pendule :
ax + y sin x = 0 (1.10)
97
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
Programme
La fonction Matlab suivante calcule les approximations solution de y = t - y faites avec
la srie de Taylor jusqu lordre 4.
*************************************************************************************
Programme de Taylor (dordre2)
*************************************************************************************
function Taylor(tmin,tmax,Nint,y0) % Approximations par srie de Taylor
% Nint - nombre de sous intervalles N
% tmin - temps t 0 ; tmax - temps t 0+ T
% On trait ici lquation y= t - y(t)
h = (tmax-tmin)/Nint ; % valeur du pas
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
yt = inline((y0+1)*exp(-t) + t - 1,t,y0) ; % solution exact (F)
texa = linspace(tmin,tmax,101) ; % discrtisation de t pour la ?chage de la solution exacte
yexact = yt(texa,y0) ;
(1)
y1 = inline(t - y,t,y) ; % y
(2)
y2 = inline(1 - t + y,t,y) ; % y
(3)
y3 = inline(-1 + t - y,t,y) ; % y
(4)
y4 = inline(1 - t + y,t,y) ; % y
yT1(1) = y0 ; % yT1 contient les solutions de y - Approximation dEuler
yT2(1) = y0 ; % yT2 contient les solutions de y Approximation de Taylor ordre 2
yT3(1) = y0 ; % yT3 contient les solutions de y Approximation de Taylor ordre 3
yT4(1) = y0 ; % yT4 contient les solutions de y Approximation de Taylor ordre 4
for n = 2 :Nint+1 % Calcul approximation dEuler
yT1(n) = yT1(n-1) + h*y1(t(n-1),yT1(n-1)) ;
end % for n
for n = 2 :Nint+1 % Calcul de lapproximation de Taylor ordre 2
yT2(n) = yT2(n-1) + h*y1(t(n-1),yT2(n-1)) + (h^2/2)*y2(t(n-1),yT2(n-1)) ;
end % for n
for n = 2 :Nint+1 % Calcul de lapproximation de Taylor ordre 3
98
4.2. MTHODES NUMRIQUES UN PAS
99
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
h h h
y 0 (t + ) ' y(t) + hf (t + ; y(t) + f (t; y(t)): (1.16)
2 2 2
Dou, on dnitife :
h h
y(t + h) ' y(t) + hf (t + ; y(t) + f (t; y(t)) (1.17)
2 2
LAlgorithme du point milieu peut donc scrire :
8
> yn+ 1 = yn + h2 f (tn ; h)
>
< 2
pn = f (tn + h2 ; yn+ 1 )
2 (1.18)
>
> y n+1 = yn + hpn
:
tn+1 = tn + h 0 n N 1
y 0 = f (t; y)
(1.19)
y(t0 ) = y0
h h @f @f
yn+1 = yn + f (tn ; yn ) + f (tn; yn ) + h (tn ; yn ) + h (tn ; yn ) f (tn ; yn )
2 2 @t @y
@f @f
f (tn ; yn ) + h (tn ; yn ) + h (tn ; yn ) f (tn ; yn ) = f (tn + h; yn + hf (tn ; yn )) (1.21)
@t @y
La mthode de Rung-kutta la plus utilise est dordre 4(on nglige les drives du 4eme ordre
dans le dvlopement de Taylor ) ; Il sagit de lalgorithme suivant :
100
4.2. MTHODES NUMRIQUES UN PAS
Applications
Soit le problme de Cauchy
y 0 = y 2ty
(1) (1.26)
y(0) = 1
On dsire approcher, en eectuant le calcul avec six (06) dcimales, la slution de (1) en
t = 0:2 laide des mthodes de Runge-kutta dordre 2 et dordre 4:
La solution exacte tant p
y = 2x + 1; (1.27)
on estimera alors les rsultats obtenus .
On considre donc, linetrvalle [t0 ; t1 ] avec
t0 = 0; t1 = t0 + h = 0:2
et
h = 0:2;
ie :
[t0 ; t1 ] = [0; 0:2]
1.Mthode de Rung-Kutta dordre 2 :
101
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
Ainsi
y(0:2) ' y1 = 1:186667
La valeur exacte tant p
y(0:2) = 1:4 = 1:183216
Lerreur commise est :
2
jy(0:2) y1 j = j1:186667 1:183216j = 0:003451 < 0:510
et donc
y(0:2) ' 1:19 0:01
ie :
y1 approche y(0:2) avec trois (03) c.s.e
2.Mthode de Runge-Kutta dordre 4 :
De lalgorithme correspondant, il vient :
8
>
> t1 = t0 + h = 0:2
>
>
>
> p 0;1 = f (t0 ; y0 ) = f (o:1; 1:1) = 1
<
p0;2 = (t0 + h2 ; y0 + h2 p0;1 )
(1.29)
>
> p0;3 = (t0 + h2 ; y0 + h2 p0;2 ) = f (0:1; 1:0918182) = 0:0908637
>
>
>
> p0;4 = f (t1 ; y0 + hp0;3 ) = f (0:2; 1:181727) = 0:843239
:
y1 = y0 + h6 (p0;1 + 2p0;2 + 2p0;3 + p0;4 ) = 1:183229
Ainsi,
y(0:2) ' y1 = 1:183229
La valeur exacte, calcule plus haut, tant
p
y(0:2) = 1:4 = 1:183216
Lerreur est :
jy(0:2) y1 j = j1:183216 1:183229j = 0:000013 < 0:510 4 ;
Donc,
y(0:2) ' 1:1832 0:0001
ie :
y1 approche y(0:2) avec cinq (05) c.s.e
Remarque Les mthodes un pas considres jusque l se programme facilement et en
cours du calcul elles saprtent sans problmes au changement de pas.
102
4.3. MTHODE NUMRIQUES PAS MULTIPLES
Programme
Une faon de programmer la mthode Runge Kutta dordre 2 est la suivante :
*************************************************************************************
Programme Runge Kutta dordre 2
*************************************************************************************
function [t,y] = RK2(f,tmin,tmax,Nint,y0) % Mthode de Runge Kutta dordre 2
% Nint - nombre de sous intervalles
% tmin - temps t0
% tmax - temps t0 + T
% f est une fonction avec comme arguments t et y : f(t,y(t))
% y0 contient les valeurs des conditions limites
h = (tmax-tmin)/Nint ; % valeur du pas (G)
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
y(1) = y0 ; % y contient les solutions de y(tn)n = 1, ...,Nint + 1
for n = 2 :Nint+1
k1 = h*feval(f,t(n-1),y(n-1)) ;
k2 = h*feval(f,t(n-1)+h/2,y(n-1)+k1/2) ;
y(n) = y(n-1) + k2 ;
end % for n
end
*********************************************************************************
*********************************************************************************
Comme la mthode dEuler, les mthodes de Runge Kutta peuvent tre appliques une
fonction arbitraire.
103
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
pour obtenir yn+1 : Dans ce cas la formule est appele ferme ou encore formule de prdiction ,
trouve antrieurement .
La suprorit des mthode pas multiples sur les mthodes pas constant rside dans le
fait qu elle ne ncessite pas dvaluation de f en des points intermdiaires (sauf au dmarage ).
Par rapport une mthode de Runge-kutta du mme ordre, le temps de calcul est donc rduit
dans une proportion importante .
Remarque Comme il a t montionn plus haut, le point initial (t0 ; y0 ) tant donn,
lalgorithme ne peut dmarrer que si les valeurs (y1 ; f (t1; y1 )); :::; (yr ; f (yr ; f (tr ; yr )) ont dja
calcules.
Le calcul ne peut tre fait que par une mthode un pas pour (y1 ; f (y1 ; t1 )); au plus
deux pas pour (y2 ; f (y2; t2 )) , ... au plus r pas pour (yr ; f (tr ; yr )):
Linitiation de des r premires valeurs (yi ; f (yi ; ti )); 1 i r; sera gnralement faite l
aide dune mthode de Rung- kutta dordre suprieur ou gal celui de la mthode ( ); ou
la rigueur un de moins.
Supposons quon ait dja calcul les points y(tn 1 ) et y(t) et les pentes fn 1 = f (tn 1; y(tn 1 ))
et fn = f (tn ; y(tn )): La mthode dAdams-Bashforth consiste approximer la fonction f (t; y(t));
en tant que fonction de t, par son polynme dinterpolation aux points tn 1 et tn .Soit P (t) ce
polynme, P (t) est la fonction a ne dnie par :
fn fn 1
P (t) = fn + (t tn ) (2.4)
tn tn 1
On crit alors ,
tZn+1
tZn+1
3 1
= y(tn ) + h( fn fn 1 ) (aprs calcul) (2.7)
2 2
104
4.3. MTHODE NUMRIQUES PAS MULTIPLES
Prcision :
La mthode dAdams-Bashforth 2 pas est ordre 2 , ie lerreur au point tn est donne par :
o k est indpendant de n et de h.
Initialisation : pour calculer yi il est prfrable dutilser une mthode de mme ordre (par
exemple la mthode de Runge -Kutta dordre 2).
2 me cas : r = 2
Un raisonnement analogue au cas o r = 1, nous amne lAlgorthme dAdams-
Bashforth 3 pas qui scrit :
8
>
> y0 ; y1; y2 donns
<
yn+1 = yn + h( 23 f
12 n
4
f
3 n 1
5
+ 12 fn 2 )
(2.10)
>
> tn+1 = tn + h
:
fn+1 = f (tn ; yn )
105
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
o
fn+1 = f (tn+1 ; yn+1 )
et
fn = f (tn ; yn )
h h
yn+1 f (tn+1 + yn+1 ) = yn + fn
2 2
o
fn+1 = f (tn+1 ; yn+1 ); fn = f (tn ; yn ) (2.17)
et
fn 1 = f (tn 1 ; yn 1 ): (2.18)
106
4.4. AUTRES MTHODES
u0 = hf (t0 ; y0 ) (3.5)
107
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
u1 = hf (t1 ; y1 ) (3.6)
u2 = hf (t2 ; y2 ) (3.7)
et
u3 = hf (t3 ; y3 ) (3.8)
108
4.4. AUTRES MTHODES
u4 = hf (t4 ; y4 ) (3.11)
La nouvelle diagonale donne la possibilit de calculer par la formule dAdams (A), la valeurs
de
1 5 2 3
y 5 = y 4 + u4 + 4 u3 + 4 u2 + 43 u1; (3.13)
2 12 8
et ainsi de suite ....
Ainsi , la formule (A) rsou le problme pos. Lorsqu on a estim y(t) pour les valeurs
t1; :::; tn elle fournit lapproximation yn+1 de y(tn+1 ): On peut encore calculer
o yn est la valeur calcule par la formule (A), y(tn ) la valeur exacte de la solution y(t) du
problme de Cauchy (1.1) au point tn et k une constante qui ne dpend pas de h.
Applications
An de calculer la valeur approche, au point t = 2, de la solution de lquation direntielle
t2 y 0 ty = 1; vriant la condition initiale y(1) = 0;appliquons la mthode dAdams, avec
h = 0:2.
Pour cela, soit
y0 = y(1) = 0 (3.16)
y1 = y(1:2) = 0:1834
y2 = y(1:4) = 0:3429
et
y3 = y(1:6) = 0:4898
(calculs pralablement dans notre cas par la mthode de Runnge-kutta dordre 4).
Lquation dierentielle associe au problme scrit encore :
1 1
t2 y 0 ty = 1 () y 0 = (y + ) = f (t; y) (3.17)
y t
Calculons alors u0; u1; u2 et u3 : Nous avons :
u0 = hf (t0; y0 ) = 0:2
109
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
u1 = hf (t1; y1 ) = 0:1695
u2 = hf (t2; y2 ) = 0:1510
u3 = hf (t3; y3 ) = 0:1394
Et le tableau des dirences fnies des grandeurs yi et ui scrit :
xi yi 4yi ui 4ui 42 ui 43 ui
1.0 0 0.2
0.1834 -0.0305
1.2 0.1834 0.1695 0.120
0.1595 -0.0105 -0.0051
1.4 0.3429 0.1510 0.0069
0.1469 -0.0116
1.6 0.4898 0.1394
Alors, daprs la formule dAdams (A), on obtient :
1 5 2 3
y 4 = y 3 + u3 + 4 u2 + 4 u1 + 43 u0 (3.18)
2 12 8
Ainsi,
2
y4 = 0:6244 ' 0:62 10
Et comme on connnait y4 ; on peut calculer
O
4u3 = u4 u3 = 0:1311 0:1394 = 0:0083
42 u2 = 4u3 4u2 = 0:0083 + 0:0116 = 0:0033
43 u1 = 42 u2 42 u1 = 0:0033 0:0069 = 0:0036
110
4.4. AUTRES MTHODES
La nouvelle diagonale donne la possibilit de calculer par la formule dAdams (A), la valeur :
1 5 2 3
y 4 = y 4 + u4 + 4 u3 + 4 u2 + 43 u1 (3.22)
2 12 8
= 0:6244 + 0:1311 0:0042 + 0:0014 0:0014 = 0:7513
lerreur commise dans ce cas est gale :
2
y5 y(2) = 0:7513 0:7500 = 0:0013 0:510
Zt
y(t) = y0 + f (s; y(s))ds (3.23)
t0
En substituant y0 = y(t0 ) y(t) sous le signe intgrle (car la fonction y(t) est inconnue ),
on obtient la premire approximation :
Zt
y1 (t) = y0 + f (s; y0 )ds (3.24)
t0
La deuxime itration est obtenu en portant dans la formule (3.23) la valeur trouve y1 (t)
la place de la fonction inconnue y(t) :
Zt
y2 (t) = y0 + f (s; y1 (s))ds (3.25)
t0
y0 (t) = y0
Rt (3.26)
yn (t) = y0 + t0 f (s; yn 1 (s))ds n = 1; 2; :::
Les yn (t) sont appeles les approximations successives(de y(t); solution de (3.26)).
111
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
Si
fy0 (t; y) > 0 (3.27)
et
f (t; y0 ) > 0 (3.28)
Les approximations de Picard forment une suite croissante de fonctions infrieures
Par contre si f (t; y0 ) < 0; alors la suite des approximations est dcroissante :
Et ainsi lorsque fy0 (t; y) > 0; les approximations de Picard forment une suite dapproxima-
tions unilatrales.
Sify0 (t; y) < 0;les approximations forment une suite bilatrales.
Exemple 7.5 En appliquant la mthode des approximations successives la rsolution du
problme de Cauchy :
y0 = y + t t 0
y(0) = 0
on trouve, en partant de y0 = y(0) = 0 :
Zt
yn+1 = (s + yn (s))ds n = 1; 2; :::
0
donc 8 2
>
> y1 (t) = t2!
>
>
>
>
2 3
y2 (t) = t2! + t3!
< 2 3 t4
y3 (t) = t2! + t3! + 4!
>
> ..
>
> .
>
>
: yn (t) = t2
+ t3
+ t4
+ + tn+1
2! 3! 4! (n+1)!
Ici, f (t; y0 ) = t + y0 0 et fy0 (t; y) = 1i0. Par consquent la suite des approximations de
Picard(yn ), forme une suite de fonctions infrieurs (suite dcroissante).
La solution exacte du problme est obtenue par :
t2 t3 t4 tn+1
y(t) = lim ( + + + + )
n!+1 2! 3! 4! (n + 1)!
t2 t3 t4 tn+1
= lim (1 + t + + + + + ) t 1
n!+1 2! 3! 4! (n + 1)!
= et t 1
112
4.5. STABILIT DES SOLUTIONS
Dnition 4.5.1 Soit y(t; z) la solution maximale de (1) tel que y(t0; z) = z. On dira que la
solution y(t; z0 ) est stable sil existe une boule B(z0 ; r) et une constante C 0 telles que
(i) Pour tout z 2 B(z0 ; r), t ! y(t; z) est dnie sur [t0 ; +1[ ;
(ii) Pour tous z 2 B(z0 ; r) et t t0 on a ky(t; z) y(t; z0 )k C kz z0 k.
La solution y(t; z0 ) est dite asymptotiquement stable si elle est stable et si la condition (ii)
plus forte que (ii) est satisfaite :
(ii) Il existe une boule B(z0 ; r) et une fonction : [t0 ; +1[ ! R+ continue avec (t) = 0
telles que pour tous z 2 B(z0 ; r) et t t0 on ait
113
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1
Y 0 = AY + g(t; Y ) (E)
Thorme 4.5.2 On suppose que les valeurs propres complexes j de A sont de partie relle
Re j < 0.
(a) Sil existe une fonction k : [t0 ; +1[ ! R+ continue telle que lim k (t) = 0 et
t!1
pourr r0 , alors il existe une boule B(0; r1 ) B(0; r0 ) telle que toute solution Y (t; Z0 ) de
valeur initiale Z0 2 B(0; r1 ) soit asymptotiquement stable.
114
TRAVAUX DIRIGS 4
Travaux dirigs 4
Exercice 01 :
2 h T
Soit lequation differentielle a condition initiale H H H et .
Approcher la solution de cette equation en H a laide de la methode dEuler
en subdivisant lintervalle de travail en 10 parties egales. Comparer a la solution
exacte.
x
)<
Exercice 02 :
Approcher la solution de ` 4)<
lequation differentielle ci-dessous en H en utili-
sant RK2, avec un pas
<
` H
H H
H
Exercice 03 :
suivant
Soit le probleme de Cauchy
? 4 B
y(t) = t + y(t), H U V
y(0) =1
115
SUGGESTIONS ET CORRIGS
Suggestions et Corrigs
Exercice 01
; BS4
H
/ H H H
B
Lintervalle dintegration est U V .
que etant continue et lipshitzienne par rapport a
Remarquons tout dabord
le probleme de Cauchy admet une solution unique (theoreme 9 de Cauchy-
Lipshitz).
Methode dEuler Elle secrit :
BS
x H
H
"H
3 x I 4) `
On a aussi , x [ e H et H H W x .
Dou le tableau,
e e e e e
< p s
4) 4)< #
) 4) p 4) s 4 ! ) ) 4 )m )
H ) )</< ) < # ) p !
#/! #
x ) p
Cest a dire que lapproximation en H de H , est # .
e
Solution exacte de cette equation Appliquons la methode de la variation de
la constante.
1ere etape : equation sans second membre.
H n `
H
0 H
est une solution
I> >2
evidente. ? Les autres < / solutions sont donnees par
H . Dou avec .
nde
@> R>
2 etape : une solution particuliere On applique la methode de la varia-
>
>
tion de la constante
> > dou
> que lon reporte dans
>k ` :
H ainsi, H [] .
H [] H en integrant par parties on trouve
>
H [] [] H
H [] []
#
[] H
116
?!
avec
eme
.
> # <
3 etape : solution generale. On remplace donne par dans :
#"
[] H $
donc,
w
H
Finalement, grace a la condition initiale , on determine , dou
G <
e&%
<
Ainsi, la solution exacte de est H .
Estimation de lerreur. La solution exacte ci-dessus donne
< )p
# #/!/! . Ainsi, lerreur( { { ) p
{ ' effectivement commise 4)de
) p { lors < s lapplication
de la methode dEuler est # #/!/! # . Cherchons
lerreur theorique qui est donnee par :
D[ ~ <
`2/ 7 { {
Ou ~ H et est la constante de Lipschitz de
N par rapport
a , qui se calcule aisement :
{ H BSt H B { { K { %
)
De meme, on a
h
H H
<
H H
<
Ainsi ~ I< . Donc,
x x < [ x
{ w
{ [ e <
I
4
) p !#
('
Clairement, { { { { , donc la methode dEuler donne une bonne ap-
proximation de la solution de ce probleme de Cauchy en H .
117
SUGGESTIONS ET CORRIGS
Exercice 02
3 B%t
H H H eH
Remarquons tout dabord que etant continue et lipshitzienne par rapport a
x 4 ) m)
< ~ x ~ /! !/!
x )
!/!/!
118
Integrons par parties :
p.
< H [ < [ H0/
<
H [ [ 1
<
2 [
H 3
?- T <
avec 2/4 comme *5
H 2 ,
5 DO <
. La solution generale est donc
H J <
75 . Finalement,
J < H 62 . Ainsi, H 32 . Comme
2 5 alors H 82 . </I J < 59 <
Estimation de lerreur. La solution exacte est *59
32
;: < (' { 2 9 2 ;:< 2 2 9 2 ;<;<;< { 5=9>5;5 : p s
2 92 2 . Donc lerreur commise est { { .
On peut comparer cette erreur effective a lerreur theorique sur RK2, donnee
par : -
(le theoreme du cours)
Exercice 03
Soit le probleme de Cauchy suivant
? ; < G
H BS4
7 5 H H H
2
2
Remarquons tout dabord que etant continue et lipshitzienne par rapport a
le probleme de Cauchy 2 admet une solution unique (theoreme 9 de Cauchy-
Lipshitz).
Methode dEuler. Elle secrit :
BS
x
H
<
H
<
2 "H
3 5=9 5
On a aussi 75 2 , 2 H et H W .
x 5=9 e 595 < e
Donc , dou le tableau,
< :
5 2
< :
H 5 5=/9 2 < 5=9 5=9
/< 5=9 p <
;
2 5=9 5=9 2
59 :
Cest a dire que lapproximation en H de H avec le pas 5=9 2 , est
x 5=9 p <
2 .
e 119
SUGGESTIONS ET CORRIGS
Exercice 04
? ; :;<
H : []
2 7 5 H
2 , puis 2
KJ comme
En appliquant la methode de la variation de la constante,
au premier
exercice, on trouve la solution generale, H [ L XZ [] L XZ ou
est la constante dintegration.
5
1. Si * 5 2 , alors , donc la solution du probleme est H [] .
*5 k M T
2. Si
2 , alors , donc la solution du probleme est H
[] XZ .
M {
M {
Conclusion : En comparant H et H , on voit que la difference H
H XZ . Meme si est tres petit, cet ecart tend vers O N , les deux solutions
divergent lune de lautre. Ce probleme est donc tres sensible aux Conditions Ini-
tiales.
120
Bibliographie
121