You are on page 1of 125

Universit Mohamed Chrif Messaadia de Souk-Ahras

Facult des Sciences et Technologie


Dpartement des Mathmatiques et Informatique

Cours dAnalyse Numrique 2


Conformment aux programmes
LMD : Mathmatiques appliques
Mathmatiques et informatique

Dr. BELLOUFI MOHAMMED

Site web :http ://www.univ-soukahras.dz/fr/prole/mbellou


E-mail : mbellou_doc@yahoo.fr

Avr 2015
Table des matires

Introduction Gnrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1 Rsolution des systmes linaires 4


1.1 Quelques rappels dalgbre linaire . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Norme induite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Matrices diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Mthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Mthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Mthode de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Stratgie du choix du pivot . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.4 Stratgie du pivot total . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.5 La mthode L:U . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.6 Mthode de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.1 Le problme des erreurs darrondis . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Conditionnement et majoration de lerreur darrondi . . . . . . . . . . . 21
1.4 Mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.1 Dnition et proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.2 Mthodes de Jacobi, Gauss-Seidel et SOR/SSOR . . . . . . . . . . . . . 24
1.5 Travaux dirigs 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2 Calcul des valeurs et vecteurs propres 45


2.1 Mthode de la puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Calcul de la valeur propre de plus petit module . . . . . . . . . . . . . . . . . . 48
2.3 Calcul dautres valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.4 Algorithme QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5 Mthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.6 Travaux dirigs 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3 Rsolution dquations et systmes non linaires 60


3.1 Racines de lquation f (x) = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2 Sparation des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.1 Mthode graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

1
3.2.2 Mthode de balayage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Approximation des racines : Mthodes itrative . . . . . . . . . . . . . . . . . . 64
3.3.1 Mthode de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.2 Mthode de Newton-Raphson pour deux inconnues . . . . . . . . . . . . 67
3.3.3 La mthode de Newton-Raphson et les polynme . . . . . . . . . . . . . 69
3.3.4 Mthode de point xe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3.5 Acclration de la convergence . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3.6 Convergence de la mthode de newton-Raphson . . . . . . . . . . . . . . 76
3.3.7 Mthode de la scante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.3.8 Mthode de dichotomie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.4 Travaux dirigs 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

4 Rsolution numrique des quations direntielles ordinaires dordre 1 93


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.2 Mthodes numriques un pas . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.2.1 Mthode DEULER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.2.2 Mthode de Taylor (dordre2) . . . . . . . . . . . . . . . . . . . . . . . . 96
4.2.3 Mthode du point milieu . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.2.4 Mthode de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.3 Mthode numriques pas multiples . . . . . . . . . . . . . . . . . . . . . . . . 103
4.3.1 Mthode dAdams-Bashforth . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.3.2 Mthode dAdams-Moulton . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.3.3 Mthode de prdiction-correction . . . . . . . . . . . . . . . . . . . . . . 107
4.4 Autres Mthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.4.1 Mthode dAdams . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.4.2 Mthode des approximations successives (Picard ) . . . . . . . . . . . . . 111
4.5 Stabilit des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.5.1 Cas dun systme linaire coe cients constants . . . . . . . . . . . . . 113
4.5.2 Ptite perturbation dun systme linaire . . . . . . . . . . . . . . . . . . 114
4.6 Travaux dirigs 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

2
0.1. INTRODUCTION GNRALE

0.1 Introduction Gnrale


Daprs les historiens, le calcul numrique remonte au moins au troisime millnaire avant
notre re. Il est lorigine favoris par le besoin deectuer des mesures dans dirents domaines
de la vie courante, notamment en agriculture, commerce, architecture, gographie et naviga-
tion ainsi quen astronomie. Il semble que les Babyloniens (qui peuplaient lactuelle Syrie/Iraq)
sont parmi les premiers raliser des calculs algbriques et gomtriques alliant complexit
et haute prcision. Surtout, ils donnent une importance et un sens au placement relatif des
chires constituant un nombre, cest--dire introduire la notion de base de dnombrement, en
loccurrence, la base sexagsimale que nous avons ni par adopter dans certains domaines. Ils se
distinguent ainsi dautres civilisations, mme bien plus rcentes, qui dveloppent des mthodes
plus lourdes, en introduisant une plthore de symboles. Il y a environ 3500 ans, les populations
de la valle de lIndus (rgions de lInde et du Pakistan) introduisent les notions de zro et
emploient les nombres ngatifs. Il adapte galement le systme de comptage Babylonien au
systme dcimal qui est le ntre aujourdhui. Ces premiers outils de calcul sont largement d-
velopps par la suite par les Grecs, puis transmis en Europe par lintermdiaire des civilisations
musulmanes peuplant le bassin mditerranen.
Le calcul numrique tel que nous le concevons pratiquement aujourdhui connat son premier
vritable essor partir du XVIIme sicle avec les progrs fulgurants des Mathmatiques et
de la Physique, plus ou moins lis aux observations et aux calculs astronomiques. Plusieurs
machines de calcul sont en eet construites, comme la nPascaline" invente par B. Pascal en
1643. Babbage en 1834 mais qui fonctionnait mal, ou encore le tabulateur de H. Hollerith
spcialement conu pour recenser la population amricaine, vers 1890. Il sagit bien-entendu de
machines mcaniques imposantes et dutilisation assez limite. Le manque de moyens de calcul
performants limite en fait lexpansion et la validation de certaines thories du dbut du XXme
sicle. Ce fut le cas en particulier de la thorie de la Relativit Gnrale due A. Einstein.
La Seconde Guerre Mondiale et les progrs technologiques quelle engendre va permettre au
calcul numrique damorcer un second envol. Les anglais mettent au point le premier ordinateur
en 1939, Colossus, dont la mission est de dcrypter les messages codes envoyes par lmetteur
ENIGMA de lAllemagne nazie. Cette machine introduit les concepts rvolutionnaires mis
par A. Turing dans les annes 1936 concernant lautomatisation des calculs. Les calculateurs
sont dsormais entirement lectroniques. Autre machine qui fait date dans lhistoire, le ENIAC
(nElectronic Numerical Integrator And Computer) construit en 1946. Malheureusement, ce type
de machine ne dispose pas de mmoire interne et doit tre en permanence reprogramme.
A la n des annes 1940, un certain J. von Neumann repense larchitecture des ordina-
teurs et introduit, entre autres, les mmoires permettant de sauvegarder les programmes, et les
concepts de hardware (matriel) et de software (logiciel). La premire machine de calcul incluant
les concepts de von Neumann (et ceux de Turing) est ainsi produite par la rme amricaine
IBM ; elle sappelle MARK I et pse 5 tonnes. Les premires applications concernent tous les
domaines sciatiques et techniques. Le FORTRAN I, un langage de programmation destine aux
scientiques, est conu ds 1954. . . mais il lui manque un vrai compilateur.
Vers la n des annes 1960, lapparition progressive des transistors et de leur assemblage
massif sur des surfaces de plus en plus rduites augmente considrablement les performances

1
des machines et permet des simulations numriques de ralisme croissant. Cet eort de minia-
turisation est dailleurs impos par la course la conqute de lespace. Apparaissent ainsi en
1970 les fameux microprocesseurs mis au point par les rmes Intel et Motorola qui quipent
la majeure partie des sondes spatiales de lpoque. Le calcul numrique devient rapidement
une science part entire. Les annes 70 marquent aussi le tournant pour les langages de pro-
grammation : certains sont dnitivement produits des ns scientiques, alors que dautres
seront penss pour la gestion, comme le Cobol. Au dbut des annes 1980, lordinateur le plus
puissant du monde sappelle CRAY I. Sa forme est spcialement choisie pour optimiser la rapi-
dit des calculs. Cest aussi le dbut de linformatique familiale avec la mise sur le march des
PERSONAL COMPUTERS DIBM
En une quinzaine dannes, la rapidit des calculateurs a t multiplie par plus de 10000.
La vitesse dexcution des oprations lmentaires se compte maintenant en dizaines de millions
de millions doprations la seconde (ou dizaines de Tra-ops, comparer la centaine de
mga -ops du CRAY I). Les capacits de stockage ont gagn 7 ordres de grandeur au moins.
Aujourdhui, toutes ces performances doublent tous les ans. Pour le monde scientique, celui de
la Recherche Fondamentale et de lIndustrie, les calculateurs et le dveloppement de techniques
de programmation spciques (comme la programmation parallle) sont devenus des outils
incontournables la connaissance et ouvrent de nouveaux horizons pour la modlisation et la
comprhension des phnomnes complexes et la mise au point de nouvelles technologies.
On regroupe sous le terme gnrique de "mthodes numriques", toutes les techniques de
calcul qui permettent de rsoudre de manire exacte ou, le plus souvent, de manire appro-
che un problme donn. Le concept de calcul est assez vaste et doit tre pris au sens large.
Il peut sagir de dterminer linconnue dune quation, de calculer la valeur dune fonction en
un point ou sur un intervalle, dintgrer une fonction, dinverser une matrice, etc. Bien que la
mise en quation dun problme et sa rsolution passent naturellement par les Mathmatiques,
les problmatiques sous-jacentes concernent des disciplines aussi varies que la Physique, lAs-
trophysique, la Biologie, la Mdecine, lEconomie, etc. Il existe ainsi une grande varit de
problmes possibles avec pour chacun deux, des mthodes trs spciques. De fait, le nombre
total de mthodes numriques dont nous disposons lheure actuelle est vraisemblablement
gigantesque.
Une mthode numrique met en uvre une certaine procdure, une suite doprations, gn-
ralement en tries grand nombre, que lon transcrira ensuite dans un langage de programmation.
Bien quune mthode numrique puisse seectuer mentalement (du moins avec pun crayon et un
papier) comme inverser une matrice 2x2, rsoudre tan x 1 = 0, ou calculer 2, elle ncessite
dans la majorit des cas un ordinateur qui a lavantage de la rapidit (mais pas de la prcision).
Il convient ce niveau de bien direncier la partie mthode numrique, souvent indpendante
du calculateur et du langage, et la partie programmation qui met en uvre dune part lalgo-
rithme et dautre part une suite dinstructions crites dans un langage de programmation. Bien
sr, une mthode numrique pourra dpendre de larchitecture dun ordinateur et du langage
utilis. Toutefois, lun des soucis majeurs de lutilisateur et du programmeur est dassurer
son programme une certaine portabilit, cest--dire de pouvoir lexcuter sur des machines
direntes sans avoir besoin dadaptations (trop) spciques.
Les mthodes numriques sont indispensables la ralisation de programmes de calculs ou

2
0.1. INTRODUCTION GNRALE

codes de calcul. En particulier, pour les astrophysiciens qui ne bncient pas dun laboratoire
permettant de valider leurs thories partir dexpriences renouvelables loisir et contrlables,
ces outils sont le seul moyen de simuler ou de modliser les phnomnes que nous observons,
de les interprter et de les comprendre. Rappelons que les mthodes numriques sont en eet
prsentent dans toutes les disciplines de lAstrophysique moderne : la cosmologie, linstrumen-
tation, le traitement de donnes, la plantologie, la physique solaire, la physique des galaxies,
la physique extragalactique, etc. Sil est vrai quil existe une trs grande diversit de mthodes
numriques avec lesquelles ont peut, en pratique, quasiment tout faire, certains problmes (par
exemple en traitement du signal, en mcanique cleste ou en mcanique des uides) ont ncessit
la mise au point de mthodes trs spciques.
Lobjet de lanalyse numrique est de concevoir et dtudier des mthodes de rsolution de
certains problmes mathmatiques, en gnral issus de la modlisation de problmes rels", et
dont on cherche calculer la solution laide dun ordinateur.
Le cours est structur en quatre grands chapitres :
Rsolution des systmes linaires
Calcul des valeurs et vecteurs propres
Systmes non linaires
Equations direntielles.

3
Chapitre 1

Rsolution des systmes linaires

On note MN (R) lensemble des matrices carres dordre N . Soit A 2 MN (R) une matrice
inversible, et b 2 Rn , on a comme objectif de rsoudre le systme linaire Ax = b, cest dire
de trouver x solution de :
x 2 RN
(P)
Ax = b

Comme A est inversible, il existe un unique vecteur x 2 RN solution de (P). Nous allons
tudier dans les deux chapitres suivants des mthodes de calcul de ce vecteur x : la premire
partie de ce chapitre sera consacre aux mthodes directes" et la deuxime aux mthodes it-
ratives". Nous aborderons ensuite en troisime partie les mthodes de rsolution de problmes
aux valeurs propres.
Un des points essentiels dans le cacit des mthodes envisages concerne la taille des
systmes rsoudre. Entre 1980 et 2000, la taille de la mmoire des ordinateurs a augment
de faon drastique. La taille des systmes quon peut rsoudre sur ordinateur a donc galement
augment.
Le dveloppement des mthodes de rsolution de systmes linaires est lie lvolution des
machines informatiques. Un grand nombre de recherches sont dailleurs en cours pour proter
au mieux de larchitecture des machines (mthodes de dcomposition en sous domaines pour
proter des architectures parallles, par exemple).
Dans la suite de ce chapitre, nous verrons deux types de mthodes pour rsoudre les systmes
linaires : les mthodes directes et les mthodes itratives. Pour faciliter la comprhension de
leur tude, nous commenons par quelques rappels dalgbre linaire.

1.1 Quelques rappels dalgbre linaire


1.1.1 Norme induite
Dnition 1.1.1 (Norme matricielle, norme induite) On note MN (R) lespace vectoriel
(sur R) des matrices carres dordre N .

4
1.1. QUELQUES RAPPELS DALGBRE LINAIRE

1. On appelle norme matricielle sur MN (R) une norme k:ksur MN (R) t.q.

kABk kAk kBk ; 8A; B 2 MN (R)

2. On considre MN (R) muni dune norme k:k. On appelle norme matricielle induite (ou
norme induite) sur MN (R) par la norme k:k, encore note k:k, la norme sur MN (R) dnie par :

kAk = sup fkAxk ; x 2 Rn ; kxk = 1g ; 8A 2 MN (R)

Proposition 1 Soit MN (R) muni dune norme induite k:k. Alors pour toute matrice A 2
MN (R), on a :
1. kAxk kAk kxk ; 8x 2 Rn ;
2. kAk = max fkAxk
n ; kxk = 1; xo2 Rn g ;
3. kAk = max kAxkkxk
; x 2 Rn n f0g
4. k:k est une norme matricielle.

Proposition 2 Soit A = (ai; j )i; j2f1;:::;N g 2 MN (R)


1. On munit Rn de la norme k:k1 et MN (R) de la norme induite correspondante, note
aussi k:k1 . Alors
P
N
kAk1 = max jai; j j
i2f1;:::;N g j=1

2. On munit Rn de la norme k:k1 et MN (R) de la norme induite correspondante, note aussi


k:k1 . Alors
P
N
kAk1 = max jai; j j
j2f1;:::;N g i=1

3. On munit Rn de la norme k:k2 et MN (R) de la norme induite correspondante, note aussi


k:k2 . Alors
1
kAk2 = At A 2

1.1.2 Rayon spectral


Dnition 1.1.2 (Valeurs propres et rayon spectral) Soit A 2 MN (R) une matrice in-
versible. On appelle valeur propre de A tout 2 C tel quil existe x 2 CN ,x 6= 0 tel que
Ax = x. Llment x est appel vecteur propre de A associ . On appelle rayon spectral de
A la quantit (A) = max f ; 2 C, valeur propre de Ag.

Lemme 1.1.1 (Convergence et rayon spectral) On munit MN (R) dune norme, note k:k.
Soit A 2 MN (R).
Alors :
1. (A) < 1 si et seulement si Ak ! 0 quand k ! 1.
1
2. (A) < 1 ) lim supk!1 Ak k
1.
1
k
3. lim inf k!1 A k
< 1.

5
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

1
4. (A) = limk!1 Ak k :
5. On suppose de plus que k:k une norme matricielle (induite ou non). Alors

(A) kAk :

Remarque 1.1.1 (Convergence des suites) Une consquence immdiate du lemme est que
si x(0) est donn et x(k) dni par x(k+1) = Ax(k) , alors la suite x(k) k2N converge vers 0 si et
seulement si (A) < 1.

Proposition 3 (Rayon spectral et norme induite) Soient A 2 MN (R) et " > 0. Il existe
une norme sur Rn (qui dpend de A et ") telle que la norme induite sur MN (R), note k:kA; "
vrie kAkA; " (A) + ".

Lemme 1.1.2 (Triangularisation dune matrice) Soit A 2 MN (R) une matrice carre
quelconque, alors il existe une base (f1 ; :::; fN ) de C et une famille de complexes ( i; j )i=1;:::;N;j=1;:::;N;j<i
P
telles que Afi = i;i fi + i;j fj De plus i;j est valeur propre de A pour tout i 2 f1; :::; N g.
j<i

On admettra ce lemme.
Nous donnons maintenant un thorme qui nous sera utile dans ltude du conditionnement,
ainsi que plus tard dans ltude des mthodes itratives.

Thorme 1.1.1 (Matrices de la forme Id + A) 1. Soit une norme matricielle induite, Id


la matrice identit de MN (R) et A 2 MN (R) telle que kAk < 1.
Alors la matrice Id + A est inversible et

1 1
(Id + A) :
1 kAk

2. Si une matrice de la forme Id + A 2 MN (R) est singulire, alors kAk 1 pour toute
norme matricielle k:k :

1.1.3 Matrices diagonalisables


Dnition 1.1.3 (Matrice diagonalisable) Soit A une matrice relle carre dordre n. On
dit que A est diagonalisable dans R si il existe une base ( 1 ; :::; n ) et des rels 1 ; :::; n (pas
forcment distincts) tels que A i = i pour i = 1; :::; n. Les rels 1 ; :::; n sont les valeurs
propres de A, et les vecteurs 1 ; :::; n sont les vecteurs propres associs.

Lemme 1.1.3 Soit A une matrice relle carre dordre n, diagonalisable dans R. Alors
1
A = P diag ( 1 ; :::; n) P ;

o P est la matrice dont les vecteurs colonnes sont gaux aux vecteurs 1 ; :::; n.

6
1.2. MTHODES DIRECTES

Lemme 1.1.4 Soit E un espace vectoriel sur R de dimension nie : dimE = n; n 2 N ; muni
dun produit scalaire i.e. dune application
E E ! R;
(x; y) ! < x; y >E
qui vrie :
8x 2 E; < x; x >E 0 et < x; x >E = 0 , x = 0;
2
8(x; y) 2 E ; < x; y >E =< y; x >E ;
8y 2 E; lapplication de E dans R; dnie par x !< x; y >E est linaire:
p
Ce produit scalaire induit une norme sur E, kxk = < x; x >E :
Soit T une application linaire de E dans E. On suppose que T est symtrique, c..d. que
< T (x); y >E =< x; T (y) >E , 8(x; y) 2 E 2 . Alors il existe une base orthonorme (f1 :::fn ) de E
(c..d. telle que (fi ; fj )E = i;j ) et ( 1 ; :::; n ) 2 Rn tels que T (fi ) = i fi pour tout i 2 f1:::ng.
Consquence immdiate : Dans le cas o E = Rn , le produit P scalaire canonique de
x = (x1 ; :::; xN )t et y = (y1 ; :::; yN )t est dni par < x; y >E = x y = N i=1 xi yi Si A 2 MN (R)
est une matrice symtrique, alors lapplication T dnie de E dans E par : T (x) = Ax est
linaire, et : < T (x); y >= Ax y = x At y = x Ay =< x; T (y) >. Donc T est linaire symtrique.
Par le lemme prcdent, il existe (f1 ; :::; fN ) et ( 1 ; :::; N ) 2 RN tels que T fi = Afi = i fi
8i 2 f1; :::; N g et fi .fj = i;j ; 8(i; j) 2 f1; :::; N g2 .
Interprtation algbrique : Il existe une matrice de passage P de (e1 ; :::; eN ) base ca-
nonique dans (f1 ; :::; fN ) dont la premire colonne de P est constitue des coordonnes de fi
dans (e1 ; :::; eN ). On a : P ei = fi . On a alors P 1 AP ei = P 1 Afi = P 1 ( i fi ) = i ei =
diag ( 1 ; :::; N ) ei , o diag ( 1 ; :::; N ) dsigne la matrice diagonale de coe cients diagonaux
1 ; :::; N On a donc :
i 0
P 1 AP = = D:
0 N
De plus P est orthogonale, i.e. P 1 = P t . En eet,
P t P ei ej = P ei P ej =< fi ; fj >= i;j 8i; j 2 f1:::N g;
et donc (P t P ei ei ) ej = 0 8j 2 f1:::N g 8i 2 f1; :::N g. On en dduit P t P ei = ei pour tout
i = 1; :::N ,
i.e. P t P = P P t = Id.

1.2 Mthodes directes


On appelle mthode directe de rsolution de (P) une mthode qui donne exactement x (A
et b tant connus) solution de (P) aprs un nombre ni doprations lmentaires (+; ; ; =).
Parmi les mthodes de rsolution du systme (P) on citera :
- Mthode de Gauss(mthode du pivot)
- Mthode de Gauss-Jordan
- La mthode L:U
- Mthode de Cholesky

7
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

1.2.1 Mthode de Gauss


Soit Ax = b o A est une matrice (n n) ; non singulire (det (A) 6= 0 , A non singulire).
Principe :
? Transformation de la matrice A en une matrice triangulaire suprieure .
.
on construit A .. b et :
. .
A .. b transformation ! A0 .. b0 une matrice triangulaire suprieure .ie :

0 1 0 0 0 0 0
1
a11 a12 a1n b1 a11 a12 a1n b1
B a21 a22 a2n b2 C B 0
0
a22
0
a2n b2
0
C
B C B C
B .. .. .. .. .. C !B .. .. .. .. .. C
@ . . . . . A @ . . . . . A
0 0
an1 an2 ann bn 0 0 ann bn

. .
A .. b ! A0 .. b0

0 0
? Puis, on rsout le systme A x = b (dont la solution est exactement la solution du systme
Ax = b )
ETAPES : On pose A = A(1) et b = b(1) :
1ere tape :
(1)
? Si a11 6= 0; on fait les aectations suivantes
(2) (1)
La ligne L1 est maintenue ie : L1 L1
(1)
(2) (2) ai1 (1)
pour i = 2; n ; Li Li (1) L1
a11
On obtient alors :
0 (1) (1) (1) (1) 1 0 (2) (2) (2) (2) 1
a11 a12 a1n b1 a11 a12 a1n b1
B a(1) a(1) a2n
(1)
b2
(1) C B 0
(2)
a22
(2)
a2n b2
(2) C
B 21 22 C B C
B . . .. .. .. C !B .. .. .. .. .. C
@ .. .
. . . . A @ . . . . . A
(1) (1) (1) (1) (2) (2)
an1 an2 ann bn 0 0 ann bn

. .
A(1) .. b(1) ! A(2) .. b(2)

o : 8
< a(2) (1)
1j = a1j j = 1; n
(1)
(2) (1) ai1 (1)
: aij = aij (1) a1j , i = 2; n ; j = 1; n
a11

et 8
< b(2) (1)
1 = b1
(1)
(2) (1) ai1 (1)
: b1 = bi (1) b1 , i = 2; n
a11

8
1.2. MTHODES DIRECTES

(1) (1) (1)


? Si a11 = 0; on cherche une ligne Lp avec 2 p n telle que ap1 6= 0: Puis on permute
(1) (1)
les lignes L1 et Lp pour obtenir
Ax = b () A(1) x = b(1) () P (1) A(1) x = P (1) b(1)
(1) (1)
o P (1) est la matrice de permutation des lignes L1 et Lp :P (1) est elle meme la matrice
identit dans laquelle on permute la premire ligne et la P eme ligne.
(1)
Dans ce cas au lieu de la matrice A(1) on considre la matrice : A = P (1) A(1) dont on
(1)
notera encore les lments par aij et on lui applique des transformations analogues celles
(1)
correspondantes au cas a11 6= 0 ,tudi plus haut.
k eme tape :
(k)
? akk = 0 : On permute les lignes est une ligne dindice p avec k + 1 p n; telle que :
(k)
apk 6= 0: Et dela
A(k) x = b(k) () P (k) A(k) x = P (k) b(k)
(k) (k)
o P k est la matrice de permutation des lignes Lk et Lp : P k est la matrice identit o on
permute la k eme et la P eme ligne.
(k) (k)
On considre alors : A = P (k) A(k) et b = P (k) A(k) : Aprs transformation on obtient
(k+1)
A et b(k+1) avec :
8
< a(k+1)
ij
(k)
= aij , i = 1; k; j = 1; n
(k)
(k+1) (k) aik (k)
: aij = aij (k) akj ; i = k + 1; n ; j = 1; n
akk

et 8
< b(k+1)
i
(k)
= bi i = 1; k
(k)
(k+1) (k) aik (k)
: bi = bi (k) bk ; i = k + 1; n
akk

et ceci en faisant les aectations suivantes :


8 (k+1) (k)
>
> L1 ! L1
>
>
>
>
(k+1)
L2
(k)
! L2
>
< ..
.
>
> (k+1) (k)
>
> Lk ! Lk
>
> (k)
>
: L(k+1) ! L(k) aik L(k) ; ,i = k + 1; n
i i (k)
akk k

Rsolution de A0 x = b0 :
On pose 0 1
(n) (n) (n) (n)
a11 a11 a11 b1
B (n) (n) (n) C
.. 0 (n) .. (n)
B 0 a11 a11 b2 C
0
A .b = A .b =B
B .. .. .. .. .. C
C
@ . . . . . A
.. (n) (n)
0 . a11 bn

9
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

Et del
Ax = b () A(1) x = b(1)
() A(2) x = b(2)
..
.
() A(n) x = b(n)
() A0 x = b0
do (Rsolution par remonte)
8 0 0
> x1 = a10 (b01 a1;2 x2 a1;n xn )
>
> 11
>
< ..
.
1 0
>
> x n 1 = a0 (b0n 1 an 1;2 xn )
>
> n 1;n 1
: x = 01 b0
n an;n n

( On dtermine xn , puis xn 1 ; etc. jusqu obtention de x1 :)

Remarque 1.2.1 1. La mthode de Gauss ncessite 32 n3 oprations pour un systme dordre


n: n
(k)
2. Elle permet de calculer det (A) puisque det (A) = ( 1)j akk o j est le nombre de
k=1
permulations.

Exemples 1 Soit rsoudre le systme :


8
< 2x1 + 3x2 x3 = 5
(1) 4x2 + 4x2 3x3 = 3
:
2x1 + 3x2 x3 = 1

Le systme (1) scrit encore : Ax = b avec


0 1 0 1 0
1
2 3 1 5 x1
A=@ 4 4 3 A ;b = @ 3 A et x = @ x2 A
2 3 1 1 x3

1ere tape :
(1)
? a11 = 2 6= 0
0 1 0 1
2 3 1 5 2 3 1 5
@ 4 4 3 3 A ! @ 0 2 1 7 A
2 3 1 1 0 6 2 6

. .
A(1) ..b(1) ! A(2) ..b(2)

10
1.2. MTHODES DIRECTES

2eme tape :
(2)
? a22 = 2 6= 0
0 1 0 1
2 3 1 5 1 0 0 1
@ 0 2 1 7 A !@ 0 1 0 2 A
0 6 2 6 0 0 1 3

. .
A(2) ..b(2) ! A(3) ..b(3)

Rsolution de A0 x = b0 :
.
Posons A0 .. b0 : On a alors :

1 0 1 0
0 1
2 3 1 x1 5
A0 x = b0 () @ 0 2 1 A @ x2 A = @ 7 A
0 0 5 x3 15
8 8
< 2x1 + 3x2 x3 = 5 < x1 = 1
() 2x2 + x3 = 7 () x2 = 2
: :
5x3 = 12 x3 = 3

1.2.2 Mthode de Gauss-Jordan


Soit le systme linaire Ax = b o A est une matrice (n n) ; rgulire.
Principe :
? Transformation de la matrice A en matrice identit
. .
ie : A .. b _ transformation ! I .. b0 o I est la matrice identit.
? Do : Ax = b () Ix = b0 () x = b0
ETAPES : On pose A = A(1) et b = b(1) :
1ere tape :
(1)
? Si a11 6= 0; on fait les aectations suivantes
(2) 1 (1)
L1 (1) L1
a11
(2) (2) (1) (2)
Li Li ai1 Li ; i = 2; n
On a alors :
0 (1) (1) (1) (1) 1 0 (2) (2) (2) 1
a11 a12 a1n b1 1 a12 a1n b1
B a21
(1)
a22
(1)
a2n
(1)
b2
(1) C B 0
(2)
a22
(2)
a2n b2
(2) C
B C B C
B .. .. .. .. .. C !B .. .. .. .. .. C
@ . . . . . A @ . . . . . A
(1) (1) (1) (1) (2) (2) (2)
an1 an2 ann bn 0 an2 ann bn

. .
A(1) ..b(1) ! A(2) ..b(2)

11
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

avec :
8 (1)
>
> (2) a1j
< a1j = (1)
a11
; j = 1; n
(2) (1) (1) (2)
> aij = aij ai1 a1j ; i = 2; n ; j = 2; n
>
: (2)
aij = 0 , i = 2; n ; j = 1

et 8
< b(2) = b(1)
1
1 (1)
a11
: (2)
b =b
(1)
ai1
(1)
bi ;
(2)
i = 2; n
i i

1ere tape :
(2)
? Si a22 6= 0; on fait les aectations suivantes
(3) 1 (2)
L2 (2) L2
a22
(3) (2) (2) (3)
Li Li ai2 L2 ; i = 1; n avec i 6= 2
do :
0 (2) (2) (2) 1 0 (3) (3) (3) 1
1 a12 a1n b1 1 0 a13 a1n a1
B 0
(2)
a22
(2)
a2n b2
(2) C B 0 1
(3)
a23
(3)
a2n a2
(3) C
B C B C
B .. .. .. .. C !B .. .. .. .. .. .. C
@ . . . . A @ . . . . . . A
(2) (2) (2) (3) (3) (3)
0 an2 ann bn 0 0 an3 ann an

. .
A(2) ..b(2) ! A(3) ..b(3)

avec :
8 (1)
>
> (2) a1j
< a1j = a11
(1) ; j = 1; n
(2) (1) (1) (2)
> aij = aij ai1 a1j ; i = 2; n ; j = 2; n
>
: (2)
aij = 0; i = 2; n ; j = 1

et 8
< b(2) = b(1)
1
1 (1)
a11
: b(3) = b(2) ai2
(e)
b2 ;
(")
i = 1; n; i 6= 0
i i

k eme tape :
(k)
? akk 6= 0 :
(1) 1 (k)
Lk (k) Lk
akk
(k+1) (k) (k) (k+1)
Li Li aik Lk ; i = 1; n avec i 6= k

12
1.2. MTHODES DIRECTES

On obtient :
0 (k) (k) (k)
1 0 (k+1) (k+1) (k+1)
1
1 0 a1k a1n b1 1 0 a1;k+1 a1n b1
B (k) (k) (k) C B (k+1) (k+1) (k+1) C
B 0 0 a2k a2n b2 C B 0 0 a2;k+1 a2n b2 C
B .. .. C B .. .. C
B . . C B . . C
B C B C
B (k) (k) (k) C B (k+1) (k+1) (k+1) C
B 0 1 ak 1;k ak 1;n bk 1 C !B 0 1 ak;k+1 ak;n bk C
B C B C
B 0
(k)
0 akk
(k)
a1k bk
(k) C B 0 (k+1)
0 ak+1;k+1
(k+1)
ak+1;n
(k+1)
bk+1 C
B C B C
B .. .. C B .. .. C
@ . . A @ . . A
(k) (k) (k) (k+1) (k+1) (k+1)
0 0 ank ann bn 0 0 an;k+1 ann bn

. .
A(k) .. b(k) ! A(k+1) .. b(k+1)
avec
8 (k)
< (k+1)
akj =
akj
; j = k; n
(k)
akk
: a(k+1) = a(k) (k)
aik
(k+1)
akj ; i = 1; n; i 6= k; j = k + 1; n
ij ij

et 8 (k)
< bk
(k+1)
=
bk
(k)
akk
: b(k+1) = b(k) (k)
aik
(k+1)
bk ; i = 1; n ; i 6= k
i i

Remarque 1.2.2 1. La mthode de Gauss-Jordan ncessite n3 oprations lmentaires (moins


rapide que celle de Gauss et que celle de Cholesky que lon verra par la suite).
2. Elle est conseille pour inverser une matrice, car elle vite la remonte(ie :la rsolution
par retour arrire) quon rencontre dans la mthode de Gauss.

Exemples 3 Soit rsoudre le systme :


8
< 2x1 + 3x2 x3 = 5
(1) 4x1 + 4x2 3x3 = 3
:
2x1 + 3x2 x3 = 1

Le systme (1) scrit encore :Ax = b avec


0 1 0 1 0 1
2 3 1 5 x1
A= @ 4 4 3 A ; b= @ 3 A et x = @ x2 A
2 3 1 1 x3
1ere tape :
(1)
? a11 = 2 6= 0
0 1 0 1
2 3 1 5 1 3 2 1 2 5 2
@ 4 4 3 3 A !@ 0 2 1 7 A
2 3 1 1 0 6 2 6

13
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

. .
A(1) ..b(1) ! A(2) ..b(2)

2eme tape :
(2)
? a22 = 2 6= 0
0 1 0 1
1 3 2 1 2 5 2 1 0 5 4 11 4
@ 0 2 1 7 A !@ 0 1 1 2 7 2 A
0 6 2 6 0 0 5 15

. .
A(2) ..b(2) ! A(3) ..b(3)

3eme tape :
(3)
? a33 = 5 6= 0
0 1 0 1
1 0 5 4 11 4 1 0 0 1
@ 0 1 1 2 7 2 A ! @ 0 1 0 2 A
0 0 5 15 0 0 1 3

. .
A(3) ..b(3) ! A(4) ..b(4)

Solution de A0 x = b0 :
Posons b0 = b(4) :On a alors : x = b0 = (1:2:3) :

1.2.3 Stratgie du choix du pivot


Exemples 4 Sachant que la solution exacte du systme ci-aprs est
(x1 ; x2 ) = (1 3; 2 3) ; retrouvons la par la mthode de Gauss. Le systme est

0:0003x1 + 3x2 = 2:0001


x1 + x2 = 1

? Posons
0:0003 3 2:0001
A= et b=
1 1 1
Nous avons : a11 = 0:0003 6= 0; do :

0:0003 3 2:0001 0:0003 3 2:0001


!
1 1 1 0 9999 6666

. .
A .. b ! A0 .. b0

14
1.2. MTHODES DIRECTES

et del :
x2 = 6666
9999
= 2222
3333
=?
1
x1 = 0:0003 (2:0001 3x2 ) =?
Question 1 : Eectuer les calculs avec quatre(04) c.s
Rponse 1 : x2 = 0:6667 et x1 = 0:3333
Question 2 : mme question avec cinq (05) c.s
Rponse 2 : x2 = 0:66667 et x1 = 0:3
Question 3 : avec trois (03) c.s
Rponse 3 : x2 = 0:667 et x1 = 3

Remarque 1.2.3 1. Les chires de la valeur x2 restent stables. Par contre ceux de x1 mtent
chaque nouvelle prcision.
2. Les solutions auxquelles on aboutit sont, des chelles dirents, loignes de la solution
exacte.

Commentaire 1 Cette perte dans la prcision est due au pivot a11 = 0:0003 qui est trs
petit.
Cas gnral
Soit le systme
8
>
> a11 x1 + a12 x2 + + a1n xn = b1
>
< a22 x2 + + a2n xn = b2
> ..
> .
>
: ann xn = bn

avec a11 ' 0 et a11 6= 0:


On suppose que les solutions x1 ; x2 ; : : : ; xn soient connues.Posons :
x1 = x1 4x1
x2 = x2 4x2 o x1 ; x2 ; : : : ; xn sont des valeurs
..
. approches de x1 ; x2 ; : : : ; xn
xn = xn 4xn
Dterminons 4x1 =?
Nous avons :
x1 = a111 (b1 a12 x2 a1n xn )
1
= a11 (b1 a12 x2 a1n xn a12 4x2 a1n 4xn )
1 a12 a1n
= a11 b1 a12 x2 a1n xn ) a11 4x2 a11
4xn
a12 a1n
= x1 a11 4x2 a11
4xn
a12 a1n
et del : 4x1 = a11 4x2 a11
4xn :Mais puisque a11 ' 0 alors aa12 11
0:
a1j
De mme pour les autres a11 ; j = 3; n: Et donc lerreur 4x1 sera importante.

15
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

Stratgie du pivot partiel


Supposons que lon soit la k eme tape de la mthode Gauss :
0 (k) (k) (k) (k) (k) 1
a11 a12 a1k a1n b1
B 0 (k)
a22
(k)
a2k
(k)
a2n b2
(k) C
B C
B . .. C
(k) .. (k)
B .. . C
A .b !BB 0 (k) (k) (k)
C
C 1 k n
B 0 akk akn bk C
B . .. .. C
@ .. . . A
(k) (k) (k)
0 0 ank ann bn
(k) (k) (k)
Parmi les coe cients akk ; ak+1;k ; : : : ; ank ; on choisit celui dont le module est le plus grand
(k)
ie : max aik : Le pivot sera ce coe cient, et on permute alors la k eme ligne et la ligne du
i=k;n
pivot ainsi obtenu.

1.2.4 Stratgie du pivot total


(k)
A la k eme tape le pivot est choisit parmi les coe cients aij ; i = k; n j = k; n;tel que son
(k)
module soit le plus grand ie : max aij :
i=k;n j=k;n
Attention ! : Achaque permutation de colonnes les inconnues changent de places .
Exemples 7 Soit le systme
8
< x1 + 3x2 + 3x3 = 2
2 x1 + 2x2 + 5x3 = 7
:
3x1 + 2x2 + 6x3 = 12
Posons : 0 1
1 3 3 2
.
A .. b = @ 2 2 5 7 A
3 2 6 12
(1)
k = 1 : max aij ; i = 1; 2; 3 j = 1; 2; 3 = 6: La ligne du pivot total sera alors L3 : En
permutant les lignes 1 et 3 on obtient :
0 1
1 3 3 2
@ 2 2 5 7 A
3 2 6 12

La colonne du pivot total est Col3 ; et on permute les colonnes 1 et 3 :


0 1 0 1
6 2 3 12 6 2 3 12
@ 5 2 2 7 A ! @ 0 1 3 1 2 3 A
3 3 1 2 0 2 1 2 8

16
1.2. MTHODES DIRECTES

(2)
k = 2 : max aij ; i = 2; 3 j = 2; 3 = 2 La ligne du pivot total est alor L3 : Et donc on
permute les lignes 2 et 3 :
0 1 0 1
6 2 3 12 6 2 3 12
@ 0 2 1 2 8 A ! @ 0 2 1 2 8 A
0 1 3 1 2 2 0 0 5 12 5 3

Del, du fait de la permutation des colonnes 1 et 3. On obtient le systme quivalent suivant :


8 8
< 6x3 + 2x2 + 3x1 = 1 < x1 = 1
1
2x2 2 x1 = 8 () x2 = 3
: 5 5 :
x
12 1
= 3
x3 = 4

1.2.5 La mthode L:U


Soit le systme linaire Ax = b (1)
Principe : Dcomposition de la matrice A de faon la mettre sous la forme : A = L:U o
L est une matrice triangulaire unitaire infrieure et U une matrice triangulaire suprieure.
Rsolution : Le systme (1) devient :
Ly = b
Ax = b () L |{z}
Ux = b ()
Ux = y
y
Donc la rsolution du systme Ax = b revient la rsolutions des deux systmes Ly = b
et U x = y; et la rsolution de ces derniers est immdiate, puisque les matrices L et U sont
triangulaires.
Mthode :
Par la mthode de Gauss on obtient
0 (n) (n) (n) (n) (n)
1
a11 a12 a13 a1n b1
B (n) (n) (n) (n) C
B 0 a22 a23 a1n b2 C
. . B (n) C
A(k) ..b(k) = A(k) ..b(k) = B
(n) (n)
B 0 0 a33 a1n b3 C C
B .. .. .. C
@ . . . A
(n) (n)
0 ann bn
0 (1) (1) (1) (1) (1)
1
a11 a12 a13 a1n b1
B (2) (2) (2) (2) C
B 0 a22 a23 a1n b2 C
B (3) (3) (3) C
=B
B 0 0 a33 a1n b3 C
C
B .. ... .. C
@ . . A
(n) (n)
0 ann bn

avec : Ax = b () A0 x = b 0
On pose alors U = A0

17
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

0 (1) (1) (1) (1) (1)


1
a11 a12 a13 a1n b1
B (2) (2) (2) (2) C
B 0 a22 a23 a1n b2 C
B (3) (3) (3) C
ie : U =B
B 0 0 a33 a1n b3 C
C
B .. .. .. C
@ . . . A
(n) (n)
0 ann bn
et on montre que : A = L:U o
0 1
1 0 0
B l21 1 0 C
B C (k)
aik
B C
L = B l31 l32 1 0 C avec lik =
B .. ... .. C (n)
akk
@ . . A
ln1 ln2 ln;n 1 1

Vrication : Pour n=4


On a :
0 (1) (1) (1) (1)
1 0 1
a11 a12 a13 a14 1 0 0 0
B C B l21 (k)
0 C
(2) (2) (2)
B 0 a22 a23 a24 C 1 0 aik
U =B C ;L = B
@ l31
C lik =
@ 0 0
(3)
a33
(3)
a34 A l32 1 0 A (n)
akk
0 0 0
(4)
a44 l41 l42 l43 1

do (1) (1) (1)


a21 a21 a31 a31 a41 a41
l21 = (1) = a11
l31 = (1) = a11
l41 = (1) = a11
a11 a11 a11
(2) (2) (3)
a32 a42 a43
l32 = (2) l42 = (2) l43 = (3)
a22 a22 a33
Ainsi 0 1
1 0 0 0
B a21
1 0 0 C
B a11 C
B (2)
a32 C
L =B a31
1 0 C
B a11 (2)
a22 C
@ (2)
a42 a43
(3) A
a41
a11 (2) (3) 1
a22 a33
0 1
1 0 0 0 0 1
B C a a12 a13 a14
B
a21
a11
1 0 0 C B 11 (2) (2) (2) C
B (2)
a32 CB 0 a22 a23 a24 C
L:U = B a31
1 0 C B (3) (3) C
B a11 (2)
a22 C@ 0 0 a33 a34 A
@ (2)
a42
(3)
a43
A (4)
a41
(2) (3) 1 0 0 0 a44
a11 a22 a33
0 1
a11 a12 a13 a14
B a a21 aa21
(2)
+ a22 a21 aa13
(2)
+ a23 a21 aa14
(2)
+ a24 C
B 21 C
B 11 11
(2)
11
(2) C
= B a31 a31 aa11
21 (2)
+ a32 a31 aa13 +a
(2) a23
+ a33
(3)
a31 aa14 +a
(2) a24 (3)
+ a34 C
B 11 32 a(2) 11 32 a (2) C
@ 22
(2)
22
(2) (3) A
(2) (2) a23 (3) (2) a24 (3) a34 (4)
a41 a41 aa12 + a42 a41 aa13 +a 42 a(2) + a43 a41 aa14 +a 42 a (2) + a43 (3) + a44
11 11
22
11
22 a33

18
1.2. MTHODES DIRECTES

0 1
a11 a12 a13 a14
(k)
B a21 a22 a23 a24 C a
=B
@ a31
C = A car a(k+1) = a(k) + a(k) kj
a32 a33 a34 A ij ij ik (k)
akk
a41 a42 a43 a44

1.2.6 Mthode de Cholesky


Soit A une matrice carre dordre n; A = (aij ) i; j = 1; n

Dnition 1.2.1 Soit A 2 Mn (R) est dite symtrique si elle coincide avec sa transpose ie :
A = AT ou encore : aij = aji , i; j = 1; n

Thorme 1.2.1 (Sylvester) Soit A 2 Mn (R) une matrice symtrique. Alors A est dnie
positive si et seulement si

8x 2 Rn ; x 6= 0; hAx; xi = xT :Ax 0:

Thorme 1.2.2 A est dnie positive si et seulement si tous ses mineurs :

a11 a12 a13


a11 a12
41 = a11 ; 42 = ; 42 = a21 a22 a23 ;::: ; 4n = det (A)
a21 a22
a31 a32 a33

sont strictement positifs.

Thorme 1.2.3 (Cholesky) Soit A une matrice carre dordre n, non singulire et sym-
trique. Pour quil existe une matrice triangulaire infrieure L, de meme dimension que A, telle
que : A = LLT ; il faut et il su t que A soit dnie positive .

Remarque 1.2.4 L nest pas unique


La dcomposition devient unique si lon xe lavance les lments diagonaux lii avec
lii 0:

Algorithme de dcomposition
An dobtenir les lments lij de la matrice L on multiplie les matrices L et LT , puis on iden-
tie les coe cients respectifs dans lgalit : A = L LT pour obtenir les quations
2
l11 = a11
2 2 2 2 2
li1 + li2 + li3 + + li;i 1 + lii = aii
li1 lji + li2 lj2 + li3 lj3 + +lij ljj = aij , i j
lij = 0 i j

19
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

Do, on a successivement (en choissant systmatiquement le signe +) :


8 p
>
> l11 = v a11
>
> u
>
> u X
i 1
>
>
>
< lij = taii 2
lik , i = 2; n
k=1
!
>
> j 1
X
>
> 1
>
> lij = aij lik ljk ; i j
>
>
ljj
>
: k=1
lij = 0 i; j

Rsolution du Ax = b
Rsoudre le systme Ax = b revient alors rsoudre :
Ly = b
LT x = b
L |{z} ()
LT x = y
y
do lon dduit : 8 b1
>
> y1 = l11
>
<
!
> X
i 1
>
> 1
: yi = lii
bi lik yk ; i = 2; n
k=1

et 8 yn
>
> xn = lnn
>
<
!
> X
n
>
> 1
: xi = lii
yi lki xk ; i = 1; n 1
k=i+1

3
Remarque 1.2.5 La mthode de Cholesky ncessite n3 opirations lmentaires (meilleur que
celle de Gauss).
La mthode de Cholesky permet le calcul du dterminant de A:
En eet : A = L LT =) det (A) = det LLT = det (L) det LT
!2
2
Yn
= (det (L)) = lii
i=1

1.3 Conditionnement
Dans ce paragraphe, nous allons dnir la notion de conditionnement dune matrice, qui
peut servir tablir une majoration des erreurs darrondi dues aux erreurs sur les donnes.
Malheureusement, nous verrons galement que cette majoration nest pas forcment trs utile
dans des cas pratiques, et nous nous eorcerons dy remdier. la notion de conditionnement est
galement utilise dans ltude des mthodes itratives que nous verrons plus loin.

20
1.3. CONDITIONNEMENT

1.3.1 Le problme des erreurs darrondis


Soient A 2 Mn (R) inversible et b 2 Rn ; supposons que les donnes A et b ne soient
connues qu une erreur prs. Ceci est souvent le cas dans les applications pratiques. Considrons
par exemple le problme de la conduction thermique dans une tige mtallique de longueur 1,
modlise par lintervalle [0; 1]. Supposons que la temprature u de la tige soit impose aux
extrmits, u(0) = u0 et u(1) = u1 . On suppose que la temprature dans la tige satisfait
lquation de conduction de la chaleur, qui scrit (k(x)u0 (x))0 = 0, o k est la conductivit
thermique. Cette quation direntielle du second ordre peut se discrtiser par exemple par
dirences nies, et donne lieu un systme linaire de matrice A. Si la conductivit k nest
connue quavec une certaine prcision, alors la matrice A sera galement connue une erreur
prs, note (A. On aimerait que lerreur commise sur les donnes du modle (ici la conductivit
thermique k) nait pas une consquence catastrophique sur le calcul de la solution du modle
(ici la temprature u). Si par exemple 1% derreur sur k entrane 100% derreur sur u, le modle
ne sera pas dune utilit redoutable. . .
Lobjectif est donc destimer les erreurs commises sur x solution de (P) partir des erreurs
commises sur b et A. Notons ( b 2 Rn lerreur commise sur b et A lerreur commise sur A. On
cherche alors valuer x est solution (si elle existe) du systme :

x + x 2 Rn
(1.1)
(A + A ) (x + x ) = b + b

On va montrer que si A "nest pas trop grand", alors la matrice A + A est inversible, et
quon peut estimer x enfonction de A et A .

1.3.2 Conditionnement et majoration de lerreur darrondi


Dnition 1.3.1 (Conditionnement) Soit Rn muni dune norme k.k et Mn (R) muni de la
norme induite. Soit A 2 Mn (R) une matrice inversible. On appelle conditionnement de A par
rapport la norme k.k le nombre rel positif cond(A) dni par :
1
cond(A) = kAk A

Proposition 4 (Proprits gnrales du conditionnement) Soit Rn muni dune norme


k.k et Mn (R) muni de la norme induite.
1. Soit A 2 Mn (R) une matrice inversible, alors cond(A) 1.
2. Soit A 2 Mn (R) et 2 R , alors cond( A) = cond(A).
3. Soient A et B 2 Mn (R) des matrices inversibles, alors cond(AB) = cond(A)cond(B).

Proposition 5 (Proprits du conditionnement pour la norme 2) Soit Rn muni dune


norme k.k2 et Mn (R) muni de la norme induite. Soit A 2 Mn (R) une matrice inversible. On
note cond2 (A) le conditionnement associ la norme induite par la norme euclidienne sur Rn .
1. Soit A 2 Mn (R) une matrice inversible. On note n [resp: 1 ] la plus grande [resp.
petite] valeurppropre de At A (noter que At A est une matrice symtrique dnie positive). Alors
cond2 (A) = n= 1.

21
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

2. Si de plus A une matrice symtrique dnie positive, alors cond2 (A) = n1 , o n [resp.
1 ] est la plus grande [resp. petite] valeur propre de A.
3. Si A et B sont deuxmatrices symtriques dnies positives, alors cond2 (A+B) max(cond2 (A); c
4. Soit A 2 Mn (R) une matrice inversible. Alors cond2 (A) = 1 si et seulement si A = Q
o 2 R et Q est une matrice orthogonale (cest--dire Qt = Q 1 ).
5. Soit A 2 Mn (R) une matrice inversible. On suppose que A = QR o Q est une matrice
orthogonale. Alors cond2 (A) = cond2 (R).
6. Soient A; B 2 Mn (R) deux matrices symtriques dnies positives. Montrer que cond2 (A+
B) maxfcond2 (A); cond2 (B)g.

Thorme 1.3.1 Soit A 2 Mn (R) une matrice inversible, et b 2 Rn , b 6= 0. On munit Rn


dune norme k.k, et Mn (R) de la norme induite. Soient A 2 Mn (R) et b 2 Rn . On suppose
que k A k < kA1 1 k . Alors la matrice (A + A ) est inversible et si x est solution de (P) et x + x
est solution de (1.1), alors
k xk cond(A) b A
+ (1.2)
kxk 1 kA 1 k k Ak b A

1.4 Mthodes itratives


Les mthodes directes que nous avons tudies dans le paragraphe prcdent sont trs e -
caces : elles donnent la solution exacte (aux erreurs darrondi prs) du systme linaire consi-
dr. Elles ont linconvnient de ncessiter une assez grande place mmoire car elles ncessitent
le stockage de toute la matrice en mmoire vive. Si la matrice est pleine, c..d. si la plupart
des coe cients de la matrice sont non nuls et quelle est trop grosse pour la mmoire vive de
lordinateur dont on dispose, il ne reste plus qu grer habilement le swapping" cestdire
lchange de donnes entre mmoire disque et mmoire vive pour pouvoir rsoudre le systme.
Cependant, si le systme a t obtenu partir de la discrtisation dquations aux drivs
partielles, il est en gnral creux", c..d. quun grand nombre des coe cients de la matrice du
systme sont nuls ; de plus la matrice a souvent une structure bande", i.e. les lments non
nuls de la matrice sont localiss sur certaines diagonales.

1.4.1 Dnition et proprits


Soit A 2 Mn (R) une matrice inversible et b 2 Rn , on cherche toujours ici rsoudre le
systme linaire (P) cestdire trouver x 2 Rn tel que Ax = b.

Dnition 1.4.1 On appelle mthode itrative de rsolution du systme linaire (P) une m-
thode qui construit une suite (x(k) )k2N (o litr" x(k) est calcul partir des itrs x(0) :::x(k 1) )
cense converger vers x solution de (P)).

Dnition 1.4.2 On dit quune mthode itrative est convergente si pour tout choix initial x(0)
2 Rn , on a :
x(k) ! x quand n ! +1

22
1.4. MTHODES ITRATIVES

Puisquil sagit de rsoudre un sytme linaire, il est naturel dessayer de construire la suite des
itrs sous la forme x(k+1) = Bx(k) + c, o B 2 Mn (R) et c 2 Rn seront choisis de manire
ce que la mthode itrative ainsi dnie soit convergente.On appellera ce type de mthode
Mthode I, et on verra par la suite un choix plus restrictif quon appellera Mthode II.

Dnition 1.4.3 (Mthode I) On appelle mthode itrative de type I pour la rsolution du


systme linaire (P) une mthode itrative o la suite des itrs (x(k) )k2N est donne par :

Initialisation x(0) 2 Rn
Itration n x(k+1) = Bx(k) + c

o B 2 Mn (R) et c 2 Rn .

Remarque 1.4.1 (Condition ncessaire de convergence) Une condition ncessaire pour


que la mthode I converge est que c = (Id B)A 1 b. En eet, supposons que la mthode
converge. En passant la limite lorsque n tend vers linni sur litration n de lalgorithme, on
obtient x = Bx + c et comme x = A 1 b, ceci entrane c = (Id B)A 1 b.

Remarque 1.4.2 (Intrt pratique) La mthode I est assez peu intressante en pra-
tique, car il faut calculer A 1 b, sauf si (Id B)A 1 = Id, avec 2 R. On obtient dans ce
cas :
B= A + Id
et c= b
cestdire
xn+1 = xn + (b Axn ):
Le terme b Axn est appel rsidu et la mthode sappelle dans ce cas la mthode dextrapolation
de Richardson.

Thorme 1.4.1 (Convergence de la mthode de type I) Soit A 2 Mn (R) inversible,


b 2 Rn . On considre la mthode I avec B 2 Mn (R) et

c = (Id B)A 1 b: (1.3)

Alors la mthode I converge si et seulement si le rayon spectral (B) de la matrice B vrie


(B) < 1.

Dnition 1.4.4 (Mthode II) Soit A 2 Mn (R) une matrice inversible, b 2 Rn . Soient M ~
~ ~ ~ ~
et N 2 Mn (R) des matrices telles que A = M N et M est inversible (et facile inverser).
On appelle mthode de type II pour la rsolution du systme linaire (P) une mthode
itrative o la suite des itrs (x(k) )k2N est donne par :

Initialisation x(0) 2 Rn
~ x(k+1) = N
~ x(k) + b (1.4)
Itration n M

23
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

Remarque 1.4.3 Si M ~ x(k+1) = N


~ x(k) + b pour tout k 2 N et x(k) ! y quand n ! +1 alors
M~y = N~ y + b, c..d. (M~ N ~ )y = b et donc Ay = b. En conclusion, si la mthode de type II
converge, alors elle converge bien vers la solution du systme linaire.

Thorme 1.4.2 (Convergence de la mthode II) Soit A 2 Mn (R) une matrice inver-
~ et N
sible, b 2 Rn . Soient M ~ 2 Mn (R) des matrices telles que A = M
~ N ~ et M ~ est inversible.
Alors :
1. La mthode dnie par (1.2) converge si et seulement si ~ 1N
M ~ < 1.
2. La mthode itrative dnie par (1.2) converge si et seulement si il existe une norme
induite note k:k telle que M ~ 1N
~ < 1.

Thorme 1.4.3 (Condition su sante de convergence, mthode II) Soit A 2 Mn (R)


~ et N
une matrice symtrique dnie positive, et soient M ~ 2 Mn (R) telles que A = M~ N~ et
M~ est inversible. Si la matrice M
~t+N
~ est symtrique dnie positive alors M~ 1N~ < 1, et
donc la mthode II converge

1.4.2 Mthodes de Jacobi, Gauss-Seidel et SOR/SSOR


Dcomposition par blocs de A :
Dans de nombreux cas pratiques, les matrices des systmes linaires rsoudre ont une
structure par blocs", et on se sert de cette structure lors de la rsolution par une mthode
itrative.

Dnition 1.4.5 Soit A 2 Mn (R) une matrice inversible. Une P dcomposition par blocs de A
est dnie par un entier S N , des entiers (ni )i=1;:::;S tels que Si=1 ni = N , et S 2 matrices
Ai;j 2 Mni ;nj (R) (ensemble des matrices rectangulaires ni lignes et nj colonnes, telles que les
matrices Ai;j soient inversibles pour i = 1; :::; S et
2 3
A1;1 A1;2 A1;S
6 .. 7
6 A2;1 . . . . . . . 7
6 . 7
6 . ..
.
.. ..
. . 7
6 . 7
A=6 . . . . 7 (1.5)
6 .. .. .. .. 7
6 7
6 .. .. .. 7
4 . . . AS 1;S 5
AS;1 AS;S 1 AS;S

Remarque 1.4.4 1. Si S = N et ni = 1 8i 2 f1; :::; Sg, chaque bloc est constitu dun seul
coe cient.
2. Si A est symtrique dnie positive, la condition Ai;j inversible dans la dnition 1.3.5
est inutile car Ai;j est ncessairement symtrique dnie positive donc inversible. Prenons par
exemple i = 1 ; soit y 2 Rn1 , y 6= 0 et x = (y; 0:::; 0)t 2 Rn . Alors A1;1 y y = Ax x > 0 donc
A1;1 est symtrique dnie positive.

24
1.4. MTHODES ITRATIVES

3. Si A est une matrice triangulaire par blocs, c..d. de la forme (1.3) avec Ai;j = 0 si j > i,
alors
QS
det(A) = det(Ai;i ):
i=1
Par contre si A est dcompose en 2 2 blocs carrs (i.e. tels que ni = mj ; 8(i; j) 2 f1; 2g),
on a en gnral : det(A) 6= det(A1;1 ) det(A2;2 ) det(A1;2 ) det(A2;1 ).
Mthode de Jacobi
On peut remarquer que le choix le plus simple pour le systme M ~ x = d soit facile rsoudre
(on rappelle que cest un objectif de la mise sous forme mthode de type II) est de prendre
pour M~ une matrice diagonale. La mthode de Jacobi consiste prendre pour M ~ la matrice
diagonale D forme par les blocs diagonaux de A :
2 3
A1;1 0 0
6 .. .. .. 7
6 0 . . . 7
6 . 7
6 . ... ..
.
..
. 7
6 . 7
D=6 . . . . 7
6 .. .. .. .. 7
6 7
6 .. . . . . 7
4 . . . 0 5
0 0 AS;S
Dans la matrice ci-dessus, 0 dsigne un bloc nul.
On a alors N ~ = E + F , o E et F sont constitus des blocs triangulaires infrieurs et
suprieurs de la matrice A :
2 3
0 0 0
6 .. 7
6 A1;1 . . . . . . . 7
6 . 7
6 . ..
.
..
.
..
. 7
6 . 7
E=6 .. .. .. .. 7
6 . . . . 7
6 7
6 .. . . . . 7
4 . . . 0 5
AS;1 AS;S 1 0
et 2 3
0 A1;2 A1;S
6 .. .. .. 7
6 0 . . . 7
6 .. 7
6 ..
.
..
.
..
. 7
6 . 7
F =6 .. .. .. .. 7:
6 . . . . 7
6 7
6 .. .. .. 7
4 . . . AS 1;S 5
0 0 0
~
On a bien A = M ~ et avec D; E et F dnies comme ci-dessus, la mthode de Jacobi
N
scrit :
x(0) 2 Rn
(1.6)
Dx(k+1) = (E + F ) x(k) + b

25
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

Lorsquon crit la mthode de Jacobi comme une mthode I, on a B = D 1 (E + F ) ; on


notera J cette matrice.
En introduisant la dcomposition par blocs de x, solution recherche de (P), c..d. : x =
[x1 ; :::; xS ] , o xi 2 Rni , on peut aussi crire la mthode de Jacobi sous la forme :
(
x(0) 2 Rn
(k+1) P (k) P (k) (1.7)
Ai;i xi = Ai;j xj Ai;j xj + bi i = 1; :::; S
j<i j>i

Si S = N et ni = 1 8i 2 f1; :::; Sg, chaque bloc est constitu dun seul coe cient, et on
obtient la mthode de Jacobi par points (aussi appele mthode de Jacobi), qui scrit donc :
(
x(0) 2 Rn
(k+1) P (k) P (k) (1.8)
ai;i xi = ai;j xj ai;j xj + bi i = 1; :::; n
j<i j>i

Mthode de Gauss-Seidel
Lide de la mthode de Gauss-Seidel est dutiliser le calcul des composantes de litr
(k+1)
(k + 1) ds quil est eectu. Par exemple, pour calculer la deuxime composante x2 du
(k+1) (k+1)
vecteur x , on pourrait employer la nouvelle" valeur x1 quon vient de calculer plutt
(k) (k+1)
que la valeur x1 comme dans (1.5) ; de mme, dans le calcul de x3 , on pourrait employer
(k+1) (k+1) (k) (k)
les nouvelles" valeurs x1 et x2 plutt que les valeurs x1 et x2 .
(k) (k+1)
Cette ide nous suggre de remplacer dans (1.5) xj par xj si j < i. On obtient donc
lalgorithme suivant :
(
x(0) 2 Rn
(k+1) P (k+1) P (k) (1.9)
Ai;i xi = Ai;j xj Ai;j xj + bi i = 1; :::; S
j<i i<j

Notons que lalgorithme de GaussSeidel par points (cas ou S = N et ni = 1) scrit donc :


(
x(0) 2 Rn
(k+1) P (k) P (k) (1.10)
ai;i xi = ai;j xj ai;j xj + bi i = 1; :::; n
j<i j>i

La mthode de GaussSeidel scrit donc sous forme de mthode II avec M = D E et


N =F :
x(0) 2 Rn
(1.11)
(D E) x(k+1) = F x(k) + b
Lorsquon crit la mthode de GaussSeidel comme une mthode I, on a B = (D E) 1 F ;
on notera L1 cette matrice, dite matrice de Gauss-Seidel.
Mthodes SOR et SSOR
Lide de la mthode de sur-relaxation (SOR = Successive Over Relaxation) est dutiliser
la mthode de Gauss-Seidel pour calculer un itr intermdiaire x~(k+1) quon relaxe" ensuite

26
1.4. MTHODES ITRATIVES

pour amliorer la vitesse de convergence de la mthode. On se donne 0 < ! < 2, et on modie


lalgorithme de GaussSeidel de la manire suivante :
8
>
> x(0) 2 Rn
< (k+1) P (k+1) P (k)
Ai;i x~i = Ai;j xj Ai;j xj + bi (1.12)
>
> j<i i<j
: x(k+1) = !~ (k+1)
xi
(k)
+ (1 !) xi i = 1; :::; S:
i

(Pour ! = 1 on retrouve la mthode de GaussSeidel.)


Lalgorithme ci-dessus peut aussi scrire (en multipliant par Ai;i la ligne 3 de lalgorithme
(1.10)) :
8
>
< " x(0) 2 Rn #
(k+1) P (k+1) P (k) (k) (1.13)
>
: Ai;i xi =! Ai;j xj Ai;j xj + bi + (1 !) Ai;i xi
j<i i<j

On obtient donc

(D !E) x(k+1) = !F x(k) + !b + (1 !) Dx(k) :

Lalgorithme SOR scrit donc comme une mthode II avec

~ =D
M ~ =F+
E et N
1 !
D:
! !

~ N
Il est facile de vrier que A = M ~.
Lalgorithme SOR scrit aussi comme une mthode I avec
1
D 1 !
B= E (F + D):
! !

On notera L! cette matrice.


En symtrisant" le procd de la mthode SOR, c..d. en eectuant les calculs SOR sur
les blocs dans lordre 1 N puis dans lordre N 1, on obtient la mthode de sur-relaxation
symtrise (SSOR = Symmetric Successive Over Relaxation) qui scrit dans le formalisme de
la mthode I avec
1 1
D 1 ! D 1 !
B= F (E + D) E (F + D) :
! ! ! !
| {z }| {z }
calcul dans l0ordre S:::1 calcul dans l0ordre 1:::S

Etude thorique de convergence


On aimerait pouvoir rpondre aux questions suivantes :
1. Les mthodes sontelles convergentes ?
2. Peut-on estimer leur vitesse de convergence ?

27
CHAPITRE 1. RSOLUTION DES SYSTMES LINAIRES

3. Peut-on estimer le coe cient de relaxation ! optimal dans la mthode SOR, c..d. celui
qui donnera la plus grande vitesse de convergence ?
On va maintenant donner des rponses, partielles dans certains cas, faute de mieux, ces
questions.
Convergence On rappelle quune mthode itrative de type I, i.e. crite sous la forme
(n+1)
x = Bx(n) + C converge si et seulement si (B)n1.

Thorme 1.4.4 (Sur la convergence de la mthode SOR) Soit A 2 Mn (R) qui admet
une dcomposition par blocs dnie dans la dnition 1.3 ; soient D la matrice constitue par
les blocs diagonaux, E (resp. F ) la matrice constitue par les blocs triangulaires infrieurs
(resp. suprieurs) ; on a donc : A = D E F . Soit L! la matrice ditration de la mthode
SOR (et de la mthode de GaussSeidel pour ! = 1) dnie par :
1
D 1 !
L! = E (F + D); ! 6= 0:
! !

Alors :
1. Si (L! ) < 1 alors 0 < ! < 2.
2. Si on suppose de plus que A symtrique dnie positive, alors :

(L! ) < 1 si et seulement si 0 < ! < 2:

En particulier , si A est une matrice symtrique dnie positive, la mthode de GaussSeidel


converge.

Remarque 1.4.5 On a vu (thorme 1.35) que si A est une matrice symtrique dnie positive,
la mthode de GaussSeidel converge. Par contre, mme dans le cas o A est symtrique dnie
positive, il existe des cas o la mthode de Jacobi ne converge pas.

Remarquons que le rsultat de convergence des mthodes itratives donn par le thorme
prcdent nest que partiel, puisquil ne concerne que les matrices symtriques dnies positives
et que les mthodes Gauss-Seidel et SOR. On a aussi un rsultat de convergence de la mthode
de Jacobi pour les matrices diagonale dominante stricte, et un rsultat de comparaison des
mthodes pour les matrices tridiagonales par blocs, voir le thorme 1.3.5 donn ci-aprs. Dans
la pratique, il faudra souvent compter sur sa bonne toile. . .
Estimation du coe cient de relaxation optimal de SOR
La question est ici destimer le coe cient de relaxation, optimal dans la mthode SOR,
c..d. le coe cient, ! 0 2 ]0; 2[ (condition ncessaire pour que la mthode SOR converge, voir
thorme 1.3.4) tel que (L!0 ) < (L! ) 8! 2 ]0; 2[.
Daprs le paragraphe prcdent ce ! 0 donnera lameilleure convergence possible pour SOR.
On sait le faire dans le cas assez restrictif des matrices tridiagonales par blocs.

Thorme 1.4.5 (Coe cient optimal, matrice tridiagonale) On considre une matrice
A 2 Mn (R) qui admet une dcomposition par blocs dnie dans la dnition 1.3 ; on suppose

28
1.4. MTHODES ITRATIVES

que la matrice A est tridiagonale par blocs, c..d. Ai;j = 0 si ji jj > 1 ; soient L1 et J les
matrices ditration respectives des mthodes de Gauss-Seidel et Jacobi, alors :
1. (L1 ) < ( (J))2 : la mthode de GaussSeidel converge (ou diverge) donc plus vite que
celle de Jacobi.
2. On suppose de plus que toutes les valeurs propres de la matrice ditration J de la mthode
de Jacobi sont relles. alors le paramtre de relaxation optimal, c..d. le paramtre ! 0 tel que
(L!0 ) = min f (L! ) ; ! 2 ]0; 2[g, sexprime en fonction du rayon spectral (J) de la matrice
J par la formule :
2
!0 = q > 1;
1+ 1 (J)2
et on a : (L!0 ) = ! 0 1:

29
TRAVAUX DIRIGS 1

Travaux dirigs 1

Exercice 01 :
Soit le systeme lineaire suivant :

]V%
&&
,
- .  

+= VM&

 

(V% ]
 " J 

a) Resoudre ce systeme par la methode de Gauss.


b) Factoriser la matrice du systeme en produit ou est une matrice tri-
angulaire inferieure (avec des 1 sur la diagonale principale) et triangulaire
superieure, puis resoudre ce systeme.
Exercice 02 :
V

Soit le systeme lineaire


ou :
 ,
, et








 Factoriser la matrice en produit  puis resoudre le systeme.

Exercice 03

Soit A Mn (IR) une matrice symtrique dnie positive.


1. On suppose ici que A est tridiagonale. Estimer le nombre d'oprations de la fact
orisation LL t dans ce cas.
2. Mme question si A est une matrice bande (c'est--dire p diagonales non nulles).
3. En dduire une estimation du nombre d'oprations ncessa ires pour la discrtisation de l'quation
u = f Mme question pour la discrtisation de l'quat ion u = f .

Exercice 04
Soit a IR et
1 a a
A= a 1 a
a a 1
Montrer que A est symtrique dfinie positive si et seulement si 1/2 < a < 1
et que la mthode de Jacobi
converge si et seulement si 1/2 < a < 1/2.
30
Exercice 05

0 1
2 1
1. Soit A = .
1 0
Calculer la dcomposition LDLt de A. Existe-t-il une dcomposition LLt de A ?

2. Montrer que toute matrice de MN (IR) symtrique dfinie positive admet une dcomposition LDLt .
0 1
t 0 1
3. Ecrire lalgorithme de dcomposition LDL . La matrice A = admet-elle une dcomposition LDLt ?
1 0

Exercice 06

Soit N 1. Soit A = (ai,j )i,j=1,...,N MN (IR) une matrice symtrique. On note D la partie diagonale de A,
E la partie triangulaire infrieure de A et F la partie triangulaire suprieure de A, cest--dire :

D = (di,j )i,j=1,...,N , di,j = 0 si i %= j, di,i = ai,i ,


E = (ei,j )i,j=1,...,N , ei,j = 0 si i j, ei,j = ai,j si i > j,
F = (fi,j )i,j=1,...,N , fi,j = 0 si i j, fi,j = ai,j si i < j.
Noter que A = D E F . Soit b IR N . On cherche calculer x IR N t.q. Ax = b. On suppose que D est
dfinie positive (noter que A nest pas forcment inversible). On sintresse ici la mthode de Jacobi (par points),

Initialisation. x(0) IR N
Itrations. Pour n IN, Dx(n+1) = (E + F )x(n) + b.

On pose J = D1 (E + F ).
1. Montrer, en donnant un exemple avec N = 2, que J peut ne pas tre symtrique.
2. Montrer que J est diagonalisable dans IR et, plus prcisement, quil existe une base de IR N , note {f1 , . . . ,
fN }, et il existe {1 , . . . , N } IR t.q. Jfi = i fi pour tout i {1, . . . , N } et t.q. Dfi fj = i,j pour
tout i, j {1, . . . , N }.
En ordonnant les valeurs propres de J, on a donc 1 . . . N , on conserve cette notation dans la suite.
3. Montrer que la trace de J est nulle et en dduire que 1 0 et N 0.
On suppose maintenant que A et 2D A sont symtriques dfinies positives et on pose x = A1 b.
4. Montrer que la mthode de Jacobi (par points) converge (cest--dire x(n) x quand n ). [Utiliser un
thorme du cours.]
On se propose maintenant damliorer la convergence de la mthode par une technique de relaxation. Soit
> 0, on considre la mthode suivante :
Initialisation. x(0) IR N
Itrations. Pour n IN, Dx(n+1) = (E + F )x(n) + b, x(n+1) = x(n+1) + (1 )x(n) .
5. Calculer les matrices M (inversible) et N telles que M x(n+1) = N x(n) + b pour tout n IN, en
fonction de , D et A. On note, dans la suite J = (M )1 N .

31
TRAVAUX DIRIGS 1

6. On suppose dans cette question que (2/)D A est symtrique dfinie positive. Montrer que la mthode
converge (cest--dire que x(n) x quand n .)
7. Montrer que (2/)D A est symtrique dfinie positive si et seulement si < 2/(1 1 ).
8. Calculer les valeurs propres de J en fonction de celles de J. En dduire, en fonction des i , la valeur
optimale" de , cest--dire la valeur de minimisant le rayon spectral de J .
Exercice 07
Soit A = (ai;j )i;j2f1;:::;N g 2 Mn (R).
1. On munit Rn de la norme k k et: M 1 (R)Pde
n la norme induite correspondante, note aussi
k:k1 .Montrer que kAk1 = maxi2f1;:::;N g N j=1 jai;j j :
2. On munit Rn de la norme k:k1 et M (R) de la norme induite correspondante, note aussi
PnN
k:k1 . Montrer que kAk1 = maxj2f1;:::;N g i=1 jai;j j :
3. On munit Rn de la norme k:k2 et Mn (R) de la norme induite correspondante, note aussi
1
k:k2 . Montrer que kAk2 = ( (At A)) 2 :

Exercice 08
Soient A 2 Mn (R) et k:k une norme matricielle.
1. Montrer que si (A) < 1, les matrices Id A et Id + A sont inversibles.
2. Montrer que la srie de terme gnral Ak converge (vers (Id A) 1 ) si et seulement si
(A) < 1.

Exercice 09

Rsoudre le systme par la mthode de Gauss

8
>
> 2x1 + x2 + x4 = 2
<
4x1 2x2 + 3x3 7x4 = 9
(1)
>
> 4x1 + x2 2x3 + 8x4 = 2
:
3x2 12x3 x4 = 2

32
SUGGESTIONS ET CORRIGS

Suggestions et Corrigs

Exercice 01

]V%
&&
,
- . " 

VM&
~
 

(V% ]
 u J 

Ce systeme secrit sous la forme , ou


 



 et



 

Posons m

n
, on calcule
m
n
m
n
m
n
, ou



n

m

dou :
;





on calcule m n

m
n
m
n
, ou


n



m

Donc,
;





La matrice m est ainsi triangulaire superieure, cest la matrice recherchee.
n n n n n n
Dautre part, on a m m m m m m , on en deduit donc que
 

m
 n



m
n



m
n

m
n

33
Ainsi, 6m
n
, avec


 


7 7

On a ainsi factorise sous la forme :





 


7
2


Presantation de la methode didentification
Resoudre revient a resoudre . On pose alors

, la
resolution du systeme initial revient a resoudre successivement les deux systemes
triangulaires :




;
; ; ;


 

 

7


2

Finalement, on resout :
;
V ; ;
;

 
 





Exercice 02
Soit le systeme lineaire

ou :



 et



Posons m

Factorisons la matrice en produit  .
n
, on calcule m
n
m
n
m
n
, ou


m

n





34
SUGGESTIONS ET CORRIGS

dou :

m
n



on calcule m n

m
n
m
n
, ou



m
n



Donc,

m
n


3


La matrice m est ainsi triangulaire superieure, cest la matrice recherchee.
n n n nP n n
Dautre part, on a m m m m m m . On en deduit donc
 

m

n



m
n



m
n

m
n

Ainsi, m
n
, avec






 

se factorise donc sous la forme :






3

Resolvons le systeme

. Cela revient a resoudre , cest a
dire a resoudre successivement les systemes puis .


 














Finalement, on resout :
V






 

3 

35
Exercice 03

On utilise le rsultat de conservation du profil de la matrice nonc dans le cours. Comme A est symtrique,
le nombre p de diagonales de la matrice A est forcment impair si A ; notons q = p1 2 le nombre de sous- et
sur-diagonales non nulles de la matrice A, alors la matrice L aura galement q sous-diagonales non nulles.

1. Cas dune matrice tridiagonale. Si on reprend lalgorithme de construction de la matrice L vu en cours, on


remarque que pour le calcul de la colonne n + 1, avec 1 n < n 1, on a le nombre doprations suivant :
Xn
Calcul de n+1,n+1 = (an+1,n+1 n+1,k n+1,k )1/2 > 0 :
k=1
une multiplication, une soustraction, une extraction de !
racine, soit 3 oprations lmentaires.
Xn
1
Calcul de n+2,n+1 = an+2,n+1 n+2,k n+1,k :
n+1,n+1
k=1
une division seulement car n+2,k = 0.
On en dduit que le nombre doprations lmentaires pour le calcul de la colonne n + 1, avec 1 n < n 1, est
de 4.
Or le nombre doprations pour la premire et dernire colonnes est infrieur 4 (2 oprations pour la premire
colonne, une seule pour la dernire). Le nombre Z1 (n) doprations lmentaires pour la dcomposition LLt de A
peut donc tre estim par : 4(n 2) Z1 (n) 4n, ce qui donne que Z1 (n) est de lordre de 4n (le calcul exact
du nombre doprations, inutile ici car on demande une estimation, est 4n 3.)

2. Cas dune matrice p diagonales.


On cherche une estimation du nombre doprations Zp (n) pour une matrice p diagonales non nulles (ou q sous-
diagonales non nulles) en fonction de n.
On remarque que le nombre doprations ncessaires au calcul de
n
X
n+1,n+1 = (an+1,n+1 n+1,k n+1,k )1/2 > 0,
k=1

n
!
X 1
et i,n+1 = ai,n+1 i,k n+1,k ,
n+1,n+1
k=1
Pn
est toujours infrieur 2q + 1, car la somme k=1 fait intervenir au plus q termes non nuls.
De plus, pour chaque colonne n + 1, il y a au plus q + 1 coefficients i,n+1 non nuls, donc au plus q + 1 coefficients
calculer. Donc le nombre doprations pour chaque colonne peut tre major par (2q + 1)(q + 1).
On peut donc majorer le nombre doprations zq pour les q premires colonnes et les q dernires par 2q(2q +
1)(q + 1), qui est indpendant de n (on rappelle quon cherche une estimation en fonction de n, et donc le nombre
zq est O(1) par rapport n.)
Calculons maintenant le nombre doprations xn ncessaires une colonne n = q + 1 n q 1. Dans (1.50) et
(1.51), les termes non nuls de la somme sont pour k = i q, . . . , n, et donc on a (n i + q + 1) multiplications
et additions, une division ou extraction de racine. On a donc

36
SUGGESTIONS ET CORRIGS

Exercice 04
Si a = 0, alors A = Id, donc A est s.d.p. et la mthode de Jacobi converge.
Si a %= 0, posons a = (1 ), et calculons le polynme caractristique de la matrice A en fonction de la
variable . V V V V
V a a a V V 1 1 V
V V V V
P () = det VV a a a VV = a3 det VV 1 1 VV = a3 (3 3 + 2).
V a a a V V 1 1 V

On a donc P () = a3 ( 1)2 ( + 2). Les valeurs propres de la matrice A sont donc obtenues pour = 1 et
= 2, cestdire : 1 = 1 a et 2 = 1 + 2a.
La matrice A est dfinie positive si 1 > 0 et 2 > 0, cestdire si 21 < a < 1.
La mthode de Jacobi scrit :
X (n+1) = D1 (D A)X (n) ,
avec D = Id dans le cas prsent ; donc la mthode converge si et seulement si (D A) < 1.
Les valeurs propres de D A sont de la forme = 1 o est valeur propre de A. Les valeurs propres de
D A sont donc 1 == a (valeur propre double) et 2 = 2a.. On en conclut que la mthode de Jacobi converge
si et seulement si 1 < a < 1 et 1 < 2a < 1, i.e. 12 < a < 12 .
La mthode de Jacobi ne converge donc que sur lintervalle ] 12 , 12 [ qui est strictement inclus dans lintervalle
] 12 , 1[ des valeurs de a pour lesquelles la matrice A est s.d.p..

Exercice 05
' 1 0 ( ' 0 (
1. On pose L = et D = .
1 0
Par identification, on obtient = 2, = 21 et = 12 .
' a 0 (
Si maintenant on essaye dcrire A = LLt avec L = , on obtient c2 = 12 ce qui est impossible dans IR.
b c
En fait, on peut remarquer quil est normal que A nadmette pas de dcomposition LLt , car elle nest pas dfinie
positive. En effet, soit x = (x1 , x2 )t IR 2 ,, alors Ax x = 2x1 (x1 + x2 ), et en prenant x = (1, 2)t , on a
Ax x < 0.
2. 2. Reprenons en ladaptant la dmonstration du thorme 1.3. On raisonne donc par rcurrence sur la dimension.
1. Dans le cas N = 1, on a A = (a1,1 ). On peut donc dfinir L = ()1,1 ) o )1,1 = 1, D = (a1,1 ), d1,1 %= 0, et
on a bien A = LDLt .
2. On suppose que, pour 1 p N , la dcomposition A = LDLt sobtient pour A Mp (IR) symtrique
dfinie positive ou ngative, avec di,i %= 0 pour 1 i N et on va dmontrer que la proprit est encore
vraie pour A MN +1 (IR) symtrique dfinie positive ou ngative. Soit donc A MN +1 (IR) symtrique
dfinie positive ou ngative ; on peut crire A sous la forme :

B a

A=


at

37
o B MN (IR) est symtrique dfinie positive ou ngative (calculer Axx avec x = (y, 0)t , avec y IR N
pour le vrifier), a IR N et IR.
Par hypothse de rcurrence, il existe une matrice M MN (IR) M = (mi,j )N i,j=1 et une matrice diagonale
D = diag(d1,1 , d2,2 , . . . , dN,N ) dont les coefficients sont tous non nuls, telles que :
(a) mi,j = 0 si j > i
(b) mi,i = 1
(c) B = M DM t .
On va chercher L et D sous la forme :

M 0 D 0

L=

, D =

,

bt 1 0

avec b IR N , IR tels que LDLt = A. Pour dterminer b et , calculons LDLt avec L et D de la forme
(1.8.75) et identifions avec A :
t
M 0 D 0 M b M DM t M Db

LDLt =




=



t t t t
b 1 0 0 1 b DM b Db +
On cherche b IR N et IR tels que LDLt = A, et on veut donc que les galits suivantes soient
vrifies :
M Db = a et bt Db + = .
;N
La matrice M est inversible (en effet, le dterminant de M scrit det(M ) = i=1 1 = 1). Par hypothse
de rcurrence, la matrice D est aussi inversible. La premire galit ci-dessus donne : b = D1 M 1 a. On
calcule alors = bt M 1 a. Remarquons quon a forcment %= 0, car si = 0,

M DM t M Db

A = LDLt =


bt DM t bt Db

qui nest pas inversible. En effet, si on cherche (x, y) IR N IR solution de



M DM t M Db x 0

= ,

t t t y 0
b DM b Db

on se rend compte facilement que tous les couples de la forme (M t by, y)t , y IR, sont solutions. Le
noyau de la matrice nest donc pas rduit {0} et la matrice nest donc pas inversible. On a ainsi montr que
dN +1,N +1 %= 0 ce qui termine la rcurrence.

38
SUGGESTIONS ET CORRIGS

3. On reprend lalgorithme de dcomposition LLt :


Soit A MN (IR) symtrique dfinie positive ou ngative ; on vient de montrer quil existe une matrice L
MN (IR) triangulaire infrieure telle que )i,j = 0 si j > i, )i,i = 1, et une matrice D MN (IR) diagonale
inversible, telles que et A = LDLt . On a donc :
N
%
ai,j = )i,k dk,k )j,k , (i, j) {1, . . . , N }2 .
k=1
1. Calculons la 1re colonne de L ; pour j = 1, on a :
a1,1 = d1,1 donc d1,1 = a1,1 ,
a2,1
a2,1 = )2,1 d1,1 donc )2,1 = ,
d1,1
ai,1
ai,1 = )i,1 )1,1 donc )i,1 = i {2, . . . , N }.
)1,1

2. On suppose avoir calcul les n premires colonnes de L. On calcule la colonne (n + 1) en prenant j = n + 1


dans
% n
Pour i = n + 1, an+1,n+1 = )2n+1,k dk,k + dn+1,n+1 donc
k=1
n
%
dn+1,n+1 = an+1,n+1 )2n+1,k dk,k .
k=1

On procde de la mme manire pour i = n + 2, . . . , N ; on a :


n+1
% n
%
ai,n+1 = )i,k dk,k )n+1,k = )i,k dk,k )n+1,k + )i,n+1 dn+1,n+1 )n+1,n+1
k=1 k=1

et donc, comme on a montr dans la question 2 que les coefficients dk,k sont tous non nuls, on peut crire :
< n
=
% 1
)i,n+1 = ai,n+1 )i,k dk,k )n+1,k .
dn+1,n+1
k=1

39
Exercice 06
1. J = D1 (E + F ) peut ne pas tre symtrique, mme si A est symtrique :
0 1
2 1
En effet, prenons A = .
1 1
Alors 0 1 10 1 0 1 0 1
1 2 0 0 1 0 12 0 1
J = D (E + F ) = = %= 1 .
0 1 1 0 1 0 2 0
donc J nest pas symtrique.
2. On applique lexercice prcdent pour lapplication linaire T de matrice D, qui est, par hypothse, dfinie
positive (et videmment symtrique puisque diagonale) et S = E + F , symtrique car A est symtrique.
Il existe donc (f1 . . . fN ) base de E et (1 . . . N ) IR N tels que

Jfi = D1 (E + F )fi = i fi , i = 1, . . . , N, et (Dfi , fj ) = ij .

N
%
3. Par dfinition de J, tous les lments diagonaux de J sont nuls et donc sa trace galement. Or T rJ = i .
i=1
Si i > 0 i = 1, . . . , N , alors T rJ > 0, donc i0 ; i 0 et comme 1 i0 , on a 1 0. Un
raisonnement similaire montre que N 0.
4. La mthode de Jacobi converge si et seulement si (J) < 1 (thorme 1.27 page 28). Or, par la question
prcdente, (A) = max(1 , N ). Supposons que 1 1, alors 1 = , avec 1. On a alors
D1 (E +F )f1 = f1 ou encore (E +F )f1 = Df1 , ce qui scrit aussi (D +E +F )f1 = D(1)f1
cestdire (2D A)f1 = Df1 avec 0. On en dduit que ((2D A)f1 , f1 ) = 0, ce qui contredit
le fait que 2D A est dfinie positive. En consquence, on a bien 1 1.
Supposons maintenant que N = 1. On a alors D1 (E + F )f1 = fN , soit encore (E + F )fN =
DfN . On en dduit que AfN = (D E F )fN = D(1 )fN = DfN avec 0. On a
alors(AfN , fN ) 0, ce qui contredit le fait que A est dfinie positive.
5. Par dfinition, on a :Dx(n+1) s = (E + F )x(n) + b et x(n+1) = x(n+1) + (1 )x(n). On a donc x(n+1) =
[D1 (E+F )x(n) +D1 b]+(1)x(n) cestdire x(n+1) = [Id(IdD1 (E+F ))]x(n) +D1 b,,
soit encore 1 Dx(n+1) = [ 1 D (D (E + F ))]x(n) + b. On en dduit que M x(n+1) = N x(n) + b avec
M = 1 D et N = 1 D A.
6. La matrice ditration est donc maintenant J = M1 N qui est symtrique pour le produit scalaire
(, )M donc en reprenant le raisonnement de la question 2, il existe une base (f1 , . . . , fN ) (IR N )N
et (1 , . . . N ) IR N tels que
0 1
1
J fi = M 1
N fi = D 1
D A fi = i fi , i = 1, . . . , N,

1
et Dfi f = , i, = 1, . . . , N, j, = 1, . . . , N.

Supposons 1 1, alors 1 = , avec 1 et D1 ( 1 D A)f1 = f1 , ou encore 1 D Af1 =


1 1 2
Df1 . On a donc 2 D Af1 = (1 ) Df1 , ce qui entrane ( D A)f1 f1 0. Ceci contredit

2
lhypothse D A dfinie positive.

40
SUGGESTIONS ET CORRIGS

De mme, si N 1, alors N = avec 1. On a alors


1 1
( D A)fN = DfN ,

et donc AfN = (1) 1 DfN ce qui entrane en particulier que AfN fN 0 ; or ceci contredit lhypothse
A dfinie positive.
7. On cherche une condition ncessaire et suffisante pour que
0 1
2
D A x x > 0, x %= 0,

ce qui est quivalent 0 1


2
D A fi fi > 0, i = 1, . . . , N,

o les (fi )i=1,N sont les vecteurs propres de D1 (E + F ). En effet, la famille (fi )i=1,...,N est une base de
IR N , et 0 1 0 1
2 2
D A fi = D D + (E + F ) fi
0 1
2
= 1 Dfi + i Dfi
0 1
2
= 1 + i Dfi .

' (
On a donc en particulier 2 D A fi fj = 0 is i %= j, ce qui prouve que (1.8.86) est quivalent (1.8.87).
De (1.8.87), on dduit, grce au fait que (Dfi , fi ) = 1,
00 1 1 0 1
2 2
D A fi , fi = 1 + i .

On veut donc que 2 1 + 1 > 0 car 1 = inf i , cestdire : 2 < 1 1, ce qui est quivalent :
2
< .
1 1
8. La matrice ditration J scrit :
1
1 1 1
J = D DA = I , avec I = D1 ( D A).

Soit une valeur propre de I associe un vecteur propre u ; alors :


0 1 0 1
1 1 1
D D A u = u, i.e. D A u = Du.

On en dduit que 1 0
1
(D A)u + 1 Du = Du, soit encore

0 1
1 1
D (E + F )u = 1 + u.

41
Or fi est vecteur prore de D1 (E + F ) associe la valeur propre i (question 2). On a donc :
0 1
1 1
D (E + F )fi = i fi = 1 + fi ,

0 1
1 1 () 1
ce qui est vrai si i = 1 + , cestdire = i 1 . Donc i = i 1 est valeur

propre de J associe au vecteur propre fi .
On cherche maintenant minimiser le rayon spectral
1
(J ) = sup |(i 1 )|
i

On a
1 1 1
(1 1 ) (i 1 ) (N 1 ),

et
1 1 1
(N 1 ) (1 1 ) (i 1 ),

donc 0 1
1 1
(J ) = max |(N 1 )|, | (1 1 |)

dont le minimum est atteint (voir Figure 1.8) pour
2
(1 1 ) 1 = 1 (1 N ) cestdire = .
2 1 N

Exercice 07
P
1. Pour montrer lgalit, prendre x tel que xj = sign(ai0 ;j ) o i0 est tel que j=1;:::;N jai0 ;j j
P
j=1;:::;N jai;j j ; 8i = 1; :::; N , et sign(s) dsigne le signe de s.

2. Pour montrer lgalit, prendre x tel que xj0 = 1 et xj = 0 si j 6= j0, o j0 est tel que
P P
j=1;:::;N jai;j0 j = i=1;:::;N jai;j j :

3. Utiliser le fait que At A est une matrice symtrique positive pour montrer lingalit, et
pour lgalit, prendre pour x le vecteur propre associ la plus grande valeur propre de A.
Exercice 08
1. Montrer que si (A) < 1, alors 0 nest pas valeur propre de Id + A et Id A.
2. Utiliser le rsultat de Rayon spectral.

42
SUGGESTIONS ET CORRIGS

Exercice 09

Le systme (1) scrit encore : Ax = b avec


0 1 0 1 0 1
2 1 0 4 2 x1
B 4 2 3 7 C B 9 C B x2 C
A =B
@ 4
C ; b=B C et x = B C
1 2 8 A @ 2 A @ x3 A
0 3 12 1 2 x4

1ere tape :
(1)
? Le pivot a11 = 2 6= 0
0 1 1 0
2 1 0 4 2 1 20 4 2
B 4 2 3 7 9 C B 5 C
B C ! B 0 0 3 1 C
@ 4 1 2 8 2 A @ 0 1 2 0 2 A
0 3 12 1 2 0 3 12 1 2

. .
A(1) ..b(1) ! A(2) ..b(2)

2eme tape :
.
Dans A(2) ..b(2) on constate que le pivot a22 = 0. Do on fait une permutation des lignes
(2)

(2) . (2)
2 et 3 (par exemple) : Ce qui revient considerer A .. b avec :

0 1
8 (2) 1 0 0 0
< B 0
A = P (2) A(2) 0 1 0 C
(2) ou P (2) =B C
: 0 1 0 0
b = P (2) b(2)
0 0 0 1
(2)
On a alors : Le pivot a22 6= 0
(2) (2)
a22 = a22 = 1
et 0 1 0 1
2 1 0 4 2 2 1 0 4 2
B 0 2 C B 2 C
B 1 2 0 C !B 0 1 2 0 C
@ 0 0 3 1 5 A @ 0 0 3 1 5 A
0 3 12 1 2 0 0 6 1 8
(2) . (2) .
A .. b ! A(3) .. b(3)

3eme tape :
(3)
? Le pivot a33 = 3 6= 0

43
0 1 0 1
2 1 0 4 2 2 1 0 4 2
B 0 2 C B 2 C
B 1 2 0 C !B 0 1 2 0 C
@ 0 0 3 1 5 A @ 0 0 3 1 5 A
0 3 12 1 2 0 0 6 1 8

. .
A(3) .. b(3) ! A(4) .. b(4)

Rsolution de A0 x = b0 :
. .
Posons A0 .. b0 = A(4) .. b(4) : On a alors
0 10 1 0 1
2 1 0 4 x1 2
B 0 1 2 0 C B C B 2 C
A0 x = b0 () B C B x2 C = B C
@ 0 0 3 1 A @ x3 A @ 5 A
0 0 0 1 x4 2
8 8
>
> 2x 1 + x 2 0x 3 + 4x 4 = 2 >
> x1 = 3
< <
x2 2x3 + 0x4 = 2 x2 = 4
() ()
>
> 3x3 + x4 = 5 >
> x3 = 1
: :
x4 = 2 x4 = 2

44
Chapitre 2

Calcul des valeurs et vecteurs propres

Les valeurs propres dune matrice sont un outil prcieux pour lingnieur. Comme application
principale, on notera le calcul des oscillations propres dun systme quil soit mcanique ou
lectrique. Les valeurs propres peuvent galement donner linformation contenue dans un grand
ensemble de donnes, telles les directions principales dun nuage de points, ou linformation
contenue dans un grand graphe. Et la liste ne sarrte videmment pas l. Rappelons tout
dabord la dnition mathmatique dune valeur propre et de son vecteur propre associ.
Dnition 2.0.1 Soit A 2 Rn n une matrice relle. La valeur 2 C est une valeur propre de
A sil existe v 2 Cn v 6= 0 (appel vecteur propre associ ) tel que Av = v.
La question du calcul des valeurs propres dune matrice est fondamentale. Il est cependant
peu pratique de devoir calculer les racines du polynme caractristique dune matrice det(A I)
an den connatre les valeurs propres.
Dans cette section, nous allons montrer comment on peut obtenir trs rapidement quelques
valeurs propres et leurs vecteurs propres associs en appliquant une mthode itrative, connue
sous le nom de mthode de la puissance. La question du calcul de toutes les valeurs propres
dune matrice, bien quimportante, dborde du cadre de ce cours.

2.1 Mthode de la puissance


Soit une matrice relle A 2 Rn n . Dans cette section, nous supposons que les valeurs propres
de A sont telles que
j 1 j > j 2 j j 3 j ::: j n j
et que chaque valeur propre i a un vecteur propre associ v (i) :La mthode de la puissance
est une mthode itrative qui sert a trouver une approximation de 1 . Notons limportance de
la condition de stricte ingalit j 1 j > j 2 j.
Nous supposons dabord que les vecteurs propres de A forment une base linaire de Cn .
Nous partons dun vecteur complexe arbitraire w(0) 2 Cn .
Celui-ci peut scrire comme une combinaison linaire des dirents vecteurs propres de A.
On a donc
w(0) = 1 v (1) + 2 v (2) + ::: + n v (n) (01)

45
CHAPITRE 2. CALCUL DES VALEURS ET VECTEURS PROPRES

avec i 2 C pour tout i : Supposons encore que 1 6= 0 : Nous procdons prsent aux
direntes itrations de la m ethode de la puissance. On calcule successivement
w(1) = Aw(0)
w(2) = Aw(1) = A2 w(0)
...
w(k) = Aw(k 1) = Ak w(0) :
Si on reprend (1), on peut egalement crire
w(k) = Ak w(0)
= Ak ( 1 v (1) + ::: + n v (n) )
= 1 k1 v (1) + ::: + n kn v (n)
en utilisant la proprit des vecteurs propres. Finalement, la dernire expression se recrit

k 2 k (2) n k (n)
w(k) = 1 1v
(1)
+ 2( ) v + ::: + n( ) v
1 1

Comme j 1 j > j j j pour tout j 6= 1, tous les termes ( 1j )k tendent vers 0 quand k tend vers
linni. A linni, la quantit w(k) tend donc vers la
direction du vecteur propre dominant de A. En gnral videmment, soit si j 1 j > 1, la
quantit tend vers linni, soit si j 1 j < 1, la quantit tend vers 0, et il sera di cile de localiser
la vraie direction. Dans la pratique, on procde donc la normalisation des vecteurs aprs
chaque tape :
(k) w(k)
z = (k)
; w(k+1) = Az (k) :
kw k
Le processus converge alors vers le vecteur propre dominant. On peut obtenir la valeur
propre dominante en calculant chaque tape
T
k = z (k) w(k+1)

qui converge vers 1. En eet, on a


T
z (k) Az (k)
k = (k)T (k)
z z
qui converge vers 1 si zk converge vers v (1) . Remarquons que le processus que nous venons
de dcrire converge vers le vecteur propre avec une vitesse dpendant du ratio j 2 j = j 1 j. Plus
ce quotient est petit, plus la convergence est rapide. Le processus ne convergera donc pas vite
pour des matrices pour lesquelles les deux valeurs propres dominantes sont proches. Une faon
dacclrer le processus est de travailler avec une matrice B = A mI. En eet toutes les valeurs
propres de B sont exactement i m : Si on connat une approximation des valeurs propres, il
peut tre possible damliorer le ratio j 2 mj = j 1 mj. En rgle gnrale, on na videmment
pas accs aux valeurs propres et il est donc di cile de trouver le m optimal. Remarquons quon
peut aussi se servir de cette astuce pour calculer une autre valeur propre. En eet, si on applique
la mthode de la puissance B := A mI, celle-ci va converger vers la valeur propre la plus
loigne de m.

46
2.1. MTHODE DE LA PUISSANCE

Exemple
Soit la
0 matrice A : 1
1 2 0
A= @ 2 1 0 A
0 0 1
0 1
1
On se donne le vecteur : V1 = @ 0 A
0
partir duquel on construit la suite de vecteurs AV1 ; A2 V1 ; :::, reporte dans le tableau
ci-dessous.
1 5 13=5 41=13 121=41 365=121 ::::::
1 1 1 1 1 1 1
4 14 40 122 364
v 0 2 5 13 41 121 365
::::::
0 0 0 0 0 0 0
Les composantes des vecteurs de ce tableau ont t divises par0la premire
1 composante.
1
Il est clair que la suite des vecteurs tend vers le vecteur : u1 = @ 1 A
0
et que la suite des valeurs de converge vers la valeur 1 = 3:
La matrice A considre tant symtrique, le vecteur propre de sa transpose, correspondant
la valeur propre
0 1 1 sera :
1
v 1 = u1 = @ 1 A
0
Construisons prsent la matrice A1 qui est telle que :
0 1
t 1=2 1=2 0
u1 v 1 @
A1 = A 1 t = 1=2 1=2 0 A
v 1 u1
0 0 1
1 0
1
On se donne nouveau un vecteur V1 : V1 = @ 0 A
0
et on procde de la mme manire quavec la matrice A
1
2
5 13=5 41=13
1 1 1 1
v 0 1 1 1 ::::::
0 0 0 0
01
1
On voit que cette suite de vecteurs converge vers le vecteur propre : u2 = @ 1 A
0
et que la valeur propre qui lui correspond est 2 = 1:

47
CHAPITRE 2. CALCUL DES VALEURS ET VECTEURS PROPRES

On recommence le processus0 en dnissant


1 une matrice A2 partir de A1 ; u1 et v2 = u2 :
0 0 0
u2 t v 2 @ 0 0 0 A
A2 = A1 1 t v 2 u2 =
0 0 1
Il 0
est clair
1 que la valeur propre de cette matrice est 3 = 1 et que le vecteur propre est :
0
u3 = @ 0 A
1

2.2 Calcul de la valeur propre de plus petit module


Il est galement possible de calculer la valeur propre de plus petit module ( condition
quelle soit non nulle) avec la mthode de la puissance. En eet,
si A est inversible, on peut voir que si est une valeur propre de A, alors on a

1 1
Ax = x , x = A ( x) , A 1 x = x

Ds lors, si est une valeur propre de A, 1 est une valeur propre de A 1 . On en dduit aussi
que si est la valeur propre de plus petit module de A, 1 sera la valeur propre de plus grand
module deA 1 . On peut donc appliquer la mthode de la puissance de manire totalement
similaire avec A 1 et ecrire
w(k)
z (k) = ; w(k+1) = A 1 z (k) :
kw(k) k

Remarquons que dans la dernire expression, il nest pas ncessaire dectuer la coteuse
opration de linversion de la matrice A. On peut tout fait se contenter dune factorisation
LU de la matrice et rsoudre le systme Aw(k+1) = z (k) a chaque itration. Finalement, on
peut remarquer que lon peut se servir de la mthode inverse de la puissance, associe un
changement de matrice B = A mI pour trouver la valeur propre qui est la plus proche dun
scalaire m.

2.3 Calcul dautres valeurs propres


Supposons que lon ait trouv la valeur propre dominante 1 de A. On souhaite prsent
calculer la deuxime valeur propre de plus grand module, savoir 2 .
La mthode que nous dcrirons en premier lieu ne convient que pour une matrice A sym-
trique. Si 1 et v 1 sont respectivement la valeur propre et le vecteur propre dj- calculs, on
forme la matrice
1 1T
A=A 1v v (02)
Comme la matrice A est symtrique, A1 lest aussi. On calcule que A1 v 1 = 0 et que A1 v j =
j j
j v pour tout vecteur propre v associ une valeur propre j ; j = 2; 3; :::; n: Par consquent,

48
2.4. ALGORITHME QR

A1 a tous les vecteurs propres de A et toutes ses valeurs propres except 1 qui est remplace
par zro.
Lorsque 2 et v 2 ont t calculs a partir de A1 , le processus peut tre rpt en formant
2 2T
A 2 = A1 2v v , et ainsi de suite pour la dtermination des valeurs propres et vecteurs
propres restant.
Une autre mthode de dation consiste trouver une matrice nonsingulire P telle que
P v = e1 o e1 est le vecteur canonique e1 = (1; 0:::0)T .
1

On obtient alors de Av 1 = 1 v 1 que


1
P AP P v1 = 1P v
1

1
(P AP )e1 = 1 e1 :

1
La dernire galit signie que la matrice P AP , qui a les mmes valeurs propres que A,
doit tre de la forme 0 1
1 bT
P AP 1
=@ 0 A1 A
0
et la matrice dordre (n 1) occupant le coin infrieur droit de P AP 1 possde donc bien les
proprits recherches. Comme pour lautre mthode de dation, on peut rpter le processus
en calculant A2 a partir de A1 une fois 2 et v 2 calculs.

2.4 Algorithme QR
La mthode que nous allons tudier maintenant sest rvle dans la pratique comme lune
des plus e caces pour la recherche de toutes les valeurs propres dune matrice symtrique ou
non-symtrique.
Lalgorithme QR consiste a construire une suite de matrices A = A1 ; A2 ; A3 ; ::: au moyen
des relations

Ak = Qk Rk ; Ak+1 = Rk Qk ; ::: (03)


O les matrices Qk sont orthogonales et les matrices Rk sont triangulaires suprieures.
Rappelons ce thorme dalgbre concernant la dcomposition
QR dcoulant du principe dorthogonalisation de Gram-Schmidt.

Thorme 2.4.1 Toute matrice A 2 Rn n carre non singulire peut tre ecrite sous la forme
A = QR o R dsigne une matrice non singulire triangulaire suprieure et o Q dsigne une
matrice unitaire, cest- -dire QQT = QT Q = I:

On peut montrer que la matrice Ak tend vers une matrice triangulaire suprieure dont les
lments diagonaux sont les valeurs propres de A.

49
CHAPITRE 2. CALCUL DES VALEURS ET VECTEURS PROPRES

Thorme 2.4.2 (Convergence de lalgorithme QR) Si les valeurs propres i, i = 1; 2; :::; n


de A satisfont les conditions

j 1 j > j 2 j > j 3 j > ::: > j nj (04)

alors la matrice Ak dnie en (4) tend vers une matrice triangulaire suprieure dont les
lments diagonaux sont les valeurs propres de A, ranges dans lordre des modules dcroissants.

Preuve. Puisque les valeurs propres de A sont toutes direntes (et relles), il existe une
matrice non-singulire (et relle) X, telle que :
1
A = XDX (05)

o
D := diag( 1 ; 2 ; :::; n)

Dnissons les matrices Q; R; L et U par les relations


1
X = QR X = LU: (06)

Les matrices R et U sont triangulaires suprieures, la matrice L est triangulaire infrieure


avec tous ses lments diagonaux gaux 1 et la matrice Q est orthogonale. La matrice R est
non-singulire puisque X lest galement. La dcomposition QR existe toujours, tandis que la
dcomposition LU existe seulement si tous les mineurs principaux de X 1 sont non nuls.
Analysons maintenant en dtail une tape de lalgorithme QR. On a

Ak+1 = Rk Qk = QTk Ak Qk (07)

A partir de cette dernire relation on dduit

Ak+1 = PkT APk (08)

o
Pk := Q1 Q2 :::Qk (09)
Si lon pose alors
Uk := Rk Rk 1 :::R1 (10)
on calcule
Pk Uk = Q1 Q2 :::Qk 1 (Qk Rk ) Rk 1 :::R2 R1
= Pk 1 Ak Uk 1

= APk 1 Uk 1 (11)
o la dernire galit est obtenue grce (08). On obtient alors par rcurrence de (11)

Pk Uk = Ak (12)

50
2.4. ALGORITHME QR

Cette dernire relation montre que Pk et Uk sont les facteurs de la d composition QR de


la matrice Ak .
Si on reprend a prsent (06), on a successivement daprs (08), (05) et (06)
Ak+1 = PkT APk

= PkT XDX 1
Pk

= PkT QRDR 1 QT Pk (13)


1
La matrice R etant triangulaire suprieure, la matrice R lest aussi et a pour lments
diagonaux les inverses des lments diagonaux de R. Le produit RDR 1 est donc une matrice
triangulaire suprieure dont la diagonale est gale D. Il su t donc pour tablir le thorme
de montrer que Pk ! Q:
Pour tablir ce dernier fait, considrons la matrice Ak qui, tant donn (05) et (06) peut
scrire sous les formes
Ak = XDk X 1
= QRDk LU = QR Dk LD k
Dk U (14)
On constate que la matrice Dk LD k est une matrice triangulaire infrieure dont les lments
diagonaux sont gaux 1, tandis que llment (i; j) est gal lij ( i = j )k lorsque i > j; et nous
pouvons donc crire
Dk LD k = I + Ek o lim Ek = 0
k!1

Lquation (14) donne alors


Ak = QR (I + Ek ) Dk U
1
= Q I + REk R RDk U
= Q (I + Fk ) RDk U
o
lim Fk = 0
k!1

On peut alors eectuer la dcomposition QR de la matrice (I + Fk ), soit


~ ~
(I + Fk ) = Qk Rk
~ ~
o Qk et Rk tendent vers I puisque Fk tend vers zro. On a donc nalement
~ ~
Ak = QQk Rk RDk U (15)

Le premier des facteurs de (15) est orthogonal et le second est triangulaire suprieur : on a
donc bien obtenu une dcomposition QR de Ak . Mais cette dcomposition est unique puisque
~
Ak est non-singulire. Comparant alors (15) et (12) on a Pk = QQk et donc Pk ! Q puisque
~
Qk ! I.

51
CHAPITRE 2. CALCUL DES VALEURS ET VECTEURS PROPRES

2.5 Mthode de Jacobi


Soit une matrice carre symtrique A dordre n dont on cherche dterminer les valeurs
propres. La mthode consiste en des transformations successives du type T 1 AT qui amnent
la matrice A sous la forme diagonale. Comme les transformations de ce type ne modient pas
les valeurs propres, ces dernires se trouvent, en n de calcul, sur la diagonale de la matrice
transforme. De plus, il est possible de calculer aussi les valeurs propres Vi , i = 1; :::; n de A
en multipliant les valeurs propres i de la matrice nale, qui ne sont autres que les colonnes de
la matrice identit, par le produit T1 T2 :::Tk des matrices de transformations successives, soit :

Vi = T1 T2 :::Tk i i = 1; :::; n

Dans la mthode de Jacobi, la matrice T est du type :


(p)ieme (q)ieme
colonne colonne
0 # 1 #
1:::::::::::0 0::::::0::::::0::::::0
B ::::::::::::::::::::::::::::::::::::::: C
B C
B 0::::::::: cos ' 0::::::0 sin '::::::0 C
B C
T =B B :::::::::::::::::::::::::::::::::::::: C
C
B :::::::::::: sin ' 0:::::0 cos '::::0 C
B C
@ ::::::::::::::::::::::::::::::::::::::: A
0::::::::::::::0 0:::::::::::::::::::::1
ieme
(p) ligne
(q)ieme ligne
qui est gale la matrice unit du mme ordre que la matrice A, lexeption des lments
tpp ; tqq ; tpq et tqp . p et q sont tels que llment apq soit le plus grand lment extra-diagonal et
o ' est tel que :
2apq
tan (2') =
app aqq
Exemple
Soit la
0 matrice A : 1
1 2 0
A= @ 2 1 0 A
0 0 1
Le plus grand lment extra-diagonal de la matrice A tant llment a12 , langle ' sera tel
que :
2a12
tan (2') =
a11 a22
Comme a11 = a22 ; ' = 4 , la matrice transformation T12 scrit alors :
0 p p 1
p 2=2 2=2
p 0
T12 = @ 2=2 2=2 0 A
0 0 1

52
2.5. MTHODE DE JACOBI

do 0 1
3 0 0
A1 = T12 AT12 = @ 0 1 0 A
0 0 1
qui est diagonale. Les valeurs propres de A1 ; et par consquent de A sont donc : x1 = 3 et
x2 = x3 = 1:
Quant aux vecteurs propres, puisque le calcul sest opr en une seule tape, ils sont donns
directement par les colonnes de la matrice T . On a donc :
0 1 0 1 0 1 0 1 0 1 0 1
1 1 0 1 0 0
V1 = T12 @ 0 A u @ 0 A ; V2 = T12 @ 1 A u @ 1 A ; V3 = T12 @ 0 A u @ 0 A
0 0 0 0 1 1

53
TRAVAUX DIRIGS 2

Travaux dirigs 2

Exercice 01
1. Soit A MN (IR) une matrice symtrique. Soit N IR valeur propre de A t.q. |N | = (A) et soit
x(0) IR N . On suppose que N nest pas une valeur propre de A et que x(0) nest pas orthogonal
Ker(A N Id). On dfinit la suite (x(n) )nIN par x(n+1) = Ax(n) pour n IN. Montrer que
x(n)
(a) (N )n x, quand n , avec x %= 0 et Ax = N x.
)x(n+1) )
(b) )x(n) )
(A) quand n .

Cette mthode de calcul sappelle mthode de la puissance".


2. Soit A MN (IR) une matrice inversible et b IR N . Pour calculer x t.q. Ax = b, on considre la mthode
itrative appele mthode I" en cours, et on suppose B symtrique. Montrer que, sauf cas particuliers
prciser,
)x(n+1) x)
(a) )x(n) x)
(B) quand n (ceci donne une estimation de la vitesse de convergence).
)x(n+1) x(n) )
(b) )x(n) x(n1) )
(B) quand n (ceci permet destimer (B) au cours des itrations).

Exercice 02

 
cos sin
Soit A =
sin 0

1. Calculer les valeurs propres de la matrice A.


2. Effectuer la dcompositionQR de la matrice A.
3. Calculer A1 = RQ et A1 = RQ bId o b est le terme a122 de la matrice A1
4. Effectuer la dcomposition QR de A1 et A1 , et calculer les matrices A2 = R1 Q1 et A2 = R1 Q1 .

Exercice 03

1. Soit A Mn (IR) une matrice symtrique. Soit n IR valeur propre de A t.q. |n | = (A) et soit
x(0) IR n . On suppose que n nest pas une valeur propre de A et que x(0) nest pas orthogonal
Ker(A n Id), ce qui revient dire que . lorsquon crit le vecteur propre x(0) dans la base des vecteurs
propres, la composante sur le vecteur propre associ n est non nulle. On dfinit la suite (x(k) )nIN par
x(k+1) = Ax(k) pour n IN. Montrer que
x(k)
(a) (n )n x, quand k , avec x 6= 0 et Ax = n x.
kx(k+1) k
(b) kx(k) k
(A) quand n .

Cette mthode de calcul de la plus grande valeur propre sappelle mthode de la puissance".
54
2. Soit A Mn (IR) une matrice inversible et b IR n . Pour calculer x t.q. Ax = b, on considre un mthode
itrative : on se donne un choix initial x(0) , et on construit la suite x(k) telle que x(k+1) = Bx(k) + c
avec c = (Id B)A1 b, et on suppose B symtrique. On rappelle que si (B) < 1, la suite tend vers x.
Montrer que, sauf cas particuliers prciser,
kx(k+1) xk
(a) kx(k) xk
(B) quand k (ceci donne une estimation de la vitesse de convergence de la
mthode itrative).
kx(k+1) x(k) k
(b) kx(k x(k1) k
(B) quand k (ceci permet destimer (B) au cours des itrations).

Exercice 04

Soient u et v deux vecteurs de IR n . On rappelle que la projection orthogonale proju (v) du vecteur v sur la droite
vectorielle engendre par u peut scrire de la manire suivante :
vu
proju (v) = u,
uu
o u v dsigne le produit scalaire des vecteurs u et v. On note k k la norme euclidienne sur IR n .
1. Soient (a1 , . . . , an ) une base de IR n . On rappelle qu partir de cette base, on peut obtenir une base orthogonale
(v1 , . . . , vn ) et une base orthonormale (q1 , . . . , qn ) par le procd de Gram-Schmidt qui scrit :

a1
v1 = a1 , q1 =
ka1 k
v2
v2 = a2 projv1 (a2 ), q2 =
kv2 k
v3
v3 = a3 projv1 (a3 ) projv2 (a3 ), q3 =
kv3 k
v4
v4 = a4 projv1 (a4 ) projv2 (a4 ) projv3 (a4 ), q4 =
kv4 k
.. ..
. .
k1
X vk
vk = ak projvj (ak ), qk =
j=1
kvk k

On a donc
k1
X ak vj vk
vk = ak vj , qk = .
j=1
vj vj kvk k

1. Montrer par rcurrence que la famille (v1 , . . . , vn ) est une base orthogonale de IR n .
2. Soient A la matrice carre dordre n dont les colonnes sont les vecteurs aj et Q la matrice carre dordre N dont
les colonnes sont les vecteurs qj dfinis par le procd de Gram-Schmidt (1.132), ce quon note :
   
A = a1 a2 . . . an , Q = q1 q2 . . . qn .

55
TRAVAUX DIRIGS 2

Montrer que
k1
X ak vj
ak = kvk kqk + qj .
j=1
kvj k

En dduire que A = QR, o R est une matrice triangulaire suprieure dont les coefficients diagonaux sont positifs.
3. Montrer que pour toute matrice A Mn (IR) inversible, on peut construire une matrice orthogonale Q (c.. d.
telle que QQt = Id) et une matrice triangulaire suprieure R coefficients diagonaux positifs telles que A = QR.
 
1 4
4. Donner la dcomposition QR de A = .
1 0
5. On considre maintenant lalgorithme suivant (o lon stocke la matrice Q orthogonale cherche dans la matrice
A de dpart (qui est donc crase)
Algorithme 1.63 (Gram-Schmidt modifi).
Pour k = 1, . . . , n,
Calcul de la norme de ak
Pn 1
rkk := ( i=1 a2ik ) 2

Normalisation
Pour = 1, . . . , n
ak := ak /rkk
Fin pour
Pour j = k + 1, . . . , n
Produit scalaire correspondant qk aj
Pn
rkj := i=1 aik aij
On soustrait la projection de ak sur qj sur tous les vecteurs de A aprs k.
Pour i = k + 1, . . . , n,
aij := aij aik rkj
Fin pour i
Fin pour j
Montrer que la matrice A rsultant de cet algorithme est identique la matrice Q donne par la mthode de Gram-
Schmidt, et que la matrice R est celle de Gram-Schmidt. (Cet algorithme est celui qui est effectivement implant,
car il est plus stable que le calcul par le procd de Gram-Schmidt original. )

56
SUGGESTIONS ET CORRIGS

Suggestions et Corrigs
Exercice 01
1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fN ) (IR N )N une base
orthonorme de vecteurs propres de A associe aux valeurs propres (1 , . . . , N ) IR N . On dcompose
&N &N &N
x(0) sur (fi )i=1,...,N : x(0) = i=1 i fi . On a donc Ax(0) = i=1 i i fi et An x(0) = i=1 ni i fi .
On en dduit :
N 0 1n
x(n) % i
= i fi .
nN i=1
N

Comme N nest pas valeur propre,

i n
lim ( ) = 0 si i %= N .
n+ N

Soient 1 , . . . , p les valeurs propres diffrentes de N , et p+1 , . . . , N = N . On a donc


(n) &N
limn+ xn = i=p+1 i fi = x, avec Ax = N x.
N

De plus, x %= 0 : en effet, x(0)


/ (Ker(A N Id)) = V ect{f1 , . . . , fp }, et donc il existe i {p +
1, . . . , N } tel que i %= 0.
Pour montrer (b), remarquons que :
N
% N
%
"x (n+1)
"= n+1
i i (n)
et "x "= ni i
i=1 i=1

car (f1 , . . . , fN ) est une base orthonorme. On a donc

x(n+1)
" "
"x(n+1) " n+1 "x"
(n)
= nN N
N = N lorsque n +.
"x " x(n) "x"
" "
N

2. a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) % Ker(B N Id)
o N est la plus grande valeur propre de B, (avec |N | = (B)et N non valeur propre), alors

"y (n+1) "


(B) lorsque n +,
"y (n) "

cestdire
"x(n+1) x"
(B) lorsque n +.
"x(n) x"

57
Exercice 03

1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fn ) (IR n )n une base
orthonorme de vecteurs propres
Pn de A associe aux valeurs propres
Pn (1 , . . . , n ) IR nP. On dcompose
n
x sur (fi )i=1,...,n : x = i=1 i fi . On a donc Ax = i=1 i i fi et A x = i=1 ni i fi .
(0) (0) (0) n (0)

On en dduit :
Xn  n
x(n) i
= i fi .
nn i=1
n
Comme n nest pas valeur propre,
i n
lim ( ) = 0 si i 6= n .
n+ n
Soient 1 , . . . , p les valeurs propres diffrentes de n , et p+1 , . . . , n = n . On a donc
(n) Pn
limn+ xn = i=p+1 i fi = x, avec Ax = n x.
n

De plus, x 6= 0 : en effet, x(0)


/ (Ker(A n Id)) = V ect{f1 , . . . , fp }, et donc il existe i {p +
1, . . . , n} tel que i 6= 0.
Pour montrer (b), remarquons que :
n
X n
X
kx (n+1)
k= n+1
i i (n)
et kx k= ni i
i=1 i=1

car (f1 , . . . , fn ) est une base orthonorme. On a donc

x(n+1)
k k
kx(n+1) k n+1 kxk
= nn n
n = n lorsque n +.
kx(n) k x(n) kxk
k k
n

2. a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) 6 Ker(B n Id) o
n est la plus grande valeur propre de B, (avec |n | = (B)et n non valeur propre), alors

ky (n+1) k
(B) lorsque n +,
ky (n) k

cestdire
kx(n+1) xk
(B) lorsque n +.
kx(n) xk

58
SUGGESTIONS ET CORRIGS

b) On applique maintenant 1a) y (n) = x(n+1) x(n) avec

y (0) = x(1) x(0) o x(1) = Ax(0) .

On demande que x(1) x(0) / Ker(B n Id) comme en a), et on a bien y (n+1) = By (n) , donc
ky (n+1) k
(B) lorsque n +.
ky (n) k

Exercice 04

1. Par dfinition de la projection orthogonale, on a v1 v2 = a1 (a2 proja1 (a2 )) = 0.


Supposons la rcurrence vraie
Pn1au rang N 1 et montrons que vn est orthogonal tous les vi pour i = 1, . . . , N 1.
a v
Par dfinition, vn = an j=1 vkj vjj vj , et donc

n1
X an vj an vi
vn vi = an vi vj vi = an vi
j=1
vj vj vi vi

par hypothse de rcurrence. On en dduit que vn vi = 0 et donc que la famille (v1 , . . . vn ) est une base orthogo-
nale.
2. De la relation (1.132), on dduit que :
k1
X wk vj vk
ak = vk + vj , qk = ,
j=1
vj vj kvk k

et comme vj = kvj kaj , on a bien :


k1
X ak vj
ak = kvk kqk + qj .
j=1
kvj k

La k-ime colonne de A est donc une combinaison linaire de la k-me colonne de Q affecte du poids kvk k et
ak vj
des k 1 premires affectes des poids klv jk
. Ceci scrit sous forme matricielle A = QR o R est une matrice
ak vj
carre dont les coefficients sont Rk,k = kvk k, Rj,k = kv jk
si j < k, et Rj,k = 0 si j > k. La matrice R est donc
bien triangulaire suprieure et coefficients diagonaux positifs.
 
3. Si A est inversible, par le procd de Gram-Schmidt (1.132) on construit la matrice Q = q1 q2 . . . qn ,
et par la question 1.b, on sait construire une matrice R triangulaire suprieure coefficients diagonaux positifs
A = QR.
   
1 1 2
4. On a a1 = et donc q1 = 2
1 2
           
4 a2 v1 4 4 1 2 1 2 1 2 2 .
Puis a2 = et donc v2 = a2 v1 v1 v1 = 2 = . Donc q 2 = 2 , et Q = 2
0 0 1 2 2 2 2
 a2 v1     
kv1 k kv1 k 2 22 2
Enfin, R = = , et Q = 21 2 .
0 kv1 k 0 2 2 2 2

59
Chapitre 3

Rsolution dquations et systmes non


linaires

3.1 Racines de lquation f (x) = 0


Dnition 3.1.1 Soit f une fonction de R dans R dont le domaine de dnition est une partie
Df de R . On dit que 2 Df est une racine de lquation
f (x) = 0 (1)
, si
f( ) = 0 (2)

Rsoudre lquation (1) cest trouver tous les nombres rels tels que (2) soit vrie.
En dautres termes, on cherche dterminer lensemble
Z (f ) = fx 2 Df =f (x) = 0g, appel les de f . Z (f ) est donc lensemble des racinees de f (x) = 0:
Il nest pas toujours possible de rsoudre compltement ce problme pour toutes formes de fonc-
tions f . Z (f ) peut en eet, avoir un grand nombre de structures possibles.

Exemples 2.1
1- Soit f (x) = ax2 + bx + c; a; b; c 2 R, avec Df = R: Alors ker f contient au plus deux lments
et peut aussi tre vide.
2- Soit f (x) = sin(x) et Df = R+ ; alors les racines de lquation f (x) = 0 sont en nombres
inni dnombrable et Z (f ) = fx 2 R+ =x = k ; k = 0; 1; 2; 3; :::g
3- Pour f dnie par
sin( x1 ) si x > 0
f (x) =
0 si x 0
Les racines de lquation f (x) = 0 sont dans ce cas la demi droite ngative R et les lments
de la suite S = k1 ; k = 1; 2; 3; ::: :
Ainsi Z (f ) = R [ x 2 R = x = k1 ; k = 1; 2; 3; :::
On peut remarquer quil existe (au moins) une racine dans S (dirente de 0) aussi prs que
lon veut de 0: On dit que 0 est un point daccumulation de la suite S:

60
3.2. SPARATION DES RACINES

Dnition 3.1.2 On dit quune racine dune quation f (x) = 0 est sparable si on peut
trouver un intervalle [a; b] tel que soit la seule racine de cette quation dans [a; b] ; ou encore
si Z (f ) \ [a; b] = f g
La racine est alors dite spare ( on dit aussi racine isole).

Remarque 3.1.1 Dans les deux cas 1 et 2 de lexemple 2:1 ci-dessus, toutes les racines sont
sparables. Par contre dans le cas 3, les seules racines sparables sont les lments de S. Les
lments de S qui sont les plus prs de 0 sont les plus di cile sparer. La longueur de
lintervalle [a; b] de la dnition 2:2 devient en eet, de plus en plus petite au fur et mesure
que lon sapproche de 0 dans S.

3.2 Sparation des racines


Il ny a pas de mthode gnrale pour sparer les racines dune quation f (x) = 0.
Pratiquement, en dehors de ltude thorique directe de f si f est donne analytiquement, on
utilise deux types de mthodes : une mthode graphique et une mthode de balayage.

3.2.1 Mthode graphique

Soit on trace (exprimentalement ou par tude des variations de f ) le graphe de la fonction f


et on cherche son intersection avec laxe Ox: Soit on dcompose f en deux fonctions f1 et f2
simples tudier, telles que : f = f1 f2 ; et on cherche les points dintersection des graphes
de f1 et f2 , dont les abscisses sont exactement les racines de lquation f (x) = 0

Remarque 3.2.1 On choisit souvent f1 et f2 de faon ce que leur courbes soient des courbes
connues.

Exemples 2.2
1- Soit rsoudre graphiquement lquation : x2 a = 0; o a > 0; x. (D = R)
Les variations et la courbe reprsentative de la fonction f (x) = x2 a sont donnes par le
tableau et le graphe suivants :

61
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

p
Bien que dans cet exemple les solutions soient videment connues (x = + a): on voit que
lintersection du graphe de la fonction f (x) = x2 a avec laxe Ox permet de localiser les
racines de lquation f (x) = 0:

62
3.2. SPARATION DES RACINES

2- Soit lquation ( ) x log x = 1; x>0 (D = R+ )


1
Cette quation scrit encore sous la forme : log x = x ; En posant f1 (x) = log x: f2 (x) = x1 et
f (x) = f1 (x) f2 (x) = log x x1 ; lquation ( ) devient quivalente f (x) = f1 (x) f2 (x) = 0:
Les variations des fonctions f1 et f2 sont donnes par les courbes ci-dessous :
Labscisse du point dintersection des deux courbes permet de localiser la solution de ( ) et
fournit mme une (premire) approximation de celle-ci (et ceci en utilisant, par exemple, du
papier millimtr ou encore en graduant les deux axes).

3.2.2 Mthode de balayage

On considre une suite croissante nie fxi g ; (i = 0; 1; :::; n) de valeurs de x rparties sur linter-
vale [a; b] contenu dans le domaine de dnition D de f . Si f est continue et si f (xi )f (xi+1 ) < 0
alors il existe entre xi et xi+1 au moins une racine de f (x) = 0 (cest le thorme classique des
valeurs intermdiaires).
La mthode consiste donc dterminer parmi les quantits f (xi )f (xi+1 ); (i = 0; 1; :::; n) celles
qui sont ngatives.

Remarque 2.3
1- La mthode de balayage ne permet de conclure qu lexistence d(au moins) une racine dans
un intervalle [xi ; xi+1 ] :
Si une racine est double (f ( ) = f 0 ( ) = 0 et f "( ) 6= 0); cette mthode ne permet pas de
la sparer.

63
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

De mme, si deux racines sont trs voisines, on risque de ne pas les sparer dans le processus
ci-dessus comme le montre la gure suivante :

2- Lintervalle de dpart [a; b] doit tre su samment grand an de contenir les racines ven-
tuelles de lquation f (x) = 0; mais sauf dans des cas particulier, on ne peut pas estimer
correctement sa longueur.

3.3 Approximation des racines : Mthodes itrative


Dnition 3.3.1 On appelle mthode itrative un procd de calcul de la forme :
xk+1 = F (xk ); k = 0; 1; 2; ::: (a)
dans lequel on part dune valeur (approche) x0 pour calculer x1 ; puis laide de x1 on calcule
x2 , etc...
La formule (a) est dite formule de rcurrence.
Le procd est dit convergent si la suite (xk ) est convergente.

Parmi les mthode numrique en gnral et les mthode itratives en particulier, les plus
puissantes permettant la rsolution approche des quations de la forme f (x) = 0 gure la
mthode suivante :

64
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

3.3.1 Mthode de Newton-Raphson

Notons par x une racine (exacte) recharche et par x0 une valeur approche de x .
On suppose que f est de classe C 1 au voisinage de x . Le dveloppement de Taylor dordre
deux de f nous donne :

f "( )
f (x ) = f (x0 ) + f 0 (x0 )(x x0 ) + (x x0 )2 o 2 (x ; x0 )
2

et comme f (x ) = 0, on supposant f (x0 ) 6= 0; on aurra :

f (x0 ) f "( )
x = x0 (x x0 )2 (b)
f 0 (x0 ) 2f 0 (x0 )

et en ngligeant le reste R2 = 2ff "( )


0 (x ) (x
0
x0 )2 ; la quantit x0 f (x0 )
f 0 (x0 )
dans (b) quon notera
x1 , constitue alors une valeur approche amliore de x .
En itrant le procd on trouve la formule de rcurrence :

f (xk )
xk+1 = xk k = 0; 1; 2; :::
f 0 (xk )

quon appelle : Formule de rcurrence de Newton-Raphson.

Gomtriquement :

f (xk )
tg( ) = 4xk
= f 0 (xk ) o 4xk = xk xk+1
f (xk ) f (xk )
et donc 4xk = f 0 (xk )
= xk xk+1 ) xk+1 = xk f 0 (xk )

Commentaire 2.1 Une mthode itrative ne prsente de lintrt que si elle est convergente
(vers les valeurs recherches), et cest dans ce sens que lon tudiera la convergence de la mthode
de Newton-Raphson de manire plus approfondie plus bas.

65
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

Exemple 2.3 (Calcul itrative de la valeur inverse)


Soit a > 0 donn. On dsire calculer son inverse a1 :
1
On peut ramener le problme la rsolution de lquation f (x) = x
a = 0: Selon la formule
de Newton-Raphson, nous avons :
f (xk )
xk+1 = xk = 2xk a x2k
f 0 (xk )

Remarquons que dans cette formule de rcurrence on ne fait pas de division.


Pour a = 7 et on partant de x0 = 0:2; le calcul donne :
x1 = 0:12; x2 = 0:1392; x3 = 0:14276352; x4 = 0:142857081; ::: et cette suite converge vers
1
7
= 0:142857142:::

Exemple 2.4 (Comparaison de direntes formules de rcurrence)


1
Soit rsoudre lquation x = e x =exp( x1 ) (1)
Lquation (1) peut tre transforme de direntes manires an de se mettre sous la forme
f (x) = 0:
i) x = exp( x1 ) , x exp( x1 ) = f (x) = 0
La formule de Newton-Raphson donne :
xk exp( x1k )
xk+1 = xk x2k (i)
x2k exp( x1k )

ii) Posons y = x1 :
1
Lquation (1) devient alors y
exp(y) , 1 y exp(y) = f (y) = 0 et la formule de Newton-
Raphson donne encore :
exp( yk ) yk
yk+1 = yk + (ii)
1 + yk
iii) x = exp( x1 ) , log(x) = 1
x
,1 x log(x) = f (x) = 0 et la formule de Newton-Raphson
donne enn :
1 xk log(xk )
xk+1 = xk + (iii)
1 + log(xk )
Nous disposons ainsi de trois formules rcurrentes direntes pour le mme problme, et on
constate que les formules (ii) et (iii) sont mieux adaptes au calcul que la formule (i)

En tudiant les variations de f , par exemple f (x) = x exp( x1 ); on constate quil nexiste
quune seule racine x de (1); et quelle se trouve au voisinage de x0 = 1:8 .
Et del :
1
Pour le (ii) : En partant de y0 = 0:6 ' 1:8 ; nous obtenons :
y1 = 0:568007; y2 = 0:567144; y3 = 0:567143; etc::: et x ' y13 ' 1:763223
Pour le (iii) : En partant de x0 = 1:8 :
x1 = 1:763461; x2 = 1:763223; x3 = 1:763223; etc::: et x ' 1:763223 = x3

66
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

Critre darrt dans la mthode de Newton-Raphson

Soit x une racine isole de lquation f (x) = 0; x0 une approximation de x et (xk ) la suite des
approximations obtenue a laide de la formule de rcurence de Newton-Raphson. On suppose
que f est de classe C 1 au voisinage de x .
Le dveloppement de Taylor a lordre 1 donne, pour k 2 N :

f (xk ) = f (x ) + f 0 ( )(xk x ); 2 (xk ; x )


f (xk ) f (xk )
donc xk x = f 0( )
; o f 0 (xk )
2 (xk ; x )
f (xk ) f (xk )
Dautre part : xk+1 = xk f 0 (xk )
=) xk+1 xk = f 0 (xk )

et on fait lapproximation f 0 ( ) ' f 0 (xk ) pour obtenir enn : jxk x j ' jxk+1 xk j :
Ainsi, si on veut calculer une approximation de x avec n dcimales exactes, il su t daller
dans les itrations jusqua ce que k vrie :
jxk+1 xk j 0:5 10 n .

3.3.2 Mthode de Newton-Raphson pour deux inconnues

Soit rsoudre le systme dquations non linaires :

F (x; y) = 0
G(x; y) = 0

o F et G sont des fonctions donnes des variables indpendantes x et y:


Soit (x0; y0 ) une valeur approche dune solution exacte (x ; y ):

Posons :
x = x 0 + "0
o "0 et 0 sont les erreurs absolues de x0 et y0 :
y = y0 + 0
En faisant un dveloppement de Taylor lordre 1 des deux fonctions F et G au point (x0 ; y0 ),
on obtient :
@F @F
0 = F (x ; y ) = F (x0 + "0 ; y0 + 0) = F (x0 ; y0 ) + (x0 ; y0 ):"0 + (x0 ; y0 ): 0 + R0
@x @x

o R0 = reste = termes dordres suprieurs 1 en "0 et 0:


et
@G @G
0 = G(x ; y ) = G(x0 + "0 ; y0 + 0) = G(x0 ; y0 ) + (x0 ; y0 ):"0 + (x0 ; y0 ) 0 + R1
@x @x
67
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

o R1 = reste = termes dordres superieurs 1 en "0 et 0.


Ou bien sous forme matricielle :
@F @F
0 F @x @y "0 R0
= + @G @G : +
0 G (x0 ;y0 ) @x @y 0 R1
(x0 ;y0 )

@F @F 1
@x @y
On suppose lexistence de @G @G , et donc :
@x @y

@F @F 1
"0 x x0 @x @y F termes dordre supr-
= = @G @G : +
0 y y0 @x @y
G (x0 ;y0 )
ieurs 1en "0 et 0 :
(x0 ;y0 )

del :
@F @F 1
x x0 @x @y F termes dordre suprieurs
= @G @G : +
y y0 @x @y
G (x0 ;y0 )
1 en "0 et 0 :
(x0 ;y0 )

Et en ngligeante le reste qui est form des termes dordres suprieurs 1, la quantit :

@F @F 1
x0 @x @y F
@G @G :
y0 @x @y
G (x0 ;y0 )
(x0 ;y0 )

devient une approximation (x1 ; y1 ) de la valeur exacte (x ; y ).


Ainsi :
@F @F 1
x1 x0 @x @y F
= @G @G :
y1 y0 @x @y
G (x0 ;y0 )
(x0 ;y0 )

et en itrant le procd, on trouve la formule de rcurrence de Newton-Raphson pour


deux inconnues :
@F @F 1
xk+1 x0 @x @y F
= @G @G : ; k = 0; 1; 2; :::
yk+1 y0 @x @y
G (xk ;yk )
(xk ;yk )

Exemples 2.5 Soit rsoudre lquation : x = 2 sin x (a)


me
1 mthode : On pose f (x) = x 2 sin x; et en utilisant la mthode rcurrente de Newton-
Raphson pour une seule variable, an de rsoudre lquations f (x) = 2 sin x = 0, on aura :

f (xk ) xk 2 sin xk
xk+1 = xk = xk ; k = 0; 1; 2; :::
f 0 (xk ) 1 2 cos xk

68
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

2me mthode : On dcompose (a) en un systme de deux quations


y=x F (x; y) = y x=0
()
y = 2 sin x G(x; y) = y 2 sin x = 0

et la formule de rcurrence de Newton-Raphson pour deux inconnues devient :


1
xk+1 xk 1 1 yk xk
= : ; k = 0; 1; 2; :::
yk+1 yk 2 sin xk 1 yk 2 sin xk

3.3.3 La mthode de Newton-Raphson et les polynme

On suppose que f est un polynme Pn de dgr n coe cients rels, nayant que des racines
distinctes :
f (x) = Pn (x) = a0 xn + a1 xn 1 + ::: + an 1 x + an ; a0 6= 0
Question : Estimer les racines relles de lquation non linaire Pn (x) = 0.
Dnition 3.3.2 On appelle suite de sturm la suite dnie par :
8
> S0 (x) = Pn (x)
>
> S (x) = P 0 (x)
>
> 1
>
>
n
>
> S 2 (x) = Reste(S0 (x)=S1 (x))
< .
..
>
>
>
> Si (x) = Reste(Si 2 (x)=Si 1 (x))
>
> .
>
> ..
>
:
Sn (x) = Reste(Sn 2 (x)=Sn 1 (x))
Thorme 3.3.1 (Thorme de Sturm : Nombres de racines relles)
Le nombre de solutions relles (qui sont supposes simples) de lquation Pn (x) = 0 est gale
N (a) N (b) ou N ( ) est le nombre de changement de signe de la suite fSi ( )g : Les relles a
et b tant les extrmits de lintervalle contenant les racines.
Thorme 3.3.2 (Localisation) Les racines relles de lquation Pn (x) = 0 sont contenues
1
dans lintervalle ] T; T [ avec T = 1 + max jai j .
ja0 j i=1;n

Proprit 2.1 Si la suite Si est dordre p ie : Sp+1 (x) = 0; (p < n);


alors : les racines multiples de Pn (x) sont les racines simples de Sp (x).
Remarque 3.3.1 La divergence, dans le cas des polynmes, de la mthode de Newton-Raphson
est due deus raisons :
1- Soit au mauvais choix de x0 .
2- Soit quon na pas de racines relles.

69
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

Exemples 2.6 Rsoudre par la mthode de Newton-Raphson, lquation :

x3 3x2 + x 3=0

Localisation des solutions :


1
T =1+ max jai j = 4: Et donc les solution de lquation considre, si elles existent, se
ja0 j i=1;n
trouvent contenues dans lintervalle ] 4; 4[ :
Nombre de racines :
Conciderons pour cel la suite de Sturm associe au polynme P3 (x) = x3 3x2 + x 3:
8
>
> S0 (x) = P3 (x) = x3 3x2 + x 3
>
>
< S1 (x) = P30 (x) = 3x2 6x + 1
S2 (x) = Reste(S0 (x)=S1 (x)) = Reste(x3 3x2 + x 3=3x2 6x + 1)
>
>
>
> = x + 2 ( un facteur multiplicatife canstant prs)
:
S3 (x) = Reste(S1 (x)=S2 (x)) = Reste(3x2 6x + 1=x + 2) = 25

Nous avons alors :


S0 (x) S1 (x) S2 (x) S3 (x) N ( )
+ 2
+ + + 1

Le nombre de racines relles de lquation concidre est donc 2 1 = 1:


Rsoudre par la mthode de Newton-Raphson :
Pour cela prcisons encore plus lintervalle contenant la racine cherche x :
Nous avons P3 (0) = 3 et P3 (4) 0; alors x 2 [0 ; 4] : Prenons par exemple x0 = 0: Nous
avons alors :
P3 (x0 ) P3 (x1 )
x1 = x0 0
= 3, et x2 = x1 = x1 : De mme xk = 3 = x1:
P3 (x0 ) P30 (x1 )
Ainsi, nous obtenons une suite stationnaire qui donne dans ce cas, non pas une racine approche
mais carrment la racine exacte gale 3.

3.3.4 Mthode de point xe


Dnition 3.3.3 Soit f : R ! R une application continue. On dit que x 2 R est un point
xe de f si f (x ) = x .

Commentaire 2.2 La rsolution dun problme laide dune formule de rcurrence xk+1 =
f (xk ); k 2 N peut etre considre comme dtemination dun point xe de la fonction f:

En eet : Soit (xk ) la suite dfnie par xk+1 = f (xk ), On suppose quelle converge vers une
valeur quon notera x . Par passage limite dans lexpression xk+1 = f (xk ), on obtient :

lim xk+1 = lim f (xk ) () lim xk+1 = f ( lim xk ) (par continuit de f )


k!1 k!1 k!1 k!1

70
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

() x = f (x ) (car lim xk = x )
k!1

et donc x est un point xe de f:

Thorme 3.3.3 (Thorme du point xe) Supposons que f est dnie sur lintervalle [a ,b]
et satisfait aux conditions suivantes :
i) f ([a ,b]) [a,b] ie : 8 x 2 [a,b], a f (x) b
ii) f est contractante ie :9L 2 R; 0 L < 1 tel que

8x; y 2 [a,b] : jf (x) f (y)j L jx yj

Alors : f admet un point xe unique x 2 [a,b] : De plus, pour tout point x0 2 [a,b] ; la suite
(xk ) dnie par xk+1 = f (xk ) converge vers x :

Commentaire 2.3 La condition ii) entraine(xk ) :


1. La continuit de f dans [a,b]
2. En divisant lingalit par jx yj et en passant la limite quand y
0
tend vers x, on obtient : f (x) L < 1; et ceci en supposant que f
est drivable au point x:

Dmonstration du thorme du point xe

Existence du point xe : Soient x0 un point initial dans [a,b] et (xk ) la suite associe f .
Pour montrer que la suite (xk ) converge, on va montrer quelle est de Cauchy.
Le point xe sera alors la limite de (xk ):
Soit k 2 N; alors
jxk+1 xk j = jf (xk ) f (xk 1 )j L jxk xk 1 j :
et par rcurrence, on dmontre que :

jxk+1 xk j L jxk xk 1 j Lk jx1 x0 j

et pour n > k; en crivant :

xn xk = (xn xn 1 ) + (xn 1 xn 2) + + (xk+1 xk );

nous aurons :
jxn xk j jxn xn 1 j + jxn 1 xn 2 j + + jxk+1 xk j
(Ln 1
+ Ln 2
+ + Lk ) jx1 x0 j
1 Ln k
Lk jx1 x0 j
1 L

71
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

Lk
jx1 x0 j
1 L
et del on dduit que (xk ) est une suite de Cauchy, donc elle converge vers x 2 [a,b] :
Montrons que x est un point xe.
En eet : lgalit xk+1 = f (xk ) et la continuit de f entrainent que
x = f (x ):
Unicit de point xe : Supposons quil existe un autre point xe y avec
y 6= x .
Alors :
0 < jy x j = jf (y ) f (x )j L jy x j < jy x j car L 1

ce qui est absurde x est donc unique.

Interpprtation gomtrique du thorme du point xe

72
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

Critre darrt n 1

Soit f : [a; b] ! R satisfaisant aux hypothses du thorme du point xe, et soit (xk ) la
suite des approximations dnie par xk+1 = f (xk ); k = 0; 1; 2; :::
Pour k; n 2 N, n > k :

jxk xn j = jf (xk 1 ) f (xn 1 )j L jxk 1 xn 1 j

et par rcurrence :

jxk xn j L jxk 1 xn 1 j L2 jxk 2 xn 2 j Lk jx0 xn k j Lk jb aj

En passant la limite sur n, on obtient : jxk x j Lk (b a).


Ainsi, si on dsire calculer une approximation xk de x avec n dcimales exactes, il su t darrter
les itrations k vriant : n
log( 0;5b 10a )
k
log L

Critre darrt n 2

Soit k 2 N :
jxk+1 x j = jf (xk ) f (x )j L jxk x j L jxk xk+1 j+L jxk+1 x j L jxk xk+1 j+
L jxk+1 x j
) jxk+1 x j (1 L) L jxk xk+1 j
) jxk+1 x j 1 LL jxk xk+1 j
et donc pour avoir n dcimales exactes, on arrte les itrations lorsque :
1 L n
jxk xk+1 j 0:5 10
L
Remarque 3.3.2 Gnralement L est assez petit pour que 2L < 1, et del L < 1 L, et donc
1 < (1 L)=L. Consquence : au lieu du critre darrte ci dessus on impose la condition
n
jxk xk+1 j 0:5 10 :

Exemple 2.7 (Rsolution itrative de lquation quadratique)


Soit rsoudre, laide de la mthode du point xe, lquation

(a) '(x) = x2 100x + 1 = 0

On remarquera que (a) admet deux racines relles x1 et x2 , lune au voisinage de 10 2 et lautre
au voisinage de 102 .
Pour x1 : En tenant compte du fait que x1 ' 10 2 , lquation (a) peut se mettre sous la forme :

73
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

1
x = f (x) = 100 (x2 + 1) et la formule de rcurrence est donne par :
1 2
xk+1 = f (xk ) = 100 (x2k + 1). Comme f 0 (x) = 100 x = 0:02x est petit, prenons lintervalle [10 2 ; 1]
comme voisinage de x1 .
Nous avons, en eet :
'(10 2 ) = 10 4 > 0
) x1 2 [10 2 ; 1]:
'(1) = 98 < 0
et on vrie aisement que :
i)- f ([10 2 ; 1]) = [f (10 2 ); f (1)] [10 2 ; 1]
ii)- Pour L = 0:02, f est contractante
Ainsi : 8x0 2 [10 2 ; 1], la suite (xk ) converge vers x1 2 [10 2 ; 1].
Prenons par exemple, x0 = 1. On calcule :
x1 = 0:02 ; x2 = 0:010004 ; x3 = 0:0100010008 ; x4 = 0:0100010020017 donc : x1 ' 0:010001002002
(11 c.s.e)

Pour x2 : En tenant compte du fait que x2 ' 102 , lquation (a) peut se mttre sous la forme :
x2 = 100x 1, puis en divisant par x en trouve la formule de rcurrence :
xk+1 = 100 x1k = f (xk ), o f (x) = 100 x1 . Comme f 0 (x) = x12 est petit pour x assez grand,
prenons lintervalle [10; 102 ] comme voisinage de x2 .
Nous avons, en eet :
'(10) = 990 < 0
) x2 2 [10; 102 ]:
'(102 ) = 1 > 0
et on vrie que :
i)- f ([10; 102 ]) = [f (10); f (102 )] [10; 102 ]
ii)- Pour L = 0:01, f est contractante
Ainsi : 8x0 2 [10; 102 ], la suite (xk ) converge vers x2 2 [10; 102 ].
Prenons par exemple, x0 = 10. On calcule : (avec 5 dcimales exactes)
x1 = 99:9 ; x2 = 99:989990 ; x3 = 99:989990 ; x4 = 99:989999
donc : x2 ' 99:99000 10 5

3.3.5 Acclration de la convergence


Lemme 3.3.1 On suppose que f 0 existe. Plus f 0 (x ) est petite, plus la convergence est rapide.

Preuve.
On pose E
k = xk x , et un dveloppement de Taylor de f nous donne :

Ek2 00
xk+1 = f (xk ) = f (x + Ek ) = f (x ) + Ek f 0 (x ) + f (x ) +
2!
En ngligeant les termes dordre suprieur 1 en Ek , il vient :
xk+1 f (x ) = xk+1 x ' f 0 (x ):Ek )= Ek+1 = xk+1 x ' f 0 (x ):Ek

74
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

Comme (Ek ) est une suite convergente vers zro (0), on voit que plus f 0 (x ) est petit, plus la
convergence est rapide.

Acclration

x + f (x)
Soit 6= 1. posons G(x) = .
1+
Comme f (x) = x , G(x) = x : alors, x est un point xe de f si et suelement si il lest pour
G.
+ f 0 (x) + f 0 (x )
On a G0 (x) = ; donc G0 (x ) = . Il su t alors de prendre voisin de f 0 (x )
1+ 1+
pourvu que f 0 (x ) soit petit. Et donc daprs le lemme 2.1, la convergence sera plus rapide que
celle donne par f (x) = x.

Algorithme dacclration

1. Calculer x0 , x1 ,:::, xn par la mthode lente :

x0 2 [a; b]
xk+1 = f (xk ), k = 0,1,...,n 1

o n est choisi selon chaque cas


2. On pose = f 0 (xn )
3. On calcule les approximations suivantes par
x + f (x)
xk+1 = G(xk ), k = n,n + 1,... o G(x) =
1+

Exemple 2.8 Soit rsoudre lquation

(1) x = e x:

Lquation (1) admet un point xe dans R.


On vrie mme quil est dans
lintervalle [0:5,0:6].

0:5 0:61
1- Posons x0 = 0:5. On a alors, x1 = f (x0 ) = e = 0:6065306 ' 0:61 et x2 = f (x1 ) = e =

75
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

0:5433508 ' 0:54


On constate que les dirences jx0 x1 j et jx1 x2 j (etc..) sont assez importantes, alors on
arrte l la mthode est lente et :
2- n = 2 : f 0 (x2 ) = e 0:54 = 0:5827482 ' 0:58 =
x
3- Puis, on pose : G(x) = 0:58x+e
1:58
et si on veut calculer x avec sept(07) dcimales exactes, on
applique, par exemple, le critre darrt n 1, pour lalgorithme :
8
< x0 = 0:54 2 [0:5; 0:6]
: x 0:58xk + e xk
k+1 = G(xk ) =
1:58
0:5 10 7
log( )
alors k vdie k 0:6 0:5 ' 3:7 o 0:02 max jG0 (x)j et donc, on prend k = 4.
log 0:02 [0:5;0:6]
Ainsi :

x1 = G(x0 ) = 0:56705684
x2 = G(x1 ) = 0:56714259
x3 = G(x2 ) = 0:56714328
x4 = G(x3 ) = 0:56714329

do x = 0:5671433 0:5 10 7
Question : Dterminer le nombre ditrations correspondant au cas de la mthode lente (R-
ponse : k = 30).

3.3.6 Convergence de la mthode de newton-Raphson


Reprenons la formule de Newton-Raphson :

f (xk )
xk+1 = xk ; k = 0; 1; 2; :::
f 0 (xk )

f (xk )
On a donc : xk+1 = g(xk ), o g(x) = xk .
f 0 (xk )
(f 0 (x))2 f (x)f 00 (x) f (x)f 00 (x)
Et comme g 0 (x) = 1 = ; alors pour
(f 0 (x))2 (f 0 (x))2
x = x , x tant une racine spare de lquation f (x) = 0, on a g 0 (x) = 0 (puisque f (x ) = 0)
et del jg 0 (x)j < 1 au "voisinage" de x . Consquence : les conditions i) et ii) du thorme du
point xe sont alors ralises, et par suite, on a convergence de la suite (xk ) vers x .
Et cest dans ce but quon choisit comme voisinage de x un intervalle [a; b] telle que :
1. x 2 [a; b]
2. f est de classe C 2 sur [a; b]
3. f 0 6= 0 sur [a; b]
Et on verera ci-aprs quavec une condition supplmentaire sur lintervalle [a; b], la suite (xk )

76
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

converge vers x , 8x0 2 [a; b].

Commentaire 2.4

f tant de classe C 2 sur [a; b], f 00 est continue sur [a; b] et donc borne
sur [a; b] par une constante M > 0 de manire ce quon ait : 8x 2 [a; b],
jf 00 (x)j M

f 0 ne sannulant pas sur [a; b], il existe m > 0 tel que : 8 x 2 [a; b],
jf 0 (x)j m

Sous les hypothses 1), 2) et 3), faisons un developpement de taylor de f lordre 1 au voisinage
de xk . On obtien :
1
f (x) = f (xk ) + f 0 (xk )(x xk ) + f 00 ( k )(x xk )2 , o k 2 (x; xk )
2
comme f (x) = 0 pour x = x , il sensuit :
1
0 = f (xk ) + f 0 (xk )(x xk ) + f 00 ( k )(x xk )2 , o k 2 (x; xk )
2
en divisant par f 0 (xk ) 6= 0 et on translatant, on aura :
f (xk ) f 00 ( k )(x xk )2
=x xk +
f 0 (xk ) 2f 0 (xk )
f (xk ) f (xk )
or : xk+1 = xk ) = xk+1 xk
f 0 (xk ) f 0 (xk )
f 00 ( k )(x xk )2
Do, aprs simplication : xk+1 x =
2f 0 (xk )
et comme jf 00 (x)j M et jf 0 (x)j m > 0; on aboutit alors :

M jx xk j2
jxk+1 xj ( )
2m
On constate que lerreur absolue de la (k + 1)eme approximation est proportionnelle au carr
de lerreur absolue de la k eme approximation. On dit que la mthode de Newton-Raphson est
une mthode itrative du deuxime ordre.
M
Posons C = . Lingalit (*) entrane par induction :
2m
k+1
x j2 x j4 x j2
k+1
jxk+1 xj C jxk C 3 jxk 1 ::: C2 1
jx0
k
x j C 2 1 jx0 x j2
k
ou encore jxk
k k
comme : jx0 x j jb aj = b a, alors jxk xj C2 1
(b a)2
ou encore :

77
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

k
[C(b a)]2
jxk xj , k = 0; 1; 2; :::
C
M
Il y a donc convergence vers x si C(b a) = (b a) < 1, et cest pour cette raison que
2m
2m
lon choisit [a; b] de longueur b a < .
M
Conclusion :
2m
Si en plus des conditions 1), 2) et 3), on choisit [a; b] tel que b a< , alors : 8 x0 2 [a; b],
M
lalgorithme de Newton-Raphson converge ( vers x ).

Remarque 3.3.3 (choix de lapproximation initiale x0 ) Le point x0 est gnralement choisi


de manire ce que f (x0 )f 00 (x0 ) > 0 (en particulier x0 = a ou x0 = b si cette condition est
satisfaite).

3.3.7 Mthode de la scante

Dans certaines circonstances (si f provient dun calcul exprimental par exemple), on ne peut
calculer f 0 . Lide est alors de remplacer f 0 par le taux daccroissement de f sur un petit
intervalle.
Supposons que x0 et x1 soient deux valeurs approches de la racine x de lquation

f (x) = 0 avec x0 < x < x1 .

Le taux daccroissement de f sur [x0 ; x1 ] est :


f (x1 ) f (x0 )
1 =
x1 x0
et lquation de la scante (en x0 et x1 ) est :
y = 1 (x x1 ) + f (x1 ) (1)
On obtient une nouvelle approximation x2 de x en calculant labscisse du point dintersection
de la scante avec laxe Ox :

f (x1 )
x2 = x1 (obtenu en posant y = 0 dans(1))
1

78
3.3. APPROXIMATION DES RACINES : MTHODES ITRATIVE

et, on itre ce procd pour obtenir :


f (xk ) f (xk 1 ) f (xk )
k = et xk+1 = xk
xk xk 1 k

Lalgorithme correspondant est : Algorithme de la scante :


8
< x0 , x1 donns
f (xk )
: xk+1 = xk (xk xk 1 ) , k 2 N
f (xk ) f (xk 1 )

Critre darrt
Cest le mme que celui correspondant la mthode de Newton-Raphson.

3.3.8 Mthode de dichotomie

Lide : Construction dune suite dintervalles de plus en plus petits contenant une racine isole
de lquation f (x) = 0.
Loutil utilis : Thorme des valeurs intermdiaires.
Thorme 3.3.4 (Thorme des valeurs intermdiaires) Soit f : [a; b] ! R continue,
avec f (a)f (b) < 0. Alors : il existe au moins x 2 ]a; b[ tel que : f (x ) = 0
Remarque 3.3.4 Si de plus f est injective, alors x est unique.

Algorithme
Supposons que a et b soient tels que : x 2 [a; b], avec f (a)f (b) < 0. On pose a = a0 . b = b0 et
[a; b] = [a0 ; b0 ] = I0 .
On divise lintervalle I0 = [a0 ; b0 ] en deux, et on construit lintervalle
I1 = [a1 ; b1 ] comme suit :
a0 + b0
Pour x0 = (milieu du segment [a0 ; b0 ]) on fait le test suivant :
2
Si f (a0 )f (x0 ) < 0 alors [a0 ; x0 ] = [a1 ; b1 ] = I1
sinon [x0 ; b0 ] = [a1 ; b1 ] = I1
On itre le procd pour obtenir une suite dintervalles emboits :
Ik = [ak ; bk ], k = 1; 2; 3; :::
comme suit :
ak + b k
On pose : xk =
2
Si f (ak )f (xk ) < 0 alors [ak ; bk ] = [ak+1 ; bk+1 ] = Ik+1
sinon [xk ; bk ] = [ak+1 ; bk+1 ] = Ik+1 .
Et on prend comme approximation de x la valeur xk .

Critre darrt

Soit k 2 N. Nous avons :

79
CHAPITRE 3. RSOLUTION DQUATIONS ET SYSTMES NON LINAIRES

bk ak bk 1 ak 1 b 0 a0
bk+1 ak+1 = = = ::: =
2 22 2k+1
et si x est la racine de lquation f (x) = 0, nous aurons :

bk ak b 0 a0
jx xk j bk+1 ak+1 = =
2 2k+1
Et donc, si on dsire calculer une approximation xk de x avec n dcimales exactes, il su t
b 0 a0
de poser k+1 0:5 10 n .
2
Ce qui revient ce quon aille dans les itrations jusqu ce que k vrie lingalit :

b 0 a0
log
k 0:5 10 n 1.
log 2

80
TRAVAUX DIRIGS 3

Travaux dirigs 3

Exercice 1 :
Parmi les fonctions suivantes lesquelles sont contractantes et sur quel intervalle si
celui-ci nest pas indique :
 t ]
8
(a)  798;:< , >= ?= A@ ;



(b)   , D= ?= ;




(c)  
CB
<EGF
B


(d) 

IH
 J .
Exercice 2 :
Voir si chacune des fonctions suivantes admet zero, un ou plusieurs points fixes,

   Z ' #j  Q # &'
puis donner pour chacun un intervalle de separation :

  LK  

  NMPO
0
@


Exercice 3 :
Montrer que lequation RQ 
TS <EUF admet une unique racine dans lintervalle
Q
WV : 7
Q
"V ;Q IR, et S B B
8 .
=

Exercice 4 :

=#] s
Determiner a laide de la methode du point fixe les deux racines reelles de
=
    =(t
avec une erreur  K =


. Utiliser pour lune de ces racines la

NX
methode iterative , et pour lautre Y  .

 P'
Exercice 5 :
Soit la fonction   , on se propose de trouver les racines reelles

de F par la methode des approximations successives.


Montrer que F possede une seule racine reelle Z [ . & ~
Etudier la convergence des trois methodes iteratives suivantes : [ donne v
et
(\ ) D= 
 ;

D=


(] )  

;
( ) D=  .
`

 
_
^

Si lune de ces methodes converge lutiliser pour determiner a = Z


pres.

81
Exercice 6 :

Soit lequation Ya F + & /

b dans IR .
Montrer que la methode iterative definie par  ca
F + &/ est conver-
b

gente (verifier les hypotheses du theoreme du point fixe). Choisir  , condition


initiale de literation, dans lintervalle de convergence puis trouver limite de la
Z

suite. Donner lordre de la methode.

Exercice 7 :

On veut resoudre dans IR lequation Y  
ou,  
a

jq
F ,



a) 1) Montrer quelle admet une seule racine Z , montrer que Z ed f[ .
  D=  D#
$
2) Montrer que la methode iterative : diverge.
ih 

D= 
 g
3) on considere alors

, (remarquer que 
existe),
$

D
montrer que la methode iterative :
converge.
En posant K
LZ montrer que
K
=
est de signe oppose a K , quen conclut-

=
on ? 7
Donner le bon test darret des iterations pour avoir Z a S j
pres, puis donner
cette racine approchee.
b)
Retrouver Z a laide de la methode de Newton.
Remarquer que Newton est dordre 2.

82
SUGGESTIONS ET CORRIGS

Suggestions et Corrigs

Exercice 1
(a)  
2
<EUF  IR. (ac

Montrons que est contractante sur IR, on a :


 


8':< ]
 et
B

 B
=




donc, dapres la proposition
7
1,  est contractante de rapport de contraction

 m1N #jq
inferieur ou egal a 2 .

% '
(b)   .
Soient  '& (jq
B B
, montrons que  
= . On a
B B B B

B

% / 

B




 B B
u
 B

B


'
 B B B B

= W
 B B

En effet, dune maniere generale, on peut montrer que = :




B B B B
Supposons que alors
B Bj B B



u "
B B B B
=
B
u
B
B

B
dapres linegalite triangulaire
=
B

B
u
B

B
B B B B

, dou le resultat .
et le rapport de contraction est
On fait de meme si = = u

 /

B B B B B B B B B B
Ainsi,  

  m & ]
= u x
B B CB B
(c)     .
On a :
 et 



 %

= =


 .

donc, & |

.

 * = 7

 B B
Ainsi, est contractante de rapport
(d) 
x= 7


 . H
J

est definie sur 8 mais ny est pas lipschitzienne. 

83
En effet, 
est lipschitzienne sur d sil existe une constante reelle ,
telle que  / d 
Q ,  
, cest a dire que le rapport
% / , pour N , est borne.
 ed =$ W
  B B B B

. Ce rapport vaut
u

Posons 

 + # Z  

H
J

 




 q



J
H
J






donc non bornable sur tout intervalle contenant  ; ainsi  ne peut etre
lipschitzienne sur  . 8
En fait, on montre que  est lipschitzienne sur tout intervalle avec D 8

Q  . Sur cet intervalle,   H


Z =
H
t . Ainsi, grace a la

 J  J

proposition 1,  est lipschitzienne de constante J= H


t .

 q

En outre, 
est contractante si , donc si H
z , cest a dire
Q
 J

pour .

8 .


En conclusion,  est contractante sur


Exercice 2

(a) Points fixes de 
. Rappelons quun point fixe de  est un point

H

dabscisse Z verifiant 
. Par abus de langage, et dans tous les exer-
cices qui suivent, on dira que est le point fixe de  (au lieu de labscisse
du point fixe de  ).
Ici  est definie sur
1
et on a


 H
#

est clairement la seule solution sur



1
de cette equation et est par
consequent le seul point fixe de  .
Demontrons le autrement :

 P Q et

 H

H


Posons Q 8 ; est continue sur IR et derivable sur IR et

 , donc est strictement croissante sur . Dautre part,
H

H

Q/W=v et Q # , donc I/~+Q #v . Ainsi, dapres le theoreme


 

84
SUGGESTIONS ET CORRIGS

{ C/# ~
Q q
de la valeur intermediaire, il existe un et un seul reel  tel que
/#

; celui-ci est donc le seul point fixe de sur  . Le lecteur
1


pourra aisement demontrer que cela reste vrai sur tout .

 YK

 
(b) Points fixes de
.
K

J
I
Posons
. est continue et derivable sur IR, et
Lv
K




, donc est strictement decroissante. Dautre part,
+= YJ
Q q
et . Dapres le theoreme de la valeur intermediaire,
M
il existe un et un seul reel /j
tel que . Ce reel est donc
lunique point fixe de sur 
/jq
. De meme, on peut aisement demontrer

  OQ #+
que cela reste vrai sur tout IR.
(c) Points fixes de  " .

   #
 

Donc 2 est lunique point fixe de  sur IR ; ce point fixe est dit triple a cause
de la puissance du terme " .  Q #
 Q #

K

(d) Points fixes de  " .


V

   #



K


V

Appliquons le theoreme de la valeur intermediaire a

  ' #

K

u
V

. est continue et derivable sur .

   #%


 
V

Montrons que IR F .


Pour cela, on etudie le signe de , on a :
 


1 a
K

K a
 RV F PV
V


En consequence, est strictement croissante sur D a F PV , strictement +
: v c L
croissante sur a F V  et a
F V . Ainsi, IR , F  L

donc est strictement decroissante.


Dapres le theoreme de la valeur intermediaire, il existe un et un seul reel
t& q
/
a
F PV tel que . Ce dernier est lunique point fixe de  .

85
Exercice 3
%Q

<EUF  , Q
? 8 .
=

Montrons quil existe un unique reel


B
1& : V solution de lequation
B
Z
Q
V
Q
eV

 Q / Q
u <EUF


On a
W 8;:< , car 8# =


B B

ainsi est monotone. Or,


Q '  Q
<EGF
Q


WV V " WV

Q i Q
"V V " <EUF
Q
V

donc, Q +Q ? , et dapres le theoreme de la valeur intermediaire,


Q Q

il existe un unique reel 1 : V tel que .


uV V
Q Q
Z WV uV )Z

Exercice 4
Soit lequation  v=(]J .
a) Posons 
J
=#


Etudions donc la methode iterative Dj


? .
=#
vers une des racines de Q , si est la limite de la suite D# , alors
Remarquons tout dabord que si cette methode converge, elle converge bien
Z Z

J donc =# Z? , cest a dire que Q  .


Z

=# Z Z )Z

Localisons la racine de cette equation. On a I et +~


Qc+~ , et comme est derivable sur IR et  =#nK sur
Z donc 3

C/qq alors, grace au theoreme de la valeur intermediaire, il existe un unique reel


/jq solution de lequation  .
On a aI K et +~
Z


. Comme est monotone sur IR
), on a donc cCjq C/qq .
 

(puisque  ] sur
2
 
t

Demontrons que 
? est contractante sur Cjq :
=#


a% / =#J j#J


B
 

B




j# W

 Q

"

=# ( B B
B
u
B
=
 B
u
B

86
SUGGESTIONS ET CORRIGS

On aurait pu aussi la proposition 1, puisque   ] et #  ] y




t

donc contractante de rapport ] .


 B B


Ainsi,  /j , Dj Vc  converge vers , unique solution


t

 


de vj#] ? dans Cjq .


Z

Calculons cette racine partant de  , on a


V q I# =# /j##/
 Y

qVc I/j##/~ /_/=#(/=## (##/


 Y

q I/j##/=(# (#(/~ W


 Y

q W


7 


Si on cherche Z a pres, on arretera les calculs a literation o telle que  
/_/=## j B ~

D= D
=R . Ainsi la solution Z ici vaut a
pres.
~ B

=#
z
b) Lautre solution est obtenue grace a la methode iterative
  . Cette question est laissee en exercice.

Exercice 5
Soit lequation 
 Y . Il est clair que est continue et
+~ Q # 
derivable sur .
On a ,   , donc P Q~c (
. Dautre part,
] #

 sur  . Donc, dapres le theoreme de la valeur intermediaire, il existe

& #
D= D
une seule solution Z  telle que )Z .



(a) Etudions la convergence de la suite  c . Tout

dabord, cette suite, si elle converge, conduit bien a une racine de



car si Z est la limite de la suite Dd
, alors

donc  Q /
Z Z  )Z Z IZ "

Par ailleurs,  ]

sur # . Par consequent, grace au theoreme
  

des accroissements finis, il existe q compris entre D et Dj tel que



Djm% aDd # DjnD


B
 

B
Y

B B

87
Donc

Djm% D 
 DjPD
B B


 DPD
B

B
..
.

VP
B B

Ainsi, cette suite diverge et la methode est a rejeter.


D= D# ~ . Cette methode, si
(b) Etudions la convergence de 


elle converge conduit vers la racine de Q dans # , car si est la limite de


Z  Z

la suite Dd , alors

donc  v /
Z
Z

)Z Z Z

]

3

v~


P

 D %J~
3 

~ v=


P



+


3D 7

En consequence, on ne peut conclure sur la monotonie de  . Cependant on a



7 ~

)Z
Z
3Z

Z
Z


' 1

or Z le point fixe de verifie



Qv
Z
Z

Donc  )Z 7 
Z

, et comme  est continue, il existe un voisinage de Z tel
que  , et ( : 

B


B
$ . Donc cette methode ne peut pas converger

a 
V %n
dapres la proposition 3. En effet, grace au theoreme des accroissements finis, on
D=PD .
B Bj B B

88
SUGGESTIONS ET CORRIGS

D= D# D . Si elle converge,


N _
(c) Etudions la convergence de
cette methode conduit a la racine de  dans # car si est la limite de


 Z

la suite Dd , alors

donc  et Q

Z
_


Z
 Qv
Z

Z
)Z Z Z

On a


(

` 
_


contractante dapres la proposition 1. Dautre part, +~


est strictement
 
donc
, # n , or est monotone, donc m # ~ # . Donc

_  H _  
P    *

dapres le theoreme du point fixe, la suite

& (

D= D#

$

converge vers lunique racine N # de lequation  .



$

Calcul numerique de cette racine a = pres, a partir de 


Z *

j
:

0 1 2 3 4
D 1 1.144 1.162 1.165 0.165

Donc #
Z  est solution de lequation a =
pres.

Exercice 6
Soit lequation La F 
dans . + &M/
Considerons la methode iterative definie par :

Dj D(
$ $a
F &D#M / 

Q  / &  I


Montrons dabord lexistence dune solution pour cette equation.
a

Q Q /
Soit F  , on a
 sur IR , donc

Q~ ?/ &
lequation admet au plus une racine. Dautre part on a  et
a
F  3 , donc I#c+~5
; ainsi, dapres le theoreme de la
&O /jq

valeur intermediaire, il existe une unique racine Z solution de lequation

Q
 & /
.
Appliquons la Methode du point fixe pour  Ya
F * .

89

est contractante sur d HF U/jq car

1 H   N ( d


Donc, si cCDFH DFH , dapres le theoreme du point fixe, il existe une




unique racine &DFH solution de lequation  .


u

C/ F ] . En effet, I/ #
Z

Par exemple, on verifie que m/ F/ ]  

/ /WD et I/ / /Wv .
 3  3 

b b 3 b3 3

Calcul numerique de cette racine a = et j pres : j



0 1 2 3 4 5 6 7 8 9
D 0.7 0.730 0.748 0.758 0.764 0.767 0.769 0.770 0.771 0.771

Ainsi la racine cherchee est /


Z   a j
pres, et / a =
Z 
pres.

Exercice 7
Soit lequation   ou  . Y  a
F

1. 1) Posons  P   , 5 IR . Appliquons le  a
F

theoreme de la valeur intermediaire a sur CDj ou  8 .


est continue sur Djq , 7QMjq . &Djq ,  d et i
=

, donc est strictement monotone sur CDjq .


Dautre part on a Q~ Q , et comme
 , alors il
a a
EU  F


existe QMjq tel que Iizv ; par consequent, +~+Q , a



F

et dapres le theoreme de la valeur intermediaire, il existe un unique {


qq (dou 1M/qq ) tel que  , et donc tel que .
Z
Y La

2) Si Dj
Z )Z Z )Z F Z

D# converge, elle conduit bien a la racine de lequation car


Y

cette derniere verifie  donc Z


$
)Z

7 Z V Z
a
F )Z Z
a
F )Z


Mais, v8CDjd  , et  donc la methode Dj 



D diverge pour tout &qd .


a
F
B B

Dd est convergente.


 

Montrons que D=


3) existe car est continue et strictement croissante donc bijective.

designe la reciproque de et non


Y

 
Attention a la notation utilisee :
.




.

est derivable et on a  

, par consequent


bP*

En effet, dune maniere generale


 qq  . #D # 6

 

 

90
SUGGESTIONS ET CORRIGS

Or,   , donc   . On a bien alors  

.
 

Or, on a montre que Y CDjd ,  . Mais


 , car est decroissante. Puisque NK , alors


  K
, donc

 B B
 K K K

t , donc  ' et /



K K 

R

 .

B B

Par consequent

D converge au voisinage de , dapres la




Ainsi la methode D=


B Y B

Z

4) Posons D et  . La methode D=


proposition 2.
  
K IK IK


converge IZ

(dailleurs, on a / et / , n ). Dautre  


K zK



B B
part, grace au theoreme des accroissements finis on sait quau voisinage
de , il existe q compris entre D et tel que :
Z Z

j Dj D#%  q(qD a K


Z  )Z IZ

K
Ainsi, j / # . Or, /t& IR . Donc = et sont
K

K K

de signes opposes, par consequent deux iterations successives donnent un


encadrement de .
5) Un test darret des iterations est : j D=QD j .
Z
7
K K

Prenons qq avec W . On a bien / sur et


=%

B B B B
d d d +$d
B B
car :

/W= / W NK

+~
K

LK
 
/W(jq
Dj
et
est monotone sur
j

Calcul numerique de la racine a
pres. Soit donc la methode
 
K

et

0 1 2 3 4 5 6 7 8
D
1 0.367 0.692 0.500 0.606 0.545 0.579 0.560 0.571


9 10 11 12 13 14 15
D 0.564 0.568 0.566 0.567 0.566 0.567 0.567

Ainsi la racine cherchee est /


Z b a j
pres.
2. Methode de Newton.
Soit K

 
, est clairement indefiniment derivable. La

91
methode de Newton secrit,

Dj D D# D D  

D# K

 

Dautre part on a I v et Q~
v , donc +=cI
et la racine est situee dans C/qq , elle est unique puisque est strictem- M

net monotone, car  pour tout . On a aussi



K

 K


O pour tout . Ainsi dapres le theoreme de conver-

gence globale de cette methode (voir theoreme 3), pour tout  ?C/qq tel
que Qac a literation de Newton converge. Prenons alors, par
exemple,  , alors I+  t , donc la methode
K

D= D D
 


K

K  

convegera vers lunique racine de lequation.


Z

92
Chapitre 4

Rsolution numrique des quations


direntielles ordinaires dordre 1

4.1 Introduction
Soit le problme de cauchy

y 0 = f (t; y)
(1)
y (t0 ) = y0

ou f : [t0; t0 + T ] R ! R, le thorme ci-aprs nous donne des conditions qui


assurent lexistence et lunicit de la solution (thorique) de ce problme :

Thorme 4.1.1 Si f est continue et sil existe une constante L strictement positive telle
que pour toute t 2 [t0 ; t0 + T ] ;et tout y1; y2 2 R; on ait f (t; y1 ) f (t; y2) L jy1 y2 j alors,
le poblme de Cauchy admet une solution unique ,quelque soit y0 2 R: On dit alors que f est
L-lipchitzienne ,o L est la constante de Lipschitz.

REMARQUE 7.1
Nous nous placerons toujours dans les conditions du thorme7:1
Lobjectif de ce chapitre est de dcrire un certain nombre de mthodes permettant
de rsoudre numriquement le problme de Cauchy :
Etant donn une subdivition t0 < t1 < ::: < tN = t0 + T de [t0; t0 + T ] ; on cherche
dterminer des valeurs approches y0 ; y1; ; yN des valeurs y (tn ) prises par la solutionexacte y:
On notera les pas succssives

hn = tn+1 tn ; 0 n N 1
et hmax = max (hn ) le maximum des pas

On appelle mthode un pas une mthode permettant de calculer Yn+1 partir


de la seule valeur antrieure yn .Une mthode r pas est au contraire une mthode ou
le calcul de yn+1 ncessite la mmorisation des valeurs yn ; yn 1 ; ::::yn r+1 .

93
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

4.2 Mthodes numriques un pas


Les mthodes un pas sont les mthodes de rsolution numrique qui peuvent scrire sous
la forme :
yn+1 = yn + hn '(tn; yn ; hn ); 0 n N (1.1)
o ' : [t0 ; t0 + T ] R R ! R est une fonction que lon supposera continue .
Dans la pratique, la fonction '(tn; yn ; hn ) peut ntre dnie que sur une partie de la forme
[t0 ; t0 + T ] J [0; ] o J est un intervalle de R (de sorte en particulier que [t0 ; t0 + T ] J
soit contenu dans le domaine de dnition de lquation direntielle).
Dans toutes les mthodes numriques dveloppes par la suite, on subdivise lintervalle
[t0 ; t0 + T ] en N intervalles de longueur

(t0 + T ) t0 T
h= =
N N
limits par les points
tn = t0 + nh; 0 n N (1.2)

4.2.1 Mthode DEULER


En t0 on connait y0 ; donc aussi

y 0 (t0 ) = f (t0 ; y0 ):

Si y(t) est la solution exacte de (1). y(t) est approche sur lintervalle [t0 ; t1 ] par sa tangente
au point t0 .
Et ainsi, on a
y1 = y0 + hf (t0 ; y0 ):
Sur lintervalle [t1 ; t2 ] ; y(t) sera remplace par la tangente au point (t1 ; y1 ): On trouve

y2 = y1 + hf (t1; y1 ):

yn+1 = yn + hf (tn; yn ); 0 n N 1
Ceci conduit lAlgorithme dEuler :
tn+1= tn + h;
Prcision de la mthode dEuler

94
4.2. MTHODES NUMRIQUES UN PAS

la mthode dEuler est une mthode du premier ordre , cest--dire que lerreur au point tn
sexprime par lingalit
jyn y(tn )j kh (1.3)
o yn est la valeur approche dnie par lalgorithme dEuler, y(tn ) est la valeur exacte
de la soltion du problme de Cauchy au point

t = tn = t0 + nh

et k une constante indpendante de n et de h.

Application
Rsolution dune quation selon la mthode dEuler
Soit le peoblme de Cauchy
y0 = t + y
(1.4)
y (0) = 1
On veut approcher, 10 3 , la solution de (1.4) en t = 1 laide de la mthode dEuler, en
subdivisant lintervalle [0,1] en dix parties gales.
Selon lalgorithme dEuler :

yn+1 = yn + hf (tn + yn ) ; 0 n 9 et h = 0:1 (1.5)


tn+1 = tn + h (1.6)

On calcule les valeurs du tableau :


n 0 1 2 3 4 5 6 7 8 9 10
tn 0 0:1 0:2 0:3 0:4 0:5 0:6 0:7 0:8 0:9 1:0
yn 1 1:1 1:22 1:362 1:5282 1:7210 1:9431 2:1974 2:4871 2:8158 3:1874
On trouve
y(1) ' 3:187
La solution exacte de lquation (1) est donne par y(t) = 2 exp(t) t 1, ce qui donne
y(1) = 3; 437.
Lapproximation calcule est donc trs grossire.

Remarque 4.2.1 (1.1) Lerreur dans la mthode dEuler est relativement importante. Elle
peut tre amliore en choisissant plus petit le pas h, ce qui augmente considrablement le
volume des calculs eectuer, ou en approchant la solution du problme de Cauchy par des
mthodes permettant de rduire cette erreur .

Programme
En Matlab, on peut facilement programmer la mthode dEuler avec la fonction suivante :
*************************************************************************************
Programme dEuler

95
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

********************************************************************************************
function [t,y] = Euler(f,tmin,tmax,Nint,y0) % Mthode dEuler
% Nint - nombre de sous intervalles N
% tmin - temps t 0
% tmax - temps t 0+ T
% f est une fonction avec comme arguments t et y(t) : f(t, y(t))
% y0 lentre est compos des valeurs des conditions limites y 0= y (t 0) (E)
h = (tmax-tmin)/Nint ; % valeur du pas
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
y(1) = y0 ; % initialisation : y(1)=y(t 0) = y 0
for n = 2 : Nint+1
y(n) =y(n-1) + h*feval(f,t(n-1),y(n-1)) ; % Calcul dEuler
end % for n
end % fonction Euler
*********************************************************************************************
*********************************************************************************************

4.2.2 Mthode de Taylor (dordre2)


Supposons que f soit de classe C 1 Alors y(t) est de classe C 2 , et le devloppement de Taylor
dordre 2 implique :

h2
y(tn+1 ) = y(tn + h) = y(tn ) + hy0(tn ) + y00(tn ) + o(h2 ) (1.7)
2!
et comme :
dune part,
y0(tn ) = f tn ; y(tn) (1.8)
dautre part
d d @f @f dy
y00(tn ) = (y0(t)) jt=tn = (f (t; y(t))) jt=tn = ( + : ) jt=tn
dt dt @t @y dt
@f @f @f @f
=( + :y0) jt=tn = (tn ; y(tn )) + (tn ; y(tn )):f (tn ; y(tn )):
@t @y @t @y
Il vient :
h2 @f @f
y(tn+1 ) = y(tn ) + hf (tn ; y(tn )) + (tn ; y(tn )) + (tn ; y(tn ))f (tn ; y(tn )) + o(h2 )
2 @t @y

On est amen considrer lalgorithme suivant , appele : Algorithme de Taylor( dordre2) :


( h i
h2 @f @f
y(tn+1 ) = y(tn ) + hf (tn ; yn ) + 2 @t (tn ; yn ) + @y (tn ; yn ):f (tn ; yn )
(T2 )
tn+1 = tn + h

96
4.2. MTHODES NUMRIQUES UN PAS

Remarque 4.2.2 (1.2) En fait, la mthode de Taylor consiste approcher la solution de


lquation (1) par des arcs de paraboles au lieu des segments de droits (des tangentes) utili-
ss dans la mthode dEuler.

Prcision de la mthode de Taylor


On montre que la mthode de Taylor (dordre 2) , est une mthode du second ordre.
Autrement dit, luerreur au point tn vrie :

jyn y(tn )j kh2 (1.9)

o yn est la valeur approche dnie par lalgorithme de Taylor (dordre 2), y(tn ) est la valeur
exacte de la solution du problme de Cauchy au point tn , et k une constante indpendante de
n et h.
Consquence
Lalgorithme de Taylor (dordre 2), est plus prcis que celui dEuler

Remarque 4.2.3 Si lon veut encore rduire la marge derreur, on tiendra compte dun plus
grand nombre de termes dans le dveloppement de Taylor cest--dire, on suppose f de class
C p , et donc y en sera en class C p+1 et sa drive k eme est

y (k) (t) = f [k 1]
(t; y(t))

avec
f [1] = ft0 + fy0 f:
Le dveloppement de Taylor dordre p permet daboutir lalgorithme de Taylor dordre p
8
< y Pp
hk (k 1)
n+1 = yn + hf (tn ; yn ) + k
f (tn yn )
k=1
:
tn+1 = tn + h

qui est dordre p (au sens de la prcision )

Applications
Rsolution dune quation avec la mthode de Taylor
Soit lquation direntielle rgissant le mouvement du pendule :

ax + y sin x = 0 (1.10)

o a est la longueur du pendule, g la gravitation terrestre et x lcart du pendule avec la


verticale au sol.
En posant x = dxdt
= y(x);on a : x = y0x = y0y et (1.10) devient :

ay0y + g sin x = 0 (1.11)

97
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

qui scrit encore :


g sin x
y0 = = f (x; y) (1.12)
a y
Lalgoritme de Taylor (dordre2) correspondant scrit :
( h i
g 2 sin2 xn
yn+1 = xn+1 = yn h ag sinynxn + 12 h2 g cos xn
a yn a 2 yn 3
(1.13)
xn+1 = xn + h 0 n N 1

Programme
La fonction Matlab suivante calcule les approximations solution de y = t - y faites avec
la srie de Taylor jusqu lordre 4.
*************************************************************************************
Programme de Taylor (dordre2)
*************************************************************************************
function Taylor(tmin,tmax,Nint,y0) % Approximations par srie de Taylor
% Nint - nombre de sous intervalles N
% tmin - temps t 0 ; tmax - temps t 0+ T
% On trait ici lquation y= t - y(t)
h = (tmax-tmin)/Nint ; % valeur du pas
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
yt = inline((y0+1)*exp(-t) + t - 1,t,y0) ; % solution exact (F)
texa = linspace(tmin,tmax,101) ; % discrtisation de t pour la ?chage de la solution exacte
yexact = yt(texa,y0) ;
(1)
y1 = inline(t - y,t,y) ; % y
(2)
y2 = inline(1 - t + y,t,y) ; % y
(3)
y3 = inline(-1 + t - y,t,y) ; % y
(4)
y4 = inline(1 - t + y,t,y) ; % y
yT1(1) = y0 ; % yT1 contient les solutions de y - Approximation dEuler
yT2(1) = y0 ; % yT2 contient les solutions de y Approximation de Taylor ordre 2
yT3(1) = y0 ; % yT3 contient les solutions de y Approximation de Taylor ordre 3
yT4(1) = y0 ; % yT4 contient les solutions de y Approximation de Taylor ordre 4
for n = 2 :Nint+1 % Calcul approximation dEuler
yT1(n) = yT1(n-1) + h*y1(t(n-1),yT1(n-1)) ;
end % for n
for n = 2 :Nint+1 % Calcul de lapproximation de Taylor ordre 2
yT2(n) = yT2(n-1) + h*y1(t(n-1),yT2(n-1)) + (h^2/2)*y2(t(n-1),yT2(n-1)) ;
end % for n
for n = 2 :Nint+1 % Calcul de lapproximation de Taylor ordre 3

98
4.2. MTHODES NUMRIQUES UN PAS

yT3(n) = yT3(n-1) + h*y1(t(n-1),yT3(n-1)) + ...


+(h^2/2)*y2(t(n-1),yT3(n-1))+(h^3/6)*y3(t(n-1),yT3(n-1)) ;
end % for n
for n = 2 :Nint+1 % Calcul de lapproximation de Taylor ordre 4
yT4(n) = yT4(n-1) + h*y1(t(n-1),yT4(n-1)) + ...
+(h^2/2)*y2(t(n-1),yT4(n-1))+(h^3/6)*y3(t(n-1),yT4(n-1)) + ...
+ (h^4/24)*y4(t(n-1),yT4(n-1)) ;
end % for n
% plot : crer un graphique avec les rsultats des 4 courbes
axes(FontSize,14) ;
plot(texa,yexact,t,yT1,t,yT2,t,yT3,t,yT4,+,LineWidth,2)
xlabel(t ,FontSize,16) ;
ylabel(y(t) ,FontSize,16) ;
legend(y(t) exacte,Euler (ordre 1),Taylor ordre 2,Taylor ordre 3,Taylor ordre 4) ;
tit = sprintf(Mthodes de Taylor y=t-y : N=%d, h=%.2f,Nint,h) ;
title(tit) ;
end
*************************************************************************************
*************************************************************************************

4.2.3 Mthode du point milieu


Lide est que la corde de la fonction y(t) sur [t; t + h] a une pente voisine de y 0 (t + h2 ); alors
que dans la mthode dEuler on approxime brutalement cette pente par y 0 (t).
On crit donc :
h
y(t + h) ' y(t) + hy 0 (t + ) (1.14)
2
On a par ailleurs
y h h
y 0 (t + ) = f (t + ; y 0 (t + )): (1.15)
2 2 2

99
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

Comme la valeur de y 0 (t + h2 ) nest pas connue , on lapproxime par :

h h h
y 0 (t + ) ' y(t) + hf (t + ; y(t) + f (t; y(t)): (1.16)
2 2 2
Dou, on dnitife :
h h
y(t + h) ' y(t) + hf (t + ; y(t) + f (t; y(t)) (1.17)
2 2
LAlgorithme du point milieu peut donc scrire :
8
> yn+ 1 = yn + h2 f (tn ; h)
>
< 2
pn = f (tn + h2 ; yn+ 1 )
2 (1.18)
>
> y n+1 = yn + hpn
:
tn+1 = tn + h 0 n N 1

Prcision de la mthode du point milieu


Comme la mthode de Taylor dordre 2, la mthode du point milieu est dordre 2.

4.2.4 Mthode de Runge-Kutta


Soit de nouveau le problm de Cauchy

y 0 = f (t; y)
(1.19)
y(t0 ) = y0

On reprend lalgorithme de Taylor en crivant la seconde quation de la manire suivante :

h h @f @f
yn+1 = yn + f (tn ; yn ) + f (tn; yn ) + h (tn ; yn ) + h (tn ; yn ) f (tn ; yn )
2 2 @t @y

Selon le dveloppement de Taylor on a, des termes en h prs,

@f @f
f (tn ; yn ) + h (tn ; yn ) + h (tn ; yn ) f (tn ; yn ) = f (tn + h; yn + hf (tn ; yn )) (1.21)
@t @y

Ainsi, on obtient LAlgorithme de Runge-kutta dordre 2 :


8
>
> tn+1 = tn + h 0 n N 1
<
pn;1 = f (tn ; yn )
(1.22)
>
> pn;2 = f (tn+1 ; yn + h2 pn;1 )
:
yn+1 = yn + h2 (pn;1 + hpn;2 )

La mthode de Rung-kutta la plus utilise est dordre 4(on nglige les drives du 4eme ordre
dans le dvlopement de Taylor ) ; Il sagit de lalgorithme suivant :

100
4.2. MTHODES NUMRIQUES UN PAS

Algorithme de Rung- Kutta dordre 4 :


8
>
> tn+1 = tn + h 0 n N 1
>
>
>
> pn;1 = f (tn ; yn )
<
pn;2 = (tn + h2 ; yn + h2 pn;1 )
(1.23)
>
> pn;3 = (tn + h2 ; yn + h2 pn;2 )
>
>
>
> pn;4 = f (tn+1 ; yn + hpn;3 )
:
yn+1 = yn + h6 (pn;1 + 2pn;2 + 2pn;3 + pn;4 )

Ainsi,la mthode de Runge-kutta dordre 4 consiste valuer 4 valeurs intermdiaires


pn;1 ; pn;2 ; pn;3 ;et pn;4 et faire la moyenne pondre .

Prcision de la mthode de Rung -kutta


La mthode de runge -kutta dordre 2 est une mthode du second ord, i.e.

jyn y(tn )j kh2 (1.24)

et la mthode de Runge-kutta 4 est une mthode du quatrime ordre, i.e.

jyn y(tn )j kh4 (1.25)

o k est une constante qui ne dpend pas du pas h.

Applications
Soit le problme de Cauchy
y 0 = y 2ty
(1) (1.26)
y(0) = 1
On dsire approcher, en eectuant le calcul avec six (06) dcimales, la slution de (1) en
t = 0:2 laide des mthodes de Runge-kutta dordre 2 et dordre 4:
La solution exacte tant p
y = 2x + 1; (1.27)
on estimera alors les rsultats obtenus .
On considre donc, linetrvalle [t0 ; t1 ] avec

t0 = 0; t1 = t0 + h = 0:2

et
h = 0:2;
ie :
[t0 ; t1 ] = [0; 0:2]
1.Mthode de Rung-Kutta dordre 2 :

101
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

En utilisant lalgorithme correspondant, on obtient :


8
>
> t1 = t0 + h = 0:2
<
p0;1 = f (t0 ; y0 ) = f (0; 1) = 1
(1.28)
>
> p 0;2 = f (t1 ; y0 + hp0;1 ) = f (0:2; 1:2) = 0:866667
:
y1 = y0 + h2 (p0:1 + p0:2 ) = 1:186667

Ainsi
y(0:2) ' y1 = 1:186667
La valeur exacte tant p
y(0:2) = 1:4 = 1:183216
Lerreur commise est :
2
jy(0:2) y1 j = j1:186667 1:183216j = 0:003451 < 0:510
et donc
y(0:2) ' 1:19 0:01
ie :
y1 approche y(0:2) avec trois (03) c.s.e
2.Mthode de Runge-Kutta dordre 4 :
De lalgorithme correspondant, il vient :
8
>
> t1 = t0 + h = 0:2
>
>
>
> p 0;1 = f (t0 ; y0 ) = f (o:1; 1:1) = 1
<
p0;2 = (t0 + h2 ; y0 + h2 p0;1 )
(1.29)
>
> p0;3 = (t0 + h2 ; y0 + h2 p0;2 ) = f (0:1; 1:0918182) = 0:0908637
>
>
>
> p0;4 = f (t1 ; y0 + hp0;3 ) = f (0:2; 1:181727) = 0:843239
:
y1 = y0 + h6 (p0;1 + 2p0;2 + 2p0;3 + p0;4 ) = 1:183229
Ainsi,
y(0:2) ' y1 = 1:183229
La valeur exacte, calcule plus haut, tant
p
y(0:2) = 1:4 = 1:183216
Lerreur est :
jy(0:2) y1 j = j1:183216 1:183229j = 0:000013 < 0:510 4 ;
Donc,
y(0:2) ' 1:1832 0:0001
ie :
y1 approche y(0:2) avec cinq (05) c.s.e
Remarque Les mthodes un pas considres jusque l se programme facilement et en
cours du calcul elles saprtent sans problmes au changement de pas.

102
4.3. MTHODE NUMRIQUES PAS MULTIPLES

Programme
Une faon de programmer la mthode Runge Kutta dordre 2 est la suivante :
*************************************************************************************
Programme Runge Kutta dordre 2
*************************************************************************************
function [t,y] = RK2(f,tmin,tmax,Nint,y0) % Mthode de Runge Kutta dordre 2
% Nint - nombre de sous intervalles
% tmin - temps t0
% tmax - temps t0 + T
% f est une fonction avec comme arguments t et y : f(t,y(t))
% y0 contient les valeurs des conditions limites
h = (tmax-tmin)/Nint ; % valeur du pas (G)
t = linspace(tmin,tmax,Nint+1) ; % vecteur de t discrtis t=[tmin,tmax]
y(1) = y0 ; % y contient les solutions de y(tn)n = 1, ...,Nint + 1
for n = 2 :Nint+1
k1 = h*feval(f,t(n-1),y(n-1)) ;
k2 = h*feval(f,t(n-1)+h/2,y(n-1)+k1/2) ;
y(n) = y(n-1) + k2 ;
end % for n
end
*********************************************************************************
*********************************************************************************
Comme la mthode dEuler, les mthodes de Runge Kutta peuvent tre appliques une
fonction arbitraire.

4.3 Mthode numriques pas multiples


Les mthodes pas multiples sont les mthodes de rsolution numrique o pour valuer
yn+1 en utilisant plusieurs yn k , k = 0; 1; :::; r: Au dpart on doit alors calculer un premier
ensemble de valeurs y1 ; :::yn avec une autre mthode et puis commencer itrer partir de
yr+1 en utilisant les valeurs prcdantes. On suppose ici que le pas hn = h est constant. Les
calculs alors eectus suivant le schma suivant :
X
r X
r
( ) yn+1 = i yi +h i 1 f (tn+1; yn+1 ) +h i f (tn i ; yn i ) (2.1)
i=0 i=0

o les i ; i sont des constantes relles .


Si 1 = 0, le schma est dit explicite ( ou bien forme ouverte ) : yn+1 est oubtenu directe-
ment par lapplication de la formule .
Si 1 6= 0; le schma estimpicite car il faut rsoudre une quation de la forme

yn+1 = g(yn+1 ) (2.2)

103
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

pour obtenir yn+1 : Dans ce cas la formule est appele ferme ou encore formule de prdiction ,
trouve antrieurement .
La suprorit des mthode pas multiples sur les mthodes pas constant rside dans le
fait qu elle ne ncessite pas dvaluation de f en des points intermdiaires (sauf au dmarage ).
Par rapport une mthode de Runge-kutta du mme ordre, le temps de calcul est donc rduit
dans une proportion importante .
Remarque Comme il a t montionn plus haut, le point initial (t0 ; y0 ) tant donn,
lalgorithme ne peut dmarrer que si les valeurs (y1 ; f (t1; y1 )); :::; (yr ; f (yr ; f (tr ; yr )) ont dja
calcules.
Le calcul ne peut tre fait que par une mthode un pas pour (y1 ; f (y1 ; t1 )); au plus
deux pas pour (y2 ; f (y2; t2 )) , ... au plus r pas pour (yr ; f (tr ; yr )):
Linitiation de des r premires valeurs (yi ; f (yi ; ti )); 1 i r; sera gnralement faite l
aide dune mthode de Rung- kutta dordre suprieur ou gal celui de la mthode ( ); ou
la rigueur un de moins.

4.3.1 Mthode dAdams-Bashforth


1er Cas : r=1
Si y(t) est une solution exacte associe au problme de Cauchy (1), on crit :
tZn+1

y(tn+1 ) = y(tn ) + f (t; y(t))dt (2.3)


tn

Supposons quon ait dja calcul les points y(tn 1 ) et y(t) et les pentes fn 1 = f (tn 1; y(tn 1 ))
et fn = f (tn ; y(tn )): La mthode dAdams-Bashforth consiste approximer la fonction f (t; y(t));
en tant que fonction de t, par son polynme dinterpolation aux points tn 1 et tn .Soit P (t) ce
polynme, P (t) est la fonction a ne dnie par :

fn fn 1
P (t) = fn + (t tn ) (2.4)
tn tn 1

On crit alors ,
tZn+1

y(tn+1 ) = y(tn ) + f (t; y(t))dt (2.5)


tn

tZn+1

' y(tn ) + p(t)dt (2.6)


tn

3 1
= y(tn ) + h( fn fn 1 ) (aprs calcul) (2.7)
2 2

104
4.3. MTHODE NUMRIQUES PAS MULTIPLES

Lalgorithme d Adams-bashforth 2 pas va donc scrire :


8
>
> y0 ; y1 donns
<
yn+1 = yn + h( 23 fn 12 fn 1 )
(2.8)
>
> tn+1 = tn + h
:
fn+1 = f (tn ; yn )

Prcision :
La mthode dAdams-Bashforth 2 pas est ordre 2 , ie lerreur au point tn est donne par :

jy(tn ) y(t)j kh2 (2.9)

o k est indpendant de n et de h.
Initialisation : pour calculer yi il est prfrable dutilser une mthode de mme ordre (par
exemple la mthode de Runge -Kutta dordre 2).

Remarque 4.3.1 On peut augmenter la prcision de la mthode dAdams-Bashforth en consi-


drant le cas r = 2.

2 me cas : r = 2
Un raisonnement analogue au cas o r = 1, nous amne lAlgorthme dAdams-
Bashforth 3 pas qui scrit :
8
>
> y0 ; y1; y2 donns
<
yn+1 = yn + h( 23 f
12 n
4
f
3 n 1
5
+ 12 fn 2 )
(2.10)
>
> tn+1 = tn + h
:
fn+1 = f (tn ; yn )

Prcision de la mthode dAdams-Bashforth


La mthode dAdams-Bashforth 3 pas est dordre 3.

4.3.2 Mthode dAdams-Moulton


Soit y(t) une solution exacte .Le dveloppement de Taylor de y(t) scrirait :

y(t) = y(tn+1 h) = y(tn+1 ) hy 0 (tn+1 ) + o(h2 ) (2.11)

= y(tn+1 ) hf (tn+1; y(tn+1) ) + o(h2 ) (2.12)


En ngligeant les termes en h2 ; lAlgorithme dAdams -Moulton dordre 2 sen dduit
alors : 8
< y0 donne
yn+1 = yn + hf (tn+1 + yn+1 ) (2.13)
:
tn+1 = tn + h

105
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

La premire quaton de lalgorithme (2.13) scrit aussi :

yn+1 hf (tn+1 + yn+1 ) = yn (2.14)

Remarque 4.3.2 On augmente la prcision de la mthode dAdams-moulton en ngligeant les


termes en h3 dans le developement de Taylor. On aboutit alors :

Algorithme de la mthode dAdams-moulton dordre 3, dite aussi mthode des trapzes


(ou mthode de Crank-Nicolson ) :
8
< y0 donne
yn+1 = yn + h2 (fn+1 + fn ) (2.15)
:
tn+1 = tn + h

o
fn+1 = f (tn+1 ; yn+1 )

et
fn = f (tn ; yn )

La premire quation de lalgorithme (2.15) peut scrire encore

h h
yn+1 f (tn+1 + yn+1 ) = yn + fn
2 2

On fait de mme pour obtenir lAlgorithme dAdams -Moulton dordre 4 :


8
< y0 ; y1 donne
5 8 1
yn+1 = yn + h( 12 fn+1 + 12 fn f )
12 n 1
(2.16)
:
tn+1 = tn + h

o
fn+1 = f (tn+1 ; yn+1 ); fn = f (tn ; yn ) (2.17)

et
fn 1 = f (tn 1 ; yn 1 ): (2.18)

Initialisation :Comme pour la mthode dAdams-Bashforth, on initialise y1 laide dune


mthode de mme ordre (par exemple la mthode de Rnng-Kutta corresponante).

106
4.4. AUTRES MTHODES

4.3.3 Mthode de prdiction-correction


On ce donne une mthode dit de prdiction fournissant (explicitement ) une premire valeur
approche pyn+1 du point yn+1 atteindre :

pyn+1 = prdiction de yn+1

pfn+1 = f (tn+1; pyn+1 ) = prdiction de fn+1 (2.20)

En substituant la valeur pfn+1 ainsi trouve fn+1 dans la formule dAdams-Moulton, on


obtient alors une nouvelle valeur corrige yn+1 qui est retenue en vue des calculs ultrieurs .
La premire approximaiton pyn+1 de yn+1 est dite le prdicteur de yn+1; et la valeur corrige
yn+1 ; le correcteur. Dou le nom ( de cette mthode) : prdicteur -correcteur .
Application
Mthode de prdiction-correction dAdams-Moulton dordre 3 :
8
>
> prdiction : pyn+1 = yn + hfn (mthode dEuler )
>
>
< tn+1 = tn + h
Evaluation : pfn+1 = f (tn+1; pyn+1 ) (2.21)
>
> 1 1
>
> Correction : yn+1 = yn + h( 2 pfn+1 + 2 fn )
:
Evaluation : fn+1 = f (tn+1; yn+1 )

4.4 Autres Mthodes


4.4.1 Mthode dAdams
Soit y(t) une solution exacte du problme de Cauchy (1.1). Supposons quon ait dj
calcul, par un procd quelconque, les trois valeurs suivantes de y(t) :

y1 = y(t1 ) = y(t0 + h) (3.1)

y2 = y(t2 ) = y(t0 + 2h) (3.2)

y3 = y(t1 ) = y(t0 + 3h) (3.3)


Compte tenu de la condition initiale
y(t0 ) = y0 (3.4)
et laide des nombres :
t0 ; t1 ; t2 ; t3 et y0 ; y1; y2 ; y3
On calcule les grandeurs u0; u1; u2 ; u3 o

u0 = hf (t0 ; y0 ) (3.5)

107
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

u1 = hf (t1 ; y1 ) (3.6)

u2 = hf (t2 ; y2 ) (3.7)

et
u3 = hf (t3 ; y3 ) (3.8)

En suite on forme le tableau des dirences nies des grandeurs yi et ui :


xi yi 4yi ui 4ui 42 ui 43 ui
t0 y0 u0
4y0 4u0
t1 y1 u1 42 u0
4y1 4u1 43 u0
2
t2 y2 u2 4 u1
4y2 4u2 43 u1
2
t3 y3 u3 4 u2
4y3 4u3 43 u2
t4 y4 u4 42 u3
. . 4y4 . 4u4 . 43 u3
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
tn 2 yn 2 . un 2 . . .
4yn 2 4un 2 . .43 un 3
tn 1 yn 1 un 1 42 un 2
4yn 1 4un 1
tn yn un
Au bas du tableau, la conaissance des nombres de larange oblique compose de
un 4un 1 42 un 2 4un 3
permet de trouver yn par la formule dAdams :
1 5 2 3 3
4yn = un + 4 un 1 + 4 un 2 + 4 un 3 (3.9)
2 12 8
qui scrit encore (car4yn = yn+1 yn ):
formule dAdams,
1 5 2 3 3
yn+1 = yn + un + 4 un 1 + 4 un 2 + 4 un 3 (A)
2 12 8
Pour n = 3 : On obtient ,
1 5 2 3
y 4 = y 3 + u3 + 4 u2 + 4 u1 + 43 u0: (3.10)
2 12 8

108
4.4. AUTRES MTHODES

Si on connait y4 on peut calculer

u4 = hf (t4 ; y4 ) (3.11)

ce qui permet dcrire la range oblique suivante :

u4 = hf (t4 ; y4 ); 4u3 = u4 u3 ; 42 u2 = 4u3 4u2 ; 43 u1 = 42 u2 42 u1 (3.12)

La nouvelle diagonale donne la possibilit de calculer par la formule dAdams (A), la valeurs
de
1 5 2 3
y 5 = y 4 + u4 + 4 u3 + 4 u2 + 43 u1; (3.13)
2 12 8
et ainsi de suite ....
Ainsi , la formule (A) rsou le problme pos. Lorsqu on a estim y(t) pour les valeurs
t1; :::; tn elle fournit lapproximation yn+1 de y(tn+1 ): On peut encore calculer

un+1 = hf (tn+1; yn+1 ) (3.14)

complter le tableau, et recommencer les mmes oprations en remplaant n par n + 1 .


Prcision : La mthode dAdams, reprsente par la formule (A), est dordre 5,cest--dire :

jyn y(tn )j kh5 (3.15)

o yn est la valeur calcule par la formule (A), y(tn ) la valeur exacte de la solution y(t) du
problme de Cauchy (1.1) au point tn et k une constante qui ne dpend pas de h.

Applications
An de calculer la valeur approche, au point t = 2, de la solution de lquation direntielle
t2 y 0 ty = 1; vriant la condition initiale y(1) = 0;appliquons la mthode dAdams, avec
h = 0:2.
Pour cela, soit
y0 = y(1) = 0 (3.16)
y1 = y(1:2) = 0:1834
y2 = y(1:4) = 0:3429
et
y3 = y(1:6) = 0:4898
(calculs pralablement dans notre cas par la mthode de Runnge-kutta dordre 4).
Lquation dierentielle associe au problme scrit encore :
1 1
t2 y 0 ty = 1 () y 0 = (y + ) = f (t; y) (3.17)
y t
Calculons alors u0; u1; u2 et u3 : Nous avons :

u0 = hf (t0; y0 ) = 0:2

109
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

u1 = hf (t1; y1 ) = 0:1695
u2 = hf (t2; y2 ) = 0:1510

u3 = hf (t3; y3 ) = 0:1394
Et le tableau des dirences fnies des grandeurs yi et ui scrit :
xi yi 4yi ui 4ui 42 ui 43 ui
1.0 0 0.2
0.1834 -0.0305
1.2 0.1834 0.1695 0.120
0.1595 -0.0105 -0.0051
1.4 0.3429 0.1510 0.0069
0.1469 -0.0116
1.6 0.4898 0.1394
Alors, daprs la formule dAdams (A), on obtient :
1 5 2 3
y 4 = y 3 + u3 + 4 u2 + 4 u1 + 43 u0 (3.18)
2 12 8

= 0:4898 + 0:1394 0:0058 + 0:0029 0:0019 = 0:6244


La solution exacte tant
t 1
y(t) =: (3.19)
2 2t
Estimons la valeur obtenue. Lerreur commise est gale :
2
y4 y(1:8) = 0:6244 0:6222 = 0:0022 0:510

Ainsi,
2
y4 = 0:6244 ' 0:62 10
Et comme on connnait y4 ; on peut calculer

u4 = h:f (t4 ; y) = 0:1311 (3.20)

Cela permet de complter le tableau par la diagonale infrieure suivantes :

u4 ; 4u3 ; 42 u2; 43 u1 (3.21)

O
4u3 = u4 u3 = 0:1311 0:1394 = 0:0083
42 u2 = 4u3 4u2 = 0:0083 + 0:0116 = 0:0033
43 u1 = 42 u2 42 u1 = 0:0033 0:0069 = 0:0036

110
4.4. AUTRES MTHODES

La nouvelle diagonale donne la possibilit de calculer par la formule dAdams (A), la valeur :
1 5 2 3
y 4 = y 4 + u4 + 4 u3 + 4 u2 + 43 u1 (3.22)
2 12 8
= 0:6244 + 0:1311 0:0042 + 0:0014 0:0014 = 0:7513
lerreur commise dans ce cas est gale :
2
y5 y(2) = 0:7513 0:7500 = 0:0013 0:510

Ainsi ,une valeur approche, au point t = 2, de la solution exacte du problme de Cauchy


ci-dessus est donne par :
y5 = 0:7513 ' 0:75 10 2 :

4.4.2 Mthode des approximations successives (Picard )


La mthode des approximaton successives de Picard est une mthode analytique qui permet
de trouver une solution approche du problme de Cauchy (1.1).Si y(t)
est la solution exacte de (1), elle scrirait :

Zt
y(t) = y0 + f (s; y(s))ds (3.23)
t0

En substituant y0 = y(t0 ) y(t) sous le signe intgrle (car la fonction y(t) est inconnue ),
on obtient la premire approximation :
Zt
y1 (t) = y0 + f (s; y0 )ds (3.24)
t0

La deuxime itration est obtenu en portant dans la formule (3.23) la valeur trouve y1 (t)
la place de la fonction inconnue y(t) :

Zt
y2 (t) = y0 + f (s; y1 (s))ds (3.25)
t0

et ainsi de suite ...


Lalgorithme de la mthode des approximations successives secrit alors :

y0 (t) = y0
Rt (3.26)
yn (t) = y0 + t0 f (s; yn 1 (s))ds n = 1; 2; :::

Les yn (t) sont appeles les approximations successives(de y(t); solution de (3.26)).

111
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

Si
fy0 (t; y) > 0 (3.27)
et
f (t; y0 ) > 0 (3.28)
Les approximations de Picard forment une suite croissante de fonctions infrieures

y(t) : y0 < y1 < ::: < yn < y(t): (3.29)

Par contre si f (t; y0 ) < 0; alors la suite des approximations est dcroissante :

y0 > y1 > ::: > yn > y(t): (3.30)

Et ainsi lorsque fy0 (t; y) > 0; les approximations de Picard forment une suite dapproxima-
tions unilatrales.
Sify0 (t; y) < 0;les approximations forment une suite bilatrales.
Exemple 7.5 En appliquant la mthode des approximations successives la rsolution du
problme de Cauchy :
y0 = y + t t 0
y(0) = 0
on trouve, en partant de y0 = y(0) = 0 :

Zt
yn+1 = (s + yn (s))ds n = 1; 2; :::
0

donc 8 2
>
> y1 (t) = t2!
>
>
>
>
2 3
y2 (t) = t2! + t3!
< 2 3 t4
y3 (t) = t2! + t3! + 4!
>
> ..
>
> .
>
>
: yn (t) = t2
+ t3
+ t4
+ + tn+1
2! 3! 4! (n+1)!

Ici, f (t; y0 ) = t + y0 0 et fy0 (t; y) = 1i0. Par consquent la suite des approximations de
Picard(yn ), forme une suite de fonctions infrieurs (suite dcroissante).
La solution exacte du problme est obtenue par :

t2 t3 t4 tn+1
y(t) = lim ( + + + + )
n!+1 2! 3! 4! (n + 1)!
t2 t3 t4 tn+1
= lim (1 + t + + + + + ) t 1
n!+1 2! 3! 4! (n + 1)!
= et t 1

112
4.5. STABILIT DES SOLUTIONS

4.5 Stabilit des solutions


On se propose ici dtudier le comportement des solutions dune quation direntielle et
des lignes intgrales dun champ de vecteurs lorsque le temps t tend vers linni. On sintresse
essentiellement au cas des quations linaires ou voisines de telles quations. Dans ce cas, le
comportement des solutions est gouvern par lesigne de la partie relle des valeurs propres de
la matrice associe la partie linaire de lquation : une solution est dite stable si les solutions
associes des valeurs voisines de la donne initiale restent proches de la solution considre
jusqu linni.
Cette notion de stabilit (dite aussi stabilit au sens de Lyapunov) ne devra pas tre confon-
due avec la notion de stabilit dune mthode numrique, qui concerne la stabilit de lalgo-
rithme sur un intervalle de temps x. On tudie nalement les direntes congurations pos-
sibles des lignes intgrales au voisinages des points singuliers non dgnrs dun champ de
vecteurs plan.

Dnition 4.5.1 Soit y(t; z) la solution maximale de (1) tel que y(t0; z) = z. On dira que la
solution y(t; z0 ) est stable sil existe une boule B(z0 ; r) et une constante C 0 telles que
(i) Pour tout z 2 B(z0 ; r), t ! y(t; z) est dnie sur [t0 ; +1[ ;
(ii) Pour tous z 2 B(z0 ; r) et t t0 on a ky(t; z) y(t; z0 )k C kz z0 k.
La solution y(t; z0 ) est dite asymptotiquement stable si elle est stable et si la condition (ii)
plus forte que (ii) est satisfaite :
(ii) Il existe une boule B(z0 ; r) et une fonction : [t0 ; +1[ ! R+ continue avec (t) = 0
telles que pour tous z 2 B(z0 ; r) et t t0 on ait

ky(t; z) y(t; z0 )k (t) kz z0 k :

4.5.1 Cas dun systme linaire coe cients constants


Nous tudierons dabord le cas le plus simple, savoir le cas dun systme linaire sans
second membre 0 1 0 1
y1 a11 a1m
B C B .. C
Y 0 = AY; Y = @ ... A ; A = @ ... ..
. . A ((E))
ym am1 amm
avec yj ; aij 2 C ; le cas rel peut bien entendu tre vu comme un cas particulier du cas
complexe. La solution du problme de Cauchy de condition initiale Y (t0 ) = Z est donne par
Y (t; Z) = e(t t0 )A Z. On a donc

Y (t; Z) Y (t; Z0 ) = e(t t0 )A


(Z Z0 )

et la stabilit est lie au comportement de e(t t0 )A


quand t tend vers +1, dont la norme
e(t t0 )A doit rester borne.

Thorme 4.5.1 Soient 1 ; :::; m les valeurs propres complexes de la matrice A.


Alors les solutions du systme linaire Y 0 = AY sont

113
CHAPITRE 4. RSOLUTION NUMRIQUE DES QUATIONS DIFFRENTIELLES
ORDINAIRES DORDRE 1

asymptotiquement stables si et seulement si Re( j ) < 0 pour tout j = 1; :::; m.


stables si et seulement si pour tout j, ou bien Re( j ) < 0, ou bien Re( j ) = 0 et le bloc
correspondant est diagonalisable.

4.5.2 Ptite perturbation dun systme linaire


On considre dans |m = Rm ou Cm un systme de la forme

Y 0 = AY + g(t; Y ) (E)

o g : [t0 ; +1[ |m ! |m est une fonction continue. On se propose de montrer que si la


partie linaire est asymptotiquement stable et si la perturbation g est su samment petite, en
un sens prciser, alors les solutions de (E) sont encore asymptotiquement stables.

Thorme 4.5.2 On suppose que les valeurs propres complexes j de A sont de partie relle
Re j < 0.
(a) Sil existe une fonction k : [t0 ; +1[ ! R+ continue telle que lim k (t) = 0 et
t!1

8t 2 [t0 ; +1[; 8Y1 ; Y2 2 |m ; kg(t; Y1 ) g(t; Y2 )k k(t) kY1 Y2 k ;

alors toute solution de (E) est asymptotiquement stable.


(b) Si g(t; 0) = 0 et sil existe r0 > 0 et une fonction continue k : [0; r0 ] ! R+ telle que
lim k (r) = 0 et
r!1

8t 2 [t0 ; +1[; 8Y1 ; Y2 2 B(0; r); kg(t; Y1 ) g(t; Y2 )k k(r) kY1 Y2 k ;

pourr r0 , alors il existe une boule B(0; r1 ) B(0; r0 ) telle que toute solution Y (t; Z0 ) de
valeur initiale Z0 2 B(0; r1 ) soit asymptotiquement stable.

114
TRAVAUX DIRIGS 4

Travaux dirigs 4

Exercice 01 :
 2 h T
Soit lequation differentielle a condition initiale H H  H et .

Approcher la solution de cette equation en H  a laide de la methode dEuler
en subdivisant lintervalle de travail en 10 parties egales. Comparer a la solution
exacte.

x )<
Exercice 02 :
Approcher la solution de ` 4)<
lequation differentielle ci-dessous en H en utili-
sant RK2, avec un pas
<

` H 
H H
H 

Comparer a la solution exacte.

Exercice 03 :
suivant
Soit le probleme de Cauchy
? 4 B
y(t) = t + y(t), H U V
y(0) =1

1. Trouver la solution exacte de ce probleme.


4)
2. Appliquer la methode dEuler a ce probleme, avec
I)  , puis evaluer la
solution en H # . Comparer a la solution exacte.
Exercice 04 :
 /j
En donnant les solutions de lequation differentielle ci-dessous avec la condition
initiale  puis   , reel non nul, verifier quelle conduit a des
schemas instables.  
H )
#/! H #/ []

115
SUGGESTIONS ET CORRIGS

Suggestions et Corrigs

Exercice 01

 ;  BS4
H
/ H  H H 

B
Lintervalle dintegration est U  V .
que etant continue et lipshitzienne par rapport a
Remarquons tout dabord
le probleme de Cauchy  admet une solution unique (theoreme 9 de Cauchy-
Lipshitz).
Methode dEuler Elle secrit :
BS
x   H

 H 

   "H
 3 x I 4) `
On a aussi  , x [ e  H et H H  W x .
Dou le tableau,
e e e e e
 < p s  

 4) 4)< #
) 4) p 4) s 4 ! )  ) 4 )m )  
H ) )</< ) < # )  p !
     #/! # 
x ) p

Cest a dire que lapproximation en H  de H , est #  .
e
Solution exacte de cette equation Appliquons la methode de la variation de
la constante.
1ere etape : equation sans second membre.

H n  `
H
0  H
est une solution
I> >2
evidente. ?  Les autres < / solutions sont donnees par
H . Dou avec .
nde
@>  R> 
2 etape : une solution particuliere On applique la methode de la varia-
>
>
tion de la constante
> > dou
>  que lon reporte dans
>k ` :
 
H ainsi, H [] .
H [] H en integrant par parties on trouve
>
H []  [] H

H [] []  
#
[]  H  

116
?!
avec 
eme
.
> # <
3 etape : solution generale. On remplace donne par dans :
#"
[]  H  $
donc,
w
 H  

Finalement, grace a la condition initiale  , on determine  , dou
 G <
    e&% 
<
Ainsi, la solution exacte de  est  H  .
Estimation de lerreur. La solution exacte ci-dessus donne    
< )p
# #/!/! . Ainsi, lerreur( { { ) p
{ ' effectivement commise 4)de
) p { lors < s lapplication
de la methode dEuler est # #/!/! #  . Cherchons
lerreur theorique qui est donnee par :
 
D[  ~ <
`2/ 7 {   {
Ou ~ H et est la constante de Lipschitz de
N par rapport
a , qui se calcule aisement :

{ H BSt  H B { { K { %


)

De meme, on a
  h
H   H 
<
  H   H 
<

Ainsi ~ I< . Donc,
x  x  < [ x
{ w
{ [ e  <


  I
4
 ) p !#

('
Clairement, { { { { , donc la methode dEuler donne une bonne ap-

proximation de la solution de ce probleme de Cauchy en H .
117
SUGGESTIONS ET CORRIGS

Exercice 02

3  B%t 
H H H eH 

Remarquons tout dabord que etant continue et lipshitzienne par rapport a

ce probleme de Cauchy admet une solution unique (theoreme 9 de Cauchy-


Lipshitz). 4BS4)< I)<
Lintervalle dintegration est U V et le pas dintegration est .
Methode de RK2 Elle secrit :
` *B
\ x  < ~ x  ~
soit
x 3
 < ~ x  ~
e
4
 )
 4 )<B 4) <z 4)<DB )</
, avec ~ x 
  et ~    . Donc  
4)
!/!/! . `4)<
Ainsi, lapproximation en H de H , est

x 4 ) m)
  < ~ x  ~     /! !/!
x )
  !/!/!

Solution exacte de cette equation


<
  3K H B `
9 

 `D
0< x S `D
0<
En multipliant  par H dou H . On pose
5 ` on a
donc dou :
</   ` 0<
< H
'*)
Ce qui est une equation differentielle lineaire du 1 ordre. On lintegre par
 I< 2 ` 2 `>
la methode de la variation de la constante comme a lexercice precedent.
Lequation sans second membre est de solution ou .
Une solution particuliere par la variation de la constante. On a

#  +   <,
? 
 - </x   <   p
avec . Dou, dans H ce qui implique H [ .

118

Integrons par parties :
 p.  
< H [  < [ H0/
<
H [  [ 1
<
 2 [
H 3  

?- T < 
avec  2/4 comme *5
H  2 ,
5 DO <
. La solution generale est donc
H J <
 75 . Finalement,
J < H 62 . Ainsi, H 32 . Comme
2 5 alors H 82 . </I J < 5 9 <
Estimation de lerreur. La solution exacte est *5 9 
32
;: < (' { 2 9 2 ;:< 2 2 9 2 ;<;<;< { 5=9>5;5 : p s
2 92 2 . Donc lerreur commise est { { .
On peut comparer cette erreur effective a lerreur theorique sur RK2, donnee
par : -
(le theoreme du cours)

Exercice 03
Soit le probleme de Cauchy suivant

? ; < G 
H BS4
7 5 H H H
2
2
Remarquons tout dabord que etant continue et lipshitzienne par rapport a

le probleme de Cauchy 2 admet une solution unique (theoreme 9 de Cauchy-
Lipshitz).
Methode dEuler. Elle secrit :
BS
x
  H
<
 H
<
2  "H
3 5=9 5
On a aussi 75 2 , 2 H et H W .
x 5=9  e 5 95 < e
Donc  , dou le tableau,
< :
5 2
< :
H 5 5=/9 2 < 5=9 5=9
/< 5=9 p <
;
2 5=9 5=9 2
5 9 :
Cest a dire que lapproximation en H de H avec le pas 5=9 2 , est
x 5=9 p <
2 .
e 119
SUGGESTIONS ET CORRIGS

Solution exacte de cette equation. En appliquant la methode de la variation


< 0< :
de la constante, comme au premier exercice, on trouve la solution generale,
H H  [] . :j 5 9 <<
Estimation de lerreur. La solution exacte ci-dessus donne *5=9 .
(' {5=9 </< 5=9 p 2 { 5=95 2 
Ainsi, lerreur effectivement commise lors de lapplication de la methode
dEuler est { { . Cherchons lerreur theorique
qui est donnee par :

\A@ [DC B 2 ~ <
~ `2/ 7 { ? ? H { et est la constante de Lipschitz de

Ou
N par rapport
a , qui est ici clairement egale a . On a 2
? ? D: 9
H []
Ainsi ~ E: . Donc,
{ w x  : 25 [ x
{ @ eGF [ e  B 2 < 2
5=9 2 s eGF 2 IH 5=95 s < p 9
'
{( { { { , donc la methode dEuler donne une: bonne ap-
Clairement,
proximation de la solution de ce probleme de Cauchy en H 5 9 .

Exercice 04
? ; :;<
H : []
2 7 5 H
2 , puis 2


KJ  comme
En appliquant la methode de la variation de la constante,

au premier
exercice, on trouve la solution generale, H [ L XZ [] L XZ ou 
est la constante dintegration.
5
1. Si * 5 2 , alors  , donc la solution du probleme est H [] .
*5 k M T
2. Si 
2  , alors  , donc la solution du probleme est H

[]  XZ .
 M {
M {
Conclusion  : En comparant H et H , on voit que la difference H
H XZ . Meme si est tres petit, cet ecart tend vers O  N , les deux solutions
divergent lune de lautre. Ce probleme est donc tres sensible aux Conditions Ini-
tiales.

120
Bibliographie

[1] K. ARBENTZ, A. WOHLHAUSER : Analyse Numrique. Suisse, 1980.


[2] J. BASTIEN : Introduction lanalyse numrique :Applications sous Matlab, Dunod, 2003.
[3] E. CANON : Analyse numrique, Cours et exercices corrigs - Licence 2 et 3 Mathma-
tiques, Dunod, 2012.
[4] P. DEUFLHARD, A. HOHMANN : Numerical Analysis in Modern Scientic Computing,
An Introduction, Springer-Verlag, 2003, 2e dition.
[5] M. FELLAH, N.H. ALLAL : Exercices corrigs en Analyse Numrique Elmentaire. O.P.U,
Alger, Rimpression 2005.
[6] F. FILBET : Analyse numrique, algorithme et tude mathmatique, Dunod, 2013.
[7] F. JEDRZEJEWSKI : Introduction aux Mthodes Numriques, Deuxime dition.
Springer-Verlag France, Paris 2005.
[8] R. HERBIN : Cours dAnalyse numrique, polycopi, Universit Aix Marseille, 2014.
[9] M. LAKRIB : Cours dAnalyse Numrique. O.P.U, Alger, 2005.
[10] A. QUARTERONI, R. SACCO ET F. SALERI : Mthodes Numriques, Algorithmes, Ana-
lyse et Applications, Springer, 2006.
[11] R. THEODOR : Initiation lanalyse numrique, CNAM, Masson, 1989.
[12] D. ZILL : Dierential Equations with Boundary Value Problems, PWSKent Pub, 1989.

121

You might also like