You are on page 1of 71

Universit Paris XI

Math 202

2014/2015

Algbre linaire, rduction


Olivier Fouquet

Un ingnieur vient couter son meilleur ami, un mathmaticien, donner une confrence sur les proprits gomtriques des espaces de dimension 23. A plusieurs reprises, lorateur justifie lune des ses assertions en mentionnant que on voit bien
que... ou alors quil est visuellement vident que... A la fin de lexpos, lingnieur demande son ami comment il russit visualiser un espace de dimension 23.
Cest facile lui rpond ce dernier je visualise en dimension n et ensuite je prends
n = 23.

Table des matires


1 Bases de lalgbre linaire
1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Motivation et premiers exemples . . . . . . . . . . . . . . . . .
1.1.2 Dfinitions formelles . . . . . . . . . . . . . . . . . . . . . . .
1.1.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Applications linaires . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Dfinition et premires proprits . . . . . . . . . . . . . . . .
1.2.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Systmes dquations linaires . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Interprtation linaire des systmes dquations . . . . . . . .
1.3.2 Exemples de rsolutions pratique de systmes dquations linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.3 Un problme mystrieux . . . . . . . . . . . . . . . . . . . . .

4
4
4
8
12
13
13
15
17
17

2 Rduction des endomorphismes


2.1 Sous-espaces stables, sous-espaces propres . . . . . . . .
2.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Familles de vecteurs propres . . . . . . . . . . . .
2.1.3 Lien avec les matrices triangulaires suprieures . .
2.2 Polynmes dendomorphismes . . . . . . . . . . . . . . .
2.2.1 Rvision sur les polynmes . . . . . . . . . . . . .
2.2.2 Polynmes dendomorphismes . . . . . . . . . . .
2.3 Rduction des endomorphismes . . . . . . . . . . . . . .
2.3.1 Motivation et exemples . . . . . . . . . . . . . . .
2.3.2 Coeur et nilespace . . . . . . . . . . . . . . . . .
2.3.3 Espaces propres gnraliss . . . . . . . . . . . .
2.3.4 Polynme caractristique . . . . . . . . . . . . . .
2.3.5 Rduction des endomorphismes diagonalisables . .
2.3.6 Rduction des endomorphismes nilpotents . . . .
2.3.7 Rduction des endomorphismes de C2 . . . . . . .
2.3.8 Thorme de rduction de Jordan . . . . . . . . .
2.3.9 Trace et dterminant dun endomorphisme . . . .
2.3.10 Rduction des endomorphismes rationnels ou rels

23
23
23
24
25
26
26
28
29
29
31
33
36
37
38
41
41
43
45

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

19
21

3 Dterminants
45
3.1 Formes linaires, multilinaires . . . . . . . . . . . . . . . . . . . . . . 45
3.1.1 Formes linaires . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.1.2 Formes bilinaires . . . . . . . . . . . . . . . . . . . . . . . . . 47
2

3.2

3.3
3.4

3.1.3 Formes multilinaires . . . . . . . . . . .


Dterminants . . . . . . . . . . . . . . . . . . .
3.2.1 Dterminant dune matrice . . . . . . . .
3.2.2 Proprits fondamentales du dterminant
3.2.3 Dveloppement en ligne et en colonne . .
Lien avec linversion et les systmes linaires . .
Lien avec la rduction . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

4 Espaces vectoriels euclidiens


4.1 Dfinitions et premires proprits . . . . . . . . . . .
4.1.1 Produit scalaire . . . . . . . . . . . . . . . . .
4.1.2 Lingalit de Cauchy-Schwarz . . . . . . . . .
4.1.3 Bases orthogonales, orthonormalisation . . . .
4.1.4 Orthogonal, supplmentaire orthogonal . . . .
4.2 Endomorphisme adjoint . . . . . . . . . . . . . . . .
4.2.1 Dfinition . . . . . . . . . . . . . . . . . . . .
4.2.2 Matrice adjointe, matrice orthogonale . . . . .
4.3 Rduction des endomorphismes auto-adjoints . . . . .
4.3.1 Valeur propre . . . . . . . . . . . . . . . . . .
4.3.2 Rduction des endomorphismes auto-adjoints
5 Rduction de quelques endomorphismes importants
5.1 Projecteur . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Dfinition et rduction . . . . . . . . . . . . .
5.1.2 Projection orthogonale . . . . . . . . . . . . .
5.2 Symtrie . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Dfinition et rduction . . . . . . . . . . . . .
5.2.2 Symtrie orthogonale . . . . . . . . . . . . . .
5.3 Rotation . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.1 Dfinition et rduction . . . . . . . . . . . . .
5.4 Endomorphisme dordre fini . . . . . . . . . . . . . .
5.4.1 Dfinition et rduction . . . . . . . . . . . . .
5.4.2 Permutation . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

47
50
50
51
53
54
57

.
.
.
.
.
.
.
.
.
.
.

58
58
58
59
60
62
63
63
66
67
67
68

.
.
.
.
.
.
.
.
.
.
.

69
69
69
69
69
69
70
70
70
70
71
71

Bases de lalgbre linaire

1.1
1.1.1

Espaces vectoriels
Motivation et premiers exemples

Lalgbre linaire est ltude abstraite des espaces vectoriels et des applications linaires entre espaces vectoriels. A ce titre, il sagit dune gnralisation et dune
formalisation de certains aspects de la gomtrie classique. De manire informelle,
un espace vectoriel est un ensemble non-vide dlments, que lon appelle donc des
vecteurs, qui vrifie les proprits suivantes.
1. On peut additionner deux vecteurs de E. Plus prcisment, si u et v sont deux
vecteurs de lespace vectoriel E, alors u + v est un vecteur de lespace vectoriel
E.
2. On peut multiplier un vecteur de E par un scalaire. Plus prcisment, si u est
un vecteur de E et est un lment dun corps K, alors u est un vecteur de
E.
Bien entendu, beaucoup de termes restent imprcis dans la dfinition ci-dessus,
commencer par scalaire. Afin de fixer les ides, nous encourageons le lecteur supposer dornavant que la lettre K dsigne lensemble Q des nombres rationnels, lensemble R des nombres rels ou lensemble C des nombres complexes. Les lecteurs
dhumeur audacieuse pourront explorer le texte dans le cas plus gnral o K est
un corps quelconque, cest--dire un anneau commutatif non nul dont tous les lments non-nuls admettent un inverse multiplicatifs (ce qui est bien le cas de Q, R et
C). Avant de donner une dfinition prcise, explorons quelques exemples despaces
vectoriels.
Exemples despaces vectoriels
1. Lensemble Q est un Q-espace vectoriel. En effet, laddition de deux nombres
rationnels u et v est bien un nombre rationnel w = u + v et la multiplication
dun nombre rationnel u par un nombre rationnel (que lon voit ici comme
un scalaire) est bien un nombre rationnel v = u. De mme, R est un R-espace
vectoriel et C est un C-espace vectoriel. En revanche,Q nest pas un R-espace
vectoriel car si u Q est un vecteur non-nul, alors 2u nest pas un nombre
rationnel bien que 2 R soit un scalaire. De mme R nest pas un C-espace
vectoriel car si u R est un vecteur non-nul, alors i u nest pas un nombre
rel bien que i C soit un scalaire (ici i dsigne une solution de lquation
X 2 + 1 = 0). Notons enfin que R est un Q-espace vectoriel et que C est un
Q-espace vectoriel et un R-espace vectoriel.
2. Le plan rel
R2 = {(x, y)|x R, y R}
est un R-espace vectoriel. Un vecteur de R2 est un vecteur au sens gomtrique
usuel du terme. En particulier, un vecteur u R2 a deux coordonnes et
4

 
a
peut scrire u =
. Notons que le plan R2 est aussi un Q-espace vectoriel,
b
mais un Q-espace vectoriel extrmementcompliqu,
  et que
 cest un C-espace
a
a b
vectoriel condition de poser ( + i)
=
. Le plan R2 muni
b
b + a
de sa structure de R-espace vectoriel est un bon modle de la gomtrie plane
usuelle.
3. Lespace tridimensionnel rel
R3 = {(x, y, z)|x R, y R, z R}
est un R-espace vectoriel. Un vecteur de R2 est un vecteur de lespace au
sens gomtrique usuel du terme. En particulier, un vecteur u R3 a trois
coordonnes et peut scrire

a

u = b .
c
Tout comme R2 , lespace R3 est aussi un Q-espace vectoriel, mais ce nest pas
un C-espace vectoriel. Lespace R3 muni de sa structure de R-espace vectoriel
est un bon modle de la gomtrie usuelle de notre espace physique.
4. Lensemble

y R3 |x + y + z = 0 R3

est un R-espace vectoriel.


5. Lensemble
R4 = {(x1 , x2 , x3 , x4 )| 1 i 4, xi R}
est un R-espace vectoriel. Contrairement R, R2 et R3 , il nadmet pas dinterprtation gomtrique vidente.
6. Plus gnralement, si n est un entier strictement positif, lensemble
Rn = {(x1 , , xn )| 1 i n, xi R}
est un R-espace vectoriel.
7. Plus gnralement encore, si K est un corps (par exemple K = Q, R ou C) et
si n est un entier strictement positif, lensemble
K n = {(x1 , x2 , . . . , xn )| 1 i n, xi K}
est un K-espace vectoriel.
8. Lensemble
R[X] =

(
X

)
an X n |n, an R, an = 0 pour presque tout n

n=0

des polynmes coefficients dans R est un R-espace vectoriel.


5

9. Si n est un entier positif, lensemble


(
)
X
Rn [X] =
am X m |m, am R, m > n, am = 0 R[X]
m=0

des polynmes de degr au plus n est un R-espace vectoriel.


10. Plus gnralement, si K est un corps, lensemble
(
)
X
K[X] =
an X n |an K, an = 0 pour presque tout n
n=0

des polynmes coefficients dans K est un K-espace vectoriel. Lensemble


(
)
X
Kd [X] =
an X n |an K, an = 0, n > d
n=0

des polynmes coefficients dans K de degr au plus d est un K-espace vectoriel.


11. Si K est un corps (par exemple K = Q, R ou C), lensemble
(
)
X
K[X] =
an X n |an K
n=0

des sries entires coefficients dans K est un K-espace vectoriel.


12. Lensemble des fonctions de R dans R est un R-espace vectoriel.
13. Plus gnralement, si U est un ensemble et n est un entier strictement positif,
lensemble des fonctions de U vers Rn est un R-espace vectoriel.
14. Plus gnralement encore, si U est un ensemble, n est un entier strictement
positif et K est un corps, lensemble des fonctions de U vers K n est un Kespace vectoriel.
15. Lensemble des fonctions drivables de R dans R est un R-espace vectoriel. Plus
gnralement, si n est un entier ou et U un intervalle de R, lensemble des
fonctions de U dans R de classe C n est un R-espace vectoriel.
16. Lensemble des fonctions f de R dans R satisfaisant lquation diffrentielle
f 0 + cos(x)f = 0
est un R-espace vectoriel.
17. Plus gnralement, si les gn sont des fonctions de R dans R, lensemble des
fonctions f de R dans R satisfaisant lquation diffrentielle
d
X

gn (x)

n=0

est un R-espace vectoriel.


6

dn f
=0
dxn

18. Lensemble


M2 (R) =



a b
4
|(a, b, c, d) R
c d

des matrices de taille 2 2 coefficients rels est un R-espace vectoriel.


un corps et n est un entier strictement positif,
a1,n
ai,j

19. Plus gnralement, si K est


lensemble

a1,1

Mn (K) =

an,1

an,n

| 1 i, j n, ai,j K

des matrices de taille n n coefficients dans K est un K-espace vectoriel.

20. Plus gnralement, si K est un corps et n, m sont des entiers strictement positifs, lensemble

1,1
1,m

ai,j
Mn,m (K) =
| 1 i n, 1 j m, ai,j K

an,1 an,m
des matrices de taille n m coefficients dans K est un K-espace vectoriel.
21. Plus gnralement, si E est un K-espace vectoriel, lensemble End(E) des applications linaires de E dans E est un K-espace vectoriel.
22. Plus gnralement encore, si E et F sont des K-espaces vectoriels, lensemble
Hom(E, F ) des applications linaires de E valeurs dans F est un K-espace
vectoriel.
23. Soit K un corps (par exemple K = Q, R ou C). Lensemble {0} est un K-espace
vectoriel que lon appelle lespace vectoriel nul.
Exemple densemble qui ne sont pas des espaces vectoriels
1. Lensemble vide nest pas un espace vectoriel. En effet, un espace vide
contient toujours au moins un lment, savoir 0E .
2. Lensemble

 

x
2 2
2
C=
R |x + y = 1 R2
y
 
 
1
1
nest pas un espace vectoriel. En effet, u =
et v =
appartiennent
0
0
 
0
C mais u + v =
nappartient pas C.
0
7

3. Lensemble

X = y R3 |x 0, y 0, z 0

nest pas un R-espace vectoriel. En effet, si u X est un vecteur non-nul, alors


u
/ X donc X nest pas stable par multiplication par le scalaire 1.
4. Lensemble

y Q |x + y + z = 0 R3
P =

nest
alors
pas un R-espace vectoriel. En effet, si u P est un vecteur non-nul,

2u
/ P donc P nest pas stable par multiplication par le scalaire 2.
5. Lensemble des polynmes ne sannulant pas en zro. En effet, cet ensemble
nest pas stable par addition.
6. Lensemble
 
  

x
x
2
2
D=
R |x = y
R |x = y R2
y
y
 
 
1
1
nest pas un R-espace vectoriel. En effet, u =
et v =
appartiennent
1
1
 
0
D mais u + v =
nappartient pas D.
2
1.1.2

Dfinitions formelles

Soit K un corps.
Espaces vectoriels
Dfinition 1.1. Un ensemble E est un K-espace vectoriel si et seulement sil vrifie
les proprits suivantes.
1. Il existe une loi de composition interne
+ : E E E
(u, v) 7 u + v
faisant de E un groupe commutatif (ceci signifie que + est associative, commutative, admet un lment neutre 0E et que tout lment u E admet un
inverse v = u E tel que u + v = 0E ).
2. Il existe une opration de multiplication par un scalaire
: K E E
(, u) 7 u
8

distributive sur + (ceci signifie que (u + v) = u + v et ( + ) u =


u + u pour tout (, , u, v, ) K 2 E 2 ), mixte associative (ceci signifie
que () u = ( u) pour tout (, , u) K 2 E) et telle que 1 u = u pour
tout u E.
Il rsulte de la dfinition que 0u = 0E et que 0E = 0E pour tout (, u) K E.
En effet, 0 u = (0 + 0) u = 0 u + 0 u donc 0 u = 0E en ajoutant 0 u des
deux cts de lquation et de mme 0E = (0E + 0E ) = 0E + 0E donc
0E = 0E . On en dduit que (1) u = u pour tout u E et donc que lon peut
confondre sans trop de risque derreur 0 et 0E . Pour cette raison, on note partir de
maintenant u pour u et 0 pour 0E .
Combinaisons linaires Soit I un ensemble fini (par exemple I = {1, , n}),
(ui )iI E I une famille de vecteurs dun K-espace vectoriel E et (i )iI K I une
famille de scalaires. Il rsulte immdiatement des deux proprits fondamentales de
+ et que
X
v=
i ui
iI

est un vecteur de E. En effet, i ui appartient E pour tout i I puis une rcurrence


immdiate montre que cest galement le cas de leur somme. Plus gnralement, soit
I un ensemble infini, (ui )iI E I une famille de vecteurs dun K-espace vectoriel E
et (i )iI K I une famille de scalaires. Llment
v=

i ui

iI0

est un vecteur de E pour tout sous-ensemble I0 I de cardinal fini. On appelle une


telle somme une K-combinaison linaire de vecteurs de E indexe par I. Ce nest pas
une exagration de dire que lalgbre linaire est ltude des combinaisons linaires.
On prtera attention au fait quune combinaison linaire est toujours indexe par
un ensemble fini mme si lensemble I peut tre infini.
Sous-espaces vectoriels Un sous-espace vectoriel E de F est un sous-ensemble
dun K-espace vectoriel F qui est aussi un espace vectoriel (pour les mmes lois +
et ). Pour quun ensemble E soit un K-espace vectoriel, il suffit quil soit un sousensemble dun K-espace vectoriel F et quil satisfasse de plus aux trois proprits
suivantes.
1. E est non-vide.
2. (u, v) E 2 , (u + v) E.
3. (, u) K E, u E.
En consquence, une intersection arbitraire de sous-espaces vectoriels dun espace
vectoriel F est un sous-espace vectoriel de F .

Espace vectoriel engendr Soit U un sous-ensemble dun espace vectoriel E.


On appelle espace vectoriel engendr par U et on dsigne par Vect U lintersection
des sous-espaces vectoriels de E contenant U . Il rsulte de cette dfinition et du
paragraphe prcdent que Vect U est un sous-espace vectoriel de E (et donc en particulier quil est non-vide mme si U est vide). Si (ui )iI est une famille de vecteurs de E indexe par un ensemble I, on note Vect(ui )iI pour Vect{ui |i I}. Si
U = {u1 , , un } est un ensemble fini de vecteurs de E, on note Vect(u1 , , un )
pour Vect U . Lensemble des K-combinaisons linaires de vecteurs de U forme un Ksous-espace vectoriel contenant U et contenu dans Vect U . Par dfinition de Vect U ,
Vect U est donc lensemble des K-combinaisons linaires de vecteurs de U .
Familles gnratrices, familles libres, dimension Une famille (ui )iI de vecteurs dun K-espace vectoriel E est dite gnratrice si Vect(ui )iI est gal E. Un
K-espace vectoriel est dit de dimension finie sil admet une famille gnratrice indexe par un ensemble I de cardinal fini. Une famille gnrative est dite minimale
si elle nadmet pas de sous-famille strict gnratrice : pour tout J ( I, la famille
(ui )iJ nest pas gnratrice. Une famille (ui )iI de vecteurs dun K-espace vectoriel E est dite libre si la seule K-combinaison linaire des (ui )iI gale 0 est la
combinaison dont tous les scalaires sont nuls. Une famille libre est dite maximale
si elle ne peut tre complte en une famille libre : pour tout J ) I, (ui )iJ nest
pas libre. Une famille qui est la fois libre et gnratrice sappelle une base de E
(cette dfinition ne requiert pas que E soit de dimension finie mais en pratique, nous
considrerons presque exclusivement des bases despaces vectoriels de dimension finie). Notons quune famille libre maximale est gnratrice, donc une base, et quune
famille gnratrice minimale est libre, donc une base.
On prendra garde au fait quun ensemble E qui est un K-espace vectoriel et un
L-espace vectoriel pour deux corps K et L distincts peut trs bien tre de dimension
finie en tant que K-espace vectoriel mais ne pas tre de dimension finie en tant que
L-espace vectoriel. De mme, une famille peut tre gnratrice du L-espace vectoriel
E mais ne pas tre gnratrice du K-espace vectoriel E ou bien tre libre dans le
K-espace vectoriel E mais ne pas ltre dans le L-espace vectoriel E.
Proprit fondamentale de la dimension Dans un K-espace vectoriel de dimension finie, toutes les familles gnratrices minimales, toutes les familles libres
maximales et toutes les bases ont mme cardinal. On appelle ce cardinal commun
la dimension de lespace vectoriel E sur K (comme not plus haut, la dimension
de E dpend de manire cruciale de K). Toute famille libre peut-tre complte en
une base et on peut extraire de toute famille gnratrice une base. Il en rsulte que
si E F sont des espaces vectoriels et si F est de dimension finie, alors E est de
dimension finie, dim E dim F et E = F si et seulement si dim E = dim F .
Somme directe Soit E, F deux sous-espaces vectoriels dun espace vectoriel G. On
dsigne par E +F lespace vectoriel engendr par lensemble E F . La notation E +F
est justifie par le fait que E + F est aussi lespace vectoriel {u + v|u E, v F }.
E + F = Vect(E F ) = {u + v|u E, v F }
10

Tout lment w de E + F peut donc scrire w = u + v avec u E et v F . Lorsque


pour tout w E + F , cette criture est de plus unique, on dit que E et F sont en
somme directe et on note E F . Les trois proprits suivantes sont quivalentes.
1. w E + F , lcriture w = u + v est unique.
2. Lcriture de 0 sous la forme 0 = u + v est unique. Autrement dit, si 0 = u + v
avec u E et v F , alors u = v = 0.
3. E F = {0}.
En pratique, cest le plus souvent la dernire proprits que lon vrifie. Si E et F sont
en somme directe et si de plus E + F = G, on dit que E et F sont supplmentaires
et que F est un supplmentaire de E dans G (et rciproquement).
Si G est de dimension finie et si E et F sont supplmentaires, alors dim E+dim F =
dim G. Tout sous-espace vectoriel E G admet un supplmentaire. Un sous-espace
vectoriel E admet en gnral
  plusieurs supplmentaires distincts. Par exemple, si

u nest pas de la forme


avec R, alors Vect(u) est un supplmentaire de
0
 
1
Vect
dans R2 . Il faut donc toujours viter de parler du supplmentaire de E
0
sans plus de prcisions.
La notion de supplmentaire na rien voir avec la notion de complmentaire :
pour commencer, le complmentaire dun sous-espace vectoriel nest jamais un sousespace vectoriel car il ne contient pas 0 et de plus, un sous-ensemble admet un
unique complmentaire alors quun sous-espace vectoriel admet en gnral plusieurs
supplmentaires distincts.
Les notions de somme et de somme directe se gnralisent un nombre fini de
sous-espaces vectoriels.
( n
)
!
n
n
X
X
[
Ei =
ui |ui Ei = Vect
Ei
i=1

i=1

i=1

On dit que les Ei sont en somme directe et on note


n
M
E1 En =
Ei
i=1

si pour tout u

ui , lcriture de u comme somme dlments des Ei est unique.

iI

On prendra garde quil ne suffit pas que lintersection Ei Ej des espaces vectoriels
deux deux soit rduite 0 pour que des espaces vectoriels soient en somme directe.
La condition correcte est la suivante.
X
j, Ej
Ei = {0}
i6=j

On peut formuler cette condition en disant que la seule combinaison linaire nulle
n
X
i ui , ui Ei
i=1

est la combinaison linaire dont tous les i sont nuls.


11

1.1.3

Exemples

Exemples despaces vectoriels de dimension finie et infinie Lespace vectoriel {0} est de dimension 0. En effet, il est engendr par la famille vide.
Le Q-espace vectoriel Q, le R-espace vectoriel R, le C-espace vectoriel C, plus
gnralement le K-espace vectoriel K, plus gnralement le K-espace vectoriel K n
pour n 1 sont de dimension finie. Le K-espace vectoriel K n est de dimension n et
une de ses bases est la famille (ei )1in telle que toutes les coordonnes de ej sont
nulles sauf la j-ime qui est gale 1.
Le Q-espace vectoriel R, le Q-espace vectoriel C, plus gnralement les Q-espaces
vectoriels Rn et Cn pour n 1 ne sont pas des espaces vectoriels de dimension finie.
Le R-espace vectoriel C est de dimension finie gale 2 et une de ses bases et la
famille (1, i). Rciproquement, le C-espace vectoriel R2 est de dimension finie gale
1 et une de ses bases est la famille (1). Plus gnralement, tout C-espace vectoriel
E de dimension finie n et dont une base est (bj )jJ est un R-espace vectoriel de
dimension finie 2n et dont une base est (bj , ibj )jJ (ici i dsigne une solution de
X 2 + 1 = 0 et non pas un indice).
Le K-espace vectoriel Kn [X] des polynmes coefficients dans K de degr au plus
n est un K-espace vectoriel de dimension finie n + 1 (attention au dcalage) dont une
base est (1, X, X 2 , , X n ). Le K-espace vectoriel K[X] des polynmes coefficients
dans K nest pas de dimension finie (en effet, il contient des sous-espaces vectoriels
de dimension n pour tout n N, par exemple les Kn [X]).
Le R-espace vectoriel C (I, R) des fonctions C dun intervalle ouvert non-vide
I R vers R est de dimension infinie. Il en est donc de mme pour le R-espace
vectoriel C n (I, R) des fonctions C n pour tout n N (car une fonction C est C n
pour tout n N). Une famille libre infinie de C (I, R) est donne par la famille des
(enx )nN et plus gnralement par la famille des (ei x )iI pour tout I qui nest pas
de cardinal fini et toute famille (i )iI de rels tous distincts.
Lensemble

y R3 |x + y + z = 0 R3

z

1
1
est un R-espace vectoriel de dimension finie gale 2 dont une base est 1 , 0 .
0
1
Lensemble

y R3 |x + y + z = 0, 3x + 2y + z = 0 R3

z

1

2.
est un R-espace vectoriel de dimension finie gale 1 dont une base est
1

12

Lensemble

y R3 |x + y + z = 0, 3x + 2y + z = 0, x + y = 0 R3

z
est un R-espace vectoriel de dimension finie gale 0. Lensemble

y R3 |x + y + z = 0, 3x + 2y + z = 0, 2x + y = 0 R3

1
est un R-espace vectoriel de dimension finie gale 1 dont une base est 2.
1
Pour n 1, lensemble Mn (K) des matrices de taille n n coefficients dans K
est un K-espace vectoriel de dimension finie gale n2 dont une base est la famille
(eij )1i,jn forme des matrices eij dont toutes les coordonnes sont nulles sauf celle
la ligne i et la colonne j qui est gale 1. Plus gnralement, pour n, m deux entiers
strictement positifs, lensemble Mn,m (K) des matrices de taille n m coefficients
dans K est un K-espace vectoriel de dimension finie gale nm dont une base est
la famille (eij )1in,1jm forme des matrices eij dont toutes les coordonnes sont
nulles sauf celle la ligne i et la colonne j qui est gale 1. Plus gnralement,
lensemble Hom(E, F ) des applications linaires dun K-espace vectoriel E vers un
K-espace vectoriel F est un espace vectoriel de dimension finie si et seulement si E
et F sont de dimension finie. Dans ce cas, dim Hom(E, F ) = dim E dim F .

1.2
1.2.1

Applications linaires
Dfinition et premires proprits

Dfinition Soit K un corps et E, F deux K-espaces vectoriels. Une application


linaire
f : E F
est une application de E vers F vrifiant les proprits suivantes.
1. Pour tout (u, v) E 2 , f (u + v) = f (u) + f (v).
2. Pour tout (, u) K E, f (u) = f (u).
Il rsulte de ces deux proprits que f (0E ) = 0F et que si
v=

i ui

iI

est une combinaison linaire des vecteurs ui , alors


f (v) =

X
iI

13

i f (ui )

et f (v) est donc une combinaison linaire des f (ui ) indexe par les mmes scalaires
i .
De mme quun espace vectoriel est de manire informelle un ensemble dans lequel
on peut faire des combinaisons linaires, une application linaire est de manire
informelle une application qui prserve les combinaisons linaires. Il rsulte de la
compatibilit de f avec les combinaisons linaires que f est uniquement dtermine
par la donne de limage par f dune famille gnratrice de E et donc en particulier
dune base de E.
Lensemble des applications linaires de E vers F est not Hom(E, F ) et lensemble des applications linaires de E vers lui-mme est not End(E). Soit E, F et
G des K-espaces vectoriels. La compose dune application linaire de E vers F et
dune application linaire de F vers G est une application linaire de E vers G. En
particulier, la composition est une loi de composition interne
: End(E) End(E) End(E)
(f, g)
7 f g
de End(E). Cette loi de composition interne est associative et admet un lment
neutre, savoir lidentit Id, mais nest pas commutative sauf si E est de dimension
finie gale 1. Pour n N, on note f n la compose de f avec elle-mme n fois (ceci
implique en particulier que f 0 = Id pour tout f End(E)).
Noyau, image, rang Lensemble {u E|f (u) = 0} des vecteurs de E dimage
gal 0 est un sous-espace vectoriel de E que lon appelle le noyau de f et que
lon note ker f . Lensemble {v|u E, f (u) = v} des vecteurs de F qui sont image
dun vecteur de E est un sous-espace vectoriel de F que lon appelle limage de f
et que lon note im f . Lorsque la dimension de im f est finie, on lappelle le rang
de f . Lorsque E est de dimension finie, ker f et im f sont de dimension finie et
dim ker f + dim im f = dim E.
Isomorphisme Pour vrifier quune application linaire est injective, il suffit de
montrer que son noyau est rduit 0. Une application linaire bijective sappelle
un isomorphisme despaces vectoriels. Deux K-espaces vectoriels E et F sont dits
isomorphes, ce que lon note E ' F , sil existe un isomorphisme despaces vectoriels
entre eux. La proprit dtre isomorphe est une relation dquivalence sur lensemble
des espaces vectoriels. Deux espaces vectoriels de dimension finie sont isomorphes si
et seulement sils ont la mme dimension. Le quotient de lensemble des espaces
vectoriels de dimension finie par la relation dquivalence tre isomorphe est donc
lensemble N.
Soit E, F deux K-espaces vectoriels de dimension finite et soit f Hom(E, F ).
Il rsulte du thorme de rang que deux quelconques des trois proprits suivantes
impliquent les autres.
1. Lapplication f est injective.
2. Lapplication f est surjective.
14

3. Lapplication f est un isomorphisme despaces vectoriels.


4. La dimension de E est gale la dimension de F .
Lensemble des applications de End(E) qui sont inversibles (et qui sont donc des
isomorphismes despaces vectoriels de E vers lui-mme) sappelle le groupe linaire
gnral de E et est not GL(E). Il est muni dune structure de groupe non-commutatif
sauf si E est de dimension finie gale 1. On note GLn (K) le groupe linaire gnral
de K n . Notons que GL1 (K) nest rien dautre que le groupe K des lments non-nuls
de K
1.2.2

Matrices

Matrice dune application linaire Soit E, F et G des K-espaces vectoriels de


dimension finie n, m et p respectivement. Soit f Hom(E, F ) et g Hom(F, G)
deux applications linaires. Soit (ai )1in , (bi )1im et (ci )1ip des bases de E, F et
G respectivement. La matrice M (f ) Mm,n (K) de f relativement aux bases (ai ) et
(bi ) est la matrice (m(f )ij )1im,1jn telle que
f (aj ) =

m
X

m(f )ij bi

i=1

pour tout 1 j n. De mme, la matrice M (g) Mp,m (K) de g relativement aux


bases (bi ) et (ci ) est la matrice (m(g)ij )1ip,1jm telle que
g(bj ) =

p
X

m(g)ij bi

i=1

pour tout 1 j m. La matrice M (g f ) Mp,n (K) de g f Hom(E, G) vrifie


alors
m
X
m(g f )ij =
m(g)ik m(f )kj
k=1

pour tout 1 i p et tout 1 j n.


Produit matriciel Il rsulte du calcul prcdent et des proprits de la composition que lensemble Mn,m (K) Mm,p (K) est muni dune multiplication
:

Mn,m (K) Mm,p (K)


(aij )1in,1jm (bij )1im,1jp

Mn,p (K)
!
m
X
7
aik bkj
k=1

et que Mn (K) est muni dune loi de composition interne


: Mn (K) Mn (K) Mn (K)
!
n
X
(aij )(bij )
7
aik bkj
k=1

15

1in,1jp

associative, admettant comme lment neutre la matrice Idn = (ij ) et non-commutative


sauf si n = 1.
Notons que lapplication
ev1 : Hom(K, K n ) K n
f
7 f (1)
est injective et est donc un isomorphisme despaces vectoriels entre les espaces vectoriels Hom(K, K n ) et K n car ils sont tous deux de dimension finie n. En utilisant cet
isomorphism, on peut identifier les vecteurs de K n aux vecteurs de Hom(K, K n ) et
donc aux vecteurs de Mn,1 (K). On peut donc en particulier multiplier une matrice
M Mn,m (K) et un vecteur u K m ' Hom(K, K m ) ' Mm,1 (K) pour obtenir un
vecteur M u K n .
Lorsque E = F et (ai ) = (bi ), on dit que M (f ) est la matrice de f relative la
base (ai ) pour dire que M (f ) est la matrice de f relative la base (ai ) et la base
(ai ).
Matrice inversible Une matrice M Mn (K) telle quil existe une matrice N
vrifiant M N = Idn sappelle une matrice inversible. Une telle matrice est la matrice
dune application f GLn (K) relative un certain choix de base et rciproquement,
la matrice dune application de GLn (K) est inversible. Il en rsulte que N est unique
et vrifie N M = Idn . Lensemble des matrices inversibles de taille n n coefficients
dans K est not GLn (K).
Changement de bases Soit f End(E) un endomorphisme dun K-espace vectoriel de dimension finie n. Soit M = (aij ) la matrice de f relative une base (bi )1in .
Soit (ci )1in une autre base de E. Pour tout 1 j n, on peut exprimer cj comme
combinaison linaire des bi .
n
X
cj =
pij bi
i=1

Ceci dfinit une matrice P = (pij ) Mn (K) qui est la matrice dans la base (bi ) de
lapplication linaire p qui envoie bi sur ci pour tout i. Lapplication linaire p est
inversible dinverse p1 gale lapplication linaire qui envoie ci sur bi pour tout i.
De
1

p (cj ) =

n
X

pij p1 (bi )

i=1

n X
n
X

pij ki bk =

i=1 k=1

n
n
X
X
k=1

= bj ,

16

i=1

!
ki pij

bk

on dduit que la matrice (ki ) de p1 relative la base (bi ) est la matrice P 1 . Donc
f (cj ) =
=

n
X

pij f (bi ) =

i=1
n
X

n
X
pij
aki

i=1

k=1

n
X

i=1
n
X

pij

n
X

aki bk

k=1

sk cs =

s=1

n
n X
n
X
X
s=1

!
sk aki pij

cs .

i=1 k=1

Le coefficient s, j de la matrice de f relative la base (ci ) est donc

n P
n
P

sk aki pij ,

i=1k=1

qui est aussi le coefficient s, j de la matrice P 1 M P .


En conclusion, si M est la matrice de f dans la base (bi ) et si P est la matrice de
lcriture des ci dans la base (bi ), alors P 1 M P est lcriture de la matrice de f dans
la base (ci ).
Notons que si M P = P M ou si P 1 M = M P 1 , alors P 1 M P = M et la matrice
de f dans la base (bi ) est gale la matrice de f dans la base (ci ). Cest la cas en
particulier pour lapplication nulle, dont la matrice est (0)ij dans toutes les bases ; de
lidentit, dont la matrice est (ij )ij dans toutes les bases et de Id dont la matrice
est (ij )ij dans toutes les bases.

1.3
1.3.1

Systmes dquations linaires


Interprtation linaire des systmes dquations

Reformulation thorique Supposons nous donns n scalaires (ui )1in K n et


nm scalaires (ai,j )1in,1jm K nm . Une observations fondamentale de lalgbre
linaire est que la rsolution du systme dquations linaires n quations et m
inconnues

a1,1 x1 + a1,2 x2 + + a1,m xm = u1

a x + a x + + a x = u
2,1 1
2,2 2
2,m m
2
(1.3.1)

an,1 x1 + an,2 x2 + + an,m xm = un


est quivalente daprs la formule du produit matriciel la rsolution de lquation
AX = U
o A est la matrice (aij ) Mn,m (K), X est le vecteur (xi ) Mm,1 (K) et U est le
vecteur (ui ) Mm,1 (K). Aprs un choix de bases (bi )1im de K m et (ci )1in de K n ,
la rsolution de lquation AX = U est elle-mme quivalente la caractrisation de
f 1 ({u}) pour u K n un vecteur de matrice U dans la base (bi ) et f : K m K n
une application linaire de matrice A relativement aux bases (bi ) et (ci ).
Inversement, si f Hom(E, F ) est une application linaire entre K-espaces vectoriels de dimension finie, le problme de dterminer le noyau de f , donc de caractriser
f 1 ({0}), ou plus gnralement celui de caractriser f 1 ({v}) pour v F ou encore
celui de caractriser limage de f , donc de caractriser lensemble de v F tel que
f 1 ({v}) soit non-vide, devient quivalent aprs un choix de bases de E et F
17

ltude dune quation matricielle de type AX = U et donc la rsolution dun


systme dquations linaires.
Lorsque u est le vecteur nul, Il rsulte directement des dfinitions et du thorme
du rang que le systme (1.3.1) admet une unique solution si et seulement si f est
injective et donc si et seulement si m n (autrement dit, il y a moins dinconnues
que dquations) et f est de rang m (autrement dit, limage dune base de K m
par f est une base dun sous-espace vectoriel de dimension m). On en dduit que
lquation f (v) = u admet une unique solution si et seulement si f est injective et
u appartient limage de f . En vertu du thorme de rang, f est injective si et
seulement si elle est surjective lorsque n = m. Dans ce cas, la seconde condition
pour que f (v) = u admette une unique solution dcoule donc de la premire. Si le
systme (1.3.4) a autant dquations que dinconnues, alors le fait quil admette une
unique solution ou non ne dpend donc pas des ui mais seulement des ai,j , et plus
prcisment uniquement du fait que la matrice A est inversible ou non.
Rsolutions thorique de systmes dquations linaires Pour rsoudre un
systme linaire, la mthode pratique la plus efficace est celle dite du pivot de Gauss,
qui consiste utiliser un coefficient non-nul dune ligne pour annuler les coefficients
correspondant sur toutes les autres lignes. Formellement, ceci revient appliquer
successivement lopration lmentaire suivante sur les lignes du systme : remplacer
a
Li ). Cette opration
la paire de lignes (Li , Lj ) par la paire de lignes (Li , Lj ai,j
i,i
transforme un systme dquations linaires en un systme quivalent (cest--dire
ayant le mme ensemble de solutions) car si les (xi ) sont solutions des deux quations
a
Li ) et rciproquement,
(Li , Lj ), alors ils sont solutions des deux quations (Li , Lj ai,j
i,i
ai,j
sils sont solutions de la paire dquation (Li , Lj ai,i Li ), ils sont solutions de la paire
a
a
Li + ai,j
Li ) = (Li , Lj ).
dquation (Li , Lj ai,j
i,i
i,i
Si lon traduit le problme de la rsolution de systme dquations linaires en
problme de la rsolution dquation matricielle AX = U , on peut donner la reformulation suivante de lopration lmentaire et plus gnralement de la rsolution
dun systme dquations linaires. Une manire de transformer lquation matricielle
AX = U

(1.3.2)

en une quation quivalente est de multiplier gauche les deux membres de lquation
par une matrice inversible commune P pour obtenir lquation
P AX = P U.

(1.3.3)

Les quations (1.3.2) et (1.3.3) sont quivalentes car on passe de lune lautre
simplement en multipliant par P ou P 1 gauche. La matrice P tant inversible,
elle est carre et puisquon peut la multiplier gauche avec A et U , cest une matrice
de Mm (K).
Vue sous cette angle, lopration lmentaire de rsolution dun systme dquations linaires se dcompose en trois sous-oprations :
1. changer deux lignes Li et Lj .
18

2. Multiplier la ligne Li par un scalaire non-nul.


3. Remplacer la ligner Lj par la ligne Lj Li .
En termes matriciels, ces trois oprations sinterprtent de la manire suivante.
1. Multiplier gauche par la matrice inversible Eij = (pkl )1k,lm dfinie par

1 si k = l et k 6= i, j
akl = 1 si k = i et l = j ou k = j et l = i

0 sinon.
2. Multiplier gauche par la matrice inversible Mi, = (pkl )1k,lm dfinie par

1 si k = l et k 6= i
pkl = si k = l et k = i

0 sinon.
3. Multiplier gauche par la matrice inversible Sij = (pkl )1k,lm dfinie par

1 si k = l
pkl = 1 si k = j et l = i

0 sinon.
Si on applique successivement ces oprations, on obtient donc une quation matricielle quivalente
BX = V
o B = (bij ) est sous-forme chelonne rduite, ce qui signifie que tous ses coefficients
sont nuls sauf ventuellement les bii pour 1 i d min(m, n).
1.3.2

Exemples de rsolutions pratique de systmes dquations linaires

Dans cette sous-section, on suppose que K = R (le choix de K = Q ou C ne


changerait rien aux calculs suivants).
Exemple lmentaire Considrons le systme suivant

4y + 2z = 2
5x + 3y + 2z = 0

x+y+z =3
qui correspond lquation matricielle


0 4 2
x
2
5 3 2 y = 0
1 1 1
z
3
19

Multiplions gauche par E13 puis par M1,1/5 S1,2 M1,5 pour obtenir

1 1 1
x
3
1 1
1
x
3
5 3 2 y = 0 , 0 2 3 y = 15 .
0 4 2
z
2
0 4
2
z
2
Multiplions

1
0
0

gauche par M2,1/4 S2,3 M2,2 puis par M3,1/4 S2,1 M2,1 pour obtenir


x
9/2
1 1
x
3
1 0 1/2
1 3/2 y = 15/2 , 0 1 3/2 y = 15/2 .
0 4
z
32
0 0
1
z
8

Finalement, multiplions gauche par M3,2 S3,1 M3,1/2 puis par M3,2/3 S3,2 M3,3/2 pour
obtenir

1 0 0
x
1/2
1 1 0
x
1/2
0 1 3/2 y = 15/2 , 0 1 0 y = 9/2
0 0 1
z
8
0 0 1
z
8
et finalement le fait que le systme

4y + 2z = 2
5x + 3y + 2z = 0

x+y+z =3
admet comme unique solution

x
1/2
y = 9/2 .
z
8
Exemple avec un paramtre Considrons le systme suivant
(
xy+z =1
x + y + z = 0
qui correspond lquation matricielle


 x
 
1 1 1
1
y =
.
1 1 1
0
z
Multiplions gauche par M3,1/2 S1,2 puis par M2,1 S2,1 M2,1 pour obtenir



 x
  
 x
 
1 1 1
1
1 1 0
1/2
y =
y =
,
0 0 1
1/2
0 0 1
1/2
z
z
et le fait que lensemble des solutions relles du systme
(
xy+z =1
x + y + z = 0
est lensemble

1/2 + y

y |y R

1/2
20

Exemple dtermination du noyau et de limage Soit f End(R2 ) lapplication dont la matrice dans la base canonique de R2 est la matrice


6 9
M=
.
10 15
 
x
2
Un vecteur u R est dans le noyau de f si et seulement si M U = 0 pour U =
y
le vecteur de M2,1 (R) dont les coordonnes sont les coordonnes de u dans la base
canonique de R2 . En multipliant lquation M U = 0 par M1,1/10 S1,2 M1,5/3 , on
obtient lquation matricielle

 
1 3/2
x
= 0.
0 0
y
Les vecteurs du noyau de f sont donc les vecteurs vrifiant x = 3y/2 pour y R.
Cet espace vectoriel est de dimension 1. Daprs le thorme du rang, limage de
lapplication f est donc de dimension 1 et f nest donc pas surjective. Un vecteur
v de coordonnes (v1 , v2 ) dans la base canonique de R2 est dans limage de
 fsi et
v
seulement si lquation matricielle M U = V admet une solution pour V = 1 . En
v2
multipliant nouveau par M1,1/10 S1,2 M1,5/3 , on obtient lquation matricielle

  

1 3/2
x
v1 /6
=
.
0 0
y
v2 5v1 /3
Cette quation matricielle admet des solutions si et seulement si v2 5v1 /3 = 0 et
donc limage de f est le sous-espace vectoriel {(v1 , 5v1 /3) R2 |v1 R} qui est bien
de dimension 1.
1.3.3

Un problme mystrieux

Considrons le systme dquations linaires deux quations et deux inconnues


suivant.
(
ax + by = u
(1.3.4)
cx + dy = v
On sait bien comment rsoudre un tel systme. Nanmoins, procder une rsolution
gnrale du systme sans hypothse ancillaire sur les coefficients amne faire une
srie de remarques intrigantes qui nous amneront vers les parties les plus complexes,
les plus ardues mais aussi les plus profondes de ce cours.
Une solution du systme (1.3.4) est une solution du systme
(
ax + by = u
(1.3.5)
(ad bc)y = av uc
qui est aussi une solution du systme
(
(ad bc)x = ud bv
cx + dy = v
21

(1.3.6)

et rciproquement une solution communes des systmes (1.3.5) et (1.3.6) est une
solution du systme (1.3.4). Dterminer lensemble des solutions du systme (1.3.4)
est donc quivalent dterminer lensemble des solutions communes aux systmes
(1.3.5) et (1.3.6). Il se prsente alors la disjonction de cas suivante.
1. Soit ad bc = 0. Il se prsente alors la disjonction de cas suivante.
(a) Soit lun des termes av uc et ud bv est non-nul. Le systme (1.3.4)
nadmet alors aucune solution.
(b) Soit les deux termes av uc et ud bv sont nuls. Il se prsente alors la
disjonction de cas suivante.
i. Soit tous les coefficients a, b, c, d sont nuls. Le systme (1.3.4) admet
alors lensemble K 2 ou lensemble selon que u et v sont nuls ou
non.
ii. Soit lun des coefficients a, b, c, d est non-nul et lon peut sans perte
de gnralit supposer que cest a. Le systme (1.3.4) admet alors
lensemble



u by
, y |y K
a
comme ensemble de solutions.
2. Soit ad bc 6= 0. Le systme (1.3.4) admet alors lunique solution


ud bv av uc
,
ad bc ad bc
comme ensemble de solutions.
Il y plusieurs observations faire sur cette rsolution. Tout dabord, elle est beaucoup
plus difficile mener en toute gnralit quon pourrait le croire : non seulement le
nombre de disjonction de cas traiter est considrable mais de plus il nest pas si ais
de maintenir la symtrie du problme, cest--dire de ne pas supposer sans raison que
lun des coefficients joue un rle particulier (par exemple en choisissant un pivot).
On tremble lide de gnraliser cette rsolution un systme de trois quations
trois inconnues, sans parler du cas gnral de n quations n inconnues.
Lorsque K = R, les disjonctions de cas intervenant et les diffrents ensembles de
solutions auquel elles mnent admettent une interprtation gomtrique. En effet, si
lun au moins des coefficients (, ) est non-nul, lquation x+y = est lquation
dune droite du plan R2 . Les disjonctions de cas ci-dessus ont donc linterprtation
gomtrique suivante : ou bien les deux quations du systme (1.3.4) sont effectivement des quations de droites, auquel cas le systme admet une unique solution, une
infinit de solution ou aucune solution selon que ces deux droites sont non-parallles,
parallles et confondues ou parallles et non confondues, ou bien lune au moins des
deux quations est dgnre et dans ce cas on est ramen tudier le cas dune
unique droite, ou de deux quations dgnres. Bien que cette interprtation soit
commode pour se souvenir des diffrentes possibilits et pour avoir une intuition de
la dimension de lespace vectoriel des solutions, nouveau, on tremble lide de la
22

gnraliser dans des espaces 3, 4 ou n dimensions, surtout si lon a pleine conscience


quune telle gnralisation impliquera de savoir rpondre par exemple la question
des intersections possibles entre un espace tridimensionnel et un plan dans un espace 4 dimensions. Notons aussi que la solution algbrique tait valable sur tout
corps K. Dj en dimension 2 mais pour K = C, on est amen tenter dinterprter
gomtriquement des espaces loin dtre triviaux.
Avant que lalgbre linaire ne vienne notre rescousse, observons un dernier fait
mystrieux. Si lon considre la fonction
2 :

K4
K
(, , , ) 7

alors non seulement le systme (1.3.4) admet une solution unique si 2 (a, b, c, d) 6= 0
mais cette solution est donne par


2 (u, b, v, d) 2 (a, u, c, v)
,
.
2 (a, b, c, d) 2 (a, b, c, d)
Le rve serait de dfinir une telle fonction n pour les systmes de n quations n
inconnues : il suffirait ensuite dappliquer la fonction n pour savoir si un systme
admet une solution unique ou non et pour dterminer sa solution unique le cas
chant. Comme souvent en mathmatiques, ce rve est appel devenir ralit mais
comme trop souvent dans la vie, les rves raliss perdent parfois le parfum dutopie
qui faisaient leur charme. Mais nallons pas trop vite.

2
2.1
2.1.1

Rduction des endomorphismes


Sous-espaces stables, sous-espaces propres
Dfinition

Soit E un K-espace vectoriel et f End(E) un endomorphisme de K. Un sousespace vectoriel F E de E est stable par f si f (u) appartient F pour tout
u F , donc si f restreint F est un endomorphisme de F . Un endomorphisme f
admet toujours au moins deux sous-espaces vectoriels stables : son noyau ker f et
son image im f .
Soit K. Un sous-espace vectoriel F E est un sous-espace propre pour
le scalaire si pour tout u F , f (u) = u. Un sous-espace vectoriel F E
est un sous-espace propre sil existe K tel que F soit un sous-espace propre
pour le scalaire . Un sous-espace propre est ncessairement un sous-espace stable et
rciproquement, un sous-espace stable de dimension au plus 1 est ncessairement un
sous-espace propre. Le noyau de f est un sous-espace propre pour le scalaire 0. Si G
et F sont deux sous-espace propres pour le mme scalaire , alors G + F est un
sous-espace propre pour le scalaire . Pour tout K, il existe donc un sous-espace
propre maximal pour le scalaire , savoir lespace vectoriel engendr par lunion
des tous les sous-espaces propres pour le scalaire .
23

Un vecteur u E est un vecteur propre de f pour la valeur propre si u 6= 0 et si


f (u) = u. Un vecteur u E est un vecteur propre de f sil existe K tel que u
soit un vecteur propre de f pour la valeur propre . Un scalaire K est une valeur
propre de f sil existe un vecteur propre de f pour la valeur propre . De manire
quivalente, un scalaire est une valeur propre de f si le sous-espace propre maximal
de f pour est de dimension strictement positive. De mme, un vecteur U M1,n (K)
est un vecteur propre de M Mn (K) si M est la matrice dune application linaire
f relative la base canonique de K n et que u est un vecteur propre de f et K
est une valeur propre de M sil existe un vecteur U tel que U soit un vecteur propre
de M pour la valeur propre . Cest aussi par dfinition ker(f Id). Lorsque lon
fait rfrence lespace propre de f pour , on fait rfrence son espace propre
maximal ker(f Id).
Si E F est un sous-espace stable pour f et g, alors cest aussi un sous-espace
stable pour h Vect(f, g) End(F ). De mme, si E F est un sous-espace
propre pour le scalaire pour f et g, alors cest aussi un sous-espace propre pour
h Vect(f, g) End(F ) (mais en gnral pas pour le mme scalaire).
Notons la lgre diffrence qui existe entre sous-espace propre pour le scalaire et
sous-espace propre pour la valeur propre : dans le second cas, le sous-espace doit
tre de dimension strictement positive alors que dans le premier, il peut tre rduit
lespace vectoriel nul. Lintrt dintroduire cette distinction est de se dispenser dans
la suite de la vrification que les sous-espaces considrs sont bien non-nuls.
2.1.2

Familles de vecteurs propres

Proposition 2.1. Soit (Es )sS une famille de sous-espaces vectoriels propres pour
les valeurs propres (s )sS . Supposons les valeurs propres (s )sS distinctes deux
deux ; cest--dire que s 6= t si s 6= t. Les sous-espaces Es sont alors en somme
directe.
De manire quivalent et explicite, soit (ui )iI une famille de vecteurs de E propres
pour f End(E) pour les valeurs propres (i )iI respectivement. On suppose que I
est lunion disjointe densembles (Js )sS tels que i 6= j si i Js et j
/ Js . Sil
existe une combinaison linaire nulle
X
i ui = 0
iI

dont tous les coefficients ne sont pas nuls, alors il existe s S et une combinaison
linaire nulle
X
i ui = 0
(2.1.1)
iJs

dont tous les coefficients ne sont pas nuls. En particulier, si tous les scalaires i sont
distincts, la famille (ui )iI est libre.
Dmonstration. Si la deuxime proprit est vraie, toute famille (us )sS avec us
Es est une famille libre. Si
X
s us
sS

24

est une combinaison linaire nulle des us Es , alors tous les s sont nuls et donc
les Es sont en somme directe. Il suffit donc de montrer la deuxime proprit.
Supposons quil existe une combinaison linaire des (ui ) qui soit nulle mais dont
tous les coefficients ne sont pas nuls. Il existe alors une combinaison linaire nulle
des ui avec I de cardinal minimal
X
XX
i ui =
i ui = 0
(2.1.2)
iI

sS iJs

et telle que les i soient tous non-nuls. Soit j I un indice et sj lindice du sousensemble Js tel que j Jsj . En appliquant f , on obtient
X
XX
i i ui =
i s ui = 0.
iI

(2.1.3)

sS iJs

En soustrayant lquation (2.1.3) de lquation (2.1.2) multipli par j , on obtient


XX

i (j s )ui = 0.

(2.1.4)

sS iJs

Par dfinition, s = j lorsque s appartient Jsj donc la combinaison linaire nulle


(2.1.4) des ui a tous ses coefficients indexs par les lments de Jsj nuls. Par dfinition
de la combinaison linaire indexe par les i , celle-ci est indexe par un ensemble de
cardinal minimal, donc tous les i (j s ) sont nuls pour s 6= sj . Comme j 6= s
lorsque s
/ Jsj , i = 0 pour tout i
/ Jsj . Comme les i sont tous non-nuls, Js = J
et donc il existe une combinaison linaire nulle des (ui )iJs dont tous les coefficients
ne sont pas nuls.
Supposons maintenant que les i soient tous distincts et soit
X

i ui = 0

iI

une combinaison linaire nulle des ui . Les Js tant de cardinal 1, si i 6= 0, alors


il existe daprs la premire partie de la preuve un scalaire nul i tel que i ui = 0.
Ceci contredit le fait que ui soit un vecteur propre, donc un vecteur non-nul. La
combinaison linaire indexe par les i est donc nulle, et la famille (ui )iI est donc
libre.
Corollaire 2.2. Une application linaire f End(E) dun espace vectoriel E de
dimension finie d admet au plus d valeurs propres distinctes.
Dmonstration. En effet, une famille de vecteurs propres pour des valeurs propres
distinctes est une famille libre daprs la proposition prcdente et est donc de cardinal infrieur la dimension de E.
2.1.3

Lien avec les matrices triangulaires suprieures

Soit f End(E) un endomorphisme dun K-espace vectoriel de dimension finie n.


On dit que la matrice M = (aij )1i,jn de f dans une base B = (b1 , , bn ) est
25

triangulaire suprieure si aij = 0 lorsque i > j (cela signifie visuellement que tous les
coefficients de M en dessous de la diagonale sont nuls). Dun point de vue algbrique,
cela signifie que f (bi ) appartient Vect(bj )1ji pour tout 1 i n. En particulier,
le sous-espace Vect(bj )1ji est stable par f pour tout 1 i n.
Proposition 2.3. Si la matrice M = (aij )1i,jn dun endomorphisme f est une
matrice triangulaire suprieure, alors les valeurs propres de f sont les scalaires aii .
Dmonstration. Soit une valeur propre de f . Alors le noyau de f Id contient un
vecteur v non-nul dans son noyau. Posons g = f Id. La matrice N = (bij )1i,jn
de g dans la base B est galement triangulaire suprieure et il suffit de montrer quil
existe un i tel que bii = 0. Le vecteur v scrit
n
X
v=
i bi .
i=1

Soit k le plus grand entier tel que k 6= 0. De


f (v) =

n
X
i f (bi ) = 0
i=1

on dduit que
k1

1X
k1 f (bi ).
f (bk ) =
k i=1
Daprs lhypothse que la matrice N est triangulaire suprieure, pour 1 i k 1,
chaque f (bi ) appartient Vect(b1 , , bk1 ). Donc f (bk ) appartient Vect(b1 , , bk1 )
et le coefficient bkk est nul.
Rciproquement, fixons un i et posons = aii . Il suffit de montrer que g = f Id
nest pas injective. Soit N = (bij )1i,jn la matrice de g dans la base B. Alors bii = 0.
Le sous-espace F = Vect(b1 n , bi ) est stable par f donc stable par g et il suffit
donc de montrer que g nest pas injective aprs restriction F . Les vecteurs g(bk )
pour k < i sont dans le sous-espace Vect(b1 , , bk ) ( F daprs lhypothse que
la matrice de g est triangulaire suprieure. Le vecteur g(bi ) est galement dans ce
sous-espace car bii = 0. Donc limage de F par g est strictement incluse dans F donc
g restreinte F nest pas injective.

2.2
2.2.1

Polynmes dendomorphismes
Rvision sur les polynmes

Soit K un corps. Lensemble des polynmes coefficients dans K est lensemble


(
)
X
n
K[X] =
an X |an K, Tous les an sont nuls sauf ventuellement un nombre fini
n=0

Le polynme dont tous les coefficients sont nuls sappelle le polynme nul et il est
not 0. Plus gnralement, on identifie le polynme dont tous les coefficients sont
nuls sauf le coefficient a0 llment a0 du corps K.
26

Lensemble des polynmes est muni dune loi de composition interne


+:


K[X] K[X]
K[X]


X
P
P
an X n ,
bn X n
7
(an + bn )X n

n=0

n=0

n=0

qui est associative, commutative et qui admet 0 comme lment neutre. Tout polynme admet un (unique) inverse pour laddition, ce qui fait donc de K[X] un groupe
commutatif. Lensemble des polynmes est muni dune loi de composition interne
:

K[X] K[X]


an X n ,

n=0

bn X n

K[X]
!

n
X
X
7
ak bnk X n

n=0

n=0

k=0

qui est associative, commutative, distributive sur laddition et qui admet le polynme
1 comme lment unit. La donne de K[X] muni des lois + et fait de lensemble des
polynmes coefficients dans K un K-espace vectoriel qui est galement un anneau
commutatif.
Sur K[X] est dfini une application
deg :

K[X]

an X n

n=0

{} N
(
si an = 0 pour tout n,
7
min{n N|an 6= 0} sinon.

Si (P, Q) K[X]2 sont deux polynmes, deg(P Q) = deg(P ) + deg(Q) et deg(P +


Q) max{deg P, deg Q}. Les polynmes de degr 0 sont les lments non-nuls de K
et sont exactement les lments inversibles de K[X] pour la loi .
Proposition 2.4. Soit P R[X] un polynme non-nul coefficients rels et de
degr d 0. Il existe des rels (i )iI1 et des couples de rels (i , i )iI2 vrifiant
i2 4i < 0 indexs par des ensembles de cardinaux finis (ventuellement nuls) I1
et I2 respectivement ainsi quun rel tels que P scrive
P =

Y
iI1

(X i )

(X 2 + i X + i ).

(2.2.1)

iI2

De plus, cette criture est unique lordre des i et des (i , i ) prs et d = |I1 |+2|I2 |.
Soit P C[X] un polynme non-nul coefficients complexes de degr d. Il existe
d complexes (i )1id et un complexe tels que P scrive
d
Y
P = (X i ).

(2.2.2)

i=1

De plus, cette criture est unique lordre des (i )1id prs.


Cette proposition nest vrai que pour les corps R et C. Par exemple, le polynme
X 2 Q[X] nadmet ni factorisation de la forme (2.2.2), ni factorisation de la
forme (2.2.1).
3

27

2.2.2

Polynmes dendomorphismes

Soit f un endomorphisme de E un K-espace vectoriel. Alors pour tout n N et tout


K, f n est un endomorphisme de E. Pour tout polynme
P =

an X n K[X],

n=0

lapplication
P (f ) =

an f n

n=0

est un endomorphisme de E (ici, on rappelle que P tant un polynme, il existe un


entier N tel que an = 0 pour tout n > N ). On appelle un tel endomorphisme un
polynme dendomorphismes (en f ).
Un polynme dendomorphismes en f nest rien dautre quune combinaison linaires de la familles de vecteurs (f n )nN , qui est une famille de vecteurs du Kespace vectoriel End(E), donc lensemble des polynmes dendomorphismes en f est
le sous-espace vectoriel Vect(f n )nN .
La composition est une loi de composition interne de End(E) associative, distributive sur laddition et commutative lorsquelle est restreinte deux lments de
la forme f m pour m N. Elle est donc commutative lorsquelle est restreinte
Vect(f n )nN . Sur ce sous-espace vectoriel, la composition se comporte donc comme
la multiplication de K[X]. En particulier, toute relation dgalit algbrique entre
polynmes reste valable pour les polynmes dendomorphismes en f condition de
remplacer le scalaire par lendomorphisme Id.
Un exemple important est donn par la factorisation de polynmes. Si le polynme
P K[X] admet une factorisation
P =

an X n =

n=0

Y
(X i ),
iI

ou plus gnralement
P =

Y
Pj
jJ

o les Pj sont des polynmes de K[X] (le cas prcdent correspondant la situation
o tous les Pj sont unitaires de degr 1) alors le polynme dendomorphismes
P (f ) =

an f n

n=0

admet une factorisation semblable :


Y
Y
P (f ) =
(f i Id), P (f ) =
Pj (f )
iI

jJ

28

(2.2.3)

Proposition 2.5. Soit E un C-espace vectoriel de dimension finie, f un endomorphisme de E et P C[X] un polynme non-nul de degr d. Il existe d complexes
(i )1id et un scalaire tels que P (f ) scrive
P (f ) =

d
Y

(f i Id).

(2.2.4)

i=1

Dmonstration. Ceci rsulte de la proposition 2.4 et de la factorisation (2.2.3).


Notons quun polynme dendomorphismes peut tout fait tre lendomorphisme
nul sans pour autant que tous ses coefficients soient nuls. Par exemple, le polynme
dendomorphismes f Id est nul si f = Id et f 2 Id est nul si f = Id, f 
= Id ou
 si
1 0
f End(R2 ) a pour matrice relativement un choix de base la matrice
. Il
0 1
sensuit que contrairement au cas de la factorisation (2.2.2), la factorisation (2.2.4)
nest pas unique en gnrale.

2.3
2.3.1

Rduction des endomorphismes


Motivation et exemples

Motivation La vie est belle dans les espaces vectoriels de dimension 1 : tous les
vecteurs scrivent u pour un certain u et donc pour connatre entirement une
application linaire f , il suffit de connatre f (u). Le but de la rduction des endomorphismes est de se ramener, autant que faire se peut, cette situation. En
principe, lide est simple. Soit E un K-espace vectoriel de dimension finie n et soit
f End(E) un endomorphisme de E. Lespace E admet une dcomposition
E = E1 En =

n
M
Ei
i=1

en somme directe de sous-espaces vectoriels de dimension 1. Pour chacun de ces


sous-espaces, f est potentiellement trs simple et pour tudier f , il suffirait donc
de ltudier sparment pour chaque Ei puis de rassembler nos connaissances. Le
problme est quil ny a aucune raison que les Ei soient des espaces stables par f et
donc f peut trs bien permuter les Ei .
Lidal serait donc quil existe une dcomposition de E
E=

M
E

en somme directe de sous-espaces stables par f . La matrice de f relativement une


base de E construite en choisissant des bases des E serait alors une matrice par
blocs. Lutopie serait carrment quil existe une telle dcomposition en sous-espaces
stables de dimension 1. Ainsi, ltude de f se ramnerait ltude de f restreinte
E , qui serait triviale car un sous-espace stable de dimension 1 est un sous-espace
propre. La matrice de f relativement une base de E construite en choisissant des
29

bases de E serait alors une matrice par blocs de taille 1, donc une matrice dont
tous les coefficients seraient nuls sauf ventuellement les coefficients diagonaux. On
imagine lintrt de travailler avec de telles matrices pour ce qui est de la rsolution
des systmes linaires ou pour le calcul matriciel plus gnralement.
Lutopie nest pas de ce monde, mais une partie substantielle du programme esquiss ci-dessus peut tre ralise.
Exemples Dans ce paragraphe et sauf mention contraire, K dsigne un corps gal
Q, R ou C, E est un K-espace vectoriel de dimension finie n strictement positive
et f est un endomorphisme de E.
1. Lespace E admet une dcomposition en sous-espaces stables par f de dimension 1 lorsque f est lapplication nulle, lorsque f est lidentit et plus gnralement lorsque f = Id pour K. En fait, toute dcomposition de E
en somme directe de sous-espaces vectoriels de dimension 1 convient. La matrice dun tel f relativement au choix dune base quelconque est donc toujours
diagonale (avec respectivement des 0, des 1 et des sur la diagonale).


3
1
2. Soit f dont la matrice dans la base canonique de R2 est
. Dans la
0 5


3 0
base, ((1, 0), (1, 8)) la matrice de f est
donc
0 5
 
 
1
1
2
R = Vect
Vect
0
8
est une dcomposition de R2 en sous-espaces propres de f de dimension 1. Il est
ais de vrifier qu lordre prs, cette dcomposition est la seule dcomposition
en sous-espaces propres de f de dimension 1.
3. 
Soit f lapplication
linaire dont la matrice dans la base canonique de K 2 est

1 1
. Le vecteur u = (1, 1) est dans le noyau de f donc dim ker f 0.
1 1
Comme f nest pas lapplication nulle, dim im f est strictement positif. Daprs
le thorme de rang, dim im f + dim ker f = 2 donc dim ker f = 1 et ker f =
Vect u. Supposons que R2 scrive E1 E2 o E1 et E2 sont des espaces vectoriels
non-nuls stables par f . Ils sont alors tous deux de dimension 1 donc des espaces
propres pour f pour des valeurs propres 1 et 2 . Si 1 2 6= 0, alors le rang
de f est gal 2, ce qui est une contradiction. Donc lune des valeurs propres,
disons 1 , est nulle et E1 est donc gal ker f . Si u = (x, y) est un vecteur
non-nul de E2 , alors u est un vecteur propre donc il existe un scalaire tel que
f (u) = et donc le systme
(
(
x y = x
(1 )x y = 0
ou encore
x y = y
x + (1 )y = 0
admet une solution non-nulle. Ce systme admet une solution non-nulle si et
seulement si (1)(1)+1 = 2 est nul, donc si et seulement si = 0. Mais
30

lespace propre correspondant la valeur propre 0 est E1 et nous obtenons donc


une contradiction. Il nest pas possible de dcomposer K 2 en deux sous-espaces
stricts stables sous laction de f .
4. 
Soit f lapplication
linaire dont la matrice dans la base canonique de R2 est

0 1
. Supposons que f admette un vecteur propre u = (x, y) pour la
1 0
valeur propre R. Alors le systme
(
(
y = x
x y = 0
ou encore
x = y
x y = 0
admet une solution non-nulle, et donc 2 + 1 = 0. Cest absurde. Donc f
nadmet aucune valeur propre et il nest pas possible de dcomposer R2 en
deux sous-espaces stricts stables par f .
5. 
Soit f lapplication
linaire dont la matrice dans la base canonique de C2 est

0 1
. Lapplication f admet un vecteur propre u = (x, y) pour la valeur
1 0
propre C si et seulement si le systme
(
(
y = x
x y = 0
ou encore
x = y
x y = 0
admet une solution non-nulle, donc si et seulement si 2 + 1 = 0 et donc si et
seulement si = i. Donc C2 admet deux sous-espaces stables par f : le sousespace propre Ei correspondant la valeur propre i et Ei correspondant la
valeur propre i. Ces deux sous-espaces tant en somme directe, C2 = Ei Ei
et lon peut dcomposer C2 en deux sous-espaces stricts stables par f .
Notons que les deux derniers exemples montrent que lexistence dune dcomposition de K n en sous-espaces stables par f peut dpendre de K mais que lexemple 3
montre que pour certaines applications linaires, une telle dcomposition est impossible quelque soit le corps considr.
2.3.2

Coeur et nilespace

Lobservation fondamentale qui inspire cette sous-section est le fait que si f End(E)
alors il existe non seulement deux sous-espaces stables par f (cela nous le savons
dj : le noyau et limage de f vrifient cette proprit) mais il existe mme deux
sous-espaces stables par f dont le somme directe est E. Autrement dit, il existe un
sous-espace vectoriel stable admettant un supplmentaire stable.
Dfinition 2.6. Soit E un K-espace vectoriel de dimensions finie et f End(E)
une application linaire. Le nilespace N (f ) de f est lensemble
{u E|n N, f n (u) = 0}.
Le coeur C(f ) est lensemble
{u E|n N, vn , f n (vn ) = u}.
31

Si f End(E), n N et u E vrifient que f n (u) = 0, alors f n+1 (u) = 0


et plus gnralement f n+m (m) = 0 pour m N. Donc ker f n ker f n+m pour tout
(n, m) N2 et le nilespace de f est lunion des sous-espaces vectoriels (ker f n )nN . De
mme, si f n (v) = u alors f m (f nm (v)) = u pour tout m n donc im f n im f nm
et le coeur de f est lintersection des sous-espaces vectoriels (im f n )nN .
Lemme 2.7. Le coeur et le nilespace de f sont des sous-espaces vectoriels stables
par f .
Dmonstration. Le coeur de f est un sous-espace vectoriel car cest une intersection
de sous-espaces vectoriels. Soit (u, v, ) N (f ). Alors il existe (n, m) N2 tel que
f n (u) = f m (v) = 0. Donc f n+m (u + v) et f n (u) sont nuls. Donc u + v et u sont
dans N (f ), qui est donc bien un sous-espace vectoriel. Montrons tout dabord que
N (f ) est un sous-espace vectoriel stable par f . Soit u N (f ). Il existe alors n > 0
tel que f n (u) = 0. Alors f n1 (f (u)) = 0 donc f (u) appartient N (f ). Donc N (f )
est stable par f . Montrons que C(f ) est un sous-espace vectoriel stable par f . Soit
u C(f ) et n N. Il existe un E tel que f n (un ) = u. Alors f n (f (un )) = f (u)
donc il existe v = f (un ) E tel que f n (v) = f (u). Donc C(f ) est stable par f .
Remarquons que si f est surjectif, alors im(f ) = im(f 0 ) et le coeur de f est gal
E. De mme, si f est injectif, alors ker(f ) = ker(f 0 ) et le nilespace de f est nul.
Ce rsultat se gnralise dans le lemme suivant.
Lemme 2.8. Soit n N un entier tel que ker(f n ) = ker(f n+1 ). Alors N (f ) =
ker(f n ). De mme, si n N est un entier tel que im(f n ) = im(f n+1 ), alors C(f ) =
im(f n ).
Dmonstration. Soit N un entier tel que ker f N = ker f N +1 . Montrons par rcurrence que ker f N +m = ker f N pour tout m N. Cest vrai par dfinition si m = 0.
Supposons que ker f N +m = ker f N et soit v ker f N +m+1 . Alors f (v) appartient
ker f N +m donc f (v) appartient ker f N donc v appartient ker f N +1 donc v appartient ker f N . Donc ker f N +m = ker f N pour tout m N par rcurrence. En
appliquant ce rsultat au plus petit n vrifiant la proprit, on obtient lassertion sur
N (f ).
Soit maintenant N un entier tel que im f N = im f N +1 . Montrons par rcurrence
que im f N +m = im f N pour tout m N. Cest vrai par dfinition si m = 0. Supposons
maintenant m 0 et que im f N +m = im f N et soit u im f N +m . Il existe v E
tel que f N +m (v) = u. Soit w = f N (v). Alors w est aussi dans limage de f N +1 par
hypothse sur N donc il existe z E tel que f N +1 (z) = w. Donc f N +m+1 (z) =
f m (w) = f N +m (v) = u. Donc u appartient im f N +m+1 . Donc im f N +m = im f N
pour tout m N par rcurrence. En appliquant ce rsultat au plus petit n vrifiant
la proprit, on obtient lassertion sur C(f ).
Ce lemme implique que lunion croissante des noyaux des f n est strictement croissante ou constante partir dun certain rang et que lintersection dcroissante des
images des f n est strictement dcroissante ou constante partir dun certain rang. En
gnral, les deux comportements sont possibles mais lorsque lespace E est de dimension finie, alors il ne peut exister de suite infinie dinclusion strictement dcroissante
de sous-espaces vectoriels et cest donc la seconde alternative qui prvaut.
32

Lemme 2.9. Soit E un K-espace vectoriel de dimensions finie d et f End(E)


une application linaire. Il existe un entier N d tel que ker f N = N (f ) et im f N =
C(f ).
Dmonstration. Daprs le lemme 2.8, la suite des sous-espaces vectoriels
ker Id ker f ker f n E
est strictement croissante ou stationnaire partir dun certain rang. La suite dentiers
0 dim ker f dim ker f n n
est borne donc cest la deuxime alternative qui prvaut et il existe N N tel que
N (f ) = ker f N . Pour tout n N, dim im f n = d dim ker f n donc la dimension de
im f n est galement stationnaire partir de N . Le sous-espace vectoriel im f N est
alors gal C(f ).
Proposition 2.10. Soit E un K-espace vectoriel de dimensions finie et f End(E)
une application linaire. Le nilespace N (f ) et le coeur C(f ) de f sont des sous-espaces
vectoriels stables par f supplmentaires.
Dmonstration. Nous savons dj que N (f ) et C(f ) sont des sous-espaces vectoriels
stables par le lemme 2.7. Pour montrer que E = C(f ) N (f ), il suffit de montrer
que
dim C(f ) + dim N (f ) = dim E
(2.3.1)
et que C(f ) N (f ) = {0}. Lgalit (2.3.1) vient de ce quil existe N N tel que
C(f ) = im f N , N (f ) = ker f N daprs le lemme 2.9 et du thorme de rang. Soit
donc u C(f ) non-nul. Soit n N . Il existe v E tel que f n (v) = u 6= 0. Donc v
nappartient pas ker f N = N (f ). Donc v napparient pas N (f ) donc f m (v) 6= 0
pour tout m N et de mme f m (u) 6= 0 pour tout m N. Donc u nappartient pas
N (f ).
Remarquons que N (f ) et C(f ) nont aucune raison dtre en somme directe lorsque
E est de dimension infinie. Considrons par exemple la drivation D comme application linaire sur lespace vectoriel C[X] des polynmes coefficients complexes. Pour
tout polynme P , il existe n N tel que Dn (P ) = 0 (on peut par exemple prendre
n = deg P + 1) donc le nilespace de la drivation est C[X] tout entier. Pour tout
polynme P et tout n N, il existe un polynme Qn tel que Dn (Qn ) = P ( savoir le
polynme obtenu en prenant n fois la primitive de P ) donc le coeur de la drivation
est galement C[X] tout entier.
2.3.3

Espaces propres gnraliss

Dfinition 2.11. Soit E un K-espace vectoriel de dimension finie, f End(E) un


endomorphisme et K un scalaire. Lespace propre gnralis E de f pour le
scalaire est le nilespace de lendomorphisme f Id.

33

Un espace propre gnralis est donc en particulier un sous-espace vectoriel stable


par f admettant un supplmentaire stable par f . Si n est un entier strictement positif,
lapplication linaire (f Id)n est injective si et seulement si lapplication linaire
f Id est injective. Un espace propre gnralis pour le scalaire est donc non-nul
si et seulement si est une valeur propre de f .
Lemme 2.12. Soit (, ) deux valeurs propres distinctes de f End(E). Alors le
nilespace N (f Id) de f Id est inclus dans C(f Id). En particulier, des
sous-espaces propres gnraliss pour des valeurs propres distinctes sont en somme
directe.
Dmonstration. Le sous-espace N (f Id) est stable par f et stable par Id donc
est stable par f Id. Montrons que lapplication f Id restreinte N (f Id)
est injective (donc inversible). Soit donc g lapplication linaire f Id restreinte
N (f Id) et soit u dans le noyau de g. Le vecteur u est dans N (f Id) donc il
existe un entier n N tel que (f Id)n (u) = 0 et il est dans ker g donc f (u) = u.
Le polynme dendomorphismes de lespace vectoriel Vect(u) gal f est donc gal
au polynme dendomorphismes Id. Donc
(f Id)n (u) = ( Id Id)n (u) = ( )n u = 0.
Le scalaire est non-nul donc u est nul. Donc f Id est injective aprs
restriction N (f Id). Donc f Id est un isomorphisme de N (f Id) donc
N (f Id) C(f Id).
Soit maintenant (Ei )iI une famille despaces propres gnraliss pour des valeurs
propres distinctes et soit
X
i ui = 0
iJ

une combinaison linaire nulle de vecteurs ui Ei indexe par J I. Soit j J et


i 6= j. Le vecteur ui appartient au nilespace de f i Id donc au coeur de f j Id.
Donc
X
i ui = 0
j uj +
i6=j

est une criture de 0 comme somme dun lment de N (f j Id) et dun lment
de C(f j Id). Ces deux espaces tant en somme directe, j uj . La combinaison
linaire est donc nulle et les (Ei ) sont en somme directe.
Il sen suit quun endomorphisme dun espace de dimension d a au plus d espaces
propres gnraliss non nuls.
Proposition 2.13. Soit E un K-espace vectoriel de dimension finie et f End(E)
un endomorphisme. Supposons que f admette une valeur propre K et soit E
lespace propre gnralis de f pour . Il existe alors une dcomposition
E = E F
en sous-espaces vectoriels stables par f .
34

Sous lhypothse que f admet une valeur propre, on a donc russi rduire ltude
de f ltude de f restreint au sous-espace propre gnralis pour et au sous-espace
vectoriel F .
Dmonstration. Le scalaire est une valeur propre de f donc ker(f Id) 6= {0}
donc E 6= {0}. On peut alors prendre pour F le coeur de f Id.
Thorme 2.1. Soit E un C-espace vectoriel de dimension finie et f End(E) un
endomorphisme. Il existe alors une dcomposition
E=

M
E

en sous-espaces propres gnraliss de f , donc en particulier en sous-espaces stables


par f .
Si E est un C-espace vectoriel, on a donc rduit ltude de f ltude de f restreint
ses sous-espaces propres gnraliss.
Dmonstration. Dmontrons lassertion par rcurrence sur la dimension de E. Lassertion est vraie si dim E = 0 ou 1. Supposons maintenant quelle soit vraie pour
tous les C-espaces vectoriels de dimension finie strictement positive au plus n N et
considrons un espace vectoriel E de dimension n + 1.
Lespace vectoriel End(E) est alors de dimension (n + 1)2 donc la famille (f s )sN
de vecteurs de End(E) est lie. Soit donc
X

s f s = 0

(2.3.2)

sS

une combinaison linaire nulle des (f s )sN dont tous les coefficients ne sont pas nuls
et soit
X
P =
s X s
sS

le polynme correspondant. Ce polynme est un polynme non-nul coefficient de


C[X] donc il admet une factorisation
P =

Y
(X s ).
sS

avec S non-vide. Le polynme dendomorphismes P (f ), qui est nul daprs (2.3.2),


admet donc daprs la proposition 2.5 une factorisation similaire
P (f ) =

Y
(f s Id) = 0.
sS

Lendomorphisme P (f ) est nul et nest donc pas injectif. Une composition dapplications injectives tant injective, lun au moins des endomorphismes f s Id, disons

35

f Id, nest pas injectif. Lapplication f admet donc un vecteur propre pour la valeur propre et lespace propre gnralis E est donc non-nul. Daprs la proposition
2.13, lespace E admet donc une dcomposition
E = E F
avec F stable par f et de dimension strictement infrieure celle de E. Daprs
lhypothse de rcurrence, F admet une dcomposition
F =

X
E

en somme directe de sous-espaces propres gnraliss. Donc E admet une dcomposition


M
E = E
E

en sous-espaces propres gnraliss. Par rcurrence, tout espace vectoriel complexe


de dcomposition finie admet donc une dcomposition en sous-espaces propres gnraliss.
Soit (bi )1in une base de E forme partir de bases des sous-espaces propres
gnraliss E . La matrice de f relativement (bi )1in est alors diagonale par blocs.
2.3.4

Polynme caractristique

Dfinition 2.14. La multiplicit gomtrique dune valeur propre dun endomorphisme f dun K-espace vectoriel de dimension finie est lentier dim N (f Id).
Il rsulte du thorme 2.1 que la somme des multiplicits gomtriques des valeurs
propres dun endomorphisme dun C-espace vectoriel de dimension finie d est gale
d.
Dfinition 2.15. Soit E un C-espace vectoriel de dimension finie n strictement positive et f End(E) un endomorphisme de E. Le spectre Spec(f ) de f est lensemble
des valeurs propres de f comptes avec leur multiplicit gomtrique.
Le cardinal de Spec(f ) est donc n. Lendomorphisme f est bijectif si et seulement
si 0
/ Spec(f ).
Dfinition 2.16. Soit E un C-espace vectoriel de dimension finie n strictement
positive et f End(E) un endomorphisme de E. Le polynme caractristique f
Cn [X] de f est le polynme
f =

(X )

Spec(f )

Par construction, f est un polynme unitaire de degr n coefficients dans C.


Daprs la remarque suivant la dfinition 2.15, f est un isomorphisme si et seulement
le terme constant de f est non-nul ou encore si et seulement si f (0) 6= 0.
36

Thorme 2.2 (Thorme de Cayley-Hamilton). Soit f un endomorphisme dun


C-espace vectoriel E de dimension finie et f C[X] son polynme caractristique.
Le polynme dendomorphismes f (f ) est alors le polynme nul.
Dmonstration. Daprs le thorme 2.1, E admet une dcomposition
E=

M
E

en sous-espaces propres gnraliss. Les sous-espaces E sont stables par f , donc par
lendomorphisme f (f ). Pour montrer que f (f ) est lendomorphisme nul, il suffit
donc de montrer que f (f ) est lendomorphisme nul aprs restriction chaque E .
Soit donc une valeur propre de f de multiplicit gomtrique m et u E . Par
dfinition de la multiplicit gomtrique, (f Id)m (u) = 0 donc
!
Y
(f Id) (f Id)m (u) = 0.
0 6=

Donc f (f )(u) = 0 et f (f ) est bien lendomorphisme nul.


2.3.5

Rduction des endomorphismes diagonalisables

Soit E un C-espace vectoriel de dimension finie et f End(E). Daprs le thorme


2.1, E se dcompose en somme de sous-espaces propres gnraliss pour f .
Dfinition 2.17. Un endomorphisme f dun K-espace vectoriel E de dimension
finie est diagonalisable si E admet une dcomposition en sous-espaces propres
E=

ker(f Id).

Relativement une base forme de bases des ker(f Id), la matrice de f est
diagonale avec les Spec(f ) sur la diagonale. Ceci explique le terme diagonalisable.
Proposition 2.18. Soit f un endomorphisme dun C-espace vectoriel E de dimension finie. Soit P C[X] tel que P (f ) soit lendomorphisme nul. Alors le spectre de
f est inclus dans lensemble des racines de P . Lendomorphisme f est diagonalisable
si et seulement sil existe un polynme P de la forme
d
Y
P =
(X i )
i=1

avec i 6= j si i 6= j tel que P (f ) soit lendomorphisme nul.


Dmonstration. Soit Spec f et u un vecteur propre de f pour la valeur propre
. Alors
!
d
X
P (f )(u) =
i i u = 0
i=0

37

et u 6= 0 donc est une racine de P . Supposons que f soit diagonale. Alors E scrit
comme la somme directe des ker(f Id) donc
Y

(X )

Spec f

est lendomorphisme nul de E. Supposons rciproquement quil existe un polynme P


dont toutes les racines sont distinctes tel que P (f ) soit lendomorphisme nul. Daprs
le thorme 2.1, E scrit comme la somme directe des espaces propres gnraliss
de f . Soit E un des espaces propres gnraliss de f . Si 6= est une racine de P ,
alors f Id est un endomorphisme injectif de E donc
Y

(f Id)

6=

est un endomorphisme injectif de E . Or P (f ) est lendomorphisme nul de E donc


f Id est lendomorphisme nul de E donc E = ker(f Id) et f est diagonalisable.
Corollaire 2.19. Supposons que f admette dim E valeurs propres distinctes. Alors
f est diagonalisable.
Dmonstration. En effet, le polynme caractristique f de f est alors un polynme
racines simples tel que f (f ) = 0. On applique la proposition 2.18.
2.3.6

Rduction des endomorphismes nilpotents

Dfinition 2.20. Un endomorphisme f dun K-espace vectoriel est nilpotent sil


existe n N tel que f n = 0.
De manire quivalente, un endomorphisme de E est nilpotent si son nilespace
est lespace E tout entier. Soit E un C-espace vectoriel de dimension finie n et soit
f End(E). Supposons f nilpotent et soit u un vecteur propre de f pour la valeur
propre (un tel vecteur existe daprs le thorme 2.1). Alors f n (u) = n u donc
= 0. Toutes les valeurs propres dun endomorphisme nilpotent sont donc nulles.
Rciproquement, si E est de dimension d et si Spec(f ) = {0(d) }, alors E est le
nilespace de f donc f est nilpotent.
On appelle ordre de nilpotence de f le plus petit entier n N tel que f n = 0 et
ordre de nilpotence de u E le plus petit entier m tel que f m (u) = 0. Il rsulte
immdiatement de ces dfinitions que lordre de nilpotence de u est plus petit que
lordre de nilpotence de f et quil existe un vecteur umax dont lordre de nilpotence
est gal lordre de nilpotence de f lorsque E est de dimension finie. Lensemble
des lments dordre de nilpotence au plus d est un sous-espace vectoriel de f . Enfin,
nous savons que lordre de nilpotence de f est plus petit que la dimension de E
lorsque celle-ci est finie.
Lemme 2.21. Des vecteurs non-nuls dordre de nilpotence distincts forment une
famille libre. En particulier, si u est un vecteur dordre de nilpotence d > 0, alors la
famille (f i (u))0id1 est libre.
38

Dmonstration. Soit (ui )iI des vecteurs non nuls dordre de nilpotence di avec di 6=
dj si i 6= j. Supposons quil existe une combinaison linaire nulle des ui dont tous les
coefficients ne sont pas nuls. Il en existe alors une
n
X
i ui = 0
i=1

de cardinal minimal. Soit dj le maximum des di . Alors


!
n
n
X
X
i ui =
i f dj 1 (ui ) = j f dj 1 (uj ) = 0
f dj 1
i=1

i=1

dj 1

(uj ) 6= 0 donc j = 0. Contradiction.


La deuxime assertion dcoule de la premire et de lobservation que f (u) est
dordre de nilpotence d si et seulement si u est dordre de nilpotence d + 1.

et

Proposition 2.22. Soit f un endomorphisme nilpotent de E un K-espace vectoriel


de dimension finie n. Il existe une base (v1 , , vn ) telle que f (vi ) appartienne
Vect(v1 , , vi1 ) pour tout 1 i n.
Dmonstration. On dfinit le procd suivant. Ltape zro est un choix dune base
du noyau de f . Si ltape s 0 est termine et si la famille construite ne contient
que des lments dordre de nilpotence s, on la complte si possible par une famille
libre maximale dlments dordre de nilpotence s + 1. Daprs le lemme 2.21, la
famille obtenue est libre et engendre le sous-espace vectoriel des lments dordre de
nilpotence au plus d + 1. Le procd termine donc avec une famille libre maximale,
donc une base de E, vrifiant la proprit voulue.
Dans la base de la proposition prcdente, la matrice de f est triangulaire suprieure avec des 0 sur la diagonale. On pourra remarquer que la dmonstration montre
en fait une proprit plus forte que celle de lnonc. Ceci inspire la proposition suivante, nettement plus forte.
Proposition 2.23. Soit f un endomorphisme nilpotent de E un K-espace vectoriel
de dimension finie. Il existe des vecteurs (v1 , , vs ) dordres de nilpotence respectifs
(d1 , , ds ) tels que
s
M
E=
Vect(f n (vi ))nN
i=1

ou, de manire quivalente, tels que


(v1 , , f d1 1 (v1 ), v2 , , f d2 1 (v2 ), , vs , , f ds 1 (vs ))
soit une base de E et tels que (f di 1 (vi ))1is soit une base de ker f .
Dmonstration. Soit E est de dimension 1. Lassertion est alors vraie. Soit E est de
dimension strictement suprieur 1 et on peut supposer par rcurrence que lassertion
est vraie pour les endomorphismes nilpotents des espaces de dimensions strictement
infrieure. Le noyau de f est non-nul donc im f est de dimension r strictement
39

infrieur E et est stable par f . Daprs lhypothse de rcurrence, il existe donc une
base de im f de la forme (v1 , , f d1 1 (v1 ), v2 , , f d2 1 (v2 ), , vt , , f dt 1 (vt ))
avec (f di 1 (vi ))1it une based de ker f im f . Choisissons des (ui )1it tels que
f (ui ) = vi pour tout 1 i t (ce qui est possible car les vi appartiennent im f ).
Pour tout 1 i d, lordre de nilpotence de ui est alors lordre de nilpotence de
vi plus 1 donc est gal di + 1. Soit (wi )1ik une base dun supplmentaire de
im f ker f dans ker f .
Rebaptisons la famille des
(u1 , , f d1 (u1 ), , ut , , f dt (ut ), w1 , , wk )
en
(z1 , , f 1 1 (z1 ), , z` , , f ` 1 (z` ))1`m .
Ici, j = dj si zj est lun des ui et j si zj est un des wi et m = dim im f + k = r + k.
Montrons que
Z = (z1 , , f 1 1 (z1 ), , z` , , f ` 1 (z` ))1`m
forme une base de E vrifiant la proprit exige. Par construction, les lments de
la base dordre de nilpotence 1 forment une base de ker f im f sils sont de la forme
f dj 1 (vj ) et une base dun supplmentaire de ker f im f dans ker f sils sont de la
forme wj . Ensemble, ils forment donc bien une base de ker f . Il suffit donc de montrer
que la famille Z est libre et de cardinal gal la dimension de E.
Soit
j 1
m X
X
i,j f j (zi ) = 0
(2.3.3)
i=1 j=0

une combinaison linaire nulle des vecteurs de Z. En appliquant f on obtient


j 1
j 1
m X
r dX
X
X
j+1
0=
i,j f (zi ) =
i,j f j (vi )

i=1 j=0

i=1 j=0

car les wi sont dans le noyau de f . Daprs lhypothse de rcurrence, la famille des
f j (vi ) est une base donc la combinaison linaire
j 1
r dX
X
i,j f j (vi )

i=1 j=0

a tous ses coefficients nuls. Les seuls i,j ventuellement non-nuls sont donc ceux
pour r < i m, auquel cas j = 1. La combinaison linaire nulle (2.3.3) devient
donc
k
X
i wi = 0.
i=1

Mais les wi forment une famille libre, donc la combinaison linaire (2.3.3) a tous ses
coefficients nuls. Reste dmontrer que Z est de cardinal dim E. Par construction,
il y dim im f vecteurs de la forme f i (vj ) dans Z quoi il faut ajouter les dim ker f
dim(ker f dim im f ) vecteurs wi et les vecteurs ui . Or, les vecteurs f di (ui ) forment
une base de im f ker f . Le cardinal de Z est donc dim im f + dim ker f , donc dim E
par le thorme du rang.
40

On appelle base adapte f une base comme dans la proposition 2.23. Les sousespaces engendrs par (f i (uj )) et par (wk ) sont stables par f (par construction pour
les premiers, parce que les wk sont dans le noyau de f pour le second). La matrice
de f dans une base adapte est donc diagonale par blocs. Certains des blocs sont
nuls, les autres peuvent tre rarrangs de telle sorte que la matrice de f ait tous ses
coefficients aij nuls sauf ceux avec j = i + 1 qui sont gaux 1.
2.3.7

Rduction des endomorphismes de C2

Soit E un C-espace vectoriel de dimension 2 et f End(E). Lespace E admet une


dcomposition en sous-espaces propres gnraliss
E=

E .

Il ny a donc que deux possibilits : ou bien f admet deux valeurs propres distinctes,
auquel cas f est diagonalisable daprs la
2.3.5 et il existe donc une base
 sous-section

0
dans laquelle sa matrice est la matrice
, ou bien la multiplicit gomtrique
0
de lunique valeur propre de f est gale 2, auquel cas E est le noyau de (f Id)2
et lapplication g = f Id est donc nilpotente. Dans le second cas, il existe daprs
la proposition
2.23
la matrice

 une base adapte (g(v), v) de E relativement
 laquelle

0 1
1
de f est
. La matrice de f dans cette base est donc
.
0 0
0
2.3.8

Thorme de rduction de Jordan

En rassemblant les rsultats des sous-sections prcdentes, on arrive au thorme


suivant.
Thorme 2.3. [Thorme de rduction de Jordan] Soit E un C-espace vectoriel
de dimension finie strictement positive et f End(E) un endomorphisme de E de
spectre S. Il existe une dcomposition de E
E=

en sous-espaces stables gnraliss et des choix de bases de chacun des E tels que la
matrice de f relativement ce choix de base soit diagonale par blocs de taille m m
de la forme

1 0 0
0 1
0

0 0
0

0 0
1
0 0 0

41

cest--dire tels que

si i = j
aij = 1 si j = i + 1

0 sinon.

Dmonstration. Daprs le thorme 2.1, il suffit de montrer quil existe une base de
E telle que la matrice de f restreinte E soit diagonale par blocs de la forme

1 0 0
0 1
0

0 0

0
.

0 0
1
0 0 0

la matrice (ij ) car cette matrice est la


matrice de f est donc la matrice

0
0

1
0

Dans cette base, la matrice de Id est


matrice de Id dans toutes les bases. La

1 0
0 1

0 0

0 0
0 0

Lendomorphisme f Id est un endomorphisme nilpotent de E donc admet une


base adapte daprs la proposition 2.23 telle que sa matrice dans cette base soit
diagonale par blocs de la forme

0 1 0 0
0 0 1
0

0 0 0

0 0
0 1
0 0 0 0

comme voulu.
En utilisant la proposition 2.22 plutt que la proposition 2.23, on obtient le thorme suivant qui est un peu moins prcis mais souvent suffisant pour les applications.
Thorme 2.4. Soit E un C-espace vectoriel de dimension finie strictement positive
et f End(E) un endomorphisme de E de spectre S. Il existe une dcomposition de
E
M
E=
E
S

en sous-espaces stables gnraliss et des choix de bases de chacun des E tels que la
matrice de f relativement ce choix de base soit diagonale par blocs de taille m m
42

de la forme

0

0 0

0
0
cest--dire tels que

(
si i = j
aij =
0 si i > j.
Dmonstration. Mme dmonstration que pour le thorme 2.3 mais en invoquant
la proposition 2.22 plutt que la proposition 2.23.
2.3.9

Trace et dterminant dun endomorphisme

Dfinition 2.24. Soit E un C-espace vectoriel de dimension finie n strictement


positif et f End(E) un endomorphisme de spectre S. La trace tr(f ) de f est la
somme des valeurs propres de f comptes avec multiplicit et le dterminant det(f )
de f est le produit des valeurs propres de f comptes avec multiplicit.
Si
f =

n
X

as X s =

s=0

(X )

est le polynme caractristique f , la trace de f est gale an1 et le dterminant


de f est (1)n a0 .
Lemme 2.25. Un endomorphisme f est bijectif si et seulement si det(f ) 6= 0. Si
det(f ) 6= 0, linverse de f est un polynme dendomorphismes en f .
Dmonstration. Un endomorphisme est bijectif si et seulement si 0 nappartient pas
son spectre. Daprs le thorme de Cayley-Hamilton, le polynme dendomorphismes
n
X
f (f ) =
as f s
s=0

est nul. Lorsque det(f ) 6= 0, il en rsulte que


1
Id = f
a0

n1
X
as+1 f s

s=0

et donc que linverse de f est un polynme dendomorphismes.


Dfinition 2.26. Soit M = (aij ) Mn (K) une matrice. La trace tr(M ) de M est
la somme de ses coefficients diagonaux.
n
X
tr(M ) =
aii
i=1

43

Proposition 2.27. Soit A = (aij ) Mn (K) et B = (bij ) Mn (K) deux matrices.


Alors
tr(AB) = tr(BA).
Dmonstration. Soit AB = (cij ) et BA = (dij ). Alors
tr(AB) =
=

n
X

cii =

i=1
n X
n
X

n X
n
X

aik bki

i=1 k=1

bki aik =

k=1 i=1

X
dkk = tr(BA).
k=1

Corollaire 2.28. Soit f un endomorphisme dun K-espace vectoriel. Le scalaire


tr(f ) dfini comme tant la trace de la matrice de f relativement un choix quelconque de base est bien dfini et est gal la trace de f lorsque K = C.
Dmonstration. Soit en effet M (f ) et N (f ) les matrices de f relativement deux
choix de bases. Alors N (f ) = P 1 M (f )P pour P une matrice de passage. Donc
tr(N (f )) = tr(P 1 M (f )P ) = tr(M (f )P 1 P ) = tr(M (f )). Si K = C, il existe une
base dans laquelle les termes diagonaux de la matrice de f sont les valeurs propres
de f comptes avec multiplicit. La dernire assertion est donc vraie.
Ce corollaire dmontre en particulier que si f est un endomorphisme dun C-espace
vectoriel dont la matrice dans une certaine base est coefficients rationnels ou rels,
alors il en est de mme de sa trace. Ceci ntait pas vident en utilisant la dfinition
de la trace comme somme des valeurs propres de f et nest pas vident non plus pour
le dterminant de f .
2
Proposition

 2.29. Soit f un endomorphisme de C dont la matrice dans une base
a b
est
. Alors la trace de f est a+d et le dterminant de f est adbc. Autrement
c d
dit, le polynme caractristique de f est le polynme

f = X 2 (a + d)X + (ad bc).


Dmonstration. Lendomorphisme
  f admet comme valeur propre si et seulement
x
sil existe un vecteur u =
non-nul propre pour la valeur propre donc si et
y
seulement si le systme
(
(
ax + by = x
(a )x + by = 0

(2.3.4)
cx + dy = y
cx + (d )y = 0
admet une solution non-nulle donc si et seulement si
(a )(d ) bc = 2 (a + d) + (ad bc) = 0.
Les valeurs propres de f , qui sont par dfinition les racines du polynme unitaire
f , sont donc les racines du polynme unitaire 2 (a + d) + (ad bc). Ces deux
polynmes unitaires sont donc gaux. Toutes les assertions de la proposition en rsultent.
44

2.3.10

Rduction des endomorphismes rationnels ou rels

Dans cette sous-section, on suppose que K = Q ou que K = R et que f est un endomorphisme dun K-espace vectoriel E de dimension finie strictement positive. Nous
avons vu que dans ce cas, il est tout fait possible que f nadmette pas de vecteur
propre et donc quil ne puisse tre rduit comme dans les sous-sections prcdentes.
Nanmoins, f stend par linarit dans ce cas un endomorphisme du C-espace
vectoriel F de mme dimension que E obtenu en considrant les combinaisons linaires complexes dune base de E. En tant quendomorphisme de F , f admet une
rduction de Jordan. Dans la dmonstration de cette rduction, nous avons utilis
deux ingrdients fondamentaux :
1. Le fait que F se dcompose en sous-espaces propres gnraliss.
2. Le fait quun endomorphisme nilpotent admet une base adapte.
Le second de ces deux faits est gnral et demeure donc vraie pour E. Le premier en
revanche utilise de manire cruciale le fait quun polynme coefficients complexes
admet une racine complexe, mais aucune autre proprit du corps C. Il rsulte de
cette discussion que f admet une dcomposition de Jordan sur E la condition
suffisante (et bien sr ncessaire) que toutes ses valeurs propres en tant quendomorphisme de F soit dans K.

Dterminants

A la fin de la section prcdente, nous avons vu que la trace dun endomorphisme


dun espace vectoriel complexe admettant une matrice coefficients rels tait relle
et avons soulev une question similaire pour le dterminant.
 Nous
 avons aussi vu
a
b
que le dterminant dun endomorphisme de C2 de matrice
est ad bc, qui
c d
est exactement la quantit qui apparat dans la rsolution des systmes dquations
linaires. Lobjectif de cette section est de gnraliser ces proprits la dimension
n.

3.1
3.1.1

Formes linaires, multilinaires


Formes linaires

Dfinition 3.1. Soit E un K-espace vectoriel. Une forme linaire de E est un lment de Hom(E, K), cest--dire une application linaire coefficients dans K.
La projection selon la premire coordonnes dans la base canonique de K n et plus
gnralement la projection selon une coordonne quelconque sont des formes linaires
de K n . Lapplication qui a un polynme associe son n-ime coefficient est une forme
linaire de K[X]. Lvaluation x 7 f (x) en x U fix est une forme linaire de
lespace vectoriel C n (U, R) (pour U un ouvert de R).

45

Proposition 3.2. Lensemble E des formes linaires de E est un espace vectoriel.


Supposons E de dimension finie gale n et soit (bi )1in une base de E. Il existe
une unique famille (bi )1in de formes linaires vrifiant
(
1 si i = j
2

(i, j) {1, , n} , bi (bj ) = ij =


0 sinon.
La famille (bi )1in est une base de E . En particulier, lespace vectoriel E est de
dimension n. Lapplication
ev : E E
u 7 (f 7 f (u))
est un isomorphisme despaces vectoriels entre E et E .
Dmonstration. Lensemble E est Hom(E, K) donc est un espace vectoriel et il est
de dimension n lorsque dim E = n. Soit i {1, , n}. La forme linaire bi est
dfinie en posant
!
n
X
bi
j bj = j .
j=1

Le fait que (bi ) soit une base implique alors que bi est bien dfini (car un vecteur
u admet une unique dcomposition comme combinaison linaire des bi ) et la dfinition dune combinaison linaire montre alors que bi est une application linaire. Par
construction, bi vrifie bien bi (bj ) = ij pour tout j {1, , n}. Pour montrer que
les bi forment une base, il suffit de montrer quil forme une famille libre. Soit donc
f=

n
X

i bi = 0

i=1

une combinaison linaire nulle des


nuls.
Considrons enfin lapplication

bi .

Alors f (ej ) = j = 0 donc tous les i sont

ev : E E
u 7 (f 7 f (u))
de E dans E . Soit (u, v, ) E 2 K et f E . Alors ev(u + v)(f ) = f (u +
v) = f (u) + f (v) = (ev(u) + ev(v))(f ) donc ev(u + v) = ev(u) + ev(v). De mme
ev(u)(f ) = f (u) = f (u) = ev(u)(f ) donc ev(u) = ev(u). Donc ev est une
application linaire. Soit u E non nul. Alors u appartient une base donc il existe
une forme linaire u vrifiant u (u) = 1 donc ev(u)(u ) 6= 0 donc ev(u) 6= 0. Par
contraposition, ev est donc injective. Les dimensions de E et E tant gale, ev est
un isomorphisme despaces vectoriels.
Lespace vectoriel E sappelle lespace vectoriel dual de E et la base (bi ) sappelle
la base duale de (bi ). Notons que la construction de bi dpend du choix de tous
,(b )
les bj , si bien qu strictement parler on devrait plutt crire bi j . Le noyau dune
forme linaire dun espace vectoriel de dimension finie n est un espace vectoriel de
dimension n 1 daprs le thorme du rang et sappelle un hyperplan de E (par
analogie avec les plans dans R3 ).
46

3.1.2

Formes bilinaires

Dfinition 3.3. Soit E un K-espace vectoriel. Une forme bilinaire de E est une
application
(|) : E E K
qui est linaire par rapport aux deux variables ; cest--dire que pour tout (u, v) E 2 ,
les applications (u|) et (|v) sont des formes linaires.
Une forme bilinaire est symtrique lorsque (u|v) = (v|u) pour tout (u, v) K 2 .
Elle est antisymtrique lorsque (u|v) = (v|u) pour tout (u, v) K 2 . Elle est dfinie
lorsque (u|u) 6= 0 pour tout u K.
3.1.3

Formes multilinaires

Dfinition 3.4. Soit E un K-espace vectoriel. Une forme n-linaire de E est une
application
(, , ) : E n K
qui est linaire par rapport aux n variables ; cest--dire que pour tout j et pour tout
(ui )1in1 E n1 , lapplication
j : E K
uj 7 (u1 , , uj , , un1 )
est une forme linaire. Une forme multilinaire est une forme n-linaire pour un
certain n.
Une forme n-linaire est symtrique lorsque pour tout (i, j) {1, , n}2 et
toute famille (us )1sn de E,
(u1 , , ui , , uj , , un ) = (u1 , , uj , , ui , , un ).
Une forme n-linaire est antisymtrique lorsque pour tout (i, j) {1, , n}2 et
toute famille (us )1sn de E,
(u1 , , ui , , uj , , un ) = (u1 , , uj , , ui , , un ).

(3.1.1)

Une forme n-linaire est alterne lorsque (u1 , , un ) = 0 ds lors que ui = uj pour
i 6= j.
Lemme 3.5. Une forme n-linaire alterne est antisymtrique. Si K = Q, R ou C,
une forme multilinaire antisymtrique est alterne.
Dmonstration. Soit une forme multilinaire. Supposons alterne et fixons une
paire dindices (i, j). La forme bilinaire obtenue en fixant toutes les vecteurs sauf
ceux dindices i ou j est alterne, et il suffit de montrer quelle est antisymtrique.
Or
0 = (u + v, u + v) = (u, v) + (v, u)

47

par bilinarit de . Supposons rciproquement antisymtrique. Lquation (3.1.1)


applique (u1 , , ui , , ui , , un ) implique
(u1 , , ui , , ui , , un ) = (u1 , , ui , , ui , , un )
et donc 2(u1 , , ui , , ui , , un ) = 0. Si K = Q, R ou C, ceci entrane
(u1 , , ui , , ui , , un ) = 0.

Proposition 3.6. Soit K = Q, R ou C. Soit E un K-espace vectoriel de dimension


finie n strictement positive. Soit une forme n-linaire alterne. Soit (ui )1in une
famille de vecteurs de E. Alors ((ui )) 6= 0 seulement si (ui ) est une base.
Les formes n-linaires alternes non-nulles (si elles existent) ont donc la facult de
dtecter les bases.
Dmonstration. Il suffit de montrer que ((ui )) 6= 0 seulement si (ui ) est libre.
Montrons la contrapose et supposons que la famille (ui ) est lie. Il existe alors une
combinaison linaire nulle
n
X
i ui = 0
i=1

des ui dont tous les coefficients ne sont pas nuls et dont on peut donc supposer sans
perte de gnralit que les coefficients j est gal 1. Donc
!
X
X
((ui )) = u1 , , i uu , , un = i (u1 , , ui , , un )
i6=j

i6=j

Pour tout i 6= j, deux des vecteurs de (u1 , , ui , , un ) sont gaux car ui est en
position j. Donc (u1 , , ui , , un ) = 0 et il en est donc de mme pour ((ui )).
Cette proposition admet une rciproque qui est nanmoins nettement plus difficile
dmontrer. Commenons par une dfinition.
Dfinition 3.7. Soit Sn une permutation, cest--dire une bijection de {1, , n}
vers lui-mme. Soit n() le nombre dchange ncessaires pour transformer le n-uplet
((1), (2), , (n)) en (1, 2, , n) si lon procde de la manire suivante : si les j
premiers lments sont dans lordre voulu, on change si ncessaire j + 1 et (j + 1).
Soit () lentier (1)n() .
Par exemple, si est la permutation telle que ((1), (2), (3)) soit gal (2, 3, 1),
alors le procd de la dfinition 3.7 transforme (2, 3, 1) en (1, 3, 2) puis en (1, 2, 3)
donc ncessite deux changes. Donc () = (1)2 = 1. Si maintenant est la
permutation (1, 3, 5, 2, 4), le procd de la dfinition 3.7 transforme (1, 3, 5, 2, 4) en
(1, 2, 5, 3, 4) puis en (1, 2, 3, 5, 4) puis en (1, 2, 3, 4, 5) donc ncessite 3 changes. Donc
() = (1)3 = 1. On peut dmontrer que () ne dpend en fait pas de la faon
de rarranger le n-uplet ((1), , (n)) mais nous naurons pas besoin de ce fait.
48

Proposition 3.8. Soit K = Q, R ou C. Soit E un K-espace vectoriel de dimension


finie n strictement positif. Soit une forme n-linaire alterne. Si est non-nulle,
alors ((bi )) 6= 0 si et seulement si (bi ) est une base. Plus prcisment, si (bi ) est une
base, lapplication 7 ((bi )) est une injection de lensemble des formes n-linaires
alternes vers K.
Dmonstration. Supposons non-nulle. Il existe alors une famille (ci ) de vecteurs
telle que ((ci )) 6= 0 et cette famille est ncessairement une base. Soit (bi ) une autre
famille de vecteurs. Nous savons dj que ((bi )) 6= 0 seulement si (bi ) est une base.
Rciproquement, supposons que (bi ) soit une base. Pour tout j, cj peut alors scrire
cj =

n
X

ij bi

i=1

dans la base des (bi ). Donc


((ci )) =

n
X

n
n
X
X
i1 bi , ,
ij bj , ,
in bi

i=1

i=1

!
.

i=1

Dveloppons cette expression en utilisant la linarit par rapport chaque variable


et en indexant les indices eux-mmes.

n
n
n
X
X
X
((ci )) = i1 1 bi1 , ,
ij j bij , ,
in n bin
i1 =1

Donc
((ci )) =

n
X

ij =1

i1 1 bi1 ,

i1 =1

n
X

i2 2 bi2 , ,

i2 =1

n i=1

n
X

ij j bij ,

ij =1

n
X

in n bi

in =1

et plus gnralement
((ci )) =

n
X

i1 =1

n
X

!
n
Y
ij j ((bij )) .

in =1

j=1

(3.1.2)

La forme n-linaire tant alterne, ((bij )) = 0 sauf si tous les ij sont distincts,
ou de manire quivalente sauf si j 7 ij est une bijection de lensemble {1, , n}
vers lui-mme. Les termes non-nuls de la somme du membre de droite de (3.1.2) sont
donc les termes de la forme
n
Y
(j)j ((b(j)j ))
j=1

o est une bijection de {1, , n}2 . Notons Sn lensemble de ces bijections. Alors
n
XY
(j)j ((b(j) )).
((ci )) =
Sn j=1

49

Maintenant, on peut rordonner les b(j) en permutant, si ncessaire, b(1) avec b1 , puis
b(2) avec b2 et ainsi de suite. Comme dans la dfinition 3.7, notons () {1, 1}
le signe tel que
((b(j) )) = ()((bj ))
par le procd de cette dfinition. On obtient finalement
!
n
X
Y
(c1 , c2 , , cn ) =
() (j)j (b1 , b2 , , bn ).
j=1

Sn

Donc (b1 , , bn ) 6= 0.
Pour montrer, la dernire assertion, il suffit de remarquer que si ((bi )) = ((bi ))
alors
((ci )) = 0 = ((ci ))
pour toute famille lie (ci ) tandis que
!
n
Y
X
() (j)j (b1 , b2 , , bn ) =
((ci )) =
Sn

j=1

et
((ci )) =

n
Y
() (j)j

Sn

j=1

n
Y
() (j)j

Sn

j=1

!
(b1 , b2 , , bn )

!
(b1 , b2 , , bn )

pour toute famille libre (ci ).

3.2

Dterminants

Nous sommes en position de dfinir le dterminant dune matrice carre et dun


endomorphisme.
3.2.1

Dterminant dune matrice

Soit n un entier strictement positif, K le corps Q, R ou C et soit M = (aij )


Mn (K).
Dfinition 3.9. La dterminant de M est le scalaire
det(M ) =

()

Sn

n
Y
a(j)j .
j=1

Le dterminant dune famille (bi ) de vecteurs de K n est le dterminant de la matrice


dont les vecteurs colonnes sont les bi .

50

Exemples :
1. Soit M = a M1 (K) ' K. Alors det(M ) = a.


a b
2. Soit M = (mij ) =
M2 (K). Alors
c d
det(M ) = m(1)1 m(2)2 m (1)1 m (2)2
pour gal lidentit et lunique autre bijection de {1, 2} vers lui-mme,
savoir (1) = 2 et (2) = 1. Donc
det(M ) = ad bc.
3. Soit M = (ij ) la matrice de lidentit. La seule bijection de {1, , n} vers
lui-mme telle que
n
Y
(j)j 6= 0
j=1

est lidentit et dans ce cas, ce produit vaut 1 donc det(M ) = 1. Plus gnralement, le dterminant de M = (ij ) est gal n . Plus gnralement encore,
si M est une matrice diagonale avec des i sur la diagonale, alors
n
Y
det(M ) =
i .
i=1

4. Plus gnralement encore, la seule permutation qui vrifie (i) i pour tout
i {1, , n}2 ou (i) i pour tout i {1, , n}2 est lidentit donc
det(M ) =

n
Y
i
i=1

si M est triangulaire suprieure ou triangulaire infrieure avec des i sur la


diagonale.
3.2.2

Proprits fondamentales du dterminant

Dfinition 3.10. Soit n un entier strictement suprieur 1. Soit A = (aij )


Mn (K). Pour (k, `) {1, , n}n , la matrice Ak` est la matrice (aij )i6=k,j6=`
Mn1 (K).
Thorme 3.1. Soit n un entier strictement positif. Lapplication n qui A
Mn (K) associe a si n = 1 et A = (a) et qui associe A
n
X
n (A) =
(1)i+1 a1i n1 (A1i )
i=1

si n > 1 et A = (aij ) est une forme multilinaire alterne gale 1 en la matrice de


lidentit. De plus, n = det pour tout n > 0.
51

Dmonstration. Nous dmontrons toutes les assertions par rcurrence. Elles sont
toutes vraies si n = 1. Supposons maintenant que n soit strictement suprieur 1
et que toutes les assertions au sujet de n1 soient vraies pour toutes les matrices
M Mn1 (K). Supposons toutes les colonnes fixes sauf la colonne j qui est gale
au vecteur u. Alors
n (u1 , , uj , , un ) = (j A) =

n
X
(1)i+1 ij a1i n1 (j A1i ) = n (A)
i=1

o j A est la matrice gale A sauf en la colonne j o elle est gale uj et o


ij = 1 sauf en i = j ou ij = . De mme, soit v un vecteur.
n
X
n (u1 , , u + v, , un ) =
(1)i+1 (a + b)1i n1 ((A + B)1i ) = n (A) + n (B)
i=1

o B est la matrice gale A sauf en la colonne j o elle est gale v. Lapplication


n est donc multilinaire. Enfin, si deux colonnes (disons k et `) sont gales, alors
les colonnes k et ` sont encore gales dans Aij pour tout ij donc n1 (Aij ) = 0. Il en
est donc de mme pour n (A) et n est alterne. Enfin
n
X
n (Idn ) = n1 (Idn1 ) +
(1)i+1 a1i n1 (A1i )
i=2

et a1i = 0 pour i > 1 donc n (Idn ) = (Idn1 ) = 1.


Daprs la proposition 3.8, il existe une unique forme n-linaire alterne gale 1
en la base canonique de K n et cette forme vrifie
n (A) =

n
Y
() a(i)i

Sn

i=1

si A est la matrice dune famille (bi ) dans la base canonique. Donc n = det.
Exemple : Le dterminant de la matrice

a b c
d e f
g h i
est gal aei af h bdi + bf g + cdh ceg.
Nous avons maintenant deux dfinitions potentielles du dterminant dune matrice
carre. Dune part on peut utiliser la dfinition 3.9, ou bien on peut choisir un
endomorphisme de Cn dont la matrice dans la base canonique de Cn est M et calculer
det(f ). Les calculs prcdents montrent que ces deux dfinitions coincident lorsque
M est une matrice triangulaire suprieure ou bien lorsque n = 2. Le thorme suivant
assure quil en est toujours ainsi.

52

Thorme 3.2. Lapplication


det : Mn (K) K
X
Y
(aij ) 7
() a(i)i
Sn

i=1

vue comme application de (K n )n est lunique forme n-linaire alterne gale 1


en la matrice de lidentit. Cette application vrifie det(AB) = det(A) det(B) pour
tout (A, B) Mn (K) et det(A1 ) = (det(A))1 pour tout A GLn (K). Soit f un
endomorphisme de Cn et M (f ) sa matrice relativement un choix quelconque de
base. Alors det(f ) est gal det(M (f )).
Dmonstration. Daprs le thorme 3.1, lapplication det est une forme n-linaire
alterne valant 1 en la base canonique de K n . Daprs la proposition 3.8, cest donc
lunique telle forme.
Soit (A, B) Mn (K)2 . Soit A nest pas inversible et alors AB ne lest pas non
plus et donc det(AB) et det(A) det(B) sont tous les deux nuls. Soit A est inversible.
Lapplication
det(A)/ det(A) : Mn (K) K
B
7 det(AB)/ det(A)
est alors une forme n-linaire alterne non-nulle de valeur 1 en lidentit In . Daprs
la proposition 3.8, les formes linaires alternes det(A)/ det(A) et det sont donc
gales.
Soit A GLn (K). Alors det(AA1 ) = 1 et det(AA1 ) = det(A) det(A1 ) donc
det(A1 ) = (det(A))1 . En particulier, det(M ) = det(P 1 M P ) pour toute matrice
inversible P et donc le dterminant le scalaire det(M (f )) est bien dfini pour tout
f End(K n ). Soit M (f ) la matrice relativement la base telle que M (f ) soit
triangulaire suprieure de diagonale gale au spectre de f . Le le dterminant de
M (f ) est alors gal au dterminant de f .
Ce thorme met en particulier sur le plan le dterminant et la trace dun endomorphisme.
3.2.3

Dveloppement en ligne et en colonne

Dfinition 3.11. La transpose t A dune matrice A = (aij ) Mn,m (K) est la matrice (t aij ) = (aji ) Mm,n (K).
Lemme 3.12. Soit (A, B) Mn (K)2 . Alors t (AB) = t B t A. En particulier, si A
t
Mn (K) est inversible alors t A est inversible et (t A)1 = (A1 ).
Dmonstration. Soit A = (aij ), B = (bij ) et AB = (cij ).
n
n
n
X
X
X
t
(cji ) =
ajk bki =
bki ajk =
bik t akj = (bji )(aji )
k=1

k=1

k=1
t

Si A est inversible, alors AA1 = Idn donc (A1 ) t A = t Idn = Idn donc t A est
inversible et (t A)1 = t (A1 ).
53

Proposition 3.13. Soit A Mn (C). Alors det(A) = det(t A).


Dmonstration. Soit f lendomorphisme reprsent par A dans la base canonique
de Cn . Il existe une base de Cn dans laquelle la matrice M = P 1 AP de f est
triangulaire suprieure. Si lon nomme i les lments de la diagonale, det(A) est gal
au produit des i . La matrice N = t M est alors triangulaire infrieure avec les i sur
t
t
la diagonale et donc det(N ) = det(M ). Par ailleurs, N = P 1 (P 1 AP ) = t P t A P 1
donc det(N ) = det(t A).
Corollaire 3.14. Pour toute ligne i
det(A) =

n
X

(1)i+j aij det(Aij )

(3.2.1)

(1)i+j aij det(Aij ).

(3.2.2)

j=1

et pour toute colonne j


det(A) =

n
X
i=1

On appelle lquation (3.2.1) le dveloppement de det(A) relativement la ligne i


et lquation (3.2.2) le dveloppement de det(A) relativement la colonne j
Dmonstration. Le dveloppement en colonne de det(A) relativement la colonne
j est le dveloppement en ligne de det(t A) = det(A) relativement la ligne j. Il
suffit donc de dmontrer la premire assertion. Elle est vraie pour i = 1 daprs le
thorme 3.1. Supposons quelle soit vraie pour i 1 1 et soit B la matrice de la
famille de vecteurs gale la famille des vecteurs de colonne de t A mais avec bi1 et
bi permuts. Alors det(A) = det(t A) = det(B) = det(t B). Daprs lhypothse
de rcurrence, on peut calculer det(B) par un dveloppement selon la ligne i1 donc
det(B) =

n
X

(1)i+j1 aij det(Aij ).

i=1

Donc
det(A) =

n
X

(1)i+j aij det(Aij ).

i=1

3.3

Lien avec linversion et les systmes linaires

Dfinition 3.15. Soit A = (aij ) Mn (K) une matrice. La co-matrice A de A est


la matrice a dfinie par
aij = (1)i+j det(Aij ).
Le corollaire 3.14 a la consquence suivante.

54

Proposition 3.16. Soit A Mn (K) une matrice. Alors A est inversible si et seulement si det(A) 6= 0. Dans ce cas, son inverse est la matrice
1 t
A = (bij )
det(A)
dfinie par
bij = (1)i+j

det(Aji )
det(A)

Dmonstration. En effet, le terme (i, j) de A t A est donn par


n
X

(1)j+k aik det(Ajk )

k=1

donc est daprs le corollaire 3.14 gal au dterminant de la matrice dont toutes
les lignes sont gales celles de A sauf la ligne j qui est remplac par la ligne
i de A (dvelopp selon la ligne i). Lorsque i 6= j, cette matrice a deux lignes
identiques et son dterminant est donc nul. Lorsque i = j, cette matrice est gale
A et son dterminant est donc gal det(A). On a donc bien bij = ij et A1 =
t
A / det(A).
Exemple : Soit M la matrice

1 2 3
5 0 1 .
2 2 2
Alors det(M ) = 8 donc M est inversible et son inverse est gal

2
2 2
1
M 1 = 12 4 16 .
8
10
2 10
Soit N la matrice

1 2 2 0
1 2
0 0

1 1 0 0 .
1
0
0 1

Alors det(N ) = 2 donc N est inversible et

1
0
N 1 =

1
2
0

son inverse est gal

2
4 0
2
2 0
.
1 0 0
2 4 2

55

Corollaire 3.17. Le systme dquations linaires n quations et n inconnues

a1,1 x1 + a1,2 x2 + + a1,n xn = u1

a x + a x + + a x = u
2,1 1
2,2 2
2,n n
2
(3.3.1)

an,1 x1 + an,2 x2 + + an,n xn = un


admet une unique solution si et seulement si det(aij ) 6= 0. Lorsque det(aij ) 6= 0,
lunique solution (xi ) de (3.3.1) est
n

1 X
(1)i+k det(Aki )uk .
xi =
det(A) k=1
Donc xi = det(bk` ) pour
(
ak` si ` 6= i
bk` =
uk si ` = i

Dmonstration. Le systme (3.3.1) admet une unique solution si et seulement si


lquation matricielle
AX = U
admet une unique solution donc si et seulement si A = (aij ) est une matrice inversible
donc si et seulement si det(aij ) 6= 0. Lorsque A est inversible, lunique solution de
AX = U est X = A1 U donc X = (xi ) avec
n

1 X
(1)i+k det(Aki )uk
xi =
det(A) k=1
daprs la proposition 3.16. Daprs le corollaire 3.14, xi est donc gal au dterminant
de la matrice dont toutes les colonnes sont gales A sauf la colonne i qui est gale
U (dvelopp selon la colonne i) divis par le dterminant de A.
Exemple : Soit (S) le systme dquations linaires

3x1 + 3x2 + 3x3 = u1


2x1 x2 2x3 = u2

3x1 + 3x2 + 2x3 = u3


correspondant lquation AX = U . Alors det(aij ) = 3 donc (S) admet une unique
solution donne par

x1 = 3 (4u1 + 3u2 3u3 )


.
x2 = 13 (2u1 + 3u2 )

x3 = u1 u3
Il est important de remarquer que le dterminant est un outil thorique intressant
pour rsoudre les systmes mais quen pratique il ne faut jamais lutiliser. En effet,
la mthode de rsolution ncessite de calculer n + 1 dterminants pour rsoudre un
systme de n quations, et ceci requiert toujours beaucoup plus de calculs que la
mthode par rduction.
56

3.4

Lien avec la rduction

Dfinition 3.18. Une fonction polynomiale P valeurs dans K est une fonction de
K vers K telle quil existe des scalaires (as )0sn tels que
P () =

n
X

as s

s=0

pour tout K. Une fonction polynomiale matricielle M est une fonction de K


vers Mn (K) telle quil existe des fonctions polynomiales (Pij )1i,jn telles que
M () = (Pij ())ij Mn (K)
pour tout K.
A tout polynme P K[X] est associ la fonction polynomiale 7 P () que lon
note galement P par abus de notation.
Proposition 3.19. La fonction polynomiale 7 det( Id f ) est gale au polynme
caractristique f de f valu en . En particulier, si K = C alors
Y

det( Id f ) =

( )

Spec(f )

Dmonstration. Dveloppons le dterminant det( Id f ) (ou bien en utilisant la


dfinition, ou bien selon la premire colonne). Il apparat que le seul terme en n du
dveloppement est de coefficient 1 (cela se voit par rcurrence si le dveloppement est
selon la premire colonne ou en remarquant que cest le coefficient correspondant
la bijection identit de {1, , n} si on utilise la dfinition). La fonction polynomiale
det( Id f ) est donc une fonction polynomiale unitaire de degr n nulle exactement
lorsque est une racine de f . Elle est donc gale f ().
Corollaire 3.20. Soit f End(E) un endomorphisme dun K-espace vectoriel de
dimension finie n dont la matrice M dans une base de E est coefficients dans
Z, Q, R ou C. Alors le polynme caractristique de f est un polynme coefficients
dans Z, Q, R ou C.
Dmonstration. En effet, la fonction polynomiale matricielle 7 Id M est alors
valeurs dans Mn (A) pour A gal Z, Q, R ou C et det( Id M ) est alors un
polynme coefficients dans A.
Bien que cette proposition donne un outil thorique intressant, il est important de
garder lesprit quil ne faut en gnral pas tenter de dterminer les valeurs propres
dun endomorphisme de cette faon : non seulement cela demande beaucoup plus
de calculs que de dterminer les espaces propres en rsolvant les systmes linaires
associs, mais en plus ou bien lendomorphisme en question est un endomorphisme
despaces vectoriels de dimension 1 ou 2 (auquel cas il existe une formule directe
donnant le polynme caractristique) ou bien cest un endomorphisme despaces vectoriels de dimension n 3 et alors on ne connat en gnral pas de mthode efficace
pour trouver les racines de ce polynme.
57

4
4.1
4.1.1

Espaces vectoriels euclidiens


Dfinitions et premires proprits
Produit scalaire

Dfinition 4.1. Soit E un R-espace vectoriel. Une forme bilinaire (|) sur E est
positive si (u|u) 0 pour tout u E. Elle est dfinie si (u|u) = 0 seulement si
u = 0.
Un espace vectoriel euclidien E est un R-espace vectoriel de dimension finie n muni
dune forme (|) bilinaire symtrique, dfinie et positive. La forme bilinaire symtrique dfinie positive dun espace vectoriel euclidien est appel le produit scalaire
euclidien de cet espace. Le produit scalaire dun vecteur u E avec lui-mme est un
rel positif dont la racine carre est appele la norme de ce vecteur et est note kuk.
Par dfinition, la norme dun vecteur non-nul est un rel strictement positif.
Exemple : Lexemple fondamental despace euclidien est lespace vectoriel Rn muni
de la forme (|) dfinie par
n
X
(u|v) =
ui vi
i=1

o
u=

n
X

n
X
ui ei , v =
vi ei

i=1

i=1
n

et (ei )1in est la base canonique de R . Cet exemple est tellement important que
nous le promouvons au rang de thorme de ce cours.
Thorme 4.1. Soit n 1. Lespace Rn muni de la forme
(|) :

Rn Rn

R
n
X
((ui ), (vi )) 7
ui vi
i=1

est un espace vectoriel euclidien.


Dmonstration. Il suffit de montrer que (|) est une forme bilinaire symtrique
dfinie positive. Soit donc (u, v, w, ) Rn Rn Rn R. Alors
(u + v|w) =

n
X

(ui + vi )wi =

i=1

n
X

ui wi +

i=1

et
(u|v) =

n
X

n
X

vi wi = (u|w) + (v|w)

i=1

ui vi = (u|v)

i=1

donc (|) est une forme bilinaire. De plus,


(u|v) =

n
X

ui vi =

i=1

n
X
i=1

58

vi ui = (v|u)

donc (|) est symtrique. De


n
X
(u|u) =
u2i ,
i=1

on dduit que (u|u) 0 et que (u|u) = 0 seulement si tous les ui sont nuls, et donc
seulement si u = 0.
Le produit scalaire de Rn du thorme 4.1 est appel le produit scalaire canonique
de Rn . Notons tout de mme que le produit scalaire canonique de Rn nest pas le
seul produit scalaire dfini sur Rn qui fasse de Rn un espace vectoriel euclidien. A
titre dexemple, on peut considrer
< , > :

Rn Rn

R
n
X
((ui ), (vi )) 7
2i ui vi
i=1

et vrifier quil sagit bien dune forme bilinaire symtrique dfinie positive. Un
exemple essentiellement diffrent est la forme bilinaire
Z 1
P (x)Q(x)dx
(P, Q) 7
0

sur lespace vectoriel Rn [X].


La proposition suivante montre que le calcul du produit scalaire de deux vecteurs
peut se faire uniquement partir de leurs normes et de la norme de leur somme.
Proposition 4.2. Soit E un espace euclidien et soit (u, v) E 2 . Alors
(u|v) =

ku + vk2 kuk2 kvk2


.
2

Dmonstration. Par bilinarit de (|), la norme de u + v vrifie


(u + v|u + v) = (u|u) + 2(u|v) + (v|v) = kuk2 + kvk2 + 2(u|v)
et donc

4.1.2

ku + vk2 kuk2 kvk2


(u|v) =
.
2

Lingalit de Cauchy-Schwarz

Thorme 4.2. Soit E un espace euclidien. Pour tout (u, v) E 2 ,


|(u|v)| kukkvk
et cette ingalit est une galit si et seulement si (u, v) est une famille lie.

59

(4.1.1)

Dmonstration. Soit (u, v) E 2 . Supposons tout dabord que lun des vecteurs u
ou v est nul. Alors les deux membres de lingalit (4.1.1) sont nuls donc lingalit
est vraie, est en fait une ingalit et (u, v) est bien une famille lie. Maintenant, on
suppose que lun des deux vecteurs, disons v, est non-nul. Considrons la fonction
f : R R dfinie par
f (t) = (u + tv|u + tv).
Alors
f (t) = (u|u) + 2t(v|u) + t2 (v|v)
donc f est une fonction polynomiale du second degr exactement. La forme bilinaire
(|) est dfinie positive donc f (t) 0 pour tout t R et f (t) = 0 si et seulement
si u + tv = 0. Donc 4(u|v)2 4(u|u)(v|v) 0 et 4(u|v)2 4(u|u)(v|v) = 0 si et
seulement sil existe t R tel que u + tv = 0 ; cest--dire si et seulement si (u, v) est
une famille lie. En prenant la racine carre, on obtient bien
|(u|v)| kukkvk
avec galit si et seulement si (u, v) est une famille lie.
Corollaire 4.3. Soit (u, v) E 2 . Alors
ku + vk kuk + kvk
avec galit si et seulement si (u, v) est une famille lie.
Dmonstration. Soit (u, v) E 2 . Par dfinition de la norme, linarit de (|) et par
lingalit (4.1.1) de Cauchy-Schwarz, on obtient
ku + vk2 = (u + v|u + v)
= (u|u) + (v|v) + 2(u|v)
kuk2 + kvk2 + 2kukkvk
= (kuk + kvk)2
et on conclut en prenant les racines carres des deux membres. Ces ingalits sont
des galits si et seulement si lingalit de Cauchy-Schwarz est une galit donc si
et seulement si (u, v) est une famille lie.
4.1.3

Bases orthogonales, orthonormalisation

Dfinition 4.4. Une famille (bi )1im dun espace vectoriel euclidien de produit
scalaire (|) est orthogonale si (ei |ej ) = 0 si i 6= j. Elle est normale si (ei |ei ) = 1 pour
tout i. Elle est orthonormale si elle est orthogonale et normale, donc si (ei |ej ) = ij
pour tout 1 i, j m.
La base canonique est orthonormale pour le produit scalaire canonique de Rn . Soit
(bi )1in une base orthonormale de lespace vectoriel euclidien E et soit
n
X
u=
i bi E.
i=1

60

Alors
2

kuk = (u|u) =

n X
n
X

n
X
i j (bi |bj ) =
i2

i=1 j=1

(4.1.2)

i=1

par bilinarit de (|) et orthonormalit de la base (bi ). Si u E est un vecteur


non-nul, alors (u|u) est strictement positif et le vecteur
1
u
v=p
(u|u)
est donc bien dfini. De
1
1
1
u| p
u) =
(v|v) = ( p
(u|u) = 1,
(u|u)
(u|u)
(u|u)
et de (v|v) = 2 (v|v) = 2 , on dduit quil existe exactement deux vecteurs de
Vect(u) de norme 1 : savoir v et v. Le processus qui associ u E non-nul le
vecteur
1
u
v=
kuk
sappelle la normalisation et lon dit que v est le normalis de u.
Lemme 4.5. Soit (b1 , , bm ) une famille orthonormale dun espace euclidien E et
soit
m
X
u=
i bi Vect(bi ).
i=1

Alors i = (u|bi ) pour tout i et


m
X
u=
(u|bi )bi .
i=1

En particulier, une famille orthogonale de vecteurs non nuls est libre.


Dmonstration. Le vecteur u scrit de manire unique sous la forme
u=

X
i bi .
i=1

Par bilinarit de (|) et orthonormalit de la base (bi ),


(u|bj ) =

n
X

i (bi |bj ) = j

i=1

pour tout j. La deuxime assertion dcoule de la premire en normalisant les vecteurs


de la famille orthogonale, ce qui est possible car ils sont non-nuls par hypothse.
Proposition 4.6. Soit E un espace vectoriel euclidien et (v1 , , vm ) une famille
libre de E. Il existe alors une base orthonormale (b1 , , bm ) de Vect(v1 , , vm ).

61

Dmonstration. Sil existe une base orthogonale comme dans la proposition, en normaliser les vecteurs produira une base orthonormale comme dans la proposition et la
proposition sera donc dmontre. Il suffit donc de montrer quil existe une base orthogonale (b1 , , bm ) de Vect(v1 , , vm ). Dmontrons le par rcurrence sur m. Soit
m = 1 et la condition dorthogonalit est vide, donc satisfaite. Supposons maintenant que lespace vectoriel engendr par une familles libre de cardinal au plus m 1
admette une base orthonormale et soit (v1 , , vm+1 ) une famille libre. Il existe une
base orthonormale (bi ) de Vect(v1 , , vm ) par lhypothse de rcurrence donc il suffit de montrer quil existe un vecteur non-nul bm+1 orthogonal aux bi tel que vm+1
appartienne Vect(bi )1im+1 . Soit
bm+1 = vm+1

m
X

(vm+1 |bi )bi .

i=1

. Alors vm+1 appartient Vect(b1 , , bm+1 ). La famille des vi tant libre, vm+1
nappartient pas Vect(v1 , , vm ) donc Vect(b1 , , bm ) donc bm+1 est non-nul.
Soit 1 j m un entier.
(bm+1 |bj ) = (vm+1 |bj )

m
X

(vm+1 |bi )(bi |bj ) = (vm+1 |bj ) (vm+1 |bj ) = 0

i=1

par bilinarit de (|) et orthonormalit de la famille (bi )1im . Donc bm+1 est orthogonal tous les bi .
La famille orthonormale que lon obtient partir de la famille libre (vi ) par le
procd de la proposition prcdente sappelle la famille de Gram-Schmidt associe
(vi ).
4.1.4

Orthogonal, supplmentaire orthogonal

Dfinition 4.7. Deux sous-espaces vectoriels F et G dun espace vectoriel euclidien


E sont orthogonaux si (u|v) = 0 pour tout (u, v) F G. Ils sont supplmentaires
orthogonaux sils sont supplmentaires et orthogonaux. Lorthogonal F dun sousespace vectoriel est
{v E| u F, (u|v) = 0}.
Tout sous-espace vectoriel G E orthogonal F est par dfinition inclus dans
F .
Proposition 4.8. Deux espaces vectoriels orthogonaux sont en somme directe. Un
sous-espace vectoriel F admet comme unique supplmentaire orthogonal F .
Dmonstration. Soit E un espace euclidien de dimension n et soit F, G deux sousespaces. Supposons F et G orthogonaux. Soit u F G. Alors (u|u) = 0 donc u = 0.
Par dfinition, F est lintersection sur u F des noyaux des formes linaires (u|).
F =

\
uF

62

ker(u|)

Donc F est un sous-espace vectoriel de E orthogonal F par construction. Daprs


la premire assertion, F est donc en somme directe avec F et il suffit pour conclure
de montrer que F + F = E. Soit (bi )1im une base de F et (bi , ci ) une base de
E obtenue en compltant la famille des (bi ). Le procd dorthnormalisation de la
proposition 4.6 produit alors une base (ui , vi ) orthonormale de E telle que la famille
(ui )1im soit une base de F . Il sensuit que u E scrit
m
n
X
X
u=
i ui +
i vi = v + w
i=1

i=m+1

avec v F et w F et donc que F + F = E.


En particulier, lorthogonal de E tout entier est {0}.
Corollaire 4.9. Soit F E un sous-espace vectoriel dun espace euclidien. Alors
(F ) = F .
Dmonstration. En effet, F et (F ) sont tous deux lunique supplmentaire orthogonal de F .
Soit F E un sous-espace vectoriel dun espace euclidien. A la dcomposition
E = F F
est associ un projecteur p End(E) dimage F et de noyau F . Si u E scrit
(ncessairement de manire unique) u = v + w avec v F et w F , alors p(u) est
gal v. Lendomorphisme p vrifie donc p2 = p et est en fait lunique endomorphisme
de E vrifiant p2 = p, de noyau F et dimage F . On appelle cet endomorphisme le
projecteur orthogonal de E sur F .

4.2
4.2.1

Endomorphisme adjoint
Dfinition

Soit E un espace vectoriel euclidien de produit scalaire (|).


Proposition 4.10. Soit E un espace vectoriel euclidien. Lapplication
(|) : E E
u 7 (|u)
est un isomorphisme despace vectoriels. En particulier, pour toute forme linaire
E , il existe un unique vecteur v E tel que = (|v ).
Dmonstration. Par bilinarit de (|), lapplication (|) est linaire. Comme E et
E ont mme dimension, il suffit de dmontrer que (|) est une injection et donc que
son noyau est nul. Mais (|u) est la forme linaire nulle seulement si u = 0 car (|)
est dfinie. La deuxime assertion est une reformulation de la premire.
63

Thorme 4.3. Soit f End(E) un endomorphisme de E. Il existe une unique


endomorphisme f End(E) tel que (f (u)|v) = (u|f (v)) pour tout (u, v) E 2 .
Dmonstration. Soit v E. Lapplication u 7 (f (u)|v) est une forme linaire donc
il existe daprs la proposition 4.10 un unique vecteur w tel que (f (u)|v) = (u|w)
pour tout u E. Posons
f : E E
v 7 w
Il suffit de dmontrer que f est bien une application linaire. Soit donc (u, v1 , v2 )
E 3 et R. Alors
(f (u)|v1 + v2 ) = (f (u)|v1 ) + (f (u)|v2 ) = (u|f (v1 )) + (u|f (v2 )) = (u|f (v1 ) + f (v2 ))
donc f (v1 + v2 ) = f (v1 ) + f (v2 ). De mme
(f (u), v1 ) = (f (u), v1 ) = (u, f (v1 )) = (u|f (v1 ))
donc f (v1 ) = f (v1 ). Donc f est un endomorphisme de E.
Dfinition 4.11. Lendomorphisme f est appel ladjoint de f . Un endomorphisme
est dit auto-adjoint sil est gal son adjoint, cest--dire si f = f . Un endomorphisme est dit orthogonal sil est inversible dinverse son adjoint, cest--dire si
f = f 1 .
Exemples :
1. Lidentit est un endomorphisme auto-adjoint et orthogonal.
2. Les endomorphismes de la forme Id sont auto-adjoints. Ils sont orthogonaux
si et seulement si {1}.
3. Un endomorphisme dont la matrice dans la base canonique de Rn est diagonale
est auto-adjoint pour le produit scalaire canonique. Un tel endomorphisme est
orthogonal si et seulement si toutes ses valeurs propres sont gales 1 ou 1.
4. Soit F E un sous-espace vectoriel dun espace euclidien et soit p le projecteur
orthogonal de E sur F . Soit (u, v) E 2 qui scrivent respectivement u = p(u)+
x et v = p(v) + y avec (x, y) (F )2 . Alors (p(u)|v) = (p(u)|p(v)) = (u|p(v))
car (x|p(v)) et (p(u)|y) sont nuls. Lendomorphisme p est donc auto-adjoint.


3 2
2
5. Lendomorphisme dont la matrice dans la base canonique de R est
2 5
est auto-adjoint pour le produit scalaire canonique (mais pas orthogonal).


3/5 4/5
2
6. Lendomorphisme dont la matrice dans la base canonique de R est
4/5 3/5
est orthogonal pour le produit scalaire canonique (mais pas auto-adjoint).
Lopration dadjonction est une involution linaire.
64

Proposition 4.12. Lapplication

: End(E) End(E)
f
7 f

est un isomorphisme de lespace vectoriel End(E) qui est son propre inverse. Si
(f, g) End(E)2 , alors (f g) = g f . En particulier, la compos de deux endomorphismes auto-adjoints qui commutent est un endomorphisme auto-adjoint. Si f
est auto-adjoint, tout polynme dendomorphisme en f est auto-adjoint.
Dmonstration. Soit (f, g, ) End(E)2 R et soit (u, v) E 2 . Alors
((f + g)(u)|v) = (f (u) + g(u)|v) = (f (u)|v) + (g(u)|v)
= (u|f (v)) + (u|g (v)) = (u|f (v) + g (v))
donc (f + g) = f + g . De mme
(f (u)|v) = (f (u)|v) = (u|f (v)) = (u|f (v))
donc (f ) = f . Donc est une application linaire de End(E) vers lui-mme.
Pour montrer que est un isomorphisme, il suffit donc de montrer que cest une
injection. Soit donc f dans le noyau de et u E. Alors (u|f (f (u))) = 0 donc
(f (u)|f (u)) = 0 donc f (u) = 0. Donc f est lendomorphisme nul. Enfin, soit (u, v)
E 2 . Alors (f (u)|v) = (u|f (v)) = (f (u)|v) donc f (u) f (u) est dans lorthogonal
de E, donc est nul. Donc f = f .
Soit maintenant (f, g) End(E)2 et (u, v) E 2 . Alors (f (g(u))|v) = (g(u)|f (v)) =
(u|g (f (v))) donc (f g) = g f . Si f et g sont auto-adjoints et commutent, alors
(f g) = g f = gf = f g donc f g est auto-adjoint. Un polynme dendomorphismes
en f est une combinaison linaire de puissances de f donc est auto-adjoint si f lest
par lassertion prcdente et par linarit de ladjonction.
Notons que f est orthogonal si et seulement si (f (u)|f (v)) = (u|v) pour tout
(u, b) E 2 , donc si et seulement si f prserve le produit scalaire.
Proposition 4.13. Un endomorphisme f est orthogonal si et seulement sil prserve
la norme ; cest--dire si et seulement si kf (u)k = kuk pour tout u E. En particulier, f est orthogonal si et seulement si limage dune base orthonormale par f est
une base orthonormale.
Dmonstration. Soit u E et f End(E). Si f est orthogonal, alors
kf (u)k = (f (u)|f (u)) = (u|u) = kuk
donc f prserve la norme. Rciproquement, supposons que f prserve la norme et
soit (u, v) E 2 . Alors
(u|v) =

ku + vk2 kuk2 kvk2


2
65

daprs la proposition 4.2 donc


(f (u)|f (v)) =

ku + vk2 kuk2 kvk2


kf (u + v)k2 kf (u)k2 kf (v)k2
=
= (u|v)
2
2

par linarit et orthogonalit de f .


Si f est orthogonal et si (ei ) est une base orthonormale, alors (f (ei )|f (ej )) =
(ei |ej ) = ij donc la famille (f (ei )) est une base orthonormale. Rciproquement, si f
envoie la base orthonormale (ei ) sur une base orthonormale (f (ei )), considrons
u=

n
X

i ei E.

i=1

Alors kuk2 =

n
P

i2 par le calcul de lquation (4.1.2). Par ailleurs

i=1

f (u) =

n
X

i f (ei )

i=1

par linarit de f et (f (ei )) est une base orthonormale donc kf (u)k2 =

n
P

i2

i=1

nouveau par lquation (4.1.2). Donc kf (u)k = kuk et f est donc orthogonal daprs
la premire partie de la preuve.
4.2.2

Matrice adjointe, matrice orthogonale

Proposition 4.14. La matrice de lendomorphisme adjoint f dun endomorphisme


f dun espace euclidien E relativement une base orthonormale est la transpose de
la matrice de lendomorphisme f relativement cette base.
Dmonstration. Soit (bi )1in une base orthonormale de lespace euclidien E, soit
f End(E) un endomorphisme de E et soit M = (aij ) la matrice de f relativement
la base (bi ). Notons M = (aij ) la matrice de ladjoint f de f relativement la
base (bi ). Par dfinition, on a alors
f (bj ) =

n
X
aij bi
i=1

et donc aij = (f (bj )|bi ). De mme

f (bj ) =

n
X

aij bi

i=1

et aij = (f (bj )|bi ). Par dfinition de lendomorphisme adjoint de f , on a galement


(f (bj )|bi ) = (bj |f (bi )) = (f (bi )|bj ) donc aij = aji et M = t M .
Corollaire 4.15. Un endomorphisme f de matrice M = (aij )1i,jn dans une base
orthonormale est auto-adjoint si et seulement si M est gale sa transpose, ou
encore si et seulement si aij = aji pour tout 1 i, j n. Il est orthogonal si et
seulement sil est inversible et t M = M 1 ou encore si t M M = Id.
66

4.3
4.3.1

Rduction des endomorphismes auto-adjoints


Valeur propre

Soit E un espace euclidien et f un endomorphisme de E. Lespace vectoriel E tant


un R-espace vectoriel, la rduction de Jordan ne sapplique pas f et nous ignorons
donc si f admet une valeur propre (et de fait, il peut trs bien ne pas en admettre).
La proposition suivante assure que les endomorphismes auto-adjoints admettent une
valeur propre.
Proposition 4.16. Soit f End(E) un endomorphisme auto-adjoint dun espace
euclidien E. Alors f admet un vecteur propre v pour la valeur propre R.
Dmonstration. Nous savons (par exemple par le thorme de Cayley-Hamilton) quil
existe un polynme unitaire P Rn [X] qui annule f . Daprs la proposition 2.4, P
admet une factorisation
P =

p
m
Y
Y
(X i ) (X 2 + i X + i )
i=1

i=1

avec i2 4i < 0 pour tout i. Donc lendomorphisme


p
m
Y
Y
P (f ) =
(f i Id) (f 2 + i f + i Id)
i=1

i=1

est lendomorphisme nul de E, donc nest en particulier pas injectif. Nous voulons
montrer que lun des endomorphismes f i Id nest pas injectif. Il suffit donc de
dmontrer que les endomorphismes f 2 +i f +i Id sont injectifs pour tout 1 i p.
Soit donc u E un vecteur non-nul. Alors
((f 2 + i f + i Id)(u)|u) = (f 2 (u)|u) + i (f (u)|u) + i (u|u)
= kf (u)k2 + i (f (u)|u) + i kuk2
Daprs lingalit (4.1.1) de Cauchy-Schwarz
(f (u)|u) kf (u)kkuk
donc
|i |(f (u)|u) |i |kf (u)kkuk
donc
((f 2 + i f + i Id)(u)|u) kf (u)k2 |i |kf (u)kkuk + i kuk2
2 


i2
|i |
kuk + i
kuk2
= kf (u)k
2
4
Donc ((f 2 + i f + i Id)(u)|u) est la somme dun carr et du produit du rel stricte2
ment positif kuk2 et du rel strictement positif i 4i . Donc ((f 2 + i f + i Id)(u)|u)
est strictement positif et (f 2 + i f + i Id)(u) est donc non-nul.
67

Proposition 4.17. Soit u et v deux vecteurs propres dun endomorphisme autoadjoint f pour des valeurs propres distinctes. Alors (u|v) = 0. Le noyau et limage
de f sont orthogonaux
Dmonstration. En effet (f (u)|v) = (u|v) = (u|f (v)) = (u|v) donc ( )(u|v) =
0 donc (u|v) = 0. Soit maintenant u dans le noyau et v dans limage de f . Il existe
alors w E tel que v = f (w). Donc (u|v) = (u|f (w)) = (f (u)|w) = (0|w) = 0.
4.3.2

Rduction des endomorphismes auto-adjoints

Nous donnons deux dmonstrations lgrement diffrentes du thorme fondamental


suivant.
Thorme 4.4. Soit E un espace euclidien et f un endomorphisme auto-adjoint de
E. Alors il existe une base orthonormale de E forme de vecteurs propres de f . De
manire quivalente, f est diagonalisable dans une base orthonormale.
Dmonstration. Par le thorme de rduction de Jordan, un endomorphisme est diagonalisable si et seulement ses espaces propres sont gaux ses espaces propres
gnraliss. Soit E un espace propre gnralis de f . Alors E est un espace vectoriel euclidien et f Id est un endomorphisme auto-adjoint nilpotent de f Id.
Il suffit donc de dmontrer quun endomorphisme auto-adjoint nilpotent dun espace
vectoriel euclidien est lendomorphisme nul. Soit donc f un endomorphisme autoadjoint nilpotent dun espace vectoriel euclidien F et soit u F . Il existe alors un
(unique) n N tel que f n (u) = 0 et f n1 (u) 6= 0. Supposons n > 0. Le vecteur
v = f n1 (u) est alors la fois dans le noyau de f et dans limage de f . Daprs la
proposition 4.17, v vrifie donc (v|v) = 0 donc est nul, ce qui contredit la dfinition
de n. Donc n = 0 donc f (u) = 0. Donc f est lendomorphisme nul.
L
Donc E admet une dcomposition E =
ker(f Id). Chacun des espaces

ker(f Id) admet une base orthonormale daprs la proposition 4.6. Lunion de ces
bases est une base de E orthonormale de vecteurs propres pour f .
Dmonstration. Montrons que E admet une base orthonormale de vecteurs propres
pour f par rcurrence sur la dimension de E. Soit E est de dimension 1 et nimporte
quelle base convient. Maintenant on suppose lassertion vraie pour tous les endomorphismes auto-adjoints despaces euclidiens de dimension au plus n et on suppose
que E est de dimension n + 1. Daprs la proposition 4.16, f admet un vecteur
propre v que lon peut normaliser afin quil soit de norme 1. Soit u Vect(v) . Alors
(f (u)|v) = (u|f (v)) = (u|v) = (u|v) = 0 donc Vect(v) est stable par f . Donc E
admet une dcomposition en sous-espaces stables
E = Vect(v) Vect(v).
La restriction de f Vect(v) est diagonalisable en base orthonormale par hypothse
de rcurrence, donc f est diagonalisable et la base obtenue en ajoutant v la base
de Vect(v) est bien orthonormale.

68

Rduction de quelques endomorphismes importants

5.1

Projecteur

Dans cette sous-section K dsigne Q, R ou C et E dsigne un K-espace vectoriel de


dimension finie .
5.1.1

Dfinition et rduction

Dfinition 5.1. Un endomorphisme p de E est un projecteur sil vrifie p2 = p.


On dit galement que p est idempotent, ou un idempotent.
Proposition 5.2. Soit p un projecteur. Il existe deux sous-espaces vectoriels F et
G tels que E = F G, F est limage de p, G est le noyau de p et si u E scrit
u = v + w avec v F et w G alors p(u) = v.
Dmonstration. Le polynme X 2 X scrit X 2 X = X(X 1) dans K[X] et
annule p donc lendomorphisme p est diagonalisable et son spectre est inclus dans
{0, 1} daprs la proposition 2.18. Posons F = ker(pId) et G = ker p. Alors E scrit
E = F G. Lendomorphisme p tant diagonalisable, G est galement le nilespace de
p et la dcomposition E = F G est aussi la dcomposition E = C(p)N (p) donc F
est limage de p (et mme son coeur). La dernire assertion dcoule des prcdentes
en calculant p(u).
On dit galement que p est la projection sur F paralllement G.
5.1.2

Projection orthogonale

Lorsque E est un R-espace vectoriel euclidien et lorsque p est de plus auto-adjoint,


alors p est une projection orthogonale. Ceci est quivalent F = G et F G .

5.2
5.2.1

Symtrie
Dfinition et rduction

Dfinition 5.3. Un endomorphisme s de E est une symtrie sil vrifie s2 = Id.


Proposition 5.4. Soit s une symtrie. Il existe deux sous-espaces vectoriels F et G
tels que E = F G, F est lespace propre de s pour la valeur propre 1, G est lespace
propre pour la valeur propre 1. La projection sur F paralllement G est gale
(Id +s)/2 et s = 2p Id.
Dmonstration. Le polynme X 2 1 scrit X 2 1 = (X 1)(X + 1) dans K[X]
et annule s donc lendomorphisme s est diagonalisable et son spectre est inclus dans
{1, 1} daprs la proposition 2.18. Donc E scrit E = E1 E1 avec E1 lespace
69

propre de s pour la valeur propre 1. Soit p lendomorphisme (Id +s)/2. Alors p2 = p


donc p est un projecteur, s = 2p Id, E1 est limage de p et E1 est le noyau de
p.
On dit galement que s est la symtrie par rapport G paralllement F .
5.2.2

Symtrie orthogonale

Supposons de plus que E est un R-espace vectoriel euclidien. Soit s une symtrie
de E telle que F = G (ou de manire quivalente telle que F G ). Alors s est
auto-adjoint. Soit (u, v) E 2 . Alors (s(u)|s(v)) = (u|s2 (v)) = (u|v). Donc s est
galement orthogonal. Rciproquement, si s est un endomorphisme auto-adjoint et
symtrique alors s = s et s = s1 donc s = s1 donc s2 = Id et s est une symtrie
auto-adjointe. Les symtries orthogonales, cest--dire les symtries par rapport G
paralllement G , sont donc les endomorphismes orthogonaux auto-adjoints.

5.3

Rotation

Dans cette sous-section, E est lespace euclidien R2 muni du produit scalaire canonique.
5.3.1

Dfinition et rduction

Dfinition 5.5. Un endomorphisme r de R2 est une rotation sil est orthogonal et


de dterminant 1.
Proposition 5.6. Soit r une rotation. Il existe [0, 2] telle que la matrice de r
dans dans la base canonique de R2 soit


cos sin
.
sin cos
Dmonstration. Soit en effet u = r(e1 ) = e1 + e2 . Alors kuk = 1 car r est orthogonal donc 2 + 2 = 1 donc appartient [1, 1] donc il existe [0, 2] tel que
= cos . De 2 = 1 2 , on dduit que sin = ou sin = . En remplaant si
ncessaire par (ce qui ne change pas cos ), on peut assurer que sin = . Si
r(e2 ) = e1 + e2 , alors (, ) [1, 1]2 vrifient

= 1
2 + 2 = 1

+ = 0.
La seule solution de ces systme est (, ) = ( sin , cos ).

5.4

Endomorphisme dordre fini

Dans cette sous-section, K est gal C et E est donc un C-espace vectoriel de


dimension finie.
70

5.4.1

Dfinition et rduction

Dfinition 5.7. Un endomorphisme f de E est dordre fini sil existe n > 0 tel que
f n = Id.
Proposition 5.8. Soit f un endomorphisme f dordre fini. Alors f est diagonalisable
et son spectre est inclus dans { C| n = 1}.
Dmonstration. Soit C une racine du polynme X n 1. Alors 6= 0 donc
nn1 6= 0 donc nest pas une racine du polynme nX n1 donc nest pas une
racine double du polynme X n 1. Le polynme X n 1 est donc racines simples et
annule f . Donc lendomorphisme f est diagonalisable et son spectre est inclus dans
{ C| n = 1} daprs la proposition 2.18.
5.4.2

Permutation

Un endomorphisme f de E est un endomorphisme de permutation sil existe une base


(ei )1in et une bijection de {1, , n} dans lui-mme telle que la matrice de f
dans la base (ei ) soit la matrice (i(i) )1in ; ou de manire quivalente si la matrice
de f dans la base (ei ) a tous ses coefficients nuls sauf exactement un coefficient par
ligne et par colonne, qui est gal 1.
Proposition 5.9. Un endomorphisme de permutation est diagonalisable.
Dmonstration. Soit f un endomorphisme de permutation. Daprs la proposition
5.8, il suffit de montrer quil existe n N non-nul tel que f n = Id. Soit 1 i n.
Lensemble {f n (ei )|n N} est inclus dans lensemble {ej |1 j n} donc il existe
deux entiers distincts ai et bi tels que f ai (ei ) = f bi (ei ). Il existe donc un entier ni N
non-nul (par exemple ai bi ou son inverse) tel que f ni (ei ) = ei . Soit n le produit
sur i de tous les ni . Alors f n (ej ) = ej pour tout 1 j n donc f n = Id.

71

You might also like