Professional Documents
Culture Documents
1 ESPACES VECTORIELS
1.1 Structure despace vectoriel sur K . . . . . . . . . . . . . . . . . .
1.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Proprits . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2 Caractrisation des s.e.v . . . . . . . . . . . . . . . . . . .
1.3 Familles de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Combinaison linaire . . . . . . . . . . . . . . . . . . . . .
1.3.2 Sous-espace vectoriel engendr par une famille de vecteurs
1.3.3 Famille gnratrice . . . . . . . . . . . . . . . . . . . . . .
1.3.4 Famille libre Famille lie . . . . . . . . . . . . . . . . . .
1.3.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Espaces vectoriels de dimension finie . . . . . . . . . . . . . . . .
1.4.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2 Existence de bases . . . . . . . . . . . . . . . . . . . . . .
1.5 Sous-espaces vectoriels en dimension finie . . . . . . . . . . . . . .
1.5.1 Dimension dun s.e.v . . . . . . . . . . . . . . . . . . . . .
1.6 Sous-espaces vectoriels supplmentaires - Sommes directes . . . .
1.6.1 Somme de 2 s.e.v . . . . . . . . . . . . . . . . . . . . . . .
1.6.2 Somme directe . . . . . . . . . . . . . . . . . . . . . . . .
1.6.3 Caractrisation des s.e.v supplmentaires . . . . . . . . . .
1.6.4 Somme de p s.e.v de E . . . . . . . . . . . . . . . . . . . .
1.6.5 Somme directe de p s.e.v . . . . . . . . . . . . . . . . . . .
1.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
4
4
4
4
5
5
6
6
7
8
9
9
9
10
10
10
10
11
11
11
12
13
2 APPLICATIONS LINEAIRES
2.1 Dfinitions et exemples . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Consquence de la dfinition . . . . . . . . . . . . . . . . . . . .
2.3 Image rciproque dun s.e.v Noyau dune application linaire .
2.4 Image directe dun s.e.v Image dune application linaire . . .
2.5 Projecteur et symtrie . . . . . . . . . . . . . . . . . . . . . . .
2.6 Application linaire en dimension finie . . . . . . . . . . . . . .
2.6.1 Rang dune application linaire . . . . . . . . . . . . . .
2.6.2 Caractrisation des isomorphismes . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
15
15
16
16
17
18
19
19
19
.
.
.
.
.
.
.
.
.
.
3 CALCUL MATRICIEL
3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Oprations et structures algbriques . . . . . . . . . . . . . . .
3.2.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Multiplication par un scalaire . . . . . . . . . . . . . .
3.2.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . .
3.2.4 Transposition . . . . . . . . . . . . . . . . . . . . . . .
3.3 Matrices Carres . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Matrices carres particulires . . . . . . . . . . . . . .
3.3.3 Proprits et calcul des inverses de matrices inversibles
3.3.4 Matrices semblables . . . . . . . . . . . . . . . . . . . .
3.4 Puissances matricielles . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.2 Calcul de puissances matricielles . . . . . . . . . . . . .
3.5 Matrices et applications linaires . . . . . . . . . . . . . . . .
3.6 Changement de base - Matrice de passage . . . . . . . . . . .
3.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 DETERMINANTS
4.0.1 Applications p-linaires . . . . . . . . . . . . . . . . .
4.1 Dterminant de n vecteurs . . . . . . . . . . . . . . . . . . .
4.1.1 Dterminant de n vecteurs dans la base B . . . . . .
4.1.2 Caractrisation des bases . . . . . . . . . . . . . . . .
4.2 Dterminant dune matrice carre . . . . . . . . . . . . . . .
4.2.1 Proprits . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Rgles de calcul du dterminant dune matrice carre
4.2.3 Dterminant dune matrice triangulaire par blocs . .
4.3 Dveloppement dun dterminant suivant une range . . . .
4.3.1 Mise en place . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Matrice des cofacteurs . . . . . . . . . . . . . . . . .
4.4 Dterminant et rang . . . . . . . . . . . . . . . . . . . . . .
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5 SYSTEMES DEQUATIONS LINEAIRES
5.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . .
5.2 Matrice associe un systme linaire . . . . . . . .
5.3 Rsolution des systmes chelonns . . . . . . . . .
5.3.1 Systmes triangulaires diagonale non nulle
5.3.2 Systmes chelonns . . . . . . . . . . . . .
5.4 Mthode du pivot de Gauss . . . . . . . . . . . . .
5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . .
5.6 Travaux dirigs . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
24
24
25
25
25
26
26
26
28
29
30
30
30
31
32
33
.
.
.
.
.
.
.
.
.
.
.
.
.
35
35
37
38
38
39
39
40
40
42
42
43
44
46
.
.
.
.
.
.
.
.
47
47
49
50
50
50
51
53
54
Chapitre 1
ESPACES VECTORIELS
Dans ce chapitre, K dsigne R ou C. Dans ce chapitre, K dsigne R ou C.
1.1
1.1.1
On appelle espace vectoriel sur K ou Kespace vectoriel, tout ensemble E non vide muni
dune relation (+) et dune loi externe () appele multiplication par un scalaire telles que :
(E, +) est groupe ablien dont llment neutre est 0E ;
x E, y E, K :
(x + y) = x + y;
K, K, x E :
( + ) x = x + x;
K, K, x E :
( x) = ( ) x;
x E :
1 x = x.
1.1.2
Proprits
=
=
=
=
=
0E ( = 0
(1) u;
u + (v);
u v;
u u.
ou
u = 0E );
1.2
1.2.1
Sous-espace vectoriel
Dfinition
Soit E un Ke.v. . On appelle sous-espace vectoriel de E toute partie non vide F de E qui
a elle-mme une structure despace vectoriel sur K.
Cela revient au mme de dire quun sous-espace vectoriel F dun Ke.v. E cest une partie
non vide possdant les deux proprits de stabilit suivantes :
X F est stable pour (+) : (x, y) F 2 ,
x + y F.
x F.
Remarque :
B {0E } et E sont des sous-espaces vectoriels de E.
B Labrviation de sous-espace vectoriel est s.e.v.
1.2.2
x + y F.
Pour montrer que F est un s.e.v de E, on commence par chercher savoir si 0E F ; si oui
F 6= , sinon F nest pas un s.e.v de E.
Exemples classiques :
1. Les droites vectorielles et les plans vectoriels sont des s.e.v de le.v. des vecteurs de
lespace.
2. C (I, R) lensemble des fonctions continues sur I R valeurs relles, est un s.e.v de
A (I, R).
Proposition 1.2. Si F et G sont deux s.e.v de E, alors F G est un s.e.v de E.
Dmonstration : On utilise la caractrisation et la proposition 3.1.
F G E car F E et G E.
F et G tant deux s.e.v de E alors 0E F et 0E G. On en dduit 0E F G.
Donc F G 6= .
Soit u, v F G et soit , K.
u, v F = u + v F
u, v G = u + v G
= u + v F G.
(1, 0) F G
mais (1, 0) + (0, 1) = (1, 1) 6 F G.
(0, 1) F G
1.3
1.3.1
Familles de vecteurs
Combinaison linaire
On dit aussi que u se dcompose suivant S . Les 1 , . . . , p sont les coefficients (de la combinaison linaire ci-dessus).
Exemple : Soit E = R3 .
u1 = (1, 2, 3); u2 = (2, 1, 3); u3 = (5, 0, 9).
1 u1 + 2 u2 + 3 u3 = (1 22 + 53 ; 21 + 2 , 31 32 + 93 ).
Donc un vecteur (x, y, z) de E est combinaison linaire de u1 , u2 , u3 ssi il existe 1 , 2 , 3
rels tels que :
1 22 + 53 = x
21 + 2
= y .
31 32 + 93 = z
On effectue des combinaisons des lignes de ce systme dquations et on en dduit quil faut
et il suffit que 9x 3y + 5z = 0.
Par exemple (1, 3, 0) est une combinaison linaire de u1 , u2 , u3 et (1, 1, 1) ne lest pas.
1.3.2
Thorme 1.1. Soit S = (u1 , . . . , up ) une famille de p vecteurs dun Ke.v. E. Lensemble des combinaisons linaires des p vecteurs de S est un s.e.v de E appel sous-espace
vectoriel engendr par S et not V ect(S ) ou V ect(u1 , . . . , up ).
Exemple : Considrer les trois vecteurs u1 , u2 , u3 de lexemple qui prcde. On montre facilement que :
n
o
V ect(u1 , u2 , u3 ) = (x, y, z) R3 / 9x 3y + 5z = 0 .
1.3.3
Famille gnratrice
On appelle famille gnratrice de E toute famille finie S de vecteurs de E telle que tout
vecteur de E se dcompose suivant S . On dit aussi que S engendre E ou V ect(S ) = E.
Remarque 1.2.
z S est une famille gnratrice de E ssi E = V ect(S ).
z Si lon modifie lordre des vecteurs dune famille gnratrice de E, on obtient encore une
famille gnratrice de E.
Exemples :
Proposition 1.3. Toute famille de vecteurs de E qui contient une famille gnratrice de E
est une famille gnratrice de E.
1.3.4
Dfinition 1.1. Une famille S = (u1 , . . . , up ) de vecteurs dun Ke.v. E est une famille
libre de E si :
p
X
i ui = 0 = i 1, 2, . . . , p ; i = 0.
i=1
On dit aussi que les vecteurs u1 , u2 , . . . , up sont linairement indpendants. Une famille
qui nest pas libre est dite lie et les vecteurs qui la composent sont dits linairement
dpendants.
Remarques :
Si lon modifie lordre des vecteurs dune famille libre de E, on obtient une autre famille
libre de E.
La famille S est lie ssi il existe une combinaison linaire nulle de vecteurs de S ayant
au moins un coefficient non nul.
Exemples :
# B0 = (e1 , . . . , en ) est une famille libre de Kn .
# La famille (1, 0); (0, 1); (1, 1) est une famille lie de R2 car
(1, 0) + (0, 1) (1, 1) = (0, 0).
Proposition 1.5.
1. (u) libre u 6= 0E .
2. Toute famille contenue dans une famille libre est libre.
Dmonstration :
1. Supposons : (u) libre alors
si u = 0E alors 1 u = 0E , et 1 6= 0. Donc (u) li ce qui contredit lhypothse.
Do u 6= 0.
Supposons u 6= 0 alors u = 0E = = 0 donc (u) libre.
2. Evident : on complte avec 0 comme coefficient.
Proposition 1.6.
(u, v) lie
1.
= il existe K tel que v = u.
u 6= 0
2. Toute famille qui contient une famille lie est lie.
3. Toute famille qui contient le vecteur nul est lie.
4. Une famille S de vecteurs est lie ssi il existe au moins un vecteur de S combinaison
linaire des autres vecteurs de S .
1.3.5
Base
Dfinition 1.2. On appelle base de E (en tant que Ke.v.) toute famille de
vecteurs de E, qui est libre et gnratrice de E.
Exemple : B(e1 , . . . , en ) est une base de Kn . Cette base est dite canonique.
Caractrisation des bases :
B est une base de E ssi les vecteurs de B sont dans E et tout vecteur de E scrit de manire
unique comme combinaison linaire des vecteurs de B.
p
X
Si B = (u1 , . . . , up ) est une base de E et
xi ui est un vecteur de E, alors le xi est appel
la iime coordonne de u dans la base B.
i=1
1.4
1.4.1
Dfinition
Lespace vectoriel E est dit de dimension finie sil existe dans E une famille gnratrice de E
ayant un nombre fini dlments.
1.4.2
Existence de bases
Si E(6= {0E }) admet une famille gnratrice finie S , alors il existe une base de E constitue
de vecteurs de S .
Thorme 1.2. Toutes les bases dun e.v. de dimension finie, distinct de {0E }, ont
le mme nombre dlments.
Dfinition 1.3 (de la dimension). Le nombre dlments commun toutes les
bases dun e.v. E de dimension finie non rduit au vecteur nul, sappelle la dimension
de E. On le note : dim E.
Par convention, dim{0E } = 0.
Un espace vectoriel de dimension 1 est appel droite vectorielle.
On appelle plan vectoriel tout e.v. de dimension 2.
Exemple :
dim Kn = n (en tant que K e.v.).
dimR Rn = n ; dimC Cn = n ; dimR Cn = 2n.
10
1.5
1.5.1
Thorme 1.7. Soit E un Ke.v. de dimension finie. Tout s.e.v F de E est de dimension
finie et dim F dim E.
1.6
1.6.1
1.6.2
11
Somme directe
y = x1 + x2 .
On crit alors : G = F1 F2 .
On dit que F1 et F2 sont supplmentaires de E lorsque E = F1 F2 .
n
o
n
o
Exemple : E = R2 :
F1 = (x, 0) / x R et F2 = (0, y) / y R :
Alors on a : E = F1 F2 .
1.6.3
Thorme 1.8. Soient F1 et F2 deux s.e.v du Ke.v. E de dimension finie. Les 4 propositions suivantes sont quivalentes :
1. F1 et F2 sont supplmentaires de E.
h
i h
i
2. x E, (x1 , x2 ) F1 F2 : x = x1 + x2 et F1 F2 = {0E } .
3. Il existe une base B1 de F1 et une base B2 de F2 telles que B1 B2 soit une base de
E.
4. dim F1 + dim F2 = dim E et F1 F2 = {0E }.
Proposition 1.10. Si E est un Ke.v. de dimension finie, tout s.e.v F1 de E admet au
moins un s.e.v supplmentaire F2 dans E et dim F2 = dim E dim F1 .
En pratique, pour dterminer un s.e.v supplmentaire F2 de F1 , on cherche une base de F1
que lon complte par une famille S de vecteurs de E pour obtenir une base de E. On prend
alors F2 = V ect(S ).
1.6.4
Somme de p s.e.v de E
1.7 Exercices
1.6.5
12
p
X
i=1
p
X
i=1
F = F1 F2 Fp ou F =
p
M
Fi .
i=1
1.7
Exercices
leurs dimensions.
x+yz =x+y+z =0 .
o
x2 z 2 = 0 .
o
ex ey = 0 .
o
2
2
z(x + y ) = 0 .
u1 (0; 1) ;
u2 (2; 1) et
u3 (1; 1) dans R2 .
1.
v1 (3; 7; 0),
v2 (5; 0; 7) et
v3 (2; 3; 1) dans R3 .
2.
Exercice 1.3. On considre les trois vecteurs :
1
2
X1 =
2 , X2 = a
a
1
et
X3 =
2
.
2. Trouver, dans cette base, les coordonnes du vecteur Z =
1
1.7 Exercices
13
Exercice 1.5. Montrer que les familles de polynmes suivantes sont des bases des espaces
indiqus.
Chapitre 2
APPLICATIONS LINEAIRES
2.1
2.1.1
Dfinitions et exemples
Dfinitions
f (x + y) = f (x) + f (y).
2.1.2
Exemples
15
2.2
Consquence de la dfinition
2.3
Ker(f ) = x E / f (x) = 0F : cest lnensemble des vecteurs de E qui ont pour image
par f le vecteur nul de F.
16
Proposition 2.2. E et F tant deux Ke.v. et f un lment de L (E, F ), alors Ker f est
un s.e.v de E.
Proposition 2.3. E et F tant deux Ke.v. et f un lment de L (E, F ).
Alors f est injective ssi Ker f = {0E }.
Proposition 2.4. E et F tant deux Ke.v. et f un lment de L (E, F ). On suppose que f
est injective. Alors limage par f dune partie libre de E est une partie libre de F. En dautre
terme : lorsque f est injective on a :
n
o
n
o
L libre dans E = f(L) libre dans F .
Exemples :
1. Dterminer le noyau de chacune des trois premires applications linaires qui ont t
donnes en exemple au 2.1.2.
2. Prenons E = R3 et F = R2 . Soit dfinie de E dans F par f : (x, y, z) 7 (x y +
z, x z). Montrer que f est linaire et dterminer son noyau.
3. I tant un intervalle de R, on pose E = C 1 (I, R) et F = C(I, R). E et F sont des e.v.
sur R. On dfinit de E dans F lapplication D : f 7 f 0 , qui tout lment f de E
associe sa drive. Montrer que D est linaire et dterminer son noyau.
2.4
17
Proposition 2.7. E et F tant deux Ke.v. et f un lment de L (E, F ). Alors limage par
f dune partie gnratrice de E est une partie gnratrice de Im f .
n
o
n
o
En dautre terme on a : S gnratrice de E = f(S) gnratrice de Im f .
En particulier lorsque f est surjective :
n
o
n
o
S gnratrice de E = f(S) gnratrice de F .
2.5
Projecteur et symtrie
Dfinition 2.1. Soit E un Ke.v. et p un endomorphisme de E.On dit que p est un projecteur de E lorsque p p = p (on dit aussi que p est un endomorphisme idempotent).
Etant donn un projecteur p sur E, on dit que p est la projection sur Im(p) paralllement
Ker(p).
Noter quen gnral, pour un endomorphisme quelconque dun espace vectoriel E, son noyau
et son image ne sont pas forcment supplmentaires dans E. Cest un particularit des projecteurs comme lindique le thorme qui suit :
Thorme 2.1. Soit p un projecteur de E. Alors : E = Im(p) Ker(p). La
rciproque nest pas exacte.
Dans la pratique, et pour aller dans lautre sens, supposons que E1 et E 2 sont deux
sous espaces vectoriels supplmentaires dans E : E = E1 E2 . Cela permet de dfinir la
projection p1 sur E1 paralllement E2 et la projection p2 sur E2 paralllement E1 . Dans
ce cas, on a : p1 + p2 = IdE . En effet, comme tout vecteur x E peut se dcomposer de
manire unique sous la forme : x = x1 + x2 u x1 E1 et x2 E2 , on pose tout simplement :
p1 (x) = x1 et p2 (x) = x2 et tout le reste devient vident.
Thorme 2.2. Si p un projecteur de E, alors : Im p = {x E : p(x) = x }.
Dfinition 2.2. Soit E un Ke.v. et s un endomorphisme de E.On dit que s est une symtrie
lorsque s s = IdE (on dit aussi que p est un endomorphisme involutif ou une involution).
Remarque : Il est facile de remarquer quune symtrie est inversible et rciproque delle-mme.
2.6
18
2.6.1
2.6.2
2.6.3
19
..
..
..
.
.
.
.
.
.
an1 an2 anp
Exemple : Si B = (e1 , e2 , e3 ) est la base canonique de R3 , et si C = (1 , 2 ) est la base
canonique de R2 lapplication linaire f : R3 R2 dfinie par
f (e1 ) = 21 2 , f (e2 ) = 52 , f (e1 ) = 1 + 32 a pour matrice :
2 0 1
1 5 3
Remarque : On met en colonnes les images des vecteurs de la base de dpart reprs
dans la base darrive .
La matrice de f dpend des bases B et C et on notera M (f, B, C) ou mat(f ; B, C), ce quon
abrgera en M (f ) ou mat(f ) quand il ny aura pas dambigut sur les bases.
Le plus souvent, on utilisera une seule lettre pour dsigner une matrice : on dira, par exemple,
la matrice A de f par rapport aux bases B et C. Pour indiquer les coeffients de A, on crira
A = (aij )1in,1jp en supprimant la mention des bornes de variation des indices i et j ds
que cela ne crera pas de confusion.
Importance de lordre des vecteurs dans une base : On voit tout de suite que la
matrice dune application linaire ne sera pas la mme suivant lordre dans lequel on prend
les vecteurs de B et lordre dans lequel on prend les vecteurs de C. Dans lexemple prcdent,
posons B0 = (e3 , e1 , e2 ) et C0 = (2 , 1 ). On a :
3 1 5
0
0
M (f, B , C ) =
.
1 2 0
Image dun vecteur par une application linaire
Matrice dun vecteur
Soient E un espace vectoriel de dimension p muni dune base B = (e1 , . . . , ep ) et u un
vecteur de E. u dfinit une application linaire lu : R E telle que lu (1) = u.
20
u1
U = ...
up
avec B0 la base canonique.
Image dun vecteur par une application linaire : Conservons les notations prcdentes
et soit maintenant F un e.v. de dimension n muni dune base C = (1 , . . . , n ) et f : E F
une application linaire.
On pose A = M (f, B, C) = (aij ).
Comment trouver avec U et A la matrice V = M (lf (u) , B0 , C) ?
On vient de voir que V est la matrice colonne forme par les coordonnes (v1 , . . . , vn ) de
v = f (u) dans la base C. Comme :
p
!
X
f (u) = f
uj ej
j=1
p
X
uj f (ej )
j=1
p
X
j=1
on a vi =
!
aij i
i=1
p
n
X
X
i=1
p
X
uj
n
X
aij uj
!
i ,
j=1
aij uj .
j=1
On voit que vi sobtient en prenant les termes de la i-ime ligne de A et en les multipliant
par les termes de U de mme rang puis en faisant la somme de ces produits.
Nous crivons V = AU :
a11 a1p
u1
v1
...
...
V = ... = AU = ...
.. .
an1 anp
up
vn
2
Par exemple, limage du vecteur
de R2 par lapplication linaire R2 R3 dfinie par
3
la matrice
1 1
A = 3 2
2 2
est dfinie par la matrice
1 1
1
2
V = 3 2
= 0 .
3
2 2
2
Expression analytique dune application linaire :
2.7 Exercices
2.7
21
Exercices
2
1
1
1
1
1
, f (
2 et f (
1 .
e
)
=
e
)
=
f (
e1 ) =
1
2
3
3
3
3
1
1
2
g est lapplication de E dans E dfinie par :
u E,
g(u) = u f (u).
f (P ) = Q.
0 1 3 1
A=
.
3 4 6 8
0 1 3
4
2. Donner les quations de Ker(A) et Im(A).
3. Montrer que R4 = Ker(A) Im(A).
Chapitre 3
CALCUL MATRICIEL
3.1
Dfinition
Une matrice est un tableau form de nombres pris dans un corps commutatif not K qui
reprsente toujours R ou C.
Soit n le nombre de lignes et p le nombre de colonnes, le couple (n, p) sappelle la dimension ou lordre de la matrice.
Les nombres qui forment la matrice sappellent les coefficients de cette matrice.
Lensemble des matrices dordre (n, p) coefficient dans K est not Mn,p (K).
Soit A Mn,p (K) alors on peut crire
A = ..
..
..
.
.
.
.
.
.
an1 an2 anp
Les aij sappellent les lments ou les coefficients de la matrice ; llment aij est situ
lintersection de la iime ligne et de la j ime colonne de A.
On note souvent A = (aij )0in, 1jp ou simplement A = (aij ) sil ny a pas de confusion
possible.
Si K = R, on dit que la matrice A est relle ; si K = C, elle est dite complexe.
Si n = p, on dit que A est une matrice carre dordre n ; les lments a11 , a22 , . . . , ann
forment alors la diagonale principale de la matrice. On les appelle les lments ou
coefficients diagonaux de A.
Une matrice ayant une seule colonne est dite unicolonne et reprsente en gnral un
vecteur, dans ce cas p = 1 :
a11
a21
A = .. .
.
an1
Une matrice ayant une seule ligne est dite uniligne, dans ce cas n = 1 :
23
1 0 0
Exemple : I3 = 0 1 0 .
0 0 1
3.2
3.2.1
Soient A Mn,p (K), B Mn,p (K) telles que : A = (aij ) et B = (bij ) alors S = A + B est
une matrice de Mn,p (K) dont les coefficients sij sont dfinis par sij = aij + bij i, j.
Laddition dans Mn,p (K) est commutative et associative.
Llment neutre de (+) est la matrice nulle not 0(n,p) ou 0 tout simplement, dont tous les
coefficients sont nuls.
3.2.2
24
Soient A = (aij ) dans Mn,p (K) et K, alors P = A est une matrice de Mn,p (K) dont les
coefficients Pij sont :
Pij = aij i, j.
Remarque : Mn,p (K) muni de laddition et de la multiplication par un scalaire est un e.v.
sur K de dimension n p.
3.2.3
Produit matriciel
Soient A = (aij ) Mn,p (K) et B = (bkl ) Mp,q (K). Alors le produit C = A B est
possible et donne une matrice de Mn,q (K) dont les coefficients Cij sont
Cij =
p
X
aik bkj .
k=1
Remarques :
Le produit AB nest dfini que si le nombre de colonnes de A est gal au nombre de lignes
de B.
Lexpression de Cij sobtient partir de la ligne dindice i de A et de la colonne dindice
j de B. On dit que lon fait le produit AB lignes par colonnes .
Le produit matriciel nest pas commutatif AB 6= BA.
Exemple :
1 1 2
3 5 1
2 4
9
14
1 6 =
.
14 44
3 2
Proprits du produit
Si A, B, C sont des matrices telles que les diffrents produits ci-dessous soient dfinis et
si est un scalaire quelconque, on a
A(B C) = (A B)C ;
A(B + C) = AB + AC ; (B + C)A = BA + CA ;
A(B) = (A)B = (AB).
Mn,n (K) muni de laddition et du produit matriciel (pour n N? ) est un anneau non
intgre car on peut avoir A 6= 0,B 6= 0
et A B
= 0.
0 1
1 0
0 0
En effet, soit par exemple A =
et B =
alors A B =
.
0 0
0 0
0 0
3.2.4
Transposition
1 2
1 1 1
A=
alors t A = 1 1 .
2 1 0
1 0
Proprits de la transposition
25
t t
Alors
3.3
3.3.1
(A) = (A).
Matrices Carres
Dfinition
Les lments de Mn,n (K) sont appels matrices carres dordre n coefficients dans K. On
note simplement Mn (K) au lieu de Mn,n (K).
On sait que Mn (K) est un espace vectoriel sur K de dimension n2 et que muni de laddition
et du produit matriciel, Mn (K) est un anneau non commutatif et non intgre.
3.3.2
a) Matrice unit
Note In , la matrice unite dordre n est la matrice carre dordre n dont les coefficients
sont le ij (symbole de Kronecker)
1 0 0
(
. . ..
0 si i 6= j,
. .
0 1
ij =
= In = . .
.
.. . . . . . 0
1 si i = j.
0 0 1
b) Matrices scalaires
Une matrice A
(K) est dite scalaire lorsquil existe K tel que A = In .
Mn
2 0
Par exemple
est scalaire.
0 2
Dans certains domaines de la physique, les matrices scalaires sont dites sphriques
(notamment en mcanique). Remarquons que pour une matrice carre quelconque, il
existe deux diagonales : la diagonale principale et la diagonale secondaire.
c) Matrices diagonales
Une matrice diagonale est une matrice
sont nuls.
a11
0
A= .
..
0
0 0
..
.
a22 . .
.
.
..
..
.
. 0
0 ann
26
d) Matrices triangulaires
M = (mij ) Mn (K) est triangulaire suprieure (resp. infrieure) si tous les coefficients
en dessous (resp. au dessus) de la diagonale principale sont nuls.
Exemple :
.
.
0 t12
s
T = (tij ) = . .
tij = 0 j < i.
.
..
. . tn1n
..
0 0
tnn
T = (tij ) =
t11
t21
..
.
t12
...
tn1
...
...
0
..
.
tij = 0 j > i.
tnn1 tnn
0 1 2
0 1
et N = 1 0 1 sont symtriques.
Exemple : M =
1 2
2
1 2
Remarque 3.2. Si A est antisymtrique dordre n, alors toute sa diagonale principale
est nulle, t A = A = aii = aii = aii = 0.
0 1
Exemple : A =
nest pas antisymtrique.
1
2
0 1
est antisymtrique.
1 0
Les ensembles Sn (K) et An (K) des matrices symtriques et antisymtriques dordre n
coefficients dans K sont des s.e.v de Mn (K).
Proposition 3.1. Toute matrice carre dordre n coefficient dans K peut tre dcompose de manire unique en la somme dune matrice symtrique et une matrice
antisymtrique de la manire suivante :
M = MS + MA .
Avec
1
MS = (M + t M ) (partie symtrique)
2
1
MA = (M t M ) (partie antisymtrique).
2
27
3 1 1
Exemple : Dcomposer M = 0 2 0 en partie symtrique et antisymtrique.
1 1 3
f ) Matrices orthogonales
M Mn (K) est dite
: t M M = M t M = In
lorsque
orthogonale
2/2 2/2
= les colonnes forment une base orthonorme.
Exemple : M =
2/2
2/2
g) Matrices inversibles
A Mn (K) est inversible ssi il existe B Mn (K) telles que A B = B A = In
(remarquons quune matrice orthogonale est inversible).
Dans ce cas, la matrice B est appele linverse de A et est note B = A1 . On a donc
A A1 = A1 A = In (pour une matrice M orthogonale, on a M 1 = t M ).
3.3.3
On note GLn (K) lensemble des matrices carres dordre n coefficients dans K qui sont
inversibles.
a) Proprits
(i) Si A GLn (K) alors A1 GLn (K) et (A1 )1 = A.
(ii) Si A et B sont dans GLn (K) alors AB et BA sont inversibles et on a :
(A B)1 = B 1 A1 ,
(B A)1 = A1 B 1 .
(iii) Si A GLn (K) alors t A GLn (K) et (t A)1 = t (A1 ).
(iv) Si D Mn (K) est diagonale, on note D =
diag(1 , 2 , . . . ,
n ) alors D est inver1 1
1
sible ssi i 6= 0 i. Dans ce cas D1 = diag
, ,...,
.
1 2
n
(v) Si T Mn (K) est triangulaire alors T est inversible ssi aucun coefficient diagonal
nest nul.
(vi) (A + B)1 6= A1 + B 1 .
(vii) (A)1 = 1 A1 si K? et A GLn (K).
b) Calcul de linverse par la mthode du pivot de Gauss
. Les oprations lmentaires
On note Li la ligne n i et Ci la colonne n i de cette mme matrice.
(i) Li Li
ou
Ci Ci ; K? .
Cest une homothtie ou dilatation.
(ii) Li Lj change de lignes ;
Ci Cj change de colonnes.
28
(iii) Li Li + Lj j 6= i;
Ci Ci + Cj j 6= i.
Cest une transvection.
Les oprations lmentaires sur une matrice correspond une post ou une pr multiplication par une matrice lmentaire de cette matrice.
Remarque : Post : opration sur les colonnes. Pr : opration sur les lignes.
Principe de la mthode : Soit A Mn (K).
On effectue des oprations lmentaires sur les lignes de A et de In simultanment de
manire transformer A en In dans la colonne de gauche du tableau de pivot. Si cette
transformation est possible alors cest que A est inversible et son inverse A1 appparait
dans la colonne de droite
de pivot.
du tableau
3 1 1
Exemple : Soit A = 0 2 0 . Montrer que A est inversible et trouver son inverse
1 1 3
par la mthode du pivot de Gauss.
c) Rduite triangulaire de Gauss
On rappelle que le rang dune matrice A Mn,p (K) est le nombre de lignes ou de
colonnes qui sont linairement indpendants.
On rappelle que C1 , C2 , . . . , Cn sont linairement indpendantes si
1 C1 + 2 C2 + . . . + n Cn = 0 = 1 = 2 = . . . = n = 0.
Le rang de A se note rg(A). Une matrice carre A dordre n est inversible ssi rg(A) = n.
e triangulaire
On appelle rduite triangulaire de Gauss de la matrice A, toute matrice A
obtenue partir de A par des oprations lmentaires sur les lignes ou sur les colonnes.
e = rg(A).
On montre que rg(A)
On en dduit les remarques suivantes :
(i) Une matrice A Mn (K) nest pas inversible si elle comporte une ligne ou une
colonne nulle.
(ii) Une matrice A Mn (K) ayant deux lignes ou deux colonnes proportionnelles (ou
colinaires ou lies) ne peut tre inversible.
d) Calcul de linverse par la mthode AB = BA = In (mthode du polynme annulateur)
3 1 1
10 6 6
Exemple pratique : A = 0 2 0 A2 = 0 4 0 .
1 1 3
6 6 10
2
On a :
A 6A + 8I3 = 0.
1
1
6I3 A .
= A =
8
3.3.4
Matrices semblables
Deux matrices A et B de Mn (K) sont dites semblables lorsquil existe une matrice inversible
P GLn (K) telles que :
A = P BP 1
29
3.4
Puissances matricielles
3.4.1
Dfinition
3.4.2
a) Par rcurrence
1 1
Soit M =
, calculer M n , n N.
1 1
1 1
1 1
2
=
M =
1 1
1 1
2 2
1 1
3
M =
=
2 2
1 1
2 2
2 2
4 4
4 4
=2
=2
1 1
1 1
1 1
1 1
(A + B) =
n
X
k=0
Cnk Ak B nk
n
X
k=0
Cnk B k Ank .
n 1.
4 1
1 4
30
, calculer J n , n N.
1 1
Or J = M + N avec M =
et N = 3I2 .
1 1
3 3
MN = NM =
donc en utilisant le binme de Newton, on a :
3 3
Exemple : J =
Jn =
=
n
X
k=0
n
X
Cnk M k N nk =
n
X
k=0
k=0
= Cn0 3n I2 +
= Cn0 3n I2 +
n
1 X
2
k=1
n
1 X
n
X
!
Cnk 3nk 2k
n
X
k=0
Cnk M k 3nk I2
!
M
k=1
M
!
k=0
1
J n = 3n I2 + 5n 3n M.
2
4 1 1
Offre : Calculer J n avec J = 1 4 1 .
1 1 4
Remarques : La formule du binme est souvent intressant dans les cas o la dcomposition de la matrice M en somme de deux matrices qui commutent entre elles comporte
une matrice dont une certaine puissance est nulle.
On donne dabord la dfinition suivante :
Soit N Mn (K). On dit que N est nilpotente sil existe un entier p tel que :
N p = 0 (et N p1 6= 0).
On appelle indice de nilpotence dune matrice nilpotente le plus petit entier p0 rpondant la dfinition ci-dessus.
Notons que toute matrice triangulaire ayant tous ces lments diagonaux nuls est ncessairement nilpotente.
c) Mthode du polynme annulateur
Soit M Mn (K) et soit P K[X] un polynme annulateur de M en ce sens que
P (M ) = 0.
Pour calculer M k , on utilise la division euclidienne de X k par P.
X k = P (X)Q(X) + R(X) avec deg(R) < deg(P ).
On remplace alors X par M et on obtient :
M k = P (M )Q(M ) + R(M ), or P (M ) = 0 donc M k = R(M ).
3.5
31
n
X
aij i
pour 1 j p.
i=1
Lien entre oprations sur les applications linaires et oprations sur les matrices
3.6
3.7 Exercices
3.7
32
Exercices
Exercice 3.1.
1 1 0
1. Soit A =
0 1 1 et soit B = A I3 .
0 0 1
(a) Calculer B 2 , B 3 en dduire une formule de rcurrence que lon dmontrera pour
B n , pour tout entier n.
(b) Dvelopper (B + I3 )n par la formule du binome et simplifier.
(c) En dduire An Pour tout entier n.
1 1 1 1
0 1 1 1
2. Soit A =
. Pour tout entier n, calculer An en utilisant A I4 .
0 0 1 1
0 0 0 1
Exercice
1 1
2 1
1 1
2 1
1 1
1 1 1
1 1
1 2 1
, 1 0
1 1 1
1 0
1 1 2
1 0
0 0 0
0 2 1
1 0 0
, 1 1 1
0 1 0
2 1 1
0 0 1
1 1 1
1
Calculer A et montrer que
1
2
0
1
0
1 3
1 2
2 2
,
1 3
1 0
0 2
1 1
2 1
1 1
1 1 2
1 1 2
1 2 2
.
1 1 3
1 1 0
1
= 2I A, en dduire que A est inversible et calculer A1 .
1
.
2
3.7 Exercices
33
Chapitre 4
DETERMINANTS
4.0.1
Applications p-linaires
35
Exemples 4.1.
(i) Si 1 ,. . .,p sont des formes linaires sur E, lapplication
f : (x1 , . . . , xp ) E p 7 1 (x1 ) p (xp )
est une forme p-linaire sur E.
(ii) Lapplication dterminant
x1 y1
2
2
= x1 y2 x2 y1
(x, y) K K 7
x2 y2
est une forme 2-linaire (ou bilinaire) sur K2 .
(iii) Lapplication dterminant
x y z
1 1 1
3
3
3
(x, y, z) K K K 7 x2 y2 z2
x3 y3 z3
= (x1 y2 z3 + x2 y3 z1 + x3 y1 z2 ) (x3 y2 z1 + x1 y3 z2 + x2 y1 z3 )
est une forme 3-linaire (ou trilinaire) sur K3 .
Proposition 4.1.
1. Lapplication nulle de E p vers F est la fois p-linaire et linaire.
2. Soit f est une application p-linaire de E dans F ; si lun des vecteurs xi est nul, alors
le vecteur f (x1 , . . . , xp ) est nul.
3. Lp (E, F ) est un K-espace vectoriel.
Dmonstration.
(2) f est une application linaire par rapport sa ie variable, et limage de 0E par une
application linaire est 0F .
(3) Lp (E, F ) est un sous-espace vectoriel de lespace de toutes les applications de E p vers
F.
36
4.1
Dterminant de n vecteurs
Dans cette section, E dsigne un K-espace vectoriel de dimension finie n, muni dune base
B = (e1 , . . . , en ) ; la base duale B = (1 , . . . , n ) est dfinie par i (x) = xi la coordonne de
rang i relative B. Nous tudions lensemble n (E) des formes n-linaires alternes dfinies
sur E et f dsigne une telle forme.
4.1.1
37
n
X
i=1
X
sSn
(s)
n
Y
as(j),j =
j=1
(s)
sSn
n
Y
ai,s(i)
(4.1)
i=1
4.1.2
(4.2)
(4.3)
(4.4)
Dmonstration. detB0 est une forme n-linaire alterne qui on applique la formule 6.2. ,
soit
detB0 = detB0 (B) detB
En prenant la valeur de ces expressions en B 0 et en V, on obtient les rsultats.
Thorme 4.6 (Caractrisation des bases).
Si V = (v1 , . . . , vn ) est une famille de n vecteurs dun espace vectoriel de dimension n et
si B est une base de E, V est une base de E detB (V) 6= 0
Dmonstration.
=
Si V est une base de E, detB (V) nest pas nul, car detB (V) detV (B) = 1.
Par contrapose ; si V nest pas une base de E, V est une famille lie (V est maximale)
et donc detB (V) = 0 (image dune famille lie par une forme n-linaire alterne).
4.2
38
Considrons une matrice carre M dordre n 1 coefficients dans K ; on note ai,j (ou aij ) le
terme gnral de cette matrice et C1 ,. . .,Cn ses vecteurs colonnes ; on crira indiffremment :
M = [ai,j ] = (C1 , . . . , Cn ).
Appelons E = (E1 , . . . , En ) la base canonique de Mn,1 (K) ; le scalaire ai,j sinterprte
comme la composante du vecteur colonne Cj suivant Ei relativement la base canonique C,
ce qui donne la dfintion suivante :
Dfinition 4.4 (Dterminant dune matrice carre).
On appelle dterminant de la matrice carre M = [ai,j ], et lon note det M , le dterminant
detE (C1 , . . . , Cn ) de la famille de ses vecteurs colonnes dans la base canonique de Mn,1 (K).
Thorme 4.7 (Dterminant de la transpose dune matrice).
Si M = [ai,j ] Mn (K), on a
t
det M = det M =
(s)
sSn
n
Y
as(j),j =
j=1
(s)
sSn
n
Y
ai,s(i)
i=1
Dmonstration. Le vecteur colonne Cj a pour coordonnes (a1,j , . . . , an,j ) dans la base canonique de Mn,1 (K). En changeant M en tM , on passe de lune des expressions du dterminant
lautre.
4.2.1
Proprits
39
4.2.2
Le dterminant dune matrice carre est une application n-linaire alterne des vecteurs
colonnes, et donc
si on change deux colonnes dune matrice, le dterminant se change en son oppos ;
le dterminant dune matrice dpend linairement de chacun de ses vecteurs colonnes ;
on ne change pas la valeur du dterminant dune matrice en ajoutant lun de ses
vecteurs colonnes, une combinaison linaire des autres vecteurs colonnes ;
le dterminant dune matrice est nul si lun des vecteurs colonnes est nul, ou si lun
des vecteurs colonnes est combinaison linaire des autres vecteurs colonnes.
Puisque le dterminant dune matrice est gal au dterminant de sa transpose, on peut
remplacer vecteur colonne par vecteur ligne dans les proprits prcdentes.
4.2.3
40
on obtient
(x1 , . . . , xn1 ) E 00 , detC (x1 , . . . , xn1 , n ) = detC 00 (x1 , . . . , xn1 ).
Nous venons de dmontrer le
Lemme 4.12. Si A Mn1 (K), alors
..
..
1
. 0n1,1
. 01,n1
A
. . . . . . . . . . . . . . . = det A = . . . . . . . . . . . . . . .
.
.
01,n1 ..
0n1,1 ..
1
A
Lemme 4.13. Si A Mn1 (K) et B Mn1 (K), alors
..
..
1
A . 01,n1
. B
. . . . . . . . . . . . = det A = . . . . . . . . . . . .
.
.
0n1,1 .. A
B ..
1
En utilisant ce lemme et une dmonstration par rcurrence, on retrouve le
Thorme 4.14 (Dterminant dune matrice triangulaire).
Le dterminant dune matrice triangulaire est le produit des lments de sa diagonale
principale.
Lemme 4.15. Soient A Mp (K), B Mp,q (K) et C Mq,p (K) ; alors
..
..
Ip . B
A . 0
. . . . . . . . = det A = . . . . . . . .
.
.
0 .. A
C .. Iq
Thorme 4.16 (Dterminant dune matrice triangulaire par blocs).
Si A Mp (K), B Mq (K) et C Mp,q (K), on a
..
A . C
. . . . . . . . = det A det B
..
0 . B
Dmonstration. On crit la matrice dont on veut calculer le dterminant, comme un produit
de deux matrices du type prcdent, en utilisant le produit matriciel par blocs
..
..
..
A
.
C
I
.
0
A
.
C
M = . . . . . . . . = . . . . . . . . . . . . . . . . = N R
..
..
..
0 . Iq
0 . B
0 . B
Le lemme prcdent et det M = det N det R donnent le rsultat.
4.3
4.3.1
41
n
X
k=1
ak,j Ek , . . . , Cn ) =
n
X
k=1
n
X
ak,j Ak,j
k=1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 a1,1 a1,j1
a
1,j+1
1,n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
ak,j+1 ak,n
Ak,j = (1)j1 1 ak,1 ak,j1
0 ak+1,1 ak+1,j1 ak+1,j+1 ak+1,n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 an,1 an,j1
an,j+1 an,n
ce qui donne, en effectuant (k 1) transpositions de lignes,
1 ak,1 ak,j1
a
a
k,j+1
k,n
0 a1,1 a1,j1
a1,j+1 a1,n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
(j1)+(k1)
0
a
a
a
a
Ak,j = (1)
k1,1
k1,j1
k1,j+1
k1,n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 an,1 an,j1
an,j+1 an,n
a1,1 a1,j1
a
a
1,j+1
1,n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
ak1,n
j+k
j+k ak1,1 ak1,j1 ak1,j+1
= (1)
= (1) det Mk,j
a
a
a
a
k+1,1
k+1,j1
k+1,j+1
k+1,n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
an,1 an,j1
an,j+1 an,n
Ainsi Ak,j = (1)k+j det Mk,j o Mk,j est la matrice dduite de M par suppression de la k e
ligne et de la j e colonne.
42
det M =
n
X
k=1
4.3.2
k=1
n
X
k=1
43
n
X
Ak,j ak,i ,
k=1
t
Par une mthode analogue, que je vous encourage rdiger, on montre que
2
n
X
k=1
Remarque. M 7 Com M est une application continue de Mn (K)dans Mn (K), car les
composantes de Com M sont polynomiales en les coefficients de M .
Corollaire (Inverse dune matrice carre).
Si M est une matrice carre inversible dordre n 2, on a
M GLn (K) = M 1 =
1 t
(Com M ).
det M
Remarques. Excepts les cas n = 2 et n = 3, cette formule ne peut servir au calcul numrique
de linverse car elle comporte trop doprations.
a c
d
c
1
GL2 (K) = M 1 =
M =
ad bc b a
b d
Par contre, elle est utile dans des questions thoriques ; par exemple, M 7 M 1 est une
bijection continue de GLn (K) (cest mme une involution) car produit de deux applications
continues.
4.4
Dterminant et rang
Le rang dune matrice M = [ai,j ] = (C1 , . . . , Cp ) = t(L1 , . . . , Ln ) Mn,p (K) est le rang
de ses vecteurs colonnes (Cj )j[[1,p]] ou celui de ses vecteurs lignes (Li )i[[1,n]] car le rang dune
matrice est gal celui de sa transpose ; on a donc :
rg M inf(n, p)
Dfinition 4.7 (Matrice extraite).
Si I est une partie non vide de [[1, n]] et J une partie non vide de [[1, p]], on appelle matrice
extraite de M associe I et J, la matrice R = [ai,j ] o i I et j J.
44
Lemme 4.19. Le rang dune matrice extraite de M est infrieur ou gal au rang de M .
Dmonstration. Soit R une matrice extraite de M associe I et J. Considrons la matrice
Q extraite de M et associe [[1, n]] et J ; les vecteurs colonnes (Cj )jJ de Q constituent une
sous-famille des vecteurs colonnes de M , donc rg Q rg M .
De mme, les vecteurs lignes (Li )iI de R constituent une sous-famille des vecteurs lignes
de Q, do rg R rg Q, et le rsultat.
Thorme 4.20 (Caractrisation du rang dune matrice).
Le rang dune matrice non nulle est lordre maximal des matrices carrs inversibles extraites.
Dmonstration. Soit M Mn,p (K) une matrice non nulle.
Lensemble des ordres des matrices carres inversibles extraites de M nest pas vide, car
il contient 1 puisque M nest pas la matrice nulle, et est major par rg M daprs le lemme.
On note r son plus grand lment ; on a donc 1 r rg M .
De la famille (C1 , . . . , Cp ) des vecteurs colonnes de M , on peut extraire une sous-famille
libre (Cj )jJ de cardinal rg M ; on note Q la matrice extraite de M associe [[1, n]] et J, et
rg M = rg Q. Des vecteurs lignes (L1 , . . . , Ln ) de Q, on peut encore extraire une sous-famille
libre (Li )iI de cardinal rg Q ; on note R la matrice extraite de M et associe I et J et
rg R = rg Q.
R est une matrice carre de rang maximum (#I = #J = rg R = rg Q = rg M ), donc
une matrice inversible. En consquence, r rg M .
Finalement r est gal au rang de M .
Corollaire (Caractrisation des familles libres).
Si F = (c1 , . . . , cp ) est une famille de p vecteurs dun K-espace vectoriel E de dimension
finie n, si M = MatB (F) Mn,p (K) est la matrice des composantes de F relatives une
base B de E, F est une famille libre si, et seulement si, il existe une matrice carre dordre
p, extraite de M et de dterminant non nul.
4.5 Exercices
4.5
45
Exercices
Exercice 4.1. La famille (2, 1, 0), (1, 3, 1), (5, 2, 1) est-elle libre ?
Exercice 4.2. Calculer le dterminant
3
1
0
0
. . .
0
3
1
.
. . 0
n = 4 0
3
.
.
.
. . . . . . 1
0
4 0 3
en fonction de n (vrifier que 1 est racine de X 3 3X 2 + 4).
Exercice 4.3. Soient a, b, c trois rels et n le dterminant de taille n suivant :
a b
......
c
n = . . . .
.
.
b
0
c a
1. On pose 0 = 1, 1 = a. Montrer que n N, n+2 = an+1 bcn .
2. On suppose que a2 = 4bc. Montrer par rcurrence que :
n N, n = (n + 1)
an
.
2n
3 1
0
. . . ..
2 3
1
.
.
. . 0
n = 0 2
3
. .
.. . . . . . . . . 1
0 0
2 3
1. Montrer que n N , n+2 = 3n+1 2n (avec la convention 0 = 1, 1 = 3).
2. Montrer par rcurrence que n N , n = 2n+1 1.
Chapitre 5
SYSTEMES DEQUATIONS
LINEAIRES
Dans tout ce chapitre, les systmes considrs sont coeffcients dans R ou C. Dans un
souci de simplifcation des notations, nous adopterons la convention que le symbole K dsigne
R ou C. On rappelle que K n dsigne lensemble des n-uplets dlments de K, cest--dire
lensemble des (u1 ; . . . ; un ) avec chaque ui appartenant K.
5.1
Dfinitions
a11 x1 + + a1n xn = b1
(S)
ap1 x1 + + apn xn = bp
a11 x1 + + a1n xn = 0
0
(S )
ap1 x1 + + apn xn = 0
est appel systme homogne associ (S).
5.1 Dfinitions
47
Dfinition 5.3. Soit (S) un systme linaire pn. On appelle solution de (S) tout n-uplet
(u1 ; . . . ; un ) de Kn tel que
a11 u1 + + a1n un = b1
(S)
ap1 u1 + + apn un = bp
Dfinition 5.4. Deux systmes (S1 ) et (S2 ) sont dits quivalents sils ont le mme ensemble de solutions, cest--dire si toute solution de (S1 ) est solution de (S2 ) et vice versa.
Exemple : Les systmes
x1 = 1
x1 x2 = 2
et
x1 + x2 = 0
x1 x2 = 2
sont quivalents.
Dfinition 5.5. On dit quun systme carr est triangulaire si lon a
aij = 0 pour tout couple (i; j) tel que i < j (systme triangulaire infrieur)
ou bien
aij = 0 pour tout couple (i; j) tel que i > j (systme triangulaire suprieur).
Un systme triangulaire est dit diagonale non nulle sil est triangulaire et si
tous les termes diagonaux sont non nuls.
Exemple : Le systme suivant est triangulaire suprieur diagonale non nulle :
x1 + 5x2 + x4 = 1
x2 + x3 = 5
x3 5x4 = 0
x4 = 1
Dfinition 5.6. On dit quun systme pn est chelonn sil existe un entier
1. pour i 1, . . . , k , on a
a = 0, si j < j ;
ij
i
aij 6= 0;
i
48
Remarque 5.1. Tout systme triangulaire suprieur diagonale non nulle est
2x1 + 3x2 + x5
x2 + x3 + x4 x5
x5
=1
=4
=0
= 3
5.2
A=
a11 a12
a1n
..
.. . .
..
. .
.
.
49
x1
b1
2x1 x2 = 5
se rcrit
x1 + x2 = 1
2 1
1 1
x1
x2
5
1
En pratique, pour la rsolution des systmes linaires, on pourra adopter la notation condense suivante :
2 -1 5
(S)
.
1 1 -1
5.3
5.3.1
Proposition 5.2. Soit (S) un systme triangulaire suprieur diagonale non nulle. Alors
(S) a une unique solution obtenue par la mthode de la remonte :
bk
xk =
n
X
i=k+1
akk
aki xi
k = n, n 1, . . . , 2, 1.
Exercice : Montrer que les systmes triangulaires infrieurs peuvent tre rsolus de faon
analogue par la mthode de la descente.
5.3.2
Systmes chelonns
(S) akjk xjk + . . . + akn xn =
0=
0=
b1
bk
bk+1
bp
1er cas : Lun des bj avec j {k + 1, . . . , p} est non nul. Alors (S) na pas de solution.
2me cas : bk+1 = . . . = bp = 0. Alors (S) est quivalent au systme () suivant :
50
3
1
0
0
0
0
0
0
0 1
1 -1
0 1
0 0
1
3
6
1
3
6
Les inconnues principales sont x1 , x2 et x5 . Les deux autres inconnues x3 et x4 sont des
paramtres libres. Par la mthode de la remonte, on trouve :
x5 = 6
x2 = 3 x4 + x5 = 9 x4
x1 = 1 x5 3x2 = 16 + 3 x4
2
2
Lensemble des solutions de (S) est
3
16 + x4 , 9 x4 , x3 , x4 , 6 /x3 R, x4 R .
=
2
5.4
51
2
1 sous forme chelonne.
0
5.5 Exercices
5.5
Exercices
Exercice 5.1. Mettre sous forme matricielle et rsoudre les systmes suivants.
2x + y + z = 3
3x y 2z = 0
1.
x + y z = 2
x + 2y + z = 1
x+y+z+t = 1
x y + 2z 3t = 2
2.
2x + 4z + 4t = 3
2x + 2y + 3z + 8t = 2
5x + 3y + 9z + 19t = 6
2x + y + z + t = 1
x + 2y + 3z + 4t = 2
3.
3x y 3z + 2t = 5
5y + 9z t = 6
xy+z+t = 5
4.
2x + 3y + 4z + 5t = 8
3x + y z + t = 7
x + 2y + 3z = 0
5.
2x + 3y z = 0
3x + y + 2z = 0
a 2 1 b
A=
3 0 1 4
5 4 1 2
Montrer que rg(A) 2. Pour quelles valeurs de a et b a-t-on rg(A) = 2 ?
52
5.6
53
Travaux dirigs
2 0 1
1
M est inversible et calculer M .
Exercice 5.5. Soit u lapplication suivante :
u:
R2 [X]
P
R2 [X]
1 1 1
4. On pose P =
0 1 1 . Vrifier que P est inversible et calculer P . Quelle
1 0 1
relation relie A, B, P et P 1 ?
Exercice 5.7. Soit f lendomorphisme de R3 , dont la matrice dans la base canonique
{e1 , e2 , e3 } est
2 2
A=
1 0
54