You are on page 1of 61

Tabledesmatires

1 Calculmatriciel
1.1 et .Dnitions. .proprits. . . . . . . . . . . . . . . . . . 3 1.2Opsurrationsles . .matrices. . . . . . . . . . . . . . . . . 1.2.1A .ddition. . . . . . . . . . . . . . . . . . . . . . . . 4 5 4

1.2.2 parun.Multiplication.scalaire.. . . . . . . . . . . 1.2.3 des .Multiplication.matrices.. . . . . . . . . . . . 5 1.3Matrices.lmentaires. . . . . . . . . . . . . . . . . . . . . 7 1.3.1Oprationslmentairessurune. .matrice. . . . . . 7 1.3.2 pourApplicationvl'inersedterminerd'unematrice . .carre. . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Dterminan ts

10

2.1 td'ordreDterminan 2 . . . . . . . . . . . . . . . . . . . . . . 10 2.2 td'ordreDterminan 3 . . . . . . . . . . . . . . . . . . . . . . 10 2.3 td'ordreDterminan n . . . . . . . . . . . . . . . . . . . . . 13 2.4Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.4.1deCalculvl'inersed'unematricecarred'ordre 2.4.2 deRsolution(systmesMlinairesdethode)Cramer16
n . . . 15

3 VEspacesectoriels

17

3.1 vEspaces.ectoriels.. . . . . . . . . . . . . . . . . . . . . . 17 3.2 v .ectorielsSous-Espaces.. . . . . . . . . . . . . . . . . . . 18 3.3Famille. .Gnratrice. . . . . . . . . . . . . . . . . . . . . 20 3.4DpetendanceceIndpendan-LinairesBases. . . . . . . . 21 deExistence(Basesen)niedimension. . . . . . . . . . . 23 3.5 3.6 LesFtauxThormessurlaondamen..Dimension. . . . . 24 1

3.7 Somme, Somme directe, Sous-Espaces Supplmentaires . . . . 27

4 Les Applications Linaires


4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 Applications Linaires . . . . . . . . . . . . . . . . . . . . . . Image et Noyau . . . . . . . . . . . . . . . . . . . . . . . . . Matrices Associes aux Applications Linaires . . . . . . . . . Matrice d'un Vecteur. Calcul de l'Image d'un Vecteur . . . . Matrice de l'Inverse d'une Application . . . . . . . . . . . . . Changement de Bases . . . . . . . . . . . . . . . . . . . . . . Rang d'une Matrice . . . . . . . . . . . . . . . . . . . . . . . Matrices Remarquables . . . . . . . . . . . . . . . . . . . . . Application des Dterminants la Thorie du Rang . . . . . 4.9.1 Caractrisation des Bases . . . . . . . . . . . . . . . . 4.9.2 Comment reconnatre si une famille de vecteurs est libre 4.9.3 Comment reconnatre si un vecteur appartient l'espace engendr par d'autres vecteurs . . . . . . . . . . 4.9.4 Dtermination du rang . . . . . . . . . . . . . . . . . Valeurs Propres et vecteurs propres . . . . . . . Proprits des vecteurs propres et valeurs propres Proprits du polynme caractristique . . . . . Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31
31 32 35 38 40 40 42 43 45 45 46 47 48

5 Valeurs Propres et Vecteurs Propres


5.1 5.2 5.3 5.4

50
50 52 53 55

Chapitre 1 Calcul matriciel


Dans tout ce qui suit, K dsigne R ou C.

1.1 Dnitions et proprits


Un tableau rectangulaire, de nombres ( K ), de la forme
a11 a12 . . . a1n

a21 a22 . . . a2n . . . . . . am1 am2 . . . amn

(1.1)

est appel matrice. Les nombres aij sont appels coecients de la matrice. Les lignes horizontales sont appeles ranges ou vecteurs ranges, et les lignes verticales sont appeles colonnes ou vecteurs colonnes de la matrice. Une matrice m ranges et n colonnes est appele matrice de type (m, n). On note la matrice ( 1.1) par (aij ).

Exemple 1.1.1. :
1)

2)

0 0 ... 0 0 0 ... 0 a tous ses coecients nuls. La matrice nulle O = . . . . . . 0 0 ... 0 Une matrice (a1 , ..., an ) ayant une seule range est appele matrice

uniligne.

Chapitre thechapter : Calcul matriciel

3) Une matrice

b1 b2 . . . bm

ayant une seule colonne est appele matrice uni-

colonne.

1) Une matrice ayant le mme nombre de ranges et de colonnes est appeles matrice carre, et le nombre de ranges est appel son ordre. 2) La matrice carre (aij ) telle que aij = 0 si i = j et aii = 1 i est appele matrice unit, note par I , elle vrie AI = IA = A, A matrice carre du mme ordre que I . 3) Deux matrices (aij ) et (bij ) sont gales si et seulement si elles ont mme nombre de ranges et le mme nombre de colonnes et les lments correspondants sont gaux ; c'est dire aij = bij i, j .

1.2 Oprations sur les matrices


1.2.1 Addition
La somme de deux matrices de type (m, n) (aij ) et (bij ) est la matrice (cij ) de type (m, n) ayant pour lments cij = aij + bij pour i = 1, ..., m et j = 1, ..., n.

Exemple 1.2.1. : Si A =
B= 1 5 3 3 2 2

4 6 3 0 1 2

et

B=

5 1 0 3 1 0

, alors

A+

L'addition des matrices satisfait les proprits suivantes : Pour A, B et C des matrices de type (m, n) on a : 1) A + B = B + A 2) (A + B ) + C = A + (B + C ) 3) A + O = O + A = A o O est la matrice nulle 4) A + (A) = O o A = (aij ).

Chapitre1 : Calcul matriciel

1.2.2 Multiplication par un scalaire


a11 a12 . . . a1n a21 a22 . . . a2n A = . . . . . . am1 am2 . . . amn

Soit A = (aij ) et K, on dnit


= (aij ).

Exemple 1.2.2. :
Si

A = (2 7 8),

alors

3A = (6 21 24)

Cette multiplication vrie : Pour A, B des matrices de type (m, n) 1) (A + B ) = A + B 2) ( + )A = A + A 3) (A) = ()A 4) 1A = A

1.2.3 Multiplication des matrices


Soit A = (aij ) une matrice de type (m, n) et B = (bkl ) une matrice de type (r, p), alors le produit AB ( dans cet ordre ) n'est dni que si n = r,
j =n

et est la matrice C = (cil ) de type (m, p) dont les lments cil =


j =1

aij bjl .

Exemple 1.2.3. :
A= 3 2 1 0 4 6
et

1 0 2 B = 5 3 1 , 6 4 2

alors

AB = =

3(1) + 2(5) + (1)(6) 3(0) + 2(3) + (1)(4) 3(2) + 2(1) + (1)(2) 0(1) + 4(5) + 6(6) 0(0) + 4(3) + 6(4) 0(2) + 4(1) + 6(2) 7 2 6 56 36 16

Le produit matriciel vrie les proprits suivantes : 1) (AB ) = (A)B , K 2) A(BC ) = (AB )C 3) (A + B )C = AC + BC

Chapitre thechapter : Calcul matriciel

4) C (A + B ) = CA + CB Pour vu que les produits qui gurent dans les expressions soient dnis.

Remarque 1.2.1. :
1) La multiplication matricielle n'est pas en gnral commutative, c..d

AB = BA.
2) La simplication n'est pas vraie en gnral, c..d pas, ncessairement

AB = O

n'entrane

A=O

ou

B = O.
telle que

3) Une matrice carre

A est inversible s'il existe B

AB = BA =

I.

Exemple 1.2.4. :
1)

A=

1 0 0 0

B=

0 1 1 0

, alors

AB =

0 1 0 0

et

BA =
2)

0 0 1 0 1 1 2 2 = O, B = 1 1 1 1 =O
et pourtant

A=

AB =

0 0 0 0

=O a11 0 0 ... 0

1) Une matrice du type

. . .

a22 0 . . .

...
0

i = j est appele matrice diagonale. a11 0 a22 ou 2) Une matrice du type . ... ... . . 0 . . . 0 ann a11 0 . . . 0 ... . . a . 22 . . . 0 est appele matrice triangulaire. ann La premire vrie aij = 0 pour i > j et la seconde aij = 0 pour i < j .

...

c'est dire aij = 0 pour 0 ann

. . .

Chapitre1 : Calcul matriciel

3) Au lieu de AA on crit tout simplement A2 , de mme A3 = A2 A .... 4) Si les lignes et les colonnes d'une matrice sont changes, la matrice obtenue est appele transpose de la matrice d'origine ; la transpose de A est note t A. 5) Si A = (aij ), alors t A = (bij ) avec bij = aji , on a t (t A) = A.

Exemple 1.2.5. :
Si

1 4 A = 2 5 ; 3 6

alors

A=

1 2 3 4 5 6

1.3 Matrices lmentaires


1.3.1 Oprations lmentaires sur une matrice
Soit A une matrice, on appelle opration lmentaire sur A l'une des transformations suivantes : 1) Ajouter une ligne ( resp une colonne ) de A une autre ligne ( resp colonne ) multiplie par un scalaire. (Rj Rj + kRi ) 2) Multiplier une ligne ( resp une colonne ) de A par un scalaire non nul. (Ri kRi ) 3) Permuter les lignes ( resp les colonnes ) de A. (Ri Rj ) Soit e une opration lmentaire sur les lignes et e(A) dsigne les rsultats obtenus aprs l'application de l'opration e sur une matrice A. Soit E la matrice obtenue aprs l'application de e sur la matrice unit I , c'est dire E = e(I ). E est alors appele la matrice lmentaire correspondant l'opration lmentaire e.

Exemple 1.3.1. :
Considrons la matrice unit d'ordre 1) Permuter les lignes

3.

L3 . 2) Remplacer ligne L2 par 6L2 . 3) Remplacer ligne L3 par 4L1 + L3 . 1 0 0 1 0 0 E1 = 0 0 1 , E2 = 0 6 0 0 1 0 0 0 1


et

L2

et

1 0 0 E3 = 0 1 0 4 0 1

sont les

Chapitre thechapter : Calcul matriciel

matrices lmentaires correspondantes.

Thorme 1.3.1. :
e une opration lmentaire sur les lignes et E la matrice lmentaire correspondante d'ordre m, alors e(A) = EA pour toute matrice A de type (m, n).
Soit

Les oprations lmentaires ont des oprations inverses du mme type 1) Permuter Ri et Rj est son propre inverse. 1 2) Remplacer Ri par kRi et remplacer Ri par k Ri sont inverses 3) Remplacer Rj par kRi +Rj et remplacer Rj par kRi +Rj sont inverses. Supposons que e est l'inverse d'une opration lmentaire sur les lignes e, et soit E et E les matrices correspondantes. Alors E est inversible et son inverse est E . En particulier un produit de matrices lmentaires est inversible.

Thorme 1.3.2. :
Soit

une matrice carre, alors

est inversible si et seulement si

est

un produit de matrices lmentaires.

1.3.2 Application pour dterminer l'inverse d'une matrice carre Exemple 1.3.2. :
Trouver l'inverse de la matrice

1 0 2 A = 2 1 3 4 1 8

si elle existe.

Pour ce faire nous crivons la matrice unit la droite de

et nous ap-

pliquons les mmes oprations cette matrice que celles eectues sur

A.

1 0 2 1 0 2 1 3 4 1 8 0 1 0 L3 +L2 0 1 0 0

0 0 1 0 0 1 2 1 1

L3 4L1 1 0 0 2 1 0 6 1 1

L2 2L1

1 0 2 0 1 1 0 1 0
L1 +2L3

1 0 0 2 1 0 4 0 1

L2 L3

Chapitre1 : Calcul matriciel

11 2

0 1 0 0 0 1
d'o

4 0 1 6 1 1 11 2 2

L3

L2

1 0 0 0 1 0 0 0 1

11

4 0 1 6 1 1

A1 = 4 0 1 6 1 1 0 1 0 0 1 0 2 0 0 1 0 0 1 0 et 1 0 0 1 0 0 1 0 1 0 0 1 0 0 0 2 1 0 0 1 0 1 0 0 1 4 0 1

Ecrivons cette inverse sous forme de produit de matrices lmentaires :

1 0 A1 = BC avec B = 0 1 0 0 1 0 0 1 0 C = 0 1 1 0 1 0 0 0 0 1

Chapitre 2 Dterminants
2.1 Dterminant d'ordre 2
Le symbole
a11 a12 a21 a22 a11 a12 est appel dterminant d'ordre 2 de la matrice A = a21 a22 a11 a12 = a11 a22 a12 a21 . a21 a22

et est dni par detA =

Exemple 2.1.1. :
1 3 2 4 3 1 = 4 6 = 2, = 6 4 = 2, =64=2 2 4 1 3 4 2

On constate alors que : 1) Si deux ranges ( ou deux colonnes ) d'un dterminant sont permutes la valeur d'un dterminant est multiplie par 1. 2) Si on pose A =
1 3 2 4

, tA =

1 2 3 4

. On constate que detA =

dett A, d'o la valeur d'un dterminant est conserve lorsque l'on change les

colonnes et les lignes ( dans le mme ordre ).

2.2 Dterminant d'ordre 3


a11 a12 a13 Soit A = a21 a22 a23 , on dnit a31 a32 a33
10

Chapitre 2 : Dterminants

11

a11 a12 a13 detA = a21 a22 a31 a32 a22 = a11 a32 a23 a33 a23 a33

a21

a12 a13 a32 a33

+a31

a12 a13 a22 a23

mineur de a11

mineur de a21

mineur de a31

Exemple 2.2.1. :
1 3 0 3 0 3 0 6 4 = 12 12 12 = 12 1 2 detA = 2 6 4 = 1 6 4 0 2 0 2 1 0 2
`me `me Le cofacteur de l'lment de detA de la ie ligne et la k e colonne est gal (1)i+k fois le mineur de cet lment ( c. .d le dterminant d'ordre `me `me 2 obtenu en supprimant la ie ligne et la k e colonne ).

Remarque 2.2.1. :
Le cofacteur de

a22

est

(1)2+2

a11 a13 a31 a33

Les signes

(1)i+j

forment la table suivante

+ + + + +

On remarque que l'on peut crire

(1)

sous la forme : est le cofacteur de

detA = a11 C11 + a21 C21 + a31 C31

Ci1

ai1

dans

detA.

3) Le dterminant de A, detA, peut tre developp suivant n'importe quelle ligne ou colonne, c'est dire, qu'il peut tre crit sous la forme d'une somme de trois lments de n'importe quelle ligne ( ou colonne ), chacun multipli par son cofacteur.

Exemple 2.2.2. :
detA = a21 a12 a13 a11 a13 a11 a12 + a22 a23 a32 a33 a31 a33 a31 a32

4) Si tous les lments d'une ligne ( ou d'une colonne ) d'un dterminant sont multiplis par une constante k , la valeur du nouveau dterminant est k

12

Chapitre 2 : Dterminants

fois la valeur du dterminant initial. Cette proprit peut tre utilise pour simplier un dterminant.

Exemple 2.2.3. :
1 3(1) 0 1 3 0 1 3 0 1 3 0 2 6 4 = 2(1) 2(3) 2(2) = 2 1 3 2 = 2 1 3(1) 2 = 1 3(0) 2 1 0 2 1 0 2 1 0 2 1 1 0 1 1 0 6 1 1 2 = 12 1 1 1 = 12 1 0 1 1 0 2

5) Si tous les lments d'une ligne ( ou colonne ) d'un dterminant sont nuls, la valeur du dterminant est nulle. 6) Si chaque lment d'une ligne ( ou colonne ) d'un dterminant est exprim sous la forme d'un binme, le dterminant peut tre crit comme somme de deux dterminants.

Exemple 2.2.4. :
a1 b1 c1 d1 b1 c1 a1 + d1 b1 c1 a2 + d2 b2 c2 = a2 b2 c2 + d2 b2 c2 a3 b3 c3 d3 b3 c3 a3 + d3 b3 c3

7) Si deux lignes ( ou colonnes ) d'un dterminant sont proportionnelles, la valeur du dterminant est nulle.

Exemple 2.2.5. :
1 2 2 1 2 3 =0 1 2 1

8) La valeur d'un dterminant est conserve si l'on ajoute une ligne ( ou une colonne ) une combinaison des autres lignes ( ou colonnes ).

Exemple 2.2.6. :
1 1 0 1 1 1 1 0 1
1 3 C +C

1 1 0 2 1 1 = 1 0 0 1

Chapitre 2 : Dterminants
1 3 signie que l'on a ajout la colonne C3 la colonne C1 .

13

C +C

Cette dernire proprit permet de simplier normment les calculs, elle permet de rduire le calcul d'un dterminant d'ordre 3 au calcul d'un seul dterminant d'ordre 2.

Exemple 2.2.7. :
3 1 2
Calculer

6 2 4 1 7 3
C1 +C2 C3

3 1 2 6 2 4 1 7 3

0 1 2 1 2 = 5(4 + 4) = 0 0 2 4 = 5 2 4 5 7 3

Remarque 2.2.2. :
La ligne ( ou colonne ) dans laquelle seront eectus les calculs ne doit pas tre multiplie par des scalaires. La multiplication par un scalaire viendrait multiplier le dterminant par

re-

Exemple 2.2.8. :
1 2 2 3
1 2

2 L L

0 2 1 3

= 2,

alors que

1 2 2 3

= 1

2.3 Dterminant d'ordre n


Le symbole
a11 a12 . . . a1n a21 a22 . . . a2n

. . .

. . .

est appel dterminant d'ordre n.

an1 an2 . . . ann Pour n = 1, a signie a11 .

Pour n 2, a signie la somme des produits des lments de n'importe quelle ligne ou colonne par leurs cofacteurs respectifs c'est dire

14

Chapitre 2 : Dterminants

a11 a12 . . . a1n a21 a22 . . . a2n

. . .

. . .

ai1 Ci1 + ai2 Ci2 + . . . + ain Cin

an1 an2 . . . ann

( i = 1, 2 . . . , ou n )
= a1k C1k + a2k C2k + . . . + ank Cnk ( k = 1, 2 . . . , ou n )

ou

Le dterminant d'ordre n est alors dni en fonction de n dterminants d'ordre (n 1), chacun est son tour, dni en fonction de (n 1) dterminants d'ordre (n 2) et ainsi de suite, nalement on aboutit aux dterminants d'ordre 2.

Remarque 2.3.1. :
Les proprits 1) jusqu' 8) restent valables pour un dterminant d'ordre

n.
Pour calculer la valeur d'un dterminant, on dveloppera suivant la ligne ou colonne o il y a le plus de zros.

Exemple 2.3.1. :
1 1 1 3 1 1 3 1 1 3 1 1 3 1 1 1
1 2 L +L C1 +C2 +C3 +C4

0 1 1 3 0 1 3 1 =0 0 3 1 1 0 1 1 1

sin2 sin2 sin2 cos2 cos2 cos2 1 1 1

1 1 1 cos2 cos2 cos2 = 0 1 1 1

Remarque 2.3.2. :
1) 2) 3)

det(A + B ) = detA + detB det(AB ) = (detA)(detB ) det(A1 ) = (detA)1


o

en gnral.

A1

dsigne l'inverse de

A.

Chapitre 2 : Dterminants

15

2.4 Applications
2.4.1 Calcul de l'inverse d'une matrice carre d'ordre n
On rappelle qu'une matrice carre d'ordre n A est inversible s'il existe B d'ordre n telle que AB = BA = I o I est la matrice unit d'ordre n, c'est dire la matrice diagonale dont les lments diagonaux sont tous gaux 1. Critre : A est inversible si detA = 0. Une fois assur que A est inversible, on calcule son inverse l'aide de la 1 formule suivante : A1 = detA (adjA) o (adjA) dsigne l'adjoint classique de A c'est dire la matrice t [Cij ] o Cij dsigne la matrice des cofacteurs de A.

Exemple 2.4.1. :

2 3 4 A = 0 4 2 1 1 5
1 3 L 2L

2 3 4 detA = 0 4 2 1 1
donc

0 5 14 0 4 2 = 1 1 5

5 9

5 14 = 46 = 0, 4 2

est inversible. cofacteurs de

Dterminons les

C11 = C13 = C22 = C31 = C33 =

4 2 = 18, C12 1 5 0 4 1 1

A 0 2 = =2 1 5 3 4 1 5 = 11

= 4, C21 =

2 4 2 3 = 14, C23 = =5 1 5 1 1 3 4 2 4 = 10, C32 = = 4 4 2 0 2

A1

2 3 = 8 0 4 18 11 10 1 = 46 2 14 4 4 5 8

16

Chapitre 2 : Dterminants

2.4.2 Rsolution de systmes linaires ( Mthode de Cramer )


Un systme d'quations, AX = b, o A est une matrice carre d'ordre n, peut tre rsolu l'aide lorsque detA = 0. des dterminants,

x1 b1 . . , alors x = 1 [C b + C b + Si on pose X = . . et b = . . 1i 1 2i 2 i detA xn bn 1 `me . . . + Cni bn ] = detA detBi o Bi est la matrice obtenue en remplaant la ie colonne de A par b.

Exemple 2.4.2. :
Utiliser la mthode de Cramer pour rsoudre le systme :

x1 + 3 x3 = 2 x1 + 2x2 + 2x3 = 3 x2 + 4x3 = 5 1 0 3 detA = 1 2 2 0 1 4 x1 =


1 3
2 1 L +L

1 0 3 A = 1 2 2 0 1 4

1 0 3 0 2 5 =3 0 1 4

2 0 3 3 2 2 = 5 1 4

1 3

2 0 3 7 0 6 = 1 3 [(12 + 21)] = 3. 5 1 4
1 3

x2 =

1 3

1 2 3 1 3 2 = 0 5 4 1 0 2

1 2 3 0 5 5 = 0 5 4 1 0 2

5 3 .

x3 =

1 3

1 2 3 = 0 1 5

1 3

0 2 5 = 0 1 5

5 3.

Remarque 2.4.1. :
La mthode de Gauss pour les systmes et celle des matrices lmentaires pour le calcul de l'inverse demeurent les plus ecaces.

Chapitre 3 Espaces Vectoriels


Dans ce chapitre, K dsignera R, ou C.

3.1 Espaces vectoriels


Dnition 3.1.1. : On appelle espace vectoriel sur K ( ou K-espace vectoriel
) un ensemble non videE muni d'une loi note not (

et d'une autre loi note .,

E, +, .

), telles que :

1) Pour tout 2) Pour tout 3) Pour tout 4) Pour tout 5) Pour tout 6) Pour tout 7) 8) 9)

x, y E, x + y E. x, y E, x + y = y + x. x E, x + 0E = x. x E, x E. x, y, z E, (x + y ) + z = x + (y + z ). K, x E, x E.
et

.(.x) = ().x , K

x E.
et

( + ).x = .x + .x , K .(x + y ) = .x + .y K 1.x = x x E.


et

x E.

x, y E.

10)

Les lments de K sont dits scalaires et ceux de E vecteurs.

Exemple 3.1.1. :
1) K est un espace vectoriel sur lui mme. 2) 3) 4)

C R

est un espace vectoriel sur

R. C.
muni des lois :

n'est pas un espace vectoriel sur est un espace vectoriel sur

R[X ]

17

18

Chapitre 3 : Espaces Vectoriels

(a0 + a1 X + ... + an X n )+(b0 + b1 X + ... + bn X n ) = (a0 + b0 )+(a1 + b1 )X + ... + (an + bn )X n et (a0 + a1 X + ... + an X n ) = a0 + a1 X + ... + an X n .
5) Soit E un espace vectoriel sur K, A un ensemble quelconque non vide, et

S={
Si

applications

f : A E}. On peut dnir sur S


alors

une structure d'espace

vectoriel sur K par les lois :

f, g S

et

K,

f +g :AE a f (a) + g (a)

f : A E a f (a)

6) Soient E1 et E2 deux espaces vectoriels sur K. On dnit une structure d'espace vectoriel sur E1

E2 par : (x1 , y1 )+(x2 , y2 ) = (x1 + x2 , y1 + y2 ) et (x1 , y1 ) = (x1 , y1 ) avec K. D'une manire analogue, E1 ... En est un espace vectoriel sur K si

E1 , ...,En le sont.

Proposition 3.1.1. : Pour tout K et pour tout x E, on a :


1) 2) 3)

.0 = 0

et

0.x = 0.

x = 0 = 0 ou x = 0. ()x = (x) = x.

Preuve : 1) (0 + 0) = 0 + 0 = 0 0 = 0 et (0 + 0)x = 0x + 0x =
0x 0x = 0. 2) x = 0, si = 0 alors 1 x = 0 x = 0. 3) ( + ())x = x + ()x = 0 (x) = (x).

Dans la suite ()x sera not x et x + (y ) sera not x y .

3.2 Sous-Espaces vectoriels


Dnition 3.2.1. : Soit E un espace vectoriel et F une partie non vide de
E. On dit que F est un sous-espace vectoriel de E, si la restriction des lois

de E F fait de F un espace vectoriel.

Proposition 3.2.1. : Soit E un espace vectoriel et F E. Alors F est un


sous-espace vectoriel de E si et seulement si :

Chapitre 3 : Espaces Vectoriels


1) F 2) b)

19

= . a) x, y F x + y F.

x F, K x F.

Preuve : ) trivial. ) = 1 et y F y F d'aprs b) ; x F x y F d'aprs a) ; d'o F est un sous-groupe de E. Les autres axiomes sont vris pour tous les lments de E et donc fortiori pour les lments de F. Proposition 3.2.2. quivalente
seulement si : 1) F 2) : F est un sous-espace vectoriel de E si et

= . x, y F ; , K x + y F.

Preuve : Exercice. Exemple 3.2.1. :


1) Droite vectorielle : Soit E un espace vectoriel et soit
K; y

v E ; v = 0,

alors F

= {y E/

par

= v } v.

est un sous-espace vectoriel de E dit droite vectorielle engendre

v 

2) Soient

x1 , x2

E et F

= {y

E/1 , 2

K; y

= 1 x1 + 2 x2 }, x1
et

est un sous-espace vectoriel de E dit plan vectoriel engendr par

x2 .

x 26

x = 1 x1 + 2 x2
*

x1

20

Chapitre 3 : Espaces Vectoriels


3) polynmes

Rn [X ] = { toriel de R[X ].
4) Soit F de

P R[X ]; degP n}

est un sous-espace vec-

= {(x, y, z ) R3 /2x + y + 3z = 0}

est un sous-espace vectoriel

R3 .

Proposition 3.2.3. : Soient F et G deus sous-espaces vectoriels de E.


1) F 2) F

G G

est un sous-espace vectoriel de E. n'est pas en gnral un sous-espace vectoriel de E.

3) Le complment (E F) d'un sous-espace vectoriel F n'est pas un sousespace vectoriel de E.

Preuve : 1) F G = car 0 F G. x, y F G et , K (x, y F, , K) et (x, y G, , K) x + y F G. 2) On prend F G et G F, il existe donc x F ; x / G et y G ; y / F ; on a donc x, y F G. Si F G est un sous-espace vectoriel alors x + y F G ; c..d x + y F ou x + y G. Si x + y F, alors (x + y ) x F y F ; contradiction. Si x + y G, alors (x + y ) y G x G ; contradiction. 3) Le complment (E F) ne contient pas 0, donc n'est pas un sous-espace
vectoriel.

3.3 Famille Gnratrice


Dnition 3.3.1. : Une famille de vecteurs {v1, ...vp} d'un espace vectoriel
E est dite gnratrice si :

on dit que tout

xE

x E, 1 , ..., p K tel que x = 1 v1 +...+p vp , est combinaison linaire des vecteurs vi .

Remarque 3.3.1. : Une telle famille ( nie ) n'existe pas toujours. Considrons

R[X ]

et

{P1 , ..., Pp }

une famille nie de polynmes, elle ne peut pas

tre gnratrice, car par combinaisons linaires, on n'obtiendra que des polynmes de degrSup(deg Par contre pour trice.

Pi ).
la famille

Rn [X ],

{1, X, ..., X n }

est une famille gnra-

Chapitre 3 : Espaces Vectoriels

21

Exemple 3.3.1. :
1) Dans 2) Dans 3) Dans 4) Dans

R2 , {(1, 0); (0, 1)}

est une famille gnratrice.

R2 , {(1, 0); (0, 1); (1, 2)} est une famille gnratrice. R2 , {(1, 1); (1, 1)} est une famille gnratrice. Rn , {(1, 0, ..., 0); ...; (0, ..., 0, 1)} est une famille gnratrice.

Dnition 3.3.2. : Un espace vectoriel est dit de dimension nie, s'il existe
une famille gnratrice nie, dans le cas contraire, on dit qu'il est de dimension innie.

Exemple 3.3.2. :
1) 2)

Rn

et

Rn [X ]

sont de dimension nie.

R[X ]

est de dimension innie.

3) L'ensemble des combinaisons linaires des vecteurs ou

v1 , ..., vp not {v1 , ..., vp }

v1 , ..., vp

est un sous-espace vectoriel de E de dimension nie.

3.4 Dpendance et Indpendance Linaires - Bases


Dnition 3.4.1. : Soit v1, ..., vp
qu'elle est libre si : On dit aussi une famille nie d'lments de E. On dit

1 v1 + ... + p vp = 0 1 = ... = p = 0. que les vecteurs v1 , ..., vp sont linairement indpendants.

Une famille qui n'est pas libre, est dite lie ( on dit aussi que ses vecteurs sont lis ou linairement dpendants ).

Exemple 3.4.1. :
R3 , les vecteurs v1 = (1, 2, 1) ; v2 = (1, 3, 1) et v3 = (1, 13, 5) sont lis car 2v1 + 3v2 v3 = 0. 3 2) Dans R , les vecteurs v1 = (1, 1, 1) ; v2 = (0, 2, 1) et v3 = (0, 0, 5)
1) Dans sont linairement indpendants.

Proposition 3.4.1. : Une famille {v1, ..., vp} est lie si et seulement si l'un
au moins des vecteurs teurs de la famille.

vi

s'crit comme combinaison linaire des autres vec-

Preuve : ) 1, ..., p non tous nuls tels que 1v1 + ... + pvp = 0, si
i = 0, alors 1 vi = i v1 + ... +
i1 i vi1

i+1 i vi+1 ...

p i vp

22

Chapitre 3 : Espaces Vectoriels

) vi tel que vi = 1 v1 + ... + i1 vi1 + i+1 vi+1 + ... + p vp c..d 1 v1 + ... + i1 vi1 vi + i+1 vi+1 + ... + p vp = 0.

Proposition 3.4.2. : Soit {v1, ..., vp} une famille libre et x un vecteur quelconque de l'espace engendr par les

vi

( c..d

est combinaison linaire des

vi

), alors la dcomposition de

sur les

vi

est unique.

Preuve : x = 1v1 + ... + pvp = 1v1 + ... + pvp (1 1)v1 + ... +


(p p )vp = 0 i = i i = 1, ..., p.

Dnition 3.4.2. : On appelle base une famille la fois libre et gnratrice. Proposition 3.4.3. : Soit {v1, ..., vn} une base de E. Tout x E se dcompose d'une faon unique sur les n

vi ,

c..d

x E !(1 , ..., n ) Kn

tel que

x=
i=1

i vi .

Preuve : Proposition prcdente. Proposition 3.4.4.


une bijection : : Soit

B = {v1 , ..., vn }
n K

une base de E. Il existe alors

B :

x=

xi vi (x1 , ..., xn ) x
dans la base

i=1 Les scalaires xi sont dits composantes de

B = {v1 , ..., vn }.

Exemple 3.4.2. :
`me rang ke

{ek = (0, ..., 1 , 0...0)/k = 1, ..., n}. n 2) Base canonique de Rn [X ], {1, X, ..., X }. 3 3) Soit F = {(x, y, z ) R /2x + y + 3z = 0}. F est un sous-espace 3 vectoriel de R . v = (x, y, z ) F y = 2x 3z donc v F v = (x, 2x 3z, z ) = x(1, 2, 0) + z (0, 3, 1), donc (1, 2, 0) et (0, 3, 1) engendrent F.
On a On vrie qu'ils forment une famille libre, donc c'est une base de F.

n 1) Base canonique de K ,

Proposition 3.4.5. : 1) {x} est une famille libre x = 0.


2) Toute famille contenant une famille gnratrice est une famille gnratrice.

Chapitre 3 : Espaces Vectoriels


3) Toute sous-famille d'une famille libre est libre. 4) Toute famille contenant une famille lie est lie. 5) Toute famille

23

{v1 , ..., vn }

dont l'un des vecteur

vi

est nul, est lie.

Preuve : 1) ) Si x = 0 alors x = 0 pour tout d'o {x} est lie.


) x = 0 = 0 car x = 0.

2) Soit {v1 , ..., vp } une famille gnratrice et {v1 , ..., vp , w1 , ..., wq } une
i=p i=p

sur-famille. Alors x E, x =
i=1

i vi =
i=1

i vi + 0w1 + ... + 0wq .

3) Soit F = {v1 , ..., vp } une famille libre et F une sous-famille de F , quitte changer la numrotation F = {v1 , ..., vk } avec k p. Si F est lie, l'un des vi serait combinaison linaire des autres. 4) Soit F = {v1 , ..., vp } et G = {v1 , ..., vp , w1 , ..., wq }, l'un des vecteurs vi est combinaison linaires des autres vecteurs de F , d'o de G , d'o G est lie. 5) {0} tant lie, toute sur-famille est lie.

3.5

Existence de Bases ( en dimension nie )


Dans un espace vectoriel E

Thorme 3.5.1. :

= {0}

de dimension nie,

il existe toujours des bases.

Preuve : Soit G = {v1, ..., vp} une famille gnratrice. Pour tout x E, il existe 1 , ..., p K tels que x = 1 v1 + ... + p vp . a) Si tous les vi taient nuls E = {0} ce qui est exclu. Quitte changer
de numrotation on peut supposer v1 = 0. b) L1 = {v1 } est une famille libre, si elle tait gnratrice, stop. c) Supposons L1 non gnratrice. Montrons qu'il existe v {v2 , ..., vp } tel que {v1 , v } soit libre. Supposons le contraire ; c..d v1 est li chacun des vi , i = 2, ..., p, d'o 2 , ..., p ; v2 = 2 v1 , v3 = 3 v1 ,..., vp = p v1 , alors

24
i=p

Chapitre 3 : Espaces Vectoriels

x =
i=1

i vi
i=p

= 1 v1 +
i=2 i=p

i i v1 i i )v1

= ( 1 +
i=2

ce qui entrane {v1 } gnratrice de E, faux. La famille L2 = {v1 , v } est donc libre, en changeant ventuellement de notation, on peut supposer v = v2 . d) Si L2 = {v1 , v2 } est gnratrice, stop. Supposons le contraire. En rptant le mme raisonnement que prcedemment, on voit qu'il existe v {v3 , ..., vp } tel que la famille L3 = {v1 , v2 , v } est libre. On construit ainsi une suite :

L1

L2

L3

... G

de famille libres et le processus peut tre continu tant que Lk n'est pas gnratrice. Mais G est une famille nie et par consquent le processus doit s'arrter, ventuellement pour Lk = G . Il existe donc une famille Lk libre et gnratrice. Cette dmonstration nous permet d'obtenir une autre version du thorme prcdent.

Thorme 3.5.2.
alors :

: Soit E

= {0}

un espace vectoriel de dimension nie,

1) De toute famille gnratrice on peut extraire une base. 2) ( Thorme de la base incomplte ). Toute famille libre peut tre complte de manire former une base.

3.6

Les Thormes Fondamentaux sur la Dimension


n
lments est lie.

Thorme 3.6.1. : Dans un espace vectoriel engendr par n lments, toute


famille de plus de

Preuve : Soit F = {v1, ..., vn} une famille gnratrice et F = {w1, ..., wm}
une famille de vecteurs ( m > n ). Montrons que F est lie.

Chapitre 3 : Espaces Vectoriels

25

1) Si l'un des wi = 0, F est lie. Stop. 2) Supposons tous les wi non nuls, w1 = 1 v1 + ... + n vn , w1 = 0 i = 0, quitte changer la numrotation, supposons 1 = 0 d'o v1 = 2 n 1 1 w1 ( 1 v2 + ... + 1 vn ). Pour x E, x = 1 v1 + ... + n vn , en remplaant v1 par son expression, on constate que x est combinaison linaire de w1 , v2 ,...,vn , d'o {w1 , v2 , ..., vn } est gnratrice. Considrons w2 , w2 = 1 w1 + 2 v2 + ... + n vn . Si 2 = 3 = ... = n = 0, alors w2 = 1 w1 . D'o F lie. Stop. Supposons que l'un des i = 0, pour xer les ides disons 2 , on aura 1 1 v2 = w2 (1 w1 + 3 v3 + ... + n vn ). 2 2 En raisonnant comme ci-dessus, on voit que {w1 , w2 , v3 , ..., vn } est gnratrice. Ainsi de proche en proche, on arrive remplacer v1 ,...,vn par w1 ,...,wn et {w1 , w2 , ..., wn } serait gnratrice. En particulier, wn+1 serait combinaison linaire de w1 ,...,wn et donc F serait lie.

Thorme 3.6.2. :

Dans un espace vectoriel E sur K de dimension nie,

toutes les bases ont mme nombre d'lments, ce nombre entier est appel dimension de E sur K et est not

dimK E.

Preuve : Soient B et B deux bases. Si B avait plus d'lments que B


elle ne serait pas libre car B est gnratrice.

Corollaire 3.6.1.
famille de plus de

: Dans un espace vectoriel de dimension nie lments est lie, et une famille de moins de

n,

toute

lments

ne peut tre gnratrice.

`me Preuve : Pour le 2e point, si la famille tait gnratrice, on pourrait

en extraire d'aprs un thorme du paragraphe 5, une base qui aurait moins de n lments.

Exemple 3.6.1. :
1) Si E 2) 3)

= {0},

on pose

dimK E = 0,

et E

= {0} dimK E = 0.

dimK Kn = n. dimR Rn [X ] = n + 1.

26

Chapitre 3 : Espaces Vectoriels


5) La dimension d'un espace vectoriel dpend non seulement de E mais

aussi de K,

dimR C = 2

et

dimC C = 1.
des espaces vectoriels de dimension

Proposition 3.6.1. : Soient E1,..., Ep


nie sur le mme corps K, alors

dimK (E1 ...Ep ) = dimK E1 +...+dimK Ep


1 2 p

Preuve : Soient {a1, ..., an }, {b1, ..., bn },..., {l1, ..., ln } des bases de E1,..., Ep
respectivement. La famille {(ai , 0, ..., 0)i=1,...,n1 , (0, bi , 0, ..., 0)i=1,...,n2 , ..., (0, 0, ..., 0, li )i=1,...,np } est une base de E1 ... Ep .

Exemple 3.6.2. :
dimR Cn = 2n
et

dimC Cn = n.

Thorme 3.6.3. : Soit E un espace vectoriel de dimension nie n. Alors


1) Toute famille gnratrice de 2) Toute famille libre de

lments est une base.

lments est une base.

Preuve : 1) De cette famille, on peut extraire une base, elle doit avoir n
lments, donc c'est elle mme. 2) Cette famille peut tre complte pour former une base qui doit avoir n lments, donc c'est elle mme.

Thorme 3.6.4.
1) 2)

: Soit E un espace vectoriel de dimension nie et F un

sous-espace vectoriel de E. Alors

dimK F dimK E. dimK F = dimK E E = F.


K

Preuve : On pose dim E = n. 1) a) Si dim F = 0 on a dim F n. b) Si dim F = 0, alors F = {0} et donc F admet une base, B, qui est une partie libre de F donc de E cardinalB n d'aprs Corollaire 3.6.1.
K K K

2) ) Trivial. ) Il existe une base B de F ayant n lments, elle est donc libre dans F et par suite dans E, elle est donc base de E ; thorme 2.6.3, donc famille gnratrice de E, donc E = F.

Chapitre 3 : Espaces Vectoriels

27

3.7 Somme, Somme directe, Sous-Espaces Supplmentaires


Dnition 3.7.1. : Soient E1, E2
E1

deux sous-espaces vectoriels d'un espace

vectoriel E. On appelle somme de E1 et E2 le sous-espace de E dni par :

+ E2 = {x E/x1 E1 , x2 E2 ; x = x1 + x2 }.

E1 + E2 est un sous-espace vectoriel de E, en eet E1, E2 E1 + E2 donc E1 + E2 = . , K et x, y E1 + E2 x1 E1 , x2 E2 et y1 E1 , y2 E2 ; x = x1 + x2 et y = y1 + y2 d'o x + y = x1 + y1 + x2 + y2 E1 + E2 .


E1 E2

Proposition 3.7.1. : Soient E1

et E2 deux sous-espaces vectoriels de E et en somme d'un lment

G = E1 + E2 . La dcomposition de tout lment de G


On crit alors

de E1 et d'un lment de E2 est unique si et seulement si E1

E2 = {0}.

G = E1

E2 , et on dit que

est somme directe de E1 et E2 .

Preuve : ) Soit x E1 E2 x = x + 0 = 0 + x d'o la non unicit. ) Supposons x = x1 + x2 = y1 + y2 x1 y1 = y2 x2 E1 E2


x1 = y1 et x2 = y2 .

Dnition 3.7.2. : Soit E un espace vectoriel et E1, E2


supplmentaire de E1 ) si E

deux sous-espaces

vectoriels de E. On dit que E1 et E2 sont supplmentaires ( ou que E2 est un

= E1

E2 , c..d E

= E1 + E2 B1

et E1 E2

= {0}. B2

Proposition 3.7.2. :
E

Soit E un espace vectoriel de dimension nie. Alors de E1 et toute base

E1

E2 si et seulement si pour toute base

de E2 ,

B1 B2

est une base de E.

Preuve : ) Soit B1 = {v1, ..., vp}, B2 = {vp+1, ..., vq } des bases de E1 et E2 , respectivement. Alors tout x E s'crit de manire unique sous la
forme x = 1 v1 + ... + p vp + 1 vp+1 + ... + qp vq B1 B2 est une base de E.
)
p q p

x=
i=1

i vi +
j =1 E1

j vp+j E1 + E2
E2

28

Chapitre 3 : Espaces Vectoriels

la dcomposition tant unique suivant les bases de E1 et E2 E1 E2 = {0}.

Corollaire 3.7.1. : Soit E un espace vectoriel. Pour tout sous-espace vectoriel E1 , il existe toujours un supplmentaire ; le supplmentaire de E1 n'est pas unique, mais si E est de dimension nie, tous les supplmentaires de E1 ont mme dimension.

Preuve : On expose la dmonstration en dimension nie. Soit {v1 , ..., vp } une base de E1 et soit n = dim E, d'aprs le thorme de
K

la base incomplte, il existe wp+1 , ..., wn tels que {v1 , ..., vp , wp+1 , ..., wn } soit une base de E. En posant E2 = {wp+1 , ..., wn }, le sous-espace de E engendr par {wp+1 , ..., wn }, on obtient un supplmentaire de E1 dans E. Puisque le choix des wi n'est pas unique, le supplmentaire de E1 n'est pas unique ; cependant tous les supplmentaires de E1 ont une dimension gale n p, p tant la dimension de E1 .

Thorme 3.7.1.
E

: Soit E un espace vectoriel de dimension nie. Alors

= E1
1)E1 2)

E2 si et seulement si :

E2 = {0}.

dimK E = dimK E1 + dimK E2 .

Preuve : ) D'aprs la proposition 2.7.2. ) Soit {v1 , ..., vp } une base de E1 et {wp+1 , ..., wn } une base de E2 , n tant la dimension de E. Montrons que l'union des bases est libre :
1 v1 + ... + p vp + p+1 wp+1 + ... + n wn = 0 1 v1 + ... + p vp = (p+1 wp+1 + ... + n wn ) 1 v1 + ... + p vp = 0 et p+1 wp+1 + ... + n wn = 0 p+j = i = 0 i = 1, ..., p et j = 1, ..., n p, d'aprs la proposition prcedente E = E1 E2 .
E2 E1

Exemple 3.7.1. :
1) Dans pendants.

R2 ,

E1

= {v }

et E2

= {w}

et

sont deux vecteurs ind-

Chapitre 3 : Espaces Vectoriels

29

E2

x
@ @ x 2 I @ @

x 1 * v @ @ @ @

E1

2) Dans si

R3 ,

soit

un plan vectoriel et

{e1 , e2 }

est une base de

alors

v . On a R3 = {e1 , e2 , v } est une base de R3 . x x2


3      v      -

{v }

car

{v }

x1

3) E et E

= Rn [X ],

E1

= R,

E2

= {XP (X )/P Rn1 [X ]},


E2 .

E1

E2 = {0}

= E1 + E2

d'o E

= E1

Proposition 3.7.3.

: Soit E un espace vectoriel de dimension nie et E1

, E2 deux sous-espaces vectoriels de E. On a

dim(E1 +

E2 )

= dimE1 +

dimE2 dim(E1 E2 ). En particulier dim(E1 E2 ) = dimE1 + dimE2 .

Preuve : Posons dimE1 = p, dimE2 = q et dim(E1 E2) = r (r p, q). Considrons {a1 , ..., ar } une base de E1 E2 qu'on complte pour obtenir {a1 , ..., ar , br+1 , ..., bp } une base de E1 , {a1 , ..., ar , er+1 , ..., eq } une base de E2 . Tout vecteur de E1 + E2 s'crit en fonction des ai , bj et ek , 1 i r, E1 + E2. Elle est aussi libre car :
=xE1 E2

r + 1 j p et r + 1 k q , qui forment alors une famille gnratrice de

(1 a1 + ... + r ar ) + (r+1 br+1 + ... + p bp ) + (r+1 er+1 + ... + q eq ) = 0


=y E1 =z E2

30

Chapitre 3 : Espaces Vectoriels

On a x + y + z = 0 z
E2

= (x + y ) z
E1

E1 E2 z s'ex-

prime en fonction des ai d'o r+1 er+1 + ... + q eq = 1 a1 + ... + r ar mais {a1 , ..., ar , er+1 , ..., eq } est une base de E2 d'o r+1 = ... = q = 0 = 1 = ... = r et on a alors z = 0 x = y , on en dduit aussi que r+1 = ... = p = 0 = 1 = ... = r , d'o la famille est libre, d'o base de E1 + E2 . On en dduit
dim(E1 + E2 ) = r + (p r) + (q r) = p+qr = dimE1 + dimE2 dim(E1 E2 ).

Chapitre 4 Les Applications Linaires


4.1 Applications Linaires
Dnition 4.1.1.
1) 2) : Soient E et E' deux espaces vectoriels surK et

une

application de E dans E'. On dit que

est linaire, si :

f (u + v ) = f (u) + f (v ) u, v E. f (v ) = f (v ) v E, K.

L'ensemble des applications linaires de E dans E' est not L(E, E ).

Remarque 4.1.1. : f (0) = 0 car (homomorphisme de groupes). Dnition 4.1.2. : Une application linaire de E dans E est appele endomorphisme.

Exemple 4.1.1. :
1)

: idE :

E v 0
E E

est linaire dite application nulle.

2)

E v v

est linaire dite application identique de E.

3)

uE : E E K v v

est linaire dite homothtie de rapport

D : R[X ] R[X ] est linaire dite drivation. P DP = P 5) Soit E = E1 E2 . Pr1 : E E1 est linaire dite projection x = x1 + x2 x1 sur E1 paralllement E2 .
4)

31

32
6) Soit

ChapitreChapitre 4 : Les Applications Linaires

v0 = 0 un : E E

vecteur de E application non linaire car dite translation.

(0) = v0 = 0,

v v + v0

4.2 Image et Noyau


Proposition 4.2.1. : Soit f L(E, E ) et F un sous-espace vectoriel de E.
Alors

f (F)

est un sous-espace vectoriel de E'.

En particulier not

f (E)

est un sous-espace vectoriel de E' appel image de

et

Imf .

Sa dimension est appele rang de

f.

Preuve : On sait que f (F) est un sous-groupe de E', il sut donc de


vrier la stabilit pour l'opration externe. Soit K et f (v ) f (F), f (v ) = f (v ) f (F).

Proposition 4.2.2. : Soit f L(E, E ), Kerf = {x E/f (x) = 0} est un


sous-espace vectoriel de E, appel noyau de

f.

Preuve : Il sut de vrier la stabilit pour l'opration externe. Soit K et x Kerf , f (x) = f (x) = 0 = 0 x Kerf . Proposition 4.2.3. : f Exemple 4.2.1. :
1) Soit E est injective

Kerf = {0}.

= E1 E2 , ImPr1 = E1 , KerPr2 = E2 2) D : R[X ] R[X ]

P DP = P KerD = R, ImD = R[X ]. 3) f : R3 R2 (x, y, z ) (2x + y, y z ) Kerf = {(x, y, z )/y = 2x et z = y } = {(x, 2x, 2x)/x R}
torielle engendre par

droite vec-

(1, 2, 2). Imf = {(x , y )/x, y, z ; x = 2x + y et y = y z } . 1 = (x , y )/y = y + z et x = 2 (x y z ) 1 1 2 Posons z = 0 donc y = y et x = (x y ). D'o (x , y ) R ( (x 2 2 y ), y , 0) R3 ; f (( 1 2 (x y ), y , 0)) = (x , y ) 2 suite Imf = R .
donc

est surjective, et par

ChapitreChapitre 4 : Les Applications Linaires

33

Proposition 4.2.4. : Soit f L(E, E ) et {vi}1in une famille de vecteurs


de E. 1) Si

est injective et la famille

{vi }1in est libre dans E, alors la famille


est gnratrice de E, alors la

{f (vi )}1in est libre dans E'. 2) Si f est surjective et la famille {vi }1in famille {f (vi )}1in est gnratrice de E'.
En particulier si
E'.

est bijective, l'image d'une base de E est une base de

i=n

Preuve : 1) Comme f est une application linaire injective, alors on a :


i f (vi ) = 0
i=n

i=1

= f (
i=1 i=n

i vi ) = 0 i vi = 0

( f application linaire )

=
i=1

= i = 0 i = 1, ..., n {vi }1in libre

2) x E, i K ; x =

i=n

i vi .
i=1 i=n i=n

Soit y E , x E ; y = f (x) = f (

i vi ) ( surj ) d'o y =
i=1 i=1

i f (vi ).

Thorme 4.2.1.

: Deux espaces vectoriels de dimension nie sont iso-

morphes, si et seulement si, ils ont mme dimension.

Preuve : ) f : E E isomorphisme, d'aprs la proposition prcdente l'image d'une base de E est une base de E', donc E et E' ont mme dimension. ) Supposons dimE = dimE , soit {e1 , ..., en } une base de E et {e1 , ..., en } une base de E'. Considrons l'application f : E E
ek ek
i=n i=n i=n

Pour x =
i=1

i ei , on pose f (x) = f (
i=1

i ei ) =
i=1

i ei , on vrie que

f est linaire bijective.

Corollaire 4.2.1. : E espace vectoriel de dimension nie sur K.

34
E est isomorphe K

ChapitreChapitre 4 : Les Applications Linaires


n

dimK E = n.

Thorme 4.2.2. ( Thorme de la dimension ) : Soient E et E' deux espaces vectoriels de dimension nie et

f L(E, E ), alors dimE = dim(Kerf )+

dim(Imf ).

Preuve : Supposons dimE = n, dim(Kerf ) = r et montrons que


dim(Imf ) = n r.

Soit {w1 , ..., wr } une base de Kerf , compltons la pour obtenir une base de E en l'occurrence {w1 , ..., wr , v1 , ..., vnr }. Montrons que B = {f (v1 ), ..., f (vnr )} est une base de Imf . 1) B engendre Imf , en eet :
r nr n r

f (x) = f (
i=1 n r

i w i +
i=1

i vi ) =
i=1

i f (vi ).

b) B est libre :
i f (vi ) = 0
nr

i=1

= f (
i=1 n r

i vi ) = 0 i vi Kerf

(f application linaire)

=
i=1 n r

=
i=1 n r

i vi =
i=1 r

i w i i wi = 0
i=1

=
i=1

i vi

= i = 0, i = 1, ..., n r; i = 0, i = 0, ..., r

Corollaire 4.2.2. : Soit f L(E, E ), E et E' tant deux espaces vectoriels


de mme dimension nie, alors les proprits suivantes sont quivalentes : 1) 2) 3)

f f f

est injective. est surjective. est bijective.

Preuve : dimE = dim(Kerf ) + dim(Imf ). Il sut de montrer 1)


2).

ChapitreChapitre 4 : Les Applications Linaires

35

f injective Kerf = {0} dimE = dim(Imf ) dimE = dim(Imf ) E = Imf f est surjective.

Remarque 4.2.1. : 1) Ce rsultat est faux en dimension innie.


En eet :

D : R[X ] R[X ] P DP = P f
2) Une application linaire

est surjective, non injective.

est parfaitement dnie si on connat l'image n

des vecteurs d'une base, car d'aprs la linarit de

on a

f (x) = f (
i=1

xi ei ) = x.

xi f (ei ),
i=1

donc si on connat

f (e1 ),..., f (en ), f

est connue en tout

4.3 Matrices Associes aux Applications Linaires


Soient E et E' deux espaces vectoriels sur K, de dimension nie n et p respectivement, et f : E E une application linaire. Choisissons {e1 , ..., en } une base de E et e1 , ..., ep une base de E'. Les images par f des vecteurs {e1 , ..., en } se dcomposent sur la base e1 , ..., ep :
f (e1 ) = a11 e1 + a21 e2 + ... + ap1 ep f (e2 ) = a12 e1 + a22 e2 + ... + ap2 ep =

. . .

= f (en ) = a1n e1 + a2n e2 + ... + apn ep

Dnition 4.3.1.
e1 , ..., ep e1 , ..., ep

: On appelle matrice de

, la matrice note par

les colonnes sont les composantes :

{e1 , ..., en } et M (f )ei ,ej appartenant Mp,n (K) dont des vecteurs f (e1 ), ..., f (en ) dans la base f
dans les bases

f (e1 ) f (e2 ) . . . . . f (en )

36

ChapitreChapitre 4 : Les Applications Linaires

a11

M (f )ei ,ej

. . . = . . ap 1

Il est clair que la


E'.

e1 . e2 . . . . . . . ep1 ep ap2 . . . . . apn matrice associe f dpend

a12

. . . . . a1n

du choix des bases de E et

Exemple 4.3.1. :
1) Soit E un espace vectoriel de dimension

et

idE :

x x {ei } de E. 1 0 . . ... 0 0 1 0 . ... 0 . 0 1 0 ... 0 M (idE )ei = = In . . .. . . . . . . . 0 0 0 . ... 0 1


On considre une base

matrice unit de

Mn (K).

2) Soit E

R2 R2 (x, y ) (x, 0) 2 Considrons la base canonique {e1 , e2 } de R on a P r1 (e1 ) = e1 , P r1 (e2 ) =


et

= R2

P r1 :

0. M (P r1 )ei =
3) Soit de

1 0 0 0 {e1 , e2 , e3 } la

base canonique de linaire :

R3

et

{e1 , e2 }

la base canonique

R2 . Considrons l'application f : R3 R2 1 1 0 0 1 1

(x, y, z ) (x y, z y ) M (f )ei ,ej =

4) On considre la forme linaire sur

Rn

f : Rn R (x1 , ..., xn ) a1 x1 + a2 x2 + ... + an xn

ChapitreChapitre 4 : Les Applications Linaires


En munissant on obtient 5)

37

Rn et R de leurs bases M (f )ei ,1 = a1 a2 . . . an

canoniques respectives

{ei }

et

{1}

et

D : R4 [X ] R3 [X ] P DP = P 0 1 0 0 0 0 0 2 0 0 M (D) = 0 0 0 3 0 par 0 0 0 0 4 R3 [X ].

rapport aux bases canoniques de

R4 [X ]

Proposition 4.3.1.
mension

: Soient E et E' deux espaces vectoriels sur K de di-

et

respectivement,

{ei }

et

{ej }

des bases de E et E'. Alors

l'application :

M : L(E, E ) Mp,n (K) f M (f )ei ,ej


est un isomorphisme d'espaces vectoriels c'est dire :

M (f + g ) = M (f ) + M (g ), M (f ) = M (f ) particulier dimL(E, E ) = np.

et

est bijective, en

Preuve :
(f + g )(e1 ) . . . . . . . . . = . . . . . . . . . = . . . . . . . . . . . . . . . (f + g )(en ) g (e ) 1 + . . . g (en ) . . . . . . . . . . . . . . .

M (f + g )ei ,ej

f (e1 ) . . . f (en )

De mme

= M (f )ei ,ej + M (g )ei ,ej

38

ChapitreChapitre 4 : Les Applications Linaires

M (f )ei ,ej

donc M est linaire. Soit f KerM = M (f )ei ,ej = 0 = f (e1 ) = f (e2 ) = ... = f (en ) = 0, donc si x E x =
i=n i=n

(f )(e1 ) . . . (f )(en ) . . . . . . = M (f )e ,e = . . . i j . . . . . .

i ei , f (x) =
i=1 i=1

i f (ei ) = 0, d'o f = 0, donc M est

injective. Elle car si est aussi surjective,


a11 a12 ... a1n A= a21

. . .

... On considre f en posant : f (e1 ) = a11 e1 + ... + ap1 ep

ap 1

a2n . . . Mp,n (K) apn

. . .

f (en ) = a1n e1 + ... + apn ep . Pour x E ; x = 1 e1 + ... + n en , on pose f (x) = 1 f (e1 ) + ... + n f (en ). On vrie que f est linaire et M (f )ei ,ej = A.

4.4 Matrice d'un Vecteur. Calcul de l'Image d'un Vecteur


Dnition 4.4.1. : Soit E un espace vectoriel de dimension n, {e1, e2, ..., en}
i=n
une base de E et la base

x=
i=1

xi ei

un vecteur de E. On appelle matrice de

x dans

{ei }

M (x)ei =

x1
. . .

xn

ChapitreChapitre 4 : Les Applications Linaires

39

Proposition 4.4.1.

: Soit

deux bases de E et E'

f L(E, E ), {e1 , e2 , ..., en } et e1 , e2 , ..., ep respectivement, pour tout x E, on a :

M (f (x))ej = M (f )ei ,ej M (x)ei . a11 a12 ... a21 . . = . ap1 ... a1n a2 n . . . apn

Preuve : Soit M (f )e ,e
i

d'o f (ej ) = On a
k =1

akj ek .

j =n

j =n

j =n

f (x) = f (
j =1 p

xj ej ) =
j =1 n

xj f (ej ) =
j =1 p

xj
k =1

akj ek

=
k =1

(
j =1

xj akj ) ek =
k =1 yk

yk ek

. . donc M (f (x))ej = . . D'autre part


yp a1n a2n . . . apn . . . = xn x1
n

y1

a11 a12 ... a21 . . M (f )ei ,ej M (x)ei = . ap1 ...

a1j xj j =1 . . . n apj xj
j =1

d'o le rsultat.

Exemple 4.4.1. :
Soit le plan rapport sa base canonique. Dterminer l'image du vecteur

x = (3, 2)
On a

par rotation de centre O et d'angle

6.

40

ChapitreChapitre 4 : Les Applications Linaires

M (f (x)) = M (f )M (x) = = =
cos 6 sin 6 sin cos 6 6 3 1 2 2 3 1 2 2 3 32 2 2 3+3 2

3 2 .

3 2

4.5 Matrice de l'Inverse d'une Application


Proposition 4.5.1. : Soient E, E', E trois espaces vectoriels sur K, {e1, ..., en},
e1 , ..., ep , e1 , ..., eq des bases de E, E' et E respectivement. L(E, E ) et f L(E , E ), on a M (f og )ei ,ek = M (f )ej ,ek M (g )ei ,ej .
Si

Preuve : Soit x E arbitraire. En utilisant la proposition du paragraphe


2, on a : M (f og )M (x) = M (f (g (x))) = M (f )M (g (x)) = M (f )M (g )M (x). Puisque x est arbitraire, M (f og ) = M (f )M (g ).

Proposition 4.5.2. : f L(E, E ) est bijective si et seulement si M (f )e ,e


i

est inversible. De plus

1 M (f 1 )ei ,ej = M (f ) ei ,e
E

Preuve : f 1of = id , d'o


M (f of )ei ,ei = M (idE ) = I = M (f 1 )M (f ) = I = M (f 1 ) = M (f )1 .
1

4.6 Changement de Bases


Dnition 4.6.1. : On appelle matrice de passage de la base {ei} la base
{ei }
du mme espace vectoriel E, la matrice

Pe i e i
:

dont les colonnes sont

les composantes des vecteurs

Pe i e i =

p11 . . . p1n
. . .

e i

dans la base

{ei }

...

. . .

= M (idE )ei ,ei .

pn1 . . . pnn

ChapitreChapitre 4 : Les Applications Linaires

41

Remarque 4.6.1. : Une matrice de passage est toujours inversible et on a


(Pei ei )1 = Pei ei .

Proposition 4.6.1. : Soient x E, {ei} et {ei} deux bases de E, P = Pe e


i

et

X = M (x)ei , X = M (x)ei ,
E

on a

X =P
i

X.
E

Preuve : P X = M (id )e ,e M (x)e = M (id (x))e = M (x)e = X .


i i i i

Exemple 4.6.1. :
Soit

R2

muni de deux bases, la base canonique

{e1 , e2 }

et la base

{e1 , e2 }

dnie par :

e1 = 2e1 + e2 , e2 = 3e1 + 2e2


Soit

x = 2e1 + 3e2 , calculons les composantes de x dans la base {e1 , e2 }. 2 3 2 3 2 3 2 1 , P = , X = = P = 1 2 1 2 1 2 3

5 4 x = 5e1 + 4e2 .

Proposition 4.6.2.
bases de E et

: Soient

f L(E, E ), {e1 , ..., en }, {1 , ..., n }

deux

e1 , ..., ep , 1 , ..., p deux bases de E'. Notons A = M (f )ei ,e , A = M (f ) i , , P = Pei i , Q = Pe . j j j j 1 On a alors A = Q AP .

Preuve : f E(e ) E(e )


i j

idE
f
i
E

idE
j
E' E E'

On a f oid = id of d'o M (f oid ) = M (id of ), c'est dire


M (f )i ,j M (idE )ei ,i = M (idE' )ej ,j M (f )ei ,ej ,

E( ) E( )

c'est dire A P 1 = Q1 A donc A = Q1 AP .

Corollaire 4.6.1. :
de E. Notons On a

Soient

f L(E)

et

{e1 , ..., en }, {e1 , ..., en }

deux bases

A = M (f )ei , A = M (f )ei 1 alors A = P AP .

et

P = Pe i e i .

42

ChapitreChapitre 4 : Les Applications Linaires


: Deux matrices

Dnition 4.6.2.
A = P 1 AP .

A, A Mn (K)

sont dites semblables

s'il existe une matrice

P Mn (K)

inversible telle que :

Exemple 4.6.2. :
Soit

un endomorphisme de

R2

qui dans la base canonique

{ei }

est re-

prsent par la matrice :

A = M (f )ei = A
qui

Dterminons la matrice

3 1 . 0 2 reprsente f dans la

base

e1 = (0, 1)

et

e2 = (1, 1). A = P 1 AP =
On a

1 1 1 0 3 3 3 1 3 0 1 2

3 1 0 2 0 1 1 1

0 1 1 1
.

= =

4.7 Rang d'une Matrice


Dnition 4.7.1. : Soit {v1, ..., vn} une famille de vecteurs, on appelle rang
de la famille, la dimension de l'espace engendr par les vecteurs Soit de

vi .

A Mp,n (K), A = (c1 , ..., cn ) o l'on a not ci A (ci Kp ). On appelle rang de A le rang de la A.
: Soit

les vecteurs colonnes famille des vecteurs

colonnes de

Proposition 4.7.1.
On a alors

f L(E, E').

Soient

{e1 , ..., en }

et

e1 , ..., ep

deux bases quelconques de E et E' respectivement et

A = M (f )ei ,ej = (aij ).

rangf = rangA.

Ainsi deux matrices qui reprsentent la mme application linaire dans des bases direntes ont mme rang ; en particulier deux matrices semblables ont mme rang.

Preuve : On considre le diagramme suivant :

ChapitreChapitre 4 : Les Applications Linaires


h Kn Kp

43

u
f
i

v
j

h = v 1 of ou

( resp Kp ) i ( resp j ) le vecteur ei ( resp ej ), alors l'application h a prcisment A comme matrice dans les deux bases canoniques car h(i ) = v 1 of ou(i ) = v 1 of (ei ) = v 1 ( aij ej ) = aji j . Donc rangA = rangh et d'aprs le lemme suivant, on dduit que rangA = rangf
j

u et v sont dnis en associant chaque vecteur de la base canonique de Kn

E(e ) E'(e )

Lemme 4.7.1. : Soient f L(E, F) et g L(G, E), alors


1) Si 2) Si

g f

est surjective, alors est injective, alors

rangf = rang (f og ).

rangg = rang (f og ).

Preuve : 1) rangf = dimf (E) = dimf (g(G)) = dim(f og)(E)


= rang (f og )

2) Soit {vi } avec vi = g (wi ) une base de Img , alors f (vi ) = (f og )(wi ). Comme f est injective {f (vi )} est libre et engendre Im(f og ) car y Im(f og ) = x ; y = f (g (x)) = f ( i vi ) = i f (vi ) donc {f (vi )} est une base de
Im(f og ), d'o rangg = rang (f og ).
Img

On en dduit qu'en composant gauche ou droite par une application linaire bijective, le rang ne change pas.

4.8 Matrices Remarquables


a) Matrice Diagonale (aij ) Mn (K) ; aij = 0 pour i = j . b) Matrice Triangulaire Suprieure (aij ) Mn (K) ; aij = 0 pour i > j . c) Transpose d'une Matrice A = (aij ) Mn,m (K) ; c'est t A = (aji ) Mm,n (K). Elle vrie t (t A) = A, t (A + B ) =t A +t B , t (A) = t A A, B Mm,n (K) et K ; c'est dire que l'application : : Mm,n (K) Mn,m (K) est un isomorphisme t A A d'espaces vectoriels On a aussi t (AB ) =t B t A A Mn,p (K) et B Mp,n (K).

44

ChapitreChapitre 4 : Les Applications Linaires

Dnition 4.8.1.
Glp (K)
et d'quivalence sur

A, B Mn,p (K) sont quivalentes s'il Q Gln (K) telles que B = Q1 AP . C'est en fait
:

existe

une relation

Mn,p (K),

note

. sont quivalentes si et seulement si

Thorme 4.8.1. : A, B Mn,p(K)


rangA = rangB .

Dmontrons d'abord le lemme suivant :

Lemme 4.8.1. : AM n,p (K) ; M (K)


r,r

0
. . .

rangA = r A

1 0

0 . 0 1 0 . .

...

. . . . . .. .. 0

...

0 1

0 . . . ...

... 0 . . . . . . ... 0
... ... 0

0...
Cette dernire est note

Jr .

(ej ) respectivement. Soit r le nombre de vecteurs linairement indpendants parmi les images

Preuve : ) trivial. ) A Mn,p (K) dnit une application linaire p n n : Kp (e ) K(e ) . On munit K et K des bases canoniques (ei ) et
i j

des vecteurs de la base (ei ) ; c..d Ae1 ,...,Aep , qu'on peut supposer tre Ae1 ,...,Aer , les autres vecteurs Aer+1 ,...,Aep peuvent s'exprimer en fonction de ces derniers : r
Aek =
j =1

ckj Aej pour k = r + 1, ..., p.

p On dnit une nouvelle base f1 , ..., fp dans K ; comme suit pour k=1,...,r ; ek ,

fk =

e k

ckj ej , pour k=r+1,...,p.


j =1

On a alors Afk = 0 pour k = r + 1, ..., p. Posons alors Afj = tj pour j = 1, ..., r. Les tj sont par hypothse linairement indpendants. Compltons les pour obtenir une base de Kn , disons tr+1 , ..., tn . Considrons alors la matrice de l'application linaire dans les nouvelles bases f1 , ..., fp et t1 , ..., tn , on a alors :

ChapitreChapitre 4 : Les Applications Linaires

45

M ()fi ,tj

A et M ()fi ,tj

1 0 ... 0 0 ... 0 . . 010. . . . . . . . . . . . . . . . = Jr . . . 0 ... 0 0 ... 0 1 0... . . . ... ... ... 0 reprsentent la mme application linaire, et sont donc

quivalentes.

Preuve du thorme : ) trivial.


) rangA = rangB = r entranent A Jr , B Jr , d'o A B.

Thorme 4.8.2. : Soit A Mn,p(K), alors rangA = rangtA c'est dire


que le rang d'une matrice ; est aussi le rang de la famille des vecteurs lignes.

Jr = P Glp (K) et Q Gln (K), A = Q1 Jr P = t A = t P t Jr t Q1 = (t P 1 )1 t Jr (t Q1 ) = t (P 1 )1 Jr (t Q1 ) car t Jr = Jr d'o t A Jr = rang t A = r = rangA.

Preuve : rangA = r = A

Exemple 4.8.1. :
Dterminer le rang de la matrice

1 2 0 1 2 6 3 3 . 3 10 6 5

On utilise les oprations lmentaires sur les lignes

L1 L1 1 2 0 1 1 2 0 1 rg 2 6 3 3 L2 = rg 0 2 3 1 L2 2L1 L3 3L1 L3 0 4 6 2 3 10 6 5 1 2 0 1 L1 = rg 0 2 3 1 L2 2L1 =2 0 0 0 0 L3 + L1 2L2


Car les deux vecteurs lignes sont linairement indpendants.

4.9 Application des Dterminants la Thorie du Rang


4.9.1 Caractrisation des Bases Thorme 4.9.1. : Soit E un espace vectoriel de dimension n. Les vecteurs
v1 , ..., vn
de E forment une base de E si et seulement si

det v1 , , vn

=
(ei )

46

ChapitreChapitre 4 : Les Applications Linaires


o

dsigne la matrice dont les colonnes sont les compo(ei ) santes des vecteurs v1 , ..., vn dans la base (ei ) de E.

v1 , , vn

Preuve : Il sut de montrer que {v1, ..., vn} est libre si et seulement si
det v1 , , vn
i=n ( ei )

= 0.
k =n

=)
i=n i=1 k =n

i vi = 0, posons vi =
k =1 n

aki ek , alors on a
n n

i (
i=1 n k =1

aki ek ) = 0 d'o
i,k

i aki ek = 0 =
i=1

i a1i = 0,
i=1

i a2i = 0,

...,
i=1

i ani = 0 = a11 a12 . . . a1n a21 a22 . . . a2n . . . . . . an1 an2 . . . ann 1 2 = . . . n 0 0 . . . 0

(4.1)

d'o i = 0 i = 1, ..., n =) Si det v1 , ... , vn

( 4.1) admet une innit de solutions, d'o {v1 , ..., vn } est lie.

(ei )

= 0 = le systme homogne

4.9.2 Comment reconnatre si une famille de vecteurs est libre


On appelle mineur d'une matrice A, tout dterminant d'une matrice carre extraite de A.

Thorme 4.9.2. : Soient {v1, ..., vr } r vecteurs d'un espace vectoriel E de


dimension (

n(rn A Mn,r (K) ).


La famille

) et

A = v1 , , vr

{v1 , ..., vr } r

est libre si et seulement si on peut extraire de

un

mineur d'ordre

non nul.

Preuve : Similaire celle du thorme prcdent, en compltant les vecteurs an de former une base de E.

ChapitreChapitre 4 : Les Applications Linaires

47

4.9.3 Comment reconnatre si un vecteur appartient l'espace engendr par d'autres vecteurs
Soit A une matrice et un mineur d'ordre r extrait de A. On appelle bordant de tout mineur d'ordre r +1 extrait de A, dont est un dterminant extrait. Si A Mp,n (K) et un mineur d'ordre r, il ya exactement (p r)(n r) bordants de dans A.

Thorme 4.9.3. : Soient {v1, ..., vr } r vecteurs linairement indpendants


et

un mineur d'ordre

Pour qu'un vecteur de dans la matrice

r non nul extrait de A, o A = v1 , , vr w v1 , ..., vr il faut et il sut que tous les


soient nuls.

. bordants

B = v1 , , vr , w

Preuve : =) Si l'un des bordants est non nul, la famille {v1, ..., vr , w}
serait libre.
a11 . . . a1r b1 . . . . . . . . . a ... a br r1 rr =) On considre la matrice B = ar+1,1 . . . ar+1,r br+1 . . . . . . . . . an1 . . . anr bn .

Quitte a changer l'ordre des lignes et des colonnes, on peut supposer que le mineur non nul est le mineur encadr. Les r premiers vecteurs lignes de B sont indpendants, et chacun des autres est li ces derniers. Ainsi rangB = r, donc les vecteurs colonnes de B {v1 , ..., vr , w} forment une famille de rang r et comme {v1 , ..., vr } est libre, w v1 , ..., vr .
2 Exemple 4.9.1. : Pour quelles valeurs de , R le vecteur w = 1 1 0 4 appartient-il au sous-espace de R engendr par les vecteurs v1 = 1 et 0

48

ChapitreChapitre 4 : Les Applications Linaires

0 1 v2 = 0 ? 1
On a

0 1

et

0 A= 1 0
1 0 1

= 1 0 =1=0 0 1 0 1

0 B= 1 0

0 1

2 . 1
sont

Les bordants de

1 = 0 1 2 = = 1 1 1 1 0 1 w v1 , v2

1 0

et

2 = 2. 0 1 2 = 1 1 0 1 et = 2.

1 0

Donc

si et seulement si

= 1

4.9.4 Dtermination du rang Thorme 4.9.4. : Soit A Mp,n(K). Le rang de A est r


si on peut extraire de de si et seulement

un mineur

d'ordre

non nul et tous les bordants

dans

sont nuls.

Preuve :

. . . . . . . . . a ... a ... arn r1 rr =) A = v1 , , vn = . ar+1,1 . . . ar+1,r . . . ar+1,n . . . . . . . . . ap1 . . . apr ... apn Soit le mineur encadr. Les vecteurs {v1 , ..., vr } sont alors indpendants

a11 . . . a1r

...

a1n

ChapitreChapitre 4 : Les Applications Linaires

49

et chaque vecteurs vs ( s r + 1 ) appartient l'espace v1 , ..., vr . Donc les vecteurs colonnes engendrent un espace de dimension r, d'o rangA = r. =) Quitte changer l'ordre des colonnes de A, on peut supposer que {v1 , ..., vr } est libre. On peut alors extraire de la matrice forme par les r premires colonnes de A un mineur d'ordre r non nul. Quitte changer la numrotation des coordonnes, on peut supposer que soit le mineur form par les r premires colonnes de A. Or rangA = r, d'o vs v1 , ..., vr pour s r + 1 ; d'aprs le thorme 4.9.3 tous les bordants de dans sont nuls.

Thorme 4.9.5. : Le rang d'une matrice A est l'ordre maximal des mineurs
non nuls extraits de

A, c'est dire : 1) Il existe un mineur d'ordre r non nul rangA = r 2) Tous les mineurs d'ordre s > r sont nuls.

Preuve : =) S'il existait un mineur d'ordre s > r non nul, on pourrait


extraire des colonnes de A une famille libre forme de s > r vecteurs, or ceci est impossible car les vecteurs colonnes de A engendrent un espace de dimension r. =) Dcoule du thorme 4.9.4.

Chapitre 5 Valeurs Propres et Vecteurs Propres


E dsignera par la suite un espace vectoriel sur un corps K ( K = R, ou C ), de dimension nie n, Mn (K) l'ensemble des matrices carres d'ordre n et f un endomorphisme de E. Une base de tant choisie dans E, on utilisera la mme notation pour dsigner un vecteur x E et ses composantes K.
La bijection f M (f ) o M (f ) est la matrice de f , permet d'tendre les notions dnies pour f toute matrice de Mn (K) et vice-versa.

5.1 Valeurs Propres et vecteurs propres


Soit A une matrice carre d'ordre n ; A Mn (K), ( K = R, ou C ) ; on s'intresse l'quation du type
Ax = x

(5.1)

o K et x E. On constate que x = 0 est une solution triviale ; notre but est de trouver celles qui sont non triviales ; de telles solutions sont appeles vecteurs propres de A.

Dnition 5.1.1.
quivalente :

: On appelle valeur propre de

tel qu'il existe un vecteur

x = 0

vriant

A, tout lment de K Ax = x. L'quation (5.1) est

(A I )x = 0
On sait que (5.2) n'a pas de solution triviale si et seulement si

(5.2)
det(A

I ) = 0

det

dsigne le dterminant. Si l'on dveloppe le dterminant, on

50

Chapitre 5 : Valeurs Propres et Vecteurs Propres


trouve un polynme de degr

51
caractristique de

et est not

pA () ;

c..d

n en , appel le polynme pA () = det(A I ).

Thorme 5.1.1. : Les valeurs propres de A sont les racines du polynme


caractristique, et les vecteurs propres correspondants sont les solutions non triviales de

(A I )x = 0.

Exemple 5.1.1. :
Trouver les valeurs et vecteurs propres de la matrice :

A=

1 2 4 8 A
est :

Le polynme caractristique de

det(A I ) =
qui a pour

1 2 = 2 + 7, 4 8 racines 0 et 7, les valeurs propres

sont donc

dterminer les vecteurs propres correspondants, remplaons dans (5.2), on obtient : Pour

et

7. Pour par 0 et 7 x1 = x2

= 0,

1 2 4 8

x1 0 = x2 0

c'est dire

x1 = 2x2 ,

donc

x2

2 1
Pour

= 7,

on a

1 x1 = x1 4 x2

Remarque 5.1.1. : On utilisera les abrviations vp pour valeur propre et Vp


pour vecteur propre.

Thorme 5.1.2. :
valeur propre

1) A tout vecteur propre

x = 0E

de

correspond une

2) A toute valeur propre not E

de A correspond un sous-espace vectoriel de E = {x E/Ax = x} tel que E = {0E }, et A(E ) E ( c'est A


).

dire E est stable par

Preuve : 1) Soient 1 et 2 deux valeurs propres distinctes associes


x, c'est dire Ax = 1 x et Ax = 2 x d'o 1 x = 2 x ce qui entrane

52

Chapitre 5 : Valeurs Propres et Vecteurs Propres

(1 2 )x = 0, comme 1 = 2 alors x = 0E . 2) a) E = car A0E = 0E = 0E c..d 0E E .

b) 1 , 2 K et x1 , x2 E entranent A(1 x1 + 2 x2 ) = 1 A(x1 ) + 2 A(x2 ) = 1 x1 + 2 x2 = (1 x1 + 2 x2 ). Donc E est un sous-espace vectoriel de E. c) E = {0 } car valeur propre entrane l'existence d'un x = 0 tel que Ax = x c..d x E . d) A(E ) E car si x E , Ax = x E .
E E

Remarque 5.1.2. : E

est appel le sous-espace propre associ

5.2 Proprits des vecteurs propres et valeurs propres


Thorme 5.2.1.
suivantes : 1) 2) 3) : Si

A Mn (K) A.

et

K, alors on a les quivalences

est une valeur propre de

(A I )

n'est pas inversible.

det(A I ) = 0.

Preuve : 1) = 2) est une valeur propre de A entrane l'existence d'un


x = 0E tel que Ax = x c..d Ax x = 0E d'o (A I )x = 0E (), ce qui entrane (A I ) n'est pas inversible, car si (A I ) est inversible, en multipliant () par (A I )1 on aurait x = 0E . 2) = 3) Trivial. 3) = 1) Voir Thorme 5.1.1.

Remarque 5.2.1. : 0 est une valeur propre de A si et seulement si A n'est


pas inversible.

Proposition 5.2.1. : 1) Si 1
A,
et alors E1 2) Si

et

sont deux valeurs propres distinctes de

E2 = {0E }.
sont des valeurs propres distinctes d'une matrice carre

1 , ..., m

e1 , ..., em

les vecteurs propres correspondants, alors le systme

{e1 , ..., em }

est libre.

Chapitre 5 : Valeurs Propres et Vecteurs Propres


1 2 1

53
2

Preuve : 1) Soit x E E , alors x E d'o Ax = 1x et x E


E

d'o Ax = 2 x ; on a alors 1 x = 2 x c..d (1 2 )x = 0, or 1 = 2 , donc x=0 . 2) On procde par rcurrence


1 e1 + ... + m em = 0E
E

(5.3)

On applique A, on obtient 1 1 e1 + ... + m m em = 0 , on multiplie (5.3) par m et en soustrayant on a : 1 (m 1 )e1 + ... + m1 (m m1 )em1 = 0 . L'hypothse de rcurence entrane i = 0 pour i = 1, ..., m 1, en remplaant dans (5.3) on obtient m = 0.
E

Corollaire 5.2.1. : 1) Soit A Mn(K), alors A a au plus n valeurs propres


distinctes deux deux. 2) Si

1 , ..., m

sont des valeurs propres distinctes d'une matrice carre

A,

alors le sous-espace vectoriel E1 + ... + Em est somme directe de E1 , ..., Em .

Preuve : 1) Si A admet m valeurs propres distinctes deux deux avec


entrane {e1 , ..., em } libre, or m > n entrane {e1 , ..., em } li ( car n = dimE ), d'o contradiction. 2) On doit montrer que tout x E1 + ... + Em s'crit d'une manire unique sous la forme x = x1 + ... + xm o les xi Ei . En eet, supposons que x = x1 + ... + xm = x1 + ... + xm avec xi , xi Ei , alors (x1 x1 )+ ... +(xm xm ) = 0 o les (xi xi ) Ei . On a d'aprs la proposition (5.2.1) xi = xi pour i = 1, ..., m car sinon les xi1 xi1 , ..., xil xil forment un systme li.
m > n et e1 , ..., em les vecteurs propres associs aux i , la proposition (5.2.1)

5.3 Proprits du polynme caractristique


Thorme 5.3.1. : Le polynme caractristique pA() de la matrice A est
invariant lorsque l'on remplace

A par une matrice semblable ( c..d pA () =

pB ()

pour

B = P 1 AP

et

inversible ).

54

Chapitre 5 : Valeurs Propres et Vecteurs Propres

Preuve : En eet B = P 1AP entrane B I = P 1AP I =


P 1 (A I )P , d'o pB () = det(B I ) = detP 1 det(A I )detP = detP 1 detP det(A I ) = det(P 1 P )det(A I ) = det(A I ) = pA ().

Remarque 5.3.1. : 1) Si f
associe

est un endomorphisme de E et

M (f ) la matrice

f,

lorsque E est muni d'une base, on peut dnir le polynme

caractristique de

par

pf () = pM (f ) ()

et ce dernier ne dpend pas de

la base choisie puisque deux matrices associes un endomorphisme sont semblables. 2) Deux matrices semblables ont les mmes valeurs propres.

Thorme 5.3.2. : Soit f


dimK E k .

un endomorphisme de E et

pf (x)

son polynme

caractristique admettant dans K une racine multiple

d'ordre

k,

alors

Preuve : Supposons dim E = r. Alors E contient r vecteurs propres


K

linairement indpendants v1 , ..., vr , nous pouvons complter {vi } de manire obtenir une base de E {v1 , ..., vr , w1 , ..., ws }. Nous avons
f (v1 ) = f (v2 ) = v1 v2

. . .

. . .

. . .

f (vr ) = vr f (w1 ) = a11 v1 + ... + a1r vr + b11 w1 + ... + b1s ws f (w2 ) = a21 v1 + ... + a2r vr + b21 w1 + ... + b2s ws

. . .

. . .

. . .

f (ws ) = as1 v1 + ... + asr vr + bs1 w1 + ... + bss ws

La matrice de f dans la base ci-dessus est

Chapitre 5 : Valeurs Propres et Vecteurs Propres

55

M (f ) =

0 ... 0 0 ... 0

a11 a21 . . . as1

a12 a22 . . . as2 . . . . . . . . . . . . . . . . . . . . . . . . 0 0 . . . a1r a2r . . . asr 0 0 . . . 0 b11 b21 . . . bs1 0 0 . . . 0 b12 b22 . . . bs2 . . . . . . . . . . . . . . . . . . . . . . . . 0 0 . . . 0 b1s b2s . . . bss pf (x) = det(M (f ) xI ) = ( x)r det(B xIs ) o B est la matrice (bij ) et Is la matrice unit d'ordre s. Comme par hypothse pf (x) = ( x)k g (x)

o g () = 0, il s'ensuit que r k .

5.4 Diagonalisation
Dnition 5.4.1. Une
si elle est de la forme : matrice

A Mn (K ) a11
. . . .. .

est appele matrice diagonale

A=
c'est dire si

0
. . .

0 aij = 0
pour

ann

i = j.

On sait que les matrices diagonales sont simples du point de vue calculatoire et thorique. Par exemple, la solution de Ax = c, o A est une matrice de Mn (K ) est gnralement lassante lorsque n est grand, mais elle est triviale si A est diagonale. De mme lever une matrice une puissance trs large (par exemple A100 ) est en gnral encombrant par calcul direct, mais devient trivial si A est diagonale. Ainsi la diagonalisation d'une matrice, c..d sa rduction une forme diagonale, s'avrera trs intressante.

Dnition 5.4.2. On dit qu'une matrice carre est diagonalisable s'il existe
une matrice inversible

telle que

P 1 AP

soit diagonale, disons

P 1 AP = D.
Lorsque c'est le cas, on dit que

diagonalise

A.

56

Chapitre 5 : Valeurs Propres et Vecteurs Propres

Thorme 5.4.1. Soit A Mn(K ), alors


1)

est diagonalisable ssi

possde

vecteurs propres linairement in-

dpendants. 2) Si

A possde n vecteurs propres linairement indpendants p1 , , pn 1 et P = (p1 , , pn ), alors P AP = D est diagonale, o le j me me lment diagonal de D est gal la j valeur propre de A.

) Si A est diagonalisable, il existe une matrice inversible p11 p12 p1n p21 p22 p2n P = . . . . . . . . . pn1 pn2 pnn

(5.4)

telle que
. P 1 AP = D = . . d1

...

. . . .

(5.5)

0 dn

Multiplions (5.5) par P, on obtient


. . . . = . . . AP = . . . . . . ... . . . . . pn1 pnn 0 dn d1 pn1 dn pnn p11 p1n d1 0 d1 p11 dn p1n

(5.6) AP = (d1 p1 , , dn pn ) o pj dsigne la j me colonne de P, de mme


AP = A(p1 , , pn ) = (Ap1 , , Apn )

(5.7)

En comparant (5.6) et (5.7), nous obtenons


Ap1 = d1 p1

. . .

. . .

(5.8)

Apn = dn pn p1 , , pn sont non nuls, sinon P ne serait pas inversible. (5.8) prouve

que les pi sont des vecteurs propres non nuls, et les di sont des valeurs propres. Le rang de P doit tre n, car P est inversible ; donc les colonnes de P doivent tre linairement indpendantes. Nous avons dmontr aussi 2).

Chapitre 5 : Valeurs Propres et Vecteurs Propres

57

) Si A possde n vecteurs propres linairement indpendants, disons p1 , , pn , soit d1 , , dn les valeurs propres respectives. Alors AP = (Ap1 , , Apn ) = (d1 p1 , , dn pn ) d1 p11 dn p1n p11 p1n . . . . . = . . . = . . . . pn1 pnn d1 pn1 dn pnn

d1

. . .

...

. . . = PD

0 dn

(5.9)
P est inversible car ses colonnes sont linairement indpendantes, en multipliant (5.9) par P 1 , on obtient P 1 AP = D. A est alors diago-

nalisable.

Remarque 5.4.1.
le thorme 1.6).

Si

A Mn (K )

valeurs propres distinctes, alors

est diagonalisable (Il sut de combiner la proposition du paragraphe 1.2 et

Dnition 5.4.3. Soit p(x) un polynme coecients dans K, de degr n,


on dit qu'il est scind s'il s'crit sous la forme d'un produit de premier degr coecients dans o

n polynmes du

K, c'est dire p(x) = a(x 1 ) (x n )

a, 1 , , n K.

Thorme 5.4.2. ( Condition ncessaire et susante de diagonalisation )


Soit

A Mn (K ), A pA

est diagonalisable ssi :

1)

est scind dans

K; i
de

2) Pour chaque racine

pA ,

d'ordre

ki , dim Ei = ki .

) . .. . . . P 1 AP = D = . . . 0 n pA (x) = pD (x) = (1 x) (n x), les racines de pA (x) sont les i K donc 1) est vrie. En faisant intervenir l'ordre de multiplicit des i , on peut crire
m

pA (x) = (1 x) (m x) . On a
k1 km i=1

ki = n. Comme A est

58

Chapitre 5 : Valeurs Propres et Vecteurs Propres


m

diagonalisable, E = E1 Em , d'o dimK E = n =


m i=1

dim Ei .

Si l'une des dimK Ei < ki , on aurait


) On a n = k1 + + km . 2) entrane dim(E1 Em ) =
i=1 i=1 m

dim Ei < n.
m

dim Ei =
i=1

ki = n = dim E.

La runion des bases des Ei est une base de E forme de vecteurs propres, d'o A est diagonalisable.

Corollaire 5.4.1. Si A Mn(K ) possde n valeurs propres distinctes, alors


A
est diagonalisable.

1) du thorme 1.7 est vrie. En outre 1 dim Ei 1, donc 2) est satisfaite et A est diagonalisable.

Exemple 5.4.1.

1) Etudier la diagonalisation de la matrice

2 0 3 0

A = 2 0
Solution : Le polynme caractristique de

0 5

est :

pA (x) =

3 x 2 2 3 x

0 0

= (5 x)

0 0 5x = (5 x)[(3 x)2 4] = (5 x)2 (1 x)


les valeurs propres sont

3 x 2 2 3 x

et

5.

Les espaces propres sont

E1

et

E5 .
ssi

E :

x1 x = x2 x3

est un vecteur propre de

correspondant

n'est pas une solution triviale de

(A I )x = 0 c'est dire 3 2 0 x1 0 0 x2 = 0 . 2 3 0 0 5 x3 0

(5.10)

Chapitre 5 : Valeurs Propres et Vecteurs Propres


Si

59

= 5,

alors

2 2 0 x1 0 2 2 0 x2 = 0 0 0 0 x3 0
d'o

2x1 2x2 = 0, c'est dire x2 = x1 donc x1 1 0 x2 = x1 1 + x3 0 x3 0 1 1 0 c'est dire E5 est engendr par 1 et 0 . 0
Si

=1

(5.10) devient

0 x1 2 2 0 2 2 0 x2 = 0 0 x3 0 0 4
On rsout le systme pour trouver

x1 = x2 et x3 = 0, alors x1 1 x2 = x1 1 , x3 0 1 donc E1 est engendr par 1 . On en dduit que A est diagonalisable, 0 1 0 1 P = 1 0 1 0 1 0


et

5 0 0 P 1 AP = 0 5 0 . 0 0 1 3 2 2 1 A;

2) Considrons la matrice

A= pA () = ( + 1)2 ; = 1 E 1 :

est la seule valeur propre de

2 2 2 2

x1 x2

0 0

60

Chapitre 5 : Valeurs Propres et Vecteurs Propres


On rsout le systme pour en dduire que engendr par sable. 3) Soit

x1 = x2 ,

c'est dire

E1

est

1 1

Comme

dimR E1 = 1 < 2, A

n'est pas diagonali-

l'oprateur linaire dni par

f :

R3

x1 3x1 2x2 x2 2x1 + 3x2 . x3 5x3


Trouver une base de diagonale. Solution : Si

R3

R3

par rapport laquelle la matrice de

soit

B = {e1 , e2 , e3 }

est la base canonique de

R3 ,

alors

1 3 0 2 f (e1 ) = f ( 0 ) = 2 , f (e2 ) = f ( 1 ) = 3 , 0 0 0 0 1 0 f (e3 ) = f ( 0 ) = 0 0 5 3 2 0 On en dduit que M (f ) = 2 3 0 par rapport la base B. Nous 0 0 5 voulons trouver une nouvelle base B = {u1 , u2 , u3 } de telle sorte que la matrice A de f relative B soit diagonale. Si nous dsignons par P la matrice de passage de la base canonique B la base inconnue B , 1 on a A = P AP ; c'est dire P diagonalise M (f ). D'aprs l'exemple
1), nous obtenons

1 0 1 P = 1 0 1 0 1 0

et

5 0 0 A =0 5 0 0 0 1

Chapitre 5 : Valeurs Propres et Vecteurs Propres


Les colonnes de

61

sont

u1 = e1 e2 u2 = e3 u3 = e1 + e2
qui produisent la matrice diagonale

de

f.

You might also like