You are on page 1of 10

Chapter 4

Les Applications Linéaires

Dans ce chapitre on étudie les applications (rélations) entres deux espaces vectoriels et qui
sont compatibles avec la structure d’espace vectoriel. Ces fonctions sont appelées appli-
cations (transformations) liéaires. Dans les chapitres précédents, on a vu plusieurs
exemples d’applications linéaires dont le produit d’une matrice par un vecteur est une il-
lustration.

4.1 Définitions, exemples et caractérisation


Soit A une matrice de type m × n. On a vu que pour tout vecteur x de Rn , le produit
matriciel Ax est bien défini et donne lieu a un seul élément de Rm . On peut donc considérer
la matrice A comme une application (fonction) qui à un vecteur de Rn fait correspondre
un vecteur de Rm . L’application A satisfait les trois conditions suivantes, pour tous vecteurs
u et v dans Rn et pour tout scalaire c :

i. A0 = 0;

ii. A(u + v) = Au + Av;

iii. A(cu) = cAu.

Des propriétés (i)-(iii) on dit que l’application A est linéaire. De manière générale on a la
définition suivante :

Definition 4.1.1. Soit E et F deux espaces vectoriels sur un même corps K (on prend
K = R). Une application linéaire de E dans F est une fonction T de E à valeurs dans
E satisfaisant les trois propriétés suivantes pour tous u et v dans E et pour tout scalaire
c∈R:

i. T (0) = 0

ii. T (u + v) = T (u) + T (v)

iii. T (cu) = cT (u).

51
4. LES APPLICATIONS LINÉAIRES 52

Une application linéaire bijective (en tant que application bijective) est appelée isomor-
phisme.
Remarque 4.1.2. La condition (i) indique que l’application linéaire T transforme le vecteur
nul de l’espace E en vecteur nul de l’espace F .
Exemple 4.1.3. Etant donné une matrice A de type m × n, l’application
T : Rn −→ Rm
x �−→ Ax
estlinéaire de Rn dans Rm . Elle est injective si rg(A) = n, surjective si rg(A) = m et
bijectitive si rg(A) = m = n.
Exemple 4.1.4. L’application
T : R2 −→ R3
(x, y) �−→ (2x, x + y, x − y)
est linéaire, car
i. T (0, 0) = (2 × 0, 0 + 0, 0 − 0) = (0, 0, 0)
ii.
T ((x, y) + (x� + y � )) = T (x + x� , y + y � )
= (2(x + x� ), (x + x� ) + (y + y � ), (x + x� ) − (y + y � ))
= (2x, x + y, x − y) + (2x� , x� + y � , x� − y � )
= T (x, y) + T (x� , y � )

iii. T (c(x, y)) = T (cx, cy) = (2cx, cx + cy, cx − cy) = c(2x, x + y, x − y) = cT (x, y).
Remarque 4.1.5. Sous forme de vecteur colonne on a
     
2x 2 0
x + y  = x 1 + y  1  = Ax,
x−y 1 −1
 
2 0 � �
  x
avec A = 1 1 et x = . On dit que A est la matrice de l’application linéaire
y
1 −1
T.
Exemple 4.1.6. Pour un vecteur non nul u = (u1 , ..., un ) de Rn , on a défini la projection
orthogonale sur u comme étant l’application

Pu : Rn −→ Rn
u·v
v �−→ Pu (v) = |u|2
u
Telle que définie, la projection Pu est une application linéaire injective de Rn dans Rn . La
propriété (i) des applications linéaire est trivialement vérifiée car u · 0 = 0 pour tout vecteur
u ∈ Rn , et les propriétés (ii) et (iii) découlent respectivement des propriétés (b) et (c) d’un
produit scalaire dans le théorème 1.2.3.
4. LES APPLICATIONS LINÉAIRES 53

Exemple 4.1.7. Soit E un espace vectoriel de dimension finie n et B = (b1 , · · · , bn ) une


base de E. Alors, on sait que tout vecteur u de E s’écrit de façon unique u = u1 b1 + ... +
un bn , avec u1 , ... , un des scalaires donnés. L’application [ ]B qui a un vecteur u de E fait
correspondre son vecteur des composantes dans Rn , appelée application coordonnées,
est un isomorphisme (application linéaire bijective).

[ ]B : E −→ Rn
,
u �−→ [u]B

où  
u1
 
[u]B =  ...  .
un
En effet, on a
� �
0
i. [0]B = . = 0
..0
     
u1 + v 1 u1 v1
 .
.   ..   .. 
ii. [u + v]B =  .  =  .  +  .  = [u]B + [v]B
un + v n vn vn
   
cu1 u1
 ..   .. 
iii. [cu]B =  .  = c  .  = c[u]B .
cun un
Exemple 4.1.8. Soit E un espace vectoriel. Alors l’aplication de E dans E qui a un
vecteur fait correspondre ce même vecteur, appelé application identique et notée Id (ou
IdE ), est une application linéaire. C’est un isomorphisme.

Le théorème suivant donne une caractérisation des applications linéaires

Théorème 4.1.9. Soit T une application linéaire d’un espace vectoriel E dans un espace
vectoriel F . Alors, pour tous vecteurs u et v de E et pour tous scalaires c et d, on

T (cu + dv) = cT (u) + dT (v).

Plus généralement, pour toute famille (u1 , · · · , up ) de vecteurs de E et pour tous scalaires
c1 , ..., cp , on a
T (c1 u1 + · · · + cp up ) = c1 T (u1 ) + · · · + cp T (up ).

4.2 Sous-espaces Images et Noyaux d’une application linéaire


On a la définition suivante
4. LES APPLICATIONS LINÉAIRES 54

Definition 4.2.1 (Image et Noyau d’une application linéaire). Soit T une application
linéaire d’un espace vectoriel E dans un espace vectoriel F .

1. On appelle image de l’application linéaire T , notée Im(T ), l’ensemble des vecteurs


de F qui sont image d’un vecteur de E par l’application T :

Im(T ) = {w ∈ F | w = T (u), pour un certain u ∈ E} .

2. On appelle noyau de l’application linéaire T , noté Ker(T ), l’ensemble des éléments


de E dont l’image par T est égal au vecteur nul de F .

Ker(T ) = {u ∈ E | T (u) = 0} .

Exemple 4.2.2. Soit T l’application linéaire de l’exemple 4.1.4 : T (x, y) = (2x, x+y, x−y).
Alors
� �
Im(T ) = (w1 , w2 , w3 ) ∈ R3 | (w1 , w2 , w3 ) = T (x, y), pour un certain (x, y) ∈ R2
� �
= (w1 , w2 , w3 ) ∈ R3 | w1 = 2x, w2 = x + y, w3 = x − y, pour certain x, y ∈ R
� �
= (2x, x + y, x − y) ∈ R3 | x, y ∈ R
= V ect {(2, 1, 1), (0, 1, −1)} .

Pour déterminer Ker(T ), on résoud l’équation T (x, y) = 0, qui est équivalente à

(2x, x + y, x − y) = (0, 0, 0) ⇔ 2x = 0, x + y = 0, x − y = 0 ⇔ x = y = 0.

Donc, Ker(T ) = {0}.

Exemple 4.2.3. Soit T l’application linéaire de l’exemple 4.1.3, T (x) = Ax. Alors, Im(T )
est le sous-espace de Rm engendré par les colonnes de A et Ker(T ) est l’ensemble de
solutions de l’équation matricielle Ax = 0.

Théorème 4.2.4. Soit T une application linéaire d’un espace vectoriel E dans un espace
vectoriel F . Alors, Im(T ) est un sous-espace de l’espace vectoriel F et Ker(T ) est un
sous-espace de l’espace vectoriel E.

Proof:

1. Montrons que Im(T ) est un sous-espace de F . Il est clair que Im(T ) est un sous-
ensemble de F . On a :

i) Im(T ) contient le vecteur nul de l’espace F , car 0F = T (0E ).


ii) Soit w1 = T (u1 ) et w2 = T (u2 ) deux vecteurs de Im(T ) ; alors w1 + w2 =
T (u1 ) + T (u2 ) = T (u1 + u2 ), avec u1 + u2 ∈ E. Donc w1 + w2 appartient à
Im(T ).
iii) Soit w = T (u) ∈ Im(T ) et c un scalaire. On a cw = cT (u) = T (cu), avec
cu ∈ E. D’où cw ∈ Im(T ).
4. LES APPLICATIONS LINÉAIRES 55

On déduit de (i)-(iii) que Im(T ) est un sous-espace de F .

2. Montrons que Ker(T ) est un sous-espace de E. Il est clair que Ker(T ) est un sous-
ensemble de E. On a :

i) Ker(T ) contient le vecteur nul de E, car T (0E ) = 0F .


ii) Pour u, v ∈ Ker(T ) on a T (u + v) = T (u) + T (v) = 0 + 0 = 0. D’où u + v ∈
Ker(T ).
iii) Pour u ∈ Ker(T ) et un scalaire c on a T (cu) = cT (u) = c0 = 0. D’où cu ∈
Ker(T ).

De (i)-(iii) on déduit que Ker(T ) est un sous-espace de E.

Le théorème suivant donne une caractérisation des applications linéaires injectives, surjec-
tives et bijectives (isomorphismes).

Théorème 4.2.5. Soit T une application linéaire d’un espace vectoriel E dans un espace
vectoriel F . Alors :

1. T est injective si et seulement si Ker(T ) = {0}.

2. T est surjective si et seulement si Im(T ) = F .

3. T est un isomorphisme (bijection) si et seulement si Ker(T ) = {0} et Im(T ) = F .

Proof: (Admise)
.

Théorème 4.2.6. Soit T une application linéaire d’un espace vectoriel E dans un espace
vectoriel F et (u1 , ..., up ) une famille de vecteurs de E. Alors,

1. Si T est injective et si la famille (u1 , ..., up ) est libre dans E, alors la famille (T (u1 ), ..., T (up ))
est libre dans F .

2. Si T est surjective et si la famille (u1 , ..., up ) est génératrice de E, alors la famille


(T (u1 ), ..., T (up )) est génératrice de F .

3. En particulier, si T est bijective alors l’image d’une base de E par T est une base de
F.

Proof:
4. LES APPLICATIONS LINÉAIRES 56

1. Si T est injective et si la famille (u1 , ..., up ) est libre dans E, alors pour des scalaires
c1 , ..., cp tels que
c1 T (u1 ) + · · · + cp T (up ) = 0,
on a, d’aprés la caractérisation des applications linéaires,
T (c1 u1 + · · · + cp up ) = 0 = T (0)
et l’injectivité de T implique que c1 u1 + · · · + cp up = 0. La famille (u1 , ..., up ) étant
libre on déduit que c1 = · · · = cp = 0, ce qui implique que (T (u1 ), ..., T (up )) est une
famille libre.
2. Si T est surjective et si la famille (u1 , ..., up ) est génératrice de E, alors pour tout
vecteur w dans F la surjectivité de T implique qu’il existe v ∈ E tel que w = T (v)
et puisque la famille (u1 , ..., up ) est génératrice de E on a v = c1 u1 + · · · + cp up , pour
des scalaires c1 , ... , cp . Par conséquent, on a
w = T (v) = T (c1 u1 + · · · + cp up ) = c1 T (u1 ) + · · · + cp T (up )
et on déduit que la famille (T (u1 ), ..., T (up )) engendre F . Donc (T (u1 ), ..., T (up )) est
une famille génératrice de F , car les vecteurs T (u1 ),..., et T (up ) sont des éléments de
F.
3. On considère seulement le cas où E et F sont de dimension finie ; le résultat découle
immédiatement des parties (1) et (2).

L’exemple suivant est une illustration du théorème 4.2.6


� �
Exemple 4.2.7. Montrer que la famille 1 − 2t2 − t3 , 4t + t3 , 1 + 2t − 2t2 est libre dans
l’espace P3 des polynômes de dégré inférieur ou égal à 3.

Solution. L’espace P3 étant de dimension finie, dimP3 = 4, l’application coordonnées est


un isomorphisme� de P2 3 sur R4 . Par conséquent, � d’après le théorème 4.2.6, pour montrer
que la famille 1 − 2t − t , 4t + t3 , 1 + 2t − 2t2 est libre dans P3 il suffit de montrer que
3

la famille correspondante des vecteurs des composantes estt libre dans R4 . Dans la base
canonique de P3 on a :     
1 0 1
 0    
3 ] = 4 , [1 + 2t − 2t2 ] =  2 ; avec
[1 − 2t2 − t3 ] = 
−2 , [4t + t  0 −2
−1 1 0
       
1 0 1 1 0 1 1 0 1 1 0 1
 0 4 2  2    1
  ∼ 0 4  ∼  0 1 1 ∼ 0 1 .
−2 0 −2 0 0 0 0 4 2 0 0 −2
−1 1 0 0 1 1 0 0 0 0 0 0
� 2 3 3 2

Donc la famille [1 − 2t − t�], [4t + t ], [1 + 2t − 2t ] des vecteurs � de composantes est libre
dans R ; on en déduit que 1 − 2t − t , 4t + t , 1 + 2t − 2t est libre dans l’espace P3 .
4 2 3 3 2
4. LES APPLICATIONS LINÉAIRES 57

4.3 Rang d’une application linéaire-Théorème du rang


Dans la section précédente on a montré que l’image et le noyau d’une application linéaire
sont des sous-espaces vectoriels. Il est donc judicieux de parler de leur dimension. On a la
définition suivante.
Definition 4.3.1. Soit T une application linéaire d’un espace vectoriel E dans un espace
vectoriel F . On appelle rang de T , on note rg(T ), la dimension du sous-espace Im(T ) :
rg(T ) = dimIm(T ).
Exemple 4.3.2. On a montré dans l’exemple 4.2.2 que la partie {(2, 1, 1), (0, 1, −1)} de R3
est génératrice de Im(T ), où T est l’application linéaire définie par T (x, y) = (2x, x +
y, x − y). Cette famille est libre, car la première composante du premier vecteur est
non-nulle tandis que celle correspondant au deuxième vecteur est nulle. Par conséquent
((2, 1, 1), (0, 1, −1)) est une base de Im(T ) et on déduit que
rg(T ) = dimIm(T ) = 2.
Théorème 4.3.3 (Théorème du rang). Soit E et F deux espaces vectoriels de dimension
finie et T une application linéaire de E à valeurs dans F . Alors
dimE = rg(F ) + dimKer(F ).
Proof: Supposons que dimE = n et dimKer(T ) = r. On va montrer que rg(T ) = n−r.
Soit (u1 , · · · , ur ) une base de Ker(T ). D’après le théorème de la base incomplète il existe
une famille (v1 , · · · , vn−r ) de vecteurs de E telle que la famille (u1 , · · · , ur , v1 , · · · , vn−r )
soit une base de E. Posons B = (T (v1 ), · · · , T (vn−r )), on a :
i) B = (T (v1 ), · · · , T (vn−r )) engendre Im(T ). En effet, soit w = T (u) ∈ Im(T ).
Puisque (u1 , · · · , ur , v1 , · · · , vn−r ) est une base de E, u s’écrit de façon unique u =
a1 u1 + · · · + ar ur + c1 v1 + · · · + cn−r vn−r . En utilisant la linéarité de T et le fait que
u1 , ... ur ∈ Ker(T ) on a
w = T (u) = T (a1 u1 +· · ·+ar ur +c1 v1 +· · ·+cn−r vn−r ) = c1 T (v1 )+· · ·+cn−r T (vn−r ).
D’où w ∈ V ect {T (v1 ), · · · , T (vn−r )} et on déduit que B engendre Im(T ).
ii) B est une famille libre. En effet, soient c1 , ..., cn−r des scalaires tels que
c1 T (v1 ) + · · · + cn−r T (vn−r ) = 0.
Alors, la linéarité de T implique que
T (c1 v1 + · · · + cn−r vn−r ) = 0.
D’où c1 v1 + · · · + cn−r vn−r ∈ Ker(T ) et donc il existe des scalaires a1 , ..., ar tels que
c1 v1 + · · · + cn−r vn−r = a1 u1 + · · · + cr ur .
La famille (u1 , · · · , ur , v1 , · · · , vn−r ) étant libre, on déduit que c1 = c2 = · · · = a1 =
· · · = ar = 0. D’où B = (T (v1 ), · · · , T (vn−r )) est une famille libre.
4. LES APPLICATIONS LINÉAIRES 58

Donc B est une base de Im(T ) et on déduit que rg(T ) = n − k = dimE − dimKer(T ).

Exemple 4.3.4. Pour l’application linéaire T de l’exemple 4.2.2, on a montré dans l’exemple
4.2.7 que rg(T ) = 2, avec E = R2 . D’après le théorème de rang on doit avoir dimKer(T ) =
dimR2 − rg(T ) = 2 − 2 = 0. Ce qui est très bien justifié car le noyau de T est le sous-espace
nul.

4.4 Matrice d’une application linéaire, Image et noyau d’une


matrice
On a vu qu’à toute matrice A de taille m × n on peut associer une application linéaire
T : Rn −→ Rm , dans ce cas on dit que A est la matrice (canonique) de l’application
linéaire T. Dans cette section, on va montrer l’inverse de ce résultat, c’est-à-dire qu’à toute
application linéaire entre deux espaces de dimension finie correspond une unique matrice.
On va se limiter au cas des applications linéaires de Rn dans Rm .

Théorème 4.4.1. Soit T : Rn −→ Rm une application linéaire. Alors il existe une unique
matrice A telle que
T (x) = Ax, pour tout x ∈ Rn .
Plus précisement, la matrice A est de taille m × n dont la j e colonne est le vecteur T (ej ),
où ej est le j e vecteur de la base canonique de Rn :
� �
A = T (e1 ) · · · T (en ) (4.4.1)
 
x1
Proof: Soit x = x2  un élément de Rn . Dans la base canonque de Rn on a x =
x3
x1 e1 + x2 e2 + x3 e3 et on déduit de la linéarité de T que
� �
T (x) = T (x1 e1 + x2 e2 + x3 e3 ) = x1 T (e1 ) + · · · + xn T (en ) = T (e1 ) · · · T (en ) x = Ax.

D’où l’existence de A. Pour montrer que A est unique on suppose qu’il existe une autre ma-
trice B telle que T (x) = Bx, pour tout x ∈ Rn . Alors on aura Ax = Bx, pour tout x ∈ Rn .
En particulier, Ae1 = Be1 , ..., Aen = Ben et on déduit que les colonnes de A et B sont
identiques. D’où A = B.

Definition 4.4.2. La matrice A définie par la rélation (4.4.1) est appelée matrice canon-
ique associée à l’application linéaire T.

Exemple 4.4.3. Déterminer la matrice (canonique) de l’application linéaire T : R3 −→ R2


définie par T (x, y, z) = (2x − y, x + y − z).
4. LES APPLICATIONS LINÉAIRES 59

Solution : On a T (e1 ) = T (1, 0, 0) = (2, 1), T (e2 ) = T (0, 1, 0) = (−1, 1) et T (e3 ) =


T (0, 0, 1) = (0, −1). Donc la matrice de T est
� �
2 −1 0
A= .
1 1 −1

On peut regarder chaque matrice comme une application linéaire et parler de leur
image, noyau et rang. On a la définition suivante :

Definition 4.4.4. Soit A une matrice de type m × n.

1. On appelle image de A, �notée ImA,� le sous-espace de Rm engendré par les colonnes


de la matrice A. Si A = a1 · · · am , alors

ImA = V ect {a1 · · · am } .

2. On appelle noyau de A, noté KerA, l’ensemble de solution de l’équation matricielle


Ax = 0 :
Ker(A) = {x ∈ Rn : Ax = 0} .

3. On appelle ligne de A, notée Lig(A), le sous-espace de Rn engendré par les lignes de


A.

Exemple 4.4.5. On considère la matrice A suivante


 
−3 6 −1 1 −7
A =  1 −2 2 3 −1 .
2 −4 5 8 −4

a. Déterminer les entiers p et q tels que ImA soit un sous-espace de Rp et KerA et LigA
soient un sous-espace de Rq .

b. Déterminer une base pour ImA, KerA et LigA.

Solution :

a. La matrice A étant de type 3×5, elle est associée à une application linéaire T : R5 −→
R3 . Donc ImA = Im(T) est un sous-espace de R3 tandis que KerA = Ker(T ) et
LigA sont des sous-espace de R5 . C’est-à-dire que p = 3 et q = 5.

b. Une forme échelonnée réduite de la matrice A est


 
1 −2 0 −1 3
0 0 1 2 −2 .
0 0 0 0 0
4. LES APPLICATIONS LINÉAIRES 60

- Puisque les colonnes pivots d’une matrice A forment une base du sous-espace
 
−3 −1
engendré par ses colonnes, on déduit qu’une base de ImA est   
1 ,  2  .
2 5
- Les lignes non nulles d’une forme échelonnée quelconque d’une matrice
A forment une base du sous-espace engendré par les lignes de cette
matrice ; on déduit qu’une base de LigA est ((1, −2, 0 − 1, 3), (0, 0, 1, 2, −2)).
- De la forme échelonnée réduite de la matrice A on déduit que l’équation ma-
tricielle Ax = 0 a pour solution x1 = 2x2 + x4 − 3x5 , x3 = −2x4 + 2x5 . En
écrivant la solution générale de cette équation matricielle sous-forme vectorielle
paramétrique on déduit que

KerA = V ect {(2, 1, 0, 0, 0), (1, 0, −2, 2, 0), (−3, 0, 2, 0, 1)} .

La famille génératrice de KerA ainsi trouvée est libre par construction, elle
constitue une base de ce sous-espace.

Comme pour les applications linéaires, on définit le rang d’une matrice A comme étant
la dimension de son image : rg(A) = dimImA. Le thérème du rang peut encore s’énoncé
de la façon suivante :

Théorème 4.4.6. Soit A une matrice de type m × n. Alors

n = rg(A) + dimKerA.

Les versions du théorème 4.2.5 dans le cas d’une matrice A vue comme une application
linéaire s’énoncent de la manière le suivant :

Théorème 4.4.7. Soit A une matrice de type m × n. Alors,

1. L’équation matricielle Ax = 0 admet la solution triviale comme unique solution si et


seulement si KerA = {0} (c’est-à-dire rg(A) = n).

2. L’équation Ax = b est toujours compatible pour tout vecteur b ∈ Rm si et seulement


si rg(A) = m.

3. L’équation Ax = b admet toujours une unique solution pour chaque b ∈ Rm si et


seulement si m = n = rg(A).

Théorème 4.4.8. Soit A une matrice de type m × n. Alors,

1. Les colonnes de A sont lináirement indépendants si et seulement si KerA = {0}


(c’est-à-dire rg(A) = n).

2. Les colonnes de A engendrent Rm si et seulement si rg(A) = m.

3. Les colonnes de A forment une base de Rm si et seulement si m = n = rg(A).

You might also like