You are on page 1of 20

Les Matrices

I-) Opérations - Structure


1-) Définitions
Une matrice à n lignes et à p colonnes sur IK est un tableau d'éléments de IK.
 3 -2 5 
Exemple: A=  est une matrice réelle à 2 lignes et 3 colonnes.
 7 π 0,2 

 aa2111 a12 ... a1p


a22 ... a2p
 le premier indice est celui de la ligne,
Notation: M= : : :  le second est celui de la colonne.
 an1 an2 ... anp 
1≤i≤n
Cette matrice peut se noter M = (aij) avec  1 j p
 ≤ ≤
On note Mn,p(IK) l'ensemble des matrices à n lignes et p colonnes sur IK.
La matrice A appartient à M2,3(IR).

Cas particuliers:
→ Une matrice ayant le même nombre n de lignes et de colonnes s'appelle
une matrice carrée. Leur ensemble se note Mn(IK).
 3 1 + i
Ex: B =  2 – i 
5i  est une matrice carrée de M2(C).
I

→ Une matrice ne comportant qu'une seule colonne s'appelle une matrice-colonne.


On identifie une telle matrice à un élément de IKn.

→ Une matrice ne comportant qu'une seule ligne s'appelle une matrice-ligne.


On identifie une telle matrice à une forme linéaire sur IKp.

Matrice extraite: une matrice extraite de A est une matrice obtenue en supprimant dans A
un certain nombre de lignes et/ou un certain nombre de colonnes.
1 2 3
1 2
Ex: si C =  4 5 6  alors D =  7 8  est une matrice extraite de C
 
7 8 9
On l'a obtenue en supprimant la deuxième ligne et la troisième colonne de C.

 aa1121 a12 ... a1p


a22 ... a2p

Vecteur ligne, vecteur colonne: si M= : : : 
 an1 an2 ... anp 
→ ∀i∈
∈{1, ..., n}, (ai1; ai2; ...; aip)∈
∈IKp est le i-ème vecteur ligne de M,

 aa1j2j 
→ ∀j∈
∈{1, ..., p},  ... ∈IKn est le j-ème vecteur colonne de M.
 anj 

Les matrices ---*--- Page 1


2-) Structure de IK-ev de Mn,p(IK)
a-) Addition
∈Mn,p(IK)
Si A = (aij) et B = (bij) sont deux éléments de Mn,p(IK) alors A + B = (aij + bij)∈
est la matrice somme de A et B.
 1 2 3   7 8 9   8 10 12 
Ex:  4 5 6  +  8 7 6  =  12 12 12 
     
Théorème: (Mn,p(IK), +) est un groupe abélien.
→ L'élément neutre est la matrice O dont tous les coefficients sont nuls.
0 0 0
Ex: dans M2,3(IK), O =  0 0 0 
 
 1 2 3   -1 -2 -3 
→ – A = (-aij). Ex: –  4 5 6  =  -4 -5 -6 
   
b-) Multiplication par un scalaire
∈Mn,p(IK) et λ∈IK alors λA = (λ
Si A = (aij)∈ λaij)∈
∈Mn,p(IK)
est le produit du scalaire λ par la matrice A.
 1 2 3   -2 -4 -6 
Ex: -2. 4 5 6  =  -8 -10 -12 
   
Théorème: (Mn,p(IK), +, .) est un IK-espace vectoriel.
 eij
= 1 si (i, j) = (h, k)
Note: La famille (Eh,k) avec Eh,k = (eij) et 
 eij = 0 si (i, j) ≠ (h, k)
forme la base canonique de Mn,p(IK)
 1 0   0 1   0 0   0 0  
Ex: la base canonique de M2,2(IK) est  0 0 ,  0 0 ,  1 0 ,  0 1 
       
 3 -2  1 0 0 1 0 0 0 0
et  -5 7  = 3 0 0  – 2 0 0  – 5 1 0  + 7 0 1 
         
Conséquence: dim(Mn,p(IK)) = n × p

3-) Multiplication matricielle


a-) Définition
∈Mn,p(IK) et B = (bij)∈
Si A = (aij)∈ ∈Mp,q(IK)
(le nombre de colonnes de A doit être égal au nombre de lignes de B)
p
alors C = AB est la matrice de Mn,q(IK) définie par C = (cij) avec cij = ∑ aikbkj
k=1

 2 -1 4 3 
 1 -3 2  -5 -4 3 -6   21 9 -9 27 
Exemple:  5 7 -2   =  -29 -31 45 -33 
 
 2 -1 -2 3 
Le coefficient -9 situé en première ligne et troisième colonne
correspond au produit scalaire canonique de (1; -3; 2) par (4; 3; -2)
ce qui donne 1×4 + (-3)×3 + 2×(-2) = 4 – 9 – 4 = -9

Les matrices ---*--- Page 2


b-) Propriétés (admises)
Lorsque les produits sont définis,
→ (AB)C = A(BC)
→ A(λ λB + µC) = λAB + µAC
→ (λ λA + µB)C = λAC + µBC
→ (λ λA)B = A(λ λB) = λ(AB)
Notes: → Si AB est défini, en général BA ne l'est pas.
 (Ei,j) est la base canonique de Mn,p(IK)
→ Si  (Fi,j) est la base canonique de Mp,q(IK)
 (Gi,j) est la base canonique de Mn,q(IK)
 Ei,k × Fk,j = Gi,j
alors ∀i∈{1, ..., n}, ∀j∈{1, ..., q},  E × F = O si h ≠ k
 i,h k,j

0 0 0 0
 0 1 0  0 0 1 0   0 0 1 0 
Ex:  0 0 0   =  0 0 0 0 
 
0 0 0 0
0 0 1 0
 0 1 0  0 0 0 0   0 0 0 0 
   =  0 0 0 0 
 0 0 0 
0 0 0 0

4-) Transposition
a-) Définition
∈Mn,p(IK) alors tA = (α
Si A = (aij)∈ αij)∈
∈Mp,n(IK) avec αij = aji
est la matrice transposée de A.
1 4
1 2 3
Exemple: Si A =  4 5 6  alors A =  2 5 
t
 
3 6

b-) Propriétés
Lorsque les opérations sont définies,
→ t(tA) = A
→ t(A + B) = tA + tB
→ t(λ λA) = λ(tA)
→ t(AB) = tB.tA (Attention !!!)
Preuve de la dernière: (les autres sont évidentes)
Si A = (aij)∈Mn,p(IK) et B = (bij)∈Mp,q(IK)
alors A = (αij)∈Mp,n(IK) et tB = (βij)∈Mq,p(IK)
t

donc le produit tB.tA est défini.


p p
Par ailleurs, B. A = (γij) avec γij =
t t
∑ βikαkj = ∑ ajkbki
k=1 k=1
p p
et AB = (cij) avec cij = ∑ aikbkj d'où cji = ∑ ajkbki = γij
k=1 k=1

Les matrices ---*--- Page 3


II-) Matrices carrées d'ordre n
1-) Définitions
→ Une matrice carrée d'ordre n est une matrice comportant n lignes et n colonnes.
Leur ensemble se note Mn(IK).
Note: toutes les propriétés vues dans Mn,p(IK) restent vraies.

→ Les matrices diagonales sont les matrices (aij) avec aij = 0 si i ≠ j.


α 0 0
Ex: D =  0 β 0  est une matrice diagonale. On la note D = diag(α, β, γ).
0 0 γ

 supérieures i>j
→ Les matrices triangulaires  inférieures sont les matrices (aij) avec aij = 0 si  i < j
 
1 2 3
Ex: T1 =  0 4 5  est une matrice triangulaire supérieure

0 0 6
2 0 0
et T2 =  0 0 0  est une matrice triangulaire inférieure.

1 1 1

→ La matrice unité d'ordre n est la matrice In = diag(1, 1, ..., 1).


1 0 0
Ex: I3 =  0 1 0 
0 0 1

→ La matrice nulle d'ordre n est la matrice On = diag(0, 0, ..., 0).


0 0 0
Ex: O3 =  0 0 0 
0 0 0

→ Les matrices scalaires sont les matrices de la forme λIn (matrices d'homothétie).
 -2 0 0 
Ex: A =  0 -2 0  est une matrice scalaire car A = -2I3
 0 0 -2 

Les matrices symétriques sont les matrices telles que tA = A



Les matrices antisymétriques sont les matrices telles que tA = -A

 1 -2 3 
Ex: S =  -2 4 5  est une matrice symétrique
 3 5 6
0 1 2
A =  -1 0 -3  est une matrice antisymétrique
 -2 3 0 
Noter que, dans une matrice antisymétrique, les éléments diagonaux sont nuls.

Les matrices ---*--- Page 4


2-) Structure de IK-espace vectoriel
→ Mn(IK) = Mn,n(IK) est un IK-espace vectoriel de dimension n2.
→ Sous espaces vectoriels à connaître:
D = {matrices diagonales de Mn(IK)} avec dimD = n.
Sc = {matrices scalaires de Mn(IK)} avec dimSc = 1.
n(n + 1)
T = {matrices triangulaires supérieures de Mn(IK)} avec dimT = .
2
n(n + 1)
I = {matrices triangulaires inférieures de Mn(IK)} avec dimI = .
2
n(n + 1)
S = {matrices symétriques de Mn(IK)} avec dimS = .
2
n(n – 1)
A = {matrices antisymétriques de Mn(IK)} avec dimA = .
2

→ Mn(IK) = S ⊕ A
Toute matrice carrée peut s'écrire de manière unique comme la somme
d'une matrice symétrique et d'une matrice antisymétrique.
Preuve: Analyse Si M = A + S avec A∈A et S∈S
alors tM = tA + tS = -A + S
1 1
d'où S = (M + tM) et A = (M – tM)
2 2
ce qui prouve l'unicité.
1 1
Synthèse ∀M∈Mn(IK), si S = (M + tM) et A = (M – tM)
2 2
 S + A = M
t
alors  S = S donc S∈S d'où Mn(IK) = S + A
 A = -A donc A∈A
t

Conclusion Mn(IK) = S ⊕ A

 S ∩ A = {On}
Note: On aurait pu constater que 
 dimS + dimA = dimMn(IK)
En effet, M∈S ∩ A ⇔ tM = M = -M d'où 2M = On et M = On.
donc S ∩ A = {On}
n(n + 1 ) n(n – 1 ) n2 + n +n2 - n
dimS + dimA = + = = n2
2 2 2
donc dimS + dimA = dimMn(IK)
Par suite, Mn(IK) = S ⊕ A

Les matrices ---*--- Page 5


3-) Structure de IK-algèbre
→ La multiplication matricielle est une loi de composition interne dans Mn(IK).
→ Associativité:
∀(A, B, C)∈(Mn(IK))3, A(BC) = (AB)C
Elément neutre:
∀A∈Mn(IK), A.In = In.A = A
Distributivité par rapport à l'addition:
∀(A, B, C)∈(Mn(IK))3, A(B + C) = AB + AC et (A + B)C = AC + BC
(Mn(IK), +, ×) est un anneau non commutatif et non intègre.
 1 0  0 0   0 0 
En effet: BA ≠ AB et  0 0  0 1  =  0 0 
    

→ Comme dans tout anneau, pour tout naturel n on définit Mn


par M0 = In, M1 = M et si n ≥ 2 alors Mn = Mn–1.M

Attention! Comme la multiplication n'est pas commutative, les identités remarquables


et, en particulier la formule du binôme, ne peuvent s'utiliser qu'avec des
matrices qui commutent.
1 2  -2 1 
Ex: si A =  3 4  et B =  3 -5 
   
 7 10   4 -9   7 -7   22 -15 
alors A2 + 2AB + B2 =  15 22  + 2 6 -17  +  -21 28  =  6 16 
       
2
 -1 3   19 -6 
et (A + B)2 =  6 -1  =  -12 19 
   
donc (A + B)2 ≠ A2 + 2AB + B2

→ Comme ∀λ∈IK, ∀(A, B)∈ ∈(Mn(IK))2, (λ


λA)B = A(λ
λB) = λ(AB)
( n
M (I
K), +, × ) est une I
K-algèbre non commutative, non intègre.
α β
Exercice: M =   avec (α, β)∈IR2.
 0 α
Pour n∈IN*, calculer Mn en fonction de α, β et n.
0 β 0 0
M = αI2 + A avec A =   et A2 =   = O2.
 0 0  0 0
Comme αI2 et A commutent {car (αI2)A = α(I2A) = α(AI2) = A(αI2)}
n
∑ Cn (αI2)n–kAk = 1.αn.I2 + n.αn-1.I2.A = αn.I2 + n.αn-1.A
n n k
M = (αI2 + A) =
k=0
 α n.α .β 
n
n–1
D'où M = n
, formule qui reste vraie pour n = 0 car M0 = I2.
0 αn 

Les matrices ---*--- Page 6


4-) Cas particuliers
a-) Produit de deux matrices diagonales
Le produit de deux matrices diagonales est une matrice diagonale.
α1, ..., αn) et B = diag(β
Si A = diag(α β1, ..., βn) alors AB = diag(α
α1β1, ..., αnβ n)
Preuve: A = (aij) avec aij = 0 si i ≠ j et aii = αi et B = (bij) avec bij = 0 si i ≠ j et bii = βi
p
AB = (cij) avec cij = ∑ aikbkj donc cij = 0 si i ≠ j et cii = aiibii = αiβi.
k=1
D'où le résultat.
 1 0 0  4 0 0   4 0 0 
Ex:  0 2 0  0 5 0  =  0 10 0 
 0 0 3  0 0 6   0 0 18 
Conséquence: α1, ..., αp) alors ∀n∈
Si A = diag(α ∈IN, An = diag(α
α1n, ..., αpn)

b-) Produit de deux matrices triangulaires


Le produit de deux matrices triangulaires supérieures
est une matrice triangulaire supérieure.
De plus, la diagonale du produit se calcule comme ci dessus.
 1 -1 4  4 1 2   4 -4 29 
Ex:  0 2 -2  0 5 -3  =  0 10 -18 
 0 0 3  0 0 6   0 0 18 
On a un résultat analogue pour les matrices triangulaires inférieures.

c-) Attention !
→ Le produit de deux matrices symétriques n'est, en général, pas symétrique.
(En effet, si A et B sont symétriques, t(AB) = tBtA = BA ≠ AB)
 2 3  5 6   28 33 
Ex:  3 4  6 7  =  39 46 
    

→ De même, le produit de deux matrices antisymétriques n'est, en général,


pas antisymétrique.

5-) Matrices carrées inversibles


a-) Définition
∈Mn(IK), on dit que A est inversible ssi ∃B∈
Soit A∈ ∈Mn(IK), AB = BA = In.
Dans ce cas, B est unique. On la note A-1 et on l'appelle l'inverse de A.
L'unicité résulte de l'associativité de la multiplication dans Mn(IK).
 1 1  2 -1   1 0  2 -1  1 1   1 0 
Ex:  1 2  -1 1  =  0 1  et     
1  1 2  =  0 1 
      -1
1 1 1 1 –1  2 -1 
d'où  1 2  est inversible et   
2  =  -1 1 

  1

Les matrices ---*--- Page 7


b-) Théorème
L'ensemble des matrices carrées d'ordre n inversibles
est un groupe pour la multiplication.
Ce groupe s'appelle le groupe linéaire d'ordre n et se note GLn(IK)
En effet, → In est inversible avec In-1 = In (car InIn = In)
→ Si A et B sont inversibles alors AB est inversible et (AB)-1 = B-1A-1 .
 (AB)(B-1A-1) = A(BB-1)A-1 = AInA-1 = AA-1 = In
car  (B-1A-1)(AB) = B-1(A-1A)B = B-1I B = B-1B = I
 n n
Donc la multiplication est une loi interne dans GLn(IK).
→ Cette loi est associative et admet In pour élément neutre.
→ Par définition, tout élément de GLn(IK) admet un inverse.
On a bien un groupe multiplicatif.
Attention: Ce groupe n'est pas commutatif !

III-) Matrice d'une famille de vecteurs dans une base


Soit E un IK-e.v. de dimension n et B = (e1, ..., en) une base de E.
∈Mn,p(IK)
A toute famille F = (u1, ..., up) de vecteurs de E, on associe la matrice M∈
dont la j-ème colonne est formée des coordonnées de uj dans la base B.


→ 

Exemple 1: Dans le plan rapporté à la base ( i ; j ), si on considère les vecteurs
 → → → 
→ → 

u→ = 2 i – 3 j , v→ = 5 i + j et w
→
=– i – j
→  →
alors la matrice de F = ( u,
→ 
v→, w)
→
dans la base ( i ; j ) est

u v→ w
→ 

→

M= 
2 5 -1  i
 →
 -3 1 -1  j

Exemple 2: Dans IR2[X] rapporté à sa base canonique (1, X, X2)


la matrice de la famille F = (3X2 – 5X + 1, 7X2 – 1) est
P Q
 1 -1  1  P = 3X2 – 5X + 1
M =  -5 0 X Si 
  2  Q = 7X2 – 1
3 7 X

IV-) Matrice d'une application linéaire, d'un endomorphisme


1-) Matrice d'une application linéaire
 E un IK-e.v. de dimension p rapporté à une base fixée B = (e1, ..., ep)
Soit  F un IK-e.v. de dimension n rapporté à une base fixée C = (f1, ..., fn)
 ϕ une application linéaire de E dans F
On sait que l'application ϕ est déterminée par la famille F = (ϕ
ϕ(e1), ..., ϕ(ep))
image de la base B.
On appelle matrice de ϕ dans les bases B et C et on note MatB,C(ϕϕ)
la matrice de la famille F dans la base C.

Les matrices ---*--- Page 8


ϕ(e1) ... ϕ(ep)
 a11 ... a1p  f1 n
ϕ) = 
MatB,C(ϕ : ... :  : ∀j∈
∈{1, ..., p}, ϕ(ej) = ∑ aijfi
 
 an1 ... anp  fn i=1

Pour un j donné, les aij sont les coordonnées de ϕ(ej) dans la base C.

 IR3 → IR2


Ex: ϕ : 
(x, y, z) → (2x – y, x + y + z)
 

On vérifie aisément que ϕ∈L(IR3,IR2)


→ Si on rapporte IR3 et IR2 à leurs bases canoniques B et C,
 ϕ(1, 0, 0) = (2, 1) = 2(1, 0) + 1(0, 1)
 2 -1 0 
 ϕ(0, 1, 0) = (-1, 1) = -1(1, 0) + 1(0, 1) d'où MatB,C(ϕ) =  1 1 1 
 ϕ(0, 0, 1) = (0, 1) = 0(1, 0) + 1(0, 1)  

→ Si on rapporte IR3 à la base B' = ((1, 1, 1), (0, 1, 1), (0, 0, 1))
et IR2 à la base C' = ((1, 1), (1, -1))
ϕ(1, 1, 1) = (1, 3) = 2(1, 1) – 1(1, -1)
 ϕ(0, 1, 1) = (-1, 2) = 1(1, 1) – 3(1, -1)
 2 2 1 4 1 1 
d'où MatB',C'(ϕ) =  -2 -3 -1 
2 

1 1
ϕ(0, 0, 1) = (0, 1) = (1, 1) – (1, -1)
2 2

2-) Matrice d'un endomorphisme


Soit E un IK-e.v. de dimension n rapporté à une base B = (e1, ..., en) et ϕ∈L(E),
la matrice de ϕ dans la base B est la matrice de l'application linéaire ϕ de E dans E.

ϕ(e1) ... ϕ(en)


 a11 ... a1n  e1 n
ϕ) =
MatB(ϕ  : ... :  : ∀j∈
∈{1, ..., n}, ϕ(ej) = ∑ aijei
 
 an1 ... ann  en i=1

Pour un j donné, les aij sont les coordonnées de ϕ(ej) dans la base B.
Note: la matrice obtenue est une matrice carrée.

IK2[X] → IK2[X]


Ex: u :  On vérifie aisément que u∈L(IK2[X])
 P → P + P'

2
Si B = (1, X, X ) désigne la base canonique de IK2[X] alors
u(1) u(X) u(X2)
 u(1) = 1  1 1 0  1
 u(X) = X + 1 donc MatB(ϕ) =  0 1 2  X
 u(X2) = X2 + 2X   2
 0 0 1  X

Notes: → La matrice de l'identité idE est In dans toute base de E.


→ La matrice de l'homothétie de rapport λ est λIn dans toute base de E.

Les matrices ---*--- Page 9


3-) Image d'un vecteur par une application linéaire
 E un IK-e.v. de dimension p rapporté à une base fixée B = (e1, ..., ep)
Soient  F un IK-e.v. de dimension n rapporté à une base fixée C = (f1, ..., fn)
 ϕ une application linéaire de E dans F et M = MatB,C(ϕ ϕ)
 X est la matrice colonne des coordonnées d'un vecteur x de E dans la base B
Si 
 Y est la matrice colonne des coordonnées du vecteur ϕ(x) dans la base C
alors Y = MX
 x1  p
Preuve:  
X =   ⇔ x = ∑ xjej
:
 xp  j=1
 11 a ... a 1p  n
et M =  : ... :  ⇔ ∀j∈{1, ..., p}, ϕ(ej) = ∑ aijfi

 an1 ... anp  i=1
 y1  p
Par suite, Y = MX =  :  ⇔ ∀i∈{1, ..., n}, yi = ∑ aijxj
 yn  j=1
p p  n  n  p  n
Or ϕ(x) = ∑ xjϕ(ej) = ∑ xj  ∑ aijfi = ∑  ∑ aijxjfi = ∑ yifi
j=1 j = 1 i = 1  i = 1 j = 1  i=1
p
avec ∀i∈{1, ..., n}, yi = ∑ aijxj d'où le résultat.
j=1

 IR3 → IR2


Ex: Si ϕ: 
(x, y, z) → (2x – y, x + y + z)
 

 2 -1 0 
alors la matrice de ϕ dans les bases canoniques est M =  1 1 1 .
 
 4
Le triplet u = (4; -3; 1) a pour matrice de coordonnées U =  -3 
1
4
 2 -1 0  -3   11 
et v = ϕ(u) a pour matrice de coordonnées V = MU =  1 1 1   =  2 
   
1
ce qui correspond bien à ϕ(4, -3, 1) = (11, 2)

Note: ϕ), on résout l'équation matricielle MX = O


Pour trouver Ker(ϕ

x  2x – y = 0
 2 -1 0  0
Avec l'exemple ci-dessus, cela donne  1 1 1  y  =  0  soit  x + y + z = 0
    
z

 2x – y = 0
 x = - 3z z
On obtient  x + y = – z d'où  2z donc (x, y, z)∈Ker(ϕ) ssi (x, y, z) = - (1, 2, -3)
 3
 y = - 3
et Ker(ϕ) = Vect((1, 2, -3))

Les matrices ---*--- Page 10


4-) Isomorphisme entre L(E,F) et Mn,p(IK)
 L(E,F) Mn,p(IK)
→
Avec les notations précédentes, l'application Φ : 
 ϕ → MatB,C(ϕ
 ϕ)
est un isomorphisme de IK-espaces vectoriels.

Preuve: → Soit M∈Mn,p(IK), M est la matrice dans C d'une unique famille (v1, ..., vp)
de vecteurs de F et il existe une unique application linéaire ϕ de L(E,F)
telle que ϕ(e1) = v1, ..., ϕ(ep) = vp.
Donc M admet un unique antécédent par Φ et, par suite, Φ est bijective.
→ ∀(a, b)∈IK2, ∀(ϕ, ψ)∈(L(E,F))2,
si A = MatB,C(ϕ), B = MatB,C(ψ) et M = MatB,C(aϕ + bψ)
alors ∀j∈{1, ..., p}, la j-ème colonne de M est (aϕ + bψ)(ej) = aϕ(ej) + bψ(ej)
donc a fois la j-ème colonne de A + b fois la j-ème colonne de B.
Par suite M = aA + bB soit Φ(aϕ + bψ) = aΦ(ϕ) + bΦ(ψ) et Φ est linéaire.

Notes: → On peut remarquer que dim(L(E,F)) = dim(Mn,p(IK)) = n × p.


→ Le théorème précédent indique que si A et B sont les matrices
des applications linéaires ϕ et ψ par rapport aux bases B et C,
alors aA + bB est la matrice de aϕϕ + bψ
ψ par rapport à ces mêmes bases.

Cas particulier:
 L(E) Mn(IK)
→
Avec les notations précédentes, l'application Φ : 
 ϕ → MatB(ϕ
 ϕ)
est un isomorphisme de IK-espaces vectoriels.

5-) Application linéaire canoniquement associée à une matrice


D'après le théorème précédent, L(IKp,IKn) est isomorphe à Mn,p(IK).
En utilisant les bases canoniques de IKp et de IKn,
à toute matrice M∈ ∈Mn,p(IK), on peut associer une unique application linéaire
p n
de L(IK ,IK ) appelée application linéaire canoniquement associée à M.

1 2  IK2 → IK3


Ex: Si M =  3 4  on lui associe ϕ : 
(x, y) → (x + 2y, 3x + 4y, 5x + 6y)
 

5 6

6-) Composition des applications linéaires et produit matriciel

 EF un
un IK-e.v. de dimension p rapporté à une base fixée B = (e1, ..., ep)
IK-e.v. de dimension n rapporté à une base fixée C = (f1, ..., fn)
Soient  G un IK-e.v. de dimension m rapporté à une base fixée D = (g1, ..., gm)
 ϕψ une application linéaire de E dans F de matrice A = (aij) = MatB,C(ϕ
une application linéaire de F dans G de matrice B = (bij) = MatC,D(ψ
ϕ)
ψ)
alors ψ ° ϕ est l'application linéaire de E dans G de matrice C = (cij) = MatB,D(ψ
ψ ° ϕ)
et C = BA

Les matrices ---*--- Page 11


 n  n n  m 
Preuve: ∀j∈{1, ..., p}, ψ ° ϕ(ej) = ψ  ∑ aijfi = ∑ aij ψ(fi) = ∑ aij ∑ bkigk
i = 1  i = 1 i = 1 k = 1 
m  n  m
ψ ° ϕ(ej) = ∑  ∑ aijbkigk = ∑ ckjgk
k = 1 i = 1  k=1
n
D'où ∀j∈{1, ..., p}, ∀k∈{1, ..., m}, ckj = ∑ bkiaij et C = BA
i=1

A retenir: ψ) × MatB,C(ϕ
MatC,D(ψ ϕ) = MatB,D(ψ
ψ ° ϕ)

En particulier: Si ϕ et ψ sont deux endomorphismes de E rapporté à une base B,


ψ) × MatB(ϕ
MatB(ψ ϕ) = MatB(ψ
ψ ° ϕ)

Ex: si u∈L(E) a pour matrice A


alors u3 – 2u + 3idE a pour matrice A3 – 2A + 3In

V-) Caractérisations des matrices carrées inversibles


1-) Théorème
Soit E un IK-e.v. de dimension n rapporté à une base B = (e1, ..., en)
et ϕ un endomorphisme de E avec A = MatB(ϕ ϕ).
A est inversible si et seulement si ϕ est un automorphisme de E
et, dans ce cas, la matrice de ϕ-1 est A-1.
Preuve: (⇐) Si ϕ est bijective alors ϕ-1 est aussi un automorphisme de E
et ϕ ° ϕ-1 = ϕ-1 ° ϕ = idE.
Si B est la matrice de ϕ-1 dans la base B, cela se traduit par AB = BA = In.
Donc A est inversible et MatB(ϕ-1) = B = A-1.
(⇒) Si A est inversible, il existe une matrice carrée A-1 telle que AA-1 = A-1A = In.
Cette matrice représente un endomorphisme ψ de E tel que ϕ ° ψ = ψ ° ϕ = idE.
Par suite ϕ et ψ sont deux automorphismes de E réciproques l'un de l'autre.

Note: Ce théorème donne une première méthode pour déterminer


si une matrice carrée est inversible et pour trouver son inverse dans ce cas.

1 2
Ex: A =  2 1  est-elle inversible ? Si oui, déterminer son inverse.
 
A est la matrice canoniquement associée à l'endomorphisme ϕ de IK2 défini par
 IK2 → IK2
ϕ :  (x, y) → (x + 2y, 2x + y)
 

 x + 2y = a

 x=
– a + 2b
3
Or ∀(a, b)∈IK2, ϕ(x, y) = (a,b) ⇔  2x + y = b ⇔  2a – b

 y = 3
2 2
 IK → IK
donc ϕ est bijective et ϕ-1 :  (x, y) → - 1x + 2y, 2x – 1y


 3 3 3 3 

1 -1 2 
Par suite A est inversible et A-1 =  2 -1 
3 

Les matrices ---*--- Page 12


2-) Théorème
∈Mn(IK), A est inversible ⇔ A est inversible à gauche ⇔ A est inversible à droite
Si A∈
Donc, si on trouve une matrice B telle que AB = In alors A est inversible et B = A-1.
(Il n'est pas utile de vérifier que BA = In).
Preuve: Si ϕ est l'endomorphisme de IKn canoniquement associé à A,
comme on est en dimension finie,
ϕ est un automorphisme ssi il existe un endomorphisme ψ de E tel que ϕ ° ψ = idE.

3-) Théorème
∈Mn(IK), A est inversible ssi la famille de ses vecteurs colonnes est libre.
Soit A∈
Preuve: Soit ϕ l'endomorphisme de IKn canoniquement associé à A,
ϕ est un automorphisme ssi l'image de la base canonique de IKn est une base de IKn
donc ssi la famille des vecteurs colonnes de A est une base de IKn
donc ssi la famille des n vecteurs colonnes de A est libre (car dim(IKn) = n).

En particulier: → Une matrice qui a une colonne nulle n'est pas inversible,
→ Une matrice qui a deux colonnes égales ou proportionnelles
n'est pas inversible,
→ Une matrice dont une colonne est combinaison linéaire des autres
n'est pas inversible.
 1 -1 0 
Ainsi A =  0 1 1  n'est pas inversible car C3 = C1 + C2
1 2 3

4-) Théorème
∈Mn(IK), A est inversible ssi tA est inversible.
Soit A∈
Dans ce cas, (tA)-1 = t(A-1)
L'inverse de la transposée est la transposée de l'inverse.
Preuve: A∈GLn(IK) ⇔ ∃B∈Mn(IK), AB = In
A∈GLn(IK) ⇔ ∃B∈Mn(IK), tB.tA = tIn = In.
A∈GLn(IK) ⇔ tA∈GLn(IK) et, dans ce cas, (tA)-1 = tB =t(A-1)

Corollaire: ∈Mn(IK), A est inversible ssi la famille de ses vecteurs lignes est libre.
Soit A∈

5-) Inversibilité des matrices diagonales


n
diag(a1, ..., an) est inversible ssi aucun des ai n'est nul donc ssi ∏ ai ≠ 0
i=1

(diag(a1, ..., an))-1 = diaga , ..., a 


1 1
Dans ce cas,
 1 n
Preuve: → Si ai = 0 alors la i-ème colonne de diag(a1, ..., an) est nulle
et diag(a1, ..., an) n'est pas inversible.
→ Si aucun des ai n'est nul,
diag(a1, ..., an) × diag , ...,  = diag(1, ..., 1) = In
1 1
 a1 an
donc diag(a1, ..., an) est inversible et (diag(a1, ..., an))-1 = diag , ..., .
1 1
 a1 an

Les matrices ---*--- Page 13


6-) Inversibilité des matrices triangulaires
Une matrice triangulaire est inversible ssi tous ses termes diagonaux sont non nuls
donc ssi le produit de ses termes diagonaux est différent de 0.

 a011 a12 ... a1n


a22 ... a2n

Preuve: Soit T une matrice carrée triangulaire supérieure: T =  0 0 ... : 
0 0 ... ann 
et soit ϕ l'endomorphisme de IK canoniquement associé à T .
n

 a11x1 + aa12xx2 ++ ...... ++ aa1nxxn == αα1


ϕ(x1, ..., xn) = (α1, ..., αn) ⇔ 
22 2 2n n 2
...
 annxn = αn
et ce système triangulaire admet un n-uplet solution unique ssi aucun des aii n'est nul.

Note: Si T est une matrice triangulaire supérieure inversible


alors T-1 est aussi une matrice triangulaire supérieure (admis)

1 2 3
Ex: Si T =  0 4 5 
0 0 6


b c
x=a– –
x a  x + 2y + 3z = a  b 25c 12
alors T y  =  b  ⇔  4y + 5z = b ⇔  y = –
4 24
z c 
 z = 6c
6z = c

 24 -12 -2 
et T =  0 6 -5 
1 
-1
24 0 0 4
 

Les matrices ---*--- Page 14


VI-) Changement de bases
1-) Matrice de passage
a-) Définition
Soit E un IK-e.v. de dimension n et B = (e1, ..., en) et B' = (e'1, ..., e'n) deux bases de E,
la matrice de passage de B à B' est la matrice PB,B' de la famille (e'1, ..., e'n) dans la base B.
Ex: Dans IR3, si B est la base canonique et si B' = (e'1, e'2, e'3) = ((1, 0, 0), (1, 1, 0), (1, 1, 1))

e'1 e'2 e3'


1 1 1  (1, 0, 0)
alors B' est une base de IR3 et PB,B' = 0 1 1  (0, 1, 0)
 
0 0 1  (0, 0, 1)

Ex: Dans IR3[X], si B est la base canonique et si B' = (P, P', P", P(3))
avec P = X3 + 3X2 – 5X + 7
P P' P" P(3)
 -57 -56 66 60  1X
alors B' est une base de IR3[X] et PB,B' = 
3 3 0 0 X
2

 1 0 0 0  X3
b-) Lemme
Soit E un IK-e.v. de dimension n, B = (e1, ..., en) et B' = (e'1, ..., e'n) deux bases de E
et idE l'application identique sur E, alors PB,B' = MatB',B(idE)
Attention: dans la formule ci-dessus l'ordre des matrices B et B' est inverse.
En effet: e'1 ... e'n
e1
MatB',B(idE) = PB,B' ...
en

c-) Théorème
Si B, B' et B" sont trois bases de E alors PB,B" = PB,B' × PB',B"
(E, B") → (E, B')  (E, B') → (E, B)  (E, B") → (E, B)
Preuve: i1 :  u → u , i 2 : 
u → u et i 3 : 
u → u
 
 
 

MatB",B'(i1) = PB',B", MatB',B(i2) = PB,B' et MatB",B(i3) = PB,B",


i3 = i2 ° i1 donc PB,B" = MatB",B(i3) = MatB',B(i2) × MatB",B'(i1) = PB,B' × PB',B".

Les matrices ---*--- Page 15


d-) Corollaire
Toute matrice de passage est une matrice inversible et (PB,B')-1 = PB',B
Preuve: PB,B' × PB',B = PB,B = In donc PB,B' est inversible et (PB,B')-1 = PB',B.

Ex: Si dim(E) = 2 et si l'on considère deux bases B = (e1, e2) et B' = (e1 + e2, e1– e2),
1 1
alors PB,B' =  1 -1 
 

 e1 = e1 + e2
'

 e1 =
e'1 + e'2
2
et  e' = e – e ⇔  e1 – e'2
'
 2
 1 2
1 2
e =
1 1 1 
donne PB',B = (PB,B')-1 =  1 -1 
2 

Remarque: réciproquement, toute matrice inversible de Mn(IK)


peut être considérée comme la matrice de passage
de la base canonique de IKn à la base de ses vecteurs colonnes.

2-) Effet d'un changement de base sur les coordonnées d'un vecteur
Soit E un IK-e.v. muni de deux bases B et B' et soit x un vecteur de E.
 X est la matrice colonne des coordonnées de x dans la base B
Si  X' est la matrice colonne des coordonnées de x dans la base B'
 P = PB,B' est la matrice de passage de la base B à la base B'

alors X = P.X' donc X' = P–1X


 (E, B') → (E, B)
Preuve: i:  u → u P = PB,B' = MatB',B(i) donne X = PX'
 

Ex: Dans IR2, si B est la base canonique et si B' = ((1, 1), (1, -1))
1 1  1 1 1 
alors P = PB,B' =  1 -1  et P-1 =  1 -1 
  2 
 1  1 1 1   1   2 
Par suite u = (1, 3) a pour coordonnées P-1 3  =  1 -1  3  =  -1  dans la base B'.
  2    
En effet, 2(1, 1) – 1(1, -1) = (1, 3).

3-) Effet d'un changement de base sur la matrice d'une application linéaire
 E un IK-e.v. de dimension p, B et B' deux bases de E et P = PB,B'
Soient  F un IK-e.v. de dimension n, C et C' deux bases de F et Q = PC,C'
 ϕ∈L(E,F), M = MatB,C(ϕ ϕ) et M' = MatB',C'(ϕ
ϕ)

alors M' = Q-1MP

Preuve: Soit x un vecteur de E, X et X' ses matrices de coordonnées dans les bases B et B',
si y = ϕ(x) a pour matrices de coordonnées Y et Y' dans les bases C et C'
alors Y' = M'X'
or Y' = Q-1Y = Q-1(MX) = (Q-1M)X = (Q-1M)PX' = (Q-1MP)X'

Les matrices ---*--- Page 16


Cas d'un endomorphisme E un IK-e.v. de dimension p, B et B' deux bases de E et P = PB,B'
Soit 
 ϕ∈L(E), M = MatB(ϕ ϕ) et M' = MatB'(ϕϕ)
alors M' = P-1MP

IR2 → IR2



Ex: Si ϕ: (x, y) → (2x – 3y, 3x + y)

 

 2 -3 
alors la matrice de ϕ dans la base canonique de IR2 est M =  3 1 
 
1 1 1  2 -3  1 1 
et la matrice de ϕ dans la base ((1, 1), (1, -1)) est M' =  1 -1  3 1  1 -1 
2   
1 1 1  -1 5  1 3 7 
M' =  1 -1  4 2  =  -5 3 
2   2 
3 5 7 3
En effet ϕ(1, 1) = (-1, 4) = (1, 1) – (1, -1) et ϕ(1, -1) = (5, 2) = (1, 1) + (1, -1)
2 2 2 2

VI-) Rang d'une matrice


1-) Définition
Soit M∈∈Mn,p(IK), on appelle rang de la matrice M et on note rg(M)
le rang de la famille de ses vecteurs colonnes.
Donc rg(M) = rg(C1, ..., Cp) = dim(Vect(C1, ..., Cp))
 1 2 0,1 3 
Ex: → Si M =  2 4 0,2 6  alors Vect(C1, C2, C3, C4) = Vect(C1) d'où rg(M) = 1.
 3 6 0,3 9 
 12 23 00 
→ Si N =  3 4 0  alors Vect(C1, C2, C3) = Vect(C1, C2) d'où rg(N) = 2.
4 5 0
2-) Théorème
 E un IK-e.v. de dimension p muni d'une base B = (e1, ..., ep)
Soient  F un IK-e.v. de dimension n muni d'une base C = (f , ..., f )
 1 n
Si ϕ est l'application linéaire de E dans F telle que M = MatB,C(ϕ
ϕ)
alors rg(M) = rg(ϕ ϕ)
En effet, rg(ϕ) = dim(Vect(ϕ(e1), ..., ϕ(ep))) = dim(Vect(C1, ..., Cp)) = rg(M)
En particulier: le rang d'une matrice est celui de l'application linéaire canoniquement
associé à cette matrice.

3-) Théorème (admis)


Le rang d'une matrice est égal au rang de la matrice transposée.
rg(A) = rg(tA)

Les matrices ---*--- Page 17


VII-) Opérations élémentaires sur les lignes ou les colonnes d'une matrice
1-) Définition
Soit A∈∈Mn,p(IK), on appelle opération élémentaire sur les lignes de A
une des trois transformations suivantes:
• échange de la ligne i avec la ligne j noté Li ↔ Lj.
• multiplication de la ligne i par le scalaire α non nul noté Li ← αLi.
• ajout à la ligne i de λ fois la ligne j noté Li ← Li + λ.Lj.
Note: la transformation Li ←αLi + λLj avec α ≠ 0 est autorisée
car elle résume les deux dernières transformations.

On définit de même les opérations élémentaires sur les colonnes.


Note: effectuer des opérations élémentaires sur les colonnes de A
équivaut à effectuer des opérations élémentaires sur les lignes de tA.

2-) Théorème
Une opération élémentaire ne change pas le rang d'une matrice.
C'est une conséquence du théorème vu sur les opérations sur les familles de vecteurs
et du théorème qui indique que le rang d'une matrice est égal au rang de sa transposée.
Une matrice obtenue à partir de M en utilisant des opérations élémentaires sur les lignes
ou sur les colonnes de M s'appelle une réduite de Gauss de M.

3-) Application au calcul du rang d'un matrice


→ Si c'est une matrice ayant plus de lignes que de colonnes, on travaille sur sa transposée.
→ Au moyen d'opérations élémentaires sur les lignes, on cherche une réduite de Gauss
à lignes étagées.
(la ligne en dessous de Li ne doit contenir que des zéros dans les colonnes de rang
inférieur ou égal au premier élément non nul de Li)
→ Le rang de la matrice initiale est égal au nombre de lignes non nulles.

1 0 2 3 
Ex: M= 0
 1 1 0 L1 , L3 ← L3 – 3L1, L2 ← L2 – 2L1
3 -1 2 1 
2 0 1 -2 
1 0 2 3

M1 =
0 1 1 0
L2 , L3 ← L3 + L2
0 -1 -4 -8 
0 0 -3 -8 
 10 0 2 3


M2 = 0
1 1 0
L3 , L4 ← L4 – L3
 0 -3 -8 
0 0 -3 -8 
 10 0 2 3
1 1 0

M3 =  0 0 -3 -8  donc rg(M) = 3
0 0 0 0

Les matrices ---*--- Page 18


Note: Ceci permet de trouver le rang d'une famille de vecteurs.
Ex: Dans IR3 rapporté à sa base canonique, on considère les vecteurs
u1 = (1, -3, 5), u2 = (2, -6, 10), u3 = (4, -5, 3) et u4 = (2, 1, -7)
Déterminer le rang de F = (u1, u2, u3, u4).
La matrice de F dans la base canonique est
 1 2 4 2
M =  -3 -6 -5 1  L1 , L2 ← L2 + 3L1, L3 ← L3 – 5L1
 5 10 3 -7 
1 2 4 2 
M1 =  0 0 7 7  L2 , L3 ← L3 – L2
 0 0 -17 -17 
1 2 4 2
M2 =  0 0 7 7  donc rg(F) = 2
0 0 0 0
Attention! quand on ne travaille pas sur les colonnes, on obtient le rang
mais on n'obtient pas une base de vect(F).

Rappel: Si M est la matrice d'un endomorphisme ϕ alors rg(M) = rg(ϕ


ϕ).

4-) Application au calcul de l'inverse d'une matrice carrée (résultat admis)


Algorithme de Gauss Jordan:
→ On place en parallèle la matrice à inverser soit A et la matrice identité In.
Dans la suite, on effectue sur A et sur In les mêmes opérations élémentaires.
→ Au moyen d'opérations élémentaires sur les lignes en descendant,
on calcule une réduite de Gauss triangulaire supérieure de A.
A est inversible ssi cette réduite de Gauss est à élément diagonaux non nuls

→ Au moyen d'opérations élémentaires sur les lignes en remontant,


on obtient une réduite de Gauss diagonale de A et, enfin l'identité.
→ Si A est transformée en In alors In est transformée en A-1.

 1 2 1 0
Ex: A =     L1 , L2 ← L2 - 3L1
 3 4 0 1
1 2  1 0
    (A est inversible) L2 , L1 ← L1 + L2
 0 -2   -3 1
1 0   -2 1 1
    L2 ← - L2
 0 -2   -3 1 2
 -2 1 
1 0 3 1
   - =A
-1
0 1
2 2

Les matrices ---*--- Page 19


1 2 3 1 0 0
0 1 0
Ex: B = 4 5 6   L1 , L2 ← L2 – 4L1, L3 ← L3 – 7L1
7 8 9 0 0 1

1 2 3
  1 0 0
 -4 1 0  L , L ← L – 2L
0 -3 
-6
  2 3 3 2
0 -6 -12   -7 0 1 
 1 2 3
 0 -3 -6  donc B n'est pas inversible.
 
0 0 0 

 1 1 0 1 0 0
0 1 0
Ex: C =  1 0 1   L1 , L2 ← L2 – L1
 0 1 1 0 0 1

1 1 0  1 0 0
 -1 1 0  L , L ← L + L
 0 -1 1    2 3 3 2
0 1 1  0 0 1

 10 -11 10   1 0 0
 -1 1 0  (C est inversible) L , L ← 2L – L
    3 2 2 3
 0 0 2   -1 1 1 

 1 1 0
  1 0 0
 -1 1 -1  L , L ← 2L + L
 0 -2 0    2 1 1 2
0 0 2  -1 1 1 
2 0 0  1 1 -1 
0 -2 0   -1 1 -1  L ← 1 L L ← - 1 L , L ← 1 L
    1 2 1, 2 2 2 3
2 3
0 0 2  -1 1 1 
1 0 0  1 1 -1 
0 1 0
1
1 -1 1  = A-1
  2  -1 1 1 
0 0 1  

Les matrices ---*--- Page 20

You might also like