You are on page 1of 66

Unité Fondamentale: Algèbre linéaire: une application l’Analyse en

Composantes Principales
1ère année
Notes de Cours

J. Gergaud

Octobre 2006
Table des matières

1 Algèbre linéaire 1
1 Espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Noyau, Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3 Projecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1 Somme d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4.3 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.4 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.5 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6 Matrices et systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2 Algorithme de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
7 Valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
7.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
7.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8 Produit scalaire, norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
8.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
8.2 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
8.3 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9 Décomposition en valeurs singulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9.1 Théorèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
9.2 Décomposition en valeurs singulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10 Espace affine, barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.2 Espace affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.3 Distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.4 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2 Analyse en composantes principales 25


1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.1 Type de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2 Outils mathématiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3 Plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2 Objectifs de l’ACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1 Transformations initiales des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2 Nuage de points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Nuage des variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 ACP normée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

i
ii TABLE DES MATIÈRES

3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Inertie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Analyse des individus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Analyse des variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.5 Relations de dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.6 Reconstitution des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.7 Qualité globale de l’ajustement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.8 Individus et variables supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.9 Éléments pour l’interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.10 Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.11 Individus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.12 Remarque sur la dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3 Applications 41
1 Dépenses de l’État . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1 Données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.3 Questions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.4 Réponses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2 Budget-Temps multimédia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1 Données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.3 Questions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4 Réponses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3 Traitement d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1 Problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 ACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

A Interprétation des produits matriciels 61


1 Produit matrice, vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.1 Première interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.2 Deuxième interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2 Produit matrice, matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.1 Première interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.2 Deuxième interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.3 Troisième interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4 Quatrième interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Chapitre 1

Algèbre linéaire

1 Espace vectoriel
1.1 Définition
Définition 1.1.1 (Espace vectoriel sur R). Un espace vectoriel sur R est un ensemble E non vide muni de deux
oprérations, l’addition notée + et la multiplication par un scalaire notée ., ayant les propriétés suivantes :
(i) L’addition est une application de E × E dans E qui vérifie :
~ ∈ E 3 (~u + ~v ) + w
(a) ∀(~u, ~v , w) ~ = ~u + (~v + w)
~
(b) ∀(~u, ~v ) ∈ E 2 ~u + ~v = ~v + ~u
(c) il existe un élément appelé vecteur nul et noté ~0 tel que : ∀~u ∈ E ~u + ~0 = ~0 + ~u = ~u
(d) pour tout ~u ∈ E il existe un élément de E appelé opposé de ~u et noté −~u tel que : ~u +(−~u) = (−~u)+~u = ~0
(ii) la multiplication par un scalaire est une application de R × E dans E qui vérifie :
(a) ∀(α, β) ∈ R2 , ∀~u ∈ E, (α + β)~u = α~u + β~u
(b) ∀α ∈ R, ∀(~u, ~v ) ∈ E 2 α(~u + ~v ) = α~u + α~v
(c) ∀~u ∈ E 1.~u = ~u
(d) ∀(α, β) ∈ R2 , ∀~u ∈ E, (αβ).~u = α.(β.~u)
Remarque 1.1.2. Un même symbole a des significations différentes :
(i) + désigne l’addition dans R et l’addition dans l’espace vectoriel ;
(ii) . désigne la multiplication dans R et la multiplication par un scalaire.
Définition 1.1.3 (Vecteur,scalaire). On appelle vecteur tout élément d’un espace vectoriel et on note ~u un vecteur.
On appelle scalaire tout élément de R.
Exemple 1.1.4. Sur E = R2 , on définit les opérations + et . par :
 
u1 + v1
~u + ~v =
u2 + v2

où    
u1 v1
~u = et ~v =
u2 v2
et  
λu1
λ~u =
λu2
(R2 , +, .) est alors un espace vectoriel sur R.
Exemple 1.1.5. On généralise sans difficultés l’exemple précédent à Rn :
 
u1 + v1
 u2 + v2 
~u + ~v = 
 
.. 
 . 
un + vn

1
2 CHAPITRE 1. ALGÈBRE LINÉAIRE

où    
u1 v1
 u2   v2 
~u =   et ~v = 
   
.. .. 
 .   . 
un vn
et  
λu1
 λu2 
λ~u = 
 
.. 
 . 
λun
Exemple 1.1.6. Soit F = l’ensemble des applications de R dans R

+ : F × F −→ F
(f, g) 7−→ f + g

où
f + g : R −→ R
x 7−→ f (x) + g(x)
et
. : R × F −→ F
(λ, f ) 7−→ λ.f
où
λf : R −→ R
x 7−→ λf (x)
(F, +, .) est un espace vectoriel.
Remarque 1.1.7. Le dernier exemple montre que la représentation des vecteurs par des flècles n’est pas toujours
adaptée. C’est pourquoi nous noterons maintenant les vecteurs sans cette flèche (sauf lorsque nous parlerons de
vecteurs de l’espace vectoriel associé à l’espace affine (cf. section 10). Il faudra donc faire attention pour savoir
quel objet on manipulera, c’est le contexte qui différenciera ceux-ci. En particulier 0 désignera le zéro de R ou le
vecteur nul.
Définition 1.1.8 (Sous espace vectoriel). Soit E un espace vectoriel sur R alors F sera un sous espace vectoriel
de E si et seulement si F est un sous ensemble de E et si (F, +, .) est un espace vectoriel.
Théorème 1.1.9. Si F et G sont deux sous espaces vectoriels de E alors F ∩ G est un sous espace vectoriel de E.
Démonstration
Immédiate 2

1.2 Base
Définition 1.2.1 (Combinaison linéaire). Soit {u1 , u2 , . . . , un } une partie finie d’un espace vectoriel E. Un vecteur
u est dit combinaison linéaire de {u1 , u2 , . . . , un } si et seulement si il exite (α1 , α2 , . . . , αn ) ∈ Rn tel que :
n
X
u= αi ui = α1 u1 + · · · + αn un
i=1

Théorème 1.2.2. Le plus petit espace vectoriel qui contient un ensemble U est constitué de l’ensemble des com-
binaisons linéaires d’éléments de U . On note cet ensemble V ect(U ).
Démonstration
Triviale 2
Définition 1.2.3. On appelle sous espace engendré par U le sous espace V ect(U ).
Exemple 1.2.4. Prenons un vecteur u différent du vecteur nul dans (R3 , +, .). L’ensemble V ect(u) = {v ∈ R3 /v =
αu; α ∈ R} est appelé droite vectorielle.
Définition 1.2.5 (Espace vectoriel de dimension finie). Un espace vectoriel est de dimension finie s’il existe une
partie finie qui l’engendre. Si cette condition n’est pas réalisée, l’espace est dit de dimension infinie.
1. ESPACE VECTORIEL 3

Exemple 1.2.6. (i) R3 = V ect({e1 , e2 , e3 )} où :

e1 = (1, 0, 0); e2 = (0, 1, 0); e3 = (0, 0, 1)

En effet
∀u = (u1 , u2 , u3 ) ∈ R3 on a u = u1 e1 + u2 e2 + u3 e3
Par suite R3 est de dimension finie.
(ii) L’espace vectoriel E = F des fonctions de R dans R est de dimension infinie.
Définition 1.2.7 (Vecteurs indépendants). n vecteurs {u1 , . . . , u2 } d’un espace linéaire sont dits indépendants si
et seulement si :
α1 u1 + · · · + αn un = 0 =⇒ α1 = · · · = αn = 0
On dit aussi que la famille (u1 , . . . , un ) est libre.
Remarque 1.2.8. Une famille non libre est dite liée et les vecteurs {u1 , . . . , u2 } sont dits linéairement dépendants.
La famille (u1 , . . . , u2 ) est liée si et seulement si ∃(α1 , . . . , αn ) 6= (0, . . . , 0) ∈ Rn tel que α1 u1 + · · · + αn un 6= 0
Théorème 1.2.9. Soient E un espace vectoriel et (u1 , . . . , un ) une famille libre, alors tout vecteur u de V ect({u1 , . . . , un }
s’écrit de façon unique comme combinaison linéaire des vecteurs {u1 , . . . , un }.
Démonstration
Soient (αi )i=1,...,n et (βi )i=1,...,n deux n-uplets tels que

u = α1 u1 + · · · + αn un = β1 u1 + βn un

alors
(α1 − β1 )u1 + · · · + (αn − βn )un = 0
Or la famille (u1 , . . . , un ) est libre donc α1 − β1 = · · · = αn − βn = 0 D’où l’unicité. L’existence provient tout
simplement de la définition de l’ensemble V ect({u1 , . . . , un }) 2
Définition 1.2.10 (Base). Soit E un espace vectoriel. Un famille de n vecteurs e = (e1 , . . . , en ) est une base de E
si et seulement si e engendre E et si e est libre.
Théorème 1.2.11. Soit E un espace vectoriel et e = (e1 , . . . , en ) une base de E alors tout vecteur s’écrit de façon
unique comme combinaison linéaire des éléments de la base :
n
X
u= αi ei
i=1

Les (αi )i=1,n s’appelle les composantes du vecteur u dans la base B ou les coordonnées du vecteur u dans la base e.
Démonstration
Evidente 2
Théorème 1.2.12. Tout espace vectoriel de dimension finie admet une base et toutes les bases ont le même nombre
d’éléments.
Démonstration
Admise 2
Définition 1.2.13 (Dimension). On appelle dimension d’un espace vectoriel de dimension finie le nombre n
d’éléments d’une base de cet espace. L’espace vectoriel est alors dit de dimension n.
Exemple 1.2.14. (i) (R2 , +, .) est un espace vectoriel de dimension 2 : e1 = (0, 1); e2 = (0, 1) est une base
(ii) (Rn , +, .) est un espace vectoriel de dimension n : (e1 , . . . , en ) où

ei = (0, . . . , 0, 1, 0, . . . , 0)

est une base que l’on appellera la base canonique de Rn .


(iii) C est un espace vectoriel de dimension 2 sur R : (1, i) est une base
Définition 1.2.15 (rang d’une famille de vecteur). Soit {v1 , . . . , vn } une famille de n vecteurs d’un espace vectoriel
E. On appelle rang de cette famille la dimension de l’espace vectoriel engendré par les vecteurs {v1 , . . . , vn }.
4 CHAPITRE 1. ALGÈBRE LINÉAIRE

2 Application linéaire
Dans toute cette section E et F seront des espaces vectoriels sur R.

2.1 Définition
Définition 2.1.1 (Application linéaire). Une application f de E dans F est linéaire si elle vérifie les deux propriétés
suivantes :
(i) ∀(u, v) ∈ E 2 f (u + v) = f (u) + f (v)
(ii) ∀u ∈ E, ∀α ∈ R f (αu) = αf (u)

De la définition on déduit immédiatement :

Propriétés 2.1.2. (i) f (0E ) = 0F


(ii) f (−u) = −f (u)
(iii) f (αu + βv) = αf (u) + βf (v) et de façon plus générale

Xn n
X
f( αi ui ) = αi f (ui )
i=1 i=1

Exemple 2.1.3.
f :E −→ F
u 7−→ 0
est une application linéaire appelée application nulle.

Exemple 2.1.4.
f :E −→ E
u 7−→ u
est une application linéaire appelée application identité.

Définition 2.1.5 (Endomorphisme). On appelle endomorphisme toute application linéaire de E dans lui-même.

Définition 2.1.6 (Forme linéaire). On appelle forme linéaire toute application linéaire à valeurs dans R.

Définition 2.1.7 (isomorphisme). On appelle isomorphisme toute application linéaire de E dans F bijective.

Remarque 2.1.8. L’application


f : R −→ R
x 7−→ αx + β
est souvent appelée fonction linéaire. Il ne s’agit pourtant pas d’une application linéaire au sens de la définition
(2.1.1) (sauf pour β = 0). Il s’agit en fait d’une application affine.

2.2 Noyau, Image


Définition 2.2.1 (Noyau). Soit f une application linéaire de E dans F . On appelle noyau de f l’ensemble :

Ker f = {u ∈ E/f (u) = OF }

Remarque 2.2.2. Ker f ⊂ E.

Théorème 2.2.3. Ker f est un sous espace vectoriel de E.

Démonstration
Soit f : E → F une application linéaire alors pour tout vecteur u et v de Ker f et pour tout scalaire α et β on a :

f (αu + βv) = αf (u) + βf (v) = OF

donc αu + βv appartient au noyau de f 2

Théorème 2.2.4. Une application linéaire f est injective si et seulement si Ker f = {OE }.
2. APPLICATION LINÉAIRE 5

Démonstration
Soit f une application linéaire de E dans F injective alors

u 6= OE ⇒ f (u) 6= f (0E ) = 0F

donc u n’appartient pas à Ker f . Réciproquement soit f de E dans F une application linéaire telle que Ker f =
{OE }. Si u et v sont deux vecteurs de E on a f (u) = f (v) si et seulement si f (u − v) = 0F . donc u − v appartient
à Ker f . Par suite u − v = 0E et donc u = v. En conclusion f est injective 2
Définition 2.2.5 (Image). Soit f une application linéaire de E dans F . On appelle image de f l’ensemble :

Im f = {v ∈ F/∃u ∈ Ef (u) = v}

Remarque 2.2.6. Im f ⊂ F .
Théorème 2.2.7. Im f est un sous espace vectoriel de F .
Démonstration
Triviale 2
Notation 2.2.8. On note L(E, F ) l’ensemble des applications linéaires de E dans F .
Théorème 2.2.9. (L(E, F ), +, .) est un sous espace vectoriel de (F(E, F ), +, .)
Démonstration
Triviale 2
Théorème 2.2.10. Soient E, F et G trois espaces vectoriels sur R. Soit f (respectivement g) une application
linéaire de E dans F (respectivement de F dans G). Alors l’application h = g ◦ g est une application linéaire de E
dans G.
Démonstration
Immédiate 2
Définition 2.2.11 (Rang d’une application linéaire). Soit f une application linéaire de E dans F , E et F espaces
vectoriels de dimensions finies. On appelle rang de f la dimension de l’espace vectoriel Im f .
Théorème 2.2.12. Soit f une application linéaire de E dans F , E et F espaces vectoriels de dimensions finies.
Soit (e1 , . . . , en ) une base de E alors le rang de f est le rang de la famille de vecteurs {f (e1 ), . . . , f (en )}.
Théorème 2.2.13 (Théorème du rang). Soit f une application linéaire de E dans F , E et F espaces vectoriels
de dimensions finies alors on a :
dimE = dim ker f + dimIm f
Démonstration
Admise 2
Théorème 2.2.14. Soient E et F deux R espaces vectoriels de dimensions finies et f une application linéaire de
E dans F , on a alors les équivalences suivantes :
(i) f est injective si et seulement si Ker f = {0E }.
(ii) f est surjective si et seulement si Im f = F .
(iii) f est bijective si et seulement si f transforme une base de E en une base de F .
Démonstration
Admise 2
Remarque 2.2.15. Si f application linéaire de E dans F , espaces vectoriels de dimensions finies, transforme une
base de E en une base de F , alors f transforme toute base de E en une base de F .
Remarque 2.2.16. Si f est un isomorphisme de E dans F alors les dimensions de E et F sont égales.
Théorème 2.2.17. Soient E et F deux espaces vectoriels de même dimension finie, alors les propriétés suivantes
sont équivalentes.
(i) f est bijective.
(ii) f est injective.
(iii) f est surjective.
6 CHAPITRE 1. ALGÈBRE LINÉAIRE

3 Projecteurs
3.1 Somme d’espaces vectoriels
Définition 3.1.1 (Somme de deux espaces vectoriels). Soient E et F deux sous espace d’un espace vectoriel de
dimension finie G. On appelle somme de E et F le plus petit sous espace vectoriel qui contient E et F . On note
E + F ce sous espace vectoriel.
Théorème 3.1.2. On a :
E + F = {w ∈ G/w = u + v u ∈ E v ∈ F }
Démonstration
Immédiate 2
Définition 3.1.3 (Somme directe). La somme de deux espaces est directe si et seulement si tout vecteur w de
E + F s’écrit de façon unique comme la somme d’un élement u de E et d’un élement v de F . On note E ⊕ F la
somme directe de E et F .
Exemple 3.1.4. Dans R3 on considère E (respectivement F ) le sous espace vectoriel d’équation x = 0 (respecti-
vement y = 0). On a R3 = E + F . En effet on peut toujours écrire :
     
x 0 x
 y = y + 0 
z z 0

Mais cette somme n’est pas directe car on peut aussi écrire :
     
x 0 x
 y = y + 0 
z 0 z

Exemple 3.1.5. Dans R3 on considère E (respectivement F ) le sous espace vectoriel d’équation x = 0 (respecti-
vement y = z = 0). On a R3 = E ⊕ F . En effet on peut toujours écrire :
     
x 0 x
 y = y + 0 
z z 0

Et cette décomposition est unique


Théorème 3.1.6. La somme E + F est directe si et seulement si E ∩ F ={0}.
Démonstration
Implication
Supposons qu’il existe un vecteur u non nul dans E ∩ F alors on a :

u=u+0=0+u

Donc u admet deux décompositions, ce qui est impossible.


Réciproque
Soit donc E ∩ F = {0}. Montrons tout d’abord que 0 a une unique décomposition. Si tel n’était pas la cas, il
existerait u non nul tel que 0 = u + (−u) avec u ∈ E et −u ∈ F . Et donc u serait dans E ∩ F , ce qui est impossible.
Montrons maintenant que u admet une unique décomposition pour tout u. Si tel n’était pas la cas nous aurions
u = u1 + v1 = u2 + v2 , mais alors 0 = (u1 − u2 ) + (v1 − v2 ) et donc par unicité de la décomposition du vecteur nul
u1 − u2 = v1 − v2 = 0. cqfd 2
Théorème 3.1.7. Soient E et F deux sous espaces vectoriels de dimensions finies alors :

dim(E + F ) = dimE + dimF − dim(E ∩ F )

Démonstration
Admise 2
Corollaire 3.1.8. Soient E et F deux sous espaces vectoriels de dimensions finies et d’intersection réduite au
vecteur nul alors :
dim(E ⊕ F ) = dimE + dimF
4. MATRICES 7

3.2 Définition
Définition 3.2.1 (Projection). Soient E = F ⊕ G on appelle projection de E sur F suivant G ou parallèlement à
G l’application définie par :

p:E −→ E
u 7−→ u1

où u = u1 + u2 avec u1 ∈ F et u2 ∈ G.
Théorème 3.2.2. Une projection est un endomorphisme.
Démonstration
Il suffit de montrer que p est linéaire. Soient donc u et v deux vecteurs de E et α et β deux scalaires. Alors

αu + βv = (αu1 + βv1 ) + (αu2 + βv2 )

avec u = u1 + u2 et v = v1 + v2 et où u1 et v1 (respectivement u2 et v2 ) sont dans F (respectivement dans G). Par


suite p(αu + βv) = αu1 + βv1 = αp(u) + βp(v). cqfd 2
Théorème 3.2.3. Soit p une application linéaire de E dans E vérifiant p ◦ p = p, alors p est une projection de E
sur Im p suivant Ker p.
Démonstration
Montrons tout d’abord que Ker p + Im f est une somme directe. Soit donc v ∈ Ker p ∩ Im p, on a alors p(v) = 0
et il extiste u ∈ E tel que p(u) = v. Par suite p(p(u)) = p(v) = 0. Mais p(p(u)) = p(u) = v par hypothèse. D’où le
résultat.
De plus dimE = dimKer p + dimIm p = dim(Ker p ⊕ Im p). Par conséquent E = Ker p ⊕ Im p.
Soit maintenant u = u1 +u2 un vecteur de E décomposé sur Ker p⊕Im p. Alors p(u) = p(u1 )+p(u2 ) = 0+p(u2 ).
Mais u2 ∈ Im p donc il existe v ∈ E tel que p(v) = u2 . Ceci implique que p(p(v)) = p(v) = p(u2 ) = u2 . En conclusion
p(u) = u2 et p est bien la projection anoncée 2

4 Matrices
4.1 Définitions
Définition 4.1.1 (Matrice). Une matrice réelle de type (n, p) est une application A de {1, . . . , n} × {1, . . . , p} dans
R.

A : {1, . . . , n} × {1, . . . , p} −→ R
(i, j) 7−→ A(i, j) = ai,j

Notation 4.1.2. – On note M(n,p) l’ensemble des matrices réelles de type (n, p).
– Une matrice de type (n, p) réelle est notée comme un tableau à n lignes et p colonnes de nombres réelles :
 
a11 · · · a1j · · · a1p
 .. .. .. 
 . . . 
 
A= a
 i1 · · · a ij · · · a ip  = (aij )

 . . .
 .. .. ..


an1 · · · anj · · · anp
(i) i est l’indice de ligne
(ii) j est l’indice de colonne
Définition 4.1.3 (Sous matrice). Soit A une matrice de type (n, p) sur R, on appelle sous matrice de A toute
restriction de A à I × J où I ∈ {1, . . . , n} et J ∈ {1, . . . , p}.
Exemple 4.1.4. Soit
a0 a00 a00
   
a a
A= b b0 b00  B =  b b00 
c c0 c00 c c00
B est une sous matrice de A
8 CHAPITRE 1. ALGÈBRE LINÉAIRE

Définition 4.1.5 (Matrice ligne, matrice colonne). On appelle matrice ou vecteur ligne (respectivement colonne)
toute matrice à une ligne (respectivement colonne), c’est-à-dire de type (1, p) (respectivement (n, 1)).
Exemple 4.1.6.  
a11
L = (a11 , . . . , a1p ) C =  ... 
 

an1
Définition 4.1.7 (Matrice carrée). On appelle matrice carré d’ordre n toute matrice de type (n, n), c’est-à-dire
toute matrice à n lignes et n colonnes. Si A est une matrice carrée, on appelle diagonale de A les termes (aii ). On
note Mn l’ensemble des matrice carrés d’ordre n, c’est-à-dire de type (n, n).
Définition 4.1.8 (Matrice triangulaire). On appelle matrice triangulaire supérieure (respectivement inférieure)
toute matrice carrée A = (aij ) d’ordre n telle que :

∀(i, j) ∈ {1, . . . , n} × {1, . . . , n}j < i(respectivement i < j) ⇒ aij = 0


 
1 1 2
Exemple 4.1.9. A =  0 0 4  est une matrice triangulaire supérieure
0 0 3
Définition 4.1.10 (Matrice diagonale). On appelle matrice diagonale toute matrice triangulaire inférieure et
triangulaire supérieure.
 
1 0 0
Exemple 4.1.11. D =  0 2 0  est une matrice diagonale.
0 0 −2
Définition 4.1.12 (Matrice nulle, matrice identité). (i) On appelle matrice nulle de type (n, p) toute matrice
de type (n, p) telle que aij = 0 pour tout i, j.
(ii) On appelle matrice identité d’ordre n la matrice diagonale In
 
1 0 ··· 0
 0 1 ··· 0 
In =  .
 
.. . 
 .. . .. 
0 0 ··· 1
Définition 4.1.13 (Trace). Soit A une matrice carrée d’ordre n, on appelle trace de A la somme de ses termes
diagonaux :
Xn
T r(A) = aii
i=1

Définition 4.1.14 (Transposée). Soit A = (aij ) une matrice de type (n, p). On appelle transposée de A la matrice
B = (bij ) de type (p, n) définie par :

bij = aji
t
On notera B = A

0 3  
t 0 1 2
Exemple 4.1.15. A =  1 −2  A=
3 −2 5
2 5
La transposée inverse le rôle des lignes et des colonnes.
Remarque 4.1.16. On a la propriété : t (t A) = A
Définition 4.1.17 (Matrice symétrique). Une matrice carrée A est symétrique si et seulement si elle est égale à
sa transposée.
 
1 1 2
Exemple 4.1.18. A =  0 0 4  n’est pas symétrique
0 0 3
 
1 1 2
A =  1 0 4  est symétrique
2 4 3
Remarque 4.1.19. Le terme symétrie vient de ce que la matrice est symétrique par rapport à sa diagonale.
4. MATRICES 9

4.2 Opérations sur les matrices


Remarque 4.2.1. Soient A = (aij ) et B = (bij ) deux matrices de type (n, p) alors A est égale à B si et seulement
si aij = bij pour tout indice i, j.
Définition 4.2.2 (Addition de deux matrices). Soient A = (aij ) et B = (bij ) deux matrices de type (n, p), on
appelle somme des matrices A et B la matrice C = (cij ) de type (n, p) définie par : cij = aij + bij . On note
C = A + B.
     
0 3 −1 2 −1 5
Exemple 4.2.3. A =  1 −2  et B =  1 0  alors C =  2 −2 
2 5 0 1 2 6
Définition 4.2.4 (Multiplication d’une matrice par un scalaire). Soit A = (aij ) une matrice de type (n, p) et α
un scalaire (i.e. un réel ici). On appelle produit de la matrice A par le scalaire α la matrice C = (cij ) de type (n, p)
définie par : cij = αaij pour tout indice ij. On note C = αA.
   
0 3 0 −6
Exemple 4.2.5. A =  1 −2  ; α = −2; C = αA =  −2 4 
2 5 −4 −10
Définition 4.2.6 (Produit de matrices). Soit A = (aij ) une matrice de type (n, m) et B = (bij ) une matrice de
type (m, p), on appelle produit de A par B la matrice C = (cij ) de type (n, p) définie par :
m
X
cij = aik bkj
k=1

On note C = AB.

0 3  
0 0 1 2 1
Exemple 4.2.7. Soit A =  1 −2  et B = alors
2 0 2 3 −1
2 5
 
0 0 1 2 1
   2 0 2 3 −1 
0 3 6 0 6 9 −3
 1 −2   −4 0 −3 −4 3 
2 5 10 0 12 19 −3
 
6 0 6 9 −3
C = AB =  −4 0 −3 −4 3 
10 0 12 19 −3
Théorème 4.2.8. (i) L’addition de matrice est associative et commutative :
(a) A + (B + C) = (A + B) + C
(b) A + B = B + A
(ii) (Mn,p , +, .) est un espace vectoriel de dimension np. Une base de Mn,p est (Eij )ij avec :
 j

 0 ... 0 ... 0 
 .. . . .. 
 . . . 
Ei,j =  0 . . . 1 i
 
 ... 0  
 .. .. .
. .. 

 .
0 ... 0 ... 0

(iii) La multiplication de matrice est associative et distributive par rapport à l’addition.


(a) A(BC) = (AB)C
(b) A(B + C) = AB + AC et (A + B)C = AC + BC
Théorème 4.2.9. On a les relations suivantes :
(i) t (A + B) = t A + t B
(ii) t (AB) = t B t A
10 CHAPITRE 1. ALGÈBRE LINÉAIRE

Remarque 4.2.10. Pour pouvoir multiplier deux matrices il faut que le nombre de colonnes de la première matrice
soit égale au nombre de lignes de la seconde. Par suite le produit AB peut exister sans que le produit BA ait un
sens. Même
 quand les deuxproduitsexistent nous n’avons pas nécessairement AB = BA
0 0 0 1
A= et B = alors
0 1 0 0
   
0 0 0 1
AB = et BA =
0 0 0 0
Théorème 4.2.11. Soit A une matrice de type (n, p) et B une matrice de type (p, n) alors :
T r(AB) = T r(BA)
Démonstration
n X
X p
T r(AB) = ( aik bki )
i=1 k=1
p X
X n
T r(BA) = ( bik aki )
i=1 k=1
Il suffit d’intervertir les indices i et k pour avoir le résultat 2
Définition 4.2.12 (Matrice inversible). Une matrice carrée A d’ordre n est dite inversible si et seulement si il
existe une matrice carrée B d’ordre n telle que :

AB = BA = In
−1
On note Al’inverse de A si elle existe.
 
0 0
Exemple 4.2.13. A = n’est pas inversible en effet quel que soit la matrice B carrée d’ordre 2 on aura :
0 1
 
0 0
AB = 6= I2
b21 b22
   
2 0 1/2 0
Exemple 4.2.14. A = ; A−1 =
0 1 0 1

4.3 Matrices et applications linéaires


Soient E et F deux espaces vectorielles réels de dimensions respectivement p et n. Soient (e1 , . . . , ep ) (respecti-
vement (f
P1n, . . . , fn )) une base deP
E (respectivement de F ). Et soit u une application linéaire de E dans F . Posons,
p
u(ej ) = i=1 aij fi , alors si ~x = i=1 xi ei nous avons
n
X p
X n X
X p
~y = yi fi = u(~x) = xj u(ej ) = ( aij xj )fi
i=1 j=1 i=1 j=1

Par suite si nous notons x (respectivement y) le vecteur colonne des coordonnées de ~x dans la base e (respectivement
~y dans la base f ), nous avons : y = Ax D’où la définition suivante
Définition 4.3.1 (Matrice associée à une application linéaire). Soient E et F deux espaces vectoriels réels de
dimension p et n. Soient e = (e1 , . . . , ep ) (respectivement f = (f1 , . . . , fn )) une base de E (respectivement de F )
et soit u une application linéaire de E dans F . On appelle matrice de u relativement aux bases e et f la matrice
de type (n, p) notée M(u, e, f ) définie par :
n
X
M(u, e, f ) = (aij )i=1,...,n où u(ej ) = aij fi
i=1

Notation 4.3.2. 
 u(e1 ) . . . u(ej ) . . . u(ep )
a11 . . . a1j . . . a1p f1
 .. .. ..  ..
 . . . 
  .
M(u, e, f )  ai1
=  . . . aij . . . aip   fi
 . .. ..  ..
 .. . .  .
an1 . . . anj . . . anp fn
4. MATRICES 11

Nous considérons
Pici les ensembles Rn comme un espace vectoriel. Soit (~e1 , . . . , ~en ) une base de Rn
n
Un vecteur ~x = i=1 xi~ei de cet ensemble aura alors pour coordonnées dans cette base :
 
x1
 .. 
 . 
 
 xi 
 
 . 
 .. 
xn
Nous appellerons base canonique de Rn la base où :
 
0
 .. 
 . 
ième
 
 1 ←i
~ei =  ligne

 . 
.
 . 
0
Si nous nous donnons une base dans Rn et une base dans Rp nous pouvons alors identifié les vecteurs de Rn et de
Rp avec leurs coordonnées. Cette identification étant faite à chaque matrice A = (aij ) de type (n, p) nous pouvons
alors associer une application linéaire de Rp à valeur dans Rn de la façon suivante :

f : Rp −→ Rn
x 7−→ y = Ax
Dans les exemples qui suivent nous considérons R2 muni de sa base canonique.
 
3 0
Exemple 4.3.3. Si A = alors f est une homotétie de rapport 3 du plan
0 3
 
0 1
Exemple 4.3.4. Si A = alors f est la symétrie par rapport à la première bissectrice du plan
1 0
 
cos(θ) − sin(θ)
Exemple 4.3.5. Si A = alors f est la rotation d’angle θ dans le plan
sin(θ) cos(θ)
 
1 0
Exemple 4.3.6. Si A = alors f est est la projection sur la première bissectrice parallèlement à l’axe
1 0
des ordonnées.
Théorème 4.3.7. Soient E et F deux espaces vectoriels réels de dimensions finies et soient u et v deux applications
linéaires de E dans F alors :
M(u + v, e, f ) = M(u, e, f ) + M(v, e, f )
et
∀α ∈ R M(αu, e, f ) = αM(u, e, f )
Démonstration
Immédiate 2
Théorème 4.3.8. Soient E, F et G trois espaces vectoriels réels de dimensions n, m et p. Soient e, f et g trois bases
de E, F et G. Enfin soient u et v deux applications linéaires de E dans F et de F dans G. On pose A = M(u, e, f )
et B = M(v, f, g) alors :
C = M(v ◦ u, e, g) = M(v, f, g)M(u, e, f ) = BA
Démonstration
e = (e1 , . . . , ep ), f = (f1 , . . . , fm ) et g = (g1 , . . . , gn ).
n
X
v ◦ u(ej ) = cij gi
i=1
m
X m
X m
X Xn
= v(u(ej )) = v( akj fk ) = akj v(fk ) = akj ( bik gi )
k=1 k=1 k=1 i=1
n X
X m
= ( bik akj )gi
i=1 k=1
2
12 CHAPITRE 1. ALGÈBRE LINÉAIRE

Théorème 4.3.9. Soit E un espace vectoriel réel de dimension finie n. Soit u un endomorphisme de E, c’est-à-
dire une application linéaire de E dans lui-même. Enfin, soit e une base de E et A la matrice asociée à u dans la
base e. Alors A est inversible si et seulement si u est inversible.
Démonstration
A = M(u, e, e) est inversible si et seulement si il existe B telle que AB = BA = I. B représente une application
linéaire v de E dans E. Ceci est donc équivalent à
M(u, e, e)M(v, e, e) = M(v, e, e)M(u, e, e) = M(Id, e, e)
Mais M(u ◦ v, e, e) = M(v, e, e)M(u, e, e). On en déduit alors le résultat 2
Théorème 4.3.10. Une matrice carré A est inversible si et seulement si ses n vecteurs colonnes sont linéairement
indépendants.
Démonstration
soit u une application linéaire et e une base telles que A = M(u, e, e). A est inversible si et seulement si u est
inversible et donc si et seulement si (u(e1 ), . . . , u(en )) forme une base de E. cqfd 2
Théorème 4.3.11 (Matrice d’un projecteur). Soit p une application linéaire de E sur E, e une base de E et P
la matrice de p dans cette base. Alors p est projecteur si et seulement si P 2 = P .
Démonstration
On sait que p est un projecteur si et seulement si p ◦ p = p, et donc si P P = P 2

4.4 Changement de bases


Théorème 4.4.1. Soit E un espace vectoriel réel de dimension n. Soient e et e0 deux base de E. Alors la matrice
P = (pij ) de M(n) où la j ième colonne représente les coordonnées de e0j dans la base e est inversible et si x et x0
sont les coordonnées respectivement dans les bases e et e0 d’un vecteur ~x alors on a x = P x0 et x0 = P −1 x.
Démonstration
Soit u l’endomorphisme de E définiPpar u(ei ) = e0i pour tout i. u est bijectif car il envoie la base e sur la base
n
e0 . Or pour tout j u(ej ) = e0j = p ei . Donc P = M(u, e, e) et donc P est inversible. Soit maintenant
n n Pn ij P
i=1
n Pn
0 0
~x = j=1 xj ej = j=1 ( i=1 pij ei ) = i=1 ( j=1 pij x0j )ei . Par suite on a xi = j=1 pij x0j où encore x = P x0 . 2
P P P

Définition 4.4.2 (Matrice de passage). On appelle P la matrice de passage de l’ancienne base e dans la nouvelle
base e0 .
Remarque 4.4.3. (i) La matrice de passage e à e0 est :
... e0j ...
..
 
 . 
P  ...
=  pij . . .  ei

..
.

(ii) Si P est la matrice de passage de e à e0 et P 0 ma matrice de passage de P 0 à P alors on a ;


P P 0 = P 0P = I
(iii) P = M(Id, e0 , e)
Théorème 4.4.4. Soient E et F deux espaces vectoriels sur R de dimensions p et n. Soient e et e0 (respectivement
f et f 0 ) deux bases de E (respectivement de F ). Soit u une application linéaire de E dans F . Soient enfin P et Q
les matrices de passage de e à e0 et de f à f 0 . Alors, si M = M(u, e, f ) et M 0 = M(u, e0 , f 0 ), on a :
M 0 = Q−1 M P
Démonstration

M(IdF ◦ u, e0 , f ) = M(IdF , f 0 , f )M(u, e0 , f 0 )


= QM 0
= M(u ◦ IdE , e0 , f )
= M(u, e, f )M(IdE , e0 , e)
= MP
On en déduit immédiatement le résultat 2
5. DÉTERMINANTS 13

Définition 4.4.5 (Matrices équivalentes). Deux matrices A et B de type (n, p) sont dites équivalentes si et
seulement si il existe deux matrices carrées inversibles P et Q d’ordre p et n telles que :
B = Q−1 AP
Remarque 4.4.6. Deux matrices sont équivalentes si elles représentent la même application linéaire dans deux
bases différentes.
Définition 4.4.7 (Matrices semblables). Deux matrices carrées d’ordre n £A£ et £B£ sont semblables si et
seulement si il existe une matrice carré P inversible d’ordre n telle que :
B = P −1 AP
Remarque 4.4.8. Deux matrices carrées sont semblables si et seulement si elle représente le même endomorphisme
dans deux bases différentes. Si A = M(u, e, e) et B = M(u, e0 , e0 ) alors B = P −1 AP avec P = M(I, e0 , e).

4.5 Rang d’une matrice


Définition 4.5.1 (Rang d’une matrice). Soit A une matrice de type (n, p), on appelle rang de A et on note rg(A)
la dimension du sous espace vectoriel de Rn engendré par les p vecteurs colonnes de A.
Remarque 4.5.2. Soit u : Rp −→ Rn une application linéaire telle que A = M(u, e, f ) alors :
rg(A) = dimV ect{u(e1 ), . . . , u(ep )} = dimIm u = rg(u)
Théorème 4.5.3. Soit A une matrice de type (n, p) alors
rg(A) = rg(t A)
Démonstration
Admise 2
Théorème 4.5.4. Soit A une matrice carrée d’ordre n alors A est inversible si et seulement si son rang est égale
à n.
Démonstration
Évidente 2

5 Déterminants
La notion de déterminant d’une matrice est difficile nous ne donnerons ici qu’un mode de calcul obtenu de façon
récursive et les principaux théorèmes.

5.1 Définition
On note Aij la sous matrice de A obtenue en supprimant la iième ligne et la j ième colonne de A.
Définition 5.1.1 (Déterminant). (i) Si A est d’ordre n > 1 alors
n
X n
X
det(A) = (−1)i+k aik det(Aik ) = (−1)j+k akj det(Akj )
k=1 k=1
(ii) Si A est d’ordre 1, c’est-à-dire un réel a, alors det(A) = a
Pn
Remarque 5.1.2.PDans la formule k=1 (−1)i+k aik det(Aik ) on dit que l’on a développé par rapport à la iième ligne
n
et dans la formule k=1 (−1)j+k akj det(Akj ) on dit que l’on a développé par rapport à la j ième colonne. On démontre
que ces formules donnent bien le même résultat quel que soit la ligne i où la colonne j considérée. Dans le membre
de droite on a des matrices d’ordre n−1, par suite en itérant le processus on peut se ramener à des matrices d’ordre
1.
Exemple 5.1.3. Considérons une matrice carrée d’ordre 2. Alors
 
a11 a12
det = (−1)1+1 a11 det(a22 ) + (−1)1+2 a21 det(a12 ) = a11 a22 − a21 a12
a21 a22
Si A est d’ordre 3 nous avons alors :
 
a11 a12 a13      
a22 a23 a12 a13 a12 a13
det(A) = det  a21 a22 a23  = a11 det − a21 det + det
a32 a33 a32 a33 a22 a23
a31 a32 a33
14 CHAPITRE 1. ALGÈBRE LINÉAIRE

5.2 Propriétés
Théorème 5.2.1. Sous réserve que les déterminants existent on a :

(i) det(I) = 1
(ii) det(AB) = det(A) det(B)
(iii) det(λA) = λn det(A)
(iv) det(t A) = det(A)
(v) Soit A une matrice carrée d’ordre n alors A est inversible si et seulement si det A 6= 0 et on a alors det A−1 =
(det A)−1 .

Soit E un espace vectoriel réel de dimension n et soit e et e0 deux bases de E. Soit u un endomorphisme
de E et soit A et B les matrices de cet endomorphisme dans les bases e et e0 . Alors B = P −1 AP et donc
det B = (det P )−1 det A det P = det A. D’où la définition suivante.

Définition 5.2.2 (Déterminant d’un endomorphisme). Soit u un endomorphisme d’un espace vectoriel réel E
de dimension n et e une base de E. On appelle déterminant de u le déterminant de toute matrice A associée à
l’endomorphisme u dans une base e.

Théorème 5.2.3. Soit A une matrice carrée triangulaire d’ordre n alors :


n
Y
det A = aii
i=1

Démonstration
Supposons que la matrice soit une matrice triangulaire supérieure. Le raisonnement est identique pour le cas d’une
matrice triangulaire inférieure. Faisons un raisonnement par récurrence. L’assertion est vraie pour n = 1.
Supposons le résultat vraie pour toute matrice triangulaire supérieure d’ordre n et montrons le pour une matrice
triangulaire supérieure A d’ordre n + 1. Développons le déterminant par rapport à la première colonne, nous avons
alors immédiatement :
det A = a11 det A11
Qn+1
Mais A11 est une matrice triangulaire supérieure d’ordre n, donc son déterminant est i=2 aii . On en déduit alors
le résultat. 2

Corollaire 5.2.4. Si D est une matrice carrée d’ordre n diagonale alors :


n
Y
det D = dii
i=1

6 Matrices et systèmes linéaires


6.1 Introduction
Nous nous intéressons dans cette section à la résolution numérique du système linéaire à n équations et à n
inconnues suivant

 a11 x1 + · · · a1n xn
 = b1
.. .. (1.1)
 . .
an1 x1 + · · · ann xn = bn

ce système peut s’écrire matriciellement : Ax = b avec :


   
x1 b1
 ..   ..
A = (aij ); x= .  et b= .


xn bn
6. MATRICES ET SYSTÈMES LINÉAIRES 15

6.2 Algorithme de Gauss


Considérons l’exemple suivant
    
10 −7 0 x1 7
−3 2 6 x2  = 4
5 −1 5 x3 6
La première étape pour calculer la solution est d’éliminer la variable x1 dans la deuxième et troisième équation.
Ceci est obtenu ici en ajoutant à la deuxième équation 3/10 fois la première équation et en ajoutant à la troisième
équation −5/10 fois la première équation. Le coefficient 10 de x1 dans la première équation s’appelle le premier
pivot.
Cette première étape conduit au système liéaire équivalent suivant :
    
10 −7 0 x1 7
 0 −0.1 6 x2  = 6.1
0 2.5 5 x3 2.5

La seconde étape est d’éliminer la variable x2 à partir de la deuxième équation. Le second pivot serait donc ici
de −0.1. Cependant, on prefère utiliser les pivots les plus grands possibles (en valeur absolue). Nous allons donc
permutter tout d’abord les deuxième et troisième équations, cette phase s’appelle le pivotage :
    
10 −7 0 x1 7
0 2.5 5 x2  = 2.5
0 −0.1 6 x3 6.1

Notre deuxième pivot est donc ici 2.5. Nous éliminons donc la variable x2 maintenant dans la troisième équation
en ajoutant à celle-ci 0.1/2.5 fois la deuxième équation
    
10 −7 0 x1 7
 0 2.5 5  x2  = 2.5
0 0 6.2 x3 6.2

La dernière équation donne alors 6.2x3 = 6.2, donc x3 = 1. En subsituant cette valeur dans la deuxième équation
du dernier système on obtient l’équation 2.5x2 + 5 × 1 = 2.5. Par suite x2 = −1. Et finallement en substituant les
valeurs de x2 et de x3 dans la première équation on trouve x1 = 0. En conclusion, notre système de départ a pour
unique solution  
0
x = −1
1
On peut en fait résumer cet algorithme par l’écriture matricielle suivante :

P A = LU

avec      
1 0 0 10 −7 0 1 0 0
L =  0.5 1 0 ; U =  0 2.5 5  ; P = 0 0 1
−0.3 −0.04 1 0 0 6.2 0 1 0
La matrice L contient les multiplieurs utilisés pendant l’élimination, la matrice U est la matrice finale et la matrice
P est une matrice de permutation des lignes de A. P est une matrice orthogonale : t P = P . L’algorithme précédant
est alors de résoudre tout d’abord Ly = P b, qui donne
 
7
y = 2.5
6.2

puis de résoudre U x = y. Ces deux systèmes sont simples à résoudre car ce sont des systèmes triangulaires.
On peut ici remarquer que det(L) det(U ) = det(U ) = det(P ) det(A). Or det(P ) = ±1. Par suite au signe près
det U est égale au déterminant de A. La matrice Uétant diagonale ce déterminant est égale au produit de ces
éléments diagonaux, c’est-à-dire au produit des pivots. Le système linéaire aura donc une unique solution si et
seulement si tout les pivots sont non nuls (d’oú l’importance des phases de pivotages) où encore si et seulement si
det(U ) 6= 0. On en déduit le théorème suivant
16 CHAPITRE 1. ALGÈBRE LINÉAIRE

Théorème 6.2.1. Le système (1.1) admet une solution unique si et seulement si la matrice A est inversible et la
solution est x = A−1 b.

Remarque 6.2.2. La phase de pivotage dans notre exemple n’était pas nécessaire ici car nous avons fait les calculs
exacts. Cette phase est cependant importante si on désire implémenter cet algorithme sur un ordinateur, ceci pour
des raisons numériques. Mais ceci dépasse largement le cadre de ce cours.

7 Valeurs propres
7.1 Définitions
Définition 7.1.1 (Valeur propre). Soit A une matrice carrée, alors λ est valeur propre de A si et seulement si il
existe un vecteur non nul x tel que Ax = λx.

Théorème 7.1.2. Soit A une matrice carrée alors λ est une valeur propre de A si et seulement si det(A − λI) = 0

Démonstration
En effet Ax = λx ⇔ (A − λI)x = ~0
Donc pour qu’il existe x non nul solution de Ax = λx il faut et il suffit qu’il existe une autre solution que ~0 au
système (A − λI)x = ~0 et donc que le déterminant de (A − λI) soit nul 2

Définition 7.1.3 (Vecteur propre). Soit A une matrice carrée et λ une valeur propre de A. Alors tout vecteur x
non nul tel que Ax = λx est un vecteur propre associé à la valeur propre λ.

Théorème 7.1.4. Soit A une matrice carrée et λ une valeur propre de A. x est vecteur propre de A associée à la
valeur propre λ si et seulement si x n’est pas le vecteur nul et x ∈ Ker (A − λI).

Démonstration
Triviale 2

Définition 7.1.5 (Espace propre). Soit A une matrice carrée et λ une valeur propre. On appelle espace propre Vλ
le sous-espace vectoriel ker(A − λI).

Théorème 7.1.6. Soit A une matrice carrée, λ1 et λ2 deux valeurs propres distinctes. Alors Vλ1 ⊕ Vλ2 .

Démonstration
Admise 2

Définition 7.1.7 (Ordre de multiplicité d’une valeur propre). Soit A une matrice carrée d’ordre n et λ une valeur
propre. On appelle ordre de multiplicité de la valeur propre λ la dimension de l’espace propre Vλ .

7.2 Diagonalisation
Définition 7.2.1 (Matrice diagonalisable). Une matrice carrée A est diagonalisable si elle est semblable à une
matrice diagonale.

Théorème 7.2.2. Une matrice carrée d’ordre n est diagonalisable si et seulement si la somme des ordres de
multiplicité de ses valeurs propres est n.

Démonstration
Admise 2

Corollaire 7.2.3. Une matrice carrée A est diagonalisable si et seulement si il existe une base de vecteurs propres.

Corollaire 7.2.4. Une matrice carrée d’ordre n ayant n valeurs propres distinctes est diagonalisable.

Démonstration
En effet tous les sous espaces propres sont de dimensions supérieures ou égales à 1 donc la somme des ordres de
multiplicité de ses valeurs propres est supérieure ou égale à n, par suite c’est exactement n 2

Exemple 7.2.5. On considère  


1 3 0
A =  3 −2 −1 
0 −1 1
8. PRODUIT SCALAIRE, NORME 17
 
1−λ 3 0
det(A − λI) = det  3 −2 − λ −1  = (1 − λ)((−2 − λ)(1 − λ) − (−1)(−1)) − 3(3(1 − λ))
0 −1 1 − λ

Donc det A = (1 − λ)(λ2 + λ − 12) Par suite les valeurs propres de A sont 1, 3, −4. Calculons les vecteurs propres.
pour λ = 1 on cherche les solutions de Ax = x :
 
 x1 +3x2 = x1  x2 = 0
3x1 −2x2 −x3 = x2 ⇐⇒ x1 = 31
−x2 +x3 = x3 x3 = x3
 

 
1
Donc V1 = {x ∈ R3 /x = αv1 = α  0 }
3
  
3 3
On trouve de même V3 = {x ∈ R3 /x = αv2 = α  2 } V−4 = {x ∈ R3 /x = αv3 = α  −5 }
−1 −1
Donc A est diagonalisale. Si on pose P la matrice de passage de la base canonique dans la base (v1 , v2 , v3 ). On
a alors  
1 0 0
A=P 0 3 0  P −1
0 0 −4

Exemple 7.2.6. Soit


 
0 1
A=
−1 0
alors
det(A − λI) = λ2 + 1
Donc A n’a pas de valeurs propres réelles

Exemple 7.2.7. Soit


 
1 1
A=
0 1
alors
det(A − λI) = (1 − λ)2
Donc λ = 1 est l’unique valeur propre de A Calculons l’espace propre V1 .

x ∈ V1 ⇐⇒ Ax = x (1.2)

0x1 + x2 = 0
⇐⇒ (1.3)
0x1 + 0x2 = 0
 
2 1
Par suite V1 = {x ∈ R /x = α } Donc dimV1 = 1 et A n’est pas diagonalisable.
0

8 Produit scalaire, norme


8.1 Produit scalaire
Définition 8.1.1 (Produit scalaire). On appelle produit scalaire sur Rn toute application ϕ de Rn × Rn dans R
ayant les propriétés suivantes :
(i) ∀(x1 , x2 , y) ∈ Rn × Rn × Rn ϕ(x1 + x2 , y) = ϕ(x1 , y) + ϕ(x2 , y)
(ii) ∀α ∈ IR ∀(x, y) ∈ Rn × Rn ϕ(αx, y) = αϕ(x, y)
(iii) ∀(x, y) ∈ Rn × Rn ϕ(x, y) = ϕ(y, x)
(iv) ∀x ∈ Rn ϕ(x, x) ≥ 0
(v) ϕ(x, x) = 0 ⇐⇒ x = 0
18 CHAPITRE 1. ALGÈBRE LINÉAIRE

Remarque 8.1.2. Lorsque l’on écrit x = 0 dans le (v) de la définition ci-dessus, cela signifie que x est le vecteur
nul de Rn :  
0
 .. 
x= . 
0
Par contre lorsque l’on écrit ϕ(x, x) = 0, le symbole 0 désigne le zéro de R. Un même symbole est donc employé
pour des objets différents. C’est donc à l’étudiant, en fonction du contexe, de faire la distinction.
Définition 8.1.3 (Espace euclidien). Lorsque Rn est muni d’un produit scalaire on dit que c’est un espace
euclidien.
Notation 8.1.4. On trouvera dans la litérature les diférentes notations suivantes pour le produit scalaire : ϕ(x, y) =
x.y = (x, y) =< x, y >= (x/y).
Nous prendrons dans ce cours la dernière notation (i.e. (x/y)).
Exemple 8.1.5.

ϕ : Rn × Rn −→ R
n
X
(x, y) 7−→ ϕ(x, y) = (x/y) = xi yi = t xy = t yx
i=1

où    
x1 y1
x =  ...  et y =  .. 
  
. 
xn yn
Lorsque n = 1 on obtient (x/y) = xy.
Exemple 8.1.6.

ϕ : Rn × Rn −→ R
n
X
(x, y) 7−→ ϕ(x, y) = (x/y) = λi xi yi
i=1

où les λi sont des réels strictement positifs


Exemple 8.1.7. On considère R2 et ϕ(x, y) = 2x1 y1 + 2x2 y2 + x1 y2 + x2 y1 . ϕ est un produit scalaire sur Rn ,
en effet les propriétés (i), (ii) et (iii) de la définition sont immédiatement vérifiées (cela provient des propriétés de
l’addition et de la multiplication dans R). Quant aux propriétés (iv) et (v), il suffit d’écrire :

ϕ(x, x) = 2x21 + 2x22 + 2x1 x2


= (x1 + x2 )2 + x21 + x22 ≥ 0
= 0 ⇐⇒ x = 0

Définition 8.1.8 (Produit scalaire canonique). On appelle produit scalaire canonique de Rn le produit scalaire
défini à l’exemple (8.1.5).
Théorème 8.1.9. Soit A une matrice de type (p, n), x un vecteur de Rn et y un vecteur de Rp . On suppose que
les espaces Rn et Rp sont munis de leurs produits scalaires canoniques, alors on a la relation suivante :

(Ax/y)Rp = (x/t Ay)Rn

Démonstration

(Ax/y)Rp = t y(Ax) = t (t yAx) = t xt Ay = (t Ay/x)Rn


2
Définition 8.1.10 (Matrice symétrique semi définie positive, définie positive). Soit A une matrice carrée symétrique
d’ordre n et (./.) le produit scalaire canonique sur Rn . A est semi définie positive si et seulement si :

∀x ∈ Rn (Ax/x) ≥ 0

A est définie positive si et seulement si elle est semi définie positive et (Ax/x) = 0 ⇐⇒ x = 0.
8. PRODUIT SCALAIRE, NORME 19

Théorème 8.1.11. ϕ est un produit scalaire sur Rn si et seulement si il existe une matrice A carrée d’ordre n
symétrique définie positive (i.e. qui admet n valeurs propres réelles strictement positives) telle que :

ϕ(x, y) =t xAy

Démonstration
Admise 2

Remarque 8.1.12. Les n valeurs propres de la matrice A ne sont pas nécessairement distinctes.

Notation 8.1.13. On notera (x/y)A le produit scalaire ϕ(x, y) = t xAy et (x/y) le produit scalaire canonique (i.e.
le cas où A = I).

Exemple 8.1.14. Dans l’exemple (8.1.7) la matrice A est :


 
2 1
A=
1 2

Définition 8.1.15 (Orthogonalité). Soit Rn muni du produit scalaire (./.)A . Alors deux vecteurs x et y de Rn
sont dits A-orthogonaux si et seulement si leur produit scalaire est nul : (x/y)A = 0.

Remarque 8.1.16. Dans le cas de l’exemple (8.1.5) on retrouve l’orthogonalité classique de deux vecteurs de Rn
et on dit alors que les deux vecteurs sont orthogonaux.

Exemple 8.1.17. Soit      


1 0 1 2
A= x= et y =
0 2 −1 1
Nous avons alors (x/y) = 2 − 1 = 1, donc x et y ne sont pas orthogonaux, mais
    
t 1 0 2 2
(x/y)A = xAy = (1 − 1) = (1 − 2) =0
0 2 1 1

Par suite x et y sont A-orthogonaux.

8.2 Norme
Définition 8.2.1 (Norme). On appelle norme sur Rn toute application ν de Rn dans R+ vérifiant :
(i) ∀x ∈ Rn ν(x) > 0 si x 6= 0
(ii) ∀λ ∈ R, ∀x ∈ Rn ν(λx) = |λ|ν(x)
(iii) ∀(x, y) ∈ Rn × Rn ν(x + y) ≤ ν(x) + ν(y) {inégalité triangulaire}

Notation 8.2.2. On note kxk = ν(x) la norme d’un vecteur x.

Théorème 8.2.3 (Inégalité de Cauchy-Schwarz). On munit Rn d’un produit scalaire (./.). Posons kxk =
p
(x/x).Alors
nous avons la relation suivante :
|(x/y)| ≤ kxk.kyk

Démonstration
Soit λ un nombre réel quelconque et x et y deux vecteurs de Rn fixés. Posons P (λ) = (x + λy/x + λy) alors

P (λ) = (x + λy/x + λy) = (x/x) + 2λ(x/y) + (y/y)λ2

or P (λ) est toujours positif par définition d’un produit scalaire, et donc le trinôme en λ est toujours positif ou nul.
Par suite son discriminant réduit est négatif où nul :

∆0 = (x/y)2 − kxk2 .kyk2 ≤ 0

ce qui est équivalent à p p


(x/y)2 ≤ kxk2 .kyk2
2
Théorème 8.2.4. On munit Rn d’un produit scalaire (./.). Alors kxk =
p
(x/x) est une norme.
20 CHAPITRE 1. ALGÈBRE LINÉAIRE

Démonstration
Tout d’abord k.k définit bien une application de Rn dans R+ . Vérifions maintenant les trois propriétés de la
définition :
(i)
kxk = 0 ⇐⇒ (x/x) = 0 =⇒ x = 0
(ii)
p
kλxk = (λx/λx)
p
= λ2 (x/x)
p
= |λ| (x/x)
= |λ.|kxk

(iii)

kx + yk2 = (x + y/x + y)
= (x/x) + 2(x/y) + (y/y)
kxk2 + kyk2 + 2(x/y)

or d’après l’inégalité de Cauchy-Schwarz on a (x/y) ≤ |(x/y)| ≤ kxk.kyk nous avons donc

kx + yk2 ≤ kxk2 + kyk2 + 2kxk.kyk = (kxk + kyk)2

D’où le résultat.
2
Définition 8.2.5. On appelle norme euclidienne une norme définie par un produit scalaire.

Théorème 8.2.6 (Théorème de Pythagore). On suppose Rn muni d’un produit scalaire (./.), x et y deux vecteurs
de Rn orthogonaux alors nous avons la relation suivante :

kx + yk2 = kxk2 + kyk2

Démonstration
Si x et y sont orthogonaux alors nous avons :

kx + yk2 = kxk2 + kyk2 + 2(x/y) = kxk2 + kyk2

2
Exemple 8.2.7. q
kxk2 = x21 + · · · + x2n
est une norme. C’est la norme euclidienne classique sur Rn . Lorsque n = 1 cela donne

kxk = x2 = |x|

Exemple 8.2.8.
n
X
kxk1 = |xi |
i=1

est une norme.


kxk∞ = M ax{|xi |; i = 1, . . . , n}
est une norme.
On démontre que ces deux normes ne sont pas euclidiennes.

Définition 8.2.9 (Cosinus de l’angle de deux vecteurs). Soit E un espace euclidien et soient x et y deux vecteurs
de E non nuls. Le cosinus de l’angle de x et de y est l’unique nombre cos θ ∈ [−1, +1] tel que

(x/y)
cos θ =
kxk.kyk
9. DÉCOMPOSITION EN VALEURS SINGULIÈRES 21

Définition 8.2.10 (Base orthonormée). On considère Rn muni d’un produit scalaire (./.). On appelle base ortho-
normée de Rn toute base de Rn e = (e1 , . . . , en ) telle que :
(i) ∀(i, j) ∈ {1, . . . , n}2 i 6= j (ei /ej ) = 0.
(ii) ∀i ∈ {1, . . . , n} kei k = 1.

Théorème 8.2.11. Soient U la matrice de passage d’une base e orthonormée à une base orthonormées e0 . Alors
t
U U = U t U = I.

Démonstration
U est la matrice des coordonnées des vecteurs de la base e0 dans la base e. Or t U U = ((e0j /e0j ))jj 0 et e0 est une base
orthonormées d’où t U U = I Donc t U = U −1 et donc U t U = I. 2

Définition 8.2.12 (Matrice orthogonale). Soit U une matrice carrée. U est orthogonale si et seulement si
t
U U = U tU = I

Remarque 8.2.13. (i) t U U est la matrice des produits scalaires des vecteurs colonnes de U .
t
(ii) U U est la matrice des produits scalaires des vecteurs lignes de U .

8.3 Projection orthogonale


Définition 8.3.1 (Sous espaces orthogonaux). Deux sous espaces E et F sont orthogonaux si et seulement si pour
tout vecteur u de E et v de F on a (u/v) = 0.

Théorème 8.3.2. Soient E et F deux sous espaces orthogonaux non réduits au vecteur nul. Alors la somme E + F
est directe.

Définition 8.3.3. Soit F un sous espace vectoriel d’un espace vectoriel de dimension finie E . On appelle orthogonal
de F et on note F ⊥ l’ensemble des vecteurs orthogonaux à F :

F ⊥ = {v ∈ E/(u/v) = 0 ∀u ∈ F }

Théorème 8.3.4. Soit F un sous espace d’un espace vectoriel de dimension finie E alors F ⊥ est un sous espace
vectoriel de E et E = F ⊕ F ⊥ .

Définition 8.3.5 (Projection orthogonale). Soit E un espace vectoriel réel de dimension finie. On appelle projection
orthogonale de E sur F le projecteur de E sur F suivant F ⊥ .

Théorème 8.3.6. Soient F et G deux sous espace orthogonaux d’un espace vectoriel de dimension finie E. Soient
pF , pG et pF ⊕G les projection orthogonales de E sur F, G et F ⊕ G respectivement. Alors :

pF ⊕G = pF + pG

Théorème 8.3.7. Soit p un endomorphisme de E dans E, e une base orthonormée de E et P la matrice de p


dans la base e, alors p est un projecteur orthogonal si et seulement si :
(i) P P = P
(ii) t P = P

Démonstration
Admise 2

9 Décomposition en valeurs singulières


9.1 Théorèmes
Théorème 9.1.1. On considère Rn muni du produit scalaire canonique (./.). Soit A une matrice carrée réelle
symétrique. Alors il existe une base de vecteurs propres de A orthonormée.

Remarque 9.1.2. Ce théorème implique que A peut s’écrire : A = U Λt U avec Λ matrice diagonale des valeurs
propres et U matrice de passage de la base canonique à une base de vecteurs propres de A. les vecteurs colonnes de
U sont les coordonnées les vecteurs propres de A dans la base canonique. U est orthogonale.
22 CHAPITRE 1. ALGÈBRE LINÉAIRE

Corollaire 9.1.3. Soit A une matrice réelle de type (n, p) alors t AA est une matrice symétrique semi-définie
positive et il existe une matrice orthogonale des vecteurs propres de t AA telle que t AA = U Λt U avec Λ matrice
diagonale des valeurs propres de t AA qui sont positives ou nulles.

Démonstration
Tout d’abord t AA est symétrique car t (t AA) = t At (t A) = t AA. Ensuite soit x un vecteur de Rp alors (t AAx/x) =
(Ax/Ax) ≥ 0 donc la matrice t AA est bien symétrique semi-définie positive. Pour la suite du corollaire il suffit
d’appliquer théorème précédent à t AA. 2

Corollaire 9.1.4. Les valeurs propres de t AA sont réelles et positives ou nuls. Si le rang de A est p alors t AA est
inversible et ses valeurs propres sont strictement positives.

Démonstration
Soit λ une valeur propre de t AA et u un vecteur propre de norme 1 associée à cette valeur propre. Alors (t AAu/u) =
λ(u/u) = λ ≥ 0. On admettra la suite. 2

Corollaire 9.1.5. Soit A une matrice réelle de type (n, p) alors At A est une matrice symétrique semi-définie
positive et il existe une matrice orthogonale des vecteurs propres de At A telle que At A = V Λt V avec Λ matrice
diagonale des valeurs propres de At A qui sont positives ou nulles.

Démonstration
Il suffit d’appliquer le corollaire précédent à t A. 2

Notation 9.1.6. (i) Dans toute la suite on supposera que les valeurs propres λi sont rangées par ordre décroissant :
λ1 ≥ . . . ≥ λr > 0 où r est le rang de A. Les autres valeurs propres éventuelles sont nulles.
(ii) U = (u1 , . . . , up ) où uj est un vecteur propre associée à la valeur propre λj de t AA.
(iii) V = (v1 , . . . , vn ) où vi est un vecteur propre associée à la valeur propre λi de At A.

Théorème 9.1.7. Soit A une matrice réelle de type (n, p) de rang r alors les r valeurs propres de t AA non nulles
sont identiques aux r valeurs propres de At A non nulles. Si la matrice Ur = (u1 , . . . , ur ) est la sous matrice de U
formée des r premières colonnes de U alors si on pose vj = √1 Auj , on peut prendre Vr = (v1 , . . . , vr ) pour la
λj
sous matrice de V formée de ses r premières colonnes.

Démonstration
Soit uj un vecteur propre de t AA associée à la valeur propre λj alors A(t AAuj ) = (At A)Auj = λj Auj . Calculons
la norme du vecteur Auj .

(Auj /Auj ) = (t AAuj /uj ) = (λj uj /uj ) = λj (uj /uj ) = λj > 0

Par suite Auj est un vecteur propre de At A associé à la valeur propre λj et donc vj est bien un vecteur propre de
At A de norme 1. Montrons maintenant que les vj sont orthogonaux.

1 1 t 1
(vj /vj 0 ) = (Auj /Auj 0 ) = ( AAuj /uj 0 ) = (λj uj /uj 0 ) = 0
λj λj 0 λ j λj 0 λj λj 0
2

9.2 Décomposition en valeurs singulières


Théorème 9.2.1. Soit A une matrice de type (n, p) de rang r. On pose
–  
σ1 ... 0
 .. . . .. 
Σ= .
 . . 0r,p−r 

 0 . . . σr 
0n−r,r 0n−r,p−r

où σi = λi les λi étant les valeurs propres non nulles de t AA.
– Σr la sous matrice carrée des r premières lignes et colonnes de Σ.
– U de type (p, p) matrice orthogonale des vecteurs propres de t AA.
– Ur la sous matrice des r premières colonnes de U .
– V de type (n, n) matrice orthogonale des vecteurs propres de At A.
– Vr la sous matrice des r premières colonnes de V .
10. ESPACE AFFINE, BARYCENTRE 23

Alors :
A = V Σt U
A = Vr Σr t Ur
r
X
A= σi vi t ui
i=1

Démonstration
Admise 2

Définition 9.2.2 (Valeurs singulières). Les valeurs σi ci-dessus s’appellent les valeurs singulières de A et la
décomposition A = V Σt U s’appelle la décomposition en valeurs singilières.

10 Espace affine, barycentre


10.1 Introduction
L’espace géométrique habituel est constitué d’un ensemble de points. Un point est repéré par ses coordonnées.
Cet espace n’est pas un espace vectoriel (nous ne pouvons pas additionner deux points bien que nous puissions
additionner les coordonnées des deux points). Il lui est cependant très voisin, mais il ne possède pas d’origine
privilégié. Cet espace de points est un espace affine.

10.2 Espace affine


Définition 10.2.1 (Espace affine). On appelle espace affine E, sur R, un ensemble non vide, dont les éléments
sont appelés points, auquel sont associés, d’une part un espace vectoriel E sur R, appelé espace vectoriel associé,
−−→
et, d’autre part une application de E × E dans E qui à tout couple de points (A, B) associe le vecteur AB ayant
les propriétés suivantes :
(i) la relation de Chasles :
−−→ −−→ −→
∀A, B, C dans E AB + BC = AC
−−→
(ii) quel que soit le point A fixé, l’applicationM 7−→ AM est une bijection de E sur E

10.3 Distance
Définition 10.3.1. Soit E un ensemble. On appelle distance sur E toute application d de E ×E dans R+ vérifiant :
(i) ∀(x, y) ∈ E × E d(x, y) = d(y, x) (propriété de symétrie).
(ii) ∀(x, y) ∈ E × E d(x, y) > 0 si x 6= y.
(iii) ∀x ∈ E d(x, x) = 0.
(iv) ∀(x, y, z) d(x, z) ≤ d(x, y) + d(y, z) (inégalité triangulaire).

Remarque 10.3.2. La notion de distance est en fait la transcription mathématique de la notion intuitive de
proximité.

Exemple 10.3.3. Si E = Rn muni d’une norme k.k. Alors d(x, y) = kx − yk est une distance sur E.
Si E = Rn et kxk = kxk2 nous retrouvons la distance euclidienne classique. Lorsque n = 1 cela donne d(x, y) =
|x − y|.

Remarque 10.3.4. Dans l’exemple précédant Rn est considéré comme un espace vectoriel (et donc comme un
ensemble de vecteurs). Si nous considérons cet ensemble comme un ensemble affine (et donc comme un ensemble
−→
de points), l’origine O étant fixé, un point A est déterminé par ces coordonnées qui sont celles du vecteur OA, nous
−→
pouvons alors définir la distance entre deux points A et B comme étant la distance entre les deux vecteurs OA et
−→
OB et nous écrirons donc :
−→ −→ −→ −→ −→ −→ −→
d(A, B) = d(OA, OB) = k OA − OB k = k BO + OA k = k BA k

Nous retrouvons lorsque n = 2 et k.k = k.k2 la distance bien connue entre deux points.

Illustrons maintenant graphiquement cette notion de distance.


24 CHAPITRE 1. ALGÈBRE LINÉAIRE

Illustration 10.3.5. On considère le cas E = R2 . Les ensembles représentés en gras ci-dessous sont respectivement
−→
B1 (O, 1) = {M ∈ R2 /d1 (O, M ) = k OM k1 = 1}
−→
B2 (O, 1) = {M ∈ R2 /d2 (O, M ) = k OM k2 = 1}
−→
B∞ (O, 1) = {M ∈ R2 /d∞ (O, M ) = k OM k∞ = 1}

6 '$
6 6
@
@
@- - -
@
@
@ &%

10.4 Barycentre
Définition 10.4.1. On appelle point massique tout couple (M, m) où M est un point d’un espace affine et p un
réel.
P
Théorème 10.4.2. Soit (Mi , mi )i=1,m m points massiques d’un espace affine tel que i mi 6= 0 alors il existe un
point unique G tel que : X −−→ − →
mi GMi = 0
i

Démonstration
X −−→ X −−→ −−→ →

mi GMi = mi (GO + OMi ) = 0
i i

−−→ 1 X −−→
=⇒ OG = P mi OMi
i mi i

d’où l’existence et l’unicité.


2
Définition 10.4.3. Le point G s’appelle le barycentre des points massiques (Mi , mi )i=1,m .
Exemple 10.4.4. (i) Le barycentre de (M1 , 1/2), (M2 , 1/2) est le milieu du segment [M1 M2 ]
(ii) Le barycentre de (M1 , 1/3), (M2 , 1/3), (M3 , 1/3) est le centre de gravité du triangle (M1 M2 , M3 )
Chapitre 2

Analyse en composantes principales

1 Introduction
1.1 Type de données
L’objectif de l’Analyse en composantes principales (ACP) est de décrire graphiquement un tableau de données
individus×variable quantitatives de grande taille.

individus : variables var1 ... varj ... varp


ind1
..
.
indi xij
..
.
indn

Afin de ne pas alourdir l’exposé de cette méthode et de permettre à l’étudiant de refaire complètement les
calculs nous travaillerons sur l’exemple simple suivant :

Exemple 1.1.1. Dans une étude un botaniste a mesuré les dimensions de 15 fleurs d’iris. Les 3 variables mesurées
sont :
– x.1 : longueur du sépale ;
– x.2 : largeur du sépale ;
– x.3 : longueur du pétale ;
Les données sont les suivantes :

fleur n◦ x.1 x.2 x.3


1 5.1 3.5 1.4
2 4.9 3.0 1.4
3 4.7 3.2 1.3
4 4.6 3.1 1.5
5 5.0 3.6 1.4
6 7.0 3.2 4.7
7 6.4 3.2 4.5
8 6.9 3.1 4.9
9 5.5 2.3 4.0
10 6.5 2.8 4.6
11 6.3 3.3 6.0
12 5.8 2.7 5.1
13 7.1 3.0 5.9
14 6.3 2.9 5.6
15 6.5 3.0 5.8

Remarque 1.1.2. (i) Un individu sera en fait une unité expérimentale. Il s’agit de l’objet sur lequel on effectue
des observations ou mesures. Il peut s’agir d’êtres humains dans le cas d’une étude de marché ou d’une
parcelle de terrain dans une étude du sol ou d’une fleur dans notre exemple.

25
26 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES

(ii) Une variable quantitative est synonyme d’un caractère quantitatif ou d’une variable continue. Ce type de
méthode ne peut donc être utilisé a priori lorsque le tableau des données comprends des données qualitatives
comme une catégorie socio-professionnelle.
(iii) l’ACP est une méthode de base de l’analyse des données1 .

1.2 Outils mathématiques


Pour nous un tableau de données sera tout simplement une matrice réelle à n lignes (les individus) et à p
colonnes (les variables) :
X = (xij ) i=1,...,n
j=1,...,p

Par suite
– L’indice i correspondra à l’indice ligne et donc aux individus. Nous identifierons l’individu i avec le point
ligne :
xi. = (xi1 , . . . , xip )
C’est donc un point dans un espace affine de dimension p.
– L’indice j corresponds à l’indice colonne donc aux variables. On identifiera la variable j avec le vecteur
colonne :  
x1j
 .. 
~x.j =  . 
xnj
C’est donc un vecteur dans l’espace vectoriel de dimension n Rn .
Nous nous placerons dans la suite suivant deux points de vues. Soit nous prendrons le tableau de données
comme n points dans un espace affine de dimension p, soit nous prendrons ce tableau comme p vecteurs d’un
espace vectoriel de dimension n. Nous verrons qu’il y a des ”liens” entre ces deux points de vue. On parle alors de
dualité.
L’outil mathématique que l’on va utiliser ici est l’algèbre linéaire, avec les notions de produit scalaire, de norme
euclidienne et de distance euclidienne. Nous ferons systématiquement dans ce cours le lien entre les concepts utilisés
et leurs écritures matricielles.

1.3 Plan
Afin de simplifier la présentation nous allons dans un premier temps consiérer que chaque individu, comme
chaque variable, a la même importance, le même poids. Nous ne considérerons aussi, que le cas de la distance
euclidienne canonique. Nous allons dans une première section exposer plus mathématiquement la problématique,
puis nous étudierons l’ACP dite normée. Pour une étude plus générale de l’ACP, nous renvoyons aux ouvrages de
Ludovic Lebart, Alain Morineau et Rarie Piron [2] , ou deBrigitte Escoffier et Jérome Pagès [1] ou encore de Gibert
Saporta [3]. Dans le chapitre suivant nous donnerons quelques exemples d’applications.

2 Objectifs de l’ACP
2.1 Transformations initiales des données
Données centrées
Nous allons ici centrer les données c’est-à-dire mettre l’origine au centre de gravité du nuage de points. Ceci ne
modifie pas l’aspect du nuage, mais permet d’avoir les coordonnées du point M égales aux coordonnées du vecteur
−−→
GM et donc de ce placer dans l’espace vectoriel pour pouvoir y faire les calculs. On supposera dans toute la suite
pour simplifier la présentation que le poids des individus sont identiques, on prendra donc mi = 1/n, i = 1, . . . , n.
On considère le repère orthonormé (O, e1 , . . . , ep ) où (e1 , . . . , ep ) est la base canonique de Rp .
Soit donc G le centre de gravité du nuage de point. Comme nous considérons ici que chaque variable, comme
chaque individu, a le même poids, le point G a pour coordonnées dans le repère (0, e1 , . . . , en ) :
t
G = x̄ = (x̄.1 , . . . , x̄.j , . . . , x̄.p )
1 l’analyse des données au sens large est l’ensemble des méthodes utilisées pour analyser des données. Elle comprends donc aussi les

statistiques. Le sens pris ici est ce qu’on appelle dans les pays anglo-saxons l’analyse des données ”à la française” qui comprends entre
autre l’Analyse Factorielle des Correspondances simples et Multiples développée par M. Benzecri et son école
2. OBJECTIFS DE L’ACP 27

où
n
1X
x̄.j = xij
n i=1

On appelle matrice centrée la matrice :


   
x11 − x̄.1 ... x1j − x̄.j ... x1p − x̄.p 1
 .. .. ..   .. 

 . . . 

.
  
 xi1 − x̄.1
Xc =  ... xij − x̄.j ... xip − x̄.p  = X − 
1 x̄.1 . . . x̄.j . . . x̄.p
 
.. .. .. .
 .. 
 
 . . . 
xn1 − x̄.1 ... xnj − x̄.j ... xnp − x̄.p 1

Remarque 2.1.1. La matrice des données centrées contient les coordonnées des individus dans le repère (G, e1 , . . . , ep ).
Nous nous placerons dans la suite toujours dans ce repère pour le nuage de points des individus et nous prendrons
O = G.

Exemple 2.1.2. Pour notre exemple (1.1.1) nous avons

G = x̄ = (5.91, 3.06, 3.87)


 
−0.8067 0.4400 −2.4733

 −1.0067 −0.0600 −2.4733 


 −1.2067 0.1400 −2.5733 


 −1.3067 0.0400 −2.3733 


 −0.9067 0.5400 −2.4733 


 1.0933 0.1400 0.8267 


 0.4933 0.1400 0.6267 

Xc = 
 0.9933 0.0400 1.0267 


 −0.4067 −0.7600 0.1267 


 0.5933 −0.2600 0.7267 


 0.3933 0.2400 2.1267 


 −0.1067 −0.3600 1.2267 


 1.1933 −0.0600 2.0267 

 0.3933 −0.1600 1.7267 
0.5933 −0.0600 1.9267

5 G

4
x.3

0
4

3 8
6
2
4
1
2
x.2 0 0
x.1

Fig. 2.1 – Données initiales


28 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES

0
xc.3 O=G
−1

−2

−3

−4
2

1 4
2
0
0
−1
−2
xc.2 −2 −4
xc.1

Fig. 2.2 – Données centrées

Données centrées réduites


Il arrive souvent en pratique que l’importance que l’on désire donner à chaque variable soit la même. Il n’y
a aucune raison par exemple que l’unité des mesures effectuées, qu’elle soit le cemtimètre où le mètre pour une
longueur par exemple, influence les résultats. Aussi, très souvent nous travaillerons avec les données centrées
réduites. Nous noterons
n n
1X X 1
s2j = (xij − x̄.j )2 = f rac1n xc2ij = ||xc.j ||2
n i=1 i=1
n
la variance d’échantillon de la variable x.j . La matrice des données centrées réduites est alors :
 
(x11 − x̄.1 )/s1 . . . (x1j − x̄.j )/sj . . . (x1p − x̄.p )/sp
 .. .. .. 

 . . . 

Y =  (xi1 − x̄.1 )/s1 . . . (xij − x̄.j )/sj . . . (xip − x̄.p )/sp 

 .. .. .. 
 . . . 
(xn1 − x̄.1 )/s1 . . . (xnj − x̄.j )/sj . . . (xnp − x̄.p )/sp
Si nous notons D1/s la matrice diagonale suivante :
 
1/s1 ... 0
 .. .. .. 
D1/s =  . . . 
0 . . . 1/sp
Nous avons alors
Y = XcD1/s
Remarque 2.1.3. – La variance de la variable y.j est 1.
– Les nouvelles variables (y.j )j sont sans dimension

Données centrées normées


C’est la matrice données par :
1
Z=√ Y
n
Soit encore
xij − x̄.j
zij = √
nsj
La terminologie vient du fait que la variable z.j est de norme 1, i.e. que le vecteur z.j est de longuer 1. En effet :
n n  2 n
X X xij − x̄.j 1 1X
kz.j k2 = 2
zij = √ = 2 (xij − x̄.j )2 = 1
i=1 i=1
nsj s j n i=1
2. OBJECTIFS DE L’ACP 29

2.2 Nuage de points


Nous représentons graphiquement les individus par un nuage de points dans l’espace Rp . Dans notre exemple
nous sommes dans R3 . Repésenter le nuage de point des données centrées réduites ou centrées normées ne modifie
rien à la forme de celui-ci. En effet la différence entre les deux n’est qu’un changement d’échelle d’un facteur √1n .
Nous travaillerons dans la suite avec les données centrées normées. La représentation graphique pour notre exemple
est alors données par la figure (2.3).

0.5

0
z.3

−0.5
0.5

0.5
0

−0.5 0

z.2 −1 −0.5
z.1

Fig. 2.3 – Données centrées normées

L’information intéressante pour les individus est la distance entre les points. En effet plus cette distance sera
grande entre deux individus zi. et zi0 . , plus les deux individus seront différents (par rapport à leurs valeurs sur les
variables considérées). Nous prendrons comme distance ici la distance euclidienne canonique :
p
d2 (zi. , zi0 . ) = k−
z− −→ 2
X
i. zi0 . k = (zij − zi0 j )2
j=1

Les figures (2.4,2.5) et (2.6) montre les projections orthogonales dans l’espace R3 de ce nuage de points respecti-
vement dans les plans (O, e1 , e2 ), (O, e2 , e3 ) et (0, u1 , u2 ). Le graphique (2.7) donne lui ces projections orthogonales
dans les plans concernées.

Il est clair que la dernière représentation plane est ”meilleure” que les autres dans le sens où elle respecte mieux
les distances entre les individus, i.e. où elle déforme moins le nuage de points dans l’espace.
L’objet de l’ACP pour le nuage des individus est de déterminer les ”meilleurs” plans, i.e. ceux qui concervent
le maximum d’information2 .

Remarque 2.2.1. Dans la pratique nous traiterons des grands tableaux, par exemple avec 1000 individus et 100
variables. Aussi l’espace des individus sera un espace de dimension 100. Nous ne pouvons donc plus dans ce cas
représenter le nuage de points. Nous obtiendrons par l’ACP un certains nombres de plans apportant chacun une
information complémentaire aux autres et on espèrera avoir avec quelques plans ”presque” toute l’information du
nuage de point dans l’espace.
2 Nous définirons ceci rigoureusement dans la prochaine section
30 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES

0.5

z.3

−0.5
1

0.5 1

0 0.5

−0.5 0

z.2 −1 −0.5
z.1

Fig. 2.4 – Projection sur le plan (O, z.1 , z.2 )

0.5
z.3

−0.5
1

0.5 1

0 0.5

−0.5 0

z.2 −1 −0.5
z.1

Fig. 2.5 – Projection sur le plan (O, z.2 , z.3 )

0.5
z.3

−0.5
1

0.5 1

0 0.5

−0.5 0

z.2 −1 −0.5
z.1

Fig. 2.6 – Projection sur le meilleur plan


2. OBJECTIFS DE L’ACP 31

individus: plan (O,z.1,z.2) individus: plan (O,z.2,z.3)

0.2 0.2

0 0

−0.2 −0.2

−0.4 −0.4

−0.6 −0.6
−0.6 −0.4 −0.2 0 0.2 0.4 −0.6 −0.4 −0.2 0 0.2 0.4

individus: plan factoriel 1−2

0.2

−0.2

−0.4

−0.6
−0.6 −0.4 −0.2 0 0.2 0.4

Fig. 2.7 – Graphique en dimension 2 des projections

2.3 Nuage des variables


Matrice de variances, covariances
Nous nous intéressons maintenant à ce qui se passe sur l’espace des variables. Nous allons chercher ici à détecter
des liens possibles entre les variables. L’ACP étant basée sur l’algèbre linéaire, la nature des liens ne pourra être
que linéaire.
On rappelle que la covariance entre deux variables x.j et x.j 0 est données par :
n
1X 1
cov(x.j , x ) =
.j 0 (xij − x̄.j )(xij 0 − x̄.j 0 ) = (xc.j /xc.j 0 )
n i=1 n

et que la corrélation linéaire est :


cov(x.j , x.j 0 )
r(x.j , x.j 0 ) =
sj sj 0
On note
C = (cov(x.j , x.j 0 )) j=1,...,p
0
et R = (rjj 0 ) j=1,...,p
0
j =1,...,p j =1,...,p

les matrices de variances, covariances et de corrélations. La matrice de variances, covariances est donc au coefficient
1
n près, la matrice des produits scalaires canoniques des vecteurs colonnes de la matrice des données centrées Xc.
Nous en déduisons alors les relations suivantes :
1t 1t
C= XcXc et R= Y Y = t ZZ
n n
On peut aussi voir que l’on a comme relation

R = D1/s CD1/s

Les vecteurs colonnes de Z sont par construction normées, par suite le produit scalaire entre les vecteurs colonnes
z.j et z.j 0 est aussi le cosinus de l’angle entre ces deux vecteurs. En conclusion le coefficient de corrélation linéaire
rjj 0 entre les variables est géométriquement le cosinus de l’angle entre les vecteurs z.j et z.j 0 :

cos(z.jd
, z.j 0 ) = rjj 0

Représentation graphique
Afin de pouvoir dans cette introduction visualiser les variables dans leur espace Rn nous allons prendre dans
notre exemple trois individus et quatre variables
Exemple 2.3.1.  
5.1 3.5 1.4 0.2
XX =  4.9 3.0 1.4 0.2 
4.7 3.2 1.3 0.2
32 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES

La matrices des données centrées normées est alors :


 
0.7071 0.7493 0.4082 −0.5774
ZZ =  0.0000 −0.6556 0.4082 −0.5774 
−0.7071 −0.0937 −0.8165 −0.5774
La représentation graphique de ces 4 variables z.j est alors données par la figure (2.8).

0.8
0.6
0.4
0.2
0
z3.

−0.2
−0.4
−0.6
−0.8

0.5 1
0.5
0
0
−0.5
−0.5

z2. −1
z1.

Fig. 2.8 – Graphique des variables

0.5
0.5

0
z3.

0
z2.

−0.5

−0.5
0.5 1
0
−0.5 0
z2. −1 z1. −1 −0.5 0 0.5 1
z1.

0.5 0.5

0 0
z3.

v2

−0.5 −0.5

−1
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
z2. v1

Fig. 2.9 – Projection des variables

Nous pouvons maintenant projeter orthogonalement ces vecteurs dans les plans définis par (e1 , e2 ), (e2 , e3 ) ou
(v1 , v2 ). Nous avons les résultats sur la figure (2.9).
L’objectif de l’ACP pour les variables est de trouver les meileurs plans, c’est-à-dire ceux sur lesquels les angles
des vecteurs projetés respectent ”au mieux” ceux des vecteurs dans l’espace.
Remarque 2.3.2. Nous avons pris ici pour pouvoir visualiser n = 3 et p = 4. Nous aurons toujours en pratique n
supérieur à p, lui même supérieur à 3. L’utilisation de cette méthode lorsque n < p est a proscrire car dans ce cas
le rang des matrices est inférieures ou égale à n et donc on trouvera des relations de dépendances linéaires entre
les variables. Il s’agit toujours au fond du même problème : il faut toujours travailler avec plus d’individus que de
variables.
3. ACP NORMÉE 33

3 ACP normée
3.1 Introduction
Nous rappelons que nous travaillons dans cette section avec la distance euclidienne canonique et que les individus
ont tous le même poids. On note Mi le point de Rp de coordonnées t xi.

3.2 Inertie
L’information pour un nuage de point est défini par la notion d’inertie.
Définition 3.2.1 (Inertie). On appelle inertie d’un nuage de point X = (xij ) la quantité :
n
1X 2
I= d (G, Mi )
n i=1

où G est le centre de gravité du nuage de point.


Remarque 3.2.2. (i) I est égale à la somme des variances. En effet on a :
p p
n n
! n
1XX 2
X 1X X
I= ( (xij − x̄.j ) )) = (xij − x̄.j )2 = s2j
n i=1 j=1 j=1
n i=1 j=1

(ii) On a aussi
I = T r(V )
(iii) Si on travaille avec la matrice des données centrées réduites on a I = p = T r(R), puisque chaque variable
y.j a une variance de 1.
(iv) La terminologie vient de la mécanique. Si on considère un système de n points matériels de masse ponctuelle
1 p t
n dans R de coordonnées xi. alors la quantité I est l’inertie au sens mécanique du terme.

Théorème 3.2.3. On a la relation suivante :


n X
X n
d2 (Mi , Mi0 ) = 2n2 I
i=1 i0 =1

Démonstration

n X
X n X −−−−→ X −−→ −−−→
d2 (Mi , Mi0 ) = kMi Mi0 k2 = kMi G + GMi0 k2
i=1 i0 =1 i,i0 i,i0
X −−→ −−−→ −−→ −−−→
= (kMi Gk2 + kGMi0 k + 2(Mi G/GMi0 ))
i,i0
X X −−→ X X −−−→ X −−→ X −−−→
= ( kMi Gk2 ) + ( kGMi0 k2 ) + 2 (Mi G/ GMi0 )
i0 i i i0 i i0
XX XX X −−→ −→
= ( d2 (Mi , G)) + ( d2 (G, Mi0 )) + 2 (Mi G/ 0 )
i0 i i i0 i
X X
= nI + nI + 0
i0 i
= 2n2 I

3.3 Analyse des individus


Nous allons dans toute la suite travailler avec les données centrées normées, i.e. avec la matrice Z. Les points
Mi auront donc ici comme coordonnées t zi. .
Le problème est ici de trouver le meilleur espace affine de dimension q dans le sens ou il respecte au mieux
les distances entre les points. Comme les données sont centrées, le centre de gravité du nuage est confondu avec
l’origine et le meilleur espace affine passera par l’origine. De plus projeter orthogonalement un point M de l’espace
−−→
Rp dans un sous espace affine qui passe par l’origine est équivalent à projeter orthogonalement le vecteur 0M sur
le sous espace vectoriel associé. Nous sommes ainsi ramené à effectuer les calculs dans des espaces vectoriels.
34 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES

Formalisation mathématique du problème


Nous allons tout d’abord rechercher la meilleure droite vectorielle ∆u qui est parfaitement déterminée par le
vecteur u. Appelons Hi la projection orthogonale de Mi sur la droite ∆u . Alors notre problème est de trouver la
droite, i.e. le vecteur u qui fasse que la somme des carrés des distances entres les points Hi soit maximale. Nous
écrirons le probème sous la forme suivante :
2 0
 P
 M ax i,i0 d (Hi , Hi )
p
(P) u∈R
kuk = 1

Or ici, nous avons X


d2 (Hi , Hi0 ) = 2n2 I(u)
i,i0

où I(u) = i d2 (O, Hi ). En effet le centre de gravité du nuage de point projeté est aussi ici l’origine. Par suite
P
notre problème est équivalent à : 
 M ax I(u)
(P 0 ) u ∈ Rp
kuk = 1

Lui même est équivalent à  P 2


 M ax i d (O, Hi )
(P 00 ) u ∈ Rp
kuk = 1

Définition 3.3.1. I(u) s’appelle l’inertie du nuage de points sur l’axe u

Résolution de (P 00 )
−−→
Tout d’abord, puisque Hi est la projection orthogonale du point Mi sur ∆u nous avons OHi = αi u pour tout i
−−→
avec αi = (OMi /u). Par suite les coordonnées les points Hi sur la droite ∆u sont :
 
α1
 .. 
 .  = Zu
αn

Par suite nous avons : X X


d2 (O, Hi ) = αi2 = kZuk2 = (Zu/Zu) = f (u)
i i

Ici nous cherchons le vecteur u de norme 1. La matrice Z est parfaitement connue. Or on a

(Zu/Zu) = (t ZZu/u) = (Ru/u)

La matrice de corrélations R = t ZZ est symétrique, donc, corollaire (9.1.3) elle est diagonalisable dans une base
orthonormée de vecteurs propres. De plus les valeurs propres sont toutes positives ou nulles. Posons R = U Λt U
avec Λ matrice diagonale des valeurs propres mises en ordre décroissante : λ1 ≥ . . . ≥ λp ≥ 0. Nous avons donc :
p
X
f (u) = (Zu/Zu) = (U Λt U u/u) = (Λt U u/t U u) = (Λw/w) = λj wj2
j=1

où w = t U u.
Mais U est une matrice orthogonale par conséquent {w = t U u/u ∈ Rp kuk = 1} = {w ∈ Rp /kwk = 1}. Or
p
X
λj wj2 ≤ λ1
j=1

et on a l’égalité si w1 = t (1, 0, . . . , 0). Une solution de notre problème (P 00 ) est donc u.1 = U w1 vecteur propre de
R associée à la plus grande valeur propre.
Une fois que l’on a trouvé la première droite vectorielle, on cherche une deuxième droite dans le sous espace
vectoriel orthogonal à la droite vectorielle qui maximise l’intertie du nuage de point projeté. On démontre que la
solution est données par la droite vectorielle dirigée par le vecteur propre associé à la deuxième valeur propre de la
matrice de corrélation et ainsi de suite ...
3. ACP NORMÉE 35

Remarque 3.3.2. Nous noterons ψ les coordonnées, en ligne, des points sur dans la nouvelle base (u.1 , . . . , u.p ).
Ces coordonnées s’obtiennent en calculant
ψ = ZU
Exemple 3.3.3. Reprenons notre exemple (1.1.1). Rappelons que la matrice de corrélation est :
 
1.0000 −0.1609 0.8854
R = −0.1609 1.0000 −0.3818
0.8854 −0.3818 1.0000

Les valeurs propres et vecteurs propres de cette matrice sont alors

λ1 = 2.0302 λ2 = 0.8846 λ3 = 0.0853


 
0.6410 0.3803 −0.6667
U = −0.3528 0.9174 0.1842 
0.6817 0.1171 0.7222
Nous avons alors comme coordonnées des points Mi dans la base (u.1 , u.2 , u.3 )
 
−0.5268 0.2045 −0.0198
−0.4178 −0.2043 −0.0564
 
−0.5259 −0.0750 0.0052 
 
−0.4966 −0.1604 0.0305 
 
−0.5760 0.2699 0.0161 
 
 0.2525
 0.2488 −0.1169 
 0.1156
 0.1757 −0.0150 
ψ=  0.2818 0.1634 −0.0916 
 0.1578 −0.6311 −0.0218
 
 0.2634 −0.1194 −0.0871
 
 0.2108 0.2660 0.1739 
 
 0.2039 −0.2697 0.0912 
 
 0.4469
 0.1261 −0.0459 
 0.2908 −0.0490 0.0712 
0.3196 0.0546 0.0663

Les coordonnées des projections du nuage de points dans le meilleur plan défini par les vecteurs (u.1 , u.2 ) sont donc
les deux premières colonnes de ψ. Nous obtenons ainsi le troisième graphique de la figure (2.7).

3.4 Analyse des variables


Les variables sont des vecteurs de Rn . Nous souhaitons ici concerver au maximum les longueurs des vecteurs.
Nous cherchons donc la meilleure droite vectorielle, qui sera parfaitement définie par la données un vecteur v de
Rn de norme 1, dans le sens où elle maximisera la somme des carrés des longueurs des projections orthogonales des
variables sur cette droite vectorielle. Appelons wj la projection orthogonale de la variable z.j sur ∆v , nous avons :

wj = βj v = (z.j /v)v

Par suite le vecteur des coordonnées des projections orthogonales sur ∆v est :
 
β1
 ..  t
β =  .  = Zv
βp

Nous sommes donc conduit au problème d’optimisation suivant :

M ax kt Zvk2 = (t Zv/t Zv)



(P)
kvk = 1

La solution de (P) est le vecteur propre associé à la plus grande valeur propre de Z t Z
Appelons V = (v1 , . . . , vn ) une base orthonormée de vecteurs propres de Z t Z où vi est associé à la valeur propre
λi avec λ1 ≥ . . . ≥ λn ≥ 0. Alors les coordonnées, en ligne, des variables z.j dans la nouvelle base (v1 , . . . , vn ) sont
données par :
φ = t ZV
36 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES

3.5 Relations de dualité


Théorème 3.5.1. On suppose Z de rang r et n > p alors les valeurs propres non nulles de t ZZ et de Z t Z sont
identiques . Si (u.1 , . . . , u.r ) et (v.1 , . . . , v.r ) sont des vecteurs propres orthonormées de t ZZ et Z t Z respectivement,
associés aux valeurs propres λ1 ≥ . . . ≥ λr > 0. On peut prendre ces vecteurs propres de façon a avoir les relations :
(i) v.j = √1 Zu.j
λj

(ii) u.j = √1 t
Zv.j
λj

On a de plus pour j = 1, . . . , r
p
(i) φ.j = λj u.j
p
(ii) ψ.j = λj v.j
(iii) kψ.j k2 = λj
(iv) kφ.j k2 = λj
Démonstration
Les premiers résultats proviennent du théorème (9.1.7). Pour les autres résultats, il suffit d’écrire :
1 1 1
φ.j = t Zv.j = t Z p Zu.j = p t ZZu.j = p λj u.j
λj λj λj

kψ.j k2 = (Zu.j /Zu.j ) = (t ZZu.j /u.j ) = λj


2
Définition 3.5.2 (relations de dualité). On appelle relation de dualité les relations qui existent entre les deux
espaces.
Remarque 3.5.3. ψ est la matrice des coordonnées des points Mi dans la nouvelle base orthonormée définie par
les vecteurs colonnes de U . On peut donc considérer les vecteurs colonnes de cette matrice ψ comme des nouvelles
variables (ψ.j )j = 1, . . . , p. La coorrélation entre les variables z.j et ψ.j 0 est alors :

ψ.j 0 ψ.j 0 ψ.j 0


r(z.j , ψ.j 0 ) = cos(z.j , p ) = (z.j / p ) = t z.j p ) = t z.j v.j 0 = φjj 0
λj 0 λj 0 λj 0

Par conséquent la matrice φ contient les corrélations linéaires entre les variables de départ z.j et les nouvelles
variables ψ.j .
Remarque 3.5.4. Afin de retrouver des quantités connues ayant une interprétation statistique, on prefère √ en
pratique travailler, pour les individus, avec les données centrées réduites Y . Nous appellerons ψ Y = Y U = nψ
les coordonnées des points du nuage de données centrées réduites dans la base orthonormée de vecteurs propres de
la matrice de corrélation. Nous aurons alors :
1 Y 2
kψ k = λj
n .j
Or, le nuage de points étant centré, la moyenne de chaque colonne de ψ Y est nulle donc la quantité ci-dessus n’est
Y
pas autre chose que la variance de la variable ψ.j ou que l’inertie du nuage de point projeté sur cet axe. Les logiciels
Y
donnent toujours les quantités ψ .
Remarque 3.5.5. Le rang de la matrice Z étant égale à r nous aurons :

ψ.j = ~0Rp pour j = r + 1, . . . , p

φ.j = ~0Rn pour j = r + 1, . . . , n


Si r = p le premier cas ne se produit pas bien évidemment.
Définition 3.5.6 (Axe factoriel). Dans l’espace des individus Rp , on appelle jième axe factoriel ou axe factoriel
uj ., la droite vectorielle définie par le vecteur u.j .
Dans l’espace des variables Rn , on appelle jième axe factoriel ou axe factoriel vj ., la droite vectorielle définie par
le vecteur v.j .
Définition 3.5.7 (Composante principale). On appelle jième composante principale le vecteur des coordonnées
Y
des individus sur l’axe u.j , i.e. ψ.j .
3. ACP NORMÉE 37

3.6 Reconstitution des données


Reconstitution exacte

Supposons pour simplifier que rg(Z) = p, nous avons pour j = 1, . . . , p les relations :
p
Zu.j = λi v.j

Donc
p
X p
X p
X
Zu.j t u.j = Z u.j t u.j =
p
λj v.k t u.k
j=1 j=1 j=1

Mais U est une matrice orthogonnale. L’une des interprétations du produit matriciel (cf. l’Annexe A) permet alors
d’écrire :
Xp
t
U U= u.j t u.j = I
j=1

En conclusion nous avons :


p
X p
Z= λj v.j t u.j (2.1)
j=1

Remarque 3.6.1. L’ecriture ci dessus n’est pas autre chose que la décomposition en valeurs singulière de la matrice
Z. En effet les λj sont les valeurs propres de t ZZ, donc les carrées des valeurs singulières et la formule (2.1) s’écrit
aussi
Z = Vr Σr t Ur

car nous avons pris p = r.

Reconstitution approchée

Si on néglige les derniers termes et que l’on ne considère que les q premiers termes nous avons une reconstitution
approchée de Z :
Xq
Z∗ =
p
λj v.j t u.j
j=1

3.7 Qualité globale de l’ajustement


Appelons ψ Y ∗ la matrice des q premières colonnes de ψ Y , c’est-à-dire la matrice des coordonnées dans la base
(u.1 , . . . , u.q ) des projections orthogonales des points dans le meilleur sous espace de dimension q. La quantité
d’information sur les q premiers axes factoriels est l’inertie du nuage de points projetés sur l’espace de dimension
q:
n
1X 2
Iq = d (O, ψi.Y ∗ ) = λ1 + · · · + λq
n i=1

Dans l’espace de départ, cette inertie est I = λ1 + · · · + λp = p car nous sommes en ACP normée.
La qualité globale de représentation est donc :

λ1 + · · · + λq
τq =
p

Remarque 3.7.1. Z ∗ contient les coordonnées des projections orthogonales dans la base de départ (e1 , . . . , ep ).
Notons Mi∗ les points de coordonnées t zi.∗ . Nous avons alors :

1
Pn 2 ∗
P P ∗2
i=1 d (O, Mi )
zij T r(t Z ∗ Z ∗ ) λ1 + · · · + λq
τq = n
1
Pn = Pi Pj 2 = t ZZ)
=
d 2 (O, M ) z T r( p
n i=1 i i j ij
38 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES

3.8 Individus et variables supplémentaires


Individus supplémentaires
Nous travaillerons dorénavant, pour les individus, avec les données centrées réduites.
Il est parfois utile en pratique de visualiser des individus supplémentaires, par exemple des ”individus moyens”.
Notons Y+ = (y+ij ) la matrice de terme génerale :

x+ij − x̄.j
y+ij =
sj

Nous tenons a bien faire remarquer ici que ces individus supplémentaires n’interviennent pas dans la définition des
axes factoriels, ni dans les moyennes et écarts-types. Ces individus sont projetés de la même manière, aussi nous
avons matriciellement :
Y
ψ+ = Y+ U

Variables supplémentaires
Nous avons ici :
x+ij − x̄.j
z+ij = √
nsj
et
φ+ = t ZV

Variable nominale supplémentaire


Lorsque nous avons une variable qualitative à m classes, nous pouvons à partir de cette variable définir m
individus supplémentaires. Le kième individu supplémentaire aura comme coordonnée la moyenne des valeurs
obtenue par les individus de départ ayant la modalité k pour la variable qualitative considérée.

3.9 Éléments pour l’interprétation


Inertie
Rappelons que pour le nuage de points nous travaillons avec les données centrées réduites. Aussi l’inertie de
l’axe j, qui est aussi la variance de la jième composante principale, est égale à la jième valeur propre λj . Ceci nous
permet donc d’avoir un critère globale pour connaı̂tre la qualité de la représentation sur les différents sous espaces.

3.10 Variables
Nous avons φjj 0 = r(z.j , ψ.j 0 ). Ceci nous permettra d’interpréter les axes factoriels.
Pour savoir si une variable est bien représentée sur un plan, il suffit de regarder si la somme des carrés de ces
coordonnées est proche de 1. En effet on sait que pour l’ACP normée la longueur du vecteur représentant une
variable est 1.

3.11 Individus
Pour les individus, pour savoir si un point Mi est bien représenté sur un axe j il faut regarder si le cosinus carré
−−→
de l’angle entre le vecteur OMi et sa projection orthogonale sur cet axe est proche de 1. Ce cosinus carré est donné
par :
Y2
ψij
cos2 (θij ) =
kOMi k2
Pour savoir s’il est bien représenté sur un plan, il suffit de faire la somme des cosinus carrés et de regarder si cette
quantité est proche de 1.
Il est aussi utile pour les individus d’avoir la contribution d’un point à la définition d’un axe j. Celle-ci est tout
simplement donnée par la part de l’inertie (exprimée en pourcentage) apporté par l’individu i dans l’intertie de
l’axe j :
1 Y2
ψij
ctr(ind.i à l’axe j) = 100 n
λj
3. ACP NORMÉE 39

3.12 Remarque sur la dualité


Considérons le cas simple où l’on a deux variables. Considérons par exemple les données suivantes :
 
1 2
2 5 
 
3 5 
 
4 10
X=  
5 10

6 10
 
7 11
8 11

Les données centrées normés sont alors


 
−0.5401 −0.5885
−0.3858 −0.3169
 
−0.2315 −0.3169
 
−0.0772 0.1358 
Z=
 
 0.0772 .1358 
 0.2315 .1358 
 
 0.3858 0.2263 
0.5401 0.5885

La figure (2.10) montre dans le premier graphique le nuage de point des données centrées normées dans la base
de départ. Le deuxième graphique ce même nuage de point dans la nouvelle base obtenue par l’ACP normée. Il
s’agit ici d’une rotation. Quand au troisième graphique il visualise les deux variables dans le meilleur plan. Nous
avons ici toute l’information dans ces plans. En particulier pour les variables. Les deux variable z.1 et z.2 sont ici
deux vecteur de R8 . Nous avons visualisé ces deux vecteurs dans le plan de R8 défini par ces deux vecteurs. Bien
que nous ayons des représentation planes, nous ne sommes pas du tout dans les mêmes espace pour les individus
et les variables.

1 1
u1 z.1
0.5 0.5
z.2

u2

0 0

−0.5 −0.5
u2 z.2

−1 −1
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
z.1 u1

0.5
v2

−0.5

−1
−1 −0.5 0 0.5 1
v1

Fig. 2.10 – Dualité des espaces


40 CHAPITRE 2. ANALYSE EN COMPOSANTES PRINCIPALES
Chapitre 3

Applications

1 Dépenses de l’État
1.1 Données
Le tableau suivant donne, en pourcentage, pour chaque année les dépenses de l’Etat entre 1872 et 1971.
PVP AGR CMI TRA LOG EDU ACS ACO DEF DET DIV Total
1872 18 0.5 0.1 6.7 0.5 2.1 2 0 26.4 41.5 2.1 100
1880 14.1 0.8 0.1 15.3 1.9 3.7 0.5 0 29.8 31.3 2.5 100
1890 13.6 0.7 0.7 6.8 0.6 7.1 0.7 0 33.8 34.4 1.7 100
1900 14.3 1.7 1.7 6.9 1.2 7.4 0.8 0 37.7 26.2 2.2 100
1903 10.3 1.5 0.4 9.3 0.6 8.5 0.9 0 38.4 27.2 3 100
1906 13.4 1.4 0.5 8.1 .7 8.6 1.8 0 38.5 25.3 1.9 100
1909 13.5 1.1 .5 9 .6 9 3.4 0 36.8 23.5 2.6 100
1912 12.9 1.4 .3 9.4 .6 9.3 4.3 0 41.1 19.4 1.3 100
1920 12.3 0.3 .1 11.9 2.4 3.7 1.7 1.9 42.4 23.1 .2 100
1923 7.6 1.2 3.2 5.1 0.6 5.6 1.8 10 29.0 35 .9 100
1926 10.5 .3 .4 4.5 1.8 6.6 2.1 10.1 19.9 41.6 2.3 100
1929 10 .6 .6 9 1 8.1 3.2 11.8 28.0 25.8 2 100
1932 10.6 .8 .3 8.9 3 10 6.4 13.4 27.4 19.2 0 100
1935 8.8 2.6 1.4 7.8 1.4 12.4 6.2 11.3 29.3 18.5 .4 100
1938 10.1 1.1 1.2 5.9 1.4 9.5 6 5.9 40.7 18.2 0 100
1947 15.6 1.6 10 11.4 7.6 8.8 4.8 3.4 32.2 4.6 0 100
1950 11.2 1.3 16.5 12.4 15.8 8.1 4.9 3.4 20.7 4.2 1.5 100
1953 12.9 1.5 7 7.9 12.1 8.1 5.3 3.9 36.1 5.2 0 100
1956 10.9 5.3 9.7 7.6 9.6 9.4 8.5 4.6 28.2 6.2 0 100
1959 13.1 4.4 7.3 5.7 9.8 12.5 8 5 26.7 7.5 0 100
1962 12.8 4.7 7.5 6.6 6.8 15.7 9.7 5.3 24.5 6.4 .1 100
1965 12.4 4.3 8.4 9.1 6 19.5 10.6 4.7 19.8 3.5 1.8 100
1968 11.4 6 9.5 5.9 5 21.1 10.7 4.2 20 4.4 1.9 100
1971 12.8 2.8 7.1 8.5 4 23.8 11.3 3.7 18.8 7.2 0 100
avec
– PVP : pouvoirs publics ;
– AGR : agriculture ;
– CMI : commerce et industrie ;
– TRA : travail ;
– LOG : logement et aménagement du territoire ;
– EDU : éducation ;
– ACS : action sociale ;
– ACO : anciens combatants ;
– DEF : défense ;
– DET : dette ;
– DIV : divers.
On a effectué sur ces données une Analyse en Composantes Principales normée,
On note X la matrice des données de départ, Y la matrice des données centrées réduites et Z la matrice des
données centrées normées :

41
42 CHAPITRE 3. APPLICATIONS

xij − x̄.j xij − x̄.j


yij = zij = √
sj nsj
1t
On note aussi R = Y Y = U Λt U
n

1.2 Résultats
xbar =
Columns 1 through 7
12.2125 1.9958 3.9375 8.3208 3.9583 9.9417 4.8167
Columns 8 through 11
4.2750 30.2583 19.1417 1.1833

s =
Columns 1 through 7
2.1911 1.6458 4.4834 2.4678 4.1819 5.2233 3.4088
Columns 8 through 11
4.1548 7.3095 12.1937 1.0258

R =
Columns 1 through 7
1.0000 -0.0846 -0.0018 0.2327 0.0356 -0.1500 -0.1314
-0.0846 1.0000 0.6011 -0.2758 0.4357 0.7313 0.8057
-0.0018 0.6011 1.0000 0.0919 0.8914 0.4678 0.6220
0.2327 -0.2758 0.0919 1.0000 0.1661 -0.2132 -0.2031
0.0356 0.4357 0.8914 0.1661 1.0000 0.2324 0.4878
-0.1500 0.7313 0.4678 -0.2132 0.2324 1.0000 0.8750
-0.1314 0.8057 0.6220 -0.2031 0.4878 0.8750 1.0000
-0.6869 0.0443 0.0227 -0.3132 0.0447 0.1570 0.2882
0.1011 -0.4484 -0.5373 0.1580 -0.3786 -0.5241 -0.5672
0.0336 -0.6949 -0.8041 -0.1483 -0.7580 -0.6702 -0.8082
0.1493 -0.2772 -0.3474 0.1144 -0.4379 -0.2486 -0.5296
Columns 8 through 11
-0.6869 0.1011 0.0336 0.1493
0.0443 -0.4484 -0.6949 -0.2772
0.0227 -0.5373 -0.8041 -0.3474
-0.3132 0.1580 -0.1483 0.1144
0.0447 -0.3786 -0.7580 -0.4379
0.1570 -0.5241 -0.6702 -0.2486
0.2882 -0.5672 -0.8082 -0.5296
1.0000 -0.4169 -0.0494 -0.3775
-0.4169 1.0000 0.2616 0.0204
-0.0494 0.2616 1.0000 0.5539
-0.3775 0.0204 0.5539 1.0000

Lambda=
Columns 1 through 7
4.9734 2.0499 1.2899 0.9933 0.7083 0.5587 0.2042
Columns 8 through 11
0.1253 0.0619 0.0350 0.0000

U =
Columns 1 through 7
-0.0778 0.5167 0.3007 0.1079 0.4039 0.5381 -0.0620
0.3670 0.0041 0.3226 0.1541 -0.0388 -0.2934 -0.7698
0.3738 0.2376 -0.1240 -0.2589 0.1797 -0.2609 0.2018
-0.0615 0.4404 -0.3311 -0.2821 -0.6498 0.2913 -0.2749
0.3236 0.2778 -0.3391 -0.2087 0.3125 -0.2351 0.0810
0.3528 -0.0953 0.3739 0.1163 -0.3776 0.1511 0.4744
1. DÉPENSES DE L’ÉTAT 43

0.4185 -0.0702 0.1463 0.1512 -0.1240 0.2323 -0.0020


0.1296 -0.5640 -0.3297 -0.2028 0.0138 0.2622 -0.1450
-0.2746 0.1510 -0.2288 0.6389 -0.1830 -0.3493 0.0826
-0.3985 -0.2106 0.1416 -0.1799 0.2090 0.0802 -0.1407
-0.2458 0.0785 0.4724 -0.5063 -0.2188 -0.3769 0.0897
Columns 8 through 11
-0.3321 -0.1945 0.0700 -0.1240
0.0127 -0.0897 0.2021 -0.0909
0.2448 -0.6185 -0.2691 -0.2558
0.0995 0.0003 0.0281 -0.1404
-0.2134 0.5607 0.2906 -0.2361
0.0689 -0.0278 0.4820 -0.2911
-0.0897 0.3621 -0.7258 -0.2010
-0.5274 -0.2913 0.0871 -0.2337
-0.2950 -0.1208 -0.0758 -0.4142
0.4104 0.1586 -0.0076 -0.6935
-0.4773 0.0259 -0.1553 -0.0573

V =
Columns 1 through 7
-0.2655 0.1461 0.2812 -0.0996 0.4987 0.3333 -0.1383
-0.2533 0.2868 -0.0305 -0.3039 -0.2998 0.1948 -0.4200
-0.2212 0.0319 0.1376 0.0548 0.1721 -0.0333 0.1482
-0.1882 0.1077 0.1810 0.1070 0.1221 -0.1685 0.0432
-0.2140 0.0238 0.1119 -0.0373 -0.2940 -0.3968 0.0591
-0.1817 0.0893 0.1244 0.1454 -0.0367 -0.1027 0.0748
-0.1746 0.1158 0.1773 0.0412 -0.1443 -0.0691 0.1351
-0.1310 0.1096 0.0349 0.2642 -0.1894 -0.0218 0.0592
-0.1958 0.1363 -0.3140 0.2177 -0.1519 0.0878 -0.1300
-0.1046 -0.4112 -0.1556 -0.0896 0.1315 -0.2296 -0.0231
-0.1532 -0.3722 0.0897 -0.3608 0.2893 0.0208 0.1276
-0.1074 -0.2611 -0.1097 -0.2367 -0.1686 0.0845 -0.0125
0.0248 -0.2793 -0.2628 -0.0082 -0.0838 0.3846 -0.0417
0.0603 -0.3274 -0.1191 0.0630 -0.1998 0.0607 -0.1745
-0.0368 -0.1915 -0.1528 0.3786 -0.0152 -0.0660 0.2274
0.0990 0.3209 -0.2294 0.0473 0.0905 0.2363 0.0465
0.2172 0.3101 -0.3446 -0.5455 0.0453 -0.2459 0.2935
0.1102 0.1617 -0.2988 0.1539 0.2333 -0.1116 0.2366
0.2680 0.0329 -0.1060 0.0909 0.1239 -0.2581 -0.4965
0.2459 0.0200 0.0128 0.1414 0.2940 -0.0489 -0.1794
0.2796 -0.0158 0.1054 0.1322 0.1017 0.0670 -0.1818
0.2877 0.0444 0.2538 -0.1562 -0.2259 0.0602 0.0167
0.3383 -0.0665 0.4129 -0.0576 -0.1153 -0.2000 -0.0813
0.2965 -0.0123 0.2003 0.0578 -0.1778 0.4222 0.4113
Columns 8 through 11
0.0046 0.0439 -0.3854 0.0971
0.1561 0.1848 0.1438 0.0959
0.2634 -0.0211 0.2500 -0.1830
-0.1605 -0.2866 0.2754 0.1424
0.0161 0.1166 0.1256 0.1798
-0.0399 -0.0715 0.1891 -0.5738
-0.2306 0.0797 -0.2704 0.2390
-0.0160 0.0808 -0.2431 0.0812
0.2249 0.0822 0.0173 -0.1002
0.4070 -0.3075 -0.0689 0.2938
-0.0279 0.2092 0.0790 -0.2124
-0.3927 -0.1712 -0.0130 -0.0468
-0.2436 0.1048 0.0308 0.0958
-0.0123 -0.0772 0.1551 -0.0522
0.0294 0.0575 -0.4425 -0.1126
44 CHAPITRE 3. APPLICATIONS

-0.0968 -0.6663 0.0346 0.0440


0.1235 0.0284 -0.1617 -0.1031
-0.2982 0.3402 0.2014 0.1240
0.1584 0.0861 -0.2371 -0.1053
-0.1014 0.2136 0.3211 0.3160
0.0212 0.0066 0.0648 -0.3344
-0.1794 0.0284 -0.1570 -0.1909
-0.0616 -0.1701 -0.0448 0.1409
0.4563 0.1088 0.1356 0.1647
Psi_Y =
Columns 1 through 7
-2.9005 1.0244 1.5646 -0.4861 2.0560 1.2205 -0.3061
-2.7674 2.0120 -0.1695 -1.4836 -1.2361 0.7133 -0.9298
-2.4163 0.2240 0.7657 0.2675 0.7096 -0.1218 0.3280
-2.0566 0.7552 1.0068 0.5227 0.5035 -0.6169 0.0956
-2.3379 0.1672 0.6226 -0.1819 -1.2122 -1.4531 0.1309
-1.9851 0.6261 0.6924 0.7097 -0.1513 -0.3759 0.1656
-1.9074 0.8122 0.9867 0.2010 -0.5950 -0.2532 0.2990
-1.4311 0.7684 0.1942 1.2900 -0.7810 -0.0800 0.1311
-2.1392 0.9559 -1.7472 1.0627 -0.6262 0.3215 -0.2877
-1.1429 -2.8839 -0.8656 -0.4375 0.5424 -0.8407 -0.0512
-1.6741 -2.6110 0.4993 -1.7618 1.1929 0.0763 0.2824
-1.1734 -1.8312 -0.6104 -1.1558 -0.6953 0.3094 -0.0277
0.2706 -1.9593 -1.4620 -0.0403 -0.3455 1.4084 -0.0924
0.6590 -2.2962 -0.6627 0.3077 -0.8237 0.2224 -0.3864
-0.4024 -1.3430 -0.8502 1.8485 -0.0626 -0.2418 0.5035
1.0813 2.2512 -1.2765 0.2310 0.3730 0.8654 0.1029
2.3728 2.1754 -1.9175 -2.6634 0.1870 -0.9005 0.6498
1.2038 1.1343 -1.6624 0.7516 0.9620 -0.4085 0.5239
2.9280 0.2307 -0.5899 0.4436 0.5110 -0.9452 -1.0993
2.6862 0.1402 0.0714 0.6905 1.2120 -0.1791 -0.3971
3.0547 -0.1108 0.5864 0.6457 0.4192 0.2455 -0.4025
3.1430 0.3112 1.4124 -0.7627 -0.9312 0.2206 0.0369
3.6956 -0.4667 2.2971 -0.2813 -0.4756 -0.7325 -0.1799
3.2392 -0.0864 1.1143 0.2821 -0.7329 1.5460 0.9105
Columns 8 through 11
0.0080 0.0535 -0.3533 0.0010
0.2708 0.2253 0.1318 0.0010
0.4568 -0.0258 0.2292 -0.0019
-0.2783 -0.3494 0.2525 0.0015
0.0279 0.1421 0.1151 0.0018
-0.0693 -0.0872 0.1734 -0.0059
-0.3999 0.0972 -0.2479 0.0024
-0.0278 0.0985 -0.2229 0.0008
0.3900 0.1002 0.0159 -0.0010
0.7059 -0.3749 -0.0631 0.0030
-0.0484 0.2550 0.0724 -0.0022
-0.6810 -0.2087 -0.0119 -0.0005
-0.4225 0.1278 0.0282 0.0010
-0.0213 -0.0941 0.1422 -0.0005
0.0510 0.0701 -0.4057 -0.0012
-0.1678 -0.8123 0.0317 0.0004
0.2142 0.0346 -0.1482 -0.0011
-0.5171 0.4148 0.1847 0.0013
0.2747 0.1050 -0.2174 -0.0011
-0.1759 0.2605 0.2944 0.0032
0.0368 0.0081 0.0594 -0.0034
-0.3112 0.0346 -0.1439 -0.0020
-0.1068 -0.2074 -0.0410 0.0014
0.7912 0.1327 0.1243 0.0017
1. DÉPENSES DE L’ÉTAT 45

Phi =
Columns 1 through 7
-0.1736 0.7398 0.3415 0.1076 0.3399 0.4022 -0.0280
0.8185 0.0059 0.3664 0.1536 -0.0326 -0.2193 -0.3479
0.8336 0.3402 -0.1408 -0.2580 0.1512 -0.1950 0.0912
-0.1372 0.6306 -0.3760 -0.2811 -0.5469 0.2178 -0.1242
0.7216 0.3977 -0.3852 -0.2080 0.2630 -0.1757 0.0366
0.7868 -0.1365 0.4246 0.1159 -0.3178 0.1130 0.2144
0.9333 -0.1005 0.1661 0.1507 -0.1043 0.1736 -0.0009
0.2890 -0.8076 -0.3745 -0.2022 0.0116 0.1960 -0.0655
-0.6123 0.2161 -0.2599 0.6368 -0.1540 -0.2611 0.0373
-0.8887 -0.3015 0.1608 -0.1793 0.1759 0.0600 -0.0636
-0.5481 0.1124 0.5366 -0.5047 -0.1842 -0.2817 0.0405
Columns 8 through 11
-0.1175 -0.0484 0.0131 -0.0003
0.0045 -0.0223 0.0378 -0.0002
0.0866 -0.1539 -0.0504 -0.0005
0.0352 0.0001 0.0053 -0.0003
-0.0755 0.1395 0.0544 -0.0005
0.0244 -0.0069 0.0902 -0.0006
-0.0318 0.0901 -0.1358 -0.0004
-0.1867 -0.0725 0.0163 -0.0005
-0.1044 -0.0301 -0.0142 -0.0009
0.1453 0.0395 -0.0014 -0.0014
-0.1689 0.0065 -0.0291 -0.0001

Cos^2 =
Columns 1 through 7
0.4652 0.0580 0.1354 0.0131 0.2337 0.0824 0.0052
0.4511 0.2384 0.0017 0.1296 0.0900 0.0300 0.0509
0.7853 0.0067 0.0789 0.0096 0.0677 0.0020 0.0145
0.6048 0.0815 0.1449 0.0391 0.0363 0.0544 0.0013
0.5725 0.0029 0.0406 0.0035 0.1539 0.2212 0.0018
0.7100 0.0706 0.0864 0.0908 0.0041 0.0255 0.0049
0.6013 0.1090 0.1609 0.0067 0.0585 0.0106 0.0148
0.4068 0.1173 0.0075 0.3306 0.1212 0.0013 0.0034
0.4395 0.0878 0.2932 0.1085 0.0377 0.0099 0.0080
0.1070 0.6811 0.0614 0.0157 0.0241 0.0579 0.0002
0.1926 0.4684 0.0171 0.2133 0.0978 0.0004 0.0055
0.1830 0.4456 0.0495 0.1775 0.0642 0.0127 0.0001
0.0088 0.4593 0.2557 0.0002 0.0143 0.2373 0.0010
0.0608 0.7377 0.0614 0.0132 0.0949 0.0069 0.0209
0.0246 0.2735 0.1096 0.5182 0.0006 0.0089 0.0385
0.1230 0.5330 0.1714 0.0056 0.0146 0.0788 0.0011
0.2506 0.2106 0.1636 0.3157 0.0016 0.0361 0.0188
0.1833 0.1628 0.3496 0.0715 0.1171 0.0211 0.0347
0.7348 0.0046 0.0298 0.0169 0.0224 0.0766 0.1036
0.7547 0.0021 0.0005 0.0499 0.1536 0.0034 0.0165
0.8881 0.0012 0.0327 0.0397 0.0167 0.0057 0.0154
0.7270 0.0071 0.1468 0.0428 0.0638 0.0036 0.0001
0.6801 0.0108 0.2628 0.0039 0.0113 0.0267 0.0016
0.6462 0.0005 0.0765 0.0049 0.0331 0.1472 0.0511
Columns 8 through 11
0.0000 0.0002 0.0069 0.0000
0.0043 0.0030 0.0010 0.0000
0.0281 0.0001 0.0071 0.0000
0.0111 0.0175 0.0091 0.0000
0.0001 0.0021 0.0014 0.0000
0.0009 0.0014 0.0054 0.0000
46 CHAPITRE 3. APPLICATIONS

0.0264 0.0016 0.0102 0.0000


0.0002 0.0019 0.0099 0.0000
0.0146 0.0010 0.0000 0.0000
0.0408 0.0115 0.0003 0.0000
0.0002 0.0045 0.0004 0.0000
0.0616 0.0058 0.0000 0.0000
0.0214 0.0020 0.0001 0.0000
0.0001 0.0012 0.0028 0.0000
0.0004 0.0007 0.0250 0.0000
0.0030 0.0694 0.0001 0.0000
0.0020 0.0001 0.0010 0.0000
0.0338 0.0218 0.0043 0.0000
0.0065 0.0009 0.0040 0.0000
0.0032 0.0071 0.0091 0.0000
0.0001 0.0000 0.0003 0.0000
0.0071 0.0001 0.0015 0.0000
0.0006 0.0021 0.0001 0.0000
0.0386 0.0011 0.0010 0.0000

Ctr =
Columns 1 through 7
7.0485 2.1331 7.9072 0.9913 24.8677 11.1098 1.9118
6.4162 8.2278 0.0928 9.2326 8.9889 3.7947 17.6391
4.8915 0.1020 1.8939 0.3001 2.9622 0.1107 2.1953
3.5437 1.1591 3.2744 1.1459 1.4915 2.8383 0.1865
4.5790 0.0569 1.2519 0.1388 8.6444 15.7472 0.3496
3.3016 0.7969 1.5486 2.1128 0.1347 1.0538 0.5594
3.0479 1.3409 3.1447 0.1695 2.0826 0.4780 1.8243
1.7158 1.2002 0.1218 6.9806 3.5882 0.0477 0.3507
3.8338 1.8573 9.8607 4.7372 2.3067 0.7708 1.6889
1.0944 16.9053 2.4204 0.8030 1.7305 5.2718 0.0534
2.3480 13.8563 0.8053 13.0195 8.3717 0.0434 1.6270
1.1536 6.8158 1.2036 5.6040 2.8438 0.7137 0.0157
0.0614 7.8030 6.9042 0.0068 0.7022 14.7945 0.1741
0.3639 10.7170 1.4187 0.3973 3.9909 0.3689 3.0457
0.1357 3.6659 2.3348 14.3325 0.0230 0.4361 5.1720
0.9795 10.3006 5.2631 0.2239 0.8186 5.5854 0.2159
4.7170 9.6189 11.8763 29.7552 0.2057 6.0482 8.6147
1.2140 2.6153 8.9270 2.3698 5.4436 1.2445 5.5989
7.1824 0.1082 1.1239 0.8256 1.5361 6.6626 24.6539
6.0452 0.0399 0.0165 1.9998 8.6412 0.2393 3.2169
7.8177 0.0249 1.1108 1.7486 1.0338 0.4494 3.3053
8.2762 0.1969 6.4436 2.4398 5.1014 0.3630 0.0278
11.4422 0.4426 17.0452 0.3318 1.3305 4.0016 0.6603
8.7908 0.0152 4.0107 0.3338 3.1601 17.8266 16.9127
Columns 8 through 11
0.0021 0.1923 14.8503 0.9431
2.4381 3.4135 2.0679 0.9204
6.9377 0.0446 6.2503 3.3473
2.5753 8.2111 7.5859 2.0273
0.0259 1.3593 1.5771 3.2317
0.1596 0.5112 3.5773 32.9228
5.3168 0.6355 7.3112 5.7123
0.0256 0.6524 5.9089 0.6592
5.0576 0.6749 0.0299 1.0040
16.5682 9.4570 0.4744 8.6305
0.0778 4.3750 0.6244 4.5108
15.4226 2.9299 0.0168 0.2189
5.9361 1.0993 0.0949 0.9187
0.0151 0.5957 2.4063 0.2727
1. DÉPENSES DE L’ÉTAT 47

0.0864 0.3303 19.5807 1.2675


0.9367 44.3943 0.1196 0.1936
1.5264 0.0805 2.6134 1.0627
8.8917 11.5744 4.0567 1.5388
2.5103 0.7411 5.6208 1.1095
1.0292 4.5645 10.3109 9.9862
0.0451 0.0044 0.4200 11.1796
3.2196 0.0804 2.4641 3.6456
0.3795 2.8941 0.2004 1.9847
20.8166 1.1841 1.8377 2.7120

2 1

1 0.5
Plan 1−2

0
0
−1
−0.5
−2
−1
−2 −1 0 1 2 3 −1 −0.5 0 0.5 1

Fig. 3.1 – Dépense de l’État

1.3 Questions
(i) Quelle est la quantité d’information en terme d’inertie dans le plan factoriel 1-2 ? Quel pourcentage de l’inertie
totale cela représente-t-il
(ii) Dans l’ACP la dernière valeur propre est nulle. Pourquoi ?
(iii) Interpréter les axes 1 et 2.
(iv) Le point 1880 est-il bien représenté sur l’axe 2 ? sur le plan 1-2 ?
(v) Interpréter le graphe de points.
(vi) Donner les coordonnées des points Mi sur les axes 1 et 2 en fonction de Y et U .
(vii) Démontrer que l’inertie de l’axe j est donné par la jème valeur propre.
(viii) Donner les coordonnées des variables définies par les colonnes de Z sur l’axe j en fonction de U et Λ.

1.4 Réponses
(i) Nous sommes en ACP normée donc l’inertie dans le plan 1-2 est la somme des deux premières valeurs propres :

I1−2 = λ1 + λ2 = 4.9734 + 2.0499 = 7.0233

L’inertie totale est p = 11, donc la part de l’inertie expliquée par le plan 1-2 est τ2 = 7.0233/11 = 0.638. En
pourcentage nous avons donc environ 64% de l’information dans le premier plan.
(ii) Nous sommes ici dans un cas particulier où pour tout i la somme des lignes de la matrice de départ X vaut
toujours 100 car les données sont des pourcentages. Par conséquent la somme des composantes de x̄ sera aussi
100 et donc X
(xij − x̄.j ) = 0 pour tout i
j

La matrice de données centrées est donc de rang strictement inférieur à p. Il en est de même pour les matrices
Y et Z, d’où la nullité de la dernière valeur propre.
(iii) Pour le nuage des variables, on voit pour l’axe 1 que
48 CHAPITRE 3. APPLICATIONS

– AGR, CMI, LOG, EDU, ACS ont une corrélation avec l’axe 1 ”proche” de +1 ;
– DEF, DET et DIV ont une corrélation avec l’axe 1 ”proche” de −1
Pour le deuxième axe
– PVP et TRA ont une corrélation ”proche” de +1 avec l’axe 2 ;
– ACO a une corrélation ”proche” de −1 avec l’axe 2 ;
On conclut qu’en général, des fortes dépenses pour l’agriculture, le commerce et l’industrie, le logement,
l’éducation et l’action sociale impliquent des faibles dépenses pour la défense, le remboursement de la dette
et les divers et réciproquement. Ces dépenses sont peu corrélées à celles des pouvoirs publics, du travail et des
anciens combatants. Pour ces trois dernières variables on observe une opposition entre le poste des anciens
combatants et ceux des pouvoirs publics et du travail.
(iv) cos2 (θ22 ) = 0.2384, ce point n’est donc pas bien représenté sur l’axe 2.
cos2 (θ21 ) + cos2 (θ22 ) = 0.4511 + 0.2384 = 6895. Ce point est bien représenté sur le plan 1-2.
Remarque 1.4.1. Ce sont les cos2 qui s’ajoutent. En effet la projection orthogonale du point Mi sur le plan
1-2 s’écrit
−−→ −−→ −−→ −−→
OH i = (OM i |u)u = (OM i |u.1 )u.1 + (OH i |u.2 )u.2, ,
avec
−−→ −−→ −−→ −−→ −−→ −−→
(OM i |u.1 ) = cos(θi1 )||OM i || (OH i |u.2 ) = cos(θi2 )||OM i || (OM i |u) = cos(θ)||OM i ||.
Par suite le théorème de Pythagore donne

cos2 (θ) = cos2 (θi1 ) + cos2 (θi2 ).

(v) Concernant les individus, les cos2 θ nous montrent qu’il n’y a pas de points très mal représentés (ce que l’on
peut aussi voir par le fait ici qu’il n’y a pas de points proches de l’origine). Nous observons 4 groupes :
– les années de 1872 à 1920 qui se trouvent en haut à gauche et qui sont caractérisées par des fortes dépenses
pour PVP, DEF et DET et de faibles dépenses ailleurs ;
– les années de 1923 à 1938 qui se trouvent en bas et qui sont caractérisées par leurs dépenses ACO ;
– les années 1947, 1950 et 1953 qui sont cacartérisées par les dépenses PVP et TRA ;
– les années de 1956 à 1971 qui sont à droite et qui sont caractérisées par les dépenses AGR, CMI, LOG,
EDU et ACS.
(vi) ψ Y = Y U
(vii)
1X Y 2 1 1
Ij = (ψij ) = (Y uj /Y uj ) = ( t Y Y uj /uj ) = λj
n i n n

(viii)
1 1 1
φ.j = t Zv.j = t Z p Zu.j = p t ZZu.j = p λj u.j = λj u.j
p
λj λj λj

2 Budget-Temps multimédia
2.1 Données
Cet exemple provient de l’ouvrage de Ludovic Lebart, Alain Morineau et Marie Piron, page 57. [2] Le Centre
d’Étude des Supports de Publicité a relevé dans son enquête Budget-Temps multimédia de 1991/1992 auprès de 17
667 personnes, des temps d’activité quotidienne. Nous nous intéressons ici à une sous population de 27 ”individus”
qui sont en fait des groupes d’individus. La table 3.1 donne les données obtenues. La première colonne de cette
table est un codage des individus qui a la signification de la table 3.2
Quant à la signification des variables, elle est donnée à la table 3.3
Une ACP normée a été effectuée sur ces données et on a obtenu les résultats suivants

2.2 Résultats
xbar =
Columns 1 through 7
458.9111 44.6333 89.1778 13.8741 286.2704 27.9037 27.6370
Columns 8 through 14
58.4852 11.4222 2.5407 7.9519 40.9852 9.0593 12.6630
Columns 15 through 16
58.3815 140.5778
2. BUDGET-TEMPS MULTIMÉDIA 49

Ident Somm Repo Reps Repr Trar Ména Visi Jard Lois Disq Lect Cour Prom A pi Voit Fréq
1111 463.8 23.8 107.3 4.8 300.0 21.3 51.0 82.3 10.0 1.2 .0 41.3 6.9 7.1 52.1 135.8
1115 515.6 58.5 102.7 10.4 208.8 41.9 30.0 32.9 02.1 4.6 0.6 33.7 8.3 24.6 29.4 225.8
1121 463.3 34.2 84.8 17.1 298.3 18.1 37.8 55.8 18.4 5.9 2.6 30.7 5.9 8.8 56.7 135.8
1122 456.4 43.1 74.2 21.9 239.0 26.0 51.2 59.7 18.4 3.6 4.6 52.2 9.5 10.8 72.7 142.3
1123 478.0 44.2 76.7 15.2 212.3 22.3 42.0 43.7 18.4 2.3 6.4 48.3 14.7 15.5 72.8 167.7
1124 465.1 41.6 85.2 23.7 226.0 37.0 42.5 16.3 10.7 8.7 9.4 44.3 13.7 19.8 59.0 145.1
1136 458.4 47.4 94.7 15.1 314.3 25.3 39.1 42.4 16.9 0.9 16.7 34.5 4.6 6.4 61.5 103.4
1133 457.2 30.7 82.0 26.2 269.8 52.1 37.6 35.6 25.6 6.0 8.0 42.8 10.4 12.0 81.4 107.6
1134 465.2 40.2 78.6 31.1 268.6 36.3 21.6 4.0 19.4 6.0 14.8 46.9 10.7 21.9 48.3 82.4
2111 449.0 42.1 86.2 7.9 312.5 15.1 16.1 112.9 15.4 0.0 2.2 32.1 7.6 8.1 60.1 153.9
2112 450.2 63.1 86.7 9.8 249.6 40.4 55.6 83.3 3.0 2.2 0.0 45.0 9.4 10.4 61.9 145.4
2117 455.2 47.4 95.6 9.0 250.8 30.47 13.5 57.3 7.9 2.9 7.0 52.2 15.1 15.7 49.1 194.8
2121 461.9 39.3 90.3 8.5 323.5 14.9 21.7 81.8 15.4 1.2 5.3 26.0 3.8 7.4 59.6 130.8
2122 453.7 44.7 97.5 18.7 269.0 23.1 39.6 93.5 3.1 3.4 12.1 42.0 12.1 10.6 62.4 129.1
2123 433.1 49.8 91.7 12.6 283.7 22.4 21.0 62.9 13.1 6.2 7.3 38.1 11.6 11.7 47.6 168.6
2124 438.3 32.8 102.3 11.1 338.3 28.0 6.5 64.8 13.8 1.4 19.8 34.9 7.4 14.1 53.2 130.5
2131 457.7 44.0 87.9 6.9 313.0 24.4 23.2 63.8 9.2 0.6 11.8 30.0 7.3 7.5 69.7 108.3
2132 455.0 47.0 78.9 31.6 380.6 23.9 7.5 40.0 13.0 0.0 10.3 23.3 1.4 9.4 59.4 100.0
2133 467.3 37.5 86.9 21.9 264.0 40.8 27.6 33.4 11.9 1.6 10.8 45.3 6.7 10.7 72.8 135.2
2134 433.5 35.6 76.1 17.1 355.0 34.1 13.4 31.7 12.6 3.2 13.2 37.5 8.5 22.3 57.5 96.5
3116 473.0 51.5 99.3 6.3 356.3 21.2 27.6 82.1 8.6 0.0 1.5 35.7 13.4 7.1 40.6 107.7
3117 461.9 60.0 103.7 9.1 240.5 35.3 14.5 83.4 1.4 2.0 7.4 46.1 5.7 16.6 53.3 183.7
3121 453.4 45.6 86.2 7.8 358.7 12.9 18.5 54.4 4.2 0.0 4.9 34.3 3.3 10.3 48.7 143.1
3122 485.1 53.5 86.0 0.3 222.4 24.7 23.2 91.9 8.5 0.0 3.7 52.9 7.1 9.9 75.3 166.3
3123 456.7 43.2 94.6 12.1 265.3 30.5 23.7 61.1 9.1 2.3 11.6 50.1 17.6 13.2 46.3 185.3
3136 444.2 53.6 90.7 7.2 302.4 31.7 16.4 97.6 4.7 2.4 4.3 38.8 13.6 11.4 61.8 127.2
3137 438.4 50.7 81.0 11.2 306.6 19.3 23.8 10.5 13.6 0.0 18.4 67.6 8.3 18.6 63.1 143.3

Tab. 3.1 – Données de l’exemple Temps-Budget multimédia

– Le premier caractère est l’âge du groupe (1= - de 35 ans, 2=entre 35 et50 ans, 3=+ de 35 ans)
– Le deuxième caractère est ici toujours 1 (car il s’agit toujours d’hommes actifs)
– Le troisième caractère est le niveau déducation (1=primaire, 2=secondaire, 3=supérieur)
– Le quatrième caractère est le type d’agglomération (1= communes rurales, 2=villes moyennes, 3=villes impor-
tantes, 4=agglomération parisienne, 5,6 et 7=groupe mixte)

Tab. 3.2 – Codage des individus

s =
Columns 1 through 7
16.4678 8.9011 8.9026 7.8151 46.7466 9.2859 13.2615
Columns 8 through 14
27.3892 5.9516 2.3152 5.4720 9.4722 3.8821 5.0065
Columns 15 through 16
11.2852 32.5644

R =
Columns 1 through 7
1.0000 0.2111 0.2054 -0.0790 -0.5203 0.2015 0.2682
0.2111 1.0000 0.1023 -0.3001 -0.2813 0.0839 -0.0808
0.2054 0.1023 1.0000 -0.5273 -0.0211 -0.0118 -0.0658
-0.0790 -0.3001 -0.5273 1.0000 -0.0101 0.3945 0.0997
-0.5203 -0.2813 -0.0211 -0.0101 1.0000 -0.4618 -0.4682
0.2015 0.0839 -0.0118 0.3945 -0.4618 1.0000 0.1527
0.2682 -0.0808 -0.0658 0.0997 -0.4682 0.1527 1.0000
-0.0863 0.1877 0.4294 -0.6431 0.0776 -0.3687 -0.0203
-0.1651 -0.6133 -0.5479 0.5170 0.1040 -0.0075 0.1209
0.0702 -0.1747 -0.1526 0.5167 -0.4636 0.4966 0.3048
-0.4353 -0.2148 -0.1450 0.3819 0.2389 0.0788 -0.3570
-0.0387 0.1760 -0.1650 -0.0329 -0.5552 0.2263 0.2357
-0.0045 0.0896 0.0379 -0.0156 -0.4531 0.2748 0.1790
0.1659 0.1485 -0.1381 0.2805 -0.3751 0.4903 -0.1786
-0.1897 -0.2209 -0.5508 0.2074 -0.1509 0.1014 0.2703
0.4018 0.4215 0.3744 -0.4367 -0.6205 0.0507 0.0126
Columns 8 through 14
-0.0863 -0.1651 0.0702 -0.4353 -0.0387 -0.0045 0.1659
0.1877 -0.6133 -0.1747 -0.2148 0.1760 0.0896 0.1485
50 CHAPITRE 3. APPLICATIONS

Intitulés Signification
Somm Sommeil
Repo Repos
Reps Repas chez soi
Repr Repas restaurant
Trar Travail rémunéré
Ména Ménage
Visi Visite à des amis
Jard Jardinage, Bricolage
Lois Loisirs extérieur
Disq Disques, cassettes
Lect Lecture livre
Cour Courses et démarches
Prom Promenage
A pi Déplacement à pied
Voit Déplacement en voiture
Fréq Fréquentation Média

Tab. 3.3 – Variables

0.4294 -0.5479 -0.1526 -0.1450 -0.1650 0.0379 -0.1381


-0.6431 0.5170 0.5167 0.3819 -0.0329 -0.0156 0.2805
0.0776 0.1040 -0.4636 0.2389 -0.5552 -0.4531 -0.3751
-0.3687 -0.0075 0.4966 0.0788 0.2263 0.2748 0.4903
-0.0203 0.1209 0.3048 -0.3570 0.2357 0.1790 -0.1786
1.0000 -0.3937 -0.4199 -0.5099 -0.2415 -0.0085 -0.6167
-0.3937 1.0000 0.2486 0.2726 -0.0085 -0.0549 -0.0897
-0.4199 0.2486 1.0000 -0.0097 0.0815 0.3998 0.4805
-0.5099 0.2726 -0.0097 1.0000 0.1848 -0.0251 0.2716
-0.2415 -0.0085 0.0815 0.1848 1.0000 0.4795 0.3713
-0.0085 -0.0549 0.3998 -0.0251 0.4795 1.0000 0.2968
-0.6167 -0.0897 0.4805 0.2716 0.3713 0.2968 1.0000
0.0317 0.4415 -0.0866 0.1453 0.2304 -0.1087 -0.3250
0.1813 -0.4481 0.0739 -0.3762 0.3022 0.2775 0.2794
Columns 15 through 16
-0.1897 0.4018
-0.2209 0.4215
-0.5508 0.3744
0.2074 -0.4367
-0.1509 -0.6205
0.1014 0.0507
0.2703 0.0126
0.0317 0.1813
0.4415 -0.4481
-0.0866 0.0739
0.1453 -0.3762
0.2304 0.3022
-0.1087 0.2775
-0.3250 0.2794
1.0000 -0.3341
-0.3341 1.0000

Lambda =
Columns 1 through 7
3.8713 3.6602 2.0066 1.5144 1.1266 0.8374 0.7668
Columns 8 through 14
0.5961 0.4447 0.3740 0.2461 0.2223 0.1616 0.1148
Columns 15 through 16
0.0373 0.0198
2. BUDGET-TEMPS MULTIMÉDIA 51

U(:,1:5)=
-0.1114 -0.2709 -0.1271 -0.4027 0.3811
-0.2333 -0.2109 0.1181 0.2109 0.4390
-0.3402 -0.0761 0.1650 -0.1781 -0.3580
0.4280 0.0007 0.0474 -0.2160 0.0902
-0.0279 0.4596 0.2425 -0.0638 -0.0690
0.2049 -0.2981 0.0564 -0.1150 0.0419
0.0658 -0.1724 -0.5178 -0.1387 -0.0938
-0.3875 0.1130 -0.2501 0.0946 -0.2168
0.3658 0.1594 -0.2098 -0.0697 -0.0903
0.2696 -0.2744 -0.0051 -0.2963 -0.3285
0.2738 0.1232 0.3559 0.3057 -0.0413
0.1086 -0.2832 -0.0776 0.5647 -0.0121
0.0491 -0.3036 -0.0267 0.2433 -0.5378
0.1882 -0.3260 0.4016 0.0129 0.0969
0.2087 0.1135 -0.4560 0.3174 0.2150
-0.2496 -0.3554 0.0336 0.0660 0.0257

V(:,1:5)=
-0.1961 0.0856 -0.2420 -0.2185 -0.3286
-0.2210 -0.5136 0.2619 -0.4803 0.2793
0.0692 0.1018 -0.1828 -0.3214 -0.0933
0.1815 -0.0640 -0.3675 0.1004 0.0685
0.1248 -0.1818 -0.2706 0.1290 0.0974
0.2663 -0.2951 0.0060 -0.1426 -0.1345
0.0545 0.1977 -0.0304 -0.0443 0.0958
0.4119 -0.0297 -0.2574 -0.1221 -0.0990
0.4195 -0.0917 0.2281 -0.1257 0.0239
-0.1865 0.2131 -0.1201 0.0372 -0.0430
-0.1399 -0.1687 -0.2397 0.0880 0.1249
-0.1005 -0.2172 0.1564 0.1830 -0.1827
-0.1241 0.2566 -0.0822 -0.1667 0.0460
-0.0607 -0.0214 -0.0664 0.0723 -0.2133
-0.0291 -0.0333 0.1036 0.0170 -0.2824
0.0121 0.2070 0.3168 0.0562 -0.2542
-0.0542 0.2038 -0.0398 0.0420 0.0859
0.1146 0.3550 0.1840 -0.1913 0.3812
0.1590 -0.0110 -0.0753 0.0011 0.1768
0.2482 0.1368 0.2910 0.0514 -0.0300
-0.2626 0.0967 0.0231 -0.1145 -0.1387
-0.2380 -0.1848 0.1874 0.0831 0.1613
-0.1856 0.2119 0.1362 -0.0375 0.1747
-0.2077 -0.0957 -0.2499 0.2389 0.3342
-0.0548 -0.1751 0.1207 0.1720 -0.2988
-0.1522 0.0088 0.0193 0.1599 -0.1305
0.1516 0.0081 0.1897 0.5336 0.1790

Psi^Y(:,1:5)=
-2.0051 0.8512 -1.7810 -1.3974 -1.8124
-2.2596 -5.1053 1.9275 -3.0714 1.5407
0.7075 1.0120 -1.3457 -2.0554 -0.5143
1.8552 -0.6360 -2.7053 0.6419 0.3779
1.2764 -1.8072 -1.9920 0.8249 0.5370
2.7222 -2.9336 0.0443 -0.9121 -0.7416
0.5572 1.9653 -0.2241 -0.2832 0.5284
4.2110 -0.2957 -1.8943 -0.7806 -0.5462
4.2893 -0.9112 1.6786 -0.8039 0.1316
-1.9067 2.1183 -0.8841 0.2380 -0.2373
-1.4303 -1.6770 -1.7647 0.5628 0.6889
52 CHAPITRE 3. APPLICATIONS

-1.0274 -2.1588 1.1514 1.1699 -1.0077


-1.2690 2.5507 -0.6048 -1.0659 0.2539
-0.6211 -0.2127 -0.4885 0.4626 -1.1762
-0.2970 -0.3311 0.7627 0.1087 -1.5577
0.1240 2.0581 2.3315 0.3592 -1.4020
-0.5544 2.0257 -0.2927 0.2683 0.4737
1.1712 3.5289 1.3542 -1.2235 2.1023
1.6254 -0.1093 -0.5540 0.0069 0.9751
2.5377 1.3600 2.1420 0.3286 -0.1652
-2.6847 0.9610 0.1698 -0.7321 -0.7650
-2.4335 -1.8368 1.3793 0.5315 0.8898
-1.8979 2.1067 1.0024 -0.2401 0.9633
-2.1235 -0.9511 -1.8391 1.5273 1.8434
-0.5604 -1.7403 0.8883 1.1002 -1.6480
-1.5560 0.0874 0.1419 1.0226 -0.7199
1.5496 0.0810 1.3962 3.4122 0.9875

Phi(:,1:5)=
-0.2191 -0.5183 -0.1801 -0.4956 0.4045
-0.4591 -0.4035 0.1673 0.2595 0.4660
-0.6693 -0.1457 0.2337 -0.2192 -0.3800
0.8421 0.0013 0.0671 -0.2658 0.0957
-0.0550 0.8793 0.3435 -0.0785 -0.0732
0.4031 -0.5703 0.0798 -0.1415 0.0445
0.1295 -0.3298 -0.7335 -0.1707 -0.0996
-0.7625 0.2162 -0.3542 0.1164 -0.2301
0.7198 0.3049 -0.2972 -0.0857 -0.0959
0.5305 -0.5250 -0.0073 -0.3646 -0.3487
0.5387 0.2358 0.5042 0.3762 -0.0438
0.2136 -0.5419 -0.1099 0.6950 -0.0128
0.0965 -0.5808 -0.0378 0.2994 -0.5708
0.3703 -0.6236 0.5689 0.0159 0.1029
0.4106 0.2172 -0.6459 0.3906 0.2282
-0.4912 -0.6799 0.0475 0.0813 0.0273

Cos^2(:,1:5)=
0.2021 0.0364 0.1595 0.0982 0.1651
0.1075 0.5486 0.0782 0.1985 0.0500
0.0474 0.0971 0.1716 0.4004 0.0251
0.2590 0.0304 0.5508 0.0310 0.0107
0.1124 0.2254 0.2738 0.0470 0.0199
0.3889 0.4516 0.0001 0.0437 0.0289
0.0291 0.3618 0.0047 0.0075 0.0262
0.6557 0.0032 0.1327 0.0225 0.0110
0.7259 0.0328 0.1112 0.0255 0.0007
0.2827 0.3490 0.0608 0.0044 0.0044
0.1184 0.1628 0.1803 0.0183 0.0275
0.0969 0.4280 0.1218 0.1257 0.0933
0.1469 0.5934 0.0334 0.1036 0.0059
0.0487 0.0057 0.0301 0.0270 0.1746
0.0106 0.0132 0.0698 0.0014 0.2911
0.0010 0.2726 0.3498 0.0083 0.1265
0.0416 0.5556 0.0116 0.0097 0.0304
0.0561 0.5094 0.0750 0.0612 0.1808
0.3366 0.0015 0.0391 0.0000 0.1211
0.3745 0.1076 0.2668 0.0063 0.0016
0.4453 0.0571 0.0018 0.0331 0.0362
0.3709 0.2113 0.1192 0.0177 0.0496
0.2771 0.3414 0.0773 0.0044 0.0714
0.2604 0.0522 0.1953 0.1347 0.1963
2. BUDGET-TEMPS MULTIMÉDIA 53

0.0306 0.2952 0.0769 0.1180 0.2647


0.2665 0.0008 0.0022 0.1151 0.0570
0.1107 0.0003 0.0899 0.5370 0.0450

Ctr(:,1:5)=
3.8466 0.7332 5.8546 4.7755 10.7980
4.8848 26.3734 6.8577 23.0711 7.8035
0.4788 1.0362 3.3425 10.3324 0.8697
3.2927 0.4094 13.5081 1.0077 0.4694
1.5588 3.3048 7.3243 1.6642 0.9481
7.0896 8.7081 0.0036 2.0348 1.8080
0.2971 3.9082 0.0927 0.1962 0.9178
16.9649 0.0885 6.6234 1.4903 0.9808
17.6019 0.8402 5.2009 1.5804 0.0570
3.4780 4.5404 1.4428 0.1385 0.1851
1.9572 2.8459 5.7478 0.7747 1.5601
1.0098 4.7157 2.4471 3.3473 3.3382
1.5407 6.5832 0.6751 2.7785 0.2119
0.3690 0.0458 0.4405 0.5234 4.5478
0.0844 0.1109 1.0738 0.0289 7.9767
0.0147 4.2859 10.0331 0.3156 6.4613
0.2940 4.1521 0.1581 0.1760 0.7376
1.3123 12.6011 3.3847 3.6612 14.5291
2.5277 0.0121 0.5664 0.0001 3.1254
6.1612 1.8715 8.4687 0.2640 0.0897
6.8959 0.9344 0.0532 1.3107 1.9240
5.6658 3.4138 3.5118 0.6910 2.6027
3.4460 4.4909 1.8546 0.1410 3.0507
4.3139 0.9154 6.2428 5.7051 11.1707
0.3005 3.0645 1.4565 2.9601 8.9277
2.3164 0.0077 0.0371 2.5572 1.7036
2.2972 0.0066 3.5981 28.4742 3.2054

age =
Columns 1 through 7
469.2222 40.4111 87.3556 18.3889 259.6778 31.1444 39.2000
450.4455 43.9364 89.1000 14.1000 303.6364 27.0455 22.3364
458.9571 51.1571 91.6429 7.7143 293.1714 25.0857 21.1000
Columns 8 through 14
41.4111 15.5444 4.3556 7.0111 41.6333 9.4111 14.1000
65.9455 10.7636 2.0636 9.0727 36.9455 8.2636 11.6273
68.7143 7.1571 0.9571 7.4000 46.5000 9.8571 12.4429
Columns 15 through 16
59.3222 138.4333
59.3909 135.7364
55.5857 150.9429

Yage =
Columns 1 through 7
0.6261 -0.4743 -0.2047 0.5777 -0.5689 0.3490 0.8719
-0.5141 -0.0783 -0.0087 0.0289 0.3715 -0.0924 -0.3997
0.0028 0.7329 0.2769 -0.7882 0.1476 -0.3035 -0.4929

Psi_Yage =
Columns 1 through 7
1.2616 -0.8734 -0.6991 -0.8708 -0.0554 0.3742 -0.1178
-0.1498 0.8321 0.2866 0.1105 -0.0957 -0.3259 0.0547
-1.3866 -0.1846 0.4484 0.9459 0.2216 0.0309 0.0655
54 CHAPITRE 3. APPLICATIONS

meilleure approximation de rang 2 de Z


Columns 1 through 7
-0.0014 0.0555 0.1188 -0.1650 0.0861 -0.1279 -0.0536
0.3146 0.3087 0.2227 -0.1868 -0.4394 0.2038 0.1408
-0.0679 -0.0728 -0.0611 0.0584 0.0857 -0.0302 -0.0246
-0.0066 -0.0575 -0.1121 0.1527 -0.0662 0.1096 0.0446
0.0669 0.0160 -0.0571 0.1049 -0.1667 0.1540 0.0761
0.0946 -0.0032 -0.1352 0.2238 -0.2741 0.2756 0.1318
-0.1144 -0.1048 -0.0653 0.0462 0.1708 -0.0908 -0.0581
-0.0748 -0.1771 -0.2714 0.3468 -0.0488 0.1830 0.0631
-0.0444 -0.1556 -0.2675 0.3532 -0.1037 0.2214 0.0845
-0.0696 -0.0004 0.0938 -0.1568 0.1976 -0.1967 -0.0944
0.1181 0.1323 0.1182 -0.1180 -0.1407 0.0398 0.0375
0.1346 0.1337 0.0989 -0.0849 -0.1854 0.0833 0.0586
-0.1058 -0.0465 0.0457 -0.1042 0.2324 -0.1964 -0.1007
0.0244 0.0365 0.0438 -0.0512 -0.0155 -0.0123 -0.0008
0.0236 0.0268 0.0243 -0.0245 -0.0277 0.0073 0.0072
-0.1100 -0.0891 -0.0383 0.0105 0.1814 -0.1132 -0.0667
-0.0937 -0.0573 0.0066 -0.0454 0.1822 -0.1381 -0.0742
-0.2091 -0.1958 -0.1284 0.0969 0.3058 -0.1563 -0.1023
-0.0291 -0.0686 -0.1048 0.1339 -0.0184 0.0704 0.0242
-0.1253 -0.1691 -0.1861 0.2092 0.1066 0.0220 -0.0130
0.0074 0.0816 0.1617 -0.2210 0.0994 -0.1610 -0.0659
0.1479 0.1838 0.1862 -0.2007 -0.1494 0.0094 0.0301
-0.0692 -0.0003 0.0934 -0.1560 0.1966 -0.1957 -0.0939
0.0951 0.1340 0.1530 -0.1750 -0.0727 -0.0292 0.0047
0.1027 0.0958 0.0622 -0.0464 -0.1509 0.0777 0.0506
0.0288 0.0663 0.1006 -0.1282 0.0161 -0.0664 -0.0226
-0.0374 -0.0729 -0.1026 0.1276 -0.0012 0.0564 0.0169
Columns 8 through 14
0.1681 -0.1151 -0.1490 -0.0855 -0.0883 -0.0687 -0.1260
0.0575 -0.3157 0.1524 -0.2402 0.2311 0.2769 0.2384
-0.0308 0.0808 -0.0167 0.0613 -0.0404 -0.0524 -0.0379
-0.1522 0.1111 0.1299 0.0827 0.0734 0.0547 0.1071
-0.1345 0.0344 0.1617 0.0244 0.1252 0.1176 0.1596
-0.2668 0.1017 0.2962 0.0739 0.2168 0.1971 0.2826
0.0012 0.0995 -0.0749 0.0760 -0.0955 -0.1096 -0.1031
-0.3205 0.2874 0.2341 0.2149 0.1041 0.0570 0.1711
-0.3397 0.2740 0.2707 0.2044 0.1393 0.0937 0.2125
0.1883 -0.0693 -0.2108 -0.0502 -0.1553 -0.1418 -0.2019
0.0702 -0.1521 0.0144 -0.1151 0.0615 0.0845 0.0534
0.0297 -0.1385 0.0607 -0.1053 0.0962 0.1164 0.0982
0.1501 -0.0111 -0.2006 -0.0064 -0.1655 -0.1610 -0.2060
0.0417 -0.0502 -0.0210 -0.0378 -0.0014 0.0066 -0.0092
0.0150 -0.0311 0.0021 -0.0235 0.0118 0.0165 0.0100
0.0355 0.0718 -0.1023 0.0553 -0.1096 -0.1191 -0.1246
0.0854 0.0231 -0.1357 0.0188 -0.1220 -0.1236 -0.1472
-0.0106 0.1907 -0.1256 0.1454 -0.1679 -0.1951 -0.1789
-0.1236 0.1111 0.0901 0.0831 0.0399 0.0217 0.0657
-0.1597 0.2204 0.0598 0.1660 -0.0211 -0.0555 0.0066
0.2211 -0.1595 -0.1901 -0.1187 -0.1085 -0.0815 -0.1575
0.1416 -0.2277 -0.0293 -0.1718 0.0493 0.0843 0.0271
0.1874 -0.0690 -0.2097 -0.0500 -0.1545 -0.1410 -0.2009
0.1377 -0.1787 -0.0599 -0.1345 0.0075 0.0355 -0.0173
0.0040 -0.0928 0.0628 -0.0708 0.0831 0.0964 0.0889
0.1180 -0.1069 -0.0854 -0.0799 -0.0373 -0.0198 -0.0618
-0.1138 0.1116 0.0761 0.0836 0.0280 0.0099 0.0511
Columns 15 through 16
-0.0619 0.0381
-0.2023 0.4578
2. BUDGET-TEMPS MULTIMÉDIA 55

0.0505 -0.1032
0.0606 -0.0456
0.0118 0.0623
0.0452 0.0699
0.0653 -0.1612
0.1627 -0.1821
0.1524 -0.1438
-0.0303 -0.0533
-0.0941 0.1834
-0.0884 0.1970
0.0048 -0.1135
-0.0296 0.0444
-0.0192 0.0369
0.0499 -0.1467
0.0220 -0.1119
0.1241 -0.2976
0.0629 -0.0706
0.1316 -0.2149
-0.0868 0.0633
-0.1379 0.2426
-0.0302 -0.0529
-0.1061 0.1671
-0.0605 0.1460
-0.0606 0.0688
0.0640 -0.0800

individus: plan 1−2

2
allgo1

1
+35 Sup.

0 agglo2
Second. Paris
+50

Primaire agglo3
−35
−1

−2

−3

−4

−5
−4 −3 −2 −1 0 1 2 3 4 5 6

Fig. 3.2 – Budget-Temps multimédia, plan 1-2 des individus

2.3 Questions
(i) À quelle valeur est égale la somme des valeurs propres ?
(ii) À quoi correspond cette valeur ?
(iii) Quel est le pourcentage d’information sur les 5 premiers axes ?
(iv) Donnez une raison pour laquelle on peut a priori s’arrêter au cinquième axe.
56 CHAPITRE 3. APPLICATIONS

variables: plan 1−2


1

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
−1 −0.5 0 0.5 1

Fig. 3.3 – Budget-Temps mulimédia, plan 1-2 des variables

(v) À partir du graphique de la figure 3.3 donner une estimation des corrélations entre les variables Ména et
Disq, Trar et Repr, Reps et Repr.
(vi) Interpréter les axes 1 et 2
(vii) À partir du graphique de la figure 3.2, que pouvez-vous dire des individus 1115 et 2123 ?
(viii) Comment est calculer la contribution de l’individu 1115 à l’axe 2 ?
(ix) Comment est calculer le cos2 de l’individu 2123 par rapport à l’axe 1 ?
(x) Comment ont été obtenus les points −35, +35 et +50 ?
(xi) Conclusion.
(xii) Comment a été calculé la meilleure approximation de rang 2 de Z ?

2.4 Réponses
(i) À 16.
(ii) C’est l’inertie totale du nuage car l’ACP est normée.
(iii) C’est
P5
i=1 λi
= 0.7612
16
Nous avons donc en pourcentage 76% de l’information sur les 5 premiers axes.
(iv) La sixième valeur propre est inférieure à 1. Ce critère s’appelle le critère de Kaiser.
(v) – La corrélation entre les variables Ména et Disq est proche de 1

– La corrélation entre les variables Trar et Repr est proche de 0

– La corrélation entre les variables Reps et Repr est proche de -1

(vi) – axe 1
+ -
Repas chez soi Repas restaurant
Jardinage, bricolage Loisirs estérieurs
Repos Mémage
Fréquentation Média Disque, cassette
Lecture
Trajet en voiture
Interprétation : opposition entre les activités extérieures ou d’ouverture et les activités d’intérieures.
– axe 2
Opposition entre le travail rémunéré et les activités de temps disponibles
(vii) L’individu 1115, en bas et à gauche est éloigné des autres points Ceci suggère qu’il a un emploi du temps aty-
pique par rapport aux critères des axes 1 et 2. L’individu 2123 est lui proche de l’origine. Il a un comportement
moyen par rapport aux critères définis par des axes 1 et 2.
3. TRAITEMENT D’IMAGES 57

(viii)
Y 2
(1/n)(ψ22 ) (1/27)(−5.1053)2
Ctr22 = 100 = 100 = 27.27%
λ2 3.6602
(ix)
Y 2
(ψij ) (−0.2970)2
cos2 (θ15,1 ) = = = 0.0106
~ i ||2
||OM (0.2970) + (−0.3311)2 + 0.76272 + · · ·
2

Cet individu est donc très mal représenté sur l’axe 1.


(x) Pour les variables supplémentaires nominales à q modalités, (par exemple ici l’âge : - de 35 ans, + de 35
ans et plus de 50 ans), nous transformons cette variable supplémentaire en q individus supplémentaires
(ici 3 individus supplémentaires) obtenus en considérent comme données la moyenne des données pour les
individus ayant la modalité correspondante. Nous définissons par exemple l’individu supplémentaire ”- de
35 ans” comme l’individu ayant comme valeurs sur les variables initiales les moyennes des individus d’age
inférieur à 35 ans (matrice age). Cette matrice est centrée réduite (attention centrée réduite avec les moyennes
et écarts types des données de départ (matrice Yage). Nous projetons alors ces individus supplémentaires :
Psi Yage=Yage U.
(xi) Plus on est jeune et d’un niveau d’étude élevé et plus on habite une grande ville, plus on vit dehors.

3 Traitement d’images
3.1 Problème
Les 12 images (3.4) sont les images obtenues à partir des données du satellite SPOT de la région de Fabas, pr‘es
de Boussens. SPOT donnedes mesures sur 12 longueurs d’ondes différentes. Une image est constituée de pixels (293
lignes×282colonnes=82626 pixels). Pour chaque pixel et chaque longueur d’onde on a l’amplitude codée entre 0 et
255. Les données sont ainsi par exemple pour les 10 premieres lignes et colonnes et la première longueur d’onde :

150 82 80 163 74 109 107 85 98 58


116 97 109 174 87 109 113 85 78 54
89 82 87 127 74 87 113 85 98 77
100 112 109 117 117 117 125 74 98 89
150 173 153 141 104 91 166 117 127 123
161 188 175 206 80 109 208 138 167 113
155 203 182 226 67 98 208 170 196 87
161 203 190 242 60 87 202 181 196 67
183 120 146 157 74 98 190 138 137 164
194 143 146 106 74 80 250 159 157 152

Ces données correspondent à des niveaux de gris de l’image.

La question est de trouver :


(i) la meilleure image noir et blanc ;
(ii) la meilleure image couleur.

3.2 ACP
Les individus sont ici les pixels. La matrice des données X est donc une matrice (82626,12). Une colonne de
cette matrice est constituées des 282 colonnes d’une image de départ mises les unes au dessous des autres. Nous
réalisons une ACP normée sur cette matrice, puis nous recodons les valeurs des composantes principales entre 0
et 255, puis nous transformons chaque chaque colonne en une matrice ”image”. Nous avons ainsi sur la première
composante principale l’image noir et blanc qui maximise le ”contraste”, ...
Les Valeurs propres obtenus sont

λ = (5.5027, 2.0452, 1.7215, 0.8298, 0.7369, 0.4618, 0.3965, 0.2031, 0.0404, 0.0245, 0.0233, 0.0145)

Nous avons ainsi sur les trois premiers axes 77.2449% de l’information.
La figure (3.5) contient les 12 images obtenue pour les composantes principales
58 CHAPITRE 3. APPLICATIONS

canal1 canal2 canal3 canal4

50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250

50 100150200250 50 100150200250 50 100150200250 50 100150200250


canal5 canal6 canal7 canal8

50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250

50 100150200250 50 100150200250 50 100150200250 50 100150200250


canal9 canal10 canal11 canal12

50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250

50 100150200250 50 100150200250 50 100150200250 50 100150200250

Fig. 3.4 – 12 canaux initiaux


Axe factoriel 1 Axe factoriel 2 Axe factoriel 3 Axe factoriel 4

50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250

50 100150200250 50 100150200250 50 100150200250 50 100150200250


Axe factoriel 5 Axe factoriel 6 Axe factoriel 7 Axe factoriel 8

50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250

50 100150200250 50 100150200250 50 100150200250 50 100150200250


Axe factoriel 9 Axe factoriel 10 Axe factoriel 11 Axe factoriel 12

50 50 50 50
100 100 100 100
150 150 150 150
200 200 200 200
250 250 250 250

50 100150200250 50 100150200250 50 100150200250 50 100150200250

Fig. 3.5 – 12 canaux ACP

Pour avoir la meilleure image couleur il suffit de mettre la première composante principale sur le canal ”vert”,
la deuxième composante principale sur le canal ”rouge” et la troisième sur le canal ”bleu”. Nous obtenons ainsi
l’image couleur (3.6)

Enfin le dernier graphique (3.7) montre l’espace des variables. On constate sur ce graphique qu’il y a des cannaux
très corélés.
3. TRAITEMENT D’IMAGES 59

50

100

150

200

250

50 100 150 200 250

Fig. 3.6 – Meilleure image couleur

0.5 0.5

0 0

−0.5 −0.5

−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1

Fig. 3.7 – Variables : plans 1-2 et 3-4


60 CHAPITRE 3. APPLICATIONS
Annexe A

Interprétation des produits matriciels

1 Produit matrice, vecteur


Soit A une matrice de type (n, p), x un vecteur de Rp et b un vecteur de Rn . On peut alors interprèter le
produit Ax = b de différentes façons.

1.1 Première interprétation


b est une combinaison linéaire des vecteurs colonnes de A dont les coefficients sont donnés par x :

b = x1 a.1 + · · · xp a.p

On a donc
Im A = V ect{a.1 , . . . , a.p }

1.2 Deuxième interprétation

(x/t a1. )
 

b=
 .. 
. 
(x/t an. )
Ker A = V ect{t a1. , . . . , t an. }⊥

2 Produit matrice, matrice


Soit A une matrice de type (n, m) et B une matrice de type (m, p). C = AB est une matrice de type (n, p).

2.1 Première interprétation


La iième ligne de C est la combinaison linéaire des lignes de B, les coefficients étant dans la iième ligne de A

2.2 Deuxième interprétation


La j ième colonne de C est la combinaison linéaire des colonnes de A, les coefficients étant dans la j ième colonne
de B.

2.3 Troisième interprétation


m
X
C = AB = a.k bk.
k=1

Le terme d’indice ij du membre de droite de l’expression ci-dessus s’écrit :


m
X
aik bkj
k=1

61
62 ANNEXE A. INTERPRÉTATION DES PRODUITS MATRICIELS

Ceci est la définition du terme d’indice ij du produit de la matrice A par la matrice B (4.2.6).
Remarque 2.3.1. rg(a.k bk. ) = 0 si a.k = 0 ou si bk. = 0
rg(a.k bk. ) = 1 sinon
Par suite C est somme de matrices de rang 1 au plus.

2.4 Quatrième interprétation


C est la matrice des produit scalaire des lignes de A avec les colonnes de B
 t
(t a1. /b.j ) (t a1. /b.p )

( a1. /b.1 ) . . . ...
 .. .. .. 
 t . . .
 
t t

C=  ( ai. /b.1 ) . . . ( ai. /b.j ) . . . ( ai. /b.p )  
 .. .. .. 
 . . . 
(t an. /b.1 ) . . . (t an. /b.j ) . . . (t an. /b.p )

Remarque 2.4.1. (i) t AA contient les produits scalaires des vecteurs colonnes de A.
(ii) At A contient les produits scalaires des vecteurs lignes de A.
Bibliographie

[1] Brigitte Escofier and Jérome Pagès. Analyses factorielles simples et multiples. Dunod, 1998. ISBN : 02 10
004127 3.
[2] Ludovic Lebart, A. Morireau, and J.P. Fenelon. Statistique exploratoire multidimensionnelle. Dunod, 1998.
ISBN :.
[3] Gibert Saporta. Probabilités, analyse des données et statistique. Technip, 1989. ISBN :.

63

You might also like