You are on page 1of 148

PSI* Résumé: Algèbre Linéaire

Année scolaire
2018/2019

Dans tout ce chapitre, K sera le corps R ou C, et E sera un espace vectoriel sur K.


Vous remarquerez les grandes similitudes qui existent entre les espaces vectoriels de dimension finie
et les ensembles de cardinal fini, notamment en ce qui concerne les sous-espaces (puis les applications
pour le cours à suivre).
...........................................................................................................................................................................................................................................................................................................................................
1 L E LANGAGE
Honnêtement, il est très peu probable que l’on vous demande un jour de restituer la définition d’un
K− espace vectoriel , en revanche il est indispensable de connaître celle des sous-espaces vectoriels :
Définition 1.1
Soit E un K− espace vectoriel et F ⊂ E. F est un sous espace vectoriel de E lorsque
1. 0E ∈ E,
2. pour tous x, y ∈ E et tout α, β ∈ K, α.x + β.y ∈ E.

E XEMPLES :
— ..d’ espaces vectoriels : Rn , Rn , Mn,p (R), F (X, E), où E est un K- espace vectoriel ,R[X], Rn [X]. Evi-
demment on obtient des C- espaces vectoriels en remplaçant R par C dans ces exemples.
— ..de sous-espaces vectoriels :
B {OE } et E sont des sous-espaces vectoriels de E dits triviaux.
B Dans l’espace, les droites et les plans vectoriels fournissent des exemples.
B Tout ensemble de solutions d’un système linéaire homogène à n variables est un sous-espace
vectoriel de Rn .
B Tout ensemble de solutions d’une équation différentielle homogène d’ordre 1 ou 2 est un
sous-espace vectoriel de F (I, R).

Grosso modo, un espace vectoriel est un ensemble dans lequel on peut faire des combinaisons
linéaires. Ne nous gênons pas :
Définition 1.2 ( combinaisons linéaires )
Si F = (ei )i∈I est une famille éventuellement infinie de vecteurs, on appelle combinaison li-
néaire de F ,X
tout vecteur y de E pour lequel il existe une suite presque nulle de scalaires (λi )i∈I
tels que y = λi .ei . 1
i∈I
On note Vect (F ) l’ensemble de ces combinaisons linéaires .
Ainsi, si F = (e1 , . . . , ep ) est une famille finie,
( p )
X
Vect (e1 , . . . , ep ) = xi ei , où xi ∈ K .
i=1

La propriété suivante précise l’affirmation selon laquelle Vect F est le plus petit sous-espace vec-
toriel de E contenant F :
Propriétés 1.3 (de Vect )
Soit F une famille de vecteurs de E. Alors

1. Vect (F ) est un sous-espace vectoriel de E.

Page 1/11
2. Soit F un sous-espace vectoriel de E contenant la famille F . Alors

Vect (F ) ⊂ F.

On dit que Vect (F ) est le sous-espace vectoriel engendré par la famille F , et F est appelée
famille génératrice de E si E = Vect F .

Les propriétés suivantes sont utiles lorsque l’on cherche à extraire d’une famille génératrice de E
une base de E :
Proposition 1.4
1. Vect (e1 , . . . , ep ) est conservé par les trois opérations élémentaires.
2. ep+1 ∈ Vect (e1 , . . . , ep ) ⇐⇒ Vect (e1 , . . . , ep , ep+1 ) = Vect (e1 , . . . , ep ).

...........................................................................................................................................................................................................................................................................................................................................
2 FAMILLES LIBRES ET GÉNÉRATRICES

Définition 2.1
Soit n ∈ N∗ et F := (e1 , . . . , en ) une famille de n vecteurs de E. On dira que cette famille est
• génératrice de E lorsque

Pour tout X ∈ E, il existe x1 , . . . , xn ∈ K tels que X = x1 e1 + . . . + xn en .

• libre lorsque
n
X 
Pour tout x1 , . . . , xn ∈ K, xi ei = 0, =⇒ x1 = . . . = xn = 0 .
i=1

• une base de E lorsqu’elle est libre et génératrice. On peut ainsi condenser les deux propriétés
ainsi : F est une base de E si et seulement si

Pour tout X ∈ E, il existe un unique(x1 , . . . , xn ) ∈ Kn tels que X = x1 e1 + . . . + xn en .

R EMARQUES :

Ainsi, F est génératrice de E ssi E = Vect (e1 , . . . , en ) , et elle est libre ssi la seule combinaison linéaire nulle
de vecteurs de F est la combinaison trivialement nulle.
On peut unifier ces trois définitions en remarquant qu’elles correspondent respectivement à la surjectivité, l’in-
jectivité et la bijectivité de l’application linéaire
n
X
ψ : (x1 , . . . , xn ) ∈ Kn 7→ xi ei ∈ E.
i=1

Page 2/11
E XEMPLES :
     

 1 0 0 

0 1 0

     


• ∀n ∈ N , la famille de n vecteurs  .. , .. ,..., ..  . est une base du K−espace vectoriel
     



 .   .   . 


0 0 1
 
Kn , appelée base canonique.
• ∀n ∈ N, la famille (1, X, X 2 , . . . , X n ) est une base appelée base canonique de Kn [X].
• Soit (P0 , P1 , . . . , Pn ) une famille de n + 1 polynômes de R[X] qui vérifie deg Pi = i pour tout 0 6 i 6 n.
Alors c’est une famille libre de K[X].
• Dans l’ensemble Mn,p (K) des matrices à n lignes et p colonnes, la famille de np matrices Eij 16i,j6n , où


Eij est la matrice dont tous les coefficients sont nuls sauf celui situé en (i, j) qui vaut 1, est une base de
Mn,p (K) dite base canonique.

Les bases ont un intérêt central pour la raison suivante :


Proposition 2.2 (Coordonnées dans une base)
Soit (e1 , . . . , en ) une base de n vecteurs de E. Alors, pour tout X ∈ E, il existe un unique n−uplet
(x1 , . . . , xn ) ∈ Kn tel que X = ni=1 xi ei . Ce n−uplet est appelé coordonnées de X dans la base
P

(e1 , . . . , en ).

...........................................................................................................................................................................................................................................................................................................................................
3 L A DIMENSION FINIE
Un K− espace vectoriel est dit de dimension finie lorsqu’il existe n ∈ N∗ et une famille E de n
vecteurs de E telle que Vect E = E.

Théorème 3.1
Soit E un K− espace vectoriel de dimension finie.
1. E possède une base (en fait, une infinité).
2. Toutes les bases de E possèdent le même nombre d’éléments.
On appelle dimension de E le cardinal de l’une quelconque de ses bases.

On dira qu’un espace vectoriel qui ne contient qu’un élément (son neutre pour + !) est de dimension nulle.

E XEMPLES :
• Pour tout n ∈ N∗ , Kn est un K−espace vectoriel de dimension n.
• Pour tout n ∈ N, Kn [X] est un K−espace vectoriel de dimension n + 1.
• C2 est un C−espace vectoriel de dimension 2, mais c’est aussi un R− espace vectoriel de dimension 4.
De manière générale, un C−espace vectoriel de dimension n est un R−espace vectoriel de dimension 2n
(montrez-le).
• Pour tout n, p ∈ N∗ , Mn,p (K) est un K−e.v de dimension np.
• Pour tout vecteur X non nul de E, Vect(X) est de dimension 1, i.e c’est une droite. On la note aussi K.X
On appelle plan tout espace vectoriel de dimension 2.
• Si E et F sont deux K− espaces vectoriels de dimension finie, alors E × F l’est aussi et dim E × F =
dim E + dim F .

Page 3/11
On peut traduire la liberté d’une famille avec le seule notion de rang :
Proposition 3.2 (Rang d’une famille de vecteurs)
Pour toute famille (e1 , . . . , ep ) de vecteurs de E, on appelle

Rang (e1 , . . . , ep ) = dim Vect (e1 , . . . , ep ) .

On a alors
1. Rang (e1 , . . . , ep ) 6 p.
2. Rang (e1 , . . . , ep ) = p ⇐⇒ (e1 , . . . ep ) est libre.

La dimension comme cardinal limite. Une famille libre de cardinal maximal est une base, et une
famille génératrice de cardinal minimal est une base :

Proposition 3.3
k ∈ N∗ , E un K−ev de dimension finie et F une famille de k vecteurs de E.
Soient 
Si F est libre, alors k 6 dim E
 .
Si F est libre et k = dim E, alors F est une base.

F est génératrice, alors k > dim E
Si
  .
Si F est génératrice et k = dim E, alors F est une base.

Enfin, un résultat très utile, qui permet de construire des bases dont les premiers vecteurs sont
prescrits :
Théorème 3.4 (Base incomplète)
Soit E un K− espace vectoriel de dimension n ∈ N∗ , et (e1 , . . . , ep ) une famille libre de vecteurs de
E. Alors il existe ep+1 , . . . , en ∈ E tels que (e1 , . . . , ep , ep+1 , . . . , en ) soit une base de E.
...........................................................................................................................................................................................................................................................................................................................................
4 D IMENSION ET SOUS - ESPACES

Propriétés 4.1 (Croissance de la Dimension)


Soit E un K−espace vectoriel de dimension n et F un sous-espace vectoriel de E. Alors
• F est de dimension finie, et dim F 6 dim E.
• Si dim F = dim E, alors F = E.

Ce dernier résultat nous dispensera pour prouver l’égalité de deux espaces vectoriels de montrer une des
deux inclusions ; on substituera celle-ci à l’égalité des dimensions.
Définition 4.2 (Somme et intersection de sev)
Soient F et G deux sous-espaces vectoriels d’un K−ev E. Alors
1. F ∩ G est un sous-espace vectoriel de E.
2. F + G = {x + y où x ∈ F, y ∈ G} est un sous-espace vectoriel de E. On a l’égalité de
sous-espaces vectoriels suivante : F + G = Vect (F ∪ G).
3. F et G sont dits en somme directe lorsque F ∩ G = {0}. On note alors leur somme F ⊕ G.

Page 4/11
A nouveau, ce résultat devrait rappeler à votre mémoire le cardinal d’une union de parties finies :
Proposition 4.3 (Dimension d’une somme)
Soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie. Alors
• dim F + G = dim F + dim G − dim F ∩ G.
• F et G sont en somme directe ssi dim F + G = dim F + dim G.
Définition 4.4 (Supplémentaires)
Deux sous-espaces vectoriels F et G de E sont supplémentaires dans E lorsque E = F + G et
F ∩ G = {0}. On note alors F ⊕ G = E.
On appellera hyperplan tout sous-espace vectoriel qui admet une droite comme supplémentaire.

En termes de décomposition, cela donne :


 
E = F ⊕ G ⇐⇒ ∀z ∈ E, ∃ un unique couple (x, y) ∈ F × G tel que z = x + y .

Tout sous-espace vectoriel d’un espace vectoriel E de dimension finie possède un supplémentaire
(une infinité en fait).
Proposition 4.5 (Caractérisation des supplémentaires)
Si F et G sont deux sous-espaces vectoriels quelconques de E, nous avons l’équivalence entre les
trois propriétés suivantes :
— F ⊕G=E;
— F + G = E et dim F + dim G = dim E.
— F ∩ G = {0E } et dim F + dim G = dim E.
— ∀z ∈ E, ∃!(x, y) ∈ F × G tel que z = x + y.

Définition 4.6
Soit E1 , . . . , Ep une famille finie de sous-espaces vectoriels de E, et H = E1 + · · · + Ep . On dit
que ces sous-espaces vectoriels sont en somme directe lorsque tout vecteur de H se décompose de
manière unique comme une somme de vecteurs de Ei .

Proposition 4.7
On a équivalence entre :
p
Ei = ⊕pi=1 Ei , et
X

i=1 Pp
— Pour tout (x1 , . . . , xp ) ∈ E1 × · · · × Ep , si i=1 xi = 0E , alors tous les xi sont égaux à 0E .

R EMARQUES :
— Si E admet une décomposition en somme directe E = ⊕Ei , on obtient une base de E en réunissant des
bases des Ei . Une telle base de E est dite adaptée à al décomposition E = ⊕Ei .
Xp Xp
— Si E = Fi , alors dim E 6 dim Fi .
i=1 i=1
De plus, on a égalité si et seulement si la somme est directe.

...........................................................................................................................................................................................................................................................................................................................................

Page 5/11
5 LA LINÉARITÉ

Définition 5.1 (Applications linéaires)


Soient E, F deux K− espaces vectoriels . Une application f : E → F est dite linéaire lorsque

∀x, y ∈ E, ∀α ∈ K, f (α.x + y) = αf (x) + f (y).

Si E = F , on dit que f est un endomorphisme. On note L (E, F ) l’ensemble des applications


linéaires entre E et F , et L (E) = L (E, E) l’ensemble des endomorphismes de E.

E XEMPLES :
— f : R → R est une application linéaire ⇐⇒ il existe a ∈ R tel que f : x ∈ R 7→ ax ∈ R.
— Les homothéties sur E, i.e les applications qui s’écrivent λIdE , où λ ∈ K sont linéaires.
— Soit x0 ∈ R. On appelle opérateur d’évaluation en x0 l’application

Ex0 : f ∈ F (R, R) 7→ f (x0 ) ∈ R.

Ex0 est une forme linéaire sur F (RR).


— Soit I un intervalle de R.
La dérivation D D 1 (I, R) −→ F (I, R) est une application linéaire.
f 7−→ f0
— Soit I un intervalle de R et a, b ∈ I.
L’intégrale I Cm 0
(I, C) −→ C est une forme linéaire.
Z b
f 7−→ f (t)dt
a
— On appelle forme linéaire sur E toute application linéaire ϕ : E → K.
— Soient n, p ∈ N∗ et A = (ai,j ) ∈ Mn,p (K). Notons LA : X ∈ Kp → AX ∈ Kn , où,
 p 
X
 
 
a11 a12 . . . a1p    a x
1,j j 
x1  a21 a22 . . . a2p  x1
 j=1 
 ..     ..   ..
 
LA  .  =  . . . =  ∈ Kn .

 .. .. ..  .
  
 p .


xp xp X 
an1 an2 . . . anp  an,j xj 
j=1
p
Alors pour tous X, Y ∈ K , ∀λ, µ ∈ K, LA (λ.X + µ.Y ) = λLA (X) + µLA (Y ).
LA est l’application linéaire (endomorphisme si n = p) canoniquement associé a A.
Ainsi, résoudre le système AX = B,où B ∈ Kp , c’est finalement rechercher les antécédents de B par
l’application LA , i.e Sol = LA −1 {B} .

Donnons une description des formes linéaires sur Kn :


Proposition 5.2 (Formes linéaires sur Kn )
ϕ : Kn → K est une forme linéaire sur Kn si et seulement si
 
x1 n
 .  n
il existe a1 , . . . , an ∈ K tels que ϕ :  .. 
X

 ∈ K 7 → ai xi ∈ K.
i=1
xn

...........................................................................................................................................................................................................................................................................................................................................

Page 6/11
6 S TRUCTURE , I MAGE ET N OYAU

Proposition 6.1 (Structures de L (E, F ) et L (E))


Soient E et F deux K− espaces vectoriels .
— L’ensemble L (E, F ) des applications linéaires de E dans F est un sous-espace vectoriel de
F (E, F ).
— L (E) est stable par composition, i.e la composée de deux applications linéaires est linéaire.

Rappelons les deux notions d’image directe et d’image inverse d’un ensemble par une application
quelconque, centrales pour exprimer simplement des notions ensemblistes.

R EMARQUES :
B f : E → F et X ⊂ E. On note

f (X) = {f (x) où x ∈ X} l’image directe de X par f .

L’image de E est f (E). On la note Im f . Rappelons enfin que f est surjective ssi Im f = E.
B f : E → F et Y ⊂ F . On note

f −1 (Y ) = {x ∈ E tels que f (x) ∈ Y } On l’appelle image inverse de Y par f .

Elle ne nécessite pas l’inversibilité de f .


B Avec ces notations, on a ainsi f (X) ⊂ F et f −1 (Y ) ⊂ E.

Dans le cadre linéaire, ces deux notions sont compatibles avec la structure :
Propriétés 6.2
Soient E et F deux K− espaces vectoriels , et f : E → F une application linéaire.
1. Soit W un sous-espace vectoriel de F . L’image inverse f −1 (W ) de W par f est un sous-espace
vectoriel de E.
2. Soit V un sous-espace vectoriel de E. L’image directe f (V ) de V par f est un sous-espace
vectoriel de F .

Pour montrer qu’un ensemble est un sous-espace vectoriel , il suffira bien souvent de prouver que
c’est l’image ou le noyau d’une application linéaire :
Corollaire 6.3 (L’image et le noyau sont des sous-espaces vectoriels )
Soient E et F deux K− espaces vectoriels , et f : E → F une application linéaire. Alors :
n o
1./ ker f = x ∈ E tels que f (x) = 0F est un sous-espace vectoriel de E. On l’appelle le noyau
de f .
2./ Im f = f (E) = {f (x) où x ∈ E} est un sous-espace vectoriel de F . Autrement dit :

∀y ∈ F, y ∈ Im f ⇐⇒ ∃x ∈ E tel que y = f (x).

Si Im f est de dimension finie, on appelle rang de f sa dimension.

Page 7/11
E XEMPLES :
— L’ensemble des solutions du système linéaire homogène associé à une matrice A ∈ Mn,p est le noyau de
LA ∈ L (Rp , Rn ). On retrouve ainsi sa structure de sous-espace vectoriel de Rp . On parlera souvent du
noyau de la matrice A, plutôt que du noyau de l’application linéaire canoniquement associée à A.
— {f ∈ F (R, R) telles que f (π) = 0} est le noyau de l’opérateur d’évaluation en π.
 Z 1 
— f ∈ F (R, R) telles que f (t)dt = 0 est le noyau de l’intégrale.
0

Expiquons maintenant ce que cela donne lorsque f = LA :


Proposition 6.4 (Image et Noyau d’une matrice)
Soit A ∈ Mn,p (K). Notons C1 , . . . , Cp ses colonnes.
 
x1
 . 
 ..  ∈ K tels que x1 .C1 + · · · + xp .Cp = 0.
p
1./ Le noyau de LA est l’ensemble des  

xp
2./ L’image de LA est Vect (C1 , . . . , Cp ), sous-espace vectoriel de Kn .

Ainsi, toute combinaison linéaire nulle des vecteurs colonne de A présente deux intérêts : elle fournit
à la fois un vecteur du noyau de A, et permet d’éliminer un des vecteurs colonnes lorsque l’on cherche
à extraire de (C1 , . . . Cp ) une base de l’image de A.
Dans le cadre linéaire, l’injectivité et la surjectivité d’une application se traduit par des égalités de
sous-espaces vectoriels :
Proposition 6.5 (Injectivité et surjectivité d’une application linéiare)
Soient E et F deux K− espaces vectoriels , et f : E → F une application linéaire. Alors :
— f est injective ⇐⇒ ker f = {0E }.
— f est surjective ⇐⇒ f (E) = F .
...........................................................................................................................................................................................................................................................................................................................................
7 L INÉARITÉ EN DIMENSION FINIE
Pour toute famille E = (e1 , . . . ep ) de E, on appelle image de E par l’application linéaire f la famille
(f (e1 ), . . . , f (ep )).
   
Si e1 , . . . ep est une base de E, alors Im f = Vect f (e1 ), . . . f (ep ) ,

Le théorème central de ce paragraphe est le suivant :

Théorème 7.1 (Interpolation Linéaire)


Soient E
 un K− espace vectoriel de dimension finie et F un K−espace vectoriel.
B = (e , . . . , e ) une base de vecteurs E et
1 n
Soient
(b1 , . . . , bn ) une famille de vecteurs de F .
Alors il existe une unique application linéaire f ∈ L (E, F )
qui vérifie pour tout i ∈ [[1, n]], f (ei ) = bi .

Page 8/11
R EMARQUES :
1./ Les deux notions de rang (celle des familles et celle des applications linéaires) coïncident dans le cas suivant :
  
Si e1 , . . . ep est une base de E, alors Rang f = Rang f (e1 ), . . . f (ep ) .

2./ L’image d’une base quelconque de E par f peut donner beaucoup d’informations sur f :
Soit f ∈ L (E, F ), (e1 , . . . , en ) une base de E. Alors,
— (f est injective) ⇐⇒ (f (e1 , . . . , f (en )) est libre.
— (f est surjective) ⇐⇒ (f (e1 , . . . , f (en )) est génératrice de F.
— (f est bijective) ⇐⇒ (f (e1 , . . . , f (en )) est une base de F.

Voici un des résultats les plus importants d’algèbre linéaire :


Théorème 7.2 (du rang (version faible))
Soit E un espace vectoriel de dim finie, F un espace vectoriel , et f ∈ L (E, F ). Alors Im f est de
dimension finie et
dim ker f + Rang f = dim E.

Donnons-en une version plus fine, au programme, mais beaucoup moins usitée :
Théorème 7.3 (du rang, version forte)
Soit E un espace vectoriel de dim finie, F un espace vectoriel , et f ∈ L (E, F ). Soit de plus, G
un supplémentaire de ker f dans E. Alors, l’application G −→ Im f est un isomorphisme.
x 7−→ f (x)

Nous tirons du théorème précédent :


Corollaire 7.4
Soient E et F deux K− espaces vectoriels de dimensions finies, et f ∈ L (E, F ). Alors,
1. Si f est injective, alors dim E 6 dim F .
2. Si f est surjective, alors dim E > dim F .
3. Si f est bijective, alors dim E = dim F .

Considérons maintenant les applications bijectives entre deux espaces vectoriels de même dimen-
sion finie.
Théorème 7.5
Soient E et F deux K− espaces vectoriels tels que dim E = dim F = n ∈ N, et f ∈ L (E, F ). Alors,

f est injective ⇐⇒ f est surjective ⇐⇒ f est bijective ⇐⇒ Rang f = n ⇐⇒ dim ker f = 0.

E XEMPLES :
1. Un cas à retenir, car il est sous-jacent aux merveilleux polynomes d’interpolation de Lagrange : Si
a0 , . . . , an ∈ K sont distincts deux à deux, alors Ψ Kn [X] −→ Kn+1  est bijective.
P 7−→ P (a0 , . . . , P (an )
2. C’est FAUX en dimension infinie, par exemple la dérivation sur R[X] est surjective mais pas injectif.

Page 9/11
Définition 7.6 (Groupe linéaire)
Soit E un K− espace vectorielde dimension
 finie. On note GL(E) l’ensemble des isomorphismes
de E. C’est un sous-groupe de Bij(E), ◦ .

R EMARQUES :
Soit n ∈ N∗ . Tout K- espace vectoriel de dimension n est isomorphe à Kn .

...........................................................................................................................................................................................................................................................................................................................................
8 D ES EXEMPLES CENTRAUX
§ 1. Projecteurs et symétries.— Il est absolument nécessaire d’avoir en tête LE dessin qui résume
toutes les propriétés.
Définition 8.1 (PROJECTEURS)
Soit E un espace vectoriel . On appelle projecteur de E tout endomorphisme f ∈ L (E) qui vérifie
f ◦ f = f.

Notons les propriétés de celui-ci :


— ker f ⊕ Im f = E (ce qui est faux pour un endomorphisme général).
— f est égal à l’identité sur Im f , i.e Im f = ker(f − IdE ).
Réciproquement, étant donnés deux sous-espaces vectoriels de E supplémentaires (i.e F ⊕G = E),
on peut définir un endomorphisme f de E en posant f = IdE sur F , et f = 0 sur ker f .
Cet endomorphisme f est alors un projecteur, appelé projecteur sur F parallèlement à G :

f : y + z ∈ E 7−→ y ∈ E pour tout (y, z) ∈ F × G.

Définition 8.2 (SYMETRIES)


Soit E un espace vectoriel . On appelle symétrie de E tout endomorphisme f ∈ L (E) qui vérifie
f ◦ f = Id.

Notons les propriétés de celui-ci :


— f est un automorphisme de E, dont l’inverse est.... f .
— ker(f − Id) ⊕ ker(f + Id) = E.
— f est égal à l’identité sur ker(f − IdE ), et à −IdE sur ker(f + IdE ).
1
— (f + Id) est le projecteur sur ker(f − IdE ) parallèlement à ker(f + IdE ).
2

Réciproquement, étant donnés deux sous-espaces vectoriels de E supplémentaires (i.e F ⊕G = E),


on peut définir un endomorphisme f de E en posant f = IdE sur F , et f = −IdE sur ker f .
Cet endomorphisme f est alors une symétrie, appelée symétrie par rapport à F parallèlement à
G:
f E −→ E pour tout (y, z) ∈ F × G.
y + z 7−→ y − z

Page 10/11
§ 2. Hyperplans et formes linéaires.— Proposition 8.3
Soit E un K− espace vectoriel de dimension finie n. Alors
1. Un sous-espace vectoriel H de E est un hyperplan ⇐⇒ il existe une forme linéaire non nulle
ϕ sur E telle que H = ker ϕ.
2. Un hyperplan H est à la fois le noyau de la forme linéaire ϕ et de la forme linéaire ψ ⇐⇒ ϕ et
ψ sont colinéaires. Ce qui signifie que deux équations linéaires définissant le même hyperplan
H de Rn sont proportionnelles.
3. L’intersection de m hyperplans de E est de dimension > n − m.
4. Pour tout sous-espace vectoriel G de E de dimension n − m, il existe m formes linéaires
ψ1 , . . . , ψm de E telles que G = ker ψ1 ∩ · · · ∩ ker ψm .

§ 3. Endomorphismes nilpotents.— Soit E un K− espace vectoriel et f ∈ L (E). f est dit nilpotent


lorsqu’une de ses puissances est nulle, i.e lorsqu’il existe un entier naturel k ∈ N tel que f k = 0L (E) . Le
plus petit entier k qui vérifie cette propriété s’appelle l’indice de nilpotence de f .
Proposition 8.4
Soit f ∈ L (E) un endomorphisme nilpotent de E d’indice p ∈ N∗ . Alors
1./ f n’est pas injective (mais peut être surjective en dimension infinie).
2./ {0E } = ker f 0 ker f 1 ··· ker f p−1 ker f p = E.
3./ Si E est de dimension finie n, alors l’indice de nilpotence de f est inférieur à n. Autrement dit,
pour tout endomorphisme nilpotent f ∈ L (E), f n = 0L (E) .

E XERCICES :
 
1 2
1./ CCP 60 Soit la matrice A = et f l’endomorphisme de M2 (R) défini par f (M ) = AM .
2 4
(a) Déterminer ker f .
(b) f est-il surjectif ?
(c) Trouvez une base de ker f et une base de Im f .
2./ CCP 62
Soit E un espace vectoriel sur R ou C et f et g deux endomorphismes de E tels que f ◦ g = id.
(a) Démontrer que ker(g ◦ f ) = ker f .
(b) Démontrer que Im (g ◦ f ) = Im g.
(c) Démontrer que E = ker f ⊕ Im g.
3./ CCP 64
Soit f un endomorphisme d’un espace vectoriel E de dimension n.
(a) Démontrer que E = Im f ⊕ ker f =⇒ Im f = Im f 2 .
(b) i. Démontrer que : Im f = Im f 2 ⇐⇒ ker f = ker f 2 .
ii. Démontrer que : Im f = Im f 2 =⇒ E = Im f ⊕ ker f .

Page 11/11
Année scolaire

PSI* Les polynômes 2018/2019

Notations du chapitre — Dans ce chapitre K = R ou C. Vocabulaire et notations


On note par convention x 7→ x 0 la fonction constante égale à 1. – Les réels a0 , a1 , . . . , an s’appellent les coefficients du polynôme P.
– La fonction constante nulle est un polynôme : le polynôme nul.
– L’ensemble des polynômes à coefficients dans K est noté K[x] (ou K[X ] selon
I — Fonctions polynômes la manière dont on note l’inconnue).
– Un polynôme P qui s’écrit de la forme précédente est dit « de degré inférieur
Définition 1.1 — Fonction polynôme ou égal à n ». L’ensemble de ces polynômes est noté Kn [x]
On appelle monôme » ou fonction monôme toute fonction de K dans K de la forme
x 7→ x n avec n ∈ N. II — Opérations sur les polynômes
La fonction P est une fonction polynôme (ou simplement un polynôme) à coeffi-
cients dans K si et seulement si
Propriété 2.1 — Opérations sur les polynômes
∃n ∈ N, ∃ (a0 , a1 , . . . , an ) ∈ Kn+1 , Soit λ ∈ K, (P, Q) ∈ (K[x])2 .

∀x ∈ K, P(x) = a0 + a1 x + a2 x 2 + · · · + an x n • les fonctions P + Q et λ P sont des fonctions polynômes ;


• la fonction P × Q est une fonction polynôme ;

Proposition 1.2 — Coefficients du polynôme nul • la fonction P ◦ Q est une fonction polynôme.
Les coefficients du polynôme nul sont tous nuls.
Corollaire 2.2 — Les ensembles K[x] et Kn [x] sont deux sous-espaces vectoriels
Corollaire 1.3 — Base canonique de Rn [x ] de l’ensemble des fonctions de K dans K.
La famille de fonctions polynômes (x → 1, x → x, x → x 2 , . . . , x → x n ) est libre.
Cette famille étant une famille génératrice de Kn [x], c’est donc une base de Kn [x]. Propriété 2.3 — Polynôme dérivé
Soit P ∈ K[x], P non nul, s’écrivant
Théorème 1.4 — Théorème fondamental sur les polynômes
∀x ∈ K, P(x) = a0 + a1 x + a2 x 2 + · · · + an x n
Deux fonctions polynômes sont égales sur K si et seulement si leurs coefficients sont
égaux. avec n ∈ N et (a0 , a1 , . . . , an ) ∈ Kn+1 .
Le polynôme dérivé du polynôme P est la fonction avec n ∈ N et (a0 , a1 , . . . , an ) ∈ Kn+1 .
L’ensemble des entiers {k ∈ N tel que ak 6= 0} admet un plus grand élément : c’est
∀x ∈ K, P 0 (x) = a1 + 2a2 x + · · · + nan x n−1 le degré du polynôme P.
• an est alors le coefficient de plus haut degré de P ;

Propriété 2.4 — Propriété de la dérivation de polynômes • an x n son le monôme de plus haut degré de P.
Soient P et Q deux fonctions polynômes et λ ∈ K Si P est le polynôme nul, on définit par convention son degré comme étant −∞.

1) (P + Q)0 = P 0 + Q0 ; 3) (P × Q)0 = P 0Q + Q0 P. Propriété 3.2 — Degré et combinaison linéaire de polynômes


2) (λ P) = λ P ;
0 0 0 0
4) (P ◦ Q) = Q × P ◦ Q. 0
Soit P et Q deux fonctions polynômes.

• Si d◦ (P) 6= d◦ (Q) alors d◦ (P + Q) = sup(d◦ (P), d◦ (Q))


Théorème 2.5 — Formule de Taylor sur les polynômes • dans le cas général d◦ (P + Q) ¶ sup(d◦ (P), d◦ (Q))
Soit P ∈ K[x], P non nul, et n le degré de P. Alors • pour λ ∈ K, λ 6= 0 d◦ (λ P) = d◦ (P)
n • dans le cas général d◦ (P × Q) = d◦ (P) + d◦ (Q)
X P (k) (0) k
∀x ∈ K, P(x) = x • dans le cas général d◦ (P(Q)) = d◦ (P) × d◦ (Q).
k!
k=0

Corollaire 3.3 — Intégrité de l’ensemble des polynômes


Corollaire 2.6 — D’ailleurs, en fait,
Soit P et Q deux fonctions polynômes.
n
X P (k) (a) Si, pour tout x de K on a P(x) × Q(x) = 0 alors P = 0 ou Q = 0.
∀a ∈ K, ∀x ∈ K, P(x) = (x − a)k
k!
k=0

Corollaire 3.4 — « Simplification » par un polynôme non nul


Soit P, Q 1 et Q 2 trois fonction polynômes.
III — Degré Si PQ 1 = PQ 2 et si P n’est pas le polynôme nul alors Q 1 = Q 2 .

Définition 3.1 — Degré d’un polynôme non nul Propriété 3.5 — Degré du polynôme dérivé
Soit P un polynôme non nul s’écrivant Si P est une fonction polynôme non constante, alors d◦ (P 0 ) = d◦ (P) − 1.
Si P est constant alors P 0 est nul.
∀x ∈ K, P(x) = a0 + a1 x + a2 x 2 + · · · + an x n
IV — Racines Corollaire 4.7 — Deux fonctions polynômes sont égales en un nombre infini de
points de K si et seulement si leurs coefficients sont égaux.

Définition 4.1 — Racine d’un polynôme


Soit P ∈ K[x]. On appelle racine du polynôme P tout α ∈ K tel que P(α) = 0. Définition 4.8 — Ordre de multiplicité d’une racine
Soit P ∈ K[x], P non nul.

Théorème 4.2 — Théorème de d’Alembert 1. α est racine d’ordre au moins r de P si et seulement si P est factorisable par
Soit P ∈ C[x] un polynôme non constant. (x − α) r .
Le polynôme P admet au moins une racine dans C. 2. α est racine d’ordre r si et seulement si P est factorisable par (x − α) r mais pas
par (x − α) r+1 . L’entier r est l’ordre de multiplicité de la racine α.

Théorème 4.3 — Factorisation et racine 3. La racine α est racine multiple si son ordre de multiplicité est au moins 2, racine
Soit P ∈ K[x] et α une racine de P. Il existe un polynôme Q tel que : simple sinon.

∀x ∈ K, P(x) = (x − α) × Q(x)
Proposition 4.9 — Ordre de multiplicité et factorisation
Le polynôme P est dit factorisable par (x − α). Soit P un polynôme et α une racine de P d’ordre de multiplicité r. Il existe un poly-
nôme R tel que

Corollaire 4.4 — Cas de plusieurs racines R(α) 6= 0 et ∀x ∈ K, P(x) = (x − α) r R(x)


Soit P ∈ K[x] et α1 , α2 , . . . , α p p racines distinctes de P.
Le polynôme P est factorisable par (x − α1 )(x − α2 ) · · · (x − α p ).
Théorème 4.10 — Ordre de multiplicité et dérivé d’un polynôme
Soit P ∈ K[x], P non nul et α ∈ K.
Théorème 4.5 — Nombre de racines d’un polynôme de degré n. Le scalaire α est racine d’ordre r de P si et seulement si
Soit P ∈ K[x] un polynôme non nul de degré inférieur ou égal à n.
Le polynôme P admet au plus n racines distinctes. P(α) = P 0 (α) = P 00 (α) = · · · = P (r−1) (α) = 0 et P (k) (α) 6= 0

Corollaire 4.6 — Soit n ∈ N et P un polynôme de degré inférieur ou égal à n.


Si P possède au moins n + 1 racines distinctes alors P est le polynôme nul. Corollaire 4.11 — Cas des racines simples
Soit P un polynôme et α une de ses racines. Alors α est racine simple de P si et
seulement si P 0 (α) 6= 0.
PSI* Matrices
Dans tout ce chapitre, K sera le corps R ou C, et E sera un espace vectoriel sur
. K
Année scolaire
2018/2019

Les bases

E XEMPLES

1. L’ensemble des matrices diagonales forme un sous-espace vectoriel de Mn (K) de dimension n.


On le note Dn (K).
2. L’ensemble Tn+ des matrices triangulaires supérieures est un sous-espace vectoriel de dimension
n(n + 1)/2.
3. L’ensemble Sn des matrices symétriques et l’ensemble An des matrices anti-symétriques sont deux
sous-espaces vectoriels de dimensions respectives n(n+1)/2 et n(n−1)/2. Ils sont supplémentaires
dans Mn (K).

.1 L’opérateur LA
Toute application linéaire de Rp dans Rn est l’application linéaire canoniquement associée à une matrice.
Plus clairement,
Proposition .1
Soient n, p ∈ N∗ . L’application Ψ Mn,p (K) −→ L (Kp , Kn ) est un isomorphisme de K−algèbres.
A 7−→ LA

On en déduit au passage que dim L (Kp , Kn ) = n × p.


On peut caractériser ainsi les matrices triangulaires :
Proposition .2
Soit A ∈ Mn (K).

A ∈ Tn ⇐⇒ ∀i ∈ [[1, n]], Vect (e1 , . . . , ei ) est stable par LA


⇐⇒ ∀i ∈ [[1, n]], Aei ∈ Vect (e1 , . . . , ei ).

D’ailleurs, on peut enlever le cas i = n qui n’amène rien à l’affaire.

.2 Produit
Définition .3 (Produit de Matrices)
Soient n, p, m ∈ N∗ , A ∈ Mn,p (K), B ∈ Mp,m (K). La matrice C ∈ Mn,m (K) définie par la formule
p
X
∀i, j ∈ [[1, n]] × [[1, m]], ci,j = ai,k bk,j ,
k=1

est appelée produit de A et B et notée A × B, ou AB.


On définit ainsi une loi interne que Mn (K).

On peut tout de suite énoncer, car c’est pour obtenir cette relation que nous avons construit ce produit :
Proposition .4
Soient n, p, m ∈ N∗ , A ∈ Mn,p (K), B ∈ Mp,m (K). Alors LA×B = LA ◦ LB .

Page 1/8
E XEMPLES
B In A = AIp = A.
B AB a sa j−ème colonne nulle si la j−ième colonne de B l’est, et sa j−ème ligne nulle si la j−ième
ligne de A l’est.
B A × B = (AC1 , . . . , ACn ) où (C1 , . . . , Cn ) sont les colonnes de B.
B Si C et L sont un vecteur colonne et un vecteur ligne, CL ∈ Mn est de rang 1 et LC n’est rien d’autre
qu’un réel.
B AB 6= BA, avec E12 et E11 .
B L’anneau n’est pas intègre, avec le même exemple. D’ailleurs E12 est nilpotente.
B Eij × Ekl = δjk Eil .
B Soit A une matrice
 carrée. LA est un projecteur ⇐⇒ A2 = A
B Soit A = aij et D = Diag (d1 , . . . , dn ). ALors
DA = di aij et AD = dj aij .
B Vu en TD : le commutant d’une matrice M est un sous-espace vectoriel de Mn . Il est égal à Mn si
et seulement si M est une homothétie, i.e ssi M ∈ Vect In .

Proposition .5 (Produit de matrices triangulaires)


Si A, B sont deux matrices triangulaires, alors leur produit A × B est aussi triangulaire supérieur dont la
diagonale est (a11 b11 , . . . , ann bnn ).

Remarques :
Calcul de certaines suites récurrentes :
B Soient (xn )n∈N et (yn )n∈N deux suites réelles, vérifiant la relation de récurrence linéaire suivante :
n x
n+1 = −9xn −18yn
yn+1 = 6xn +12yn

avec x0 = −137 et y0 = 18. Il s’agit de déterminer les termes généraux de ces deux suites en fonction
de n, et non plus en fonction des termes
 qui les
 précèdent.
 Traduisons ce problème en termes
−9 −18 xn
matriciels : en posant A = , et Un = pour tout n ∈ N, on voit que la formule de
6 12 yn
récurrence croisée qui régit nos deux suites devient une formule de récurrence simple portant sur
un vecteur de R2 : Un+1 = AUn , pour tout n ∈ N. On déduit aisément de ceci l’expression de Un en
fonction de A, de U0 et de n : Un = An U0 . Ainsi le calcul de Un se ramène à celui des puissances
de A. Nous verrons plus loin des méthodes pour calculer ces puissances.
B Soit (xn ) une suite vérifiant
 ∀n ∈ N, un+2= aun+ bvn , où a, b ∈ C et b 6= 0. Cett relation est

0 1 un
équivalente à Xn+1 = Xn , où Xn = .
a b un+1

.3 Inversibilité
Définition .6
A ∈ Mn (K) est dite inversible s’il existe B ∈ Mn (K) telle que AB = BA = In . B est alors unique, et notée
A−1 . On note GLn (K) l’ ensemble des matrices inversibles.

Théorème .7
Soit A ∈ Mn (K). on a l’équivalence entre toutes les propriétés suivantes :
A est inversible ⇔ LA est bijective ⇔ ker A = {0} ⇔ Rang A = n ⇐⇒ det A 6= 0.

Exemples de produits :

Page 2/8
 
a b
B Une matrice ∈ M2 (K) est inversible ⇐⇒ son déterminant est non nul. Alors,
c d
−1
1
  
a b d −b
= .
c d det A −c a
B Soient A, B ∈ Mn (K) deux matrices inversibles. Alors leur produit A × B est ausi inversible et

(A × B)−1 = B −1 × A−1 .

Propriétés .8 (Le groupe linéaire)


Muni de la loi ×, GLn (K) est un groupe, appelé groupe linéaire. Il n’est pas commutatif sauf si n = 1.

Proposition .9 (Inversion de matrices triangulaires)


Soit T = ti,j 16i,j6n ∈ Tn+ (K). Alors


B T est inversible ⇐⇒ ∀i ∈ [[1, n]], tii 6= 0.


B Si T ∈ GLn (K), alors T −1 ∈ Tn+ (K) et les coefficients diagonaux de T −1 sont les inverses des coeffi-
cients diagonaux de T .

Lignes et colonnes
On sera souvent conduit à mutiplier une matrice A par une matrice inversible dès que l’on s’intéressera aux
endomorphismes. Le point essentiel de cette opération est qu’elle préserve le rang. Plus précisément :
Proposition .10 (Conservation du rang)
Soit A ∈ Mn,p . Alors :

1. ∀P ∈ GLn , ker P × A = ker A.

2. ∀Q ∈ GLp , Im A × Q = Im A.

3. ∀P ∈ GLn , ∀Q ∈ GLp , Rang P AQ = Rang A .

Remarques :
Rappelons quelques faits énoncés lors de la définition du produit matriciel. Soit A ∈ Mn,p . Notons Cj
ses colonnes et Li ses lignes. Les Ei,j sont les matrices élémentaires, de taille convenable pour que les
produtis que nous effectuons soient licites.
 
0
0
 
I Multiplication à gauche : Eij A = Lj , la ligne Lj apparaissant à la i−ème place.
 
 .. 
 . 
0

I Multiplication à droite : AEij = 0, . . . , Ci , . . . 0 , la colonne Ci apparaissant à la j−ème place.

Rappelons que nous avons défini trois opérations élémentaires sur A lors de l’algorithme de Gauss.
Définissons trois types de matrices simples :
Définition .11 (de Pij , Ei (α), Eij (α))
B Soit i ∈ [[1, n]] et α ∈ K∗ . Ei (α) = Diag (1, . . . , 1, α, 1 . . . , 1) est la matrice identité où l’on a remplacé le
i−ème coefficient par c sur la diagonale.
B Soient i 6= j ∈ [[1, n]]. Pij est la matrice identité où l’on a permuté les colonnes (ou les lignes) i et j
B Soient i 6= j ∈ [[1, n]], α ∈ K. Eij (α) = In + αEij .

Page 3/8
Ces trois types de matrices sont inversibles et stables par passage à l’inverse :

Ei (α) = Ei (α−1 ), Pij−1 = Pij , Eij (α)−1 = Eij (−α) .

Faire des opérations élémentaires sur les colonnes de A revient à multiplier A à droite par une suite de
matrices inversibles :
Proposition .12 (Manipulation élémentaire et produit matriciel)
Soit A ∈ Mn,p (K).
Ci ←Ci +αCj
1. Si A −−−−−−−−→ B, alors B = A × Eji (α).
C ←αC
2. Si A −−i−−−→
i
B, alors B = A × Ei (α).
Ci ↔Cj
3. Si A −−−−−→ B, alors B = A × Pij .

On obtient un résultat strictement indentique en remplaçant “colonne” par “ligne” et en multipliant A à


gauche par les trois types de matrices définis ci- dessus.
Corollaire .13 (Invariance par manipulation élémentaire)
Les manipulations élémentaires sur les lignes et les colonnes d’une matrice en conservent le rang.
Celles sur les lignes conservent de plus le noyau, et celles sur les colonnes conservent l’image.

On en déduit de plus une nouvelle méthode de calcul de l’inverse d’une matrice.


Propriétés .14 (Transposée)

1. t (t A) = A.
2. La transposée est linéaire.
3. Pour tout A ∈ Mn,p (K), B ∈ Mp,q (K), t (AB) = t B t A.
4. Si A est inversible, alors t (A−1 ) = (t A)−1 .

Corollaire .15
Soit A une matrice n × p. Alors
1. A et t A ont même rang.
2. le rang de la famille des p colonnes de A est égal à celui des n lignes de A.

.4 Matrices d’applications linéaires


Tous les espaces vectoriels seront de dimension finie sur K. Nous étendons les possibilités du calcul matriciel
à l’ensemble des applications linéaires de dimension finie. Ces matrices dépendront fortement d’une base choisie
pour le calcul des coordonnées de vecteurs, et nous nosu attacherons à expliquer comment elle en dépend.
Gardons à l’esprit qu’une bonne définition de ces matrices doit respecter le morphisme déjà maintes fois utilisé :
Mat (f ◦ g) = Mat (f ) × Mat (g).

.4.1 Des vecteurs aux vecteurs colonnes


Définition .16
Soit B = (e1 , . . . , en ) une base de E. Pour tout X ∈ E, on appelle matrice-colonne des composantes de X
dans B le vecteur  
x1
 .. 
Mat B (X) =  .  ∈ Mn,1 (K) = Kn ,
xn
n
X
où X = xk .ek .
k=1

Page 4/8
E XEMPLES
 
1
 
 n(n−1)  n
Dans Rn [X], B est la base canonique et P (X) = (X + 1)n . Alors Mat B (P ) =  2  .
 
 . 
 .. 
1

Il est clair que Mat B E −→ Kn est un isomorphisme de K− espaces vectoriels de dimension


X 7−→ Mat B (X)
n.

.4.2 Des endomorphismes aux matrices


Enfin, nous pourrons faire de même avec les endomorphismes :
Définition .17 (Matrice d’endomorphisme)
Soit B = (e1 , . . . , en ) une base de E, et f ∈ L (E). On appelle matrice de f dans la base B la matrice carrée
suivante :  
a1,1 . . . a1,n
Mat B (f ) =  ... ..  ∈ M (K),

.  n
an,1 ... an,n
n
X
où pour tout j ∈ [[1, n]], f (ej ) = ak,j .ek .
k=1

La construction de cette matrice s’effectue selon les colonnes. La colonne 1 nous est donnée par l’image du
premier vecteur de B par f .
E XEMPLES

B f : P ∈ R3 [X] 7→ P(X +1) ∈ R3 [X] dans la base canonique B0 , puis la base B1 = X(X −1), X(X −
2), (X − 1)(X − 2) .
0
B Même question
  avec g  : P ∈ Rn [X]
 7→ P ∈ Rn [X] dans la base canonique.
x x+y
B Soit f : y  ∈ R2 7→  x − z  ∈ R3 . Ecrire la matrice de f dans la base canonique de R3 .
z 2y − 3z
MORALITE : Dans le cours sur les applications linéaires, nous avions construit une application

L Mn (R) −→ L (Rn ) .
A 7−→ LA

Nous venons maintenant de définir une nouvelle application

Mat B0 L (Rn −→ Mn (R) .


f 7−→ Mat B0 (f )
Ce ne sont pas de trop mauvaises définitions puisqu’elles sont réciproques l’une de l’autre
si B0 est la base canonique de Rn . Ce qui signifie que la matrice de LA dans la base canonique est
A et que l’endomorphisme canoniquement associé à Mat B0 (f ) est f :

∀f ∈ L (Rn ), LMat B (f ) = f,
0

∀A ∈ Mn (R), Mat B0 (LA ) = A.

Proposition .18
Soit E un espace vectoriel de dimension n et f ∈ L (E). Alors,

Page 5/8
1. f est un projecteur de E ⇐⇒ il existe une base B de E dans laquelle

Mat B (f ) = Diag (1, . . . , 1, 0, . . . , 0) ∈ Mn (K).

2. f est une symétrie de E ⇐⇒ il existe une base B de E dans laquelle

Mat B (f ) = Diag (1, . . . , 1, −1, . . . , −1) ∈ Mn (K).

Nous poursuivons avec


Propriétés .19
Soit E = (e1 , . . . , ep ) une base de E. Alors, l’application

Ψ L (E) −→ Mn (K)
f 7−→ Mat E (f )

est un isomorphisme de K−algèbres.


De manière plus anecdotique, on peut aussi définir :
Définition .20
Soit B = (e1 , . . . , en ) une base de E.
 Pour toute familleF = (X1 , ...Xp ) de vecteurs de E, on appelle matrice des composantes de
x1,1 . . . x1,p
F dans B le vecteur Mat B (X) =  .. ..  ∈ M (K),
n,p
. .
xn,1 . . . xn,p
n
X
où pour tout j ∈ [[1, p]], Xj = xk,j .ek .
k=1

Définition .21 (Matrice d’une application linéaire)


Soit E = (e1 , . . . , ep ) une base de E, et F = (f1 , . . . , fn ) une base de F , et f ϕ ∈ L (E, F ). On appelle matrice de ϕ dans les bases E
et F la matrice suivante :  
a1,1 . . . a1,p
Mat E ,F (ϕ) =  .. ..  ∈ M ( K),
n,p
. .
an,1 . . . an,p
n
X
où pour tout j ∈ [[1, p]], ϕ(ej ) = ak,j .fk .
k=1

E XEMPLES
B L’application linéaire associée à l’évaluation lagrangienne, qui conduit à une matrice de Van Der Monde.

Propriétés .22
Soit E = (e1 , . . . , ep ) une base de E, et F = (f1 , . . . , fn ) une base de F L’application
Ψ L (E, F ) −→ Mn,p (K
f 7−→ Mat E ,F (f )
est un isomorphisme de K−algèbres.

Proposition .23
Soient E , F , G des bases des espaces vectoriels E, F, G.
I Si f ∈ L (E, F ) et g ∈ L (F, G), alors MatE ,G (g ◦ f ) = MatF ,G (g) × MatE ,F (f ).
k
I Si f ∈ L (E), alors pour tout k ∈ N, MatE (f k ) = (MatE (f )) .

Proposition .24
Si A est la matrice de f dans une base (ou un couple de bases), alors Rang A = Rang f .

Page 6/8
Remarques :
Il faut savoir interpréter les blocs de zéros dans la matrice de f comme la stabilité de sous-espaces
vectoriels stables. Par exemple,
I La matrice d’un endomorphisme f de E est triangulaire ⇔ pour tout k ∈ [[1, n]], Vect (e1 , ...ek ) est
stable par f .  
A B
I Soit E = (e1 , . . . , en ). MatE (f ) est de la forme , où A est carrée de taille k ⇔
0 C
Vect (e1 , ..., ek ) est stable par A.
I Si E = ⊕ni=1 Fi , si tous les Fi sont stables par f et si B est une base adaptée à cette décomposition
de E, alors la matrice de f dans la base B est diagonale par blocs.

.5 Changements de base
Les deux relations que nous allons définir sont des relations d’équivalence sur l’espace des matrices.
I Deux matrices A, B ∈ Mn (K) sont dites semblables lorsque il existe P ∈ GLn telle que B = P −1 AP .
L’ensemble des matrices semblables à A est appelée classe de similitude de A.
Dans ce cas, pour tout k ∈ N, B k = P −1 Ak P .
I Deux matrices A, B ∈ Mn,p (K) sont dites équivalentes lorsque il existe P ∈ GLp et Q ∈ GLn telles que
B = Q−1 AP .

Proposition .25
1. Si A et B sont semblables, elles sont équivalentes.
2. Si A et B sont semblables, elles ont même trace, même déterminant, même rang.

Deux matrices équivalentes n’ont pas forcément même trace, ni même déterminant. En revanche, elles ont
même rang, et même :
Théorème .26
Deux matrices sont équivalentes ⇐⇒ elles ont même rang. En particulier, si on note r le rang de M , M est
semblable à Diag(1, . . . , 1, 0, . . . , 0), matrice qui contient exactement r coefficients égaux à 1.

Définition .27
Soit E un ev de dimension n et B, B 0 deuxPn bases de E. On appelle matrice de passage de B à B 0 et on note
B0 B0
PB = (ai,j ) ∈ Mn , où ∀j ∈ [[1, n]], ej = i=1 aij ei . PB = Mat B0 ,B (Id).
0

Proposition .28
Soient B1 , B2 , B3 trois bases de E.
B1
1. PB1
= In
B2 B3 B3
2. PB1
× PB 2
= PB1
.
B2 B2 B1 −1
3. PB1
∈ GLn (K) et PB1
= (PB 2
) .

Réciproquement, si on se fixe B, l’application qui à B 0 associe P est bijective dans GLn , i.e toute matrice
inversible peut être vue comme une matrice de passage.
Théorème .29 (de changement de base)
I Pour les vecteurs : Soit x ∈ E, X, X 0 ses matrices coordonnées dans les bases B et B 0 de E. Alors
B0
X 0 = PB X.
I Pour les endomorphismes : Soient B et B 0 deux bases de E, f ∈ L (E), M = MatB (f ) et M 0 =
0
MatB0 (f ). Alors, si on note P = PBB , on a M 0 = P −1 M P .

Page 7/8
I Pour les applications linéaires : Soient B et B 0 deux bases de E, F et F 0 deux bases de F ,f ∈
0 0
L (E, F ), M = MatB,calf (f ) et M 0 = MatB0 ,F 0 (f ). Alors, si on note P = PBB , P = PFF on a
M 0 = Q−1 M P .

.6 Le déterminant, la Trace
.7 Les polynômes

A Les preuves à connaitre...


Aucune, petits veinards !

B Les figures imposées

E XERCICES
1./ Montrer que l’ensemble des matrices qui commutent avec A = Diag(1, 2, . . . , n) est l’ensemble des
polynômes en A.
   
0 0 0 −1 0 0
2./ Montrer que 1 1 −1 est semblable à  0 0 0.
2 2 −2 0 0 0

2a a 0

a ... ... 0

3./ Pour a ∈ K∗ , calculer dn = .
.. ..

. . a

0 a 2a
4./ Soit θ ∈ R, n ∈ N∗ . Décomposer en produit d’irréductibles dans C[X] puis dans R[X] le polynôme
P (X) = X 2n − 2X n cos(nθ) + 1.

Page 8/8
PSI***
Année scolaire
Déterminant 2018/2019

1. Déterminant d’une matrice carrée

Propriété – Effet des opérations élémentaires


Soit A = (C1 · · · Cn ) ∈ Mn (K).
• Si B est obtenue à partir de A par l’opération Ci ↔ Cj (i 6= j), alors

det(B) = − det(A).

• Si B est obtenue à partir de A par l’opération Ci ← Ci + λCj (i 6= j), alors on a :

det(B) = det(A).

• Si B est obtenue à partir de A par l’opération Ci ← λCi (λ ∈ K), alors on a :

det(B) = λ det(A).

• Pour tout λ ∈ K, det(λA) = λn det(A).

Corollaire – Matrices inversibles et déterminant


Soit A ∈ Mn (K). Pour que A soit inversible, il faut et il suffit que det(A) 6= 0.

Propriété
Soient A et B deux éléments de Mn (K). Alors det(AB) = det(A) det(B).

Propriété
1
Si A est inversible, det(A−1 ) = .
det(A)

Propriété
Deux matrices semblables ont le même déterminant.

Propriété
Si A est une matrice carrée, on a det(A) = det(tA).

Corollaire
Toutes les propriétés du déterminant par rapport aux colonnes sont également vraies
par rapport aux lignes.

1
2. Déterminant d’une famille de vecteurs
Soient E un K-espace vectoriel de dimension finie n et B une base de E.

Définition – Déterminant d’une famille de vecteurs dans une base


Soit F = (u1 , . . . ,un ) une famille de n vecteurs de E. On appelle déterminant de F
dans la base B, le déterminant de la matrice de F dans la base B.
Il est noté detB (u1 , . . . ,un ).

Théorème – Caractérisation des bases


Une famille (u1 , . . . ,un ) de vecteurs de E est une base de E si et seulement si

detB (u1 , . . . ,un ) 6= 0.

3. Déterminant d’un endomorphisme


Soit E un K-espace vectoriel de dimension finie n.

Propriété
Soit u ∈ L (E). Toutes les matrices représentant l’endomorphisme u ont le même
déterminant : si B et B ′ sont deux bases de E, si A = MatB (u) et B = MatB′ (u), alors
det(A) = det(B).

Définition – Déterminant d’une application linéaire


On définit le déterminant de u ∈ L (E) comme le déterminant d’une quelconque de
ses matrices.

Propriété
Soient u et v deux endomorphismes de E.
• Pour tout λ ∈ K, det(λu) = λn det(u).
• det(u ◦ v) = det(u) × det(v).
• u est un isomorphisme si et seulement si det(u) 6= 0. Dans ce cas
1
det(u−1 ) = .
det(u)

4. Matrices triangulaires
Propriété – Déterminant d’une matrice triangulaire
Soit (ai,j )16i6j6n une famille de scalaires. Alors

a1,1 · · · ··· a1,n

.. .. Y n
0 . .
.. = ai,i

. . ..
.. .. . . i=1

0 ··· 0 an,n

(de même pour une matrice triangulaire inférieure).

2
5. Calculs de déterminants par blocs

Lemme
On suppose n > 2. Soit B ∈ Mn−1 (K), L ∈ M1,n−1 (K) et C ∈ Mn−1,1 (K). Alors les
matrices définies par blocs
   
1 L B C
A= et A′ =
0 B 0 1

ont pour déterminant det(B).

Propriété
 
B C
Soit A une matrice carrée de la forme A = , avec B et D des matrices carrées.
0 D
Alors det(A) = det(B) × det(D).

Propriété – Matrice triangulaire par blocs ou diagonale par blocs


• Soit
   
A1 A1,2 · · · A1,m A1 0 ··· 0
 .. .. ..   .. .. .. 
0 . . .  0 . . . 
A=
 .
 ou A = 
 .

 .. .. .. 
 .. .. .. 
. . Am−1,m  . . 0 
0 ··· 0 Am 0 ··· 0 Am

une matrice triangulaire par blocs ou diagonale par blocs. Alors


m
Y
det(A) = det(A1 ) × · · · × det(Am ) = det(Ai ).
i=1

• Soient E un K-espace vectoriel de dimension finie, u ∈ L (E) et E1 , . . . ,Em des


sous-espaces vectoriels de E stables par u tels que E = E1 ⊕ · · · ⊕ Em . Alors
m
Y
det(u) = det(u|E1 ) × · · · × det(u|Em ) = det(u|Ei ).
i=1

6. Développement d’un déterminant par rapport aux lignes et colonnes


Théorème – Développement par rapport à une ligne ou une colonne

Soit A ∈ Mn (K). Pour tout (i,j) ∈ [[1,n]]2 , soit Ai,j ∈ Mn−1 (K) la matrice obtenue en
supprimant la i-ème ligne et la j-ème colonne de A. Alors :
• Développement par rapport à la j-ième colonne :
n
X
det(A) = ai,j (−1)i+j det(Ai,j ).
i=1

• Développement par rapport à la i-ième ligne :


n
X
det(A) = ai,j (−1)i+j det(Ai,j ).
j=1

3
PSI* Problème de révision n°1
Année scolaire
2018/2019

Partie I. Étude de deux applications

La notation R2 [X] désigne le R-espace vectoriel des polynômes à coefficients réels de degré inférieur
ou égaux à 2. On identifiera dans la suite de ce problème les éléments de R2 [X] et leurs fonctions
polynomiales associées. On note B = (1, X, X 2 ) la base canonique de R2 [X].
On définit les deux applications suivantes :

f : R2 [X] → R2[X]   
1 X X +1
P 7→ P +P
2 2 2
et
φ : R2 [X] → R
P 7→ P (1)

1. Vérifier que f est bien à valeurs dans R2 [X] et montrer que f est linéaire.

2. Écrire la matrice de f dans la base B de R2 [X], en indiquant les calculs intermédiaires.

3. L’application f est-elle injective ? surjective ?

4. Montrer que φ est linéaire.

5. Déterminer une base de Ker(φ). Quelle est la dimension de Ker(φ) ?

6. L’application φ est-elle injective ? surjective ?

Partie II. Calcul des puissances successives d’une matrice

On note I3 la matrice identité de M3 (R) et A la matrice

1 14 18
 

A = 0 12 14 
0 0 14

Enfin, on note B 0 la famille de R2 [X] définie par

B 0 = (1, −2X + 1, 6X 2 − 6X + 1)

1. Justifier que la famille B 0 est une base de R2 [X]


2. Ecrire la matrice de passage Q de B à B 0 .

3. Justifier que Q est inversible et calculer son inverse.

4. Ecrire la matrice M de f dans la base B 0 en donnant les calculs intermédiaires.

5. Calculer An pour tout n ∈ N. On explicitera les neufs coefficients de An .

6. Pour n ∈ N et P = a + bX + cX 2 avec (a, b, c) ∈ R3 , déterminer f n (P ) en fonction de a, b, c.


On rappelle que l’on note f 0 = IdR2 [X] , et pour tout n ∈ N∗ , f n = f ◦ f n−1 .

7. En déduire que : Z 1
n
∀P ∈ R2 [X], lim φ (f (P )) = P (t)dt.
n→+∞ 0

1/2
Partie III. Une autre preuve du résultat précédent

1. À l’aide d’un raisonnement par récurrence, démontrer que :


2n −1  
∗ n 1 X X +k
∀P ∈ R2 [X], ∀n ∈ N , f (P ) = n P
2 2n
k=0

2. En déduire, en utilisant un résultat du cours d’analyse que l’on énoncera avec précision, que
Z 1
n
∀P ∈ R2 [X], lim φ (f (P )) = P (t)dt
n→+∞ 0

Fin de l’énoncé

2/2
PSI* Problème de révision n°1
Correction
Année scolaire
2018/2019

Partie I. Étude de deux applications

1. Pour tout P ∈ R2 [X], on a :


       
X X +1 X X +1
deg(P +P ) ≤ max(P ,P ) = max(P (X) , P (X)) ≤ 2.
2 2 2 2
Donc f est bien à valeurs dans R2 [X]. Elle est de plus linéaire car pour tout P, Q ∈ R2 [X] et
λ, µ ∈ R, on a :
    
1 X X +1
f (λP + µQ) = (λP + µQ) + (λP + µQ)
2 2 2
       
λ X λ X +1 µ X µ X +1
= P + P + Q + Q
2 2 2 2 2 2 2 2
= λf (P ) + µf (Q)

Donc f est linéaire et est un endomorphisme de R2 [X].

X X+1 X 1
2. f (1) = 1, f (X) = 4 + 4 = + 4 et
2
X 2 X 2 + 2X + 1
f (X 2 ) = + .
8 8
Ainsi la matrice de f dans la base B de R2 [X] est :
 
1 1/4 1/8
M atB (f ) = 0 1/2 1/4 .
0 0 1/4

3. La matrice M atB (f ) est triangulaire supérieure avec des coefficients non nuls sur la diagonale.
On en déduit qu’elle est inversible. En particulier f est un automorphisme de R2 [X]. Elle est
donc en particulier injective et surjective.
4. Pour tout P, Q ∈ R2 [X] et λ, µ ∈ R, on a :

φ(λP + µQ) = (λP + µQ)(1) = λP (1) + µQ(1) = λφ(P ) + µφ(Q)

Donc φ est linéaire, c’est une forme linéaire.


5. On a P ∈ Ker(φ) ⇔ P (1) = 0 ↔ (X − 1)|P . Ainsi on a :

Ker(φ) = {(aX + b)(X − 1)|a, b ∈ R} = V ect(X(X − 1), (X − 1)).

Comme les vecteurs X(X −1) et X −1 ne sont pas colinéaires, on en déduit que (X(X −1), X −1)
est une base de Ker(φ), et donc que dim Ker(φ) = 2.
6. L’application φ n’est pas injective car Ker(φ) 6= {0E }. Elle est surjective car par le théorème
du rang rg(φ) = 1 = dim(R). Puisque Im(φ) ⊂ R, on a bien Im(φ) = R et φ est surjective.

Partie II. Calcul des puissances successives d’une matrice

1. La famille B 0 est de degré échelonnée, donc c’est une famille libre de 3 vecteurs de R2 [X]. Puisque
la dimension de R2 [X] est 3, on en déduit que c’est une base de cet espace.
 
1 1 1
2. Q = 0 −2 −6.
0 0 6

1/3
3. Q est inversible en tant que matrice de passage entre deux bases (ou parce que Q est triangulaire
supérieure à coefficients diagonaux non nuls). On calcule son inverse par le pivot de Gauss, on
obtient :  
1 1/2 2/6
Q−1 = 0 −1/2 −3/6 .
0 0 1/6

1
4. f (1) = 1, f (−2X + 1) = −2f (X) + f (1) = (−2X + 1) et :
2
1
f (6X 2 − 6X + 1) = 6f (X 2 ) − 6f (X) + f (1) = (6X 2 − 6X + 1).
4
Ainsi on obtient :  
1 0 0
M = 0 1/2 0  .
0 0 1/4

5. On a A = M atB (f ), M = M atB0 (f ) et Q = PB,B0 . Par les formules de changement de bases, on


en déduit que :
M = Q−1 AQ ⇒ A = QM Q−1 .
Dès lors, A0 = I3 , A1 = QM Q−1 , A2 = QM Q−1 QM Q−1 = QM I3 M Q−1 = QM 2 Q−1 . On
montre alors par récurrence (laissée au lecteur, faites là si cela n’est pas clair pour vous !) que
pour tout n ∈ N :
An = QM n Q−1 .
Or M est une matrice diagonale, d’où immédiatement :
 
1 0 0
M n = 0 1/2n 0 .
0 0 1/4n

Reste à présent à faire le produit matriciel An = QM n Q−1 dont on connait tous les termes. On
trouve :  1  1 
1 1 − 21n 1 + 21n
An = 0 2 1 3
 
2n 0 
1
0 0 2n

6. Soit n ∈ N et P = a + bX + cX 2 avec (a, b, c) ∈ R3 , on a grâce à l’expression de An :


 2     
n 2 X 1 1 X 1 1
f (P ) = af (X ) + bf (X) + cf (1) = a n + 1+ n +b ( n + 1− n + c.
2 3 2 2 2 2
   
1 1 1 1 1 1 a b
φ(f n (P ))
 
7. On a = a n+ 1 + 2n + b ( n + 1− 2n + c qui tend vers + +c =
2 3 2 2 3 2
Z 1 Z 1
at2 + bt + c dt = P (t)dt. D’où le résultat.
0 0

Partie III. Une autre preuve du résultat précédent

1. La propriété est vraie au rang 1 par définition de f .


Soit n ∈ N∗ et supposons la propriété vraie au rang n. Au rang n + 1, on a pour tout P ∈ R2 [X]
:

f n+1 (P ) = f n ◦ f (P )
     
n 1 X X +1
=f P +P
2 2 2

2/3
     
1 n X n X +1
= f P +f P par linéarité de f n
2 2 2
X +k
 
n −1
1
2X 
X +k

n
+ 1
= n+1 P +P  2  par hypothèse de récurrence
 
2 2 n+1 2
k=0
n −1
2X
X + k + 2n
  
1 X +k
= P +P
2n+1 2n+1 2n+1
k=0
n −1
2X 2n −1
X + k + 2n
   
1 X +k 1 X
= P + n+1 P
2n+1 2n+1 2 2n+1
k=0 k=0
n −1 2n+1
1
2X 
X +k

1 X−1 
X +k

= P + P par changement de variables
2n+1 2n+1 2n+1 2n+1
k=0 k=2n
2n+1
X−1  
1 X +k
= P
2n+1 2n+1
k=0

D’où la propriété au rang n + 1. On conclut par principe de récurrence.

2. On en déduit que pour tout P ∈ R2 [X], n ∈ N∗ ,


2n −1   2n  
n 1 X 1+k 1 X k
φ(f (P )) = n P = P
2 2n 2n 2n
k=0 k=1

On reconnait une somme de Riemann associée à P entre 0 et 1. P étant une fonction continue
sur R, on en déduit que : Z 1
lim φ (f n (P )) = P (t)dt
n→+∞ 0

3/3
PSI* Problème de révision n°2
Année scolaire
2018/2019

Suite des noyaux et images itérés

Soit E un K-espace vectoriel et u ∈ L(E) un endomorphisme non nul. Notons pour tout k ∈ N :

Nk = Ker(uk ) et Ik = Im(uk ).

I. Étude d’un exemple


Considérons le R-espace vectoriel R3 , B = (e1 , e2 , e3 ) une base de R3 et u ∈ L(R3 ) défini par :

u(e1 ) = 0 , u(e2 ) = e1 + 2e2 + 3e3 , u(e3 ) = e1 .

1. Déterminer pour tout entier k ∈ N, Nk et Ik . On en donnera une base.

2. Montrer que N2 et I2 sont supplémentaires dans R3 .

3. Montrer que la restriction de u à N2 est un endomorphisme nilpotent (on précisera l’ordre de


nilpotence).
Montrer que la restriction de u à I2 est une homothétie de rapport 2.

II. Monotonie
1. Montrer que pour tout k ∈ N, Nk et Ik sont des sous-espaces vectoriels de E stables par u.

2. Montrer que pour tout entier naturel k : Nk ⊂ Nk+1 et Ik+1 ⊂ Ik .

3. On suppose qu’il existe un entier naturel p tel que Np = Np+1 . Montrer que pour tout entier
naturel k, Np = Np+k .

4. On suppose qu’il existe un entier naturel q tel que Iq = Iq+1 . Montrer que pour tout entier
naturel k, Iq = Iq+k .

III. En dimension finie


Dans cette partie, l’espace vectoriel E est supposé de dimension finie non nulle n. Pour tout k ∈ N,
on note nk = dim(Nk ) et ik = dim(Ik )
(
∀k ∈ [|0, p − 1|], Nk 6= Nk+1
1. Montrer qu’il existe p ∈ N tel que .
∀k ∈ N, k ≥ p ⇒ Nk = Nk+1
Penser à utiliser la suite des dimensions (nk ).
(
∀k ∈ [|0, q − 1|], Ik 6= Ik+1
2. Montrer qu’il existe q ∈ N tel que .
∀k ∈ N, k ≥ q ⇒ Ik = Ik+1

3. Montrer que p = q ≤ n.

4. Montrer que E = Np ⊕ Ip .

5. Montrer que la restriction de u à Np est un endomorphisme nilpotent (préciser l’ordre de nilpo-


tence).
Montrer que la restriction de u à Ip est un automorphisme de Ip .

1/2
6. Facultatif. Pour tout k ∈ N, on note δk = ik − ik+1 .

(a) Montrer que pour tout k ∈ N, δk = nk+1 − nk .


On désire montrer que la suite (δk ) est décroissante.
(b) Justifier l’existence d’un sous-espace vectoriel Dk tel que Ik = Ik+1 ⊕ Dk et déterminer
dim(Dk ).
(c) Établir que Ik+1 = Ik+2 + u(Dk ).
(d) En déduire que δk+1 ≤ δk pour tout k ∈ N.
(e) Application. Supposons que u soit un endomorphisme nilpotent et que dim(Ker(u)) = 1.
Déterminer l’indice de nilpotence de u.

III. Cas de la dimension quelconque (facultatif )


Dans cette partie, l’espace vectoriel E n’est plus supposé de dimension finie.

1. (a) Donner un exemple d’espace vectoriel E et d’endomorphisme u de E où la suite (Nk ) est
constante à partir d’un certain rang et la suite (Ik ) est strictement décroissante (au sens
de l’inclusion).
(b) Même question avec la suite (Nk ) strictement croissante (au sens de l’inclusion) et la suite
(Ik ) constante à partir d’un certain rang.

2. On suppose que les suites (Nk ) et (Ik ) sont constantes à partir d’un certain rang, et on introduit
les entiers p et q définis comme en II. 1. et 2..

(a) Montrer que pour tout entier naturel k :

(Nk = Nk+1 et Ik+1 = Ik+2 ) ⇒ (Ik = Ik+1 ),

(Ik = Ik+1 et Nk+1 = Nk+2 ) ⇒ (Nk = Nk+1 ).

(b) En déduire que p = q.

Fin de l’énoncé

2/2
PSI* Problème de révision n°2
Correction
Année scolaire
2018/2019

Suite des noyaux et images itérés

I. Étude d’un exemple


Considérons le R-espace vectoriel R3 , B = (e1 , e2 , e3 ) une base de R3 et u ∈ L(R3 ) défini par :

u(e1 ) = 0 , u(e2 ) = e1 + 2e2 + 3e3 , u(e3 ) = e1 .

1. Tout d’abord, rappelons qu’une telle application linéaire u existe et est unique (cours - définition
d’une application linéaire par l’image d’une base).

ˆ k = 0. Alors u0 = IdE , et N0 = Ker(IdE ) = {0E }, I0 = Im(IdE ) = E.


ˆ k = 1. On détermine N1 = Ker(u) pour commencer : soit x = ae1 + be2 + ce3 ∈ R3 , on a :

u(x) = 0E ⇔ b(e1 + 2e2 + 3e3 ) + ce1 = 0E


⇔ (b + c)e1 + 2be2 + 3be3 = 0E

(b + c) = 0

⇔ 2b = 0 par liberté de la famille (e1 , e2 , e3 )

3b = 0

⇔b=c=0

Ainsi, on a Ker(u) = {ae1 , a ∈ R} = V ect(e1 ).


On détermine à présent Im(u). D’après le cours, on a :

Im(u) = V ect(u(e1 ), u(e2 ), u(e3 )) = V ect((e1 + 2e2 + 3e3 ), e1 ).

Enfin une base de N1 est donnée par (e1 ) (un vecteur non nul donc libre, et génératrice),
et une base de I1 est donnée par ((e1 + 2e2 + 3e3 ), e1 ) (deux vecteurs non colinéaires donc
famille libre, et génératrice).
ˆ k = 2. On a :

u2 (e1 ) = 0E , u2 (e2 ) = u(e1 +2e2 +3e3 ) = 2(e1 +2e2 +3e3 )+3e1 = 5e1 +4e2 +6e3 , u2 (e3 ) = 0E .

Déterminons maintenant N2 = Ker(u2 ). Soit x = ae1 + be2 + ce3 ∈ R3 , on a :

u2 (x) = 0E ⇔ b(5e1 + 4e2 + 6e3 ) = 0E


⇔ b = 0 car 5e1 + 4e2 + 6e3 6= 0E car cette famille est libre !

Ainsi, on a Ker(u) = {ae1 + ce3 , a, c ∈ R} = V ect(e1 , e3 ).


Déterminons I2 = Im(u2 ) :

Im(u2 ) = V ect(u2 (e1 ), u2 (e2 ), u2 (e3 )) = V ect(5e1 + 4e2 + 6e3 ).

Enfin une base de N2 est donnée par (e1 , e3 ) et une base de I2 est donnée par (5e1 +4e2 +6e3 ).

1
ˆ k ≥ 3. On a :

u3 (e1 ) = 0E , u3 (e2 ) = u(5e1 +4e2 +6e3 ) = 4(e1 +2e2 +3e3 )+6e1 = 2(5e1 +4e2 +6e3 ), u2 (e3 ) = 0E .

On montre alors de même que précédemment que N3 = V ect(e1 , e3 ) et I3 = V ect(5e1 +


4e2 + 6e3 ).
Plus généralement, on montre par récurrence que pour tout k ≥ 3:

uk (e1 ) = 0E , uk (e2 ) = 2k−2 (5e1 + 4e2 + 6e3 ), uk (e3 ) = 0E ,

et que Nk = V ect(e1 , e3 ) et Ik = V ect(5e1 + 4e2 + 6e3 ).

2. On a déjà que dim(N2 ) = 2 et dim(I2 ) = 1, donc dim(N2 ) + dim(I2 ) = 3. Soit à présent


x ∈ I2 ∩ N2 . Alors il existe (λ, µ, ν) ∈ R2 tels que :

x = λe1 + µe3 = ν(5e1 + 4e2 + 6e3 )

Alors :

(λ − 5ν)e1 + (−4ν)e2 + (µ − 6ν)e3 = 0E



λ − 5ν = 0

Puisque la famille (e1 , e2 , e3 ) est libre, on en déduit −4ν = 0 ⇔ λ = µ = ν = 0. Ainsi

µ − 6ν = 0

x = 0E et on a montré que N2 ∩ I2 = {0E } (l’inclusion N2 ∩ I2 ⊃ {0E } étant immédiate).
Finalement on a bien que :
E = N2 ⊕ I2 .

3. On a N2 = V ect(e1 , e3 ), et u(e1 ) = 0E , u(e3 ) = e1 . Ainsi u(N2 ) ⊂ N2 et la restriction de u à N2


est bien un endomorphisme de N2 . Il est de plus nilpotent puisqu’on a u2 (e1 ) = 0E = u2 (e3 ).
Comme enfin u(e3 ) = e1 6= 0E , son indice de nilpotence est 2.
On a vu que I2 = V ect(5e1 + 4e2 + 6e3 ) et que u(5e1 + 4e2 + 6e3 ) = 2(5e1 + 4e2 + 6e3 ). Donc la
restriction de u à I2 est bien une homothétie de rapport 2.

II. Monotonie

Rappel. Un sous-espace vectoriel F d’un espace vectoriel E est stable par u ∈ L(E) si u(F ) ⊂ F .

Important. Lorsqu’un sous-espace vectoriel F est stable par u ∈ L(E), u induit un endomorphisme
de F . Il est souvent très utile de considérer cet endomorphisme induit !

1. On va montrer le résultat général suivant (Exercice 7 de la feuille de TD20) :

Propriété. Soit f, g ∈ L(E) des endomorphismes qui commutent, c’est à dire f ◦ g = g ◦ f .


Alors Ker(f ) et Im(f ) sont stables par g.

Preuve.

ˆ g(Ker(f )) ⊂ Ker(f ). Soit x ∈ Ker(f ), on a :

f (x) = 0E ⇒ g(f (x)) = 0E ⇒ f (g(x)) = 0E .

Ainsi on a bien g(x) ∈ Ker(f ).

2
ˆ g(Im(f )) ⊂ Im(f ). Soit y ∈ Im(f ), il existe x ∈ E tel que y = f (x). Alors on a :

g(y) = g(f (x)) = f (g(x)) ∈ Im(f ).

Le résultat s’en suit immédiatement : en effet pour tout k ∈ N, Nk = Ker(uk ) et Ik = Im(uk )


et uk et u commutent bien. D’où le résultat par la propriété précédente.

2. ˆ Nk ⊂ Nk+1 . Soit x ∈ Nk , on a uk (x) = 0E . Alors en composant par u :

uk+1 (x) = u(uk (x)) = u(0E ) = 0E .

Ainsi on a bien x ∈ Nk+1 .


ˆ Ik+1 ⊂ Ik . Soit y ∈ Ik+1 , alors il existe x ∈ E tel que y = uk+1 (x). Mais alors on a :

y = uk (u(x)) ∈ Im(uk ).

Ainsi on a bien y ∈ Ik .

3. Montrons par récurrence que pour tout entier naturel k, Np = Np+k .

ˆ La propriété est vraie pour k = 0 et k = 1 (par hypothèse).


ˆ Soit k ≥ 1 et supposons la propriété au rang k vraie, c’est à dire Np = Np+k . Puisqu’on a :

Np ⊂ Np+1 ⊂ · · · ⊂ Np+k ,

on en déduit que Np = Np+1 = · · · = Np+k .


Par la question précédente, on a déjà que Np+k ⊂ Np+k+1 . Soit à présent x ∈ Np+k+1 . On
a:
up+k+1 (x) = 0E ⇒ up+k (u(x)) = 0E .
Ainsi on a u(x) ∈ Ker(up+k ) = Ker(up+k−1 ) et donc :

up+k−1 (u(x)) = 0E ⇒ up+k (x) = 0E .

Finalement on a bien x ∈ Ker(up+k ) et donc Np+k ⊃ Np+k+1 . D’où la propriété au rang


k + 1.

On conclut par principe de récurrence.

4. Montrons par récurrence que pour tout entier naturel k, Iq = Iq+k .

ˆ La propriété est vraie au rang k = 0 et k = 1 (par hypothèse).


ˆ Soit k ≥ 1 et supposons la propriété au rang k vraie, c’est à dire Iq = Iq+k . Puisque :

Iq+k ⊂ Iq+k−1 ⊂ · · · ⊂ Iq ,

alors on a Iq+k = Iq+k−1 = · · · = Iq .


Montrons que Iq+k+1 = Iq+k . On a déjà l’inclusion Iq+k+1 ⊂ Iq+k par une question
précédente. Montrons l’inclusion réciproque : soit z ∈ Iq+k , il existe donc x ∈ E tel
que z = uq+k (x) = u(uq+k−1 (x)). Or uq+k−1 (x) appartient à Iq+k−1 , qui est égal à Iq+k
par hypothèse. Donc il existe y ∈ E tel que uq+k−1 (x) = uq+k (y). Ainsi on a bien :

z = u(uq+k−1 (x)) = u(uq+k (y)) = uq+k+1 (y) ∈ Iq+k+1 .

D’où finalement l’inclusion Iq+k+1 ⊃ Iq+k , et donc la propriété au rang k + 1.

On conclut par principe de récurrence.

3
III. En dimension finie
1. La suite des dimensions (nk ) est une suite d’entiers naturels croissante d’après II.2., et majorée
par n = dim(E). Elle est donc constante à partir d’un certain rang, et il existe s ∈ N tel que
ns = ns+1 . Dès lors on a : (
ns = ns+1
⇒ Ns = Ns+1 .
Ns ⊂ Ns+1
Considérons p le plus petit entier tel que Np = Np+1 (un tel entier existe car A = {k ∈ N/Nk =
Nk+1 } est une partie non vide (contient s) de N). Alors on a :

ˆ ∀k ∈ [|0, p − 1|], Nk 6= Nk+1 par définition de p.


ˆ ∀k ∈ N, k ≥ p ⇒ Nk = Nk+1 grâce à la question II.3.

2. La suite des dimensions (ik ) est une suite d’entiers naturels décroissante d’après II.2.. Elle est
donc constante à partir d’un certain rang, et il existe t ∈ N tel que it = it+1 . Dès lors on a :
(
it = it+1
⇒ It = It+1 .
It+1 ⊂ It

Considérons q le plus petit entier tel que Iq = Iq+1 . Alors on a :

ˆ ∀k ∈ [|0, q − 1|], Ik 6= Ik+1 par définition de q.


ˆ ∀k ∈ N, k ≥ q ⇒ Ik = Ik+1 grâce à la question II.4.

3. Par le théorème du rang appliqué à uk , on a :

dim(E) = rg(uk ) + dim(Ker(uk )) ⇒ n = ik + nk .

Or la suite (ik ) est strictement décroissante puis constante à partir du rang q, (nk ) est strictement
croissante puis constante à partir du rang p. Comme enfin ∀k ∈ N, ik = n − nk , on a bien que
p = q.
Enfin comme 0 = n0 < n1 < · · · < np ≤ n, on a :

n = np − n0 = (np − np−1 ) + (np−1 − np−2 ) + · · · + (n1 − n0 ) ≥ p.


| {z } | {z } | {z }
≥1 ≥1 ≥1

4. On a déjà par le théorème du rang (appliqué à up que dim(E) = dim(Np ) + dim(Ip ).


Montrons que Np ∩ Ip = {0E }. Soit y ∈ Np ∩ Ip . Il existe x ∈ E tel que y = up (x). Alors on a :

up (y) = 0E ⇒ u2p (x) = 0E .

Donc x appartient à Ker(u2p ), qui est égal à Ker(up ) par définition de p. On obtient :

y = up (x) = 0E .

Ainsi Np ∩ Ip = {0E }, et on a bien :


E = Np ⊕ Ip .

5. On sait déjà que u induit des endomorphismes sur Np et Ip (car ces s.e.v sont stables par u).
Considérons la restriction ũ de u à Np . Alors pour tout x ∈ Np , ũp (x) = up (x) = 0E . Ainsi ũ
est un endomorphisme nilpotent. Comme de plus Np−1 Np , alors il existe x ∈ Np \ Np−1 , et
on a ũp−1 (x) = up−1 (x) 6= 0E . Donc l’indice de nilpotence de ũ est p.
Considérons la restriction ū de u à Ip . Montrons que ū est un automorphisme de Ip . Comme on
est en dimension finie, il suffit de montrer que ū est injective. Soit donc x ∈ Ip tel que ū(x) = 0E .
Alors on a :
u(x) = 0E ⇒ x ∈ Ker(u).

4
Ainsi on a x ∈ N1 ∩ Ip . Or on a vu que N1 ⊂ Np , donc x ∈ Np ∩ Ip = {0E }. On a donc bien
x = 0E , et ū est bien un automorphisme de Ip .

Remarque. Dans la deuxième partie de cette question, on a procédé comme dans la preuve du
théorème du rang.
6. (a) Par le théorème du rang appliqué à uk , on a n = ik + nk pour tout k ∈ N. Ainsi, on obtient
:
δk = ik − ik+1 = (n − nk ) − (n − nk+1 ) = nk+1 − nk .
(b) On a montré que Ik+1 ⊂ Ik . De plus Ik est de dimension finie. Par le cours, on obtient
l’existence d’un supplémentaire Dk de Ik+1 dans Ik :
Ik = Ik+1 ⊕ Dk .
En prenant les dimensions, on obtient dim(Dk ) = ik − ik+1 = δk .
(c) On a Ik+1 = u(Ik ) = u(Ik+1 + Dk ) = u(Ik+1 ) + u(Dk ) = Ik+2 + u(Dk ).
Justifions la troisième égalité, en montrant que si u ∈ L(E) et F, G sont des sous-espaces
vectoriels de E, alors :
u(F + G) = u(F ) + u(G).
En effet pour z ∈ E, on a :
z ∈ u(F + G) ⇔ ∃x ∈ (F + G), z = u(x)
⇔ ∃(x1 , x2 ) ∈ F × G, z = u(x1 + x2 )
⇔ ∃(x1 , x2 ) ∈ F × G, z = u(x1 ) + u(x2 )
⇔ z ∈ u(F ) + u(G)

(d) En prenant les dimensions on a :


dim(Ik+1 ) = dim(Ik+2 + u(Dk )) ≤ dim(Ik+2 ) + dim(u(Dk )) ≤ dim(Ik+2 ) + dim(Dk ).
Ainsi, on obtient δk+1 = ik+1 − ik+2 ≤ dim(Dk ) = δk . Ceci étant vrai pour tout k ∈ N, on
en déduit que (δk ) est décroissante.
(e) Soit u un endomorphisme nilpotent, et p son indice de nilpotence. On a alors :
{0E } = N0 ⊂ N1 ⊂ · · · ⊂ Np = E.
De plus, on a montré que ces inclusions sont strictes : en effet s’il existe 0 ≤ k ≤ p − 1 tel
que Nk = Nk+1 , alors Nk = Np = E et uk = 0, ce qui contredirait le fait que p soit l’indice
de nilpotence de u. L’indice de nilpotence de u est donc également l’entier p à
partir duquel la suite des noyaux itérés est constante.
Par ce qu’on a fait, on a déjà que p ≤ n (on retrouve ici un résultat déjà obtenu dans le
TD20 - Exercice 29).
On sait que (δk ) est décroissante, et que δ0 = dim(Ker(u)) = 1. Donc pour tout k ∈ N,
on a δk ≤ 1. Comme de plus pour tout 0 ≤ k ≤ p − 1, on a δk > 0 (la suite des noyaux
itérés est strictement décroissante entre 0 ≤ k ≤ p − 1) et que δk = 0 si k ≥ p (la suite des
noyaux itérée est constante pour k ≥ p), on en déduit que :
(
1 si 0 ≤ k ≤ p − 1
δk =
0 si k ≥ p.

Finalement, on a :
n = np = np − n0 = (np − np−1 ) + (np−1 − np−2 ) + · · · + (n1 − n0 )
= δp−1 + δp−2 + · · · + δ0 = p
L’indice de nilpotence de u est donc n.

5
III. Cas de la dimension quelconque (facultatif )

1. Dans cette question on considère E = KN l’espace vectoriel des suites réelles ou complexes. On
note une suite u = (un ) sous la forme d’une liste infinie u = (u0 , u1 , u2 , . . . ).
(a) On considère l’application R : KN → KN suivante, appelée shift à droite :
R : u = (un ) 7→ R(u) = (0, u0 , u1 , u2 , . . . ).
On vérifie sans difficulté que R est une application linéaire injective (montrez le !). On
sait alors (cours sur les applications, ou on le vérifie directement) que Rk est aussi une
application linéaire injective. Ainsi Nk = Ker(Rk ) = {0KN } pour tout k ∈ N et la suite
(Nk ) est constante.
Regardons Ik pour k ∈ N :
Ik = {Rk (u)/u ∈ KN } = {(0, . . . , 0, u0 , u1 , . . . )/ui ∈ K}
| {z }
k fois
N
= {u ∈ K /u0 = u1 = · · · = uk−1 = 0}.
La suite (Ik ) est bien strictement décroissante pour l’inclusion.
(b) On regarde maintenant l’application L : KN → KN suivante, appelée shift à gauche :
L : u = (un ) 7→ R(u) = (u1 , u2 , u3 , . . . ).
On vérifie sans difficulté que L est une application linéaire surjective (montrez le !). Alors
Lk est aussi une application linéaire surjective. Ainsi Ik = Im(Lk ) = KN pour tout k ∈ N
et la suite (Ik ) est constante.
Regardons Nk pour k ∈ N. Soit u = (u0 , u1 , u2 , . . . ) ∈ KN :
u ∈ Nk ⇔ Lk (u) = 0KN
⇔ (uk , uk+1 , uk+2 , . . . ) = 0KN
⇔ ∀s ≥ k, us = 0
La suite (Nk ) est bien strictement croissante pour l’inclusion.

Remarque. On a L ◦ R = IdKN . On retrouve en particulier que R est injective et que L est


surjective (cours sur les applications). MAIS R et L ne sont pas bijectives. En particulier, on
a R ◦ L 6= IdKN puisque :
R ◦ L(u) = (0, u1 , u2 , u3 , . . . ).
Rappelons que pour f, g ∈ L(E), l’implication (f ◦ g = Id ⇒ f, g bijectives) n’est vrai que si on
est EN DIMENSION FINIE !
Ces deux applications sont intéressantes à retenir...

2. (a) ˆ Supposons que (Nk = Nk+1 et Ik+1 = Ik+2 ). Montrons que Ik = Ik+1 . On a déjà que
Ik ⊃ Ik+1 , reste à montrer l’autre inclusion.
Soit y ∈ Ik , alors il existe x1 ∈ E tel que y = f k (x1 ). De plus, on a f (y) ∈ Ik+1 = Ik+2 .
Donc il existe x2 ∈ Ik+2 tel que f (y) = f k+2 (x2 ). On a ainsi
f (y) = f k+1 (x1 ) = f k+2 (x2 ).
En particulier, on a f k+1 (x1 − f (x2 )) = 0E et donc x1 − f (x2 ) ∈ Nk+1 = Nk . On a
donc f k (x1 − f (x2 )) = 0E . Finalement, on a
y = f k (x1 ) = f k+1 (x2 ).
Ainsi y ∈ Ik+1 et on a l’inclusion Ik ⊂ Ik+1 .
ˆ Supposons que (Ik = Ik+1 et Nk+1 = Nk+2 ). Montrons que Nk = Nk+1 . On a déjà
Nk ⊂ Nk+1 .
Soit y ∈ Nk+1 , alors f k (y) ∈ Ik = Ik+1 . Il existe donc x ∈ E tel que f k (y) = f k+1 (x).
Mais alors :
f k+2 (x) = f k+1 (y) = 0E .
Ainsi x ∈ Nk+2 = Nk+1 . On en déduit donc que f k (y) = f k+1 (x) = 0E et donc que y
appartient à Nk . D’où l’inclusion Nk+1 ⊂ Nk .
(b) On suppose donc l’existence de tels entiers p et q. On veut montrer que p = q (on a déjà
ce résultat en dimension finie).
ˆ si p < q, alors (Nq−1 = Nq et Iq = Iq+1 ). Par la question précédente, on aurait alors
Iq−1 = Iq , ce qui contredirait la définition (la minimalité) de l’entier q. Donc on a
p ≥ q.
ˆ si p > q, de même (Ip−1 = Ip et Np = Np+1 ), d’où Np−1 = Np ce qui contredit la
définition de p cette fois. Ainsi on a p ≤ q.
Finalement, on a bien p = q.
PSI* Problème de révision n°3
Année scolaire
2018/2019

Endomorphismes cycliques
Dans tout le problème, E désigne un K-espace vectoriel de dimension finie (K = R ou C).
Pour tout endomorphisme u de E, on note u0 = IdE (application identité de E), et pour tout entier
naturel k, uk+1 = uk ◦ u.
Si Q(X) = q0 + q1 X + · · · + qm X m ∈ K[X], on pose pour tout u ∈ L(E) :

Q(u) = q0 IdE + q1 u + · · · + qm um ∈ L(E).

On dit qu’un endomorphisme u de E est cyclique s’il existe un élément x0 ∈ E tel que :

E = V ect(uk (x0 )/k ∈ N) = V ect(x0 , u(x0 ), u2 (x0 ), . . . ).

Les différentes parties sont dans une large mesure indépendantes.

Partie I. Exemples.
1. Dans cette question, on prend E = R3 . Considérons l’application suivante de R3 dans R3 :

u(x, y, z) = (6z, x − 11z, y + 6z).

(a) Montrer que u est un endomorphisme de R3 .


(b) Calculer u(1, 0, 0) et u2 (1, 0, 0). En déduire que u est un endomorphisme cyclique.

2. Dans cette question, on prend E = Rn [X]. On considère l’endomorphisme de dérivation u défini


pour tout P ∈ E par u(P ) = P 0 .

(a) Soit P0 ∈ E un polynôme de degré d ≥ 0. Montrer que V ect(uk (P0 )/k ∈ N) = Rd [X].
(b) u est-il cyclique ?

3. Dans cette question, E est un K-espace vectoriel de dimension n ≥ 2. Soit u un endomorphisme


nilpotent d’indice p ≥ 2 (i.e. up = 0L(E) et up−1 6= 0L(E) ).

(a) Montrer qu’il existe un vecteur x0 ∈ E tel que (x0 , u(x0 ), . . . , up−1 (x0 )) soit libre.
Que peut-on en déduire sur p ?
(b) En déduire que u est cyclique si et seulement si p = n.

Partie II. Étude générale.


Dans cette partie, on note u un endomorphisme cyclique de l’espace vectoriel E, avec E de dimension
n ≥ 1. On fixe x0 ∈ E tel que E = V ect(uk (x0 )/k ∈ N).

1. (a) Montrer que la famille (x0 , u(x0 ), . . . , un (x0 )) est liée.


(b) Montrer qu’il existe un entier p, maximal, pour lequel la famille (x0 , u(x0 ), . . . , up (x0 )) soit
libre.
(c) Montrer que up+1 (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 )).
(d) Montrer par récurrence que pour tout k ∈ N, uk (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 )).
(e) En déduire que (x0 , u(x0 ), . . . , up (x0 )) est une base de E, et que p = n − 1.

1/2
2. (a) Justifier l’existence de (p0 , . . . , pn−1 ) ∈ Kn tels que :

un (x0 ) = p0 x0 + p1 u(x0 ) + · · · + pn−1 un−1 (x0 ).

Dans la suite, on posera P (X) = X n − pn−1 X n−1 − · · · − p1 X − p0 ∈ K[X].

(b) Déterminer l’image par l’endomorphisme P (u) des vecteurs de la base (x0 , u(x0 ), . . . , un−1 (x0 )).
En déduire que P (u) = 0L(E) .
On dit que P est un polynôme annulateur de u.
(c) Montrer que (IdE , u, . . . , un−1 ) est une famille libre de L(E).
(d) En déduire que :
ˆ il n’existe aucun polynôme non nul Q de degré strictement inférieur à n tel que Q(u) =
0L(E) ;
ˆ P est l’unique polynôme unitaire de degré n tel que P (u) = 0L(E) .
Le polynôme P est appelé le polynôme minimal de u.
(e) Application. Déterminer le polynôme minimal de l’endomorphisme u de la Partie I. 1.

Partie III. Étude du commutant.


Dans cette partie, u désigne toujours un endomorphisme cyclique de l’espace vectoriel E, avec E de
dimension n ≥ 1. On fixe x0 ∈ E tel que E = V ect(uk (x0 )/k ∈ N). On rappelle qu’alors, la famille
(x0 , u(x0 ), . . . , un−1 (x0 )) est une base de E.

1. Montrer que le commutant C(u) = {v ∈ L(E)/u ◦ v = v ◦ u} est un sous-espace vectoriel de


L(E).

2. Notons K[u] = {Q(u)/Q ∈ K[X]}. Montrer que K[u] est inclus dans C(u).

3. (a) Soient deux endomorphismes v et w de C(u). Montrer que, si v(x0 ) = w(x0 ), alors v = w.
(b) Soit v ∈ C(u).
i. Justifier l’existence de (a0 , . . . , an−1 ) ∈ Kn tel que v(x0 ) = an−1 un−1 (x0 ) + · · · +
a1 u(x0 ) + a0 x0 .
ii. Montrer que v = an−1 un−1 + · · · + a1 u + a0 IdE .

4. Décrire C(u).

5. Déterminer la dimension de C(u).

Fin de l’énoncé

2/2
PSI* Problème de révision n°3
Correction
Année scolaire
2018/2019

Endomorphismes cycliques
Partie I. Exemples.
1. Dans cette question, on prend E = R3 . Considérons l’application suivante de R3 dans R3 :

u(x, y, z) = (6z, x − 11z, y + 6z).

(a) Soient v = (x1 , y1 , z1 ), w = (x2 , y2 , z2 ) ∈ R3 et λ, µ ∈ R. On a :

λv + µw = (λx1 + µx2 , λy1 + µy2 , λz1 + µz2 ).

u(λv + µw) = (6(λz1 + µz2 ), (λx1 + µx2 ) − 11(λz1 + µz2 ), (λy1 + µy2 ) + 6(λz1 + µz2 ))
= λ(6z1 , x1 − 11z1 , y1 + 6z1 ) + µ(6z2 , x2 − 11z2 , y2 + 6z2 )
= λu(v) + µu(w)

Donc u est un endomorphisme de R3 .


(b) On a :
u(1, 0, 0) = (0, 1, 0) ; u2 (1, 0, 0) = u(0, 1, 0) = (0, 0, 1).
Ainsi, (1, 0, 0), (0, 1, 0), (0, 0, 1) ∈ V ect(uk (1, 0, 0)/k ∈ N). Comme ((1, 0, 0), (0, 1, 0), (0, 0, 1))
est une famille génératrice de R3 (c’est la base canonique !), on a donc :

V ect(uk (1, 0, 0)/k ∈ N) = R3 .

Ainsi u est un endomorphisme cyclique.

2. Dans cette question, on prend E = Rn [X]. On considère l’endomorphisme de dérivation u défini


pour tout P ∈ E par u(P ) = P 0 .

(a) Soit P0 ∈ E un polynôme de degré d ≥ 0. On a :


(k)
uk (P0 ) = P0 pour 0 ≤ k ≤ d et uk (P0 ) = 0 pour k > d.

Ainsi, pour tout k ∈ N, uk (P0 ) ∈ Rd [X]. Comme de plus, Rd [X] est un espace vectoriel, on
obtient :
V ect(uk (P0 )/k ∈ N) ⊂ Rd [X].
De plus, V ect(uk (P0 )/k ∈ N) = V ect(uk (P0 )/0 ≤ k ≤ d), et la famille de polynômes
(P0 , u(P0 ), . . . , ud (P0 )) est échelonnée en degré. C’est donc une famille libre, et
dim(V ect(uk (P0 )/k ∈ N)) = d + 1. Comme on a dim Rd [X] = d + 1, on obtient finale-
ment :
V ect(uk (P0 )/k ∈ N) = Rd [X].

(b) Prenons P0 de degré n (par exemple P0 = X n ). Alors d’après ce qu’on a fait, on a :

V ect(uk (P0 )/k ∈ N) = Rn [X] = E.

Donc u est bien cyclique également.

3. Dans cette question, E est un K-espace vectoriel de dimension n ≥ 2. Soit u un endomorphisme


nilpotent d’indice p ≥ 2 (i.e. up = 0L(E) et up−1 6= 0L(E) ).

1/5
(a) Prenons x0 ∈ E tel que up−1 (x0 ) 6= 0E (existe car up−1 6= 0L(E) ). Montrons que
(x0 , u(x0 ), . . . , up−1 (x0 )) est libre : soient λ0 , λ1 , . . . , λp−1 ∈ K tels que :
λ0 x0 + λ1 u(x0 ) + · · · + λp−1 up−1 (x0 ) = 0E .
On applique up−1 à cette égalité :
λ0 up−1 (x0 ) = 0E ⇒ λ0 = 0( car up−1 (x0 ) 6= 0E ).
On obtient en remplaçant λ1 u(x0 ) + · · · + λp−1 up−1 (x0 ) = 0E . En appliquant up−2 , on
obtient λ1 = 0, et ainsi de suite, λk = 0 pour tout k.
Ainsi la famille (x0 , u(x0 ), . . . , up−1 (x0 )) est libre. Son cardinal est donc inférieur ou égal à
la dimension de E, soit p ≤ n.
(b) ⇒ Supposons que u est cyclique, alors il existe x0 ∈ E tel que :
E = V ect(uk (x0 )/k ∈ N) = V ect(x0 , u(x0 ), u2 (x0 ), . . . , up−1 (x0 )).
La famille (x0 , u(x0 ), u2 (x0 ), . . . , up−1 (x0 )) est donc génératrice, et son cardinal est
supérieur à la dimension de E, soit p ≥ n. Comme on a de plus p ≤ n, on obtient ainsi
que p = n.
⇐ Supposons que p = n. On sait qu’il existe x0 tel que (x0 , u(x0 ), . . . , un−1 (x0 )) soit une
famille libre. Comme elle est de cardinal n, c’est donc une base de E. Ainsi,
V ect(uk (x0 )/k ∈ N) = V ect(x0 , u(x0 ), u2 (x0 ), . . . , un−1 (x0 )) = E
et u est bien un endomorphisme cyclique.

Partie II. Étude générale.


Dans cette partie, on note u un endomorphisme cyclique de l’espace vectoriel E, avec E de dimension
n ≥ 1. On fixe x0 ∈ E tel que E = V ect(uk (x0 )/k ∈ N).

1. (a) La famille (x0 , u(x0 ), . . . , un (x0 )) est de cardinal n + 1 dans un espace vectoriel E de di-
mension n, elle est donc liée.
(b) Tout d’abord, notons que comme E 6= {0E } et que E = V ect(uk (x0 )/k ∈ N), alors x0 6= 0E .
Considérons l’ensemble A = {k ∈ K/(x0 , u(x0 ), . . . , uk (x0 )) libre}. C’est un ensemble non
vide de N (car 0 ∈ A, la famille (x0 ) étant libre), et majorée par n ((x0 , u(x0 ), . . . , un (x0 ))
est liée, et toute surfamille de cette famille est donc liée). On en déduit qu’il existe un
entier p, maximal, pour lequel la famille (x0 , u(x0 ), . . . , up (x0 )) soit libre.
(c) Par définition de p, la famille (x0 , u(x0 ), . . . , up (x0 )) est libre et (x0 , u(x0 ), . . . , up (x0 ), up+1 (x0 ))
est liée. Par le cours, on sait alors que up+1 (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 ))
(d) On procède par récurrence.
ˆ Initialisation. Pour tout 0 ≤ k ≤ p, on a bien uk (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 ))
donc la propriété est vraie aux rang 0 ≤ k ≤ p. Elle est vraie également au rang p + 1
par la question précédente.
ˆ Hérédité. Soit k ≥ p et supposons la propriété vraie au rang k. Montrons la propriété
au rang k + 1.
Par hypothèse de récurrence, on a uk (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 )). Il existe donc
(λ0 , . . . , λp−1 , λp ) ∈ Kp+1 tels que :
uk (x0 ) = λ0 x0 + · · · + λp−1 up−1 (x0 ) + λp up (x0 )).
On compose par u :
uk+1 (x0 ) = λ0 u(x0 ) + · · · + λp−1 up (x0 ) + λp up+1 (x0 )).
Or on a u(x0 ), . . . , up (x0 ), up+1 (x0 )) ∈ V ect(x0 , u(x0 ), . . . , up (x0 )), donc uk+1 (x0 ) ∈
V ect(x0 , u(x0 ), . . . , up (x0 )). D’où la propriété au rang k + 1.

2/5
On conclut par principe de récurrence.
(e) On a montré que pour tout k ∈ N, uk (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 )). Ainsi, on a :

E = V ect(uk (x0 )/k ∈ N) = V ect(x0 , u(x0 ), . . . , up (x0 )).

La famille (x0 , u(x0 ), . . . , up (x0 )) est donc génératrice de E. Comme c’est une famille libre
par définition de p, c’est donc une base de E. Son cardinal est donc égal à la dimension de
E, soit p + 1 = n.

2. (a) On a montré précédemment que un (x0 ) ∈ V ect(x0 , u(x0 ), . . . , un−1 (x0 )), donc il existe
(p0 , . . . , pn−1 ) ∈ Kn tels que :

un (x0 ) = p0 x0 + p1 u(x0 ) + · · · + pn−1 un−1 (x0 ).

Dans la suite, on posera P (X) = X n − pn−1 X n−1 − · · · − p1 X − p0 ∈ K[X].


(b) On a P (u) = un − pn−1 un−1 − · · · − p1 u − p0 IdE ∈ K[X], d’où en évaluant :

P (u)(x0 ) = un (x0 ) − pn−1 un−1 (x0 ) − · · · − p1 u(x0 ) − p0 x0 = 0E .

P (u)(u(x0 )) = un (u(x0 )) − pn−1 un−1 (u(x0 )) − · · · − p1 u(u(x0 )) − p0 u(x0 )


= u(un (x0 ) − pn−1 un−1 (x0 ) − · · · − p1 u(x0 ) − p0 x0 ) = u(0E ) = 0E .

De même, on a P (u)(uk (x0 )) = 0E pour tout 0 ≤ k ≤ n − 1.


Ainsi P (u) est un endomorphisme de E qui s’annule sur la base (x0 , u(x0 ), . . . , un−1 (x0 )),
c’est donc l’endomorphisme nul : P (u) = 0L(E) .
On dit que P est un polynôme annulateur de u.
(c) Montrons que (IdE , u, . . . , un−1 ) est une famille libre de L(E) : soient (λ0 , . . . , λn−1 ) ∈ Kn
tels que :
λ0 IdE + λ1 u + · · · + λn−1 un−1 = 0L(E) .
On évalue en x0 :
λ0 x0 + λ1 u(x0 ) + · · · + λp−1 un−1 (x0 ) = 0E .
Or la famille de vecteurs (x0 , u(x0 ), . . . , un−1 (x0 )) est libre dans E. Donc λ0 = λ1 = · · · =
λn−1 = 0. Ainsi (IdE , u, . . . , un−1 ) est une famille libre de L(E).
(d) ˆ Supposons qu’un tel polynôme Q = a0 +a1 X +· · ·+aq X q existe : q < n et Q(u) = 0L(E) .
Alors on aurait :
a0 IdE + a1 u + · · · + aq uq = 0L(E)
Comme Q 6= 0, il existe ai 6= 0, et la famille (IdE , u, . . . , uq ) serait liée. Mais alors la
surfamille (IdE , u, . . . , un−1 ) serait liée également, ce qui est faux car (IdE , u, . . . , un−1 )
est libre.
ˆ Soit Q = X n − an−1 X n−1 − · · · − a1 X − a0 un polynôme unitaire de degré n tel que
Q(u) = 0L(E) . Alors :

un − pn−1 un−1 − · · · − p1 u − p0 IdE = un − an−1 un−1 − · · · − a1 u − a0 IdE .

D’où :
pn−1 un−1 + · · · + p1 u + p0 IdE = an−1 un−1 + · · · + a1 u + a0 IdE .
Par unicité de la décomposition d’un vecteur dans la famille libre (IdE , u, . . . , un−1 ),
on en déduit :
pk = ak pour tout 0 ≤ k ≤ n − 1.
Ainsi P = Q, et P est bien l’unique polynôme unitaire de degré n tel que P (u) = 0L(E) .
Le polynôme P est appelé le polynôme minimal de u.

3/5
(e) On procède comme précédemment pour trouver ce polynôme : on écrit u3 (1, 0, 0) en fonction
de (1, 0, 0), u(1, 0, 0), u2 (1, 0, 0). Or on a :

u(1, 0, 0) = (0, 1, 0) ; u2 (1, 0, 0) = (0, 0, 1) ; u3 (1, 0, 0) = (6, −11, 6).

Ainsi, u3 (1, 0, 0) = 6(1, 0, 0) − 11u(1, 0, 0) + 6u2 (1, 0, 0) et le polynôme minimal de u est


donc :
P (X) = X 3 − 6X 2 + 11X − 6.

Partie III. Étude du commutant.


1. Tout d’abord C(u) ⊂ L(E) est non vide car l’endomorphisme nul commute bien avec u.
Soient f, g ∈ C(u) et (λ, µ) ∈ K2 . Montrons que λf + µg ∈ C(u) :

u ◦ (λf + µg) = λu ◦ f + µu ◦ g = λf ◦ u + µg◦ = (λf + µg) ◦ u.

Donc le commutant C(u) = {v ∈ L(E)/u ◦ v = v ◦ u} est un sous-espace vectoriel de L(E).

2. On a déjà de manière évidente que pour tout k ∈ N, uk ∈ C(u). Comme de plus C(u) est un
sous-espace vectoriel de L(E), les combinaisons linéaires de tels vecteurs sont aussi dans C(u).
Ainsi pour tout P ∈ K[X], on a bien P (u) ∈ C(u). D’où l’inclusion K[u] ⊂ C(u)

3. (a) Soient deux endomorphismes v et w de C(u). Supposons que v(x0 ) = w(x0 ), et montrons
que v = w. On a pour tout k ∈ N∗ ,

v(uk (x0 )) = v ◦ uk (x0 ) = uk ◦ v(x0 ) = uk ◦ w(x0 ) = w(uk (x0 )).

Ainsi v et w coı̈ncident sur la base (x0 , . . . , un−1 (x0 )). Elles sont donc égales.
(b) Soit v ∈ C(u).
i. Comme (x0 , . . . , un−1 (x0 )) est une base de E, donc une famille génératrice de E, il
existe bien (a0 , . . . , an−1 ) ∈ Kn tel que v(x0 ) = an−1 un−1 (x0 ) + · · · + a1 u(x0 ) + a0 x0 .
ii. Posons w = an−1 un−1 + · · · + a1 u + a0 IdE . On a clairement que w commute avec u
(c’est un polynôme en u !). De plus on a v(x0 ) = w(x0 ). Par la question précédente,
on en déduit immédiatement que v = w.

4. On a déjà que K[u] ⊂ C(u). Réciproquement, on vient de montrer que si v ∈ C(u), alors v ∈ K[u].
On en déduit donc que C(u) = K[u].

5. On sait déjà que la famille (IdE , u, . . . , un−1 ) est libre, et qu’il existe un unique polynôme P de
degré n et unitaire tel que P (u) = 0L(E) (c’est le polynôme minimal). On va montrer que :

K[u] = V ect(IdE , u, . . . , un−1 ).

Prenons un élément de K[u], il est de la forme A(u) avec A ∈ K[X]. On fait la division euclidienne
de A par P : il existe un couple (Q, R) ∈ K[X]2 tels que :
(
A = QP + R
deg(R) < n

On évalue en u :
A(u) = Q(u) ◦ P (u) + R(u).
Or P (u) = 0L(E) , donc A(u) = R(u). Comme enfin deg(R) < n, on en déduit que R(u) ∈
V ect(IdE , u, . . . , un−1 ). Finalement, on a bien que :

C(u) = K[u] = V ect(IdE , u, . . . , un−1 ).

La famille (IdE , u, . . . , un−1 ) étant libre et génératrice de C(u), c’est donc une base de cet espace,
et dim(C(u)) = n.

4/5
Remarque. On peut en fait montrer les équivalences suivantes : soit u ∈ L(E),

u est cyclique ⇔ C(u) = K[u] ⇔ dim(C(u)) = n ⇔ le polynôme minimal de u est de degré n.

La preuve de ces équivalences pourra être vu en deuxième année.

5/5
PSI* Problème de révision n°4
Année scolaire
2018/2019

Notations
Dans tout le problème, n désigne un entier naturel non nul (n ∈ N∗ ).
– Dans En = Mn,1 (R) espace vectoriel réel de dimension n, on utilisera le produit scalaire cano-
nique défini par
∀U, V ∈ En , (U |V ) = U T V
– On notera Mn = Mn (R), l’espace vectoriel des matrices carrées de taille n à coefficients réels.
– Pour A ∈ Mn , on notera ker(A) le noyau de A vu comme endomorphisme de En .
– Dans Mn , on notera0n la matrice nulle et In la matrice unité. Le déterminant est noté det.
– Gn = GLn (R) = {M ∈ Mn , det(M ) 6= 0} désigne le groupe linéaire des matrices inversibles de
Mn .
– On = {M ∈ Mn , M T M = In } désigne le groupe orthogonal d’indice n, formé des matrices
orthogonales de Mn .
– On sera enfin amené à utiliser des décompositions par blocs. On rappelle en particulier que si
A, B, C, D, A0 , B 0 , C 0 , D0 ∈ Mn on a alors dans M2n :
 0
A B0 AA0 + BC 0 AB 0 + BD0
   
A B
=
C D C 0 D0 CA0 + DC 0 CB 0 + DD0
   
A C A 0n
det = det = det(A) det(D)
0n D C D

1 Le groupe symplectique
Soit n ∈ N∗ et soit Jn ou simplement J la matrice de M2n définie par
 
0n −In
J=
In 0n
On note
Sp2n = {M ∈ M2n , M T JM = J}
1. Calculer J 2 et J T en fonction de I2n et J. Montrer que J est inversible et identifier son inverse.
2. Vérifier que J ∈ Sp2n et que pour tout réel α,
 
In 0n
K(α) = ∈ Sp2n
−αIn In
 
U 0n
3. Pour tout U ∈ Gn , vérifier que LU = est dans Sp2n .
0n (U −1 )T
4. Si M ∈ Sp2n , préciser les valeurs possibles de det(M ).
5. Montrer que le produit de deux éléments de Sp2n est un élément de Sp2n .
6. Montrer qu’un élément de Sp2n est inversible et que son inverse appartient à Sp2n .
7. Montrer que si M ∈ Sp2n alors M T ∈ Sp2n .
Soit M une matrice de M2n écrite sous la forme
 
A B
M= avec A, B, C, D ∈ Mn
C D
8. Déterminer les relations sur A, B, C, D caractérisant l’appartenance de M à Sp2n .

2 Centre de Sp2n
On s’intéresse ici au centre Z de Sp2n c’est à dire
Z = {M ∈ Sp2n , ∀N ∈ Sp2n , M N = N M }
9. Justifier l’inclusion suivante : {−I2n , I2n } ⊂ Z.

1
Récirpoquement, soit M ∈ Z écrite sous la forme
 
A B
M= avec A, B, C, D ∈ Mn
C D
 
In In
10. En utilisant L = et sa transposée, obtenir B = C = 0n et D = A, A étant inversible.
0n In
 
U 0n
11. Soit U ∈ Gn . En utilisant LU = , montrer que A commute avec toute matrice
0n (U −1 )T
U ∈ Gn .
12. Conclure que A ∈ {−In , In } et Z = {−I2n , I2n }. Indication : on montrera d’abord que les
matrices In + Ei,j commutent avec A, où (Ei,j , 1 ≤ i, j ≤ n) est la base canonique de Mn .

3 Déterminant d’une matrice symplectique


Soit M dans Sp2n que l’on décompose sous forme de matrice blocs
 
A B
M= (1)
C D
avecA, B, C, D ∈ Mn . Dans toute cette partie, les matrices A, B, C, D sont les matrices de cette
décomposition.
On suppose dans les questions 13 et 14 que D est inversible.
13. Montrer qu’il existe quatre matrices Q, U, V, W de Mn telles que
    
In Q U 0n A B
=
0n In V W C D
14. En utilisant la question 8, vérifier que BD−1 est symétrique, puis que
det(M ) = det(AT D − C T B) = 1
Soient P, Q ∈ Mn telles que P T Q soit symétrique et Q non inversible. On suppose qu’il existe
deux réels différents s1 , s2 et deux vecteurs V1 , V2 non nuls dans En tels que
(Q − s1 P )V1 = (Q − s2 P )V2 = 0
15. Montrer que le produit scalaire (QV1 |QV2 ) est nil.

On suppose dorénavant D non inversible.


16. Montrer que ker(B) ∩ ker(D) = {0}.

Soit m un entier, m ≤ n. Soit s1 , . . . , sm des réels non nuls et deux à deux distincts et V1 , . . . , Vm
des vecteurs non nuls tels que
(D − si B)Vi = 0 pour i = 1, . . . , m
17. Montrer que pour tout i ∈ {1, . . . , m}, DVi 6= 0 et que la famille (DVi , i = 1, . . . , m) forme un
système libre de En .
18. En déduire qu’il existe un réel α tel que D − αB soit inversible.
19. Montrer alors que toute matrice de Sp2n est de déterminant égal à 1.

2
PSI* Problème de révision n°5
Année scolaire
2018/2019

Problème
Problématique. Lorsque f est un endomorphisme d'un K-espace vectoriel E, on peut se demander
à quelle(s) condition(s) les sous-espaces vectoriels
⊕ ker(f ) et Im(f ) sont supplémentaires dans E (càd
E = ker(f ) Im(f )).

L'objectif de ce problème est de donner une caractérisation des endomorphismes satisfaisant cette
condition.

Notation. Tout au long de ce problème, on notera K=R ou C.

Partie I  Deux exemples gentils pour démarrer


1. Dérivation polynomiale. Dans cette question, on considère le K-espace vectoriel E = K[X]
des polynômes à coecients dans K. On considère l'endomorphisme ∆ de E déni en posant :
∀ P ∈ K[X], ∆(P ) = P ′ .
a. Déterminer le noyau et l'image de ∆.

b. A t-on : E = ker(∆) Im(∆) ?

2. Calcul matriciel. Dans cette question, on considère le K-espace E = Mn (K) des ma-
vectoriel
trices carrées de taille n à coecients dans K (où n > 2). On considère
désigne un entier naturel
1( )
l'endomorphisme π de E déni en posant : ∀ A ∈ Mn (K) , π(A) = A + tA .
2
a. Déterminer le noyau et l'image de π (le résultat concernant l'image de π devra être très soigneu-
sement justié).

Partie II  Un exemple plus consistant


b. A t-on : E = ker(π) Im(π) ?

3. Résultat préliminaire. Soit E un K-espace vectoriel de dimension n > 2. On considère deux sev
H1 et H2 de E tels que :

dim(H1 ) = dim(H2 ) = n − 1 et H1 ̸= H2 .
a. Démontrer que E = H1 + H2 .
b. Déduire de la question précédente la dimension de H1 ∩ H2 .

4. Jusqu'à la n de la partie II, on note E = R3 [X]. Pour tout polynôme P de E, on pose :

1( 2 )
f (P ) = X − 1 P ′′ − XP ′ + P
2
Montrer que f un endomorphisme de E.
5. On note B = (1, X, X 2 , X 3 ) la base canonique de E . Ecrire la matrice M = MB (f ) de l'endomor-
phisme f dans la base B (on donnera le détail des calculs permettant de l'obtenir).
6. Montrer que f est un projecteur de E.
7. Montrer que ker(f ) est un plan vectoriel de E dont on donnera une base.

1/3
8. Détermination de l'image de f. On considère la partie G de E suivante :

G = {Q ∈ E / Q′ (1) = Q′ (−1) = 0}

a. Etablir l'inclusion : Im(f ) ⊂ G.

b. On considère l'application linéaire φ : E = R3 [X] / R


P / P ′ (1)
Etablir que φ est surjective.

c. En déduire la dimension de ker(φ).


d. Montrer que G est un sev de E, dont on déterminera la dimension.

e. Prouver que : Im (f ) = G. Préciser une base de Im(f ).

9. Les sev ker(f ) et Im(f ) sont-ils supplémentaires dans R3 [X] ?

Partie III  Une condition susante. . .


Dans cette partie, on suppose que E est un K-espace vectoriel, et que p est un projecteur de E.
10. Démontrer que ker(p) ∩ Im(p) = {0}.
11. Enoncer précisément le théorème du rang.

12. Grâce à un raisonnement utilisant le théorème du rang (mais pas exclusivement), montrer que

E = ker(p) Im(p) lorsque E est de dimension nie.

13. Grâce à un raisonnement n'utilisant surtout pas le théorème du rang, montrer que E = ker(p) Im(p)
même si on ne fait plus l'hypothèse que E est de dimension nie.

Partie IV 
On considère l'endomorphisme f de R4 déni en posant :

     
x x 0
 y     −3y 
∀   y = 
 z ∈ R , f z
4
  3x − 3z 
t t y

14. Déterminer une base et la dimension de ker(f ).


15. Déterminer une base de Im (f ).

16. Etablir que : R4 = ker(f ) Im(f ).

17. L'endomorphisme f est-il un projecteur ?

2/3
Partie V  Une condition nécessaire et susante en dimension nie
Dans cette partie, on suppose que E est un K-espace vectoriel de dimension nie, et f désigne un
endomorphisme de E.
L'objectif est d'établir que les trois assertions suivantes sont équivalentes :


(i) E = ker(f ) Im(f )

(ii) ker(f ) = ker (f 2 )


(iii) Im (f ) = Im (f 2 )

18. Démontrer que ker(f ) ⊂ ker (f 2 ) et Im(f


2
) ⊂ Im(f ).
19. En déduire que les assertions (ii) et (iii) sont équivalentes.

20. Démontrer que si ker(f ) = ker (f 2 ), alors E = ker(f ) Im(f ).

21. Démontrer que si E = ker(f ) Im(f ), alors ker(f ) = ker (f 2 ).

22. Question bonus. Donner un exemple prouvant que les assertions (i) et (iii) ne sont pas équivalentes
lorsque E est un K-espace vectoriel de dimension innie.

3/3
Problème de révision n°5 -Corrigé donc ¨
M = A+ S
M = −A + S.
t
1 Deux exemples gentils pour démarrer
1 1
n
Ainsi, A = 2 (M − tM ) et S = 2 (M + tM ). ∗
1. a. Soit P = ak X k ∈ K[X ].
P
1 1
Synthèse. On pose A = 2 (M − tM ) et S = 2 (M + tM ). Nous devons vérifier que A ∈
k=0
On a An (K), S ∈ Sn (K) et A + S = M . Ces vérifications ne posent aucun problème. †
P ∈ Ker(∆) ⇐⇒ ∆(P ) = 0̃ ⇐⇒ P 0 = 0̃ ⇐⇒ P ∈ K0 [X ] Conclusion. Mn (K) = An (K) ⊕ Mn (K), autrement dit E = Ker(π) ⊕ Im(π).
donc Ker(∆) = K0 [X ] (ici, 0̃ désigne le polynôme nul).
n
D’autre part, si Q =
P ak
k+1
X k+1 , alors Q 0 = P , c’est-à-dire, Q est un antécédent de P 2 Un exemple plus consistant
k=0
par ∆. Donc ∆ est surjective (i.e. Im(∆) = K[X ]). 3. a. Puisque H1 6= H2 , alors ou bien il existe un vecteur u~ ∈ H1 \ H2 ou bien il existe un
b. On a E = Ker(∆) + Im(∆) puisque Im(∆) = K[X ] = E mais la somme n’est pas directe vecteur u~ ∈ H2 \ H1 . SPDG ‡ , on suppose l’existence d’un vecteur u~ ∈ H2 \ H1 .
puisque Ker(∆) ∩ Im(∆) = K0 [X ] 6= {0̃}. H1 est un sous-espace vectoriel de E de dimension n − 1 donc H1 admet une base B1 =
2. a. Notons An (K) (respectivement Sn (K)) le sous-espace vectoriel de Mn (K) constitué (~e1 , . . . , ~en−1 ) (de cardinal n − 1). En particulier, la famille B1 est libre.
des matrices anti-symétriques (respectivement symétriques) et soit A ∈ Mn (K). Montrons que la famille B = (~e1 , . . . , ~en−1 , u~) est elle aussi libre. Si elle était liée, puisque
On a B1 est une famille libre, le vecteur u~ serait combinaison linéaire des vecteurs ~e1 , . . . , ~en−1 ,
π(A) = 0n ⇐⇒ tA = −A ⇐⇒ A ∈ An (K) autrement dit, le vecteur u~ serait un élément de Vect(~e1 , . . . , ~en−1 ) = H1 . Mais ceci contre-
donc Ker(π) = An (K). dirait l’hypothèse faite sur u~.
D’autre part, puisque t(tA) = A, tπ(A) = π(A) et l’on a l’inclusion Im(π) ⊂ Sn (K). Il Ainsi, la famille B est une famille libre de cardinal n de l’espace vectoriel E de dimen-
y a deux façons d’obtenir l’autre inclusion. La plus rapide est d’observée que si A ∈ sion n, B est donc une base de E.
Sn (K), alors π(A) = A donc tout élément de Sn (K) admet un antécédent par π ; cela Par ailleurs, Vect( u~) ⊂ H2 et l’on obtient ainsi,
prouve l’inclusion Sn (K) ⊂ Im(π). Il est aussi possible d’utiliser le théorème du rang
n(n−1) n(n+1)
en utilisant le fait que dim(An (K) = 2 et dim(Sn (K)) = 2 . On a ainsi prouvé E = Vect(~e1 , . . . , ~en−1 , u~) = Vect(~e1 , . . . , ~en−1 ) + Vect( u~) ⊂ H1 + H2 .
} | {z }
que Im(π) = Sn (K).
| {z
=H1 ⊂H2

b. Montrons que E = Ker(π) ⊕ Im(π). Cela revient à montrer que An (K) ⊕ Sn (K) =
Mn (K). C’est un résultat très classique ; nous allons en donner deux démonstrations. L’inclusion H1 + H2 ⊂ E étant trivialement vraie, on en conclut que H1 + H2 = E.
1re démonstration (en utilisant la dimension finie). b. Appliquons la formule de Grassman en utilisant le fait que H1 + H2 = E :
On commence par montrer que la somme est directe. Soit M ∈ An (K) ∩ Sn (K). On a
dim(E) = dim(H1 ) + dim(H2 ) − dim(H1 ∩ H2 ).
t t
M = −M et M =M | {z }
=n
| {z } | {z }
=n−1 =n−1

donc M = −M et M = 0n . Donc An (K) ∩ Sn (K) = {0n } donc la somme est directe. On en déduit que dim(H1 ∩ H2 ) = n − 2.
n(n−1) n(n+1)
On a dim(Mn (K)) = n 2 , dim(An (K)) = et dim(Sn (K)) = donc
2 2 4. Soient (P, Q) ∈ R3 [X ]2 et (λ, µ) ∈ R2 .
dim(Mn (K)) = dim(An (K)) + dim(Sn (K)). 1
Vérifions tout d’abord que 2 (X 2 − 1)P 00 − X P 0 + P ∈ R3 [X ] (on vérifie que l’application f
est correctement définie). On a deg(P ) ≤€3 donc deg(P 0 ) ≤ 2 et deg(P
Š ) ≤ 1. Donc deg((X −
00 2
Ainsi, An (K) et Sn (K) sont des sous-espaces vectoriels supplémentaires de Mn (K). 1
1)P 00 ) ≤ 3, deg(X P 0 ) ≤ 3. Ainsi, deg 2 (X 2 − 1)P 00 − X P 0 + P ≤ 3. L’application f est
2e démonstration (sans utiliser la dimension).
Soit M ∈ Mn (K). correctement définie.
Analyse. On suppose qu’il existe (A, S) ∈ An (K) × Sn (K) tel que M = A + S. Alors, ∗. À ce stade, nous savons que la somme est directe.
†. Mais vous deviez les faire !
t
M = tA + tS = −A + S ‡. Sans perte de généralité... ou SNALG !

1
On a Donc Ker( f ) = Vect(X , X 2 + 1) et dim(Ker( f )) = 2 puisque les polynômes X et X 2 + 1
sont clairement linéairement indépendants (ils n’ont pas le même degré). Ker( f ) est donc un
1 2
f (λP + µQ) = (X − 1)(λP 00 + µQ 00 ) − X (λP 0 + µQ 0 ) + λP + µQ plan vectoriel de E.

Enfin, C1 = (X , X 2 + 1) est une base de Ker( f ).
1 1
‹  ‹
= λ (X 2 − 1)P 00 − X P 0 + P + µ (X 2 − 1)Q 00 − XQ 0 + Q 8. a. Soit Q ∈ Im( f ), montrons que Q ∈ G. Il existe P ∈ E tel que Q = f (P ). Alors, Q =
2 2
1 2
= λ f (P ) + µ f (Q). (X − 1)P 00 − X P 0 + P et
2
Donc f est une application linéaire de E dans E, f est donc un endomorphisme de E. 1 1
Q 0 = X P 00 + (X 2 − 1)P 000 − P 0 − X P 00 + P 0 = (X 2 − 1)P 000 .
5. Déterminons les images par f des éléments de la base canonique. On a 2 2
Si P = 1, alors P 0 = P 00 = 0̃ donc f (1) = 1.
On constate ainsi que Q 0 (−1) = Q 0 (1) = 0 puisque les racines de X 2 − 1 sont ±1. Ainsi,
Si P = X , alors P 0 = 1 et P 00 = 0̃ donc f (X ) = −X + X = 0̃. Im( f ) ⊂ G.
1
Si P = X 2 , alors P 0 = 2X et P 00 = 2 donc f (X 2 ) = (X 2 − 1) × 2 − X × 2X + X 2 = −1. b. On a, pour tout a ∈ R, ϕ(aX ) = a donc ϕ est une forme linéaire surjective. §
2
Si P = X 3 , alors P 0 = 3X 2 et P 00 = 6X donc c. D’après la question précédente, rg(ϕ) = 1 et par le théorème du rang, on obtient
dim(Ker(ϕ)) = dim(E) − rg(ϕ) = 4 − 1 = 3. ¶
1 2 On montre de même que dim(Ker(ψ)) = 3.
f (X 3 ) = (X − 1) × 6X − X × 3X 2 + X 3 = X 3 − 3X .
2 d. Tout d’abord, observons que G = Ker(ϕ) ∩ Ker(ψ) donc G est un sous-espace vectoriel
Ainsi, la matrice de l’endomorphisme f dans la base B est de E.
  De plus, on a dim(E) = 4, dim(Ker(ϕ)) = dim(Ker(ψ)) = 3 et Ker(ϕ) 6= Ker(ψ) (le
1 0 −1 0 polynôme (X − 1)2 est un élément de Ker(ϕ) qui n’appartient pas à Ker(ψ)).
0 0 0 −3 Ainsi, d’après le résultat de la question 3b, dim(G) = 4 − 2 = 2.
M = 0 0 0
.
0
e. On a vu à la question 8a que Im( f ) ⊂ G. Puisque E est un espace vectoriel de dimension
0 0 0 1
finie 4, il suffit de vérifier que dim(Im( f )) = dim(G).
6. Montrons que f ◦ f = f . Il suffit pour cela de vérifier que M 2 = M , ce que l’on fait aisé- On vient de voir que dim(G) = 2.
ment... De plus, on a vu à la question 7 que dim(Ker( f )) = 2 donc en appliquant le théorème
du rang, dim(Im( f )) = 2.
7. Déterminons Ker( f ). Soient P = d X 3 + cX 2 + b X + a ∈ R3 [X ] et
Ainsi, dim(Im( f )) = dim(G) et Im( f ) = G.
Enfin, Im( f ) = Vect( f (1), f (X ), f (X 2 ), f (X 3 )) = Vect(1, X 3 − 3X ) donc
 
a
b  C2 = (1, X 3 − 3X ) est une base de Im( f ).
A=  c 

9. Puisque f est un projecteur, Ker( f ) et Im( f ) = Ker( f −IdE ) sont des sous-espaces vectoriels
d supplémentaires de E. k
la matrice des coordonnées de P dans la base B. On a P ∈ Ker( f ) si et seulement si
M × A = 04,1 et l’on se ramène à la résolution du système de 4 équations à 4 inconnues 3 Une condition suffisante...
(d’inconnues a, b , c, d ) suivant :
 10. Dire que p est un projecteur revient à dire que p ∈ L (E) et que p ◦ p = p.
a − c = 0
 y ) = ~0 et il existe x~ ∈ E tel que y~ = p(~
Soit y~ ∈ Ker( p) ∩ Im( p). On a p(~ x ). Alors,
S : −3d = 0
d = 0. y~ = p(~
x ) = ( p ◦ p)(~
x ) = p( p(~ y ) = ~0.
x )) = p(~

§. Autrement, on peut invoquer le fait qu’une forme linéaire non nulle est toujours surjective.
Ainsi, P ∈ Ker( f ) si et seulement si a = c et d = 0, si et seulement si ¶. On rappelle que dim(Rn [X ]) = n + 1.
k. Il valait mieux savoir son cours pour répondre à cette question car montrer que Ker( f ) et Im( f ) sont en
P = a(X 2 + 1) + b X . situation de somme directe dans ce cas précis est un peu pénible.

2
15. D’après la question précédente et en appliquant le théorème du rang, dim(Im( f )) = 2. De
Ainsi, Ker( p) ∩ Im( p) = {~0}. plus,
11. Théorème du rang.         
1 0 0 0
  
0
 
0
Soient E un K-espace vectoriel de dimension finie, F un K-espace vectoriel de dimension  0 1 0 0 0 −3
 f 0 , f 0 , f 1 , f 0 = Vect  u~3 = 1 , u~4 =  0 
Im( f ) = Vect 

quelconque et f ∈ L (E, F ). Alors, Im( f ) est un sous-espace vectoriel de dimension finie
            
de F et l’on a 0 0 0 1 0 1
dim(E) = dim(Ker( f )) + dim(Im( f )) .
| {z } (il suffit de garder deux vecteurs non colinéaires puisque dim(Im( f )) = 2) et C2 = ( u~3 , u~4 ) est
rg( f )
une base de Im( f ).
12. On suppose dans cette question que E est de dimension finie. 16. Grâce aux dimensions, il suffit de montrer que Ker( f ) et Im( f ) sont en situation de somme
D’après la question 10, Ker( p) et Im( p) sont en situation de somme directe. De plus, d’après directe.
le théorème du rang, dim(E) = dim(Ker( f )) + dim(Im( f )) donc Ker( p) et Im( p) sont des On peut montrer que la famille C = ( u~1 , u~2 , u~3 , u~4 ) est une famille libre de R4 . Ainsi,
sous-espaces vectoriels supplémentaires de E. Vect( u~1 , u~2 ) et Vect( u~3 , u~4 ) sont en situation de somme directe.
13. Pour tout vecteur x~ ∈ E, on a Conclusion : R4 = Ker( f ) ⊕ Im( f ).
17. L’endomorphisme f n’est pas un projecteur. En effet, on a
x~ = x~ − p(~
x ) + p(~
x ).
| {z }              
x~0 0 0 0 0 0 0 0
1 −3 2 1 −3 9 −3 1
0 =  0  et f 0 = f  0  =  0  6=  0  = f 0 .
         
f
x ) ∈ Im( p) ; montrons que x~0 ∈ Ker( p). On a
          
Bien entendu, p(~
0 1 0 1 −3 1 0
x0 ) = p(~
p(~ x ) − p( p(~
x )) = p(~ x ) = ~0
x ) − p(~

donc x~0 ∈ Ker( p). 5 Une condition nécessaire et suffisante en dimension finie
Ainsi, tout vecteur x~ ∈ E se décompose en la somme d’un élément de Ker( p) et d’un
élément de Im( p) ; c’est-à-dire, E = Ker( p) + Im( p). Le fait que la somme soit directe a été x ) = ~0 donc
18. Montrons que Ker( f ) ⊂ Ker( f 2 ). Soit x~ ∈ Ker( f ), on a f (~
montré à la question 10.
f 2 (~ x )) = f (~0) = ~0
x ) = f ( f (~
Conclusion : E = Ker( p) ⊕ Im( p).
donc x~ ∈ Ker( f 2 ) ( f (~0) = ~0 car f est un endomorphisme). Ainsi, Ker( f ) ⊂ Ker( f 2 ).
4 Montrons que Im( f 2 ) ⊂ Im( f ). Soit z~ ∈ Im( f 2 ), il existe x~ ∈ E tel que z~ = f 2 (~ x ) et
z~ = f (~
y ) avec y~ = f (~x ). Donc z~ ∈ Im( f ). Ainsi, Im( f 2 ) ⊂ Im( f ). ∗∗
19. Puisque l’on a toujours les inclusions Ker( f ) ⊂ Ker( f 2 ) et Im( f 2 ) ⊂ Im( f ) et que l’on
 
x
y  travaille en dimension finie, alors
14. Soit u~ =  4
 z  ∈ R . On a

t (ii) ⇐⇒ dim(Ker( f )) = dim(Ker( f 2 )) et (iii) ⇐⇒ rg( f ) = rg( f 2 ) .


| {z } | {z }
(ii0 ) (iii0 )
u~1
Il suffit de montrer que les assertions (ii0 ) et (iii0 ) sont équivalentes. D’après le théorème du
  z }|{  

z 1 0

−3y = 0
 ¨
x=z 0  0  0 rang appliqué à f et à f 2 , on a
f ( u~) = ~0R4 ⇐⇒ 3x − 3z = 0 ⇐⇒ ⇐⇒ u~ = 
 z  ⇐⇒ u~ = z 1 +t 0
    
y = 0
 y =0 dim(E) = dim(Ker( f )) + rg( f ) et dim(E) = dim(Ker( f 2 )) + rg( f 2 ).
t 0 1
| {z } Donc si dim(Ker( f )) = dim(Ker( f 2 )), alors
u~2

rg( f ) = dim(E) − dim(Ker( f )) = dim(E) − dim(Ker( f 2 )) = rg( f 2 )


donc Ker( f ) = Vect( u~1 , u~2 ). La dimension du noyau vaut 2 car les vecteurs u~1 et u~2 ne sont
pas colinéaires et C1 = ( u~1 , u~2 ) est une base de Ker( f ). ∗∗. Observez que l’on n’a pas utilisé l’hypothèse de linéarité pour montrer cette inclusion.

3
et l’on montre de même que si rg( f ) = rg( f 2 ), alors dim(Ker( f )) = dim(Ker( f 2 )). Ainsi,
les assertions (ii0 ) et (iii0 ) sont équivalentes.
Conclusion : les assertions (ii0 ) et (iii0 ) sont équivalentes.
20. On suppose que Ker( f ) = Ker( f 2 ), montrons que E = Ker( f ) ⊕ Im( f ).
Grâce au théorème du rang (et parce que l’on travaille en dimension finie), il suffit de
montrer que la somme est directe.
Pour cela, montrons que Ker( f ) ∩ Im( f ) = {~0}. Soit y~ ∈ Ker( f ) ∩ Im( f ) ; on a f (~
y ) = ~0 et
il existe x~ ∈ E tel que y~ = f (~
x ). Alors, f 2 (~ y ) = ~0 donc x~ ∈ Ker( f 2 ).
x ) = f (~
Or, on a fait l’hypothèse Ker( f ) = Ker( f 2 ), donc x~ ∈ Ker( f ). Cela signifie que
x ) = ~0.
y~ = f (~
On a donc montré que Ker( f ) ∩ Im( f ) = {~0}. Ainsi, la somme est directe et l’on en conclut
que E = Ker( f ) ⊕ Im( f ).
21. On suppose que E = Ker( f ) ⊕ Im( f ), montrons que Ker( f ) = Ker( f 2 ). Puisque l’inclusion
Ker( f ) ⊂ Ker( f 2 ) est toujours vraie, il suffit de montrer l’inclusion Ker( f 2 ) ⊂ Ker( f ).
x )) = ~0 donc f (~
Soit x~ ∈ Ker( f 2 ) ; on a f ( f (~ x ) ∈ Ker( f ). Or, f (~
x ) est bien-sûr un élément
de Im( f ) donc
f (~x ) ∈ Ker( f ) ∩ Im( f ).
Mais puisque l’on a fait l’hypothèse que Ker( f ) et Im( f ) sont supplémentaires, en particu-
liers en situation de somme directe, l’intersection Ker( f ) ∩ Im( f ) est nulle.
Donc f (~ x ) = ~0, c’est-à-dire, x~ ∈ Ker( f ). Ainsi, Ker( f ) = Ker( f 2 ).
22. Question bonus. Il faut bien entendu se placer en dimension infinie. Utilisons l’exemple
de la première partie : soit l’endomorphisme

∆ : K[X ] −→ K[X ] .
P 7−→ P0

On a vu que Ker(∆) = K0 [X ] et Im(∆) = K[X ]. On a de plus,

∆2 : K[X ] −→ K[X ]
P 7−→ P 00

et l’on montre facilement que Ker(∆2 ) = K1 [X ] et

Im(∆2 ) = ∆2 (K[X ]) = ∆(∆(K[X ])) = ∆(Im(∆)) = ∆(K[X ]) = Im(∆) = K[X ]


définition

ak
(ou alors, si P = , alors Q = est tel que Q 00 = P ).
Pn k Pn
a X
k=0 k k=0 (k+1)(k+2)
X k+2
Ici on a (iii) : Im(∆) = Im(∆2 ) pourtant Ker(∆) ∩ Im(∆) 6= {0̃} (puisque Ker(∆) ∩ Im(∆) =
K0 [X ]) donc nous n’avons pas (i) : K[X ] = Ker(∆) ⊕ Im(∆) (la somme n’est pas directe).

4
PSI* Problème de révision n°5
Année scolaire
2018/2019

Problème
Tout au long de ce problème, on note E l'espace vectoriel R3 [X] des polynômes à coecients réels de
2 3
degré au plus 3. On note B0 = (1, X, X , X ) la base canonique de E .

Pour tout k dans [[ 0; 3 ]], on note Rk le polynôme X (1 − X)


k 3−k
. Ainsi :

R0 = (1 − X)3 ; R1 = X (1 − X)2 ; R2 = X 2 (1 − X) ; R3 = X 3 .

Par ailleurs, on dénit une application Φ en posant pour tout polynôme P ∈ E :

∑3 ( ) ( ) ( ) ( )
3 k 1 2
Φ (P ) = P Rk = P (0) R0 + 3P R1 + 3P R2 + P (1) R3
k 3 3 3
k=0

On admet que Φ est un endomorphisme de l'espace vectoriel E.

Partie I
1. Montrer que (R0 , R1 , R2 , R3 ) est une base de E.
2. Vérier que Φ (1) = 1 et Φ (X) = X .
 
1 0 0 0
 0 1 1/3 1/9 
3. Montrer que la matrice de Φ dans la base B0 est A=
 0

0 2/3 2/3 
0 0 0 2/9
4. Quel est le rang de A? Que peut-on en déduire pour l'endomorphisme Φ?
* 2
5. Déterminer Q2 et Q3 , polynômes unitaires de degrés respectifs 2 et 3 tels que Φ (Q2 ) = Q2 et
3
2
Φ (Q3 ) = Q3 .
9
6. On pose B1 = (1, X, Q2 , Q3 ). On admet que B1 est une base de E. Ecrire la matrice A′ de Φ dans
la base B1 .

7. Ecrire la matrice de passage K de B0 à B1 . Déterminer K −1 .

Remarque : la formule du changement de base assure alors que : A′ = K −1 AK .

Partie II  Etude d'un commutant


A, A′ et K sont les matrices dénies dans la partie I. On note M4 (R) l'espace des matrices carrées
réelles d'ordre 4. Soit F l'ensemble des matrices M de M4 (R) qui commutent avec A, c'est-à-dire
telles que AM = M A.
8. Montrer que F est un sous-espace vectoriel de M4 (R).

9. Soit M une matrice de M4 (R) et soit N = K −1 M K . Montrer que M commute avec A si et



seulement si N commute avec A .

*. Un polynôme est dit unitaire (ou normalisé ) lorsque son coecient dominant est égal à 1.
1/2
10. On pose :
 
α1,1 α1,2 α1,3 α1,4
 α2,1 α2,2 α2,3 α2,4 
N =
 α3,1

α3,2 α3,3 α3,4 
α4,1 α4,2 α4,3 α4,4
Calculer N A′ et A′ N . Montrer que N commute avec A′ si et seulement si α1,3 , α1,4 , α2,3 , α2,4 , α3,1 ,
α3,2 , α3,4 , α4,1 , α4,2 et α4,3 sont nuls.
11. En déduire la dimension de F ′ = {N ∈ M4 (R) | N A′ = A′ N }.
12. Déterminer la dimension de F.

• • • FIN • • •

2/2
PSI* Problème de révision n°6
Correction
Année scolaire
2018/2019

Partie I

3
1. Soit (α0 , α1 , α2 , α3 ) ∈ R tel que
4
αk Rk = 0. L'évaluation en 0 (resp. en 1) du terme de gauche
k=0
donne α0 = 0 (resp. α3 = 0). De plus :

α1 R1 +α2 R2 = 0 ⇐⇒ α1 X (1 − X)2 +α2 X 2 (1 − X) = 0 ⇐⇒ α1 X +(α2 − 2α1 ) X 2 +(α1 − α2 ) X 3 = 0

On déduit aisément de cette dernière identité α1 = 0, puis α2 = 0.



3
En conclusion : αk Rk = 0 =⇒ ∀ k ∈[[ 0; 3 ]], αk = 0, donc la famille (R0 , R1 , R2 , R3 ) est libre .
k=0
Comme en outre son cardinal est égal à la dimension de R3 [X], c'est une base de R3 [X] .
2. Par dénition de l'application Φ on a :

Φ (1) = R0 + 3R1 + 3R2 + R3 ⇐⇒ Φ (1) = (1 − X)3 + 3X (1 − X)2 + 3X 2 (1 − X) + X 3 ⇐⇒ Φ (1)

= [X + (1 − X)]3

la dernière égalité provenant de la formule du binôme de Newton . On en déduit nalement : Φ (1) = 1 .

D'autre part : Φ (X) = R1 + 2R2 + R3 ⇐⇒ Φ (X) = X (1 − X)2 + 2X 2 (1 − X) + X 3

⇐⇒ Φ (X) = X 3 − 2X 2 + X + 2X 2 − 2X 3 + X 3 ⇐⇒ Φ (X) = X .

3. Il reste à calculer les images par Φ de X 2 et de X 3 pour obtenir la matrice de Φ dans la base
canonique de R3 [X]. En premier lieu :

1 4 ( ) 1 4
Φ (X 2 ) = R1 + R2 + R3 ⇐⇒ Φ X 2 = X (1 − X)2 + X 2 (1 − X) + X 3
3 3 3 3

X 3 − 2X 2 + X 4X 2 − 4X 3 1 2
⇐⇒ Φ (X 2 ) = + + X 3 ⇐⇒ Φ (X 2 ) = X + X 2 .
3 3 3 3

En second lieu :
1 8 ( ) 1 8
Φ (X 3 ) = R1 + R2 + R3 ⇐⇒ Φ X 3 = X (1 − X)2 + X 2 (1 − X) + X 3
9 9 9 9

X 3 − 2X 2 + X 8X 2 − 8X 3 1 2 2
⇐⇒ Φ (X 3 ) = + + X 3 ⇐⇒ Φ (X 3 ) = X + X 2 + X 3 .
9 9 9 3 9
De ces calculs et de la question précédente, on déduit que la matrice de Φ dans la base B0 est :
 
1 0 0 0
 0 1 1/3 1/9 
A=
 0
.
0 2/3 2/3 
0 0 0 2/9
4. La matrice A est de rang 4 , puisqu'elle est triangulaire supérieure et que tous ses coecients
diagonaux sont non nuls, ou encore en montrant (c'est aisé) que ses colonnes sont linéairement indé-
pendantes. Par conséquent, elle est inversible, et Φ est bijective (c'est un automorphisme de R3 [X]) … .
5. On cherche un(polynôme Q2 ,)unitaire et de degré 2, donc de la forme Q2 = X 2 + aX + b (avec a
2
et b réels), tel que Φ − idR3 [X] (Q2 ) = 0R3 [X] . Cette équation peut se réécrire matriciellement :
3
       
( ) b 0 1/3 0 0 0 b 0 {
2  a   0   0 1/3 1/3 1/9   a   0  b = 0
A− I4  =  ⇐⇒    =   ⇐⇒
3  1   0   0 0 0 2/3   1   0  a = −1
0 0 0 0 0 −4/9 0 0

D'où : Q2 = X 2 − X . On procède de manière analogue pour déterminer Q3 , unitaire et de degré 3,


( )
2
donc de la forme Q3 = X + aX + bX + c (avec a, b et c réels), tel que Φ − idR3 [X] (Q3 ) = 0R3 [X] .
3 2
9
Cette équation peut se réécrire matriciellement :
      
c 0 7/9 0 0 0 c 0 
( )  c = 0
2   
b   0   0 7/9 1/3 1/9   b   0 
A − I4  =  ⇐⇒    =   ⇐⇒ b = 1/2
9 a   0   0 0 4/9 2/3   a   0  
a = −3/2
1 0 0 0 0 0 1 0
3 1
D'où : Q3 = X 3 − X 2 + X .
2 2
 
1 0 0 0
 0 1 0 0 
6. Au vu des questions 2 et 5, la matrice A′ de Φ dans la base B1 est : A′ = 
 0
 .Ÿ
0 2/3 0 
0 0 0 2/9
7. D'après les expressions de Q2 et Q3 obtenues dans la question 6, la matrice de passage de la base
 
1 0 0 0
 0 1 −1 1/2 
canonique B0 à la base B1 est : K = 
 0
 . Comme toute matrice de passage, K est
0 1 −3/2 
0 0 0 1
inversible, et K −1 peut être obtenue (par exemple) en résolvant le système linéaire :
      
1 0 0 0 x X 
 x= X 
 x= X
 0  
 1 −1 1/2 

 y   Y 
=  y − z + (1/2) t= Y y= Y +Z +T
 0 0 1 −3/2   z   Z  ⇐⇒  z − (3/2) t = Z
⇐⇒
 z= Z + (3/2) T

 

0 0 0 1 t T t= T t= T
 
1 0 0 0
 0 1 1 1 
On en déduit que : K −1 =
 0
.
0 1 3/2 
0 0 0 1

Partie II  Etude d'un commutant


8. L'application φ : M ∈ M4 (R) 7−→ (AM − M A) ∈ M4 (R) est clairement linéaire. Comme F est
le noyau de φ, F est un sous-espace vectoriel de M4 (R) .
9. Soit M ∈ M4 (R), on a :
−1
M A = AM ⇐⇒ M KA′ K −1 = KA′ K −1 M ⇐⇒ K −1 M KA′ K −1 = K ′ −1
| {zK} A K M
I4

−1
⇐⇒ K −1 M KA′ K ′ −1 −1 ′ ′ −1 ′ ′
| {zK} = A K M K ⇐⇒ K M KA = A K M K ⇐⇒ N A = A N
I4

Conclusion : M commute avec A si et seulement si N commute avec A′ .


10. Avec les notations de l'énoncé, on a d'une part :
    
α1,1 α1,2 α1,3 α1,4 1 0 0 0 α1,1 α1,2 2α1,3 /3 2α1,4 /9
 α2,1 α2,2 α2,3 α2,4   0 1 0 0   α2,1 α2,2 2α2,3 /3 2α2,4 /9 
N A′ = 
 α3,1

 
 =
  α3,1
 (♠)
α3,2 α3,3 α3,4 0 0 2/3 0 α3,2 2α3,3 /3 2α3,4 /9 
α4,1 α4,2 α4,3 α4,4 0 0 0 2/9 α4,1 α4,2 2α4,3 /3 2α4,4 /9
et d'autre part :
    
1 0 0 0 α1,1 α1,2 α1,3 α1,4 α1,1 α1,2 α1,3 α1,4
 0 1 0  
0   α2,1 α2,2 α2,3 
α2,4   α2,1 α2,2 α2,3 α2,4 
A′ N = 
 0 =  (♣)
0 2/3 0   α3,1 α3,2 α3,3 α3,4   2α3,1 /3 2α3,2 /3 2α3,3 /3 2α3,4 /3 
0 0 0 2/9 α4,1 α4,2 α4,3 α4,4 2α4,1 /9 2α4,2 /9 2α4,3 /9 2α4,4 /9
La matrice N commute avec A′ si et seulement si N A ′ − A′ N = 0 , c'est à dire d'après (♠) et (♣) SSI :

   
0 −α1,3 /3 −7α1,4 /9
0 0 0 0 0
 0 −α 0 /3 −7α /9   0 
 2,3 2,4 = 0 0 0 
 α3,1 /3 α3,2 /3 0 −4α3,4 /9   0 0 0 0 
7α4,1 /9 7α4,2 /9 4α4,3 /9 0 0 0 0 0

Conclusion : N commute avec A′ SSI α1,3 , α1,4 , α2,3 , α2,4 , α3,1 , α3,2 , α3,4 , α4,1 , α4,2 et α4,3 sont nuls .

11. Soit N ∈ M4 (R). D'après la question précédente, N ∈ F ′ si et seulement s'il existe six scalaires (αk )k∈[[1;6]]
tels que :

 
α1 α2 0 0
 α3 α4 0 0 
N = 
 0 0 α5 0  ⇐⇒ N = α1 E11 + α2 E12 + α3 E21 + α4 E22 + α5 E33 + α6 E44

0 0 0 α6
On en déduit que (E11 , E12 , E21 , E22 , E33 , E44 ) est une famille génératrice de F′ ; et comme c'est une une

sous-famille de la base canonique de M4 (R), elle est libre.

Conclusion : F′ est un sous-espace vectoriel de M4 (R) de dimension 6.


12. Introduisons l'application ψ : M ∈ M4 (R) 7−→ K −1 M K .
( )
On a : ∀ (λ, µ) ∈ R2 , ∀ (M, M ′ ) ∈ [M4 (R)]2 , Ψ (λM + µM ′ ) = K −1 (λM + µM ′ ) K = λK −1 M + µK −1 M ′ K

= λK −1 M K + µK −1 M ′ K = λΨ (M ) + µΨ (M ′ )

Ce qui prouve la linéarité de Ψ. Donc Ψ est un endomorphisme de M4 (R) .

Considérons à présent l'application : Ψe : M ∈ M4 (R) 7−→ KM K −1 ∈ M4 (R). C'est un endomorphisme de

M4 (R), et il est clair que e =Ψ


Ψ◦ Ψ e ◦ Ψ = idM (R) .
4

Ce qui prouve que Ψ est un automorphisme de M4 (R) (et e)


Ψ−1 = Ψ .

Soit M ∈ F, alors Ψ (M ) = K −1 M K et donc Ψ (M ) ∈ F ′ Ψ (F ) ⊂ F ′ , c'est


d'après la question 9. D'où :

′ −1
( ) −1
) (
toujours ça de pris. Réciproquement, soit N ∈ F : alors N = K KN K K , et KN K −1 ∈ F , toujours
d'après la question 9. En posant M = KN K
−1 , on a donc : N = Ψ (M ) avec M ∈ F , d'où N ∈ Ψ (F ). Par

suite : F ⊂ Ψ (F ) .

Des deux inclusions établies plus haut, on déduit que : Ψ (F ) = F ′ .


De cette égalité et de la question précédente, on déduit que F et Ψ (F ) = F
′ sont des espaces vectoriels

isomorphes ; à ce titre, ils sont de même dimension. Ainsi : dim F = 6 .


PSI* Problème de révision n°7
Année scolaire
2018/2019

Matrices quasi-nilpotentes
Notations

Dans tout le problème, K désigne R ou C.


Étant donnés deux entiers naturels n et p non nuls, on note Mn,p (K) l’espace vectoriel des matrices à
n lignes et p colonnes et à coefficients dans K et Mn (K) = Mn,n (K). On note In la matrice identité de
Mn (K).
Pour i, j dans [[1, n]], on note Ei,j la matrice élémentaire de Mn (K) ayant exactement un coefficient non
nul, situé en position (i, j) et de valeur 1. La transposée d’une matrice M sera notée t M .
Une matrice carrée A ∈ Mn (K) est dite triangulaire supérieure stricte lorsqu’elle est triangulaire
supérieure à coefficients diagonaux tous nuls.
On note Sn (K), An (K) et Tn++ (K) les sous-ensembles de Mn (K) constitués respectivement des matrices
symétriques, antisymétriques et triangulaires supérieures strictes.
On rappelle la notation du symbole de Kronecker : pour x et y deux entiers,
1 si x = y
δ x,y = .
0 sinon
Définition 1 Étant donné un entier naturel non nul n, un sous-espace vectoriel V de Mn (K), et un
élément j de [[1, n]], on note Cj (V ) l’ensemble des matrices de V dont toutes les colonnes sont nulles à
l’exception éventuelle de la j-ième.
Pour toute matrice M ∈ Mn (K) avec n ≥ 2, on notera K(M) ∈ Mn−1 (K), R(M ) ∈ Mn−1,1 (K),
L(M ) ∈ M1,n−1 (K) et a(M) ∈ K les éléments de la décomposition de M en blocs suivante :
K(M) R(M)
M= (1)
L(M) a(M)
On a en particulier défini des fonctions K : V → Mn−1 (K) et L : V → M1,n−1 (K), évidemment
linéaires.
Pour toute matrice M ∈ Mn (K) et tout scalaire λ ∈ K, on dit que λ est une valeur propre de M
dans K lorsqu’il existe un vecteur colonne non nul X ∈ Mn,1 (K) tel que MX = λX, c’est-à-dire
lorsque M − λIn n’est pas inversible.
L’ensemble des valeurs propres de M dans K est le spectre de M dans K, noté SpK M.
Les valeurs propres de M dans K sont ainsi les racines du polynôme de K [X] associé à la fonction
λ → det (λIn − M ), polynôme appelé polynôme caractéristique de M et noté χM .

Objectifs

Définition 2 Soit A ∈ Mn (K). On dit que A est quasi-nilpotente lorsqu’elle ne possède aucune
valeur propre non nulle dans K. Une partie V de Mn (K) est dite quasi-nilpotente lorsque tous ses
éléments sont quasi-nilpotents.
On se propose d’étudier les sous-espaces vectoriels quasi-nilpotents de Mn (K). En particulier, le résultat
principal que nous souhaitons établir s’énonce comme suit.
Théorème (Dimension des espaces quasi-nilpotents) Pour tout sous-espace vectoriel quasi-nilpotent
V de Mn (K), on a
n (n − 1)
dim V ≤ (QN)
2
La clé pour démontrer ce résultat réside dans le lemme suivant, démontré dans la partie C.
Lemme (Lemme des colonnes) Pour tout sous-espace vectoriel quasi-nilpotent V de Mn (K),
il existe un élément j de [[1, n]] tel que Cj (V ) = {0}.
PSI* — 2018/2019 Page 2/3

A — Exemples

Dans cette partie, n désigne un entier naturel supérieur ou égal à 2.


0 −1
1) Montrer que la matrice D = est quasi-nilpotente, vue comme matrice de M2 (R).
1 0
Est-elle quasi-nilpotente, vue comme matrice de M2 (C) ?

1 i
2) Montrer que la matrice B = est quasi-nilpotente, vue comme matrice de M2 (C).
i −1

3) Montrer que Sn (K), An (K) et Tn++ (K) sont des sous-espaces vectoriels de Mn (K).
Montrer que la dimension de Sn (K) est n(n + 1)/2.

4) Montrer que Tn++ (K) est quasi-nilpotent dans Mn (K). Vérifier que
n(n − 1)
dim Tn++ (K) = .
2
5) Soit A ∈ An (R). Montrer que, pour tout X ∈ Mn,1 (R), t XAX = 0.
En déduire que An (R) est quasi-nilpotent dans Mn (R).

6) Montrer qu’il n’existe pas de matrice inversible P ∈ GLn (R) telle que
An (R) = P MP −1 , M ∈ Tn++ (R)
Indication : on pourra commencer par étudier le cas n = 2, en utilisant par exemple la matrice D
introduite à la question 1.

B — Cas réel

Dans cette partie, n désigne un entier naturel non nul.


7) Déterminer l’ensemble des matrices de Sn (R) qui sont quasi-nilpotentes dans Mn (R) (les 3/2 pourront
admettre que toute matrice de Sn (R) est semblable à une matrice diagonale).
Le résultat obtenu subsiste-t-il si l’on remplace R par C ?

8) Soit V un sous-espace vectoriel de Mn (R), quasi-nilpotent dans Mn (R). Déduire de la question précé-
dente que
n(n − 1)
dim V ≤ .
2

C — Lemme des colonnes

On se propose ici de démontrer le lemme des colonnes par récurrence sur l’entier n.
9) Justifier que le lemme des colonnes est vrai dans le cas n =1.
Dans la suite, on fixe un entier naturel n ≥ 2 et on suppose le lemme des colonnes vrai pour l’entier
n − 1. On se donne un sous-espace vectoriel quasi-nilpotent V de Mn (K). On raisonne par l’absurde
en supposant que Cj (V ) = {0} pour tout j ∈ [[1, n]].
On introduit le sous-ensemble V ′ de V constitué de ses matrices de dernière colonne nulle.
Toute matrice M de V ′ s’écrit donc par blocs comme suit
K(M) 0
M=
L(M) 0
PSI* — 2018/2019 Page 3/3

10) Montrer que l’ensemble K(V ′ ) = K(M), M ∈ V ′ est un sous-espace vectoriel quasi-nilpotent de
Mn−1 (K).

11) En déduire qu’il existe un entier j ∈ [[1, n]] tel que En,j ∈ V .
Soit σ une bijection de [[1, n]] dans lui même. Soit (e1 , . . . , en ) la base canonique de Kn . On considère
l’application linéaire uσ de Kn dans Kn définie sur la base canonique par
∀j ∈ [[1, n]] , uσ (ej ) = eσ(j)
On considère la matrice Pσ de Mn (K) :
Pσ = δ i,σ(j) 1≤i,j≤n

12) Vérifier que uσ est inversible et préciser son inverse.

13) Vérifier que Pσ est la matrice de uσ dans la base canonique de Kn . Montrer que Pσ est inversible et
préciser les coefficients de son inverse.

14) Pour M ∈ Mn (K), préciser les coefficients de Pσ−1 MPσ en fonction de ceux de M et de σ.
On pourra utiliser un changement de base.

15) Montrer que l’ensemble


V σ = Pσ−1 MPσ , M ∈ V
est un sous-espace vectoriel quasi-nilpotent de Mn (K) et que Cj (V σ ) = {0} pour tout j ∈ [[1, n]].

16) En déduire que, pour tout j ∈ [[1, n]], on peut choisir un f(j) ∈ [[1, n]] \ {j} tel que Ej,f (j) ∈ V . On
obtient ainsi une fonction
f : [[1, n]] → [[1, n]] .

17) En considérant les images successives de 1, montrer qu’il existe une suite finie (j1 , . . . , jp ) d’éléments
deux à deux distincts de [[1, n]] telle que
∀k ∈ [[1, n]] , f(jk ) = jk+1 et f (jp ) = j1 .

18) Écrire un algorithme qui permet d’identifier une telle suite connaissant les valeurs de f.
p
19) Démontrer que 1 est valeur propre de la matrice N = Ejk ,f (jk ) et conclure.
k=1

D — Cas général

On va ici prouver l’inégalité (QN) par récurrence sur n. Le cas n = 1 est trivialement vrai. On fixe
donc un entier naturel n ≥ 2 et on suppose l’inégalité (QN) établie au rang n−1. Soit V un sous-espace
vectoriel quasi-nilpotent de Mn (K).
On rappelle qu’on peut écrire toute matrice M ∈ Mn (K), et en particulier de V , sous la forme (1)
et qu’en particulier, les applications K : V → Mn−1 (K) et L : V → M1,n−1 (K) sont linéaires. On
introduit le sous-espace vectoriel
W = {M ∈ V | L(M) = 0}
Jusqu’à la question 21 incluse, on suppose que Cn (V ) = {0}.

20) Montrer que dim V ≤ dim K(W ) + (n − 1).

n(n − 1)
21) En déduire que dim V ≤ .
2
On ne suppose plus désormais que Cn (V ) = {0}.
n(n − 1)
22) Démontrer que dim V ≤ .
2
PSI* Problème de révision n°7
Correction

Matrices quasi-nilpotentes
Année scolaire
2018/2019

A. Exemples

1) Le polynôme caractéristique de D est


χD = X 2 + 1
Il n’a aucune racine réelle et le spectre de D sur R est vide. En particulier D n’a aucune valeur propre
réelle non nulle et donc
D est quasi-nilpotente en tant que matrice de M2 (R).
Le spectre sur C de D est {i, −i} et contient au moins un élément non nul donc
D n’est pas quasi-nilpotente en tant que matrice de M2 (C).

2) Le polynôme caractéristique de B est


χB = X 2 − 1 + 1 = X 2
Ainsi, le spectre complexe de B est {0} et ne contient aucun élément non nul.
B est quasi-nilpotente en tant que matrice de M2 (C).

3) Sn (K) est le noyau de l’application linéaire M → M − t M, An (K) est le noyau de l’application linéaire
M → M + t M.
Enfin Tn++ (K) est non vide (il contient 0) et est stable par combinaisons linéaires. En conclusion
Sn (K), An (K) et Tn++ (K) sont des sous-espaces vectoriels de Mn (K).
Montrons que
Sn (K) = Vect ((Ei,j + Ej,i )1≤i<j≤n , (Ei,i )1≤i≤n )
-L’inclusion réciproque est vraie car les Ei,j + Ej,i et Ei,i sont symétriques et car Sn (K) est un
sous-espace.
-Soit S ∈ Sn (R). J’ai
n
S= si,j (Ei,j + Ej,i ) + si,i Ei,i ∈ Vect (Ei,j + Ej,i )1≤i<j≤n , (Ei,i )1≤i≤n
1≤i<j≤n i=1
J’ai donc aussi l’inclusion directe.
Je remarque ensuite que la famille ((Ei,j + Ej,i )1≤i<j≤n , (Ei,i )1≤i≤n ) est libre (je considère une combi-
naison linéaire nulle et j’ai immédiatement la nullité des coefficients). Il reste alors à compter le nombre
des éléments de cette famille qui est une base de Sn (K) :
n n(n − 1)
dim Sn (K) = +n= +n
2 2
soit
n(n + 1)
dim Sn (K) = .
2

4) Les valeurs propres d’une matrice triangulaire sont ses coefficients diagonaux et donc
∀T ∈ Tn++ (K), SpT = {0}.
Ceci montre que
Tn++ (K) est quasi-nilpotent dans Mn (K).
Comme à la question précédente, je montrerais que
Tn++ (K) = Vect (Ei,j , 1 ≤ i < j ≤ n)
La famille étant libre, c’est une base et
n(n − 1)
dim Tn++ (K) = .
2
PSI* — 2018/2019 — Corrigé Page 2

5) Notons que, pour X ∈ Mn,1 (R), t XAX est une matrice carrée d’ordre 1, que l’on identifie classiquement
à un scalaire (son unique coefficient !). Par ailleurs, selon les propriétés de la transposition,
t t
XAX = t X t AX = −t XAX
d’où, t t XAX s’identifiant au même scalaire que t XAX,
∀X ∈ Mn,1 (K) t XAX = 0.
En particulier, si λ est une valeur propre de A et X un vecteur propre associé alors
 
x1
n
 .. 
0 = XAX = λ XX or, si X =  .  j’ai t XX =
t t
x2k
k=1
xn
et comme X = 0 (vecteur propre), t XX > 0 d’où λ = 0. 0 est donc la seule valeur propre réelle possible
pour A. En conclusion
An (R) est quasi-nilpotent dans Mn (R).

6) Je procède par l’absurde, en supposant que toute matrice antisymétrique de Mn (R) s’écrit sous la forme
P MP −1 , où P ∈ GLn (R) et M ∈ Tn++ (R). La matrice D étant antisymétrique d’ordre 2 et n ≥ 2, je
D 0
dispose de la matrice définie par blocs A = ∈ An (R). J’ai immédiatement (déterminant par
0 0
blocs)
χA = X 2 + 1 X n−2
et donc −i et i sont des valeurs propres non nulles de A. Or deux matrices semblables ont même
polynôme caractéristique (immédiat) et les matrices de Tn++ (R) ont 0 pour unique valeur propre, d’où
une contradiction. En conclusion
Il n’existe pas de matrice P vérifiant la propriété de l’énoncé.

B — Cas réel

7) Soit S ∈ Sn (R). S est alors semblable dans Mn (R) à une matrice diagonale (théorème spectral). Si 0
est sa seule valeur propre réelle, S est alors semblable à une matrice diagonale nulle et est donc nulle.
Réciproquement, 0 est symétrique et quasi-nilpotente.
La matrice nulle est la seule matrice symétrique quasi-nilpotente dans Mn (R).
La question 2 montre que le résultat est faux dans le cas complexe (S est une matrice symétrique
quasi-nilpotente dans M2 (C) qui n’est pas la matrice nulle).

8) Soit V un sous-espace vectoriel de Mn (R), quasi-nilpotent dans Mn (R). D’après la question précédente
V ∩ Sn (R) = {0} et donc V et Sn (R) sont en somme directe. Ainsi
n(n − 1)
dim V ≤ dim Mn (R) − dim Sn (R) = .
2

C — Lemme des colonnes

9) La seule matrice quasi-nilpotente de M1 (K) est la matrice nulle (puisqu’une matrice de taille 1 a une
unique valeur propre égale à son unique coefficient).
Le lemme des colonnes est donc vrai dans le cas n = 1.

10) Un calcul de déterminant par blocs montre que si M ∈ V ′ alors


χM = X × χK(M) .
Les valeurs propres non nulles de M ∈ V ′ et celles de K(M) sont donc les mêmes.
PSI* — 2018/2019 — Corrigé Page 3

Or V est quasi-nilpotent, donc V ′ l’est également, d’où grâce à la remarque précédente


K(V ′ ) est quasi-nilpotent.

11) D’après l’hypothèse de récurrence appliquée à K(V ′ ) (sous-espace de Mn−1 (K)), je dispose d’un élément
j ∈ [[1, n − 1]] tel que Cj (K(V ′ )) = {0}. Or par hypothèse Cj (V ) = {0}, je dispose donc d’une matrice
M non nulle dans Cj (V ). Comme j < n, M ∈ V ′ et donc K(M) ∈ K(V ′ ). Comme M ∈ Cj (V ), j’ai
aussi K(M) qui a toutes ses colonnes nulles sauf peut-être la j-ième. Finalement, K(M) ∈ Cj (K(V ′ ))
et donc K(M) = 0.
M a ainsi une unique colonne qui peut être non nulle (celle de numéro j) et seul le dernier coefficient
de cette colonne peut être non nul. Comme M = 0, il existe c = 0 tel que M = cEn,j . Enfin, V ′ est un
1
sous-espace vectoriel donc En,j = M ∈ V ′ , or V ′ ⊂ V d’où finalement
c
Il existe j ∈ [[1, n]] tel que En,j ∈ V .

12) uσ transforme la base (e1 , . . . , en ) en eσ(1) , . . . , eσ(n) qui est aussi une base. Cette application linéaire
est donc un automorphisme de Kn .
σ envoie eσ(i) sur ei pour tout i et donc ek sur eσ−1 (k) pour tout k. J’ai donc
u−1
uσ ∈ GL (Kn ) et u−1
σ = uσ −1 .

13) La colonne j de la matrice de uσ dans la base canonique est la colonne eσ(j) . Elle a tous ses coefficients
nuls sauf celui de la ligne σ(j). Son coefficient générique est donc δ i,σ(j) . J’ai ainsi
M(e1 ,...,en ) (uσ ) = Pσ .
J’en déduis que Pσ est inversible et que
Pσ−1 = M(e1 ,...,en ) (u−1
σ ) = Pσ−1 = δ i,σ −1 (j) 1≤i,j≤n
= δ σ(i),j 1≤i,j≤n
.

14) Soit g l’endomorphisme de Kn canoniquement associé à M. Pσ étant la matrice de changement de base


de (ei ) à (eσ(i) ), d’après la formule de changement de base,
Pσ−1 MPσ = M(eσ(i) ) (g)
Le coefficient à l’intersection des colonne j et ligne i est la coordonnée sur eσ(i) de g(eσ(j) ). Or,
n n
g(eσ(j) ) = mk,σ(j) ek = mσ(l),σ(j) eσ(l)
k=1 l=1
Finalement,
Pσ−1 MPσ = mσ(i),σ(j) 1≤i,j≤n
.

15) V σ est l’image de V par l’application linéaire M → Pσ−1 MP , c’est donc un sous-espace vectoriel de
Mn (K).
Deux matrices semblables ayant même spectre, le caractère quasi-nilpotent des éléments de V entraîne
celui des éléments de V σ :
V σ est un sous-espace quasi-nilpotent de Mn (K).

Enfin, fixons j ∈ [[1, n]]. Par hypothèse, je dispose de M non nulle dans Cσ(j) (V ). J’ai en particulier
mℓ,c qui est nul si c = σ(j) ce que l’on peut écrire mσ(ℓ),σ(c) = 0 si σ(c) = σ(j) ou encore si c = j.
La matrice Pσ−1 MPσ est donc dans Cj (V σ ). Elle est non nulle car M l’est (et A → Pσ−1 AP est un
isomorphisme). J’ai montré que
∀j ∈ [[1, n]] Cj (V σ ) = {0}.

16) V σ et V ont les mêmes propriétés (sous-espaces quasi-nilpotents tels que pour tout j, Cj (V σ ) = {0}).
Pour tout σ, on peut donc appliquer la question 11 à V σ et dire qu’il existe k ∈ [|1, n − 1|] tel que
En,k ∈ Vσ ou encore que Pσ En,k Pσ−1 ∈ V .
D’après la question 14, pour tout choix de σ j’ai Pσ−1 Eu,v Pσ = Eσ−1 (u),σ−1 (v) (en effet en notant
N = Pσ−1 Eu,v Pσ , j’ai Ni,j qui est égal au coefficient (σ(i), σ(j)) de Eu,v et est nul sauf si σ(i) = u et
σ(j) = v).
PSI* — 2018/2019 — Corrigé Page 4

En appliquant ceci avec σ−1 , j’ai donc Pσ En,k Pσ−1 = Eσ(n),σ(k) .


Fixons j ∈ [[1, n]]. Appliquons le résultat précédent avec pour σ la bijection qui échange j et n en
laissant les autres éléments invariants (c’est l’identité si j = n). Je trouve alors k ∈ [[1, n − 1]] tel que
Eσ(n),σ(k) = Ej,σ(k) ∈ V . J’ai bien sûr σ(k) = j car k = n et σ est une bijection qui envoie déjà n sur j.
J’ai ainsi prouvé que
∀j ∈ [[1, n]] ∃ f(j) = j Ej,f (j) ∈ V .

Nous avons ainsi défini une application f : [[1, n]] → [[1, n]] telle que, pour tout j, f(j) = j (pas besoin
d’axiome du choix : puisqu’il y a un ensemble fini non vide de valeurs qui conviennent, on peut choisir
par exemple son plus petit élément pour définir précisément f(j). . . ).

17) Posons i1 = 1 et, pour tout k ≥ 2, ik = f(ik−1 ). L’ensemble {ik , k ∈ N∗ } est inclus dans [[1, n]] et
donc fini. Or, N∗ est infini. Il existe donc deux ik égaux pour des valeurs de k différentes : ia = ib avec
a < b. En partant de ia et en calculant les images itérées par f, je finis donc par retomber sur ia . Je
regarde la première fois où je retrouve ia et ce n’est pas à la première itération car f(j) = j pour tout
j. Je trouve ainsi des indices ia , ia+1 , . . . , ia+p−1 avec p ≥ 2 deux à deux distincts, chacun étant l’image
du précédent par f et avec f(ia+p−1 ) = ia .
En posant j1 = ia , j2 = ia+1 , . . . , jp = ia+p−1 , j’ai obtenu des éléments deux à deux distincts tels que
∀k ∈ [[1, p − 1]] f(jk ) = jk+1 et f (jp ) = j1 .

18) J’applique le procédé décrit ci-dessus. Je gère un tableau r de booléens à n + 1 cases numéroté à partir
de 0 et dont la case 0 sera inutile (mais cela permet de respecter la notation Python). Initialement
toutes les cases contiennent False.
Je pars de 1 et je mets True dans r[1] (l’indice 1 a été rencontré).
Ensuite je mets dans i les itérés successifs de 1, à l’aide d’une boucle while dont je sors dès que f(i)
a déjà été rencontré (à chaque nouvelle valeur de f(i) rencontrée, je mets True dans r[f(i)]).
À la sortie de la boucle, i contient ainsi un indice qui a déjà été rencontré (parmi les itérés de 1), il
suffit alors de repartir de cet indice, ses images successives par f redonneront i en un temps fini, par
construction.
Je n’ai plus qu’à les stocker dans une liste jusqu’au “bouclage” et à renvoyer cette liste.
Pour le code Python, je suppose que l’entier n et la fonction f ont été définis !

r=[False]*(n+1)
i=1
r[1]=True

while not r[f(i)]:


i=f(i)
r[i]=True

S=[i]
k=f(i)
while k!=i:
S.append(k)
k=f(k)

print(S)

19) N est une matrice comportant p valeurs non nulles qui sont égales à 1. Il y a un coefficient 1 sur chaque
ligne j1 , . . . , jp et aussi un sur chaque colonne f(j1 ), . . . , f(jp ) = j2 , . . . , jp , j1 . On en déduit que le
p
vecteur ejk est vecteur propre de N associé à la valeur propre 1.
k=1
Ceci est contradictoire car N ∈ V (comme somme d’éléments de V qui est un espace vectoriel) et ne
devrait posséder aucune valeur propre non nulle. Cela clôt le raisonnement par l’absurde !
PSI* — 2018/2019 — Corrigé Page 5

D — Cas général

20) Considérons l’application Φ : M ∈ V → (K(M), L(M)). Si Φ(M) = 0 alors L(M) = 0 et K(M) = 0.


Or Cn (V ) = 0 et ces conditions impliquent donc que M = 0. Le noyau de Φ est égal à Ker K ∩ Ker L
et Φ (qui est linéaire) est injective. J’ai ainsi
dim V = dim ImΦ = dim Φ(V )
Soit un supplémentaire W ′ de W dans V ; j’ai (par injectivité de Φ)
Φ(V ) = Φ(W ) ⊕ Φ(W ′ )
J’ai Φ(W ) = {(K(M), L(M)) , M ∈ W } = {(K(M), 0) / M ∈ W } qui est isomorphe à K(W ) et donc
de même dimension.
W = Ker L et, par le théorème du rang, W ′ est isomorphe à L(V ) qui est de dimension au plus n − 1.
Φ(W ′ ) qui est isomorphe à W ′ est donc aussi de dimension au plus n − 1. Finalement,
dim V = dim Φ(V ) ≤ dim K(W ) + (n − 1).

21) Soit M ∈ W ; M s’écrit


K(M) R(M)
M=
0 a(M)
et M est quasi-nilpotente (car dans V ) ; or ses valeurs propres sont a(M) et celles de K(M ). Ainsi
K(M) n’a pas de valeurs propres non nulle (et a(M) = 0). Cela prouve que K(W ) est quasi-nilpotent.
D’après l’hypothèse de récurrence et la question précédente,
(n − 1) (n − 2) (n − 1) (n − 2)
dim K(M) ≤ d’où dim V ≤ + (n − 1)
2 2
ce qui donne bien
n (n − 1)
dim V ≤ .
2

22) D’après le lemme des colonnes, je dispose de j tel que Cj (V ) = {0}. Considérons la permutation σ qui
échange j et n. V σ est alors isomorphe à V et est un espace vectoriel quasi-nilpotent auquel je peux
appliquer le résultat précédent. J’ai donc
n(n − 1)
dim V = dim V σ ≤ .
2
PSI* Problème de révision n°8
Année scolaire
2018/2019

Notations et rappels
• Dans tout le problème n désigne un entier supérieur ou égal à 2 et E un C-espace vectoriel de dimension n.
On notera L(E) le C-espace vectoriel des endomorphismes de E et GL(E) le sous-ensemble de L(E) formé
des automorphismes de E.
• À tout f ∈ L(E), on associe sa matrice MatB (f ) dans la base B choisie dans E.
On rappelle que l’application f 7→ MatB (f ) est un isomorphisme de L(E) sur le C-espace vectoriel, noté
Mn (C), formé des matrices carrées d’ordre n à coefficients complexes.
De la même façon, GL(E) s’identifie, moyennant l’isomorphisme précédent, à l’ensemble GLn (C) des matrices
carrées d’ordre n qui sont inversibles.
On rappelle également que GL(E) (respectivement GLn (C)), muni de la composition des applications (res-
pectivement muni du produit des matrices), possède une structure de groupe.
• Soit A = (aij )16i,j6n ∈ Mn (C). On dit que A est triangulaire supérieure si aij = 0 dès que i > j. On note
Tn (C) le sous-espace vectoriel de Mn (C) formé des matrices triangulaires supérieures.
Soit f ∈ L(E). On sera amené à utiliser la propriété (T) suivante :
(T) : il existe une base B 0 de E telle que MatB0 (f ) ∈ Tn (C)
• On rappelle que, par convention : ∀A ∈ Mn (C), A0 = I (matrice identité).
• Soit f ∈ L(E). Alors, f admet n valeurs propres en comptant chacune avec son ordre de multiplicité.
• On rappelle enfin que l’exponentielle d’un nombre complexe z peut être noté ez ou exp z et que, pour tout
nombre complexe z, exp z 6= 0.

I Préliminaires : endomorphismes nilpotents, trace d’un endomor-


phisme
I.A – Soit f ∈ L(E).
I.A.1) Montrer que f est injectif si et seulement si 0 n’est pas valeur propre de f .
I.A.2) Montrer que f ∈ GL(E) si et seulement si 0 n’est pas valeur propre de f .
I.A.3) Soit M ∈ Mn (C). Montrer que M est inversible si et seulement si 0 n’est pas valeur propre de M .
I.B – Une matrice N ∈ Mn (C) sera dite nilpotente s’il existe un entier strictement positif k tel que : N k = 0
(matrice nulle).
On note k(N ) le plus petit entier strictement positif vérifiant cette propriété et on l’appelle « indice de nilpotence
de N ».
On note Nn (C) l’ensemble des matrices nilpotentes de Mn (C).
I.B.1) Soit N la matrice de M3 (C) définie par :
 
0 1 2
N = 0 0 3
0 0 0

Montrer que N ∈ N3 (C) puis déterminer k(N ).


I.B.2) Soient N ∈ Mn (C) et M une matrice semblable à N .
a) Montrer que, pour tout entier naturel p, M p et N p sont semblables.
b) En déduire que, si N est nilpotente, M l’est aussi et k(M ) = k(N ).
I.B.3) Soit f ∈ L(E). On suppose qu’il existe une base B de E telle que MatB (f ) ∈ Nn (C).
Montrer que, pour toute base B 0 de E, MatB0 (f ) est également nilpotente et de même indice de nilpotence que
MatB (f ).
On dira alors que f est nilpotent et on notera k(f ) l’indice de nilpotence de MatB (f ) qui sera appelé aussi
indice de nilpotence de f .
I.B.4) Soient N ∈ Tn (C) et nij son terme général.
On suppose que : ∀i ∈ [[1, n]], nii = 0.
(k)
On note nij le terme général de la matrice N k avec k ∈ N.
(2)
a) Montrer que N 2 ∈ Tn (C) et que nij = 0 si j 6 i + 1.

Page 1/4
(k)
b) Montrer, plus généralement, que N k ∈ Tn (C) et que nij = 0 si j 6 i + k − 1.
c) En déduire que N ∈ Nn (C).
I.B.5) Soient f ∈ L(E) et N ∈ Tn (C) la matrice de f dans une base appropriée B de E donnée par la
propriété (T) rappelée en préliminaire.
a) En explicitant le polynôme caractéristique de N , déterminer les valeurs propres de f en fonction des
termes diagonaux de N .
b) Montrer que f est nilpotent si et seulement si 0 est sa seule valeur propre.
I.B.6) Montrer qu’une matrice triangulaire supérieure est nilpotente si et seulement si tous ses termes
diagonaux sont nuls.
I.C – Soit A = (aij ) ∈ Mn (C).
Xn
On rappelle que la trace de A est le nombre complexe Tr(A) = aii .
i=1
I.C.1) Soit f ∈ L(E).
Montrer que le nombre complexe Tr(MatB (f )) ne dépend pas du choix de la base B dans E.
On appelle « trace de l’endomorphisme f » ce nombre complexe, noté Tr(f ).
Ainsi on a, pour toute base B de E, Tr(f ) = Tr(MatB (f )).
I.C.2) Soit f ∈ L(E). On désigne par λ1 , . . . , λn , les valeurs propres (éventuellement égales) de f .
Montrer, à l’aide de la question I.B.5 a, que :
n
X
Tr(f ) = λk
k=1

I.C.3) On considère le cas n = 2. Soit A ∈ M2 (C) telle que Tr(A) = 0.


Montrer que A est soit diagonalisable, soit nilpotente.
I.C.4) A-t-on le même résultat lorsque n = 3 ?

II Exponentielle d’un endomorphisme


Soit f ∈ L(E).
II.A – On suppose, tout d’abord, f diagonalisable, et on note Bp = {e1 , . . . , en } une base de vecteurs
propres de f associés respectivement aux valeurs propres λ1 , . . . , λn . On définit alors l’endomorphisme exp f
par l’image des vecteurs de la base Bp en posant :

∀i ∈ [[1, n]], (exp f )(ei ) = (exp λi )ei

II.A.1)
a) Représenter la matrice de exp f sur la base Bp .
b) Montrer que exp f appartient à GL(E).
Cet endomorphisme est appelé « exponentielle de l’endomorphisme f ». On admet qu’il ne dépend que de f et
pas de la base de vecteurs propres de f utilisée pour le définir.
Si D est une matrice diagonale de termes diagonaux µ1 , . . . , µn , on note exp D la matrice diagonale dont les
termes diagonaux sont exp µ1 , . . . , exp µn .
II.A.2) Soit M ∈ Mn (C). On suppose que M est diagonalisable.
Soient P1 , P2 deux matrices inversibles et D1 , D2 deux matrices diagonales telles que :
M = P1 D1 P1−1 = P2 D2 P2−1

Montrer que P1 (exp D1 )P1−1 = P2 (exp D2 )P2−1 .


On appellera exponentielle de la matrice M , la matrice notée exp M égale à P (exp D)P −1 où (P, D) est un
couple de matrices utilisé pour diagonaliser M .
II.B – On suppose maintenant que f est nilpotent, d’indice de nilpotence k(f ). On considère une base B
de E telle que M = MatB (f ) ∈ Tn (C), selon la propriété (T).
On pose alors :
 k(f )−1 p
 X f
exp f = où f 0 =identité de E





p=0
p!
k(f )−1

 X Mp
exp M =


p!


p=0

Page 2/4
II.B.1) Déterminer les termes diagonaux de la matrice exp M .
II.B.2) En déduire l’ensemble des valeurs propres de exp f puis montrer que exp f ∈ GL(E).
L’endomorphisme exp f est encore appelé l’exponentielle de f et la matrice exp M l’exponentielle de M .
II.C – On suppose enfin que f satisfait à la propriété (P ) suivante :
2
(P) : ∃(d, g) ∈ (L(E)) , d diagonalisable, g nilpotent, d ◦ g = g ◦ d / f = d + g
On admettra que, si f satisfait à (P), alors le couple (d, g) donné par (P) est unique.
II.C.1)
a) Montrer que : exp d ◦ exp g = exp g ◦ exp d.
On pose alors : exp f = exp d ◦ exp g et on l’appelle encore l’exponentielle de f .
On désigne par Γn (E) le sous-ensemble de L(E) formé des endomorphismes f satisfaisant à (P ).
De même, on désigne par Γn (C) le sous-ensemble de Mn (C) formé des matrices M qui peuvent s’écrire
M = D + N avec D diagonalisable, N nilpotente et DN = N D.
b) Montrer que, pour toute matrice M de Γn (C), le couple (D, N ) associé est unique.
On pose exp M = exp D exp N et on l’appelle l’exponentielle de M .
II.C.2) Soient M ∈ Γn (C) et P ∈ GLn (C).
Démontrer que P M P −1 ∈ Γn (C) et que exp(P M P −1 ) = P (exp M )P −1 .
On a ainsi défini deux applications exp : Γn (E) −→ GL(E) et exp : Γn (C) −→ GLn (C).
Notre but est maintenant d’étudier un peu plus précisément ces applications dans les cas n = 2 et n = 3.

III Le cas n = 2
On suppose dans toute cette partie que E désigne un C espace-vectoriel de dimension 2.
III.A – Soient f ∈ L(E), λ et µ ses valeurs propres, Eλ le sous-espace propre associé à la valeur propre λ.
On suppose f non diagonalisable.
III.A.1) Montrer que λ = µ et que dim Eλ = 1.
Montrer, de plus, que (f − λIdE )2 = 0. (On pourra utiliser la question I.B.5 a).
III.A.2) Soient v ∈ E un vecteur n’appartenant pas à Eλ et u = f (v) − λv.
Montrer que u ∈ Eλ \{0} et que B = (u, v) est une base de E. Déterminer MatB (f ).
III.B – Pour tout couple (a, b) ∈ C2 , on définit les matrices suivantes :
   
a 0 a 1
D(a, b) = et M (a) =
0 b 0 a

On définit enfin le sous-ensemble suivant de M2 (C) :


J2 (C) = D(a, b) , (a, b) ∈ C2 ∪ {M (a) , a ∈ C}


Montrer que tout élément de M2 (C) est semblable à une matrice de J2 (C).
III.C – Montrer que J2 (C) ⊂ Γ2 (C) puis calculer exp D(a, b) et exp M (a) pour tout couple (a, b) ∈ C2 .
III.D – Montrer que Γ2 (C) = M2 (C).
On admettra de même que Γ2 (E) = L(E).
L’application exponentielle est ainsi une application de L(E) dans GL(E).

III.E –
III.E.1) Soient θ un réel non nul et A(θ) la matrice définie par :
 
0 −θ
A(θ) =
θ 0

Déterminer exp A(θ).


III.E.2) L’application exp : M2 (C) −→ GL2 (C) est-elle injective ?
III.E.3) En utilisant la question III.C, montrer que toute matrice de J2 (C) ∩ GL2 (C) est semblable à
l’image par l’application exponentielle d’un élément de J2 (C).
III.E.4) En déduire, en utilisant les questions II.C.2, III.B et III.E.3, que l’application exp : M2 (C) −→
GL2 (C) est surjective.
 
III.F – Montrer que : ∀M ∈ M2 (C) , det exp M = exp Tr(M ) .
III.G – Soient SL2 (C) = {M ∈ M2 (C) | det M = 1} et L0 (C) le sous-espace vectoriel de M2 (C) formé des
matrices de trace nulle.
III.G.1) Montrer que SL2 (C) est un sous-groupe de GL2 (C) et que :

Page 3/4
∀M ∈ L0 (C) , exp M ∈ SL2 (C)

xp : L0 (C) −→ SL2 (C).


On considère maintenant la restriction eg
III.G.2) Montrer, à l’aide de I.C.3 et III.B, que tout élément de L0 (C) est semblable à une matrice de la
forme :
   
a 0 0 1
D(a) = avec a ∈ C ou N=
0 −a 0 0

III.G.3) Soit N 0 la matrice de M2 (C) définie par :


 
−1 1
N0 =
0 −1

Montrer que N 0 ∈ SL2 (C) et que N 0 n’appartient pas à l’image de l’application eg


xp.
En déduire que eg
xp n’est ni injective, ni surjective.

IV Le cas n = 3
Dans toute cette partie, on suppose que E est un C-espace vectoriel de dimension 3.
L’objectif est ici de montrer que l’on a encore, dans ce cas, les égalités : L(E) = Γ3 (E) et M3 (C) = Γ3 (C).
Soient f ∈ L(E), λ, µ et ν ses valeurs propres.
IV.A – On suppose que λ, µ et ν sont trois valeurs propres distinctes.
Montrer que f ∈ Γ3 (E).
IV.B – On suppose que λ = µ = ν.
IV.B.1) Montrer que f − λIdE est nilpotent.
IV.B.2) Montrer que f ∈ Γ3 (E).
IV.C – On suppose que λ = µ, µ 6= ν.
IV.C.1) Justifier l’existence de trois complexes a, b, c et d’une base (e1 , e2 , e3 ) de E tels qu’on ait :

f (e1 ) = λe1
f (e2 ) = ae1 + λe2
f (e3 ) = be1 + ce2 + νe3

IV.C.2) Étant donnés deux complexes α et β, on pose e03 = e3 + αe1 + βe2 .


Montrer que (e1 , e2 , e03 ) est une base de E.
IV.C.3) Montrer qu’on peut choisir α et β de sorte que f (e03 ) = νe03 .
IV.C.4) Représenter la matrice M de f sur la base (e1 , e2 , e03 ) ainsi obtenue.
IV.C.5) Montrer que M ∈ Γ3 (C) et f ∈ Γ3 (E).
IV.D – Montrer que Γ3 (E) = L(E).
On admettra de même que Γ3 (C) = M3 (C). L’application exponentielle est ainsi une application de L(E) dans
GL(E).
IV.E – Soient θ un réel non nul et R(θ) ∈ M3 (C) définie par :
 
0 −θ 0
R(θ) =  θ 0 0 
0 0 0

IV.E.1) Calculer exp R(θ).


IV.E.2) En déduire que l’application exp : L(E) −→ GL(E) n’est pas injective.
N.B : On pourrait montrer, par un procédé analogue à celui utilisé dans le cas n = 2, que exp : L(E) −→ GL(E)
est encore surjective dans le cas n = 3.
• • • FIN • • •

Page 4/4
PSI* Devoir surveillé n◦ 1
Corrigé
Année scolaire
2017/2018

Centrale TSI 2011 - Mathématiques 2


I Préliminaires - endomorphismes nilpotents, trace d’un endomorphisme
I. A. 1) 0 ∈ Sp(f ) ⇔ ∃x ∈ E\ {0E } , f (x) = 0E
⇔ ker f 6= {0E }
⇔ f non injective.
Donc :
0∈/ Sp(f ) ⇔ f injective.

2) Comme E est dimension finie, f est injective si et seulement si f est bijective. Donc :

0∈
/ Sp(f ) ⇔ f ∈ GL(E).

3) Moyennant l’identification rappelée entre GLn (C) et GL(E), M est inversible si et


seulement si l’endomorphisme f , de matrice M dans la base B, est inversible, ce qui
équivaut à 0 ∈
/ Sp(f ) ou encore 0 ∈
/ Sp(M ). Donc :

M ∈ GLn (C) ⇔ 0 ∈
/ Sp(M ).
    
0 1 2 0 1 2 0 0 3
B. 1) N 2 =  0 0 3   0 0 3  =  0 0 0  et N 3 = 0. Donc :
0 0 0 0 0 0 0 0 0

k(N ) = 3.

2) a) Comme M est semblable à N , il existe P ∈ GLn (C) telle que M = P −1 N P .


On a alors ∀p ∈ N, M p = (P −1 N P )p = P −1 N p P . Donc :

∀p ∈ N, M p et N p sont semblables.

b) Si N est nilpotente et M est semblable à N , sous les notations précédentes,


∀p ∈ N, M p = P −1 N p P et ∀p ∈ N, M p = 0 ⇔ N p = 0. On en déduit que :

M est nilpotente et k(M ) = k(N ).

3) Notons N = MatB (f ) et M = MatB0 (f ). Si P est la matrice de passage de B à B 0 , P


est inversible, M = P −1 N P et les matrices M et N sont semblables, donc :

MatB0 (f ) est également nilpotente et de même indice de nilpotence que MatB (f ).

4) a) Soient i et j ∈ J1, nK tels que j ≤ i + 1. On a alors :


n
(2) P
nij = nik nkj
k=1
Pn
= nik nkj car k ≤ i ⇒ nik = 0
k=i+1 
i+1≤k
= 0 car ⇒ j ≤ k et nkj = 0
j ≤i+1
(2)
Donc en particulier, N 2 ∈ Tn (C) et nij = 0 si j ≤ i + 1.
Page 2 sur 10

(k)
b) Soit k ∈ N∗ . Montrons par récurrence que, si j ≤ i + k − 1, nij = 0. Cela est vrai
pour k = 0 (N k = In ), 1 et 2.
Supposons la propriété vraie au rang k.
n
(k+1) P (k)
On a alors : nij = nil nlj .
l=1
(k) (k+1)
- Si i + k > n, pour tout l ∈ J1, nK , l ≤ i + k − 1 et nij = 0, donc nij = 0.
n
(k+1) P (k) (k)
- Si i + k ≤ n, nij = nil nlj car pour l ≤ i + k − 1, nil = 0.
l=i+k
(k+1)
Or pour i + k ≤ l et j ≤ i + k, l’on a j ≤ l et nlj = 0. D’où nij = 0.
La propriété est donc vraie au rang k + 1 et
(k)
en particulier, ∀k ∈ N, N k ∈ Tn (C) et nij = 0 si j ≤ i + k − 1.
(n)
c) Pour k = n, ∀i, j ∈ J1, nK , i + k − 1 = i + n − 1 ≥ n et j ≤ i + k − 1. Donc nij = 0,
ce qui montre :

N n = 0 et N ∈ Nn (C)
n
Q
5) a) χf (X) = χN (X) = (nii − X). Donc :
i=1

Sp(f ) = {nii /i ∈ J1, nK}

b) Comme χf est scindé, il existe B base de E telle que N = MatB (f ) ∈ Tn (C).


- L’on a vu en I.B.4.c) que si ∀i ∈ J1, nK , nii = 0, c’est-à-dire si 0 est la seule valeur
propre de N, N ∈ Nn (C) et f est nilpotent.
- Réciproquement, si N ∈ Nn (C) et λ est valeur propre de N , il existe X ∈
Cn \ {0} , N X = λX. En outre, il existe k ∈ N∗ tel que N k = 0.
On a alors N k X = λk X = 0 ; d’où λ = 0.
Comme les valeurs propres de f sont celles de N , j’ai montré :

f nilpotent ⇔ Sp(f ) = {0}

6) Soit N ∈ Tn (C). D’après I.B.5.b), N est nilpotente si et seulement si Sp(N ) = {0}.


Comme d’après I.B.5.a), Sp(N ) = {nii /i ∈ J1, nK},

N est nilpotente ⇔ ∀i ∈ J1, nK , nii = 0.

C. 1) Soient B et B 0 deux bases de E. Soit P la matrice de passage de B à B 0 . Posons


M = MatB (f ) et N = MatB0 (f ).
On a alors N = P −1 M P et Tr(N ) = Tr(P −1 M P ) = Tr(M P P −1 ) = Tr(M )
(car Tr(AB) = Tr(BA) si A, B ∈ Mn (C)).
Donc, Tr(MatB (f )) est indépendant de B.
2) L’on sait qu’il existe une base B de E telle que N = MatB (f ) ∈ Tn (C).
On a alors Sp(f ) = {nkk /k ∈ J1, nK} = {λk /k ∈ J1, nK}. Donc :

n
X n
X
Tr(f ) = nkk = λk .
k=1 k=1
Page 3 sur 10

3) Comme Tr(A) = 0, A admet deux valeurs propres opposées.


- Si elles sont non nulles, elles sont distinctes et A est diagonalisable.
- Si elles sont nulles, A est semblable à une matrice triangulaire supérieure B dont la
diagonale est formée des valeurs propres de A et ne contient donc que des 0.
D’après la question I.B.4., B est nilpotente et d’après I.B.2.b), A l’est aussi.
J’ai montré :

A est soit diagonalisable, soit nilpotente.


 
1 1 0
4) Soit A =  0 1 0 .
0 0 −2
A n’est pas nilpotente puisque quelle est triangulaire supérieure et que l’un des coeffi-
cients diagonaux est non nul.
Ses valeurs propres sont 1 et −2.

y=0
Son sous-espace propre E1 (A) associé à la valeur propre 1 a pour équation : .
−3z = 0
Il est de dimension 1 alors que la valeur propre est d’ordre de multiplicité 2. Donc A
n’est pas diagonalisable.

Lorsque n = 3, il existe des matrices ni diagonalisables, ni nilpotentes.

II Exponentielle d’un endomorphisme


 
e λ1 (0)
II. A. 1) a) MatB (f ) = 
 .. 
. 
(0) eλn

b) det(exp(f )) = det(MatB (f ))
n
eλk
Q
=
k=1  
Pn
= exp λk
k=1
6= 0
Donc : exp(f ) ∈ GL(E).
2) Soit f l’endomorphisme de E de matrice M dans la base B.
Soient B1 et B2 les bases de E telles que les matrices de passages respectives de B à B1
et de B à B2 soient P1 et P2 .
Alors, comme M = P1 D1 P1−1 et M = P2 D2 P2−1 , l’on a MatB1 (f ) = D1 , respectivement
MatB2 (f ) = D2 ; ces matrices étant diagonales, B1 et B2 sont des bases de vecteurs
propres de f .
D’où, d’après la définition de exp(f ),
MatB1 (exp(f )) = exp(D1 ) et MatB2 (exp(f )) = exp(D2 ), ce qui prouve :
MatB (exp(f )) = P1 exp(D1 )P1−1 = P2 exp(D2 )P2−1 . Donc :

P1 (exp D1 )P1−1 = P2 exp(D2 )P2−1 .


Page 4 sur 10

B. 1) D’après la question I.B.4.a), M k est triangulaire supérieure et ses termes diagonaux


k(f )−1
Mp
sont nuls pour tout k ∈ N∗ . D’où les termes diagonaux de
P
sont ceux de
p=0 p!
M0
= In .
0!
Les termes diagonaux de exp(M ) sont donc tous égaux à 1.
2) Les valeurs propres de exp(f ) sont celles de sa matrice dans la base B, égale à exp(M ).
Or exp(M ) est triangulaire supérieure et ses valeurs propres sont les coefficients de sa
diagonale ; d’où :
Donc Sp(exp f ) = {1} (valeur propre d’ordre n).
Comme det(exp(f )) = 1 (produit des termes de la diagonale), exp(f ) ∈ GL(E).
C. 1) a) Soit x vecteur propre de d associé à la valeur propre λ.
Montrons que exp(d)(x) = eλ x.
x peut se compléter en une base (x, e2 , . . . , en ) de vecteurs propres de d ; donc par
définition (indépendante de la base de vecteurs propres de d), exp(d)(x) = eλ x.
Soit donc (e1 , . . . , en ) une base de vecteurs propres de d associés respectivement à
λ1 , . . . , λ n .
L’on a ∀i ∈ {1, . . . , n} , d ◦ g(ei ) = g ◦ d(ei )
= g(λi ei )
= λi g(ei )
D’où soit g(ei ) = 0E ou g(ei ) est vecteur propre de d associé à la valeur propre λi .

0E si g(ei ) = 0E
On a alors exp(d) ◦ g(ei ) =
exp(λi )g(ei ) sinon
Donc dans les deux cas exp(d) ◦ g(ei ) = exp(λi )g(ei ).
De même g ◦ exp(d)(ei ) = g(exp(λi )ei )
= exp(λi )g(ei ).
g ◦ exp(d) et exp(d) ◦ g prennent les mêmes valeurs sur une base de E : ils sont donc
égaux.
On en déduit, par une récurrence simple sur p ∈ N que :
k(g) k(g)
∀p ∈ N, g p ◦ exp(d) et exp(d) ◦ g p , puis que
P p
exp(d) ◦ g p , ce qui
P
g ◦ exp(d) =
p=0 p=0
! !
k(g)
P p k(g)
P p
équivaut à g ◦ exp(d) = exp(d) ◦ g ou encore à :
p=0 p=0

exp(d) ◦ exp(g) = exp(g) ◦ exp(d)

b) L’isomorphisme canonique entre L(E) et Mn (C) montre que, d’après l’unicité de la


décomposition d’un endomorphisme de Γn (E) comme somme d’un endomorphisme
diagonalisable et d’un endomorphisme nilpotent que :

 D soit diagonalisable,
2
∀M ∈ Γn (C), ∃!(D, N ) ∈ Mn (C) tel que N soit nilpotente et
M =D+N

2) Posons M = D + N avec D diagonalisable et N nilpotente. On a alors P M P −1 =


P DP −1 + P N P −1 .
P DP −1 est diagonalisable car elle est semblable à une matrice diagonale, P N P −1 est
nilpotente d’après la question I.B.2.b).
Page 5 sur 10

Par ailleurs (P DP −1 )(P N P −1 ) = P (DN )P −1 = P (N D)−1 = (P N P −1 )(P DP −1 ).


Donc P M P −1 ∈ Γn (C) .
L’on a alors :
exp(P DP −1 ) = exp(P P1 D1 P1−1 P −1 ) oùD1 est diagonale 
−1 définition de l’exponentielle d’un
= (P P1 ) exp(D1 )(P P1 )
endomorphisme diagonalisable
−1 −1
= P (P1 exp(D1 )P1 )P
= P exp(D)P −1
et
−1
−1
PP ) (P N P −1 )p
k(P N
exp(P N P ) =
p=0 p!
k(N ) p −1
 
P PN P les indices de nilpotence de deux endomorphismes
=
p=0 p! ! nilpotents semblables sont égaux
P) N p
k(N
=P P −1
p=0 p!
= P exp(N )P −1
D’où :
exp(P M P −1 ) = exp(P DP −1 ) exp(P N P −1 )
= P exp(D)P −1 P exp(N )P −1
= P exp(D) exp(N )P −1
= P exp(M )P −1
J’ai montré :

exp(P M P −1 ) = P exp(M )P −1

III Le cas n = 2
III. A. 1) Si les valeurs propres λ et µ de f étaient distinctes, f serait diagonalisable. Comme f
est supposé non diagonalisable, λ = µ .
Si dim Eλ = 2, alors Eλ = E et f est une homothétie, diagonalisable. Donc 1 ≤
dim Eλ ≤ 1, ce qui prouve dim Eλ = 1 .
La seule valeur propre de f − λIdE est donc 0 et d’après I.B.5), f − λIdE est nilpotent.
 doncune base de E dans laquelle la matrice de f − λIdE est de la forme
Il existe
0 a
M= d’après la question I.B.5).
0 0
Or M 2 = 0. Donc :

(f − λIdE )2 = 0

2) Puisque f (v) 6= λv, u 6= 0E .


f (u) = f 2 (v) − λf (v)
= (2λf − λ2 IdE )(v) − λf (v) (car (f − λIdE )2 = 0)
= λf (v) − λ2 v
= λu
D’où u ∈ Eλ \ {0E } .
Soient α et β ∈ C tels que αu + βv = 0E (1). On a alors :
αf (u) + βf (v) = 0E ⇔ αλu + βf (v) = 0E (2).
Par combinaison linéaire de (1) et (2), on obtient λβv − βf (v) = 0E ⇔ −βu = 0E .
Page 6 sur 10

D’où β = 0 et α = 0 ; (u, v) est libre et comme dim E = 2,

(u, v) est une base de E.


On a alors f (u) = λu et f (v) = u + λv (par définition de u). Donc :
 
λ 1
MatB (u) = .
0 λ

B. Soit A ∈ M2 (C).
Si A est diagonalisable, A est semblable à une matrice du type D(a, b).
Si A n’est pas diagonalisable, soit (e1 , e2 ) une base de E et f l’endomorphisme de E
de matrice A dans la base (e1 , e2 ). Comme A n’est pas diagonalisable, f ne l’est pas et
d’après
  question III.A., il existe une base B dans laquelle f admet une matrice du type
la
λ 1
= M (λ). Donc A est semblable à une matrice de J2 (C). On a montré :
0 λ
Tout élément de M2 (C) est semblable à une matrice de J2 (C).
C. ∀a, b ∈ C, D(a, b) = D(a, b) + N avec N = 0, donc N est nilpotente : D(a, b) ∈ Γ2 (C).
 
0 1
∀a ∈ C, M (a) = aI2 + N avec N = .
0 0
On a alors aI2 est diagonale et N 2 = 0, donc N est nilpotente ; enfin (aI2 )N = N (aI2 ) =
aN : M (a) ∈ Γ2 (C). D’où :

J2 (C) ⊂ Γ2 (C).
 
ea 0
exp(D(a, b)) = par définition de l’exponentielle d’une matrice diagonale.
0 eb
 
0 1
exp(M (a)) = exp(aI2 ) exp
 a   0 0   
e 0 1 0 0 1
= a +
 0a e   0 1 0 0
e 0 1 1
= a
 0a ea  0 1
e e
=
0 ea
 a a 
e e
Donc exp(M (a)) =
0 ea
D. On a bien sur Γ2 (C) ⊂ M2 (C).
Inversement, soit M ∈ M2 (C). M est alors semblable à une matrice de J2 (C), donc de
Γ2 (C). D’où d’après II.C.2), M ∈ Γ2 (C). D’où :

Γ2 (C) = M2 (C).

E. 1) Le polynôme caractéristique de A(θ) est χA(θ) = X 2 + θ2 et Sp(A(θ)) = {iθ, −iθ}.


Ses deux valeurs propres étant distinctes, A(θ) est diagonalisable. Ses deux sous-espaces
propres sont :  
1
- Eiθ (A(θ)) d’équation −iθx − θy = 0 ⇔ y = −ix, d’où Eiθ (A(θ)) = Vect
−i
Page 7 sur 10

 
1
- Eiθ (A(θ)) = Vect
i
   
iθ 0 −1 1 1
D’où A(θ) = P P avec P = et
0 −iθ −i i
   iθ   
1 1 e 0 1 i −1
exp(A(θ)) =
−i
 iiθ 0  e−iθ 2i i 1
−iθ

1 e e i −1
=
2i  −ieiθ ie−iθ i 1
1 2i cos θ −2i sin θ
=
2i 2i sin θ 2 
 cos θ
cos θ − sin θ
=
sin θ cos θ
Donc :
 
cos θ − sin θ
exp(A(θ)) = .
sin θ cos θ
 
1 0
2) L’on a alors exp(A(0)) = exp(A(2π)) = .
0 1
Comme A(0) 6= A(2π), exp n’est pas injective.
3) Une matrice M de J2 (C) ∩ GL2 (C) est de la forme D(a, b) avec ab 6= 0 ou M (a) avec
a 6= 0.
- Si M est de la forme D(a, b) ; posons a = |a|eiα et b = |b|eiβ .
 
exp(ln(|a| + iα) 0
On a alors M =
 0 exp(ln(|b| +iβ)
ln(|a|) + iα 0
= exp
0 ln(|b|) + iβ
= exp(D(ln(|a|) + iα, ln(|b|) + iβ)).
- Si M est de la forme M (a) ; posons a = |a|eiα .
   
exp(ln(|a| + iα) 1 exp(λ) 1
On a alors M = = exp .
0 exp(ln(|a| + iα) 0 exp(λ)
 
exp(λ) exp(λ)
Or la matrice n’est pas diagonalisable et l’on a vu III.B. que cette
0 exp(λ)  
exp(λ) 1
matrice est semblable à une matrice de la forme .
0 exp(λ)
   
exp(λ) exp(λ) λ 1
Donc M est semblable à = exp = exp(M (λ)).
0 exp(λ) 0 λ
J’ai montré :

Tout élément de J2 (C) ∩ GL2 (C) est semblable à l’exponentielle d’un élément de J2 (C).

4) Soit M ∈ GL2 (C) ; d’après la question III.B., il existe P1 ∈ GL2 (C) et M1 ∈ J2 (C) telle
que M = P1 M1 P1−1 . Comme M est inversible, M1 l’est aussi et M1 ∈ J2 (C) ∩ GL2 (C).
D’après la question III.E.2), il existe P2 ∈ GL2 (C) et M2 ∈ J2 (C) telle que
M1 = P2 exp(M2 )P2−1 .
D’où M = (P1 P2 ) exp(M2 )(P1 P2 )−1 = P exp(M2 )P −1 en posant P = P1 P2 , matrice
inversible.
Page 8 sur 10

M2 ∈ Γ2 (C) : d’après II.C.2), P M2 P −1 ∈ Γ2 (C) et P (exp M2 )P −1 = exp(P M2 P −1 ).


D’où M = exp(P M2 P −1 ) et

exp : M2 (C) → GL2 (C) est surjective.


F. Soit M ∈ M2 (C) ; alors M est semblable à une matrice M1 de J2 (C) ⊂ Γ2 (C).
Si M1 est de la forme D(a, b), Tr(M ) = Tr(M1 ) = a + b ; exp(M ) est semblable à D(ea , eb ) ;
donc det(exp(M )) = ea+b = exp(Tr(M )).
Si M1 est de la
 forme M(a), Tr(M ) = Tr(M1 ) = 2a ; exp(M ) est semblable d’après II.C.2)
ea ea
à exp(M1 ) = ; donc det(exp(M )) = e2a = exp(Tr(M )).
0 ea
J’ai montré :

∀M ∈ M2 (C), det(exp(M )) = exp(Tr(M )).


G. 1) - Les matrices de SL2 (C) sont de déterminant non nul, donc inversibles.
- SL2 (C) 6= ∅ car I2 ∈ SL2 (C)
- Si M1 et M2 ∈ SL2 (C), det(M1 M2 ) = det(M1 ) det(M2 ) = 1 et SL2 (C) est stable
pour la multiplication des matrices.
- Si M ∈ SL2 (C), det(M −1 ) = det(M )−1 = 1 et M −1 ∈ SL2 (C).
Donc SL2 (C) est un sous-groupe de GL2 (C).
Si M ∈ L0 (C), det(exp(M )) = exp(Tr(M )) = 1, donc exp(M ) ∈ SL2 (C).
2) Soit M ∈ L0 (C) ; d’après I.C.3), M est soit diagonalisable, soit nilpotente.
- si elle est diagonalisable, elle est semblable à une matrice D(a, b) de même trace, qui
vérifie donc b = −a.
- si elle est nilpotente et non diagonalisable, elle est semblable d’après la question III.B.
à une matrice du type M (a) de trace nulle, qui vérifie donc a = 0.
D’où :

 
a 0
Tout élément de L0 (C) est semblable à une matrice du type D(a) =
  0 −a
0 1
avec a ∈ C ou N = .
0 0

3) det N 0 = 1 : N 0 ∈ SL2 (C) .


Supposons N 0 = exp(N1 ) avec N1 ∈ L0 (C).
 
ea 0
- Si N1 est semblable à une matrice du type D(a), exp(N1 ) est semblable à
0 e−a
et N 0 est diagonalisable, ce qui n’est pas le cas.  
1 1
- Si N1 est semblable à N , N 0 = exp(N1 ) est semblable à exp(N ) = , d’où
0 1
Tr(N 0 ) = Tr(exp(N )), ce qui est évidemment faux.
Donc N 0 n’appartient pas à l’image de eg xp.
Par ailleurs, les matrices A(θ) appartiennent à L0 (C) ; comme exp(A(0)) = exp(A(2π))
et A(0) 6= A(2π), egxp n’est pas injective. D’où :

eg
xp n’est ni surjective, ni injective.
Page 9 sur 10

IV Le cas n = 3
IV. A. f admet 3 valeurs propres 2 à 2 distinctes ; donc f est diagonalisable : il s’écrit f + 0 où
0 représente l’endomorphisme nul qui est nilpotent et, par ailleurs, f et l’endomorphisme
nul commutent, donc :

f ∈ Γ3 (E).

B. 1) Le polynôme caractéristique de f  scindé, il existe une base B de E telle que


étant
λ a b
MatB (f ) soit de la forme  0 λ c .
0 0 λ
 
0 a b
f − λIdE admet alors pour matrice dans B  0 0 c , matrice nilpotente d’après
0 0 0
la question I.B.4)c). D’où :

f − λIdE est nilpotent.

2) f s’écrit alors λIdE +(f −λIdE ). Comme λIdE est diagonalisable, f −λIdE est nilpotent
et λIdE et f − λIdE commutent,

f ∈ Γ3 (E).

C. 1) Le polynôme caractéristique de f étant scindé, f est trigonalisable. Donc il existe une


base (e1 , e2 , e3 ) telle que Mate (f ) soit triangulaire supérieure. Les valeurs propres de f
sont alors sur la diagonale et :
 
λ a b
∃a, b, c ∈ C, ∃(e1 , e2 , e3 ) tels que Mate (f ) =  0 λ c 
 0 0 ν
 f (e1 = λe1
c’est-à-dire : f (e2 ) = ae1 + λe2
f (e3 ) = be1 + ce2 + νe3


1 0 α

2) dete (e1 , e2 , e03 ) = 0 1 β = 1 6= 0. Donc (e1 , e2 , e03 ) est une famille libre maximale :
0 0 1

(e1 , e2 , e03 ) est une base de E.

3) X f (e03 ) = f (e3 ) + αf (e1 ) + βf (e2 )


= (be1 + ce2 + νe3 ) + (αλe1 ) + β(ae1 + λe2 )
= (b + αλ + βa)e1 + (c + βλ)e2 + νe3
0
X νe3 = ναe1 + νβe2 + νe3

0 0 b + αλ + βa = να
On a alors f (e3 ) = νe3 ⇔ .
 c + βλ = νβ
 α= ca b

2
+
⇔ (ν − λ) ν−λ
c
 β=

ν−λ
(On sait que λ 6= ν).
Page 10 sur 10

On a donc pu choisir α et β tels que f (e03 ) = νe03 .


4) On a alors :
 
λ a 0
M = Mat(e1 ,e2 ,e03 ) (f ) =  0 λ 0  .
0 0 ν
   
λ 0 0 0 a 0
5) Soient D la matrice  0 λ 0  et N la matrice  0 0 0 .
0 0 ν 0 0 0
On a alors M = D + Navec D diagonale
 et N nilpotente.
0 aλ 0
De plus N D = DN =  0 0 0 . Donc :
0 0 0
M ∈ Γ3 (C) ce qui montre aussi f ∈ Γ3 (E).
D. Soit f un endomorphisme de E. On a alors les possibilités suivantes :
X f admet 3 valeurs propres deux à deux distinctes ; d’après IV.A., f ∈ Γ3 (E) ;
X f admet 3 valeurs propres égales ; d’après IV.B.2), f ∈ Γ3 (E) ;
X f deux valeurs propres distinctes, dont une double, d’après IV.C.5), f ∈ Γ3 (E).
Donc :

Γ3 (E) = L(E).
E. 1) Le polynôme caractéristique de R(θ) vaut :
χR(θ) = −X(X 2 + θ2 ) et le spectre de R(θ) est {iθ, −iθ, 0}.
Par des calculs analogues à ceux de III.E.1), on obtient :
   
iθ 0 0 1 1 0
R(θ) = P  0 −iθ 0  P −1 avec P =  −i i 0 .
0 0 0 0 0 1
On a alors :  iθ 
e 0 0
exp(R(θ)) = P  0 e−iθ 0  P −1
 0 0 e0 
cos(θ) − sin(θ) 0
=  sin(θ) cos(θ) 0 
0 0 1
J’ai montré :
 
cos(θ) − sin(θ) 0
exp(R(θ)) =  sin(θ) cos(θ) 0  .
0 0 1
2) Comme exp(R(0)) = exp(R(2π)) et que R(0) 6= R(2π),

exp : L(E) → GL(E) n’est pas injective.

∆∆∆
Centrale 2018 PSI  maths 1

Autour des matrices de Toeplitz


stephane.gonnord@prepas.org

I Généralités et quelques exemples


I.A  Généralités
(
1 si j = i + k
Q 1. Notons, pour k ∈ [[−(n−1), n−1]], D (k)
la matrice de Mn (R) de terme général (k)
Di,j =
0 sinon
Les matrices de Toeplitz sont alors les matrices de la forme
t−(n−1) D(−(n−1)) + · · · + t0 D(0) + · · · + tn−1 D(n−1)

avec les ti décrivant C. Bref : Toepn (C) est l'espace engendré par les D(k) . Comme cette famille est
clairement libre (prendre une combinaison linéaire libre ; regarder le coecient (1, 1 + k) si k ≥ 0 et
(1 − k, 1) sinon...) elle en constitue une base, et il ne reste plus qu'à compter sur ses petits doigts :

Toepn (C) est un sous-espace de Mn (C) de dimension 2n − 1.

Q 2. Supposons que A et B commutent. On a alors A2 B = A.AB = A.BA = AB.A = BA.A = BA2


puis par récurrence immédiate, AB k = B k A pour tout k ∈ N. Par distributivité, A commute
ensuite avec tout polynôme en B .
On peut ensuite retourner l'argument : si Q ∈ C[X] alors Q(B) commute avec A d'après ce qui
précède, donc avec tout polynôme en A !

Si A et B commutent et P, Q ∈ C[X], alors P (A) et P (B) commutent.

I.B  Cas de la dimension 2


Q 3. Le calcul est sans nesse :

χA = (X − a)2 − bc

Q 4. Les valeurs propres de A sont les racines du polynôme caractéristique, c'est-à-dire les λ tels que
(λ − a)2 = bc.
On évite de sortir les racines de complexes, sauf à vouloir faire rire l'examinateur.
 Si bc 6= 0 alors il existe deux complexes dont le carré vaut bc, donc A possède deux valeurs
propres donc (dimension) est diagonalisable.
 Si bc = 0, alors A possède a comme unique valeur propre. Elle est donc diagonalisable si
et seulement si elle est semblable à aI2 , donc égale à aI2 , ce qui est vrai si et seulement si
b = c = 0.

A est diagonalisable si et seulement si b et c sont tous les deux non nuls ou tous les deux nuls.

Q 5. Discutons (bien entendu) sur le nombre de valeurs propres de A. Puisque le corps de base est C il
y en a au moins une, et puisque qu'on est dans M2 (C), il y en a au plus 2.
 
α 0
 Si A possède deux valeurs propres α 6= β , alors A est semblable à .
0 β
 Si A possède une seule valeur propre α, on se contente de trigonaliser A (rappel : c'est possible
car on est dans M2 (C)), et A est bien semblable à une matrice triangulaire supérieure avec
sur la diagonale l'unique valeur propre.

1
   
α 0 α γ
Toute matrice de M2 (C) est semblable à une matrice de la forme (avec α 6= β ) ou
0 β 0 α

Q 6. La question précédente nous invite à ne traiter que les deux matrices de la conclusion précédente
(si A et B sont semblables ainsi que B et C , alors A et C sont semblables 1 ).
 
α γ
 La deuxième est directement une matrice de Toeplitz.
0 α
 La première a pour polynôme caractéristique
 2
α+β
(X − α)(X − β) = · · · = X− − γ,
2
 2  α+β 
α+β γ
avec γ = + αβ . Considérons alors α+β : cette matrice est de Toeplitz et
2
2 1 2
 2
α+β
a pour polynôme caractéristique X − − γ = (X − α)(X − β), donc (α 6= β ) est
 2
α 0
diagonalisable, et même semblable à ; c'est ce qu'on voulait montrer.
0 β

Toute matrice de M2 (C) est semblable à une matrice de Toeplitz.

I.C  Un autre cas particulier : les matrices tridiagonales


Q 7. La relation AX = λX fournit n équations scalaires. La première et la dernière sont respectivement
ax1 +bx2 = λx1 et cxn−1 +axn = λxn ; les autres sont, pour i ∈ [[2, n−1]] : cxi−1 +axi +bxi+1 = λxi .
En ayant posé x0 = xn+1 = 0, les deux équations aux bords s'unient à l'équation générique, à
savoir (k = i − 1) :
∀k ∈ [[0, n − 1]], bxk+2 + (a − λ)xk+1 + cxk = 0
Il reste à noter que la famille nie (x0 , ..., xn+1 ) s'étend en une suite (xk )k∈N vériant la récurrence
1
souhaitée, en posant pour tout k ≥ n : xk+2 = ((λ − a)xk+1 − bxk ) (on avait bien entendu noté
b
que la condition bc 6= 0 impose b 6= 0...)

c.q.f.d.

Q 8. Il s'agit évidemment de discuter selon le nombre de racines.


 Si (I.1) possède deux racines r1 6= r2 , alors il existe deux constantes K1 , K2 telles que pour
tout k ∈ N, xk = K1 r1k + K2 r2k .
 Si (I.1) possède une racine double r0 , alors il existe deux constantes K1 , K2 telles que pour
tout k ∈ N, xk = (K1 + K2 k)r0k .

Et on vient de montrer qu'on se souvient du cours de première année.

Q 9. Supposons par l'absurde que (I.1) possède une unique racine r0 . Avec les notations précédentes, la
condition x0 = 0 donne K1 = 0 ; la condition xn+1 = 0 fournit alors K2 r0n+1 = 0. On s'inquiète
alors de la nullité éventuelle de r0 . Mais 0 n'est pas solution de (I.1) (car c 6= 0), donc r0 6= 0, puis
K2 = 0. On a alors tous les xi nuls, donc X aussi, ce qui n'est pas raisonnable pour un vecteur
propre.

(I.1) possède deux racines distinctes.


1. On peut aussi plisser les yeux et dire que la relation de similitude est transitive...

2
Q 10. On a déjà vu que 0 n'est pas racine de (I.1), donc r1 et r2 sont non nuls. Ensuite, les conditions
x0 = 0 et xn+1 = 0 fournissent successivement (avec les notations vues plus haut) : K2 = −K1 ,
 n+1
r1
puis K1 (r1n+1 − r2n+1 ) = 0. Puisque X 6= 0, on a K1 6= 0, donc r1n+1 = r2n+1 puis : = 1.
r2

r1
r1 et r2 sont non nuls et ∈ Un+1 .
r2

Q 11. Si par malheur on a oublié son cours de terminale/sup/spé/whatever, ça doit pouvoir se retrouver,
en partant de la factorisation d'un polynôme (et pas d'un réel, bien entendu...) dont on connaît le
coecient dominant et les racines :
bX 2 + (a − λ)X + c = b(X − r1 )(X − r2 ) = bX 2 − b(r1 + r2 )X + br1 r2 ,

et en identiant les coecients de ces polynômes (et toujours grâce au fait que b 6= 0) :

λ−a c
r1 + r2 = et r1 r2 = ·
b b
r1
Puisque ∈ Un+1 , il existe ` ∈ [[0, n]] tel que r1 = r2 e2i`π/(n+1) ; le produit r1 r2 vaut alors d'une
r2
c
part r12 e−2i`π/(n+1) et d'autre part , donc :
b
c bc ρ 2
r12 = e2i`π/(n+1) = 2 e2i`π/(n+1) = e
0 i`π/(n+1)
,
b b b
où on a choisi ρ0 un complexe dont le carré vaut bc (et un tel complexe existe bien). Il existe donc
ρ0
ε ∈ {−1, 1} tel que r1 = ε ei`π/(n+1) . On a alors :
b
 
λ = a + b(r1 + r2 ) = a + ερ0 ei`π/(n+1) + e−i`π/(n+1) ,
| {z }
2 cos(`π/(n+1))

et il reste à poser ρ = ερ0 (dont le carré vaut toujours bc). Remarquons enn que r2 6= r1 , donc
r1
6= 1 donc ` 6= 0.
r2
 

Il existe ` ∈ [[1, n]] et ρ ∈ C tels que ρ2 = bc et λ = a + 2ρ cos
n+1

Q 12. Avec les notations précédentes,


ρk  i`kπ/(n+1)
 
ερ0 i`π/(n+1) k  ερ0 −i`π/(n+1) k 
xk = K1 (r1k −r2k ) = K1 e − e = K1 e − e−i`kπ/(n+1)
.
b b bk | {z }
=2i sin(`kπ/(n+1))

ρk
 
`kπ
Il existe α ∈ C tel que pour tout k ∈ [[0, n + 1]], xk = 2iα k sin ·
b n+1

Q 13. Il s'agit de faire la synthèse,


 en xant ρ de carré bc puis en montrant que pour tout ` ∈ [[1, n]],

λ` = a + 2ρ cos est eectivement valeur propre de A (= An (a, b, c)).
n+1
On xe donc un tel `, et une géniale intuition nous conduit à dénir
ρk
 
`kπ
xk = 2i k sin
b n+1

3
pour 0 ≤ k ≤ n + 1, considérer le vecteur X = (xk )1≤k≤n ∈ Mn,1 (C) et essayer de montrer que
X est vecteur propre pour la valeur propre λ` . Tout d'abord, X est non nul 2 ; il s'agit alors de
vérier : AX = λ` X .
Cette équation est équivalente (grâce aux valeurs aux bords) aux n équations bxk+2 +(a−λ` )xk+1 +
 k  k
 ρei`π/(n+1) 
 −  ρe
 −i`π/(n+1)  2
cxk = 0 (0 ≤ k ≤ n − 1). Mais xk =   avec t1 t2 = ρ = c et
 b   b  b2 b
| {z } | {z }
t1 t2
2ρ cos(`π/(n + 1)) λl − a
t1 + t2 = = , donc b(X − t1 )(X − t2 ) = bX 2 + (a − λ` )X + c, donc t1 et
b b
t2 sont les racines (oui, elles sont diérentes) de (I.1), donc la relation de récurrence souhaitée est
bien vériée, ce qui achève la synthèse : les λ` sont toutes valeurs propres de A.

Il reste tout de même à noter que lorsque ` ∈ [[1, n]], on a ∈ [0, π], intervalle sur lequel la
n+1
fonction cos est injective, donc les λ` sont distincts.

 

A(a, b, c) est diagonalisable avec n valeurs propres distinctes : a + 2ρ cos , pour 1 ≤ ` ≤ n.
n+1

II Matrices circulantes
Q 14. Chaque multiplication par Mn  remonte les diagonales  (ou les décale vers la droite) :

···
 
0 0 1 0 0
 .. .. .. .. .. 
. . . 1 . .
 .. .. .. .. .. 
 
.
Mn2 =  . . . ., ... Mn = In .
n
. .. ..
 .. . .

1
..
 
0 ··· ··· ··· . 0

Pour les grincheux, Mnk est constitué de zéros, sauf en les positions (i, i+k) (pour 1 ≤ i ≤ n−1−k)
et (i − k, i) (pour i + 1 ≤ k ≤ n) où il y a des 1.
La question 30 donnera l'occasion de  prouver  ce genre de choses.
La relation Mnn = In fournit pour le même prix :

Mn est inversible (d'inverse Mnn−1 = tMn ) et X n − 1 est un polynôme annulateur de Mn .

Q 15. Puisqu'on travaille sur C, X n − 1 est scindé à racines simples (les n racines nèmes de l'unité) donc :

Mn est diagonalisable.

Ensuite, on peut calculer le polynôme caractéristique de Mn en développant par rapport à la


première colonne : χMn = X n − 1 (ce n'est pas très surprenant, sans être évident : une matrice
diagonalisable peut avoir des polynômes annulateurs de degré n qui ne sont pas le polynôme
caractéristique). Ainsi :

Sp(Mn ) = Un = {1, ωn , ωn2 , . . . , ωnn−1 }


ρk
 
`kπ
2. Je fais le pari que sur beaucoup de copies il aura été question de xk = 2iα sin avec hélas α potentiellement
bk n+1
nul...

4
Pour obtenir des vecteurs propres, on peut résoudre Mn X = ωnk X , ou bien regarder

la question

1
 ωnk 
2k
 
 ωn
suivante, et être pris d'une furieuse envie de considérer (pour 0 ≤ k ≤ n − 1) Xk =   : il

..
.
 
 
(n−1)k
ωn
vérie Mn Xk = ωnk Xk ! (Et bien entendu il est non nul).
(Xk )0≤k≤n−1 constitue une base de vecteurs propres de Mn .

Ben oui c'est une base : n vecteurs propres associés à des valeurs propres diérentes, en dimension
n.
Q 16. Bien entendu, Φn est la matrice dont les colonnes sont les Xk . Il s'agit donc de la matrice de passage
de la base canonique de Cn vers la base de diagonalisation vue plus haut. On a alors directement :
 
1 (0)
 ωn 
Φ−1 M Φ = ..
 
n n n
.
 
 
(0) ωnn−1

Q 17. D'après la valeur de Mnk :


T (t1 , t2 , ..., tn−1 , t0 , t1 , ..., tn−1 ) = t0 In + t1 Mn + t2 Mn2 + · · · tn−1 Mnn−1

Avec les notations précédentes, il sut donc de prendre P = t0 + t1 X + · · · + tn−1 X n−1


Q 18. Écrivons la division euclidienne de P ∈ C[X] par X n − 1 : P = (X n − 1)Q + R avec R ∈ Cn−1 [X].
On a alors :
P (Mn ) = (Mnn − In ) Q(Mn ) + R(Mn );
| {z }
=0
et on a vu à la question précédente que R(Mn ) est une matrice circulante.
Si P ∈ C[X], alors P (Mn ) est une matrice circulante.
Q 19. En combinant les faits suivants :
 toute matrice circulante est de la forme P (Mn ) ;
 λP1 (Mn ) + P2 (Mn ) = (λP1 + P2 )(Mn ) ;
 P1 (Mn )P2 (Mn ) = (P1 P2 )(Mn ) ;
 toute matrice de la forme P (Mn ) est circulante...
on obtient le fait que l'ensemble des matrices circulantes est stable par combinaison linéaire et
produit ; il contient par ailleurs la matrice nulle et est inclus dans Toepn (C) par dénition.
Enn, t (P (Mn )) = P (t Mn ) = P (Mnn−1 ) = Q(Mn ) avec Q = P (X n−1 ), ce qui nous donne la
stabilité par transposition.

Les matrices circulantes constituent un sous-espace de Toepn (C) stable par produit et transposition.
Q 20. Puisque Mn Xk = ωnk Xk , on a Mn2 Xk = ωn2k Xk , puis Mnr Xk = ωnrk Xk et enn (pour P ∈ C[X]) :
P (Mn )Xk = P (ωnk )Xk
La famille (X0 , ..., Xn−1 ) est donc une
 base de vecteurs propres pour la matrice circulante P (Mn ),
associée aux valeurs propres P (ωnk ) 0≤k≤n−1 .

Toute matrice circulante est diagonalisable.


L'auteur a oublié de demander la valeur du déterminant d'une matrice circulante...

5
III Étude des matrices cycliques
III.A  Endomorphismes et matrices cycliques
 
Q 21. Tout d'abord, si x0 , ..., fM (n−1)
(x0 ) est une base de Cn , alors la matrice de fM dans cette base est
bien de la forme C(a0 , ..., an−1 ) (puisque f f (k) (x0 ) = f (k+1) (x0 )). M et cette matrice cyclique


représentant le même endomorphisme dans deux bases diérentes, elles sont semblables.
Réciproquement, si M = P C(a0 , ..., an−1 )P −1 avec P inversible : P représente une base G =
(g1 , ..., gn ) dans la base canonique de Cn , et P −1 M P = C représente alors fM dans la base G . Mais
on a alors (lire la matrice !) fM (gk ) = gk+1 pour tout k ∈ [[1, n − 1]], et donc : gk = fM k−1
(g1 ) pour
tout k ∈ [[1, n]], donc G = (g1 , fM (g1 ), ..., fM (g1 )), ce qui prouve la deuxième implication.
n−1

(i) et (ii) sont bien équivalentes.

Q 22. On a u = u1 e1 + · · · + un en , fM (u) = λ1 u1 e1 + · · · + λn un en ... et plus généralement fM k


(u) =
λ1 u1 e1 + · · · + λn un en . La matrice représentant les fM (u) dans la base (e1 , ..., en ) est donc :
k k k

λn−1
 
u1 λ1 u1 ··· 1 u1
 u2 λ2 u2 ··· λn−1
2 u2 
 . ..
 
 .. .


n−1
un λn un ··· λ n un

C'est presque une matrice de Vandermonde. Par multilinéarité, son déterminant se ramène d'ailleurs
à celui d'une Vandermonde : il vaut
Y
u1 · · · un (λj − λi )
1≤i<j≤n

Et ce déterminant est donc non nul si et seulement si les ui sont tous non nuls et les λi distincts. Ce
déterminant non nul caractérise l'inversibilité de la matrice donc le fait que la famille de vecteurs
représentée soit une base.

 
(u) est une base si et seulement si les ui sont tous non nuls et les λi distincts.
(n−1)
u, fM (u), ..., fM

Q 23. Tout
 d'abord, si les λi ne sont pas distincts, on ne pourra pas trouver de vecteur u tel que
(u) soit une base. Mais réciproquement, si les λi sont distincts, alors en pre-
(n−1)
u, fM (u), ..., fM
 
nant u = e1 + · · · + en (bref : ui = 1 pour tout i), alors u, fM (u), ..., fM
(n−1)
(u) est une base
d'après la question précédente.

Un endomorphisme diagonalisable est cyclique si et seulement s'il est à spectre simple

La question précédente nous dit également :

n
Lorsqu'il est cyclique, ses vecteurs cycliques sont ceux de la forme ui ei , où ui 6= 0 pour tout i.
P
i=1

Q 24. Je prédis du grand n'importe quoi dans le  si et seulement


 si ...


 a0 xn = λx1
x1 + a1 xn = λx2



Tout d'abord, CX = λX est équivalent aux équations · · ·

xn−2 + an−2 xn = λxn−1




x
n−1 + an−1 xn = λxn

6
Si xn = 0 alors (en remontant les équations de la dernière à la seconde) tous les xk sont nuls, donc
X n'est pas vecteur propre.
Supposons que λ est valeur propre, et prenons pour X un vecteur propre associé. Il est donc non
nul, donc xn 6= 0. La dernière équation fournit xn−1 = (λ − an−1 )xn , puis l'avant-dernière
xn−2 = (λ2 − an−1 λ − an−2 )xn ,

puis en remontant jusqu'à la seconde équation : x1 = (λn−1 − an−1 λn−2 − · · · − a1 )xn . Combinée
avec la première équation, et puisque xn 6= 0, on obtient donc la condition nécessaire :
λn − an−1 λn−1 − · · · − a1 λ − a0 = 0.

Réciproquement, supposons cette condition vériée, et construisons un vecteur propre associé à λ


en posant successivement : 

 xn = 1
= λxn − an−1 xn−1

 x
 n−1


xn−2 = λxn−1 − an−2 xn−2
.
..






x1 = λx2 − a1 xn
Pour avoir CX = λX , il sut de vérier la première des n équations, les autres étant vériées par
construction. Mais bien sûr
λx1 = λ (λx2 − a1 ) = λ (λ(λx3 − a2 ) − a1 ) = · · · = −λa1 −λ2 a2 −· · ·−λn−1 an−1 +λn = a0 = a0 xn

Ainsi, on a bien CX = λX , avec X 6= 0, et λ est bien une valeur propre.

λ est valeur propre de C si et seulement si λn − an−1 λn−1 − · · · − a1 λ − a0 = 0.

Un calcul de polynôme caractéristique aurait probablement fait gagner un peu de temps : pour les
candidats d'une part ; et pour le jury d'autre part : on savait avant de corriger les copies que le  si
et seulement si  serait traité n'importe comment...
Q 25. On a vu dans la résolution précédente que lorsque CX = λX , alors les xk sont tous imposés par la
valeur de xn : le sous-espace propre (lorsque λ est valeur propre) est donc de dimension 1.
 n−1
− an−1 λn−2 − · · · − a1

λ
..
.
 
 
Lorsque λ ∈ Sp(C), Ker(C − In ) est une droite dirigée par 

2
λ − an−1 λ − an−2


 
 λ − an−1 
1

Q 26. Puisque chaque sous-espace propre est de dimension 1, leur somme sera tout l'espace si et seulement
s'il y en a n :

Un endomorphisme cyclique est diagonalisable si et seulement s'il est à spectre simple.

L'implication (diagonalisable et cyclique) ⇒ (à spectre simple) était déjà établie à la question 23, et
(cyclique et à spectre simple) ⇒ (diagonalisable) est évidente (sans le caractère cyclique !) ; WTF ?
Q 27. Relisons la question 2 : Si A et B commutent (par exemple si B = A) alors tout polynôme en
A commute avec tout polynôme en B (par exemple B ) ; bref : P (A) commute avec A. La version
géométrique de ce résultat matriciel est le résultat demandé.

Si P ∈ C[X], alors P (fM ) ∈ C(fM )

7
Q 28. Suivons l'indication en décomposant eectivement g(x0 ) dans la base suggérée : il existe (α0 , ..., αn−1 ) ∈
Cn tel que
n−1
X
g(x0 ) = α0 x0 + α1 fM (x0 ) + · · · + αn−1 f n−1 (x0 ) = i
α0 fM (x0 ).
i=0

On va alors montrer que g est l'endomorphisme


n−1
h = α0 IdCn + α1 fM + · · · + αn−1 fM
X
n−1 i
= α0 fM .
i=0

Déjà, g et h coïncident en x0 , ce qui est un bon début. Pour peu qu'ils coïncident en chaque fM k
(x0 )
(pour 0 ≤ k ≤ n − 1), on devrait pouvoir conclure. Et en l'occurrence g ◦ fM k
= fMk
◦ g , donc :
n−1
k
 k
X
k i
 n−1
X
i k
 k

g fM (x0 ) = fM (g(x0 )) = α0 fM fM (x0 ) = α0 fM fM (x0 ) = h fM (x0 ) ,
i=0 i=0

de sorte que g et h coïncident sur une base, donc sont égales.

Si g commute avec fM alors c'est un polynôme en fM .

Q 29. Bon, donc si on a bien suivi :

g ∈ L(E) commute avec un cyclique fM si (Q 27) et seulement si (Q 28) c'est un polynôme en fM .

Q 30. Le polynôme caractéristique de N est X n : son spectre est réduit à {0}. L'unique sous-espace
propre est donc le noyau, qui contient en (dernier vecteur de la base canonique) et est de dimension
(théorème du rang) n − (n − 1) (n − 1 colonnes échelonnées).
 
0
 .. 
 . 
Sp(N ) = {0}, et Ker(N ) = Vect   
0
1

Q 31. Heu... comment dire...

Bien sûr que oui !

Puisqu'elle vaut C(0, ..., 0) !


Q 32. D'après la question 29, C(N ) est l'ensemble des matrices qui commutent avec N . Mais N k est
la matrice avec des zéros partout sauf sur la diagonale d'ordre −k (avec les notations à venir de
la partie III.B) où il y a des 1. Les combinaisons linéaires de ces matrices sont exactement celles
données dans l'énoncé.
C(N ) est l'ensemble des matrices de Toeplitz triangulaires inférieures.

III.B  Quelques résultats de calcul matriciel dans Mn (R)


Q 33. Sous les hypothèses de l'énoncé, il s'agit de montrer (en notant C = AB ) que pour k, ` ∈ [[1, n]] tels
que ` − k 6= i + j , ck` = 0. Fixons donc k et ` ainsi :
n
X
ck,` = ak,r br,` = ak,k+i bk+i,` .
r=1
|{z}
=0 si r−k6=i

Mais ` − k 6= i + j , donc ` − (k + i) 6= j donc bk+i,` = 0.

8
Si A ∈ ∆i et B ∈ ∆j alors AB ∈ ∆i+j
n−1 n−1
Soient A ∈ Hi et B ∈ Hj . On peut écrire A = Ak et B = B` (avec Ak ∈ ∆k et B` ∈ ∆` ).
P P
Q 34.
k=i `=j
On a alors :
n−1
X n−1
X
AB = Ak B` ;
k=i `=j

mais chaque Ak B` est dans ∆k+` (question précédente) donc dans Hi+j (car k + ` ≥ i + j ), donc
la (double-)somme aussi.

Si A ∈ Hi et B ∈ Hj alors AB ∈ Hi+j .

Q 35. Notons P = 1 + X et Q = 1 − X + X 2 + · · · + (−1)n−1 X n−1 , de sorte que P Q = 1 + (−1)n−1 X n .


On a alors :
(In + C)(In − C + C 2 + · · · + (−1)n−1 C n−1 ) = P (C)Q(C) = (P Q)(C) = In + (−1)n−1 C n = 0

car C n = 0. De même, (In − C + C 2 + · · · + (−1)n−1 C n−1 )(In + C) = In . Ainsi :

In + C est inversible, d'inverse In − C + C 2 + · · · + (−1)n−1 C n−1 .

Le statut de  Si AB = In alors A est inversible d'inverse B  ne me semble jamais clair, d'où


mon passage par BA = In ... qui ne pose lui jamais problème.
Q 36. La question précédente nous assure que P est eectivement inversible, avec P −1 combinaison
linéaire de In , C, C 2 , ..., C n−1 ; or chaque C p est dans ∆p(k+1) (question 33 et récurrence immédiate),
ce qui prouve le résultat demandé.
n−1
P est inversible, et P ∆p(k+1) .
M
−1

p=0

n−1
En regardant la preuve précédente, on peut écrire : P −1 = In + Q avec Q ∈ ∆p(k+1) ⊂ Hk+1 ;
M
Q 37.
p=1
on a alors :
ϕ(M ) − M = (In + Q)M (In + C) − M = QM + M C + QM C.
Mais d'après la question 34, ces trois termes sont respectivement dans Hk+1+i , Hi+k+1 et H2(k+1)−1 ,
donc (2(k + 1) − 1 ≥ k + 1) dans Hk+1 .

Il existe M 0 ∈ Hk+1 tel que ϕ(M ) = M + M 0 .

Q 38. On ane à nouveau la preuve précédente : ϕ(N ) − N − N C + CN = (C + Q)N + QN C . Mais


C + Q = C 2 − C 3 + · · · + (−1)n−1 C n−1 ∈ H2(k+1) ⊂ Hk+1 et N ∈ H2(k+1)−1 ⊂ Hk+1 :

Il existe N 0 ∈ Hk+1 tel que ϕ(N ) = N + N C − CN + N 0

Q 39. Déjà, B = ϕ(A) = P −1 AP , avec P −1 ∈ H0 , A ∈ H−1 et P ∈ H0 , donc (question 34) :

B ∈ H−1

n−1
On peut ensuite écrire T = T (i) , et la propriété ϕ(M ) − M ∈ Hk+1 reste vraie dès que M ∈ ∆i
P
i=0
avec i ≥ 0 (reprendre la preuve : la condition i ≤ k est inutile), donc ϕ(T ) − T ∈ Hk+1 . Ainsi :
B = ϕ(N ) + ϕ(T ) = A + (N C − CN ) + B 0 ,

9
avec B 0 ∈ Hk+1 .
Bien entendu pour i ≤ k, B 0(i) = 0 ; il reste donc à montrer :
(
(i) 0 si − 1 ≤ i ≤ k − 1
(N C − CN ) =
N C − CN si i = k

ce qui revient à dire que N C − CN ∈ ∆k . Mais puisque N ∈ ∆−1 et C ∈ ∆k+1 , c'est une
conséquence directe de la question 33.

B (k) = A(k) + N C − CN , et pour tout i ∈ [[−1, k − 1]], B (i) = A(i) .

III.C  L'opérateur de Sylvester


Q 40. Le noyau de S est le commutant de N qui a été déterminé à la question 32.

Le noyau de S est constitué des matrices de Toeplitz triangulaires inférieures.

Q 41. Soit X ∈ ∆k+1 : S(X) = N X − XN et N ∈ ∆−1 ; la question 33 nous assure que S(X) est la
diérence de deux éléments de ∆(k+1)−1 donc est dans ∆k . En notant que tN ∈ ∆1 on montre la
deuxième inclusion demandée.
S(∆k+1 ) ⊂ ∆k et S ∗ (∆k ) ⊂ ∆k+1 .

À partir de maintenant, on suppose : 0 ≤ k ≤ n − 1.


Q 42. Fixons X ∈ ∆k+1 et Y ∈ ∆k : d'une part
hSk+1 (X), Y i = tr t(N X − XN )Y = tr(tX tN Y ) − tr(tN tXY ),


et d'autre part :
hX, Sk∗ (Y )i = tr tX(tN Y − Y tN ) = tr(tX tN Y ) − tr(tXY tN ).


Mais
tr(tN tXY ) = tr tN (tXY ) = tr (tXY )tN ) = tr tXY tN ,
  

donc :
Pour X ∈ ∆k+1 et Y ∈ ∆k : hSk+1 (X), Y i = hX, Sk∗ (Y )i

Prenons alors A ∈ Ker(Sk∗ ) et B ∈ Im(Sk+1 ). Il existe X ∈ ∆k+1 tel que B = Sk+1 (X), et on a
donc :
hA, Bi = hA, Sk+1 (X)i = hSk+1 (X), Ai = hX, Sk∗ (A)i = 0
car A ∈ Ker(Sk∗ ).

Ker(Sk∗ ) et Im(Sk+1 ) sont en somme directe orthogonale.

Ensuite, Ker(Sk∗ ) est bien un sous-espace de ∆k par dénition, ainsi que Im(Sk+1 ) (question 41 :
S(∆k+1 ) ⊂ ∆k ) ; il reste donc à vérier que la somme de leurs dimensions vaut celle de ∆k , à savoir
n − k.
 Ker(Sk∗ ) = Ker(S ∗ ) ∩ ∆k est la droite engendré par Dk , donc est de dimension 1 ;
 Im(Sk+1 ) est de dimension :
dim(∆k+1 ) − dim(Ker(Sk+1 )) = (n − (k + 1)) − dim(Ker(S) ∩ ∆k+1 ) = n − k − 1
| {z }
0

(Ker(S) ∩ ∆k+1 est constitué des matrices triangulaires inférieures qui sont dans ∆k+1 , ce qui
est un tout petit espace).

10
On a bien dim (Ker(Sk∗ )) + dim (Im(Sk+1 )) = dim(∆k ), ce qui permet de conclure puisque les deux
sous-espaces sont en somme directe (orthogonale) :

∆k = Ker(Sk∗ ) ⊕⊥ Im(Sk+1 )

Q 43. Avec un peu de hauteur, on voit qu'il sut (partie III.B.1) de construire C ∈ ∆k+1 (ce qui nous
laisse n − (k + 1) degrés de liberté) tel que A(k) + N C − CN ait ses n − k éléments diagonaux
d'ordre k égaux, ce qui fait... n − k − 1 équations (ça sent bon). Si on y arrive, alors en posant
P = In + C on aura B = ϕ(A) = P −1 AP qui vériera exactement les conditions souhaitées sur les
diagonales d'ordre i ∈ [[−1, k]].
J'ai dans un premier temps commencé à écrire des n − k − 1 équations (d'inconnues les ci,i+k+1
pour 1 ≤ i ≤ n − (k + 1))... avant de réaliser que parfois dans un problème on utilise ce qui précède !
Observons donc A(k) : cette matrice est dans ∆k , donc la question précédente nous donne l'exis-
tence de C1 ∈ ∆k+1 tel que A(k) − (N C1 − C1 N ) soit dans Ker(Sk∗ ), c'est-à-dire dans Vect(Dk ).
Considérons alors P = In − C1 . La partie III.B.1 nous assure que B = P −1 AP vérie : pour tout
i ∈ [[−1, k − 1]], B (i) = A(i) , et B (k) = A(k) − N C1 + C1 N , donc B (k) ∈ Vect(Dk ) possède comme
requis tous ses coecients diagonaux d'ordre k égaux...

Ce qu'on voulait démontrer !

Q 44. Il sut évidemment de montrer que toute matrice cyclique A0 = C(a0 , ..., an−1 ) est semblable à
une matrice de Toeplitz.
 On applique le résultat de la question précédente à A0 (qui
 est bien de la forme N+ T ) avec
a0
1 a0 ? 
.. ..
 
k = 0 : A0 est semblable à une matrice de la forme A1 =  . .
 
0

.. .. ..

. . .
 
 
(0) 0 1 a0
 On applique le résultat de la question précédente à A1 (qui est toujours de la forme N +
) avec cette fois k = 
T 1 : A1 (donc A0 ) est semblable à une matrice de la forme A2 =
a0 a01 ?
..
.
 
1 a0 
.. .. ..
 
. . .
 
0 
.. .. ..
 
. . .
 
0
 a1
(0) 0 1 a0
 On continue ainsi en appliquant le résultat de la question précédente à la matrice obtenue à
l'étape précédente, pour k allant jusqu'à n−1, et C(a0 , ..., an−1 ) = A0 est nalement semblable
à une matrice de Toeplitz.

Toute matrice cyclique est semblable à une matrice de Toeplitz.

Terminons par un petit décompte dans ce corrigé...


 nombre d'occurrences du symbole ⇒ : une seule (sur cette ligne) ;
 nombre d'occurrences du symbole ⇔ : une seule (sur cette ligne) ;
 nombre d'occurrences de  du coup  : une seule (sur cette ligne) ;
 nombre d'occurrences de  au nal  : une seule (sur cette ligne).

11
Concours Centrale-Supélec 2018 filière PSI

Mathématiques 1

Présentation du sujet
Le sujet porte sur les matrices de Toeplitz. Il est constitué de trois grandes parties :

− une première partie qui permet de se familiariser avec cette classe de matrices, notamment
par l’étude du cas des matrices de Toeplitz de taille 2, ou encore par quelques propriétés des
matrices tri-diagonales qui sont un cas particulier des matrices de Toeplitz ;

− une deuxième partie dont l’objectif est l’étude des matrices circulantes qui sont un autre cas
particulier des matrices de Toeplitz. On étudie notamment la structure de cet ensemble et la
diagonalisabilité de ces matrices ;

− une troisième et dernière partie qui propose l’étude des matrices cycliques et les relie aux
matrices de Toeplitz.

Une matrice de Toeplitz de taille 𝑛 a la particularité d’être entièrement déterminée par 2𝑛 − 1


coefficients (et non pas 𝑛2 comme c’est le cas pour une matrice quelconque). Ces matrices ont
plusieurs utilisations intéressantes, notamment, dans la résolution de systèmes linéaires.
Une bonne maitrise des chapitres d’algèbre linéaire (espaces vectoriels, endomorphismes en di-
mension finie, réduction des matrices et des endomorphismes…) est indispensable pour traiter
correctement ce sujet, mais quelques autres chapitres d’algèbre générale (nombres complexes, tri-
gonométrie, polynômes) entrent également en jeu.

Analyse globale des résultats


La première partie a été abordée presque entièrement par tous les candidats et certaines questions
ont été très bien traitées. Une grande majorité des candidats connait la définition et les propriétés
élémentaires d’une matrice diagonalisable ou d’une suite récurrente linéaire, objets qui occupaient
une place centrale dans cette première partie. En revanche, les calculs ont trop souvent été fait
dans le corps des réels alors que les matrices et scalaires étaient des nombres complexes !
La deuxième partie, bien plus courte, a aussi été très largement étudiée. Les polynômes de matrices
y occupent une place importante et cette notion semble bien comprise.
La troisième partie, qui représente pourtant près de la moitié du problème, a été nettement moins
abordée, et peu de questions ont été correctement traitées. Cela s’explique sans doute essentielle-
ment par une plus grande abstraction ou technicité des questions qui y figuraient, mais aussi par
sa position en seconde moitié du problème.
Le sujet est long, mais cela n’a pas empêché certains candidats d’en traiter presque les trois quarts.
Concernant la présentation des copies, une majorité est assez clairement présentée, avec des ques-
tions numérotées correctement, traitées dans l’ordre et des résultats encadrés. Ceux qui dérogent
à ces règles de base font tout de suite mauvaise impression et prennent le risque d’être moins bien
compris par les correcteurs.

Mathématiques 1 9 juin 2018 18:52 1


Concours Centrale-Supélec 2018 filière PSI

Commentaires sur les réponses apportées et conseils aux futurs candidats


Le jury souhaite insister sur un certain nombre de points qui ont souvent posé problèmes aux
candidats.
Les candidats doivent faire un effort de présentation des copies, numéroter les questions, les traiter
dans l’ordre (quitte à laisser des blancs pour y revenir) et encadrer leurs résultats.
L’utilisation des abréviations doit être limitée : si certaines (CNS, SSI…) sont très couramment
utilisées, d’autres (SRS pour scindé à racines simples…) le sont nettement moins.
Pour démontrer qu’une famille est une base, il faut démontrer qu’elle est libre et génératrice. Dans
la question 1, trop de candidats ne l’ont pas fait correctement.
Une matrice symétrique à coefficients complexes n’est pas nécessairement diagonalisable. C’est par
contre toujours le cas pour une matrice symétrique à coefficients réels.
Il n’y a pas équivalence pour une matrice entre « être diagonalisable » et « avoir un polynôme
caractéristique scindé et à racines simples ».
Il n’y a pas de relation d’ordre dans ℂ ! Ainsi, lors de la résolution d’une équation de degré 2 dans
ℂ, cela n’a aucun sens de traiter les cas Δ > 0, Δ = 0 et Δ < 0.
Dans un raisonnement par récurrence, si l’hypothèse 𝒫(𝑛) n’est pas utilisée lors de l’hérédité, c’est
que la récurrence n’a sans doute pas lieu d’être !
Lorsqu’un raisonnement est découpé en plusieurs cas, il faut vérifier que tous ces cas recouvrent
bien l’ensemble de toutes les possibilités. C’était notamment important dans la question 4 pour
être certain de bien tout envisager ou pour ne pas traiter plusieurs fois le même cas.
Les racines complexes d’une équation de degré 2 à coefficients complexes ne sont pas nécessairement
conjuguées.
Si 𝑃 est un polynôme annulateur d’une matrice 𝐴, seule l’inclusion sp(𝐴) ⊂ {racines de 𝑃} est
toujours valable, mais l’inclusion réciproque ne l’est pas forcément.

Conclusion
Le sujet est long mais sa progressivité a permis à tous les candidats de traiter de nombreuses
questions et de mettre en évidence leurs compétences en algèbre. Quelques lacunes sur des notions
de base (nombres complexes notamment) ont malheureusement aussi été repérées.
Les correcteurs encouragent vivement les candidats à utiliser un brouillon et à ne pas commencer
systématiquement la rédaction aussitôt l’énoncé lu. De nombreuses erreurs grossières pourraient
ainsi être évitées. De même, quelques exemples simples vus tout au long de l’année donneraient
aux candidats des idées élémentaires permettant de comprendre de nombreuses questions et d’en
mesurer la difficulté.

Mathématiques 1 9 juin 2018 18:52 2


PSI* Problème de révision n°9
Année scolaire
2018/2019

UTILISATIONS DES MATRICES COMPAGNON

Notations et définitions :
Dans tout le problème K désigne R ou C et n est un entier naturel.
Si u est un endomorphisme d’un K-espace vectoriel E, on note u0 = idE et ∀n ∈ N, un+1 = un ◦ u.
On note Kn [X] la K-algèbre des polynômes de degré inférieur ou égal à n, Mn (K) la K-algèbre
des matrices carrées de taille n à coefficients dans K de matrice unité In et GLn (K) le groupe des
matrices inversibles de Mn (K) ; les éléments de Mn (K) sont notés M = (mi,j ).
Pour une matrice A de Mn (K), on note tA la transposée de la matrice A, rg(A) son rang, χA =
det (XIn − A ) son polynôme caractéristique et Sp (A) l’ensemble de ses valeurs propres.
Si P = X n + an−1 X n−1 + . . . + a1 X + a0 est un polynôme unitaire de Kn [X] on lui associe
0 0 . . 0 −a0
 
1 0 . . 0 −a1 
 
0 1 0 . 0 −a2 
la matrice compagnon CP =    ∈ Mn (K)
 . . . . . . 

0 . 0 1 0 −an−2 
0 . . 0 1 −an−1
(c’est-à-dire la matrice CP = (ci,j ) est définie par ci,j = 1 pour i − j = 1, ci,n = −ai−1 et ci,j = 0
dans les autres cas).
Les parties II. III. et IV. utilisent les résultats de la partie I. et sont indépendantes entre elles.
I. Propriétés générales
Dans cette partie on considère le polynôme P = X n + an−1 X n−1 + . . . + a1 X + a0 de Kn [X] et CP
sa matrice compagnon associée.
1. Montrer que CP est inversible si et seulement si P (0)6=0.
2. Montrer que χCp = P .
3. Soit Q un polynôme de Kn [X], déterminer une condition nécessaire et suffisante pour qu’il existe
une matrice A de Mn (K) telle que χA = Q.
4. On note tCP la transposée de la matrice CP .
(a) Justifier la proposition : Sp (CP ) = Sp tCP .


(b) Soit λ élément de Sp tCP , déterminer le sous-espace propre de tCP associé à λ.




(c) Montrer que tCP est diagonalisable si et seulement si P est scindé sur K et a toutes ses
racines simples.
(d) On suppose que P admet n racines λ1 , λ2 , . . ., λn deux à deux distinctes,
montrer que tCP est
1 1 . . 1

λ1 λ2 . . λn
2
diagonalisable et en déduire que le déterminant de Vandermonde λ1 λ22 . . λ2n
. . . . .

λn−1 λn−1 . . λn−1
1 2 n
est non nul.

5. Exemples :
(a) Déterminer une matrice A (dont on précisera la taille n) vérifiant :
A2018 = A 2017 + A2016 + 2015In .
(b) Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E vérifiant :
f n−1 6=0 et f n = 0 ; montrer que l’on peut trouver une base de E dans laquelle la matrice
de f est une matrice compagnon que l’on déterminera.

Page 1/3
II. Localisation des racines d’un polynôme
Soit A = (ai,j ) une matrice de Mn (C), on pose pour tout entier 1 6 i 6 n :
Pn
ri = |ai,j | et Di = {z ∈ C, |z| 6 ri }.
j=1
 
x1
 x2 
Pour X =   .  ∈ Mn,1 (C), on note kXk∞ = 1 max |xi |.

6i6n
xn
 
x1
 x2 
6. Soit λ ∈ Sp (A) et X =   .  un vecteur propre associé à λ.

xn
Montrer que pour tout entier 1 6 i 6 n : |λxi | 6 ri kXk∞ .
Sn
7. Démontrer que Sp (A) ⊂ Dk .
i=1
8. Soit P = X n +an−1 X n−1 +. . .+a1 X +a0 un polynôme de C[X], établir que toutes les racines de P
sont dans le disque fermé de centre 0 et de rayon R = max {|a0 | , 1 + |a1 | , 1 + |a2 | , . . ., 1 + |an−1 |}.
9. Application :
Soit a, b, c et d quatre entiers naturels distincts et non nuls, montrer que l’équation d’inconnue
n:
na + nb = nc + nd
n’admet pas de solution sur N \ {0, 1}.
III. Suites récurrentes linéaires
On note E = CN l’espace vectoriel des suites de complexes et si u est une suite de E, on écrira
u(n) à la place de un pour désigner l’image de n par u.
On considère le polynôme P = X p + ap−1 X p−1 + . . . + a0 de C[X] avec a0 6=0 et on lui associe le
sous-espace vectoriel F de E formé des éléments u vérifiant la relation :
∀n ∈ N : u(n + p) = −ap−1 u(n + p − 1) − . . . − a0 u(n).

10. Montrer que si λ est racine de P alors la suite n 7→ λn est élément de F .


11. Soit ϕ l’application de F vers Cp définie par : u 7→ (u(0), u(1), . . ., u(p − 1)), montrer que ϕ est
un isomorphisme d’espaces vectoriels. Quelle est la dimension de F ?
12. Pour tout entier 0 6 i 6 p − 1 on définit les élements ei de F par :
ei (i) = 1 et, lorsque 0 6 j 6 p − 1 et j6=i, ei (j) = 0.
(a) Déterminer pour 0 6 i 6 p − 1 ei (p).
(b) Montrer que le système de vecteurs (e0 , e1 , . . ., ep−1 ) est une base de F .
p−1
P
(c) Soit u un élément de F , établir que u = u(i)ei .
i=0

13. Si u est un élément de E, on définit l’élément f (u) de E par : f (u) : n 7→ u(n + 1). Montrer que
l’application f ainsi définie est un endomorphisme de E et que F est stable par f .
14. Si g est l’endomorphisme de F induit par f , montrer que la matrice de g dans la base (e0 , e1 , . . ., ep−1 )
est tCP .
15. On suppose que P admet p racines non nulles et deux à deux distinctes : λ0 , λ1 , . . ., λp−1 .
(a) Déterminer une base de F formée de vecteurs propres de g.
(b) En déduire que, si u est élément de F , il existe des constantes complexes k0 , k1 , . . ., kp−1
telles que : ∀n ∈ N, u(n) = k0 λn0 + k1 λn1 + . . . + kp−1 λnp−1 .
16. Exemple : (On revient à la notation usuelle un )
Soit a, b et c trois réels distincts.
Déterminer une base de l’espace vectoriel des suites définies par u0 , u1 et u2 et par la relation
de récurrence valable pour tout n ∈ N :
un+3 = (a + b + c)un+2 − (ab + ac + bc)un+1 + abc.

Page 2/3
IV. Matrices vérifiant : rg(U − V ) = 1
Dans cette partie, pour une matrice A, on notera CA la matrice compagnon du polynôme χA .
17. Une matrice A est-elle nécessairement semblable à la matrice compagnon CA ?
Pour tout couple (U, V ) de matrices de GLn (K), on considère les deux propositions suivantes,
que l’on identifie chacune par un symbole :
(*) : rg(U − V ) = 1
(**) : Il existe une matrice inversible P telle que U = P −1 CU P et V = P −1 CV P .
18. Montrer qu’un couple (U, V ) de matrices distinctes de GLn (K) vérifiant (**) vérifie (*).
19. Déterminer un couple (U, V ) de matrices de GL2 (K) (n = 2) vérifiant (*) mais ne vérifiant pas
(**) et déterminer le plus grand commun diviseur des polynômes χU et χV .

Dans la suite de cette partie, (U, V ) est un couple de matrices de GLn (K) vérifiant (*) et tel
que χU et χV sont deux polynômes premiers entre eux.
Soit E un K-espace vectoriel de dimension n et de base B, on désigne par u et v les automor-
phismes de E tels que U (respectivement V ) soit la matrice de u (respectivement v) dans la base
B.
Enfin on pose H = Ker(u − v).
20. Montrer que H est un hyperplan vectoriel de E.

21. Soit F 6= {0} un sous-espace vectoriel de E stable par u et par v c’est-à-dire :


u(F ) ⊂ F et v(F ) ⊂ F .
On notera uF (respectivement vF ) l’endomorphisme induit par u (respectivement v) sur F .
On rappelle que χuF divise χu .
(a) Montrer que F n’est pas inclus dans H.
(b) On suppose que F 6=E, montrer que F + H = E puis que l’on peut compléter une base BF
de F par des vecteurs de H pour obtenir une base B 0 de E. En utilisant les matrices de u
et v dans la base B 0 montrer que l’on aboutit à une contradiction.
(c) Quels sont les seuls sous-espaces stables à la fois par u et par v ?
22. Pour j ∈ N, on note Gj = x ∈ E, uj (x) ∈ H .


(a) Montrer que les sous-espaces Gj sont des hyperplans vectoriels de E.


n−2
T
(b) Montrer que Gj 6= {0}.
j=0
n−2
Gj , on pose pour 0 6 j 6 n − 1 : ej = uj (y).
T
(c) Soit y un vecteur non nul de
j=0
Montrer que B 00 = (e0 , e1 , . . ., en−1 ) est une base de E.
(On pourra considérer F = Vect y, u(y), . . ., up−1 (y)

où p est le plus grand entier naturel
non nul pour lequel la famille y, u(y), . . ., up−1 (y) est libre).


(d) Montrer que la matrice de u (respectivement v) dans B 00 est CU (respectivement CV ).


(e) Conclure.

Fin de l’énoncé.

Page 3/3
PSI* Problème de révision n°9
Correction
Année scolaire
2018/2019

I. Propriétés générales
1. En développant det(CP ) suivant sa première ligne, on obtient :

det(CP ) = (−1)n+1 (−a0 ).1 = (−1)n P(0),

et donc Cp ∈ GLn (K) ⇔ det(CP ) 6= 0 ⇔ P(0) 6= 0.

Cp ∈ GLn (K) ⇔ P(0) 6= 0.

2. En développant det(CP − XIn ) suivant sa dernière colonne, on obtient :


n−2
X
det (CP − XIn ) = (−an−1 − X)(−X)n−1 + (−1)n+k+1 (−ak )∆k ,
k=0

−X 0 ... 0 0 ... ... 0
. .. .. ..

−X . .

× . . .
.. .. ..

.. ..

. . . 0 . .

× . . . × −X 0 ... ... 0
où ∆k est le déterminant , (−X) étant écrit k fois. Un calcul par blocs fournit
× ... ... × 1 × ... ×

.. .. .. .. .
. ..


. . 0 .

.. .. .. .. ..

. . . . . ×

× ... ... × 0 ... 0 1
∆k = (−X)k et donc,
n−2
X n−1
X
det (CP − XIn ) = (−1)n (Xn + an−1 Xn−1 + (−1)k ak (−1)k Xk ) = (−1)n (Xn + ak Xk ) = (−1)n P.
k=0 k=0

χCP = P .

3. Si Q est un tel polynôme, il est nécessaire que Q soit un polynôme de degré n et de coefficient dominant (−1)n . La
question 2. montre alors que cette condition est suffisante.

4. a) On sait que CP et t Cp ont même polynôme caractéristique (à savoir (−1)n P) et donc même spectre.

Sp(Cp ) = Sp(t Cp ).

1
b) Soit λ une valeur propre de t CP . Soit X = (xi )1≤i≤n ∈ Mn,1 (K).

n−1
X
t
CP X = λX ⇔ ∀k ∈ J1, n − 1K, xk+1 = λxk et − ai xi+1 = λxn
i=0
n−1
X
⇔ ∀k ∈ J2, nK, xk = λk−1 x1 et − a i λi x 1 = λn x 1
i=0
n−1
X
k−1 n
⇔ ∀k ∈ J2, nK, xk = λ x1 et (λ + ai λi )x1 = 0
i=0
⇔ ∀k ∈ J2, nK, xk = λk−1 x1 et P(λ)x1 = 0
⇔ ∀k ∈ J2, nK, xk = λk−1 x1 (car P(λ) = 0).

Donc, le sous-espace propre de t CP associé à la valeur propre λ est Vect((1, λ, λ2 , . . . , λn−1 )). En particulier, tout sous-
espace propre de CP est une droite vectorielle.

∀λ ∈ Sp(t Cp ), Ker(t Cp − λIn ) = Vect((1, λ, λ2 , . . . , λn−1 )).

c) t CP est diagonalisable (dans K) si et seulement si χt CP = χCP = (−1)n P est scindé sur K et pour toute valeur propre
λ, la dimension du sous-espace propre associé est l’ordre de multiplicité de cette valeur propre.
D’après b), tout sous-espace propre de t CP est de dimension 1, et donc

t
CP est diagonalisable si et seulement si P est scindé sur K, à racines simples.

d) D’après b), pour 1 ≤ k ≤ n, le sous-espace propre associé à la valeur propre λk est engendré par le vecteur
ek = (λi−1 t
k )1≤i≤n . D’après c), CP est diagonalisable. On en déduit que la famille (ek )1≤k≤n est une base de E et donc
que le déterminant de Vandermonde det(λki−1 )1≤i,k≤n est non nul.
 
0 ... ... 0 1999
 1 0 ... ... 0 0 
.. .. 
 
 0 ... ...

. . 
5. a) D’après 2., si A est la matrice compagnon  . . .. , de format 2002, le polynôme ca-
 
 .. .. ..
 . . 0 
 . . .
 .. .. ..

0 1 
0 ... ... 0 1 1
ractéristique de A est PA = X2002 − X2001 − X2000 − 1999. D’après le théorème de Cayley-Hamilton, la matrice A
vérifie

A2002 = A2001 + A2000 + 1999I2002 .

b) Soit x0 un vecteur de E tel que fn−1 (x0 ) 6= 0. Montrons que la famille (x0 , f(x0 ), . . . , fn−1 (x0 )) est libre.
n−1
X
Supposons par l’absurde que cette famille soit liée. Alors, il existe (λ0 , . . . , λn−1 ) 6= (0, . . . , 0) tel que λk fk (x0 ) = 0.
k=0
n−1
X
Soit p = Min{k ∈ J0, n − 1K/ λk 6= 0}. Par définition, 0 ≤ p ≤ n − 1 et λk fk (x0 ) = 0. En prenant l’image des deux
k=p
n−1
X
membres par fn−1−p (n−1−p est un entier positif), on obtient λk fk+n−p−1 (x0 ) = 0 et donc λp fn−1 (x0 ) = 0 (puisque,
k=p
pour k ≥ n, fk (x0 ) = 0). Comme fn−1 (x0 ) 6= 0, on obtient λp = 0 ce qui contredit la définition de p.
Donc, la famille (x0 , f(x0 ), . . . , fn−1 (x0 )) est libre. Etant de cardinal n = dim(E), cette famille est une base de E.

2
 
0 ... ... 0
. ..
1 ..
 
 . 
..
 
.
Dans cette base, la matrice de f est la matrice compagnon  0 .. .
 
 . 
 .. . . .. .. .. 
 . . . . . 
0 ... 0 1 0

II. Localisation des racines d’un polynôme


n
X
6. Puisque AX = λX, on a : ∀i ∈ J1, nK, λxi = ai,j xj . Mais alors, pour i ∈ J1, nK,
j=1
 
n
X Xn
|λxi | ≤ |ai,j | × |xj | ≤  |ai,j | ||X||∞ = ri ||X||∞ .
j=1 j=1

∀i ∈ J1, nK, |λxi | ≤ ri ||X||∞ .

7. Soient λ une valeur propre de A et X = (xi )1≤i≤n un vecteur propre associé. Soit i0 un indice tel que ||X||∞ = |xi0 |.
D’après 6., on a

|λ| × ||X||∞ = |λxi0 | ≤ ri0 ||X||∞ .

Mais X est un vecteur propre et donc X 6= 0. Par suite, ||X||∞ > 0 et l’inégalité |λ|.||X||∞ ≤ ri0 ||X||∞ fournit

|λ| ≤ ri0 .

On a ainsi montré que, pour toute valeur propre λ, il existe un indice i0 tel que |λ| ≤ ri0 ou encore tel que λ ∈ Di0 . Par
suite, toute valeur propre de A appartient à ∪1≤i≤n Di . Finalement,

Sp(A) ⊂ ∪1≤i≤n Di .

8. Notons (λ1 , . . . , λn ) la famille des racines (distinctes ou confondues) de P dans C. Puisque (−1)n P est le polynôme
caractéristique de CP , (λ1 , . . . , λn ) est aussi la famille des valeurs propres de CP .
D’après 7. chaque valeur propre λ a un module inférieur ou égal à au moins l’un des ri de la matrice CP . Or, pour la
matrice CP , r1 = |a0 | et pour i ≥ 2, ri = |1| + | − ai−1 | = 1 + |ai−1 |. Ainsi, toute racine de P a un module inférieur ou égal
au plus grand des nombres |a0 |, 1 + |a1 |, . . . , 1 + |an−1 | ou encore

toutes les racines de P sont dans le disque fermé de centre O et de rayon R = max{|a0 |, 1 + |a1 |, . . . , 1 + |an |}.

9. Soit P le polynôme Xd + Xc − Xb − Xa . D’après 8., les racines de P ont un module au plus égal à 1 + | ± 1| = 2. Une
racine de P, qui est de plus un nombre entier supérieur ou égal à 2 ne peut donc être que 2.
Réciproquement, on n’a jamais 2a + 2b = 2c + 2d . En effet, dans le cas contraire, on peut diviser les deux membres de
cette égalité par 2α où α est le plus petit des quatre nombres a, b, c ou d. L’un des quatre termes est alors 1 et les trois
autres sont des puissances strictement positives de 2 et donc des nombres pairs. Ainsi, l’un des deux membres de l’égalité
2a−α + 2b−α = 2c−α + 2d−α est un nombre pair et l’autre est un nombre impair, ce qui est impossible.

L’équation na + nb = nc + nd n’a donc pas de solution dans N \ {0, 1}.

III. Suites récurrentes linéaires


10. Soit λ ∈ C tel que P(λ) = 0.
Soit n ∈ N. λn+p + ap−1 λn+p−1 + . . . + a1 λn+1 + a0 λn = λn P(λ) = 0. Ainsi, la suite (λn )n∈N est dans F.

3
11. • Soient (u, v) ∈ F2 et (α, β) ∈ C2 .
ϕ(λu + µv) = (λu0 + µv0 , . . . , λup−1 + µup−1 ) = λ(u0 , . . . , up−1 ) + µ(v0 , . . . , vp−1 ) = λϕ(u) + µϕ(v).
Donc, ϕ est une application linéaire de F dans Cp .
• Soit u ∈ F. Si u ∈ Ker(ϕ), alors u0 = u1 = . . . = up−1 = 0. Montrons alors par récurrence que ∀n ∈ N, un = 0.
C’est vrai pour n ∈ J0, p − 1K. Soit n ≥ 0. Supposons que ∀k ∈ Jn, n + p − 1K, un = 0. Alors,

un+p = −ap−1 un+p−1 − . . . − a0 un = 0.

On a montré par récurrence que ∀n ∈ N, un = 0. Ainsi, si u ∈ Ker(ϕ), alors u = 0. Donc, ϕ est injective.
• Soit (α0 , . . . , αp−1 ) ∈ Cp . Soit u la suite définie par :

∀k ∈ J0, p − 1K, uk = αk et ∀n ∈ N, un+p = −ap−1 un+p−1 − . . . − a0 un .

Alors, u est un élément de F tel que ϕ(u) = (α0 , . . . , αp−1 ).


On a montré que : ∀(α0 , . . . , αp−1 ) ∈ Cp , ∃u ∈ F/ ϕ(u) = (α0 , . . . , αp−1 ). ϕ est donc surjective.
Finalement,

ϕ est un isomorphisme de F sur Cp ,

et en particulier,

dim F = dimCp = p.

p−1
X p−1
X
12. a) ei (p) = − ak ei (k) = − ak δi,k = −ai .
k=0 k=0

∀i ∈ J0, p − 1K, ei (p) = −ai .

b) La famille (ei )0≤i≤p−1 est l’image de la base canonique de Cp par l’isomorphisme ϕ−1 et est donc une base de F.

La famille (ei )0≤i≤p−1 est une base de F.

c) Soit u ∈ F.
p−1
X
Puisque la famille (e0 , . . . , ep−1 ) est une base de F, il existe (α0 , . . . , αp−1 ) ∈ Cp tel que u = αi ei . Mais alors, pour
i=0
k ∈ J0, p − 1K,
p−1
X
u(k) = αi ei (k) = αk .
i=0

Ainsi,

p−1
X
∀u ∈ F, u = u(i)ei .
i=0

13. Soient (u, v) ∈ E2 et (α, β) ∈ C2 . Pour tout entier naturel n,

f(αu + βv)(n) = (αu + βv)(n + 1) = αu(n + 1) + βv(n + 1) = (αf(u) + βf(v))(n),

et donc f(αu + βb) = αf(u) + βf(v). f est un endomorphisme de E.


Soit u ∈ F. Montrons que f(u) ∈ F. Pour n ∈ N,

f(u)(n + p) = u(n + p + 1) = −ap−1 u(n + p) − . . . − a1 u(n + 2) − a0 u(n + 1)


= −ap−1 f(u)(n + p − 1) − . . . − a1 f(u)(n + 1) − a0 f(u)(n).

4
Ceci montre que f(u) ∈ F. On a montré que F est stable par f.

f ∈ L (E) et f(F) ⊂ F.

14. Soit i ∈ J1, p − 1K. D’après 12.c),


p−1
X p−1
X p−2
X
g(ei ) = g(ei )(k)ek = ei (k + 1)ek = δi,k+1 ek + ei (p)ep−1 = ei−1 − ai ep−1 (d’après 12.a)).
k=0 k=0 k=0

D’autre part,
p−2
X
g(e0 ) = δ0,k+1 ek + e0 (p)ep−1 = −a0 ep−1 .
k=0
 
0 1 0 ... ... 0
 .. .. .. .. .. 
 . . . . . 
..
 
 .. 
La matrice de g dans la base (e0 , . . . , ep−1 ) est donc 
 . .  qui est t CP .

 .. .. .. 

 . . . 0 

 0 ... ... 0 1 
−a0 ... . . . −ap−2 −ap−1

15. a) Pour i ∈ J0, p − 1K, posons vi = (λn i )n∈N . Tout d’abord, d’après 10., chaque vi est élément de F. Ensuite, d’après
12.c), la matrice de la famille (v0 , . . . , vp−1 ) est la matrice de Vandermonde (λji )0≤i,j≤p−1 . Puisque les λi sont deux à
deux distincts, le déterminant de cette matrice est non nul d’après 4.d). On en déduit que la famille (v0 , . . . , vp−1 ) est une
base de F. Enfin, pour n ∈ N,

g(vi ) = (λin+1 )n∈N = λi (λn


i )n∈N = λi vi ,

ce qui montre que vi est un vecteur propre de g associé à la valeur propre λi . Finalement, la famille (v0 , . . . , vp−1 ) est une
base de F formée de vecteurs propres de g.
b) Par suite, pour chaque u ∈ F, il existe des constantes comples k0 , . . . , kp−1 telles que u = k0 v0 + . . . kp−1 vp−1 ou
encore telles que ∀n ∈ N, un = k0 λn n
0 + . . . + kp−1 λp−1 .

16. Ici, le polynôme P est le polynôme

P = X3 − (a + b + c)X2 + (ab + ac + bc)X − abc = (X − a)(X − b)(X − c).

Il est de degré 3 et a trois racines simples à savoir a, b et c. D’après ce qui précède, les éléments de F sont les suites de la
forme

k0 (an )n∈N + k1 (bn )n∈N + k2 (cn )n∈N , (k0 , k1 , k2 ) ∈ C3 .

IV. Matrices vérifiant rg(U − V) = 1


17. Une matrice compagnon est nécéssairement non nulle. La matrice compagnon de la matrice nulle n’est donc pas
semblable à la matrice nulle (car il existe une et une seule matrice semblable à la matrice nulle, à savoir la matrice nulle
elle-même).

Une matrice A n’est pas nécessairement semblable à la matrice compagnon CA .

18. Si U et V vérifient (∗∗), alors U − V = P−1 (CU − CV )P. La matrice U − V est donc semblable à la matrice CU − CV
et a en particulier même rang que celle dernière matrice. Maintenant, la matrice CU − CV a n − 1 colonnes nulles et le
rang de CU − CV , et donc le rang de U − V, vaut au plus 1. Comme U − V n’est pas la matrice nulle, U − V est de rang
exactement 1.

5
19. On prend U = I2 . On a U ∈ GL2 (K) et Cu 6= I2 . Donc U n’est pas semblable à CU .
On prend ensuite V = diag(1, −1) ∈ GL2 (K). On a rg(U − V) = rg(diag(0, 2)) = 1. U et V sont donc deux éléments de
GL2 (K) vérifiant (∗) et pas (∗∗).
On a dans ce cas

χU ∧ χV = (X − 1)2 ∧ (X − 1)(X + 1) = X − 1.

20. U − V est de rang 1 et donc u − v est de rang 1. D’après le théorème du rang, H = Ker(u − v) est de dimension n − 1
et donc un hyperplan vectoriel de E.

21. a) (H est constitué des x de E tels que u(x) = v(x) et donc u et v coïncident sur H) Puisque F 6= {0}, χuF est de
degré au moins 1. Il en est de même de χvF . Si F ⊂ H, alors u et v coïncident sur F et en particulier χUF = χVF . Mais
alors, χUF = χVF est un polynôme de degré au moins 1 divisant à la fois χU et χV . Ceci contredit le fait que χU et χV
sont premiers entre eux. Donc,

F n’est pas inclus dans H.

b) D’après a), F n’est pas inclus dans H. Donc, F ∩ H ⊂ F et en particulier, dim(F ∩ H) ≤ dim F − 1.
6=

dim(F + H) = dim(F) + dim(H) − dim(F ∩ H) ≥ dim(F) + n − 1 − (dim F − 1) = n.

Ainsi, dim(F + H) ≥ n et donc

F + H = E.

Soit G un supplémetaire de F ∩ H dans H. On a d’une part,

E = F + H = F + (F ∩ H + G) = (F + F ∩ H) + G = F + G.

D’autre part, F ∩ G ⊂ G et F ∩ G ⊂ F ∩ H, et donc F ∩ G ⊂ G ∩ (F ∩ H) = {0}. Finalement,

E = F ⊕ G.

Soit alors B une base de E adaptée à la décomposition E = F ⊕ G. B est une base de E obtenue en complétant une base BF
de F par des vecteurs de H.
c) D’après ce qui précède, les seuls sous-espaces stables à la fois par u et par v sont {0} et E.

22. a) Pour tout j de N, Gj est l’image de H par l’automorphisme u−j . On en déduit que Gj a même dimension que H
et donc que Gj est un hyperplan vectoriel.
 
k
\
b) Montrons par récurrence que ∀k ∈ J0, n − 2K, dim  Gj  ≥ n − k − 1.
j=0

• C’est clair pour k = 0.  


k
\ k
\
• Soit k ∈ J0, n − 3K. Supposons que dim  Gj  ≥ n − k − 1 et posons G = Gj . Alors,
j=0 j=0

dim(G ∩ Gk+1 ) = dim(G) + dim(Gk+1 ) − dim(G + Gk+1 ).

Comme dim(G + Gk+1 ) vaut n − 1 ou n (puisque Gk+1 est un hyperplan), on a donc

dim(G ∩ Gk+1 ) ≥ dim(G) + dim(Gk+1 ) − n = dim(G) − 1 ≥ n − (k + 1) − 1.


n−2
\
Le résultat est démontré par récurrence. En particulier, dim( Gj ) ≥ n − (n − 2) − 1 = 1 et donc
j=0

n−2
\
Gj 6= {0}.
j=0

6
c) Soit A = {k ∈ N∗ / (y, u(y), . . . , uk−1 (y)) est libre}. A est une partie non vide de N (car 1 ∈ A puisque y 6= 0) et
majorée (par n = dim(E)). Donc, A admet un plus grand élément noté p.
Soit F = Vect(y, u(y), . . . , up−1 (y)). Tout d’abord F 6= {0} (car y 6= 0 et y ∈ F).
Ensuite, pour 0 ≤ k ≤ p − 2, u(uk (y)) = uk+1 (y) ∈ F. D’autre part, par définition de p, la famille (y, u(y), . . . , up−1 (y))
est libre et la famille (y, u(y), . . . , up−1 (y), up (y)) est liée.
On en déduit que u(up−1 (y)) = up (y) est dans Vect(y, u(y), . . . , up−1 (y)) = F. Finalement, l’image par u d’une famille
génératrice de F est dans F, et donc u(F) ⊂ F. Ainsi, F est un sous-espace non nul de E stable par u. D’après 21.c), F = E
ou encore B ′′ est une base de E.
d) La matrice de u dans B ′′ est une matrice compagnon. Les coefficients de la dernière colonne de cette matrice sont alors,
d’après I.2), les opposés des coefficients du polynôme caractéristique de u. Cette matrice est CU . De même, la matrice de
v dans B ′′ est CV .
e) Si P est la matrice de passage de la base B ′′ à la base B alors U = P−1 CU P et V = P−1 CV P. Par suite, si U et V sont
deux matrices inversibles telles que rg(U − V) = 1 et telles que χU et χV soient premiers entre eux, alors il existe une
matrice inversible P telle que U = P−1 CU P et V = P−1 CV P.

7
PSI* Sujet d’entrainement n◦2
un corrigé
Année scolaire
2018/2019

MINES MP et PSI, 2001


Première Partie
I.1 Premières propriétés.
a) Si x est un vecteur co-propre associé à µ et µ′ , on a u(x) = µx = µ′ x donc (µ − µ′ )x = 0 et donc µ = µ′ car
x 6= 0.
θ θ θ θ
b) Comme u(x) = µx , alors u(e−i 2 x) = e−i 2 u(x) = ei 2 u(x) = eiθ µe−i 2 x ;
θ
ainsi e−i 2 x est un vecteur co-propre associé à la valeur co-propre eiθ µ.
c) • Eµ est évidemment non vide : il contient le vecteur nul.
• Eµ est stable pour l’addition, car, si x et x ′ appartiennent à Eµ , u(x+x ′ ) = u(x)+u(x ′ ) = µx+µx ′ = µ(x+x ′ ) ,
donc x + x ′ ∈ Eµ .
• Cependant, comme u(a x) = µa x , Eµ n’est pas un C -espace vectoriel , (sauf si µ = 0, cas du noyau), mais
un R -espace vectoriel car alors a = a quand a est réel.
d) La composée de deux applications semi-linéaires est linéaires ; on a en effet, immédiatement

u ◦ v(a x + b y) = u(av(x) + bv( y)) = a(u ◦ v)(x) + b(u ◦ v)( y) = a(u ◦ v)(x) + b(u ◦ v)( y)
 
n
X n
X
I.2 a) On s’inspire fortement du cours sur les applications linéaires : y = u(x) = u  x j ej = x j u(e j ) ; d’autre
j=1 j=1
 
n
X n
X Xn n
X
part, u(e j ) = ai j ei , donc on a y =  ai j x j  ei , soit yi = ai j x j .
i=1 i=1 j=1 j=1

Ainsi, Y = AX .
b) S étant la matrice de passage de la base B = (e1 , . . . , en ) à la base B ′ = ( f1 , . . . , f n ) , si on note X le vecteur
colonne des coordonnées de x dans B et X′ le vecteur colonne des coordonnées de x dans B ′ , on a, d’après
le cours : X = SX′ .
Avec des notations évidentes : la relation y = u(x) s’écrit Y = AX soit SY′ = ASX′ = A.S.X′ et, puisque on a
aussi Y′ = BX′ , on en tire B = S−1 AS .

I.3 Exemples :
‚ Œ
   ¨
−1 a 0 a −b = µa
a) Matriciellement le problème posé s’écrit =µ soit ; la première équation
0 b 1 b a = µb
2
équivaut par conjugaison à b = −µa qui en reportant dans la seconde donne a = − µ a ; or a 6= 0, sinon on
aurait aussi b = 0 donc X = 0 ce qui est exclu.
2
Ainsi, µ = −1, ce qui est impossible. Il n’y a pas de solution : une matrice réelle n’a donc pas nécessairement
de valeur co-propre...
b) Si A est réelle et admet une valeur propre réelle λ , elle possède donc un vecteur propre réel associé à λ , noté
X (X 6= 0). Si AX = λX alors AX = AX = λX : X est ainsi un vecteur co-propre associé à la valeur co-propre λ .
2
I.4 a) L’hypothèse s’écrit AX = µX soit par conjugaison AX = µX et donc AAX = µAX = µµX = µ X cqfd.

b) • cas (i) : Si les vecteurs A.X et X sont liés, puisque X 6= 0, il existe k ∈ C tel que AX = kX , ce qui implique
que k est une valeur co-propre de A . Alors, comme ci-dessus, AAX = |k|2 X , donc λX = |k|2 X et λ = |k|2
puisque X 6= 0.
p iθ
p θ tel que k = λe . Comme k est une valeur co-propre de A , il résulte de I.1.b qu’il en est de
Il existe donc
même de λ .
• cas (ii) : on considère le vecteur Y = aAX + bX qui n’est nul que si (a, b) = (0, 0) ; on a Y = aAX + bX et
ainsi AY = aAAX + bAX = aλX + bAX ;
p p p p
Donc AY = λY si et seulement si b = λa et aλ = λb . Par exemple Y = AX + λX convient.
p
c) La condition est nécessaire d’après (a), et suffisante d’après (b) (µ étant un réel positif, µ2 = µ...).

1/3
d) D’après la question précédente, il suffit d’étudier les valeurs propres réelles positives de la matrice
 2 
2 m − 1 −m
Am .Am = Am = .
m −1
Le polynôme caractéristique de cette matrice est X2 − (m2 − 2)X + 1, de discriminant ∆ = m2 (m2 − 4) .
Les deux racines lorsqu’elles existent dans R sont de produit 1 et donc de mêmes signes, ce signe étant aussi
celui de leur somme S = m2 − 2.
Ainsi il y a des racines réelles (qui sont aussi les valeurs propres) si et seulement si m = 0 (−1 est alors valeur
propre double) ou m2 ¾ 4, et dans ce dernier cas, elles sont positives puisque S = m2 − 2 ¾ 2.
La condition |m| ¾ 2 est donc nécessaire
È et suffisante pour que la matrice Am admette des valeurs co-propres
p
2
m − 2 + m m2 − 4 1
réelles positives, qui sont alors µ = et (dans le cas m = ±2, il y a une valeur propre
2 µ
double 1 et donc une valeur co-propre réelle de Am égale à 1).
Remarquons que le cas m = 0 correspond à l’exemple du 3.a pour lequel la matrice A n’a pas de valeur co-propre.
I.5 Cas d’une matrice triangulaire supérieure :
a) D’après la question I.1.b il suffit de montrer que |λ| est valeur co-propre de A , car λeiθ = |λ|ei(θ+ϕ) (ϕ étant
un argument de λ ).
Mais, d’après I.4.c il suffit de prouver que |λ|2 est valeur propre de AA . Ce qui est clair car les valeurs propres
d’une matrice triangulaire sont ses coefficients diagonaux et les coefficients diagonaux d’un produit de matrices
triangulaires supérieures sont les produits des coefficients diagonaux de chacune de ces matrices.
2
b) Si µ est une valeur co-propre de A , il en est de même de µ d’après I.1.b, donc µ est une valeur propre de
AA d’après I.4. Comme les valeurs propres de AA sont (elle est triangulaire) les |a j j |2 , on a |µ|2 = |a j j |2 pour
un certain j ; ayant deux nombres complexes de mêmes modules, ils diffèrent seulement par leurs arguments
(modulo 2π) (éventuellement arbitraires si les nombres sont nuls) et on a a j j = µeiθ . Donc µeiθ figure sur la
diagonale de A , c’en est une valeur propre.
En résumé : Soit A triangulaire. Si λ est valeur propre de A alors λeiθ est valeur co-propre de A pour tout réel
θ.
Réciproquement, si µ est valeur co-propre de A , il existe θ ∈ R tel que µeiθ soit valeur propre de A .

c) Ici λ1 = λ2 = i ; D’après I-5.a 1 est valeur co-propre de A.


On doit alors résoudre AX = X ce qui donne, avec les notations de l’énoncé :
    
i 1 a − ib a + ib
=
0 i c − id c + id
    ¨
ia + b + c − id a + ib ia + b + c − id = a + ib
soit = , ce qui donne le système ;
ic + d c + id c + id = ic + d
En identifiant partie réelle et partie imaginaire de la seconde ligne d = c et en reportant dans la première
ia + b + c − ic = a + ib donc i(a − c − b) + b + c − a = 0 donc a = b + c .
 
b + c + ib
Le vecteur X = est co-propre pour A avec la valeur co-propre 1.
c + ic

I.6 Une caractérisation des valeurs co-propres :


Soit µ = a + ib valeur co-propre pour A (avec a, b réels) et soit X = Y + iZ un vecteur co-propre associé (avec Y, Z
vecteurs réels) : cela s’écrit analytiquement (B+iC)(Y−iZ) = (a+ib)(Y+iZ) soit BY+CZ+i(CY−BZ) = aY−bZ+i(bY+aZ)
Mais d’après I-1.b |µ| = µe−iθ (θ étant l’argument (arbitrairement choisi si µ = 0) de µ) est¨encore une valeur
BY + CZ = |µ|D
co-propre, on peut donc appliquer les identités précédentes avec a = |µ| et b = 0 ; ce qui donne
CY − BZ = |µ|Z
 
Y
et ainsi est un vecteur propre de D pour la valeur propre µ (il est bien non nul).
Z
La réciproque est immédiate car si l’on a le système précédent, alors (B+iC)(Y−iZ) = |µ|(Y+iZ) et |µ| est co-propre
pour A , donc µ aussi.

Seconde Partie
II.1 La relation est en effet réflexive, symétrique et transitive :
• Réflexivité : prendre S = I
• Symétrie : changer S en S−1
• Transitivité : Si B = SA(S)−1 et C = TB(T)−1 , alors C = TSA(S)−1 (T)−1 = TSA(TS)−1 ...
Rem : on pouvait aussi dire, plus simplement, sue deux matrices sont vérifient la relation si et seulement si elles
représentent la même application semi-linéaire dans deux bases différentes...

2/3
2
II.2 D’après I-4, ces vecteurs sont des vecteurs propres de la matrice AA pour les valeurs propres µi , donc linéairement
indépendants, puisque vecteurs propres associés à des valeurs propres distinctes (th. du cours).
Avec l’hypothèse faite,et d’après
p I.4, il existe
p alors une base de E formée de vecteurs co-propres de A associés aux
valeurs co-propres distinctes λ1 , . . . , λn (puisque une famille de n vecteurs indépendants dans un espace de
p p
dimension n en est une base). A est donc co-semblable à diag( λ1 , . . . , λn ) .
−1 −1
II.3 a) Si A = SS alors AA = S.S .S.(S)−1 = In .
b) • Le spectre de A est fini (au plus n éléments), tandis que l’ensemble des nombres complexes de module 1 ne
l’est pas. Il est donc possible de trouver t ∈ C tel que |t| = 1 et A + tIn ∈ GLn (C) .
Soit eiθ une racine carrée de t . Alors |d et(S(θ))| = | det(A + tIn )| =
6 0 et S(θ) est inversible.
• Un calcul immédiat donne alors AS(θ) = S(θ) , en utilisant la relation AA = In .
S étant inversible, S l’est aussi et la relation AS = S s’écrit A = S(θ)(S(θ))−1 .
−1
En résumé : AA = In si et seulement si il existe S ∈ GLn (C) telle que A = SS c’est-à-dire A co-semblable à In .
II.4 Condition nécessaire pour que A soit co-diagonalisable :
2 2
Posant D = S−1 AS = diag(λ1 , . . . , λn ) , il est immédiat que DD = S−1 AAS ; comme DD = diag( λ1 , . . . , λn ) , AA
2
est bien diagonalisable, de valeurs propres les λ , réels positifs ou nuls.
i
Le rang de A est égale à celui de D, puisque S est inversible ; il est donc égal au nombre des λi non nuls, donc au
2 2
rang de DD = diag( λ1 , . . . , λn ) , donc au rang de AA (ces deux dernières matrices étant semblables).
II.5 II-5 une condition suffisante.
−1
a) • BB = (S−1 AS).(S AS) = S−1 AAS = S−1 SΛS−1 S = Λ .
Donc BB = BB = Λ = Λ = BB car Λ est réelle.
• En multipliant BB = Λ à droite par B, on a BBB = ΛB ; de même en multipliant BB = Λ à gauche par B on
a BBB = BΛ ;
Par conséquent, BΛ = ΛB : B et Λ commutent.
b) Comme la matrice B commute avec la matrice Λ , les sous-espaces propres de Λ sont stables par B. Donc la
matrice B s’écrit par blocs sous la forme proposée.
c) Notons d’abord que, compte tenu de l’énoncé, on a λi > 0 si 1 ¶ i ¶ k − 1, et λk ¾ 0.
La relation BB = Λ donne, après un calcul par blocs :Bi Bi = λi Ini
  
1 1
On applique alors à chaque bloc la question II-3.b, en remarquant que si λi > 0,  p Bi   p Bi  = Ini ;
λi λi
p p
−1 −1
donc il existe une matrice inversible Si carrée d’ordre ni telle que Bi = λi Si Si = Si ( λi Ini )Si .
Si λk = 0 on prend Sk inversible quelconque. Si nous montrons que Bk est nulle nous aurons alors
Bk = Sk 0S−1k
. Pour cela on utilise l’hypothèse sur le rang. B et A ont même rang, noté r , qui est aussi celui de
AA ou celui de Λ . On a r = rg(Λ) = n − nk . Puisque chaque Bi , 1X ¶ i ¶ k − 1, est inversible, elle est de rang
ni . La structure diagonale par bloc de B donne alors r = rg(B) = rg(Bi ) = n − nk + rg(Bk ) . Par conséquent
i
rg(Bk ) = 0 et Bk = 0
La matrice P d’ordre n diagonale par blocs et formée des blocs S1 , ..., Sk est inversible (chacun des blocs
diagonaux l’est) et répond à la question posée, avec ∆ la matrice obtenue en remplaçant dans Λ les λi par
p
λi .
A est donc co-semblable à ∆ , elle est bien co-diagonalisable.
II.6 II-6 Exemples.
  
i 1 −i 1
AA = = I2 , donc d’après I.3.a, A est co-diagonalisable.
0 i 0 −i
   
0 2 0 2
BB = B2 = . Or les valeurs propres de ne sont pas des réels positifs ou nuls. Donc B n’est pas
−2 0 −2 0
co-diagonalisable.
CC = 0. C et CC n’ont pas même rang, donc C n’est pas co-diagonalisable.
    
1 i 1 −i 2 0
DD = = . DD est diagonalisable et ses valeurs propres sont des réels positifs. De plus D
i 1 −i 1 0 2
et DD sont inversibles et par conséquent de même rang. D est donc co-diagonalisable.

3/3
1 - MATHÉMATIQUES

1.2 - Épreuves écrites

1.2 C - MATHEMATIQUES I - filière PSI

I) REMARQUES GENERALES

Le problème proposé porte sur la co-réduction d’une application semi-linéaire définie sur un C-espace
vectoriel E de dimension finie, à valeurs dans E. Pour cela, les notions de valeur co-propre, vecteur co-propre,
co-diagonalisabilité sont définies. Un lien est établi entre les valeurs co-propres de la matrice A et les valeurs
propres de A A ; il est ensuite demandé de montrer une condition nécessaire de co-diagonalisabilité, et pour
terminer quelques exemples sont proposés pour illustrer ces notions. La co-réduction est une notion assez
ancienne puisque Takagi a montré en 1925, qu’une matrice symétrique complexe est co-diagonalisable.

La résolution de ce problème nécessite une bonne connaissance du cours et des techniques de base
d’algèbre linéaire. Aucun candidat n’a traité le problème en entier, par contre toutes les questions ont été
abordées avec plus ou moins de succès. Les calculs erronés ont été nombreux, en conséquence les candidats qui
ont mené correctement à terme leurs calculs ont été récompensés. Les questions dont le résultat à démontrer est
fourni par l’énoncé ont presque toujours reçu une réponse , et certains candidats n’hésitent pas à écrire des
phrases incohérentes pour tenter de justifier ce qui leur est demandé.

Nous avons constaté la présence de copies d’une pauvreté affligeante mettant en évidence des lacunes en
algèbre linéaire. A l’inverse, les copies rédigées clairement et de manière rigoureuse ont reçu d’excellentes
notes.

Le choix du barème a permis d’étaler les notes de 0.5 sur 20 à 20 sur 20 , avec une moyenne proche de 8.

II) REMARQUES PARTICULIERES

Passons en revue les diverses questions du problème.

2.1- Première partie

La question 1-a a été bien traitée dans la majorité des copies. Signalons l’erreur suivante : des candidats
u ( x)
ont écrit que m est unique car m = !
x
La question 1-b a été discriminante ; les candidats méticuleux ont trouvé que m eiq est une valeur co –
- iq
2
propre associée au vecteur e x , ils ont été récompensés.

Le vecteur e-iq x a assez souvent été proposé comme vecteur co – propre associé à meiq, ce qui est
incorrect.

Toutes les réponses possibles ont été obtenues dans la question 1-c ; certains candidats ont affirmé que Em
est un espace vectoriel complexe car c’est une partie d’un C-espace vectoriel, d’autres pensent que Em est un
espace vectoriel complexe mais n’est pas un espace vectoriel réel. Les correcteurs se sont montrés indulgents
envers les candidats qui ont oublié le cas particulier m = 0, qui permet de conclure que Em est un espace vectoriel
complexe.

La question 1-d était très facile, et pourtant quelques candidats ont affirmé que u o v n’était pas
linéaire.
Dans la question 2-a, il était demandé de montrer la relation Y = A X ; des candidats ont paraphrasé
l’énoncé pour conclure péremptoirement que l’on obtient la relation demandée ! Par contre, les candidats qui ont
adapté correctement leur cours (fait dans le cas d’une application linéaire) à une application semi-linéaire ont
obtenu sans difficulté le résultat demandé ; cela leur a permis d’obtenir : B = S-1A S ; voici quelques réponses
obtenues par des candidats : B = SA , B = AS , B = SAS-1, B = S-1AS ; certains candidats ont même
invoqué un théorème classique du cours, sans autre précision, pour affirmer que B = S-1AS .

La question 3-a, sélective, a clairement mis en évidence les candidats soigneux et méticuleux qui ont
conclu à la non–existence de valeurs co – propres. Beaucoup de candidats n’ayant peut-être pas lu avec
suffisamment d’attention l’énoncé ont confondu valeurs propres et co-propres, ce qui a conduit à des résultats
faux.

La question 3-b, qui est une simple application du cours, a révélé des surprises ; des candidats n’ont pas
vu qu’il existe un vecteur propre réel X associé à l.

La question 4-a, facile, a été généralement bien traitée.

La première partie de la question 4-b a été abordée par de nombreux candidats, mais peu ont conclu
rigoureusement en appliquant la question 1-b. La deuxième partie de cette question a été très peu abordée, il est
vrai que cette question était plus difficile, et il n’est pas immédiat de penser à chercher un vecteur co-propre dans
l’espace vectoriel engendré par X et A X .

Quant à la question 4-c, qui est une synthèse des résultats précédents, elle a été traitée correctement par de
nombreux candidats, sous réserve d’admettre le résultat précédent .

La question 4-d a été très discriminante ; les calculs faux ont été nombreux. Cette question pouvait être
résolue de deux manières ; les deux possibilités ont été trouvées dans les copies :

a) soit en utilisant la question précédente et en recherchant pour quelles valeurs du réel m, la matrice
Am A m = A 2m a des valeurs propres positives ou nulles, ce qui conduit au polynôme caractéristique de cette
matrice :
P (l) = l2 - (m2 –2 ) l + 1

Que d’erreurs ont été constatées dans le calcul, élémentaire, du discriminant de ce trinôme ! Voici une
liste non exhaustive des conditions trouvées pour m : ÷ m ç ³ 2 , m > 2 , ç m ç ³ 1, ç m ç ³ 2 . Des
2
candidats, en nombre non négligeable , se sont trompés dans le calcul de A m.

æaö æaö
b) soit en résolvant : A m çç ÷÷ = m çç ÷÷ où m ³ 0 ; ici aussi, les erreurs de calcul furent nombreuses .
è bø èbø

Les questions 5-a et 5-b nécessitaient une bonne compréhension des questions précédentes (4 et 1-b) et
ont été traitées dans les bonnes copies.

La question 5-c a été résolue correctement par de nombreux candidats, elle ne présentait pas de difficulté ;
certains candidats ont remarqué que 1 est valeur co-propre de A, en utilisant conjointement 5-a et le fait que i est
valeur propre de A.

La dernière question de cette partie a été assez peu traitée ; une solution correcte a été trouvée dans
quelques bonnes copies.

2.2 - Deuxième partie

Beaucoup de candidats ont abordé cette partie.

La deuxième question a souvent été l’occasion de longs bavardages utilisant des récurrences qui
n’aboutissent pas. Par contre, des candidats ont montré que X1 ,..… , Xk sont des vecteurs propres de
2 2 2
A A associés aux valeurs propres m 1 , m 2 , .…. m k et ont utilisé le résultat afférent à des valeurs
propres distinctes , ce qui est tout à fait correct.
Le corollaire de cette question a connu plus de succès et a été plus souvent mieux traité.

La question 3-a est immédiate. A quelques exceptions près, les candidats qui ont traité cette question ont
trouvé A A = In.
La question 3-b a été très sélective. Quelques candidats ont résolu correctement cette question, en
écrivant : S ( q) = e i q ( A + e -2iq In ) et en faisant intervenir les valeurs propres de A.

Par contre, écrire qu’une somme de matrices inversibles est inversible est une argumentation non
recevable ; la fin de la question a été mieux traitée sous réserve d’admettre l’existence de q Î R tel que S ( q )
soit inversible.

La question 4, lorsqu’elle a été abordée, a généralement été bien faite, à l’exception de rg ( A )


= rg ( A A ).
La question 5 est une question de cours, il est dommage que des candidats n’aient pas précisé que la
matrice de passage permettant de diagonaliser A était réelle.

Signalons qu’un candidat a affirmé : « une matrice symétrique réelle n’est pas
nécessairement diagonalisable , il faudrait que son polynôme caractéristique soit scindé sur R ».

Dans cette dernière question , beaucoup de candidats ont eu des erreurs de vision en affirmant que A était
symétrique, voire diagonale ! Idem pour C.

Peu ont été capables de justifier correctement que A n’est pas diagonalisable ; certains n’ont pas hésité à
affirmer que A est diagonalisable car son polynôme caractéristique est scindé.

Le cas de B a été mieux traité en ce qui concerne sa diagonalisabilité, quant à D , le fait qu’elle soit
symétrique complexe ne permet pas d’emblée d’affirmer qu’elle est diagonalisable.

Voici une erreur non isolée, concernant A et que nous laissons aux candidats le soin de méditer : PA ( X)
= ( i – X )2 – 1 = ( i – X –1 ) ( i – X + 1 ), par conséquent le polynôme caractéristique de A est scindé à racines
simples, donc A est diagonalisable.

Enfin, peu de candidats ont étudié correctement la co-diagonalisabilité des matrices A, B, C, D.

III) CONSEILS AUX CANDIDATS

Les conseils à donner aux futurs candidats ont déjà été énoncés dans les rapports des deux dernières
années ; ils restent d’actualité. Nous allons les rappeler :

1) La pratique régulière du calcul est indispensable ; il est anormal de se tromper dans le calcul d’un
discriminant, d’un produit de matrices d’ordre 2, du déterminant d’une matrice d’ordre 2.

2) La connaissance du cours est fondamentale, les énoncés des théorèmes doivent être cités avec précision.
PSI* Problème de révision n°10
Année scolaire
2018/2019

On appelle classes de similitude de A ∈ M2 (K) l’ensemble des matrices semblables à A c’est-


à-dire l’ensemble SK (A) = {P AP −1; P ∈ GL2 (K)}.

I. Résultats préliminaires

1. Donner la classe de similitude d’une matrice scalaire, c’est-à-dire une matrice de la forme
xI2 avec x ∈ K.
   
1 λ 1 0
2. Pour tout λ ∈ K, on pose Eλ = et Fλ =
0 1 λ 1

(a) Justifier que, pour tout λ ∈ K, Eλ et Fλ sont inversibles et exprimer leur inverse.
 
a b
(b) Soit A = ∈ M2 (K); calculer les produits Eλ AEλ−1 et Fλ AFλ−1 ou λ ∈ K.
c d
(c) On suppose que la classe de similitude SK (A) de A ∈ M2 (K) est réduite a un
singleton. Montrer que A est une matrice scalaire.
 
a b 1/2
3. Pour A = ∈ M2 (R) , on pose ||A||S = |a|2 + |b|2 + |c|2 + |d|2 . Montrer que
c d
A 7→ ||A||S est une norme sur M2 (R).
On admettra que c’est toujours le cas lorsque K = C et dans la suite M2 (K) sera muni
de cette norme.
4. On suppose que la classe de similitude SK (A) de la matrice A ∈ M2 (K) est bornée.

(a) Justifier que les parties {Eλ AEλ−1 ; λ ∈ K} et {Fλ AFλ−1 ; λ ∈ K} de M2 (K) sont
bornées.
(b) En déduire que A est une matrice scalaire.

5. Que peut-on dire d’une matrice B ∈ M2 (K) dont la classe de similitude est fermée et
bornée ?
6. Montrer que les applications A 7→ Tr(A) et A 7→ det A sont continues sur M2 (K).

7. Montrer que si A et B sont deux matrices semblables de M2 (K), elles ont le même
déterminant, la même trace et le même polynôme caractéristique.

8. Soit G ∈ M2 (R) une matrice telle que SpR (G) 6= ∅. Justifier que les racines du polynôme
caractéristique χG sont toutes réelles.

9. Justifier que la partie { P AP −1 S ; P ∈ GL2 (R)} possède une borne inférieure.

II. Condition pour qu’une classe de similitude de M2 (K) soit fermée

1. Soit A ∈ M2 (K).
 
λ 0
(a) Si SpK (A) = {λ, µ}, justifier que A est semblable dans M2 (K) à la matrice .
0 µ
(b) Si SpK (A) = {λ}, montrer que A est diagonalisable dans M2 (K) si et seulement si
A = λI2 .

1
(c) Si SpK (A) = {λ} et A n’est pasune matrice
 scalaire, montrer que A est semblable
λ 1
dans M2 (K) a la matrice A = ∈ M2 (K)
0 λ
2. Soit A ∈ M2 (K).

(a) Si A est une matrice scalaire, justifier que la classe de similitude SK (A) de A dans
M2 (K) est fermée.
 −k    k 
2 0 λ 1 2 0
(b) Si SpK (A) = {λ} et A non diagonalisable, on pose Ak =
0 1 0 λ 0 1
Étudier la suite (Ak )n∈N et en déduire que la classe de similitude SK (A) n’est pas
fermée.

(c) Si SpK (A) = {λ, µ}, soit Pk APk−1 k∈N une suite d’éléments de SK (A) qui converge
vers une matrice B ∈ M2 (K). Soit α ∈ {λ, µ}.

i. Étudier la suite Pk (A − αI2 )Pk−1 k∈N et en déduire que det(B − αI2 ) = 0.
ii. Montrer alors que B ∈ SK (A) et conclure que SK (A) est fermée.

3. Montrer que si A ∈ M2 (C) alors SC (A) est fermée si et seulement si A est diagonalisable
dans M2 (C).

4. Soit A ∈ M2 (R) une matrice telle que SpR (A) = ∅.

(a) Justifier que 4 det A − (tr(A))2 > 0. Dans la suite, on pose


   
′ 2 Tr(A) ′′ 1 Tr(A) −δ p
A = A− I2 et A = avec δ = 4 det A − (tr(A))2 .
δ 2 2 δ Tr(A)

(b) Montrer que A′2 = −I2 .


(c) On note f l’endomorphisme de R2 canoniquement associé a A′ et on considère un
vecteur non nul e de R2 . Montrer que la famille (e, f (e)) est une base de R2 et écrire
la matrice A1 de f dans cette base.
(d) Exprimer A′ en fonction de A1 et en déduire que les matrices A et A′′ sont semblables
dans M2 (R).

(e) Soit Pk APk−1 k∈N une suite d’éléments de SR (A) qui converge vers une matrice A e
élément de M2 (R).
i. Montrer que Tr(A) e = Tr(A) et det A = det A.e
e sont semblables dans M2 (R).
ii. Justifier alors que les matrices A et A

5. Montrer que si A ∈ M2 (R) alors SR (A) est fermée dans M2 (R) si et seulement si A est
diagonalisable dans M2 (R) ou bien SpR (A) = ∅.

2
PSI* Problème de révision n10
Correction
Année scolaire
2018/2019

Partie I

1. ∀ P ∈ GL2 (K), P −1 (xI2 )P = xI2 d’où SK (xI2 ) = {xI2 }.


1 t
2. (a) det(Eλ ) = det(Fλ ) = 1 6= 0 les matrices sont donc inversibles. De la relation A−1 = comat A il vient
det A
:    
1 −λ 1 0
Eλ−1 = et Fλ−1 =
0 1 −λ 1
   
−1 a + λc −cλ2 + (d − a)λ + b −1 a − λb b
(b) Eλ AEλ = et Fλ AFλ =
c d − λc −bλ2 + (a − d)λ + c bλ + d
(c) Les matrices Eλ AEλ−1 et Fλ AFλ−1 sont dans SK (A). Donc d’après les calculs précédents, si SK (A) est
réduit à un éléments, alors les polynômes a + cX, −cX 2 + (d − a)X + b, d − cX et a − bX sont constants.
Ainsi, b = c = 0 et a = b.
Par suite A = aI2 .
3. C’est une question de cours : il suffit de montrer que l’application ϕ défini par
   ′ 
a b a b′ 1 2 2

ϕ , ′ ′ = ||A + A′ ||S − ||A||2S − ||A′ ||S = aa′ + bb′ + cc′ + dd′
c d c d 2

est un produit scalaire (laissé au lecteur). || ||S sera donc une norme euclidienne donc une norme.
4. (a) Ils sont bornés comme sous parties de SK (A) qui est borné.
(b) Les polynômes de la question 2c sont bornées. Or seuls les polynômes constants le sont (sinon on a une
limite infinies en +∞). D’où b = c = 0 et a = b et par suite A = aI2 .
5. D’après la question précédente, B est donc scalaire.

6. La trace est linéaire en dimension finie donc est continue.


 
a b
det = ad − bc. det est polynômiale donc continue (produit et somme es application coordonnées qui
c d
sont continues car linéaires en dimension finie).
7. Tout est dans le cours.
8. SpR (A) 6= ∅ donc χA admet au moins une racine réelle. Par suite χA s’ecrit χA = (λ − X)(µ − X) où µ ∈ R.
Ainsi SpR (A) = {λ, µ} ⊂ R.
9. Elle est non vide (puisque GL2 (R) l’est) et est minorée par 0.

Partie II

1. (a) χA = (λ − X)(µ − X) est scindé à racines simples donc A est diagonalisable.


 
λ 0
Par suite A est semblable à .
0 µ
(b) D’après le cours, A est diagonalisable si, et seulement si elle annule le polynôme scindé à racines simples
dont les racines sont constituées du spectre de A. Ainsi, A est diagonalisable si, et seulement si X − λ
annule A (puisque Sp A = {λ}) c’est-à-dire si, et seulement si A = λI2 .

(c) D’après les question précédentes, A n’est donc pas diagonalisable.  Or  d’après la première question, on a
χA = (λ − X)2 . χA étant scindé, A est trigonalisable. Ainsi A ∼ λ b
= T où b 6= 0.
0 λ
En considérant l’endomorphisme canoniquement associé à A, il existe donc une base (e1 , e2 ) telle que
f (e1 ) = λe1 et f (e2 ) = be1 + λe2 .
En considérant la base β = (e1 , e′2 ) = (e1 , 1b e2 ), on a alors f (e1 ) = λe1 et f (e′2 ) = e1 + λe′2 .
 
λ 1
D’où matβ f = et A est donc semblable à cette matrice.
0 λ
2. (a) D’après I.1, Sk (xI2 ) = {xI2 } qui est fermé dans M2 (K) (toute suite convergente de {xI2 } est constante et
donc converge vers xI2 ).
 
λ 1
(b) D’après la question 1c, A est semblable à T = . Donc T ∈ Sk (A).
0 λ
 −k −1  k 
2 0 2 0
De plus comme = , on en déduit que ∀ k ∈ N, Ak ∈ Sk (A).
0 1 0 1
   
λ 2−k λ 0
Or ∀ k ∈ N, Ak = −−−−−→ = λI2 .
0 λ k→+∞ 0 λ
Mais A est non diagonalisable par hypothèse, donc A n’est pas semblable à la matrice diagonale λI2 ,
c’est-à-dire λI2 6∈ SK (A).
(Ak )k∈N est donc une suite convergente d’éléments de SK (A) dont la limite n’est pas élément de SK (A).
SK (A) n’est donc pas fermé.
(c) i. ∀ k ∈ N, Pk (A − αI2 )Pk−1 = Pk APk−1 − αI2 −−−−−→ B − αI2 .
k→+∞ 
Or le déterminant est continue, donc lim det Pk (A − αI2 )Pk = det(B − αI2 ).
 k→+∞
De plus det Pk (A−αI2 )Pk = det A−αI2 = 0 car α ∈ Sp(A). Par unicité de la limite det(B −αI2 ) =
0.
ii. la question précédente montre que {λ, µ} ⊂ SpK (B) puisque det(B − λI2 ) = det(B − µI2 ) = 0.
Mais comme deg χA = 2 et que λ 6= µ, on a SpK (B) =SpK (A)  = {λ, µ}.
λ 0
D’après 1a, A et B sont donc semblable à la matrice . Ainsi B ∈ SK (A).
0 µ
On a donc montrer que toute suite d’élément de SK (A) converge dans SK (A). Ainsi SK (A) est fermé.
3. χA est scindé dans M2 (C), il a donc deux valeurs propres λ, µ distinctes ou confondues.

• Si λ 6= µ, la question 2c montre que Sk (A) est fermé et la question 1a montre que A est diagonalisable.
• Si λ = µ et que A n’est pas diagonalisable, la question 2b montre que Sk (A) n’est pas fermé.
• Enfin, si λ = µ et que A est diagonalisable, les questions 1b et 2a montrent que A est scalaire et que Sk (A)
est fermé.

Au final on obtient par disjonction des cas que SC (A) est fermé si, et seulement si A est diagonalisable.
4. (a) χA = X 2 − Tr(A)X + det(A). Mais Sp A 6= ∅ si, et seulement si χA n’ a aucune racines réelles c’est-à-dire
si, et seulement si ∆ = Tr(A)2 − 4 det(A) < 0.
 
4 Tr2 (A)
(b) A′2 = 2 A2 − Tr(A)A + I2 .
δ 4
2
Mais d’après le théorème de Cayley-Hamilton χA (A) = 0 = A2 − Tr(A)A + det(A)I2 .
 
′2 4 Tr2 (A) 4 (−δ 2 )
Ainsi A = 2 det(A) + I2 = A′2 = 2 I2 = −I2
δ 4 δ 4
(c) Remarquons que A′ annule le polynôme X 2 + 1. Ainsi SpC (A) ⊂ {−i, i} d’où SpR (A) = ∅.

Si e, f (e) était lié, alors on aurait l’existence d’un réel λ tel que f (e) = λe puisque e 6= 0. Ainsi, on aurait
λ ∈ SpR (A) d’où SpR (A) 6= ∅, ce qui est absurde.

Ainsi β = e, f (e) est libre dans R2 et donc, pour des raisons de cardinal, est une base de R2 .
 
 0 −1
2
On a f f (e) = f (e) = − id(e) = −e d’où mat  f= .
e,f (e) 1 0
β
(d) On a A1 = P −1 A′ P où P = Pcan . Ainsi
 
Tr(A) δ Tr(A) δ Tr(A) δ
A′′ = I2 + A1 = I2 + P −1 A′ P = P −1 I2 + A′ P = P −1 AP
2 2 2 2 2 2

Donc A et A′′ sont semblables dans M2 (R).


(e) i. La trace et le déterminant sont continues donc

e
lim Tr(Pk APk ) = Tr(A) et e
lim det(Pk APk ) = det(A)
k→+∞ k→+∞

Or ∀ k ∈ N, Tr(Pk APk ) = Tr(A) et det(Pk APk ) = det(A) puisque deux matrices semblables ont même
trace et même déterminant. On termine par unicité de la limite.

ii. La question précédente donne χA =χA (car χM = X 2 − Tr(M )X + det(M )). Ainsi SpR (A) e = ∅.
e e e′′ . Donc
Donc, d’après 4d, A est semblables à A . Mais toujours d’après la question précédente, A′′ = A
′′
e
A et A sont semblables à la même matrice donc sont semblables.
5. La question I.8 nous dit que soit A possède deux valeurs propres réelles (distinctes ou confondues), soit ne
possède pas de valeurs propres réelles.

• Si A possède deux valeurs propres distinctes ou confondues, le raisonnement fait en 3 montre que SR (A)
est fermée si, et seulement si A est diagonalisable.
• Si SpR (A) = ∅, la question 4e nous montre que toute suite d’éléments de SR (A) converge vers une matrice
e ∈ SR (A).
A
Ainsi SR (A) est fermé

D’où le résultat par disjonction des cas.


PSI* Sujet d’entrainement n◦3
un corrigé
Année scolaire
2018/2019

X-ENS PC 2017
Question 1.a. Soit M ∈ Mn (C). Soit C > 0.

||Mx||1
On fait l’hypothèse ||M|| 6 C, c’est-à-dire sup 6 C.
x∈Cn \{0} ||x||1

||Mx||1
Pour tout x non nul de Cn , on a donc la majoration 6 C. On multiplie par ||x||1 , qui est positif,
||x||1
ce qui donne ||Mx||1 6 C||x||1 .

Cette inégalité est également valable si x est nul.

Réciproquement, on fait l’hypothèse ∀x ∈ Cn : ||Mx||1 6 C||x||1.

||Mx||1
Pour tout vecteur x non nul de Cn , on en déduit l’inégalité 6 C car ||x||1 > 0, donc ||M|| 6 C.
||x||1

On a prouvé l’équivalence ||M|| 6 C ⇐⇒ ∀x ∈ Cn : ||Mx||1 6 C||x||1 .

Au final, remarquons qu’on a prouvé en particulier l’inégalité ||Mx||1 6 ||M|| × ||x||1 et qu’on possède
une méthode pour majorer ||M|| dans le cas général. Ces deux points serviront fréquemment dans ce qui
suit.

Question 1.b. 1 Déjà, la fonction M 7→ ||M|| est à valeurs réelles positives.

2 Soit M ∈ Mn (C) tel que ||M|| = 0. À la question précédente, on n’a pas utilisé le caractère strict de
l’inégalité C > 0. On peut donc écrire
∀x ∈ Cn : ||Mx||1 6 0.
Par positivité de la norme, on obtient donc ∀x ∈ Cn : ||Mx||1 = 0, c’est-à-dire ∀x ∈ Cn : Mx = 0. Les
colonnes de la matrice M sont les produits Mei , où (e1 , . . . , en ) désigne la base canonique de Cn . Ainsi, les
colonnes de M sont nulles donc M est la matrice nulle.

3 Soit M ∈ Mn (C). Soit λ ∈ R.

Soit x ∈ Cn . Exploitons l’homogénéité de la norme || ||1 .

||λMx||1 = |λ| × ||Mx||1 6 |λ| × ||M|| × ||x||1 .

On en déduit la majoration ||λM|| 6 |λ| × ||M|| d’après 1.a.

Si λ = 0, on obtient ||λM|| 6 0 donc ||λM|| = 0 = |λ| × ||M||.

Si λ 6= 0, on effectue la substitution (M, λ) ← (λM, 1/λ) dans l’inégalité ||λM|| 6 |λ| × ||M||, pour obtenir
||M|| 6 ||λM||/|λ|, c’est-à-dire ||λM|| > |λ| × ||M||.
On obtient donc ||λM|| = |λ| × ||M|| dans tous les cas.

Remarque. Ce raisonnement est encore valable si on prend λ dans C. Ce n’est pas requis par la définition
d’une norme mais cette extension est utile plus loin (à la question 8).

4 Soient M et N dans Mn (C). L’inégalité triangulaire pour la norme || ||1 donne

∀x ∈ Cn , ||(M + N)x||1 6 ||Mx||1 + ||Nx||1 6 ||M|| × ||x||1 + ||N|| × ||x||1 .


2

On en déduit l’inégalité ||M + N|| 6 ||M|| + ||N|| par application de 1.a.

On a montré que || || est une norme sur Mn (C).

Question 2. Soient A et B dans Mn (C). En appliquant 1.a dans le sens ⇒, on obtient

∀x ∈ Cn , ||(AB)x||1 6 ||A|| × ||Bx||1 6 ||A|| × ||B|| × ||x||1 .

En appliquant 1.a dans le sens ⇐, on en déduit l’inégalité ||A × B|| 6 ||A|| × ||B||.

n
!
X
Question 3. Posons S(A) = max |ai,j | et notons j0 un indice qui réalise ce maximum.
16j6n
i=1
En notant de nouveau (e1 , . . . , en ) la base canonique de Cn , on observe l’égalité
 
a1,j0
Aej0 =  ...  puis S(A) = ||Aej0 ||1 .
 

an,j0

||Aej0 ||1
L’égalité ||ej0 ||1 = 1 donne alors S(A) = 6 ||A||.
||ej0 ||1

Pour l’inégalité réciproque, prenons x quelconque dans Cn .


n
X n
X
Ax = A × xj e j = xj × Aej .
j=1 j=1

L’inégalité triangulaire de la norme || ||1 donne alors


n
X
||Ax||1 6 |xj | × ||Aej ||1 .
k=1

Pour tout j ∈ [[1, n]], on observe les relations


n
X
||Aej ||1 = |ai,j | 6 S(A)
i=1

donc
n
X
||Ax||1 6 |xj | × S(A) = S(A) × ||x||1 .
k=1

D’après 1.a, on en déduit la majoration ||A|| 6 S(A).

n
!
X
Par double inégalité, on a prouvé l’égalité ||A|| = max |ai,j | .
16j6n
i=1

Question 4. C’est énervant : on nous demande de prouver une propriété du cours.

1 On commence par supposer que la suite (A(k) )k∈N converge vers la matrice B. Pour tout k ∈ N, on
remarque l’encadrement
n Xn
X (k)
0 6 ||A(k) − B|| 6 a − bi,j .

i,j
j=1 i=1

Chaque terme du membre de droite tend vers 0 quand k tend vers +∞ donc, par le théorème des
gendarmes, on voit que ||A(k) − B|| tend vers 0 quand k tend vers +∞.
3

2 Réciproquement, on suppose que ||A(k) − B|| tend vers 0 quand k tend vers +∞.
Soit (i, j) ∈ [[1, n]]2 . Pour tout k ∈ N, on observe l’encadrement
X n
(k) (k)
0 6 ai,j − bi,j 6 as,j − bs,j 6 ||A(k) − B||.

s=1

(k)
On en déduit que ai,j tend vers bi,j quand k tend vers +∞.
Ainsi, la suite (A(k) )k∈N converge vers la matrice B.

Question 5.a. Le calcul donne


 
a1,1 ba1,2 b2 a1,3 · · · bn−1 a1,n
 .. .. 
 0
 a2,2 ba2,3 . . 

−1  .. . .. . .. . ..
Pb APb =  . 2 .

b an−2,n 
 ..
 
.. .. 
 . . . ban−1,n 
0 ··· ··· 0 an,n

On en déduit que P−1


b APb tend vers la matrice diag(a1,1 , . . . , an,n ) quand b tend vers 0.

Question 5.b. La norme || || est une fonction continue de Mn (C) dans R (car elle est 1-lipschitzienne).
On en déduit que ||P−1 b APb || tend vers ||diag(a1,1 , . . . , an,n )|| quand b tend vers 0. Cette limite, notée `, est
égale à max(|aj,j |; 1 6 j 6 n).
Cette limite est strictement inférieure à 1 par hypothèse. Notons r = (1 + `)/2, ce qui est dans ]`, 1[.
D’après la définition de la limite, il existe b0 > 0 tel que pour tout b dans ]0, b0 ], le nombre ||P−1 b APb ||
soit majoré par r. On obtient donc en particulier l’inégalité ||P−1 b0 APb0 || < 1.

Question 5.c. Gardons la notation b de la question précédente. Une itération de l’inégalité de la question 2
donne
∀k ∈ N∗ , 0 6 ||(P−1 k −1
b APb ) || 6 ||Pb APb || .
k

L’inégalité ||P−1 −1 k
b APb || < 1 donne que ||Pb APb || tend vers 0 quand k tend vers +∞.

Rappelons l’identité (P−1 k −1 k


b APb ) = Pb A Pb . L’inégalité de la question 2 donne maintenant

0 6 ||Ak || 6 ||Pb || × ||(P−1 k −1


b APb ) || × ||Pb ||,

si bien que ||Ak || tend également vers 0.

La suite de matrices (Ak )k∈N∗ converge vers la matrice nulle.


 
0 0
Question 6. Pour la matrice A1 = , on trouve Sp(A1 ) = {0; 1} donc ρ(A1 ) = 1.
0 1
 
0 0
Pour la matrice A2 = , on trouve Sp(A2 ) = {0} donc ρ(A2 ) = 0.
1 0
 
1 0
Pour la matrice A3 = , on trouve Sp(A3 ) = {0; 1} donc ρ(A3 ) = 1.
0 0

√ √ √
 
0 −1
Pour la matrice A4 = , on trouve Sp(A4 ) = {i 2; −i 2} donc ρ(A4 ) = 2.
2 0
 
3 2
Pour la matrice A5 = , on trouve Sp(A5 ) = {1; 4} donc ρ(A5 ) = 4.
1 2
4

Question 7. La propriété (i) est vraie en raison de l’égalité

Sp(µA) = {µx ; x ∈ Sp(A)}.

Pour prouver cette égalité, on remarque pour commencer l’égalité Sp(0 × A) = {0} puis, si µ 6= 0, on
remarque l’égalité

Ker(µA − µxIn ) = Ker(A − xIn ), qui donne µx ∈ Sp(µA) ⇐⇒ x ∈ Sp(A).


 
t 0 1
La propriété (ii) est fausse. On peut prendre A = A2 et B = A2 , ce qui donne A + B = .
1 0
Dans ce cas, on a donc ρ(A + B) = 1 et ρ(A) + ρ(B) = 0 donc ρ(A + B) > ρ(A) + ρ(B).

La propriété (iii) est fausse. On peut prendre A = A2 et B = tA2 , ce qui donne AB = A1 .


Dans ce cas, on a donc ρ(AB) = 1 et ρ(A)ρ(B) = 0 donc ρ(AB) > ρ(A)ρ(B).

Les propriétés (iv) et (v) sont vraies car les matrices P−1 AP et tA ont le même spectre que A.

Question 8. Soit A ∈ Mn (C). Soit λ une valeur propre de A telle que |λ| = ρ(A). Soit x un vecteur propre
de A associé à la valeur propre λ.
Les relations Ax = λx et x 6= 0 donnent

||Ax||1
|λ| =
||x||1

donc ρ(A) 6 ||A||.

Question 9. On fait l’hypothèse ρ(A) < 1. La matrice A est trigonalisable dans Mn (C) (car son polynôme
caractéristique est scindé sur C) donc il existe une matrice P de GLn (C) telle que la matrice T = P−1 AP
soit triangulaire supérieure. Les coefficients diagonaux de T sont les valeurs propres de A donc leurs modules
sont strictement inférieurs à 1.
La matrice T vérifie donc les hypothèses de la question 5, si bien que la suite de matrices (Tk )k∈N∗
converge vers la matrice nulle.
Par le même raisonnement qu’en 5.c, on en déduit que la suite (Ak )k∈N∗ converge vers la matrice nulle.

Question 10.a. On reprend le raisonnement de la question 8 : soit λ ∈ Sp(A) telle que |λ| = ρ(A). Soit x
un vecteur propre de A associé à la valeur propre λ.
Soit k ∈ N∗ . On trouve
Ak x = Ak−1 λx = Ak−2 λ2 x = . . . = λk x
puis, le vecteur x étant non nul, on obtient |λk | = ||Ak x||1 /||x||1 donc ρ(A)k 6 ||Ak ||.

Question 10.b. 1 Soit α ∈ ]0, ρ(A)]. Pour tout k ∈ N∗ , on observe alors l’inégalité
 
A k ||A||k 
ρ(A) k

= > >1

α αk α

d’après 10.a.
On en déduit que ||(A/α)k || ne tend vers pas 0 quand k tend vers +∞ donc α n’est pas dans EA .

2 Soit α ∈ ]ρ(A), +∞[. L’identité 7.i donne ρ(A/α) = ρ(A)/α < 1 donc la suite ((A/α)k )k∈N∗ converge
vers la matrice nulle d’après le résultat de la question 9, si bien que α est dans EA .

On a prouvé l’égalité EA = ]ρ(A), +∞[.


5

Question 11. Pour tout k ∈ N∗ , on connaı̂t l’inégalité ρ(A) 6 ||Ak ||1/k , qui découle de 10.a.
 k
A
Soit ε > 0. D’après 10.b, la suite de matrices de terme général tend vers la matrice nulle.
ρ(A) + ε
Il existe donc un entier kε > 1 tel que

Ak


∀k > kε , (ρ(A) + ε)k 6 1,

ce qui donne ensuite ||Ak ||1/k 6 ρ(A) + ε.

Récapitulons :
∀ε > 0, ∃kε ∈ N∗ , ∀k > kε , ρ(A) 6 ||Ak ||1/k 6 ρ(A) + ε.

On a prouvé que la suite (||Ak ||1/k )k∈N∗ converge vers ρ(A).

Question 12. Introduisons les coefficients des matrices en présence


(k) (k)
Ak = (ai,j )16i,j6n et Ak+ = (bi,j )16i,j6n .

Pour tout k dans N∗ , notons Ik l’énoncé



(k) (k)
∀(i, j) ∈ [[1, n]]2 , ai,j 6 bi,j .

L’énoncé I1 est vrai par définition des bi,j .

Soit k ∈ N∗ . On suppose que l’énoncé Ik est vrai. Soit (i, j) un couple d’indices entre 1 et n. La formule
du produit matriciel donne
n
(k+1) (k)
X
ai,j = ai,` a`,j .
`=1

On applique l’inégalité triangulaire puis on utilise l’hypothèse Ik .


n n
(k+1) X (k) X (k) (k+1)
ai,j 6 |ai,` | a`,j 6 bi,` b`,j = bi,j .
|{z} | {z }
ell=1 `=1
=bi,` (k)
6b`,j

L’énoncé Ik+1 est prouvé.

Par récurrence, l’énoncé Ik est vrai pour tout k ∈ N∗ .


n
(k)
Prenons maintenant k quelconque dans N∗ et considérons un indice j tel que ||Ak || =
P
ai,j . L’énoncé Ik
i=1
donne
n
(k)
X
||Ak || 6 bi,j 6 ||Ak+ || puis ||Ak ||1/k 6 ||Ak+ ||1/k .
i=1

En faisant tendre k vers +∞, on obtient l’inégalité ρ(A) 6 ρ(A+ ).

Question 13. Encore un raisonnement par récurrence. Pour tout entier k > 2, notons Jk l’énoncé  Pour
tout (z1 , . . . , zn ) de Cn qui vérifie l’égalité |z1 +· · ·+zn | = |z1 |+· · ·+|zn |, le vecteur (z1 , . . . , zn ) est colinéaire
à (|z1 |, . . . , |zn |). 

Soit (z1 , z2 ) ∈ C2 tel que |z1 + z2 | = |z1 | + |z2 |. Notons r1 = |z1 | et r2 = |z2 | et introduisons θ1 et θ2
dans R tels que
z1 = r1 eiθ1 et z2 = r2 eiθ2 .
6

Le calcul donne |z1 + z2 |2 = r12 + r22 + 2r1 r2 cos(θ1 − θ2 ) et (|z1 | + |z2 |)2 = r12 + r22 + 2r1 r2 . On en déduit
que le produit r1 r2 (1 − cos(θ1 − θ2 )) = 0 est nul.

Si r1 = 0, on a alors (z1 , z2 ) = eiθ2 (|z1 |, |z2 |).

Si r2 = 0, on a alors (z1 , z2 ) = eiθ1 (|z1 |, |z2 |).

Si cos(θ1 − θ2 ) = 0, alors θ1 et θ2 sont congrus modulo 2π donc eiθ1 = eiθ2 donc (z1 , z2 ) = eiθ1 (|z1 |, |z2 |).

L’énoncé J2 est prouvé.

Soit k > 2 pour lequel Jk est vrai. Prenons (z1 , . . . , zn+1 ) tel que |z1 + · · · + zk+1 | = |z1 | + · · · + |zk+1 |.

Supposons dans un premier temps que zk+1 est nul, ce qui donne |z1 + · · · + zk | = |z1 | + · · · + |zk |.
L’hypothèse Jk donne alors l’existence de λ ∈ C tel que (z1 , . . . , zk ) = λ(|z1 |, . . . , |zk |). La nullité de zk+1
donne alors (z1 , . . . , zk+1 ) = λ(|z1 |, . . . , |zk+1 |).

Ce raisonnement se généralise au cas où au moins un des zi est nul.

Supposons maintenant que tous les zi sont non nuls.


L’inégalité triangulaire donne

|z1 + · · · + zk + zk+1 | 6 |z1 + · · · + zk | + |zk+1 | 6 |z1 | + · · · + |zk | + |zk+1 |.

Ces trois nombres sont donc égaux, ce qui donne en particulier

|z1 + · · · + zk | + |zk+1 | = |z1 | + · · · + |zk | + |zk+1 | donc |z1 + · · · + zk | = |z1 | + · · · + |zk |.

L’hypothèse Jk permet d’en déduire qu’il existe λ ∈ C tel que (z1 , . . . , zk ) = λ(|z1 |, . . . , |zk |).

On peut aussi organiser l’inégalité triangulaire sous la forme

|z1 + z2 + · · · + zk+1 | 6 |z1 | + |z2 + · · · + zk+1 | 6 |z1 | + |z2 | + · · · + |zk+1 |

et en déduire l’égalité |z2 + . . . + zk+1 | = |z2 | + · · · + |zk+1 |. L’hypothèse Jk permet d’en déduire qu’il existe
un µ ∈ C tel que (z2 , . . . , zk+1 ) = µ(|z2 |, . . . , |zk+1 |).

Le fait que z2 soit non nul donne λ = z2 /|z2 | = µ donc finalement (z1 , . . . , zk+1 ) = λ(|z1 |, . . . , |zk+1 |).

L’énoncé Jk+1 est prouvé. Par récurrence, l’énoncé Jk est vrai pour tout entier k > 2.

Question 14. Le produit tyAx s’écrit de deux manières


t
yAx = tyλx = λ tyx et t
yAx = t( tAy)x = t(µy)x = µ tyx.

On en tire l’égalité (λ − µ) tyx = 0 puis tyx = 0 car λ 6= µ. On remarque enfin l’égalité tyx = txy, qui
donne finalement txy = 0.

Question 15.a. La récurrence est déjà initialisée par l’hypothèse Aw > µw.

Remarquons pour plus tard que le produit de deux matrices positives est une matrice positive. Idem
avec une somme.

Soit k ∈ N∗ tel que Ak w > µk w. La colonne Ak w − µk w est positive et la matrice A est positive donc la
colonne Ak+1 w − µk Aw est positive. De même, la colonne µk (Aw − µw) est positive.
Par somme, la colonne Ak+1 w − µk+1 w est positive, ce qui donne Ak+1 > µk+1 w.

Par récurrence, l’inégalité Ak w > µk w est valable pour tout k ∈ N∗ .


7

Les vecteurs en présence sont à coefficients positifs. On en déduit l’inégalité ||Ak w||1 > µk ||w||1 puis

||Ak w||1
> µk puis ||Ak || > µk et ||Ak ||1/k > µ,
||w||1

ce qui donne ρ(A) > µ en faisant tendre k vers +∞ (question 11).

Question 15.b. L’hypothèse Aw > µw s’écrit

(Aw)1 > µw1 ... (Aw)n > µwn .

Notons λ le plus petit des nombres (Aw)i /wi où i décrit l’ensemble (non vide) des indices tels que wi > 0.
On a alors Aw > λw et λ > µ.
Le résultat de la question précédente donne ρ(A) > λ donc ρ(A) > µ.

Question 15.c. Soit un indice ` distinct de k. Le calcul donne


n
X
(Aw0 )` − µw`0 = a`,j wj − µw` + a`,k ε > 0.
|{z}
j=1
| {z } >0
>0

Il reste un coefficient de Aw0 − µw0 à étudier


n
X
0
(Aw )k − µwk0 = ak,j wj − µwk −(µ − ak,k )ε.
j=1
| {z }
noté xk

Le nombre xk vaut (Aw)k − wk . Il est donc strictement positif, ce qui permet de choisir ε > 0 de sorte
que xk − (µ − ak,k )ε > 0, comme précisé ci-dessous.
Si µ − ak,k 6 0, il suffit de prendre ε = 1.
Si µ − ak,k > 0, il suffit de prendre ε = xk /(2(µ − ak,k )).

Pour un tel choix de ε, on a alors Aw0 > µw0 et w0 est un vecteur positif non nul donc ρ(A) > µ
d’après 15.b.

Question 16.a. Soit i ∈ [[1, n]]. L’égalité (Ax)i = λxi s’écrit


n
X
ai,j xj = λxi .
j=1

On applique l’inégalité triangulaire


n
X n
X
|ai,j xj | > |λ| × |xi | c’est-à-dire ai,j (v0 )j > ρ(A)(v0 )i .
j=1 j=1

C’est vrai pour tout indice i donc Av0 > ρ(A)v0 .

Si on suppose que cette inégalité n’est pas une égalité alors on est dans le cadre des hypothèses de la
question 15.c avec µ = ρ(A) et w = v0 donc ρ(A) > ρ(A), ce qui est absurde.

Cette absurdité prouve l’égalité Av0 = ρ(A)v0 .

Question 16.b. Soit k un indice tel que xk 6= 0. On obtient alors les relations
n
(Av0 )k 1 X
ρ(A) = = ak,j |xj | > ak,k > 0.
(v0 )k |xk |
j=1
8

Soit i ∈ [[1, n]]. On a alors


n
(Av0 )i 1 X 1
(v0 )i = = ai,j |xj | > ai,k |xk | > 0.
ρ(A) ρ(A) ρ(A)
j=1

Toutes les coordonnées de v0 sont strictement positives.

Question 16.c. L’inégalité triangulaire écrite à la question 16.a est finalement une égalité. En particulier,
on a
n n
X X


a x
1,j j
= |ai,j xj | .
j=1 j=1
Le cas d’égalité de la question 13 donne donc l’existence de µ ∈ C tel que

(a1,1 x1 , . . . , a1,n xn ) = µ(a1,1 |x1 |, . . . , a1,n |xn |).

Les a1,j étant tous non nuls, il vient

(x1 , . . . , xn ) = µ(|x1 |, . . . , |xn |).

Ainsi, le vecteur x est colinéaire à v0 . Ces vecteurs sont donc associés à la même valeur propre. Cela
prouve l’égalité λ = ρ(A).

Question 17.a. Soit x ∈ F. Le calcul donne


t
(Ax)w0 = tx tAw0 = ρ(A) txw0 = 0

donc Ax appartient à F. Le sous-espace F est donc stable par ϕA .


n
Un autre calcul donne tv0 w0 =
P
(v0 )i (w0 )i > 0 donc v0 n’est pas dans F. La droite Cv0 et F sont donc
i=1
en somme directe.

Le sous-espace F est le noyau de ϕ : x 7→ txw0 , application linéaire de Cn dans C. Ce n’est pas l’appli-
cation nulle donc son rang vaut au moins 1 ; son image est incluse dans C et de dimension au moins 1 donc
son image est C. La formule du rang donne donc dim(F) = n − 1.

On en déduit l’égalité dim(F) + dim(Cv0 ) = dim(Cn ). La somme de F et Cv0 étant directe, on en déduit
que ces deux sous-espaces sont supplémentaires dans Cn .

Question 17.b. Soit µ une valeur propre de A telle que µ 6= ρ(A). Soit v un vecteur propre associé.
Le résultat de la question 14 donne tvw0 = 0 donc v ∈ F.

Supposons que v ait tous ses coefficients réels et positifs (l’un d’entre eux au moins est alors strictement
positifs). On obtient alors tvw0 > 0, ce qui est contradictoire.
Un tel vecteur propre ne peut donc être associé qu’à la valeur propre ρ(A) : l’énoncé (iii) est démontré.

Question 18.a. Soit (v2 , . . . , vn ) une base de F. La famille V = (v0 , v2 , . . . , vn ) est alors une base de Cn car
Cv0 et F sont supplémentaires. La matrice de ϕA relativement à cette base s’écrit
 
ρ(A) 0
,
0 B

où B est la matrice de ψ relativement à la base (v2 , . . . , vn ) de F, d’où la factorisation χA = (X − ρ(A))χψ .

Aucun élément de F n’est à coordonnées strictement positives donc ρ(A) n’est pas une valeur propre
de ψ. Or les autres valeurs propres de A ont un module strictement inférieur à ρ(A) donc les racines de χψ
ont un module strictement inférieur à ρ(A).
9

On en déduit que ρ(A) est une racine de multiplicité 1 de χA .

On connaı̂t l’encadrement 1 6 dim(Ker(A − ρ(A)In )) 6 mult(ρ(A), A) = 1. On en déduit que l’espace


propre de A relatif à la valeur propre ρ(A) est de dimension 1 : c’est la droite dirigée par v0 .

Question 18.b. Le raisonnement de la question précédente donne ρ(ψ) < ρ(A) donc ρ(ψ/ρ(A)) < 1 en
exploitant 7.i.
Le résultat de la question 9 permet d’en déduire que la suite de terme général (ψ/ρ(A))k converge vers
l’endomorphisme nul de F.

Soit x ∈ F. L’application linéaire f 7→ f (x), définie de L(F) vers F, est continue donc la suite de vecteurs
de terme général ψ/ρ(A))k (x) converge vers le vecteur nul de F.

En d’autres termes, la suite de vecteurs (Ak x/ρ(A)k )k>1 converge vers le vecteur nul.

Question 18.c. Le vecteur x admet une décomposition (unique) sous la forme

x = x1 + x2 , x1 ∈ F, x2 ∈ Cv0 .

Notons α le nombre complexe tel que x2 = λv0 . On obtient alors


txw
t 0
xw0 = tx1 w0 +λ tv0 w0 donc λ= tv
.
| {z } | {z } 0 w0
=0 >0

Soit k ∈ N∗ . Le calcul donne


Ak x Ak x1 txw
0
= + tv w 0
v .
ρ(A)k ρ(A)k 0 0
txw
0
Quand k tend vers +∞, on obtient pour limite le vecteur tv w 0
v , qui est le projeté de x sur Cv0
0 0
parallèlement à F.
txw
0
Le fait que x soit positif et non nul donne tv
> 0, ce qui achève de démontrer (iv).
0 w0
PSI Séries numériques

Plan 2 Séries de nombres réels positifs 5


2.1 Caractérisation de la Convergence d’une
1 Généralités 1 série à termes positifs . . . . . . . . . . . . 5
1.1 Définition . . . . . . . . . . . . . . . . . . . 1 2.2 Théorèmes de comparaison des séries à
1.2 Exemples de référence. . . . . . . . . . . . 2 termes positives . . . . . . . . . . . . . . . 6

1.2.1 Série géométrique. . . . . . . . . . . 2 2.3 Règle de d’Alembert . . . . . . . . . . . . . 7

1.2.2 Série harmonique. . . . . . . . . . . 2 2.4 Comparaison à une intégrale . . . . . . . . 8

1.2.3 Série Riemann. . . . . . . . . . . . . 3


3 Critère spécial des séries alternées 9
1.2.4 Série exponentielle. . . . . . . . . . 3
1.3 Lien suite - série . . . . . . . . . . . . . . . 3 4 Séries absolument convergentes 10
1.4 Propriétés des séries convergentes . . . . 4 4.1 Définitions et propriétés . . . . . . . . . . 10
1.4.1 Une condition nécessaire de 4.2 Produit de Cauchy de deux séries Abso-
convergence . . . . . . . . . . . . . . 4 lument convergentes . . . . . . . . . . . . . 11
1.4.2 Opérations sur les séries conver-
gentes . . . . . . . . . . . . . . . . . 4 5 Sommation des relation de comparaison 12

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗

1 Généralités

1.1 Définition

Définition 1.1. Soit ( u n )n∈N une suite de K N .


1. On appelle série de terme général u n la suite (S n )n∈N définie par :
n
∀ n ∈ N, S n =
X
uk.
k=0
X X
On la note par u n ou un.
n≥0
2. On dit que u n est le terme général de la série de et que S n est la somme partielle d’ordre n.
X
3. On dit que la série u n est convergente lorsque la suite (S n )n∈N est convergente , dans le cas contraire on dit
que la série diverge .
X +∞
X n
X
4. Lorsque u n converge, on note alors u n = lim S n = lim u k , appelé somme de la série.
+∞ +∞
n=0 k=0

Remarque 1.1. 1. Une serie n ’ est autre qu’une suite , on peut donc lui appliquer tout les résultats connues
sur les suites réelles ou complexes
2. Dans ce chapitre on ne s’intéresse qu ’ au séries dont le terme général est définie à partir d’un certain rang .
X
3. Lorsque u n est définie à partir de n 0 , la serie de terme general ( u n )n≥n0 est notee u k , ses sommes
n≥ n 0
n
X X
partielles sont S n = u k . (C’est en fait la série u k+n0 .)
k= n 0
4. La nature d’une série est sa convergence éventuelle, c ’est - à - dire sa propriété d’être ou non convergente.

page:1/ 13
PSI Séries numériques

X n
X ∞
X
Attention 1.1. uk, u k et u k désignent des objets radicalement différents. Le premier est une suite, le
k=0 k=0
deuxième son n-ième terme et le dernier sa limite.

Proposition 1.1. Soit ( u n )n∈N une suite de K N . alors les séries


X X
u n et u n sont de meme nature , et en cas de
n≥0 n≥ n 0
convergence on a
+∞
X nX
0 −1 +∞
X
un = un + un
n=0 n=0 n= n 0

X +∞
X
Définition 1.2. Soit u n une série convergente et notons S = uk.
k=0
On appelle reste de la série la suite (R n )n∈N définie par Rn = S − Sn
+∞
X
On note R n = uk
k= n+1

Remarque 1.2. Bien évidemment, (R n )n∈N converge vers 0 car S n −→S .

1.2 Exemples de référence.

1.2.1 Série géométrique.

z n converge si et seulement si | z| < 1 On a alors pour tout n 0 ≥ 0 :


X
Proposition 1.2 (série géométrique). La série
+∞ z n0
zn =
X
n= n 0 1− z

1 − z n−n0 +1

 z n0 si z 6= 1

n 
Preuve : ∀ n ∈ N,
X
zp = 1− z .
n= n 0 

n sinon

+∞ z n0
— Si | z| < 1, lim z n = 0 d’où la convergence de la série et on a alors zk =
X
.
+∞
k= n 0 1− z
— Si | z| ≥ 1 alors la série diverge

µ ¶n
1 1
e−n est une serie geometrique convergente puisque e−n =
X
Exemple 1.1. La serie et 0 < < 1
e e

1.2.2 Série harmonique.

1 1 X1
Exercice 1. Montrer que ∀k ∈ N∗ ≤ ln( k + 1) − ln( k) ≤ puis en déduire la nature de la série .
k+1 k k

1 1 1
Solution : Soit k ∈ N∗ , pour tout t ∈ [k, k + 1] on a ≤ ≤ ,
k+1 t k
1 1
on intégrant entre k et k + 1 on obtien ≤ ln(k + 1) − ln(k) ≤
k+1 k

page:2/ 13
PSI Séries numériques

n
X 1 Xn 1
on sommant pur de k = 1 à k = n on obtiens finalement ≤ ln(n + 1) ≤ ,
k=1 k + 1 k=1 k
or lim ln(n + 1) = +∞ ,
+∞
Xn 1 X1
donc lim = +∞ c ’est - à - dire la série est divergente.
+∞
k=1 k k

X1
Proposition 1.3. La série harmonique est divergente
k

1.2.3 Série Riemann.

X 1
Théorème 1.1 (Série de Riemann). α
converge si et seulement si α > 1
n≥1 n

Preuve : Voir page 8

1.2.4 Série exponentielle.

X zn
Théorème 1.2. Pour tout z ∈ C, converge et
n!
+∞
X zn
exp( z) =
n=0 n!

Preuve : Le cas réel est démontré dans le chapitre sur l’ intégration . On utilise la formule de Taylor avec reste-intégral.

Remarque 1.3. On rappelle que si z = a + ib avec a, b ∈ R , alors e z = e a e ib = e a (cos b + i sin b) et |e z | = eRe( z) .

1.3 Lien suite - série

X
Proposition 1.4. La série ( u k+1 − u k ) est convergente si et seulement si ;la suite ( u n )n∈N est convergente . En
cas de convergence
+∞
X
( u k+1 − u k ) = lim u n − u 0
+∞
k=0

Preuve : Découle immédiatement de la somme télescopique :

nX
−1
S n−1 = (u k+1 − u k ) = u n − u 0 .
k=0

X
Remarque 1.4. Les séries de type ( u n+1 − u n ) sont appelées séries télescopiques

page:3/ 13
PSI Séries numériques

X 1 π
Exemple 1.2. la série arctan converge vers .
n2 + n + 1 2
1
en effet, on a arctan = arctan( n + 1) − arctan n. C’est donc une série télescopique et par suite S n = arctan( n +
n2 + n + 1
1) − arctan 0.

1.4 Propriétés des séries convergentes

1.4.1 Une condition nécessaire de convergence

Proposition 1.5. Le terme général d’une série convergente tend vers 0.

Preuve : En effet, on a ∀ n ∈ N, u n = S n − S n−1 −→0.

X
Définition 1.3. Si ( u n )n∈N ne tend pas vers 0, on dit que u n diverge grossièrement.

X1
Attention 1.2. La réciproque est fausse comme le montre l’exemple de la série harmonique .
n

1.4.2 Opérations sur les séries convergentes

X X X¡
vn convergent, Alors pour tout λ, µ ∈ K, la série λ u n + µvn est convergente et
¢
Proposition 1.6. si u n et
on a :
+∞
X¡ +∞
X +∞
X
λ u n + µvn = λ un + µ
¢
vn
n=0 n=0 n=0

X X
Preuve : si u n et vn convergent, alors
n ¡ n n
∀ n ∈ N, ∀ λ, µ ∈ K,
X X X
λ u k + µvk = λ uk + µ
¢
vk .
k=0 k=0 k=0

λ u n + µvn converge (comme somme de deux suites convergentes) et en passant la relation précédente à la limite, il vient
¢
D’où

+∞
X¡ +∞
X +∞
X
∀ λ, µ ∈ K, λ u n + µvn = λ un + µ
¢
vn .
n=0 n=0 n=0

Proposition 1.7. L’ensemble des séries convergentes est un espace vectoriel et l’ application qui associe à une série
sa somme est une application linéaire .

page:4/ 13
PSI Séries numériques

Attention 1.3. C’est faux pour le produit en général :


à ! à !
+∞
X +∞
X +∞
X
( u n vn ) 6= un × un
n=0 n=0 n=0

X +∞
X +∞
X +∞
X
Attention 1.4. Si ( u n + vn ) converge, ne JAMAIS écrire ( u n + vn ) = un + vn sans avoir préalablement
X X n=0 n=0 n=0
justifié la convergence de u n et vn .
u n et vn diverge, comme le montre l’exemple des suites définies pour n ∈ N par u n = −vn = n.
X X
Il se peut que

Corollaire 1.1. La somme d’une série convergente et d’une série divergente est divergente.

X X
Preuve : Supposons u n diverge et vn converge.
X X X X X
Si (u n + vn ) converge, alors on a u n = (u n + vn ) − vn d’où u n serait convergente.

Remarque 1.5. Comme pour les suites, on a les règle : Cv+Cv =Cv, Dv+Cv=Dv et la forme indéterminée Dv+Dv= F.I

N
Proposition
X 1.8. Soit ( u n )n∈N ∈ CX . X
u n converge si et seulement si Re( u n ) et Im( u n ) convergent.

n n n
Preuve : Provient directement de la relation ∀ n ∈ N,
X X X
un = Re(u n ) + i Im(u n ) et du fait qu’une suite complexe converge
k=0 k=0 k=0
si et seulement si sa partie réelle et imaginaire convergent.

2 Séries de nombres réels positifs

2.1 Caractérisation de la Convergence d’une série à termes positifs

X
Théorème 2.1. Si u n est à termes positifs alors elle converge si et seulement si ses sommes partielles sont ma-
jorées. On a alors
+∞
X
u n = lim S p = sup S p .
p→+∞ p∈N
n=0

Preuve : ∀ n ∈ N, S n+1 − S n = u n+1 ≥ 0. (S n )n∈N est alors croissante. D’après le programme de première année, elle converge
si et seulement si elle est majorée et converge alors vers sa borne supérieure.

Corollaire 2.1. Si une série de termes positifs diverge, elle tend vers +∞.

Preuve : Provient du théorème de convergence d’une suite croissante.

page:5/ 13
PSI Séries numériques

2.2 Théorèmes de comparaison des séries à termes positives

Proposition 2.1. On suppose qu’on a 0 ≤ u n ≤ vn


X X
1. Si vn converge alors u n converge
X X
2. Si u n diverge alors vn diverge

n n +∞
1. ∀ n ∈ N, 0 ≤
X X X X
Preuve : uk ≤ vk ≤ vk et la suite des sommes partielles de u n est alors majorée. D’après la
kX
=0 k=0 k=0
proposition précédente, u n converge.
2. C’est la contraposée de la proposition précédente.

¡ ¢
X 2.2. Soit ( u n )n∈NXet (vn )n∈N deux suites positives telles que u n = O (vn ) ou u n = o(vn ) .
Proposition
— Si X vn converge alorsX u n converge.
— Si u n diverge alors vn diverge.

Preuve : Si u n = o(vn ) alors u n = O(vn ). Il suffit donc de montrer la proposition dans le cas u n = O(vn ).
D’après le cours, u n = O(vn ) si et seulement si ∃ M > 0, ∀ n ∈ N, 0 ≤ u n ≤ Mvn .
X
Mais comme Mvn est le terme général d’une série convergente, on en déduit que u n est convergente .

X
Attention
X 2.1. Sous les hypothèses
X des propositions 2.1X
et 2.2, la divergence de vn n’entraîne pas la divergence
de u n ; la convergence de u n n’ entraîne pas celle de vn .

Proposition
X 2.3. Soit ( u n )n∈N et (vn )n∈N deux suites positives telles que u n ∼ vn .
X
Alors u n et vn sont de même nature.

Preuve : Si u n ∼ vn alors u n = O(vn ) et vn = O(u n ).

Remarque 2.1. Le dernier résultat (avec l’équivalence) est encore vrai si u n ∼ c.vn avec c ∈ R∗

X − n2 2
converge car ∀ n ∈ N, e−n < e−n et
X −n
Exemples 2.1. 1. e e converge (série géométrique).
X 1 1 1
2. p diverge puisque passé un certain rang, p >p .
n≥1 n − ln n n − ln n n
1 1 1
µ ¶ µ ¶
X
3. la série ln 1 + 2 converge puisque ln 1 + 2 ∼ 2
n n n
1 −1 1
µ ¶ µ ¶
X
4. ln 1 − ∼ donc ln 1 − diverge.
n n n
(−1)n
¯ ¯
X ¯ 1 ¯ ∼ 1 ≥ 0.
¯
5. 2 n converge car ¯ 2
¯
n + (−1) n n
n + (−1) n ¯ n2
La série est donc absolument convergente donc convergente.

page:6/ 13
PSI Séries numériques

Application : Comparaison (forcée) à une série de Riemann.

Soit ( u n )n∈N une suite positive, on a :


1
µ ¶
— S’il existe α > 1 tel que nα u n n∈N soit bornée alors u n = O α donc
¡ ¢ X
u n converge.
µ ¶n
1
— S’il existe α ≤ 1 tel que nα u n n∈N tend vers +∞ alors
¡ ¢ X
α
= o( u n ) donc u n diverge
n
X −pn
Exemples 2.2. 1. Considérons e .
p p 1
µ ¶
On a n2 e− n −→0 donc e− n = O 2 . La série est donc convergente.
n
X ln n
2. Considérons .
n3
ln n ln n 1 X ln n
µ ¶
On a n2 3 −→0 d’où 3 = o 2 par suite converge.
n n n n3
X ln n
3. diverge.
n
ln n 1 ln n
µ ¶
En effet n −→ + ∞ d’où = O .
n n n
On termine alors avec le théorème de comparaison des séries à termes positifs.

2.3 Règle de d’Alembert

u n+1
u n une série à termes dans R∗+ telle que lim
X
Proposition 2.4 (Règle de d’Alembert). Soit = λ.
X +∞ un
— Si λ < 1 alors X u n est convergente .
— Si λ > 1 alors u n diverge .
— Si λ = 1, on ne peut rien dire.

1 Y n
Exemples 2.3. 1. • u n = (a + k)2 où a > 0.
(2 n)! k=1
u n+1 (a + n + 1)2 1 X
On a = −→ donc u n converge.
un (2 n + 1)(2 n + 2) 4
X xn
2. • est définie sur R d’après le critère de d’Alembert. On retrouve notamment que pour tout x ∈ R, x n =
n!
o( n!).
De la même manière, on retrouve les comparaisons de référence

ln n ¿ n ¿ a n ¿ n! ¿ n n
¡ ¢

Remarque 2.2. La règle de d’Alembert n’est pas une panacée. Elle ne s’applique pas à bon nombre de suite comme
par exemple les séries de Riemann où lim uun+n 1 = 1.
+∞

X u n+1
Proposition 2.5 (Complément à la règle de d’Alembert). Soit u n une série à terme > 0 tel que lim = 1 et
+∞ un
u n+1 X
≥ 1 . Alors u n diverge grossièrement.
un

Xn 1
Application 1 : convergence de la suite − ln( n).
k=1 k

page:7/ 13
PSI Séries numériques

Solution : Considérons la suite définie par


1 1 1
un = 1 + + + · · · + − ln(n)
2 3 n

On a pour n ∈ N
1 1 1 1 1 1 1
µ ¶ µ µ ¶¶ µ ¶ µ ¶ µ ¶
u n+1 − u n = − ln 1 + = 1+O − +O =O .
n+1 n n n n n 2 n2
X
Donc (u n+1 − u n ) converge absolument donc converge d’où (u n )n∈N converge.

n! e n
Application 2 : convergence de la suite p .
nn n

Théorème 2.2 (Formule de Stirling).


n p
n ! ∼ ( ) n 2π n
e

2.4 Comparaison à une intégrale

Proposition 2.6. Soit f continue par morceaux sur [0, +∞[, positive et décroissante. Alors :
Z n
1. La série de terme général wn = f ( n) − f ( t) dt converge
n−1
2. Pour tout n ∈ N∗ on a :
Z n+1 n
X Z n
f ( t) dt ≤ f ( n) ≤ f (0) + f ( t) dt
0 n=0 0
Z n
f ( t) dt existe dans R.
X
3. f ( n) converge si et seulement si lim
+∞ 0
n≥0

X1
Exemple 2.1. est divergente .
n ln( n)
1
En effet la fonction x 7→ est continue positive décroissante sur [2, +∞[ et cmme
x ln( x)
Z +∞
1
d x = [ln(ln( x))]+∞
2 = +∞
2 x ln( x)
On déduit que la série diverge .

Application 1 : Démontrer du théorème de Riemann

X 1
converge si et seulement si α>1

Solution : — t 7→ t1α est positive, décroissante pour α > 0.


n
dt t1−α n1−α − 1
Z n
? Si α > 0, α 6= 1, α
= = , converge si et seulement si α > 1.
Z 1n t 1 − α 1 α−1
dt
? Si α = 1, alors α
= ln n−→ + ∞.
1 t
— Si α < 0 la série diverge grossièrement.

Application 2 : Recherche d’équivalent

page:8/ 13
PSI Séries numériques

Por les séries de Riemann Montrer que


X∞ 1 n1−α
1. Si α > 1 alors R n = α
∼ .
k= n+1 k α−1
Xn 1 n1−α
2. Si 0 < α < 1 alors S n = α

k=1 k 1−α
3. Si α = 1 alors S n ∼ ln n

Solution : Si α > 0 on a :

Z k
1 1 1
∀ k ≥ 2, 0≤ α ≤ α
dt ≤
k k−1 t (k − 1)α

1. Pour α > 1 il vient alors

Z N +1
1 N
X 1
Z N
1
∀ n ≥ 2, ∀ N > n, dt ≤ ≤ dt
n tα k= n+1 k α
n −1 t α

b1−α a1−α
Z b
dt
Or tα = 1 − α − 1 − α , d’où, en prenant la limite de N vers l’infini on a :
a

n1−α (n − 1)1−α
∀ n ≥ 2, ≤ Rn ≤
α−1 α−1

(n − 1)1−α
On et comme lim = 1, on a
+∞ n1−α
n1−α
Rn ∼ .
α−1
2. Pour 0 < α < 1 on a Z n+1
1 n 1 Z n
1
∀ n ∈ N,
X
α
dt ≤ α
≤ 1+ α
dt
1 t k=1 k 1 t
d’où
(n + 1)1−α − 1 n1−α − 1
∀ n ∈ N, ≤ Sn ≤
1−α 1−α
On aboutit
n1−α
Sn ∼ .
1−α
3. pour α = 1 on aboutit de même à
S n ∼ ln n

3 Critère spécial des séries alternées

Théorème 3.1 (critère spécial des séries alternées). Soit ( u n )n∈N une suite positive, décroissante,
convergente vers 0.
Alors
(−1)n u n est une série convergente
X
1.
2. ∀ n ∈ N, |R n | ≤ u n+1 .
3. R n a le meme signe que (−1)n+1

X (−1)n
Exemple 3.1. la série de terme général α
converge si et seulement si α > 0.
n≥1 n

¡En1
¢effet, pour α ≤ 0 la série diverge grossièrement, et pour α > 0 il suffit d’utiliser le théorème précédent puisque
n n∈N∗ et positive, décroissante et tend vers 0.
α

page:9/ 13
PSI Séries numériques

X (−1)n
Exemple 3.2. Étude de : p .
n + (−1)n
(−1)n (−1)n (−1)n
On a p ∼ p mais ceci n’est pas exploitable puisque p change de signe. on a ici :
n + (−1)n n n

(−1)n (−1)n 1 (−1)n 1 1


µ ¶
p = p n = p − +O 3
n + (−1)n n 1 + (−p1) n n n2
n

n
³ ´
(−
p1) 1
D’où la divergence de la série puisque n
définie une série convergente, vn = O n3/2
une série absolument conver-
gente donc convergente et − n1
une série divergente.
X (−1)n X ³ (− n
´
Exemple 3.3. Les séries p et ln 1 + p1) dont les termes généraux sont équivalents. Mais la première
n n
n≥1
converge d’après le critère spécial de séries alternées et la seconde diverge car

1
µ ¶
n n
³ ´
ln 1 + (−p1)n = (−
p1)
n
+ +O 1
3
n n2

n n
³ ´
(−
p1) ln 1 + (−p1)n convergent puisque 1 1
X X X
n
et 3 est le terme d’une série convergente et n diverge.
n≥1 n≥1 n2 n≥1

Attention 3.1. L’exemple précédent montre que les résultats sur les séries positives sont faux si le signe des suites
n’est pas constant. Dans ce cas on effectue souvent un développement asymptotique .

4 Séries absolument convergentes

4.1 Définitions et propriétés

X X
Définition 4.1. On dit que la série u n est absolument convergente si | u n | est convergente.

Théorème 4.1. Toute série absolument convergente est convergente. En outre


¯ ¯
¯ +∞ ¯ +∞
¯X ¯ X
un¯ ≤ | u |.
¯n=0 ¯ n=0 n
¯

Attention 4.1. La réciproque est fausse.


X (−1)n
La série n est convergente d’après le critère spéciale des séries alternées mais n’est pas absolument conver-
gente.

X e in
Exemple 4.1. La série est convergente car absolument convergente d’après les séries de Riemann.
n2
u n une série à termes dans K et a n une série convergente à termes R+
X X
Remarque 4.1. Soit
X
1. Si | u n | ≤ a n alors u n est absolument convergente
X
2. Si | u n | = O (a n ) alors u n est absolument convergente
X
3. Si | u n | = o(a n ) alors u n est absolument convergente

page:10/ 13
PSI Séries numériques

X
4. Si | u n | ∼ a n alors u n est absolument convergente

¯ ¯
X ¯ u n+1 ¯
Proposition 4.1 (Règle de d’Alembert). Soit u n une série à termes non nuls telle que lim ¯¯ ¯ = λ.
X +∞ un ¯
— Si λ < 1 alors X u n est absolument convergente donc convergente.
— Si λ > 1 alors u n diverge grossièrement.
— Si λ = 1, on ne peut rien dire.

Exercice 2. Soit (a n ) une suite a termes dans R+ telle que


a n+1
= 1 + wn
an

ou (wn ) est le terme general d’une serie absolument convergente .


Montrer que la suite (a n ) converge vers une limite > 0

4.2 Produit de Cauchy de deux séries Absolument convergentes

X X X
Définition 4.2. On appelle produit de Cauchy des séries u n et vn la série wn de terme général wn =
Xn n
X X
u k v n− k = u n− k v k = u p vq .
k=0 k=0 p+ q= n

X
Remarque 4.2. Si, par exemple, les suites ne sont définies qu’à partir du rang 1, on a toujours wn = u p vq
p+ q= n
nX
−1
mais n’est défini qu’à partir de n = 2. On a alors wn = u k vn−k (on pourrait aussi poser u 0 = v0 = 0 pour conserver
k=1
la formule initiale).

X X
Attention 4.2. Soit u n et vn deux séries numériques de nombres complexes convergentes. Alors en général
à ! à !
+∞
X +∞
X +∞
X
( u n vn ) 6= un × un
n=0 n=0 n=0

Il suffit de considérer l’exemple donné par ( u n )n∈N = (vn )n∈N = (1, 1, 0, 0, . . . ).

X X X
Théorème 4.2. Si u n et vn sont absolument convergente alors leur produit de Cauchy wn est aussi conver-
gente et on a : Ã !Ã !
+∞
X +∞
X +∞
X
wn = un un
n=0 n=0 n=0

Attention 4.3. C’est faux si les séries ne sont pas absolument convergentes comme le montre l’exemple ci dessous :

page:11/ 13
PSI Séries numériques

(−1)n
Exemple 4.2 (CCP MP 2005 :). Les series de TG ∀ n ∈ N∗ , u n = vn = 1
sont semi convertes et leurs produit de
n4
cauchy est divergente .
En effet :
Elles définissent des séries convergentes ( critère spéciale des séries alternées ), qui ne sont pas absolument conver-
gente (série de Riemann).
On a pour n ∈ N∗
nX
−1 (−1)k (−1)n−k nX
−1 (−1)n
wn = 1 1
= ¢1
k ( n − k)
¡
k=1 4 4 k=1 k( n − k) 4

1
Comme ∀ x, y ∈ R∗+ , 0 ≤ x y ≤ ( x + y)2 , il vient
2
1 1
nX
−1 1 nX
−1 2 4 2 4 ( n + 1)
|wn | = ¢1 ≥ p = p −→ + ∞
k=1 n n
¡
k=1 k( n − k) 4

( Autre : f n ( x) = x(n − x) atteint son max en n d’où k f k ≤ n2 )


2 n ∞ 4
X
D’où la divergence grossière de la série wn .

Proposition 4.2. ∀ z ∈ C, exp( z + z0 ) = (exp z)(exp z0 )

Preuve : Soit z, z0 ∈ C.
X zn X z0n P
Les deux séries numériques et converge absolument donc le produit de Cauchy wn est absolument convergent et
n! n!
vérifie à !à !
+∞
X X z n +∞
+∞ X z0n
wn =
n=0 n=0 n! n=0 n!
Mais
n z k z n− k 1 X n n! (z + z0 )n
∀ n ∈ N, w n = z k z n− k =
X
=
k=0 k!(n − k)! n! k=0 k!(n − k)! n!
Ainsi
X (z + z0 )n
+∞
(exp z)(exp z0 ) = = exp(z + z0 )
n=0 n!

5 Sommation des relation de comparaison

u n une série à termes dans K et a n une série Divergente à termes R+


X X
Théorème 5.1. Soit
Xn n
X
1. Si | u n | = O (a n ) alors u k = O( ak)
k=0 k=0
n
X n
X
2. Si | u n | = o(a n ) alors u k = o( ak)
k=0 k=0

page:12/ 13
PSI Séries numériques

u n une série à termes dans K et a n une série Convergente à termes R+


X X
Théorème 5.2. Soit
+∞
X +∞
X
1. Si | u n | = O (a n ) alors u k = O( ak)
k= n k= n
+∞
X +∞
X
2. Si | u n | = o(a n ) alors u k = o( ak)
k= n k= n

a n deux séries à termes R+ telles que u n ∼ a n


X X
Théorème 5.3. Soit u n et
X +∞
X +∞
X
1. Si a n est convergente alors uk ∼ ( ak)
k= n k= n
X n
X n
X
2. Si a n est divergente alors uk ∼ ( ak)
k=0 k=0

Remarque 5.1. — En cas de convergence on compare les restes


— En cas de divergence on compare les sommes partielles

Application 1 : Lemme de Cezaro

Soit ( u n ) une suite convergente vers `


Xn
1. Montrer que ( u k − `) = o( n + 1).
k=0
u0 + · · · + u n
2. En deduire le lemme de Cezaro : lim =`
n+1

Application 2 : Développement asymptotique de la suite harmonique

Xn 1
1. Montrer que ∼ ln( n).
k=1 k
Xn 1 Xn 1 1
2. Montrer que − ln( n) = 1 + ( + ln(1 − )).
k=1 k k=2 k k
Xn 1
3. En déduire que la suite ( ) est convergente . On note γ sa limite (c’est la constante γ d’Euler ).
k=1 k
Xn 1 −1
4. Montrer que − ln( n) − γ ∼ .
k=1 k 2n
Xn 1 1 1
5. En déduire que = ln( n) + γ − + o( ) .
k=1 k 2 n n

page:13/ 13
PSI* Devoir surveillé n°2
Corrigé du problème n°1
Année scolaire
2018/2019

Propriétés élémentaires
1. Puisque A est une matrice nilpotente, il existe un entier naturel p tel que Ap = 0; ainsi det(Ap ) = 0, et
det(A) = 0 : A n’est pas inversible.

2. Soit (λ, X) un couple (valeur propre, vecteur propre) de A dans C : X = 0 et AX = λX. Par récurrence
sur l’entier naturel k, on démontre alors que Ak X = λk X pour tout k. En particulier, Ap X = 0 = λp X, et, puisque
X = 0, λp = 0, soit λ = 0 : Sp(A) = {0}.
Comme χA est scindé dans C, que son terme de plus haut degré est X n , et enfin que χA n’admet qe 0 comme
racine, χA = X n .

3. Si A est diagonalisable, A est semblbable à la matrice diagonale dont tous les éléments diagonaux sont nuls :
A est la matrice nulle. Ainsi, A est diagonalisable et nilpotente si et seulement si A est la matrice nulle.

4. Vect(A) est l’ensemble des matrices de la forme kA, où k est un réel. Or (kA)p = k p Ap = 0 quel que soit le
réel k. Ainsi Vect(A) ⊂ N .

5. t Ap =t (Ap ) =t 0 = 0 : t A ∈ N .

6. Si M est semblable à A, il existe une matrice P de E, inversible, telle que M = P −1 AP . On démontre alors
que M k = P −1 Ak P pour tout entier naturel k, et l’on en déduit que M p = 0 : M ∈ N .

7.
 Puisque χA  = X n , χA est scindé dans R, A est semblable à une matrice triangulaire supérieure de la forme
0 • ... •
 .. . . . . . . ... 
T =  .. . . • .
.. .
0 ... ... 0
On démontre alors par récurrence sur n, en utilisant par exemple le produit matriciel par blocs, que T n = 0, et
donc que An = 0.

8. Que dire de plus ?

9. C’est fait, et le rang maximum de A est celui de la matrice T ci-dessus, soit n − 1.

10.1. Il existe un entier naturel q tel que (BC)q = 0, ce qui s’écrit encore B(CB)q−1 C = 0 par associativité du
produit matriciel. Ainsi CB(CB)q−1 CB = 0, soit (CB)q+ 1 = 0, et CB est nilpotente.
10.2. Il existe un entier naturel q tel que B q = 0. On calcule alors (AB)m ax(p,q) = Am ax(p,q)
Bm ax(p,q)
= 0, et
(A + B)p+ q que l’on développe par la formule du binôme, puisque A et B commutent :

p+ q


p+q
(A + B)p+ q
= Ak B p+ q−k
k
k= 0
.
 p + q

p−1 p+ q
 p+q

= Ak B p+ q−k
+ Ak B p+ q−k
k k
k= 0 k= p

La première somme vaut 0 puisque les puissances de B y sont supérieures à q, et la seconde car les puissances de
A sont supérieures à p.

11. Une matrice symétrique réelle étant toujours diagonalisable, elle n’est nilpotente que si elle est nulle (3.).

12.1. On vérifie facilement que A2 est symétrique, et nilpotente...

12.2. On se souvient que tr(t AA) est la somme des carées de tous les éléments de A. Mais c’est aussi − tr(A2 ),
soit 0...

Exemples
1.1. 0 est valeur propre de M, d’ordre de multiplicité n. La dimension du sous-espace propre de M associé à la
valeur propre 0 est n − rg(M ) = n − (n − 1) = 1.

1.2. M +t M est une matrice symétrique non nulle : elle n’est pas nilpotente.
S = J − In , où J est la matrice de E dont tous les éléments valent 1. On vérifie aisément que J 2 = nJ, et, puisque
J et In commutent, S 2 = nJ + In − 2J = In + (n − 2)J = (n − 2)S + (n − 1)In ∈ Vect(In , S).
Les valeurs propres de S sont donc à chercher parmi les racines du polynôme annulateur X 2 − (n − 2)X − (n − 1) =
(X + 1)(X − (n− 1)). Comme S est diagonalisable et n’est pas une matrice d’homthétie, -1 ET n-1 sont valeurs propres
de S, la première
  avec comme sous-espace propre l’hyperplan d’équation x1 + . . . +xn = 0, la seconde la droite engendrée
1
par X = ... .

1

1.3. M est t M sont toutes deux nilpotentes (cf I.7), mais leur somme ne l’est pas : N n’est pas un sous-espace
vectoriel de E.

2.1. Puisque M est de rang 1, il existe une matrice ligne C et une matrice colonne L telles que M = CL. On
vérifie alors que LC = tr(M ), puis que M 2 = (LC)CL = tr(M )M .
Si tr(M ) = 0, M est nilpotente. Sinon, M annule le polynôme scindé à racines simples X(X − tr(M )), et M est
diagonalisable.

1 −1
2.2. M = doit convenir.
1 −1

2.3. Soit A ∈ M2 (R), nilpotente et non nulle. D’après I.9., A est de rang 1 et, d’après
la question

précédente, de
a b
trace nulle. Finalement, les matrices nilpotentes de M2 (R) sont les matrices de la forme avec a2 + bc = 0.
c −a

Sous-espace engendré par N


1. T0 est le noyau de la forme linéaire non nulle trace : c’est un hyperplan de E, de dimension n2 − 1.

2. Une matrice nilpotente de E est semblable à une matrice triangulaire à éléments diagonaux nuls : sa trace est
nulle, de même que la trace de toute combinaison linéaire de matrices nilpotentes.
 1 0 ... 0 1 0 ... 0
 0 0 .. 
 .. .
 . .. .. 
 . .
 0 0 .. 
3.1. Fj =  .  est une matrice de rang 1. Donc Fj2 = tr(Fj )Fj = 0 puisque tr(Fj ) = 0.
 −1 0 . . . 0 −1 0 . . . 0
 .. 
 0 .
 . .. 
.. .
0 ... 0 0
3.2. Fj , E1,j et Ej,1 sont nilpotentes. Gj est donc une combinaison linéaire de matrices nilpotentes, et Gj ∈ V .

3.3. On remarque que Gk = Ek,k − E1,1 . Une combinaison linéaire nulle de matrices de la famille F est donc une
combinaison linéaire nulle des matrices élémentaires, avec les mêmes coefficients concernant celles autres que E1,1 . Ces
coefficients, qui sont ceux de la combinaison initiale, sont donc tous nuls, et F est libre, dans V puisque que toutes
les matrices de F sont dans V.

3.4. V est donc un sous-espace de T0 de dimension au moins n − 1 : V = T0 .

Sous-espaces de dimension maximale contenus dans N


n(n − 1)
1. Une base de T1 est la famille (Ei,j )j>i , de cardinal 2 .

2. Déja fait en I.7.

3. Tout d’abord, Sn (R) ∩ T1 = {0Mn (R) }. Ensuite la somme des dimensions de ces deux sous-espaces de E vaut
n2 , soit la dimension de E. Ainsi, Sn (R) et T1 sont supplémentaires dans E.

4.1. Par l’absurde, si on suppose que dim (Sn (R) ∩ F ) = 0, alors Sn (R) et F sont en somme directe, et la
n(n + 1)
dimension de Sn (R) ⊕ F est égale à 2 + d > n2 , ce qui n’est guère raisonnable pour un sous-espace de E. Donc
dim (Sn (R) ∩ F ) > 0, mézalors il y a dans F des matrices symétriques, nilpotentes, autres que la matrice nulle. C’est
n(n − 1)
à nouveau absurde, et cette fois, c’est l’hypothèse d > 2 qui est fausse.
n(n − 1)
Finalement (ouf), d 6 2 ...

n(n − 1)
4.2. La dimension d’un sous-espace de E contenu dans N est inférieure à 2 . Puisque T1 est un sous-espace
n(n − 1)
de E contenu dans N et de dimension 2 , la dimension maximale d’un sous-espace de E contenu dans N est
n(n − 1)
exactement 2 .

Un peu de topologie
1. Soit (Ak ) une suite convergente d’éléments de N . Notons A sa limite. Pour tout k, Ank = 0 d’après I.7., et,
par continuité de l’application X ∈ E → X n , polynômiale en les éléments de X, An = 0. Tout point adhérent à N est
dans N , et N est une partie fermée de E.

2. In +αA est semblable à une matrice In +αT , où T ∈ T1 . Cette matrice, triangulaire avec des 1 sur la diagonale,
est de déterminant 1.
Toute les normes étant équivalentes, je décide d’utiliser sur E la norme M = (mi,j ) → max(|mi,j |), pour laquelle
In est de norme 1. Soit r un réel strictement positif, et t ∈] − r, r[ non nul. La matrice A + tIn est à une distance de A
égale à |t|, donc inférieure strictement à r, et appartient à la boule ouverte de centre A et de rayon r. Son déterminant
vaut tn , c’est une matrice inversible, c’est-à-dire de rang n, et donc non nilpotente. On en déduit qu’aucun point de
N n’est intérieur à N , ou encore que N est d’intérieur vide.

3. On considère un sous-espace F de E d’intérieur non vide : F contient une boule ouverte, B(M, r).
Soit alors M ∈ E, différente de M . Notons α la distance de M à M . La matrice M + t(M − M ) appartient à
B(M, r) dès que |t| < α .r

Prenons t = 0 vérifiant cette condition. Alors M = 1 . M + t(M − M ) + t − 1 .M , qui est une combinaison
t t
∈ F et F = E.
linéaire d’éléments de F . Ainsi M
Supposons alors N d’intérieur non vide. Le sous-espace V engendré par N, contient N, et st donc lui aussi
d’intérieur non vide. C’est donc E, ce qui contredit les résultats de la partie III.
PSI* Devoir surveillé n°2
Corrigé du problème n°2

Partie I
Année scolaire
2018/2019

1) Soit A ∈ Mn (C) et (λ1 , . . . , λn ) un système de valeurs propres de A. Nous sommes sur C, A est donc
trigonalisable, fixons T ∈ Tn (C) semblable à A, de diagonale (λ1 , . . . , λn ). Pour tout k ∈ N∗ , Ak est
semblable à T k . Or, par une récurrence immédiate sur k, les éléments diagonaux de T k sont λk1 , . . . , λkn
et donc
k
k
ρ A k
=ρ T k
= max λki = max |λi | = max |λi | = [ρ (A)]k .
1≤i≤n 1≤i≤n 1≤i≤n
En conclusion,
ρ Ak = [ρ (A)]k .

2) L’application M → P −1 MP est un endomorphisme de Mn (C), qui est de dimension finie, c’est donc
une application continue sur Mn (C). Par conséquent, si une suite (Ak ) converge vers A, alors la suite
image P −1 Ak P converge vers l’image de la limite, à savoir P −1 AP . La réciproque se montre de même,
en utilisant la continuité de la bijection réciproque de l’endomorphisme précédent, N → P NP −1 .
(Ak ) converge vers A si et seulement si P −1 Ak P converge vers P −1 AP .

0 µ
3) a) T = λ.I2 + N, avec N = qui vérifie N 2 = 0. Comme λI2 et N commutent, la formule du
0 0
binôme donne T k = λk I2 + kλk−1 N, soit
λk kλk−1 µ
∀k ∈ N∗ Tk = .
0 λk

∗ Si |λ| < 1, il est clair que T k converge vers 0 (toutes les suites coordonnées convergent vers 0,
car k |λ|k−1 −→ 0, du fait des croissances comparées des puissances et exponentielles).
k→∞

∗ Si |λ| > 1, il est clair que T k diverge, car elle n’est pas bornée.
∗ Reste le cas |λ| = 1. Analyse : supposons que T k converge. Alors en particulier λk converge,
soit ℓ sa limite. Par continuité du module (application 1-lipschitzienne), |ℓ| = 1.
Mais la suite
λk+1 converge, d’une part vers ℓ (en tant que suite extraite), d’autre part versλ · ℓ (puisque
λk+1 = λ · λk et par linéarité de la limite). Donc, par unicité de la limite, λ · ℓ = ℓ, d’où
1 kµ
nécessairement λ = 1 (ℓ est non nul car de module 1). T k est donc de la forme et
0 1
doit être bornée, ainsi nécessairement µ = 0.
Synthèse : si λ = 1 et µ = 0, alors T = I2 et T k converge vers I2 .
En conclusion,
T k converge si et seulement si (|λ| < 1) ou (λ = 1 et µ = 0).
λ 0
b) Soit A ∈ M2 (C) diagonalisable et D = semblable à A. On a vu au 4) que Ak converge
0 µ
si et seulement si Dk converge, soit si et seulement si les deux suites λk et µk convergent.
Autrement dit, d’après le résultat précédent,
Ak converge ssi chaque valeur propre est, soit égale à 1, soit de module strictement inférieur à 1.
λ µ
c) Si A est non diagonalisable, elle est trigonalisable et semblable à une matrice T de la forme
0 λ
avec µ = 0 (en effet, si A admettait deux valeurs propres distinctes, elle serait diagonalisable et, si
µ était nul, elle serait aussi diagonalisable !). Alors, d’après les résultats précédents, Ak converge
si et seulement si T k converge, et cela si et seulement si |λ| < 1 (puisqu’ici µ = 0). Ainsi
Ak converge si et seulement si ρ (A) < 1, auquel cas Ak converge vers 02 .
d) J’ai vu au b) que, dans le cas diagonalisable, Ak converge vers 02 si et seulement si ses deux valeurs
propres sont de module strictement inférieur à 1. Finalement
Ak converge vers 02 si et seulement si ρ (A) < 1.
PSI*— Corrigé Page 2

Partie II

1) a) Soit A ∈ Mn (C) et E = N(AX) n


N(X) , X ∈ C \ {0} . Notons que E = {N (Au) , u ∈ S} où S est la
sphère unité de Cn . Or S est une partie non vide, bornée et fermée de Cn (image réciproque du
fermé {1} de R par l’application N continue sur Cn ). Comme u → Au est continue (linéaire en
dimension finie) et comme N est continue, il en résulte par composition que f : u → N (Au) est
continue et donc f est bornée et atteint ses bornes sur S. Cela justifie la définition de N (A) = max E.
N est bien une application de Mn (C) dans R+ .
∗ Si N (A) = 0, alors N (Au) est nulle, donc Au est nul pour tout vecteur unitaire u ; il en résulte
que A = 0 (tout vecteur non nul est colinéaire à un vecteur unitaire !).
∗ L’homogénéité de N découle immédiatement de celle de N.
∗ Soient A et B dans Mn (C) et u ∈ S ; j’utilise l’inégalité triangulaire pour N :
N (A + B) u ≤ N (Au) + N (Bu) ≤ N (A) + N (B) ,
cela pour tout u de S, en particulier N (A + B) ≤ N (A) + N (B).
En conclusion
N est une norme sur Mn (C).
N(AX)
b) Par définition, N(A) est un majorant de N(X) , X ∈ Cn \ {0} , d’où :

∀X ∈ Cn N(AX) ≤ N(A) · N(X) (banal pour X = 0 !).


Si je considère A, B dans Mn (C) et X non nul dans Cn , j’ai donc
N (ABX) = N A (BX) ≤ N (A) N (BX) ≤ N (A) N (B) N (X) ,
d’où il découle par définition de la borne supérieure que N (AB) ≤ N (A) N (B). En conclusion,
N est une norme matricielle sur Mn (C).
c) ρ (A) étant un plus grand élément, je peux fixer λ ∈ C tel que |λ| = ρ (A) et un vecteur propre X de
A associé à λ. J’ai
N (AX)
AX = λX donc N (AX) = |λ| N (X) soit = ρ (A) (X = 0 par hypothèse) ;
N (X)
il en résulte, par définition de N (A),
ρ (A) ≤ N (A).

d) Donc, si Ak converge vers 0, alors ρ Ak également, d’où d’après I-1) ρ (A)k converge vers
0, ce qui nécessite ρ (A) < 1 :
Si Ak converge vers 0, alors ρ (A) < 1.
On admet la réciproque, banale si A est diagonalisable et qui se démontre par exemple à partir de la
forme de Jordan sinon.

2) a) En combinant I-1) et le 1)c) ci-dessus, j’ai [ρ (A)]k = ρ Ak ≤ N Ak , d’où, x → x1/k étant


croissante sur R+ ,
1/k
ρ (A) ≤ N Ak .

b) Si α = 0, le résultat est banal, sinon


x
det (αA − xIn ) = αn det A − In ,
α
d’où il résulte que les valeurs propres de αA sont les αλ, λ ∈ Sp A, d’où finalement
ρ (αA) = |α| ρ (A).
PSI*— Corrigé Page 3

c) D’après b),
1
ρ (Aε ) = · ρ (A) < 1,
ρ (A) + ε
donc, grâce au résultat admis ci-dessus, Akε converge vers 0, en particulier pour la norme N, d’où
par définition de la limite l’existence de kε dans N tel que
∀k ≥ kε N Akε ≤ 1 soit N Ak ≤ (ρ (A) + ε)k .
Ainsi,
ρ (Aε ) < 1 et ∃kε ∀k ≥ kε N Ak ≤ (ρ (A) + ε)k .
d) En combinant a) et c), j’ai,
1/k 1/k
∀ε > 0 ∃kε ∀k ≥ kε ρ (A) ≤ N Ak ≤ ρ (A) + ε d’où N Ak − ρ (A) ≤ ε.

Autrement dit, par définition de la limite :


1/k
lim N Ak = ρ (A).
k→∞

3) a) Soit X = (xj ) ∈ Cn . J’ai


n n n
∀j ∈ Nn (AX)j = ai,j xj ≤ |ai,j | · |xj | ≤ |ai,j | · N∞ (X) ≤ MA · N∞ (X)
j=1 j=1 j=1

D’où, par définition de N∞ ,


N∞ (AX) ≤ MA · N∞ (X).
N∞ (AX)
Ce qui précède montre que MA est un majorant de l’ensemble E = N∞ (X) , X ∈ Cn \ {0} , dont
N∞ (A) est le plus petit majorant :
N∞ (A) ≤ MA .
b) Avec les notations de l’énoncé, le vecteur Y est bien défini et N∞ (Y ) = 1 (toutes ses composantes
sont de module 1) ; de plus, par construction,
|ai0 ,j |2
si ai0 ,j = 0, ai0 ,j yj = = |ai0 ,j | et si ai0 ,j = 0, ai0 ,j yj = 0 = |ai0 ,j |
|ai0 ,j |
donc
n n
(AY )i0 = ai0 ,j yj = |ai0 ,j | = MA .
j=1 j=1
Ainsi, avec les notations précédentes, MA ∈ E et donc N∞ (A) ≥ MA . D’où, compte tenu de 1)d),
N∞ (A) = MA .
PSI* Problème de révision n°11
Année scolaire
2018/2019

• On dit qu’une suite (an )n∈N à valeurs complexes vérifie la propriété (P1 ) si, pour toute suite
complexe (un )n∈N bornée, la série n≥0 an un converge.
P

• On dit qu’une suite (an )n∈N à valeurs


P réelles vérifie la propriété (P2 ) si, pour toute
P suite réelle
(un )n∈N , la convergence de la série n≥0 un entraîne la convergence de la série n≥0 an un .
L’objectif de ce problème est notamment d’étudier les propriétés (P1 ) et (P2 ), et de caracté-
riser simplement les suites qui vérifient (P1 ) ou (P2 ).
• On rappelle le résultat suivant : toute partie X non vide de N possède un plus petit élément,
noté min X.
• On appelle théorème (T ) le résultat suivant :
la série n≥0 an diverge, alors il existe une
Si (an )n∈N est une suite de réels positifs telle que P
P
suite (εn )n∈N convergeant vers 0, telle que la série n≥0 an εn diverge.
Le théorème (T ) sera dans un premier temps admis pour traiter la question 6. La démons-
tration du théorème (T ) fait l’objet de la question 10.
1. Soit (an )n∈N une suite réelle. On suppose que (an )n∈N vérifie (P1 ). Montrer que (an )n∈N vérifie
(P2 ).
(−1)n
 
2. La suite vérifie-t-elle (P1 ) ?
n + 1 n∈N
3. SoientP(an )n∈N et (un )n∈N deux suites réelles ou complexes. On note, pour tout n ∈ N,
Un = nk=0 uk .
Prouver que pour tout entier naturel N tel que N ≥ 2,
N
X N
X −1
an un = aN UN + (an − an+1 )Un .
n=0 n=0

4. Caractérisation des suites vérifiant (P1 ).


Soit (an )n∈N une suite complexe.
a. On suppose que la série n≥0 an converge absolument. Montrer que (an )n∈N vérifie (P1 ).
P

b. On suppose que la série n≥0 |an | diverge.


P Construire une suite (un )n∈N de nombres
P
complexes de module 1 telle que la série n≥0 an un diverge.
c. Caractériser les suites complexes (an )n∈N vérifiant (P1 ).
5. Condition suffisante pour que (P2 ) soit vérifiée.
Soit (an )n∈N une suite réelle telle que n≥0 |an+1 − an | converge.
P

a. Montrer que la suite (an )n∈N est convergente.


b. En utilisant notamment la question 3, montrer que (an )n∈N vérifie (P2 ).
6. Condition nécessaire pour que (P2 ) soit vérifiée.
Soit (an )n∈N une suite réelle vérifiant (P2 ).
a. Montrer que (an )n∈N est bornée.
b. Soit (αn )n∈N
P une suite réelle telle que, pour toute suite réelle (εn )n∈N qui converge vers
0, la série n≥0 αn εn converge.
Montrer que pour toute suite réelle (εn )n∈N qui converge vers 0, la série n≥0 |αn |εn
P
converge.
En utilisant le théorème (T ), en déduire que la série n≥0 |αn | converge.
P

Soit (εn )n∈N une suite réelle qui converge vers 0. Prouver la convergence de la série
c. P
n≥0 (an+1 − an )εn .

En déduire que la série n≥0 |an+1 − an | converge.


P

1
7. Caractériser les suites réelles (an )n∈N vérifiant (P2 ).
8. Soit x ∈ R.
À quelle condition nécessaire et suffisante sur x la suite (xn )n∈N vérifie-t-elle (P1 ) ?
À quelle condition nécessaire et suffisante sur x la suite (xn )n∈N vérifie-t-elle (P2 ) ?
9. En utilisant l’égalité établie à la questionP3, proposer une nouvelle démonstration du résultat
de convergence pour une série alternée n≥0 (−1)n an vérifiant les hypothèses du théorème
spécial des séries alternées, avec an ≥ 0 pour tout n ∈ N.
On ne demande pas de démontrer le résultat sur le signe et la majoration de la somme et des
restes.
10. Démonstration du théorème (T ).
Soit (an )n∈N une suite de réels positifs telle que la série diverge.
P
n≥0 an
On définit par récurrence trois suites (pn )n∈N , (εn )n∈N et (An )n∈N comme suit :

• p0 = 0, ε0 = 1, A0 = a0 .

 pn = 1 + pn−1 et εn = εn−1 si An−1 ≥ pn−1


• Pour n ≥ 1 :
2
n−1 et εn = εn−1 sinon,
p = p
n

et dans tous les cas, An = An−1 + an εn .

a. Montrer que pour tout entier naturel N , il existe un entier n > N tel que pn = 1 + pn−1
(on pourra raisonner par l’absurde).
b. En déduire que l’on peut définir une suite (nk )k∈N strictement croissante d’entiers natu-
rels par :
(
n0 = 0
Pour k ≥ 0 : nk+1 = min{n ∈ N; n > nk et pn = 1 + pn−1 }

c. Montrer que pour tout k ∈ N,


1
p nk = k et εnk = .
2k

d. Montrer que la suite (εn )n∈N converge vers 0.


e. Montrer que la série n≥0 an εn diverge.
P

11. On pose, pour n entier tel que n ≥ 2,


1
vn = .
n ln(n)

a. En minorant, pour n ≥ 2, vn par une intégrale, montrer que la série diverge.


P
n≥2 vn
b. Montrer que ceci permet d’illustrer, sur un exemple, le résultat du théorème (T ).

You might also like