Professional Documents
Culture Documents
Année scolaire
2018/2019
E XEMPLES :
— ..d’ espaces vectoriels : Rn , Rn , Mn,p (R), F (X, E), où E est un K- espace vectoriel ,R[X], Rn [X]. Evi-
demment on obtient des C- espaces vectoriels en remplaçant R par C dans ces exemples.
— ..de sous-espaces vectoriels :
B {OE } et E sont des sous-espaces vectoriels de E dits triviaux.
B Dans l’espace, les droites et les plans vectoriels fournissent des exemples.
B Tout ensemble de solutions d’un système linéaire homogène à n variables est un sous-espace
vectoriel de Rn .
B Tout ensemble de solutions d’une équation différentielle homogène d’ordre 1 ou 2 est un
sous-espace vectoriel de F (I, R).
Grosso modo, un espace vectoriel est un ensemble dans lequel on peut faire des combinaisons
linéaires. Ne nous gênons pas :
Définition 1.2 ( combinaisons linéaires )
Si F = (ei )i∈I est une famille éventuellement infinie de vecteurs, on appelle combinaison li-
néaire de F ,X
tout vecteur y de E pour lequel il existe une suite presque nulle de scalaires (λi )i∈I
tels que y = λi .ei . 1
i∈I
On note Vect (F ) l’ensemble de ces combinaisons linéaires .
Ainsi, si F = (e1 , . . . , ep ) est une famille finie,
( p )
X
Vect (e1 , . . . , ep ) = xi ei , où xi ∈ K .
i=1
La propriété suivante précise l’affirmation selon laquelle Vect F est le plus petit sous-espace vec-
toriel de E contenant F :
Propriétés 1.3 (de Vect )
Soit F une famille de vecteurs de E. Alors
Page 1/11
2. Soit F un sous-espace vectoriel de E contenant la famille F . Alors
Vect (F ) ⊂ F.
On dit que Vect (F ) est le sous-espace vectoriel engendré par la famille F , et F est appelée
famille génératrice de E si E = Vect F .
Les propriétés suivantes sont utiles lorsque l’on cherche à extraire d’une famille génératrice de E
une base de E :
Proposition 1.4
1. Vect (e1 , . . . , ep ) est conservé par les trois opérations élémentaires.
2. ep+1 ∈ Vect (e1 , . . . , ep ) ⇐⇒ Vect (e1 , . . . , ep , ep+1 ) = Vect (e1 , . . . , ep ).
...........................................................................................................................................................................................................................................................................................................................................
2 FAMILLES LIBRES ET GÉNÉRATRICES
Définition 2.1
Soit n ∈ N∗ et F := (e1 , . . . , en ) une famille de n vecteurs de E. On dira que cette famille est
• génératrice de E lorsque
• libre lorsque
n
X
Pour tout x1 , . . . , xn ∈ K, xi ei = 0, =⇒ x1 = . . . = xn = 0 .
i=1
• une base de E lorsqu’elle est libre et génératrice. On peut ainsi condenser les deux propriétés
ainsi : F est une base de E si et seulement si
R EMARQUES :
Ainsi, F est génératrice de E ssi E = Vect (e1 , . . . , en ) , et elle est libre ssi la seule combinaison linéaire nulle
de vecteurs de F est la combinaison trivialement nulle.
On peut unifier ces trois définitions en remarquant qu’elles correspondent respectivement à la surjectivité, l’in-
jectivité et la bijectivité de l’application linéaire
n
X
ψ : (x1 , . . . , xn ) ∈ Kn 7→ xi ei ∈ E.
i=1
Page 2/11
E XEMPLES :
1 0 0
0 1 0
∗
• ∀n ∈ N , la famille de n vecteurs .. , .. ,..., .. . est une base du K−espace vectoriel
. . .
0 0 1
Kn , appelée base canonique.
• ∀n ∈ N, la famille (1, X, X 2 , . . . , X n ) est une base appelée base canonique de Kn [X].
• Soit (P0 , P1 , . . . , Pn ) une famille de n + 1 polynômes de R[X] qui vérifie deg Pi = i pour tout 0 6 i 6 n.
Alors c’est une famille libre de K[X].
• Dans l’ensemble Mn,p (K) des matrices à n lignes et p colonnes, la famille de np matrices Eij 16i,j6n , où
Eij est la matrice dont tous les coefficients sont nuls sauf celui situé en (i, j) qui vaut 1, est une base de
Mn,p (K) dite base canonique.
(e1 , . . . , en ).
...........................................................................................................................................................................................................................................................................................................................................
3 L A DIMENSION FINIE
Un K− espace vectoriel est dit de dimension finie lorsqu’il existe n ∈ N∗ et une famille E de n
vecteurs de E telle que Vect E = E.
Théorème 3.1
Soit E un K− espace vectoriel de dimension finie.
1. E possède une base (en fait, une infinité).
2. Toutes les bases de E possèdent le même nombre d’éléments.
On appelle dimension de E le cardinal de l’une quelconque de ses bases.
On dira qu’un espace vectoriel qui ne contient qu’un élément (son neutre pour + !) est de dimension nulle.
E XEMPLES :
• Pour tout n ∈ N∗ , Kn est un K−espace vectoriel de dimension n.
• Pour tout n ∈ N, Kn [X] est un K−espace vectoriel de dimension n + 1.
• C2 est un C−espace vectoriel de dimension 2, mais c’est aussi un R− espace vectoriel de dimension 4.
De manière générale, un C−espace vectoriel de dimension n est un R−espace vectoriel de dimension 2n
(montrez-le).
• Pour tout n, p ∈ N∗ , Mn,p (K) est un K−e.v de dimension np.
• Pour tout vecteur X non nul de E, Vect(X) est de dimension 1, i.e c’est une droite. On la note aussi K.X
On appelle plan tout espace vectoriel de dimension 2.
• Si E et F sont deux K− espaces vectoriels de dimension finie, alors E × F l’est aussi et dim E × F =
dim E + dim F .
Page 3/11
On peut traduire la liberté d’une famille avec le seule notion de rang :
Proposition 3.2 (Rang d’une famille de vecteurs)
Pour toute famille (e1 , . . . , ep ) de vecteurs de E, on appelle
On a alors
1. Rang (e1 , . . . , ep ) 6 p.
2. Rang (e1 , . . . , ep ) = p ⇐⇒ (e1 , . . . ep ) est libre.
La dimension comme cardinal limite. Une famille libre de cardinal maximal est une base, et une
famille génératrice de cardinal minimal est une base :
Proposition 3.3
k ∈ N∗ , E un K−ev de dimension finie et F une famille de k vecteurs de E.
Soient
Si F est libre, alors k 6 dim E
.
Si F est libre et k = dim E, alors F est une base.
F est génératrice, alors k > dim E
Si
.
Si F est génératrice et k = dim E, alors F est une base.
Enfin, un résultat très utile, qui permet de construire des bases dont les premiers vecteurs sont
prescrits :
Théorème 3.4 (Base incomplète)
Soit E un K− espace vectoriel de dimension n ∈ N∗ , et (e1 , . . . , ep ) une famille libre de vecteurs de
E. Alors il existe ep+1 , . . . , en ∈ E tels que (e1 , . . . , ep , ep+1 , . . . , en ) soit une base de E.
...........................................................................................................................................................................................................................................................................................................................................
4 D IMENSION ET SOUS - ESPACES
Ce dernier résultat nous dispensera pour prouver l’égalité de deux espaces vectoriels de montrer une des
deux inclusions ; on substituera celle-ci à l’égalité des dimensions.
Définition 4.2 (Somme et intersection de sev)
Soient F et G deux sous-espaces vectoriels d’un K−ev E. Alors
1. F ∩ G est un sous-espace vectoriel de E.
2. F + G = {x + y où x ∈ F, y ∈ G} est un sous-espace vectoriel de E. On a l’égalité de
sous-espaces vectoriels suivante : F + G = Vect (F ∪ G).
3. F et G sont dits en somme directe lorsque F ∩ G = {0}. On note alors leur somme F ⊕ G.
Page 4/11
A nouveau, ce résultat devrait rappeler à votre mémoire le cardinal d’une union de parties finies :
Proposition 4.3 (Dimension d’une somme)
Soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie. Alors
• dim F + G = dim F + dim G − dim F ∩ G.
• F et G sont en somme directe ssi dim F + G = dim F + dim G.
Définition 4.4 (Supplémentaires)
Deux sous-espaces vectoriels F et G de E sont supplémentaires dans E lorsque E = F + G et
F ∩ G = {0}. On note alors F ⊕ G = E.
On appellera hyperplan tout sous-espace vectoriel qui admet une droite comme supplémentaire.
Tout sous-espace vectoriel d’un espace vectoriel E de dimension finie possède un supplémentaire
(une infinité en fait).
Proposition 4.5 (Caractérisation des supplémentaires)
Si F et G sont deux sous-espaces vectoriels quelconques de E, nous avons l’équivalence entre les
trois propriétés suivantes :
— F ⊕G=E;
— F + G = E et dim F + dim G = dim E.
— F ∩ G = {0E } et dim F + dim G = dim E.
— ∀z ∈ E, ∃!(x, y) ∈ F × G tel que z = x + y.
Définition 4.6
Soit E1 , . . . , Ep une famille finie de sous-espaces vectoriels de E, et H = E1 + · · · + Ep . On dit
que ces sous-espaces vectoriels sont en somme directe lorsque tout vecteur de H se décompose de
manière unique comme une somme de vecteurs de Ei .
Proposition 4.7
On a équivalence entre :
p
Ei = ⊕pi=1 Ei , et
X
—
i=1 Pp
— Pour tout (x1 , . . . , xp ) ∈ E1 × · · · × Ep , si i=1 xi = 0E , alors tous les xi sont égaux à 0E .
R EMARQUES :
— Si E admet une décomposition en somme directe E = ⊕Ei , on obtient une base de E en réunissant des
bases des Ei . Une telle base de E est dite adaptée à al décomposition E = ⊕Ei .
Xp Xp
— Si E = Fi , alors dim E 6 dim Fi .
i=1 i=1
De plus, on a égalité si et seulement si la somme est directe.
...........................................................................................................................................................................................................................................................................................................................................
Page 5/11
5 LA LINÉARITÉ
E XEMPLES :
— f : R → R est une application linéaire ⇐⇒ il existe a ∈ R tel que f : x ∈ R 7→ ax ∈ R.
— Les homothéties sur E, i.e les applications qui s’écrivent λIdE , où λ ∈ K sont linéaires.
— Soit x0 ∈ R. On appelle opérateur d’évaluation en x0 l’application
...........................................................................................................................................................................................................................................................................................................................................
Page 6/11
6 S TRUCTURE , I MAGE ET N OYAU
Rappelons les deux notions d’image directe et d’image inverse d’un ensemble par une application
quelconque, centrales pour exprimer simplement des notions ensemblistes.
R EMARQUES :
B f : E → F et X ⊂ E. On note
L’image de E est f (E). On la note Im f . Rappelons enfin que f est surjective ssi Im f = E.
B f : E → F et Y ⊂ F . On note
Dans le cadre linéaire, ces deux notions sont compatibles avec la structure :
Propriétés 6.2
Soient E et F deux K− espaces vectoriels , et f : E → F une application linéaire.
1. Soit W un sous-espace vectoriel de F . L’image inverse f −1 (W ) de W par f est un sous-espace
vectoriel de E.
2. Soit V un sous-espace vectoriel de E. L’image directe f (V ) de V par f est un sous-espace
vectoriel de F .
Pour montrer qu’un ensemble est un sous-espace vectoriel , il suffira bien souvent de prouver que
c’est l’image ou le noyau d’une application linéaire :
Corollaire 6.3 (L’image et le noyau sont des sous-espaces vectoriels )
Soient E et F deux K− espaces vectoriels , et f : E → F une application linéaire. Alors :
n o
1./ ker f = x ∈ E tels que f (x) = 0F est un sous-espace vectoriel de E. On l’appelle le noyau
de f .
2./ Im f = f (E) = {f (x) où x ∈ E} est un sous-espace vectoriel de F . Autrement dit :
Page 7/11
E XEMPLES :
— L’ensemble des solutions du système linéaire homogène associé à une matrice A ∈ Mn,p est le noyau de
LA ∈ L (Rp , Rn ). On retrouve ainsi sa structure de sous-espace vectoriel de Rp . On parlera souvent du
noyau de la matrice A, plutôt que du noyau de l’application linéaire canoniquement associée à A.
— {f ∈ F (R, R) telles que f (π) = 0} est le noyau de l’opérateur d’évaluation en π.
Z 1
— f ∈ F (R, R) telles que f (t)dt = 0 est le noyau de l’intégrale.
0
xp
2./ L’image de LA est Vect (C1 , . . . , Cp ), sous-espace vectoriel de Kn .
Ainsi, toute combinaison linéaire nulle des vecteurs colonne de A présente deux intérêts : elle fournit
à la fois un vecteur du noyau de A, et permet d’éliminer un des vecteurs colonnes lorsque l’on cherche
à extraire de (C1 , . . . Cp ) une base de l’image de A.
Dans le cadre linéaire, l’injectivité et la surjectivité d’une application se traduit par des égalités de
sous-espaces vectoriels :
Proposition 6.5 (Injectivité et surjectivité d’une application linéiare)
Soient E et F deux K− espaces vectoriels , et f : E → F une application linéaire. Alors :
— f est injective ⇐⇒ ker f = {0E }.
— f est surjective ⇐⇒ f (E) = F .
...........................................................................................................................................................................................................................................................................................................................................
7 L INÉARITÉ EN DIMENSION FINIE
Pour toute famille E = (e1 , . . . ep ) de E, on appelle image de E par l’application linéaire f la famille
(f (e1 ), . . . , f (ep )).
Si e1 , . . . ep est une base de E, alors Im f = Vect f (e1 ), . . . f (ep ) ,
Page 8/11
R EMARQUES :
1./ Les deux notions de rang (celle des familles et celle des applications linéaires) coïncident dans le cas suivant :
Si e1 , . . . ep est une base de E, alors Rang f = Rang f (e1 ), . . . f (ep ) .
2./ L’image d’une base quelconque de E par f peut donner beaucoup d’informations sur f :
Soit f ∈ L (E, F ), (e1 , . . . , en ) une base de E. Alors,
— (f est injective) ⇐⇒ (f (e1 , . . . , f (en )) est libre.
— (f est surjective) ⇐⇒ (f (e1 , . . . , f (en )) est génératrice de F.
— (f est bijective) ⇐⇒ (f (e1 , . . . , f (en )) est une base de F.
Donnons-en une version plus fine, au programme, mais beaucoup moins usitée :
Théorème 7.3 (du rang, version forte)
Soit E un espace vectoriel de dim finie, F un espace vectoriel , et f ∈ L (E, F ). Soit de plus, G
un supplémentaire de ker f dans E. Alors, l’application G −→ Im f est un isomorphisme.
x 7−→ f (x)
Considérons maintenant les applications bijectives entre deux espaces vectoriels de même dimen-
sion finie.
Théorème 7.5
Soient E et F deux K− espaces vectoriels tels que dim E = dim F = n ∈ N, et f ∈ L (E, F ). Alors,
E XEMPLES :
1. Un cas à retenir, car il est sous-jacent aux merveilleux polynomes d’interpolation de Lagrange : Si
a0 , . . . , an ∈ K sont distincts deux à deux, alors Ψ Kn [X] −→ Kn+1 est bijective.
P 7−→ P (a0 , . . . , P (an )
2. C’est FAUX en dimension infinie, par exemple la dérivation sur R[X] est surjective mais pas injectif.
Page 9/11
Définition 7.6 (Groupe linéaire)
Soit E un K− espace vectorielde dimension
finie. On note GL(E) l’ensemble des isomorphismes
de E. C’est un sous-groupe de Bij(E), ◦ .
R EMARQUES :
Soit n ∈ N∗ . Tout K- espace vectoriel de dimension n est isomorphe à Kn .
...........................................................................................................................................................................................................................................................................................................................................
8 D ES EXEMPLES CENTRAUX
§ 1. Projecteurs et symétries.— Il est absolument nécessaire d’avoir en tête LE dessin qui résume
toutes les propriétés.
Définition 8.1 (PROJECTEURS)
Soit E un espace vectoriel . On appelle projecteur de E tout endomorphisme f ∈ L (E) qui vérifie
f ◦ f = f.
Page 10/11
§ 2. Hyperplans et formes linéaires.— Proposition 8.3
Soit E un K− espace vectoriel de dimension finie n. Alors
1. Un sous-espace vectoriel H de E est un hyperplan ⇐⇒ il existe une forme linéaire non nulle
ϕ sur E telle que H = ker ϕ.
2. Un hyperplan H est à la fois le noyau de la forme linéaire ϕ et de la forme linéaire ψ ⇐⇒ ϕ et
ψ sont colinéaires. Ce qui signifie que deux équations linéaires définissant le même hyperplan
H de Rn sont proportionnelles.
3. L’intersection de m hyperplans de E est de dimension > n − m.
4. Pour tout sous-espace vectoriel G de E de dimension n − m, il existe m formes linéaires
ψ1 , . . . , ψm de E telles que G = ker ψ1 ∩ · · · ∩ ker ψm .
E XERCICES :
1 2
1./ CCP 60 Soit la matrice A = et f l’endomorphisme de M2 (R) défini par f (M ) = AM .
2 4
(a) Déterminer ker f .
(b) f est-il surjectif ?
(c) Trouvez une base de ker f et une base de Im f .
2./ CCP 62
Soit E un espace vectoriel sur R ou C et f et g deux endomorphismes de E tels que f ◦ g = id.
(a) Démontrer que ker(g ◦ f ) = ker f .
(b) Démontrer que Im (g ◦ f ) = Im g.
(c) Démontrer que E = ker f ⊕ Im g.
3./ CCP 64
Soit f un endomorphisme d’un espace vectoriel E de dimension n.
(a) Démontrer que E = Im f ⊕ ker f =⇒ Im f = Im f 2 .
(b) i. Démontrer que : Im f = Im f 2 ⇐⇒ ker f = ker f 2 .
ii. Démontrer que : Im f = Im f 2 =⇒ E = Im f ⊕ ker f .
Page 11/11
Année scolaire
Proposition 1.2 — Coefficients du polynôme nul • la fonction P ◦ Q est une fonction polynôme.
Les coefficients du polynôme nul sont tous nuls.
Corollaire 2.2 — Les ensembles K[x] et Kn [x] sont deux sous-espaces vectoriels
Corollaire 1.3 — Base canonique de Rn [x ] de l’ensemble des fonctions de K dans K.
La famille de fonctions polynômes (x → 1, x → x, x → x 2 , . . . , x → x n ) est libre.
Cette famille étant une famille génératrice de Kn [x], c’est donc une base de Kn [x]. Propriété 2.3 — Polynôme dérivé
Soit P ∈ K[x], P non nul, s’écrivant
Théorème 1.4 — Théorème fondamental sur les polynômes
∀x ∈ K, P(x) = a0 + a1 x + a2 x 2 + · · · + an x n
Deux fonctions polynômes sont égales sur K si et seulement si leurs coefficients sont
égaux. avec n ∈ N et (a0 , a1 , . . . , an ) ∈ Kn+1 .
Le polynôme dérivé du polynôme P est la fonction avec n ∈ N et (a0 , a1 , . . . , an ) ∈ Kn+1 .
L’ensemble des entiers {k ∈ N tel que ak 6= 0} admet un plus grand élément : c’est
∀x ∈ K, P 0 (x) = a1 + 2a2 x + · · · + nan x n−1 le degré du polynôme P.
• an est alors le coefficient de plus haut degré de P ;
Propriété 2.4 — Propriété de la dérivation de polynômes • an x n son le monôme de plus haut degré de P.
Soient P et Q deux fonctions polynômes et λ ∈ K Si P est le polynôme nul, on définit par convention son degré comme étant −∞.
Définition 3.1 — Degré d’un polynôme non nul Propriété 3.5 — Degré du polynôme dérivé
Soit P un polynôme non nul s’écrivant Si P est une fonction polynôme non constante, alors d◦ (P 0 ) = d◦ (P) − 1.
Si P est constant alors P 0 est nul.
∀x ∈ K, P(x) = a0 + a1 x + a2 x 2 + · · · + an x n
IV — Racines Corollaire 4.7 — Deux fonctions polynômes sont égales en un nombre infini de
points de K si et seulement si leurs coefficients sont égaux.
Théorème 4.2 — Théorème de d’Alembert 1. α est racine d’ordre au moins r de P si et seulement si P est factorisable par
Soit P ∈ C[x] un polynôme non constant. (x − α) r .
Le polynôme P admet au moins une racine dans C. 2. α est racine d’ordre r si et seulement si P est factorisable par (x − α) r mais pas
par (x − α) r+1 . L’entier r est l’ordre de multiplicité de la racine α.
Théorème 4.3 — Factorisation et racine 3. La racine α est racine multiple si son ordre de multiplicité est au moins 2, racine
Soit P ∈ K[x] et α une racine de P. Il existe un polynôme Q tel que : simple sinon.
∀x ∈ K, P(x) = (x − α) × Q(x)
Proposition 4.9 — Ordre de multiplicité et factorisation
Le polynôme P est dit factorisable par (x − α). Soit P un polynôme et α une racine de P d’ordre de multiplicité r. Il existe un poly-
nôme R tel que
Les bases
E XEMPLES
.1 L’opérateur LA
Toute application linéaire de Rp dans Rn est l’application linéaire canoniquement associée à une matrice.
Plus clairement,
Proposition .1
Soient n, p ∈ N∗ . L’application Ψ Mn,p (K) −→ L (Kp , Kn ) est un isomorphisme de K−algèbres.
A 7−→ LA
.2 Produit
Définition .3 (Produit de Matrices)
Soient n, p, m ∈ N∗ , A ∈ Mn,p (K), B ∈ Mp,m (K). La matrice C ∈ Mn,m (K) définie par la formule
p
X
∀i, j ∈ [[1, n]] × [[1, m]], ci,j = ai,k bk,j ,
k=1
On peut tout de suite énoncer, car c’est pour obtenir cette relation que nous avons construit ce produit :
Proposition .4
Soient n, p, m ∈ N∗ , A ∈ Mn,p (K), B ∈ Mp,m (K). Alors LA×B = LA ◦ LB .
Page 1/8
E XEMPLES
B In A = AIp = A.
B AB a sa j−ème colonne nulle si la j−ième colonne de B l’est, et sa j−ème ligne nulle si la j−ième
ligne de A l’est.
B A × B = (AC1 , . . . , ACn ) où (C1 , . . . , Cn ) sont les colonnes de B.
B Si C et L sont un vecteur colonne et un vecteur ligne, CL ∈ Mn est de rang 1 et LC n’est rien d’autre
qu’un réel.
B AB 6= BA, avec E12 et E11 .
B L’anneau n’est pas intègre, avec le même exemple. D’ailleurs E12 est nilpotente.
B Eij × Ekl = δjk Eil .
B Soit A une matrice
carrée. LA est un projecteur ⇐⇒ A2 = A
B Soit A = aij et D = Diag (d1 , . . . , dn ). ALors
DA = di aij et AD = dj aij .
B Vu en TD : le commutant d’une matrice M est un sous-espace vectoriel de Mn . Il est égal à Mn si
et seulement si M est une homothétie, i.e ssi M ∈ Vect In .
Remarques :
Calcul de certaines suites récurrentes :
B Soient (xn )n∈N et (yn )n∈N deux suites réelles, vérifiant la relation de récurrence linéaire suivante :
n x
n+1 = −9xn −18yn
yn+1 = 6xn +12yn
avec x0 = −137 et y0 = 18. Il s’agit de déterminer les termes généraux de ces deux suites en fonction
de n, et non plus en fonction des termes
qui les
précèdent.
Traduisons ce problème en termes
−9 −18 xn
matriciels : en posant A = , et Un = pour tout n ∈ N, on voit que la formule de
6 12 yn
récurrence croisée qui régit nos deux suites devient une formule de récurrence simple portant sur
un vecteur de R2 : Un+1 = AUn , pour tout n ∈ N. On déduit aisément de ceci l’expression de Un en
fonction de A, de U0 et de n : Un = An U0 . Ainsi le calcul de Un se ramène à celui des puissances
de A. Nous verrons plus loin des méthodes pour calculer ces puissances.
B Soit (xn ) une suite vérifiant
∀n ∈ N, un+2= aun+ bvn , où a, b ∈ C et b 6= 0. Cett relation est
0 1 un
équivalente à Xn+1 = Xn , où Xn = .
a b un+1
.3 Inversibilité
Définition .6
A ∈ Mn (K) est dite inversible s’il existe B ∈ Mn (K) telle que AB = BA = In . B est alors unique, et notée
A−1 . On note GLn (K) l’ ensemble des matrices inversibles.
Théorème .7
Soit A ∈ Mn (K). on a l’équivalence entre toutes les propriétés suivantes :
A est inversible ⇔ LA est bijective ⇔ ker A = {0} ⇔ Rang A = n ⇐⇒ det A 6= 0.
Exemples de produits :
Page 2/8
a b
B Une matrice ∈ M2 (K) est inversible ⇐⇒ son déterminant est non nul. Alors,
c d
−1
1
a b d −b
= .
c d det A −c a
B Soient A, B ∈ Mn (K) deux matrices inversibles. Alors leur produit A × B est ausi inversible et
(A × B)−1 = B −1 × A−1 .
Lignes et colonnes
On sera souvent conduit à mutiplier une matrice A par une matrice inversible dès que l’on s’intéressera aux
endomorphismes. Le point essentiel de cette opération est qu’elle préserve le rang. Plus précisément :
Proposition .10 (Conservation du rang)
Soit A ∈ Mn,p . Alors :
1. ∀P ∈ GLn , ker P × A = ker A.
2. ∀Q ∈ GLp , Im A × Q = Im A.
3. ∀P ∈ GLn , ∀Q ∈ GLp , Rang P AQ = Rang A .
Remarques :
Rappelons quelques faits énoncés lors de la définition du produit matriciel. Soit A ∈ Mn,p . Notons Cj
ses colonnes et Li ses lignes. Les Ei,j sont les matrices élémentaires, de taille convenable pour que les
produtis que nous effectuons soient licites.
0
0
I Multiplication à gauche : Eij A = Lj , la ligne Lj apparaissant à la i−ème place.
..
.
0
I Multiplication à droite : AEij = 0, . . . , Ci , . . . 0 , la colonne Ci apparaissant à la j−ème place.
Rappelons que nous avons défini trois opérations élémentaires sur A lors de l’algorithme de Gauss.
Définissons trois types de matrices simples :
Définition .11 (de Pij , Ei (α), Eij (α))
B Soit i ∈ [[1, n]] et α ∈ K∗ . Ei (α) = Diag (1, . . . , 1, α, 1 . . . , 1) est la matrice identité où l’on a remplacé le
i−ème coefficient par c sur la diagonale.
B Soient i 6= j ∈ [[1, n]]. Pij est la matrice identité où l’on a permuté les colonnes (ou les lignes) i et j
B Soient i 6= j ∈ [[1, n]], α ∈ K. Eij (α) = In + αEij .
Page 3/8
Ces trois types de matrices sont inversibles et stables par passage à l’inverse :
Faire des opérations élémentaires sur les colonnes de A revient à multiplier A à droite par une suite de
matrices inversibles :
Proposition .12 (Manipulation élémentaire et produit matriciel)
Soit A ∈ Mn,p (K).
Ci ←Ci +αCj
1. Si A −−−−−−−−→ B, alors B = A × Eji (α).
C ←αC
2. Si A −−i−−−→
i
B, alors B = A × Ei (α).
Ci ↔Cj
3. Si A −−−−−→ B, alors B = A × Pij .
1. t (t A) = A.
2. La transposée est linéaire.
3. Pour tout A ∈ Mn,p (K), B ∈ Mp,q (K), t (AB) = t B t A.
4. Si A est inversible, alors t (A−1 ) = (t A)−1 .
Corollaire .15
Soit A une matrice n × p. Alors
1. A et t A ont même rang.
2. le rang de la famille des p colonnes de A est égal à celui des n lignes de A.
Page 4/8
E XEMPLES
1
n(n−1) n
Dans Rn [X], B est la base canonique et P (X) = (X + 1)n . Alors Mat B (P ) = 2 .
.
..
1
La construction de cette matrice s’effectue selon les colonnes. La colonne 1 nous est donnée par l’image du
premier vecteur de B par f .
E XEMPLES
B f : P ∈ R3 [X] 7→ P(X +1) ∈ R3 [X] dans la base canonique B0 , puis la base B1 = X(X −1), X(X −
2), (X − 1)(X − 2) .
0
B Même question
avec g : P ∈ Rn [X]
7→ P ∈ Rn [X] dans la base canonique.
x x+y
B Soit f : y ∈ R2 7→ x − z ∈ R3 . Ecrire la matrice de f dans la base canonique de R3 .
z 2y − 3z
MORALITE : Dans le cours sur les applications linéaires, nous avions construit une application
L Mn (R) −→ L (Rn ) .
A 7−→ LA
∀f ∈ L (Rn ), LMat B (f ) = f,
0
Proposition .18
Soit E un espace vectoriel de dimension n et f ∈ L (E). Alors,
Page 5/8
1. f est un projecteur de E ⇐⇒ il existe une base B de E dans laquelle
Ψ L (E) −→ Mn (K)
f 7−→ Mat E (f )
E XEMPLES
B L’application linéaire associée à l’évaluation lagrangienne, qui conduit à une matrice de Van Der Monde.
Propriétés .22
Soit E = (e1 , . . . , ep ) une base de E, et F = (f1 , . . . , fn ) une base de F L’application
Ψ L (E, F ) −→ Mn,p (K
f 7−→ Mat E ,F (f )
est un isomorphisme de K−algèbres.
Proposition .23
Soient E , F , G des bases des espaces vectoriels E, F, G.
I Si f ∈ L (E, F ) et g ∈ L (F, G), alors MatE ,G (g ◦ f ) = MatF ,G (g) × MatE ,F (f ).
k
I Si f ∈ L (E), alors pour tout k ∈ N, MatE (f k ) = (MatE (f )) .
Proposition .24
Si A est la matrice de f dans une base (ou un couple de bases), alors Rang A = Rang f .
Page 6/8
Remarques :
Il faut savoir interpréter les blocs de zéros dans la matrice de f comme la stabilité de sous-espaces
vectoriels stables. Par exemple,
I La matrice d’un endomorphisme f de E est triangulaire ⇔ pour tout k ∈ [[1, n]], Vect (e1 , ...ek ) est
stable par f .
A B
I Soit E = (e1 , . . . , en ). MatE (f ) est de la forme , où A est carrée de taille k ⇔
0 C
Vect (e1 , ..., ek ) est stable par A.
I Si E = ⊕ni=1 Fi , si tous les Fi sont stables par f et si B est une base adaptée à cette décomposition
de E, alors la matrice de f dans la base B est diagonale par blocs.
.5 Changements de base
Les deux relations que nous allons définir sont des relations d’équivalence sur l’espace des matrices.
I Deux matrices A, B ∈ Mn (K) sont dites semblables lorsque il existe P ∈ GLn telle que B = P −1 AP .
L’ensemble des matrices semblables à A est appelée classe de similitude de A.
Dans ce cas, pour tout k ∈ N, B k = P −1 Ak P .
I Deux matrices A, B ∈ Mn,p (K) sont dites équivalentes lorsque il existe P ∈ GLp et Q ∈ GLn telles que
B = Q−1 AP .
Proposition .25
1. Si A et B sont semblables, elles sont équivalentes.
2. Si A et B sont semblables, elles ont même trace, même déterminant, même rang.
Deux matrices équivalentes n’ont pas forcément même trace, ni même déterminant. En revanche, elles ont
même rang, et même :
Théorème .26
Deux matrices sont équivalentes ⇐⇒ elles ont même rang. En particulier, si on note r le rang de M , M est
semblable à Diag(1, . . . , 1, 0, . . . , 0), matrice qui contient exactement r coefficients égaux à 1.
Définition .27
Soit E un ev de dimension n et B, B 0 deuxPn bases de E. On appelle matrice de passage de B à B 0 et on note
B0 B0
PB = (ai,j ) ∈ Mn , où ∀j ∈ [[1, n]], ej = i=1 aij ei . PB = Mat B0 ,B (Id).
0
Proposition .28
Soient B1 , B2 , B3 trois bases de E.
B1
1. PB1
= In
B2 B3 B3
2. PB1
× PB 2
= PB1
.
B2 B2 B1 −1
3. PB1
∈ GLn (K) et PB1
= (PB 2
) .
Réciproquement, si on se fixe B, l’application qui à B 0 associe P est bijective dans GLn , i.e toute matrice
inversible peut être vue comme une matrice de passage.
Théorème .29 (de changement de base)
I Pour les vecteurs : Soit x ∈ E, X, X 0 ses matrices coordonnées dans les bases B et B 0 de E. Alors
B0
X 0 = PB X.
I Pour les endomorphismes : Soient B et B 0 deux bases de E, f ∈ L (E), M = MatB (f ) et M 0 =
0
MatB0 (f ). Alors, si on note P = PBB , on a M 0 = P −1 M P .
Page 7/8
I Pour les applications linéaires : Soient B et B 0 deux bases de E, F et F 0 deux bases de F ,f ∈
0 0
L (E, F ), M = MatB,calf (f ) et M 0 = MatB0 ,F 0 (f ). Alors, si on note P = PBB , P = PFF on a
M 0 = Q−1 M P .
.6 Le déterminant, la Trace
.7 Les polynômes
E XERCICES
1./ Montrer que l’ensemble des matrices qui commutent avec A = Diag(1, 2, . . . , n) est l’ensemble des
polynômes en A.
0 0 0 −1 0 0
2./ Montrer que 1 1 −1 est semblable à 0 0 0.
2 2 −2 0 0 0
2a a 0
a ... ... 0
3./ Pour a ∈ K∗ , calculer dn = .
.. ..
. . a
0 a 2a
4./ Soit θ ∈ R, n ∈ N∗ . Décomposer en produit d’irréductibles dans C[X] puis dans R[X] le polynôme
P (X) = X 2n − 2X n cos(nθ) + 1.
Page 8/8
PSI***
Année scolaire
Déterminant 2018/2019
det(B) = − det(A).
det(B) = det(A).
det(B) = λ det(A).
Propriété
Soient A et B deux éléments de Mn (K). Alors det(AB) = det(A) det(B).
Propriété
1
Si A est inversible, det(A−1 ) = .
det(A)
Propriété
Deux matrices semblables ont le même déterminant.
Propriété
Si A est une matrice carrée, on a det(A) = det(tA).
Corollaire
Toutes les propriétés du déterminant par rapport aux colonnes sont également vraies
par rapport aux lignes.
1
2. Déterminant d’une famille de vecteurs
Soient E un K-espace vectoriel de dimension finie n et B une base de E.
Propriété
Soit u ∈ L (E). Toutes les matrices représentant l’endomorphisme u ont le même
déterminant : si B et B ′ sont deux bases de E, si A = MatB (u) et B = MatB′ (u), alors
det(A) = det(B).
Propriété
Soient u et v deux endomorphismes de E.
• Pour tout λ ∈ K, det(λu) = λn det(u).
• det(u ◦ v) = det(u) × det(v).
• u est un isomorphisme si et seulement si det(u) 6= 0. Dans ce cas
1
det(u−1 ) = .
det(u)
4. Matrices triangulaires
Propriété – Déterminant d’une matrice triangulaire
Soit (ai,j )16i6j6n une famille de scalaires. Alors
a1,1 · · · ··· a1,n
.. .. Y n
0 . .
.. = ai,i
. . ..
.. .. . . i=1
0 ··· 0 an,n
2
5. Calculs de déterminants par blocs
Lemme
On suppose n > 2. Soit B ∈ Mn−1 (K), L ∈ M1,n−1 (K) et C ∈ Mn−1,1 (K). Alors les
matrices définies par blocs
1 L B C
A= et A′ =
0 B 0 1
Propriété
B C
Soit A une matrice carrée de la forme A = , avec B et D des matrices carrées.
0 D
Alors det(A) = det(B) × det(D).
Soit A ∈ Mn (K). Pour tout (i,j) ∈ [[1,n]]2 , soit Ai,j ∈ Mn−1 (K) la matrice obtenue en
supprimant la i-ème ligne et la j-ème colonne de A. Alors :
• Développement par rapport à la j-ième colonne :
n
X
det(A) = ai,j (−1)i+j det(Ai,j ).
i=1
3
PSI* Problème de révision n°1
Année scolaire
2018/2019
La notation R2 [X] désigne le R-espace vectoriel des polynômes à coefficients réels de degré inférieur
ou égaux à 2. On identifiera dans la suite de ce problème les éléments de R2 [X] et leurs fonctions
polynomiales associées. On note B = (1, X, X 2 ) la base canonique de R2 [X].
On définit les deux applications suivantes :
f : R2 [X] → R2[X]
1 X X +1
P 7→ P +P
2 2 2
et
φ : R2 [X] → R
P 7→ P (1)
1. Vérifier que f est bien à valeurs dans R2 [X] et montrer que f est linéaire.
1 14 18
A = 0 12 14
0 0 14
B 0 = (1, −2X + 1, 6X 2 − 6X + 1)
7. En déduire que : Z 1
n
∀P ∈ R2 [X], lim φ (f (P )) = P (t)dt.
n→+∞ 0
1/2
Partie III. Une autre preuve du résultat précédent
2. En déduire, en utilisant un résultat du cours d’analyse que l’on énoncera avec précision, que
Z 1
n
∀P ∈ R2 [X], lim φ (f (P )) = P (t)dt
n→+∞ 0
Fin de l’énoncé
2/2
PSI* Problème de révision n°1
Correction
Année scolaire
2018/2019
X X+1 X 1
2. f (1) = 1, f (X) = 4 + 4 = + 4 et
2
X 2 X 2 + 2X + 1
f (X 2 ) = + .
8 8
Ainsi la matrice de f dans la base B de R2 [X] est :
1 1/4 1/8
M atB (f ) = 0 1/2 1/4 .
0 0 1/4
3. La matrice M atB (f ) est triangulaire supérieure avec des coefficients non nuls sur la diagonale.
On en déduit qu’elle est inversible. En particulier f est un automorphisme de R2 [X]. Elle est
donc en particulier injective et surjective.
4. Pour tout P, Q ∈ R2 [X] et λ, µ ∈ R, on a :
Comme les vecteurs X(X −1) et X −1 ne sont pas colinéaires, on en déduit que (X(X −1), X −1)
est une base de Ker(φ), et donc que dim Ker(φ) = 2.
6. L’application φ n’est pas injective car Ker(φ) 6= {0E }. Elle est surjective car par le théorème
du rang rg(φ) = 1 = dim(R). Puisque Im(φ) ⊂ R, on a bien Im(φ) = R et φ est surjective.
1. La famille B 0 est de degré échelonnée, donc c’est une famille libre de 3 vecteurs de R2 [X]. Puisque
la dimension de R2 [X] est 3, on en déduit que c’est une base de cet espace.
1 1 1
2. Q = 0 −2 −6.
0 0 6
1/3
3. Q est inversible en tant que matrice de passage entre deux bases (ou parce que Q est triangulaire
supérieure à coefficients diagonaux non nuls). On calcule son inverse par le pivot de Gauss, on
obtient :
1 1/2 2/6
Q−1 = 0 −1/2 −3/6 .
0 0 1/6
1
4. f (1) = 1, f (−2X + 1) = −2f (X) + f (1) = (−2X + 1) et :
2
1
f (6X 2 − 6X + 1) = 6f (X 2 ) − 6f (X) + f (1) = (6X 2 − 6X + 1).
4
Ainsi on obtient :
1 0 0
M = 0 1/2 0 .
0 0 1/4
Reste à présent à faire le produit matriciel An = QM n Q−1 dont on connait tous les termes. On
trouve : 1 1
1 1 − 21n 1 + 21n
An = 0 2 1 3
2n 0
1
0 0 2n
f n+1 (P ) = f n ◦ f (P )
n 1 X X +1
=f P +P
2 2 2
2/3
1 n X n X +1
= f P +f P par linéarité de f n
2 2 2
X +k
n −1
1
2X
X +k
n
+ 1
= n+1 P +P 2 par hypothèse de récurrence
2 2 n+1 2
k=0
n −1
2X
X + k + 2n
1 X +k
= P +P
2n+1 2n+1 2n+1
k=0
n −1
2X 2n −1
X + k + 2n
1 X +k 1 X
= P + n+1 P
2n+1 2n+1 2 2n+1
k=0 k=0
n −1 2n+1
1
2X
X +k
1 X−1
X +k
= P + P par changement de variables
2n+1 2n+1 2n+1 2n+1
k=0 k=2n
2n+1
X−1
1 X +k
= P
2n+1 2n+1
k=0
On reconnait une somme de Riemann associée à P entre 0 et 1. P étant une fonction continue
sur R, on en déduit que : Z 1
lim φ (f n (P )) = P (t)dt
n→+∞ 0
3/3
PSI* Problème de révision n°2
Année scolaire
2018/2019
Soit E un K-espace vectoriel et u ∈ L(E) un endomorphisme non nul. Notons pour tout k ∈ N :
Nk = Ker(uk ) et Ik = Im(uk ).
II. Monotonie
1. Montrer que pour tout k ∈ N, Nk et Ik sont des sous-espaces vectoriels de E stables par u.
3. On suppose qu’il existe un entier naturel p tel que Np = Np+1 . Montrer que pour tout entier
naturel k, Np = Np+k .
4. On suppose qu’il existe un entier naturel q tel que Iq = Iq+1 . Montrer que pour tout entier
naturel k, Iq = Iq+k .
3. Montrer que p = q ≤ n.
4. Montrer que E = Np ⊕ Ip .
1/2
6. Facultatif. Pour tout k ∈ N, on note δk = ik − ik+1 .
1. (a) Donner un exemple d’espace vectoriel E et d’endomorphisme u de E où la suite (Nk ) est
constante à partir d’un certain rang et la suite (Ik ) est strictement décroissante (au sens
de l’inclusion).
(b) Même question avec la suite (Nk ) strictement croissante (au sens de l’inclusion) et la suite
(Ik ) constante à partir d’un certain rang.
2. On suppose que les suites (Nk ) et (Ik ) sont constantes à partir d’un certain rang, et on introduit
les entiers p et q définis comme en II. 1. et 2..
Fin de l’énoncé
2/2
PSI* Problème de révision n°2
Correction
Année scolaire
2018/2019
1. Tout d’abord, rappelons qu’une telle application linéaire u existe et est unique (cours - définition
d’une application linéaire par l’image d’une base).
⇔b=c=0
Enfin une base de N1 est donnée par (e1 ) (un vecteur non nul donc libre, et génératrice),
et une base de I1 est donnée par ((e1 + 2e2 + 3e3 ), e1 ) (deux vecteurs non colinéaires donc
famille libre, et génératrice).
k = 2. On a :
u2 (e1 ) = 0E , u2 (e2 ) = u(e1 +2e2 +3e3 ) = 2(e1 +2e2 +3e3 )+3e1 = 5e1 +4e2 +6e3 , u2 (e3 ) = 0E .
Enfin une base de N2 est donnée par (e1 , e3 ) et une base de I2 est donnée par (5e1 +4e2 +6e3 ).
1
k ≥ 3. On a :
u3 (e1 ) = 0E , u3 (e2 ) = u(5e1 +4e2 +6e3 ) = 4(e1 +2e2 +3e3 )+6e1 = 2(5e1 +4e2 +6e3 ), u2 (e3 ) = 0E .
Alors :
II. Monotonie
Rappel. Un sous-espace vectoriel F d’un espace vectoriel E est stable par u ∈ L(E) si u(F ) ⊂ F .
Important. Lorsqu’un sous-espace vectoriel F est stable par u ∈ L(E), u induit un endomorphisme
de F . Il est souvent très utile de considérer cet endomorphisme induit !
Preuve.
2
g(Im(f )) ⊂ Im(f ). Soit y ∈ Im(f ), il existe x ∈ E tel que y = f (x). Alors on a :
y = uk (u(x)) ∈ Im(uk ).
Ainsi on a bien y ∈ Ik .
Np ⊂ Np+1 ⊂ · · · ⊂ Np+k ,
Iq+k ⊂ Iq+k−1 ⊂ · · · ⊂ Iq ,
3
III. En dimension finie
1. La suite des dimensions (nk ) est une suite d’entiers naturels croissante d’après II.2., et majorée
par n = dim(E). Elle est donc constante à partir d’un certain rang, et il existe s ∈ N tel que
ns = ns+1 . Dès lors on a : (
ns = ns+1
⇒ Ns = Ns+1 .
Ns ⊂ Ns+1
Considérons p le plus petit entier tel que Np = Np+1 (un tel entier existe car A = {k ∈ N/Nk =
Nk+1 } est une partie non vide (contient s) de N). Alors on a :
2. La suite des dimensions (ik ) est une suite d’entiers naturels décroissante d’après II.2.. Elle est
donc constante à partir d’un certain rang, et il existe t ∈ N tel que it = it+1 . Dès lors on a :
(
it = it+1
⇒ It = It+1 .
It+1 ⊂ It
Or la suite (ik ) est strictement décroissante puis constante à partir du rang q, (nk ) est strictement
croissante puis constante à partir du rang p. Comme enfin ∀k ∈ N, ik = n − nk , on a bien que
p = q.
Enfin comme 0 = n0 < n1 < · · · < np ≤ n, on a :
Donc x appartient à Ker(u2p ), qui est égal à Ker(up ) par définition de p. On obtient :
y = up (x) = 0E .
5. On sait déjà que u induit des endomorphismes sur Np et Ip (car ces s.e.v sont stables par u).
Considérons la restriction ũ de u à Np . Alors pour tout x ∈ Np , ũp (x) = up (x) = 0E . Ainsi ũ
est un endomorphisme nilpotent. Comme de plus Np−1 Np , alors il existe x ∈ Np \ Np−1 , et
on a ũp−1 (x) = up−1 (x) 6= 0E . Donc l’indice de nilpotence de ũ est p.
Considérons la restriction ū de u à Ip . Montrons que ū est un automorphisme de Ip . Comme on
est en dimension finie, il suffit de montrer que ū est injective. Soit donc x ∈ Ip tel que ū(x) = 0E .
Alors on a :
u(x) = 0E ⇒ x ∈ Ker(u).
4
Ainsi on a x ∈ N1 ∩ Ip . Or on a vu que N1 ⊂ Np , donc x ∈ Np ∩ Ip = {0E }. On a donc bien
x = 0E , et ū est bien un automorphisme de Ip .
Remarque. Dans la deuxième partie de cette question, on a procédé comme dans la preuve du
théorème du rang.
6. (a) Par le théorème du rang appliqué à uk , on a n = ik + nk pour tout k ∈ N. Ainsi, on obtient
:
δk = ik − ik+1 = (n − nk ) − (n − nk+1 ) = nk+1 − nk .
(b) On a montré que Ik+1 ⊂ Ik . De plus Ik est de dimension finie. Par le cours, on obtient
l’existence d’un supplémentaire Dk de Ik+1 dans Ik :
Ik = Ik+1 ⊕ Dk .
En prenant les dimensions, on obtient dim(Dk ) = ik − ik+1 = δk .
(c) On a Ik+1 = u(Ik ) = u(Ik+1 + Dk ) = u(Ik+1 ) + u(Dk ) = Ik+2 + u(Dk ).
Justifions la troisième égalité, en montrant que si u ∈ L(E) et F, G sont des sous-espaces
vectoriels de E, alors :
u(F + G) = u(F ) + u(G).
En effet pour z ∈ E, on a :
z ∈ u(F + G) ⇔ ∃x ∈ (F + G), z = u(x)
⇔ ∃(x1 , x2 ) ∈ F × G, z = u(x1 + x2 )
⇔ ∃(x1 , x2 ) ∈ F × G, z = u(x1 ) + u(x2 )
⇔ z ∈ u(F ) + u(G)
Finalement, on a :
n = np = np − n0 = (np − np−1 ) + (np−1 − np−2 ) + · · · + (n1 − n0 )
= δp−1 + δp−2 + · · · + δ0 = p
L’indice de nilpotence de u est donc n.
5
III. Cas de la dimension quelconque (facultatif )
1. Dans cette question on considère E = KN l’espace vectoriel des suites réelles ou complexes. On
note une suite u = (un ) sous la forme d’une liste infinie u = (u0 , u1 , u2 , . . . ).
(a) On considère l’application R : KN → KN suivante, appelée shift à droite :
R : u = (un ) 7→ R(u) = (0, u0 , u1 , u2 , . . . ).
On vérifie sans difficulté que R est une application linéaire injective (montrez le !). On
sait alors (cours sur les applications, ou on le vérifie directement) que Rk est aussi une
application linéaire injective. Ainsi Nk = Ker(Rk ) = {0KN } pour tout k ∈ N et la suite
(Nk ) est constante.
Regardons Ik pour k ∈ N :
Ik = {Rk (u)/u ∈ KN } = {(0, . . . , 0, u0 , u1 , . . . )/ui ∈ K}
| {z }
k fois
N
= {u ∈ K /u0 = u1 = · · · = uk−1 = 0}.
La suite (Ik ) est bien strictement décroissante pour l’inclusion.
(b) On regarde maintenant l’application L : KN → KN suivante, appelée shift à gauche :
L : u = (un ) 7→ R(u) = (u1 , u2 , u3 , . . . ).
On vérifie sans difficulté que L est une application linéaire surjective (montrez le !). Alors
Lk est aussi une application linéaire surjective. Ainsi Ik = Im(Lk ) = KN pour tout k ∈ N
et la suite (Ik ) est constante.
Regardons Nk pour k ∈ N. Soit u = (u0 , u1 , u2 , . . . ) ∈ KN :
u ∈ Nk ⇔ Lk (u) = 0KN
⇔ (uk , uk+1 , uk+2 , . . . ) = 0KN
⇔ ∀s ≥ k, us = 0
La suite (Nk ) est bien strictement croissante pour l’inclusion.
2. (a) Supposons que (Nk = Nk+1 et Ik+1 = Ik+2 ). Montrons que Ik = Ik+1 . On a déjà que
Ik ⊃ Ik+1 , reste à montrer l’autre inclusion.
Soit y ∈ Ik , alors il existe x1 ∈ E tel que y = f k (x1 ). De plus, on a f (y) ∈ Ik+1 = Ik+2 .
Donc il existe x2 ∈ Ik+2 tel que f (y) = f k+2 (x2 ). On a ainsi
f (y) = f k+1 (x1 ) = f k+2 (x2 ).
En particulier, on a f k+1 (x1 − f (x2 )) = 0E et donc x1 − f (x2 ) ∈ Nk+1 = Nk . On a
donc f k (x1 − f (x2 )) = 0E . Finalement, on a
y = f k (x1 ) = f k+1 (x2 ).
Ainsi y ∈ Ik+1 et on a l’inclusion Ik ⊂ Ik+1 .
Supposons que (Ik = Ik+1 et Nk+1 = Nk+2 ). Montrons que Nk = Nk+1 . On a déjà
Nk ⊂ Nk+1 .
Soit y ∈ Nk+1 , alors f k (y) ∈ Ik = Ik+1 . Il existe donc x ∈ E tel que f k (y) = f k+1 (x).
Mais alors :
f k+2 (x) = f k+1 (y) = 0E .
Ainsi x ∈ Nk+2 = Nk+1 . On en déduit donc que f k (y) = f k+1 (x) = 0E et donc que y
appartient à Nk . D’où l’inclusion Nk+1 ⊂ Nk .
(b) On suppose donc l’existence de tels entiers p et q. On veut montrer que p = q (on a déjà
ce résultat en dimension finie).
si p < q, alors (Nq−1 = Nq et Iq = Iq+1 ). Par la question précédente, on aurait alors
Iq−1 = Iq , ce qui contredirait la définition (la minimalité) de l’entier q. Donc on a
p ≥ q.
si p > q, de même (Ip−1 = Ip et Np = Np+1 ), d’où Np−1 = Np ce qui contredit la
définition de p cette fois. Ainsi on a p ≤ q.
Finalement, on a bien p = q.
PSI* Problème de révision n°3
Année scolaire
2018/2019
Endomorphismes cycliques
Dans tout le problème, E désigne un K-espace vectoriel de dimension finie (K = R ou C).
Pour tout endomorphisme u de E, on note u0 = IdE (application identité de E), et pour tout entier
naturel k, uk+1 = uk ◦ u.
Si Q(X) = q0 + q1 X + · · · + qm X m ∈ K[X], on pose pour tout u ∈ L(E) :
On dit qu’un endomorphisme u de E est cyclique s’il existe un élément x0 ∈ E tel que :
Partie I. Exemples.
1. Dans cette question, on prend E = R3 . Considérons l’application suivante de R3 dans R3 :
(a) Soit P0 ∈ E un polynôme de degré d ≥ 0. Montrer que V ect(uk (P0 )/k ∈ N) = Rd [X].
(b) u est-il cyclique ?
(a) Montrer qu’il existe un vecteur x0 ∈ E tel que (x0 , u(x0 ), . . . , up−1 (x0 )) soit libre.
Que peut-on en déduire sur p ?
(b) En déduire que u est cyclique si et seulement si p = n.
1/2
2. (a) Justifier l’existence de (p0 , . . . , pn−1 ) ∈ Kn tels que :
(b) Déterminer l’image par l’endomorphisme P (u) des vecteurs de la base (x0 , u(x0 ), . . . , un−1 (x0 )).
En déduire que P (u) = 0L(E) .
On dit que P est un polynôme annulateur de u.
(c) Montrer que (IdE , u, . . . , un−1 ) est une famille libre de L(E).
(d) En déduire que :
il n’existe aucun polynôme non nul Q de degré strictement inférieur à n tel que Q(u) =
0L(E) ;
P est l’unique polynôme unitaire de degré n tel que P (u) = 0L(E) .
Le polynôme P est appelé le polynôme minimal de u.
(e) Application. Déterminer le polynôme minimal de l’endomorphisme u de la Partie I. 1.
2. Notons K[u] = {Q(u)/Q ∈ K[X]}. Montrer que K[u] est inclus dans C(u).
3. (a) Soient deux endomorphismes v et w de C(u). Montrer que, si v(x0 ) = w(x0 ), alors v = w.
(b) Soit v ∈ C(u).
i. Justifier l’existence de (a0 , . . . , an−1 ) ∈ Kn tel que v(x0 ) = an−1 un−1 (x0 ) + · · · +
a1 u(x0 ) + a0 x0 .
ii. Montrer que v = an−1 un−1 + · · · + a1 u + a0 IdE .
4. Décrire C(u).
Fin de l’énoncé
2/2
PSI* Problème de révision n°3
Correction
Année scolaire
2018/2019
Endomorphismes cycliques
Partie I. Exemples.
1. Dans cette question, on prend E = R3 . Considérons l’application suivante de R3 dans R3 :
u(λv + µw) = (6(λz1 + µz2 ), (λx1 + µx2 ) − 11(λz1 + µz2 ), (λy1 + µy2 ) + 6(λz1 + µz2 ))
= λ(6z1 , x1 − 11z1 , y1 + 6z1 ) + µ(6z2 , x2 − 11z2 , y2 + 6z2 )
= λu(v) + µu(w)
Ainsi, pour tout k ∈ N, uk (P0 ) ∈ Rd [X]. Comme de plus, Rd [X] est un espace vectoriel, on
obtient :
V ect(uk (P0 )/k ∈ N) ⊂ Rd [X].
De plus, V ect(uk (P0 )/k ∈ N) = V ect(uk (P0 )/0 ≤ k ≤ d), et la famille de polynômes
(P0 , u(P0 ), . . . , ud (P0 )) est échelonnée en degré. C’est donc une famille libre, et
dim(V ect(uk (P0 )/k ∈ N)) = d + 1. Comme on a dim Rd [X] = d + 1, on obtient finale-
ment :
V ect(uk (P0 )/k ∈ N) = Rd [X].
1/5
(a) Prenons x0 ∈ E tel que up−1 (x0 ) 6= 0E (existe car up−1 6= 0L(E) ). Montrons que
(x0 , u(x0 ), . . . , up−1 (x0 )) est libre : soient λ0 , λ1 , . . . , λp−1 ∈ K tels que :
λ0 x0 + λ1 u(x0 ) + · · · + λp−1 up−1 (x0 ) = 0E .
On applique up−1 à cette égalité :
λ0 up−1 (x0 ) = 0E ⇒ λ0 = 0( car up−1 (x0 ) 6= 0E ).
On obtient en remplaçant λ1 u(x0 ) + · · · + λp−1 up−1 (x0 ) = 0E . En appliquant up−2 , on
obtient λ1 = 0, et ainsi de suite, λk = 0 pour tout k.
Ainsi la famille (x0 , u(x0 ), . . . , up−1 (x0 )) est libre. Son cardinal est donc inférieur ou égal à
la dimension de E, soit p ≤ n.
(b) ⇒ Supposons que u est cyclique, alors il existe x0 ∈ E tel que :
E = V ect(uk (x0 )/k ∈ N) = V ect(x0 , u(x0 ), u2 (x0 ), . . . , up−1 (x0 )).
La famille (x0 , u(x0 ), u2 (x0 ), . . . , up−1 (x0 )) est donc génératrice, et son cardinal est
supérieur à la dimension de E, soit p ≥ n. Comme on a de plus p ≤ n, on obtient ainsi
que p = n.
⇐ Supposons que p = n. On sait qu’il existe x0 tel que (x0 , u(x0 ), . . . , un−1 (x0 )) soit une
famille libre. Comme elle est de cardinal n, c’est donc une base de E. Ainsi,
V ect(uk (x0 )/k ∈ N) = V ect(x0 , u(x0 ), u2 (x0 ), . . . , un−1 (x0 )) = E
et u est bien un endomorphisme cyclique.
1. (a) La famille (x0 , u(x0 ), . . . , un (x0 )) est de cardinal n + 1 dans un espace vectoriel E de di-
mension n, elle est donc liée.
(b) Tout d’abord, notons que comme E 6= {0E } et que E = V ect(uk (x0 )/k ∈ N), alors x0 6= 0E .
Considérons l’ensemble A = {k ∈ K/(x0 , u(x0 ), . . . , uk (x0 )) libre}. C’est un ensemble non
vide de N (car 0 ∈ A, la famille (x0 ) étant libre), et majorée par n ((x0 , u(x0 ), . . . , un (x0 ))
est liée, et toute surfamille de cette famille est donc liée). On en déduit qu’il existe un
entier p, maximal, pour lequel la famille (x0 , u(x0 ), . . . , up (x0 )) soit libre.
(c) Par définition de p, la famille (x0 , u(x0 ), . . . , up (x0 )) est libre et (x0 , u(x0 ), . . . , up (x0 ), up+1 (x0 ))
est liée. Par le cours, on sait alors que up+1 (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 ))
(d) On procède par récurrence.
Initialisation. Pour tout 0 ≤ k ≤ p, on a bien uk (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 ))
donc la propriété est vraie aux rang 0 ≤ k ≤ p. Elle est vraie également au rang p + 1
par la question précédente.
Hérédité. Soit k ≥ p et supposons la propriété vraie au rang k. Montrons la propriété
au rang k + 1.
Par hypothèse de récurrence, on a uk (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 )). Il existe donc
(λ0 , . . . , λp−1 , λp ) ∈ Kp+1 tels que :
uk (x0 ) = λ0 x0 + · · · + λp−1 up−1 (x0 ) + λp up (x0 )).
On compose par u :
uk+1 (x0 ) = λ0 u(x0 ) + · · · + λp−1 up (x0 ) + λp up+1 (x0 )).
Or on a u(x0 ), . . . , up (x0 ), up+1 (x0 )) ∈ V ect(x0 , u(x0 ), . . . , up (x0 )), donc uk+1 (x0 ) ∈
V ect(x0 , u(x0 ), . . . , up (x0 )). D’où la propriété au rang k + 1.
2/5
On conclut par principe de récurrence.
(e) On a montré que pour tout k ∈ N, uk (x0 ) ∈ V ect(x0 , u(x0 ), . . . , up (x0 )). Ainsi, on a :
La famille (x0 , u(x0 ), . . . , up (x0 )) est donc génératrice de E. Comme c’est une famille libre
par définition de p, c’est donc une base de E. Son cardinal est donc égal à la dimension de
E, soit p + 1 = n.
2. (a) On a montré précédemment que un (x0 ) ∈ V ect(x0 , u(x0 ), . . . , un−1 (x0 )), donc il existe
(p0 , . . . , pn−1 ) ∈ Kn tels que :
D’où :
pn−1 un−1 + · · · + p1 u + p0 IdE = an−1 un−1 + · · · + a1 u + a0 IdE .
Par unicité de la décomposition d’un vecteur dans la famille libre (IdE , u, . . . , un−1 ),
on en déduit :
pk = ak pour tout 0 ≤ k ≤ n − 1.
Ainsi P = Q, et P est bien l’unique polynôme unitaire de degré n tel que P (u) = 0L(E) .
Le polynôme P est appelé le polynôme minimal de u.
3/5
(e) On procède comme précédemment pour trouver ce polynôme : on écrit u3 (1, 0, 0) en fonction
de (1, 0, 0), u(1, 0, 0), u2 (1, 0, 0). Or on a :
2. On a déjà de manière évidente que pour tout k ∈ N, uk ∈ C(u). Comme de plus C(u) est un
sous-espace vectoriel de L(E), les combinaisons linéaires de tels vecteurs sont aussi dans C(u).
Ainsi pour tout P ∈ K[X], on a bien P (u) ∈ C(u). D’où l’inclusion K[u] ⊂ C(u)
3. (a) Soient deux endomorphismes v et w de C(u). Supposons que v(x0 ) = w(x0 ), et montrons
que v = w. On a pour tout k ∈ N∗ ,
Ainsi v et w coı̈ncident sur la base (x0 , . . . , un−1 (x0 )). Elles sont donc égales.
(b) Soit v ∈ C(u).
i. Comme (x0 , . . . , un−1 (x0 )) est une base de E, donc une famille génératrice de E, il
existe bien (a0 , . . . , an−1 ) ∈ Kn tel que v(x0 ) = an−1 un−1 (x0 ) + · · · + a1 u(x0 ) + a0 x0 .
ii. Posons w = an−1 un−1 + · · · + a1 u + a0 IdE . On a clairement que w commute avec u
(c’est un polynôme en u !). De plus on a v(x0 ) = w(x0 ). Par la question précédente,
on en déduit immédiatement que v = w.
4. On a déjà que K[u] ⊂ C(u). Réciproquement, on vient de montrer que si v ∈ C(u), alors v ∈ K[u].
On en déduit donc que C(u) = K[u].
5. On sait déjà que la famille (IdE , u, . . . , un−1 ) est libre, et qu’il existe un unique polynôme P de
degré n et unitaire tel que P (u) = 0L(E) (c’est le polynôme minimal). On va montrer que :
Prenons un élément de K[u], il est de la forme A(u) avec A ∈ K[X]. On fait la division euclidienne
de A par P : il existe un couple (Q, R) ∈ K[X]2 tels que :
(
A = QP + R
deg(R) < n
On évalue en u :
A(u) = Q(u) ◦ P (u) + R(u).
Or P (u) = 0L(E) , donc A(u) = R(u). Comme enfin deg(R) < n, on en déduit que R(u) ∈
V ect(IdE , u, . . . , un−1 ). Finalement, on a bien que :
La famille (IdE , u, . . . , un−1 ) étant libre et génératrice de C(u), c’est donc une base de cet espace,
et dim(C(u)) = n.
4/5
Remarque. On peut en fait montrer les équivalences suivantes : soit u ∈ L(E),
5/5
PSI* Problème de révision n°4
Année scolaire
2018/2019
Notations
Dans tout le problème, n désigne un entier naturel non nul (n ∈ N∗ ).
– Dans En = Mn,1 (R) espace vectoriel réel de dimension n, on utilisera le produit scalaire cano-
nique défini par
∀U, V ∈ En , (U |V ) = U T V
– On notera Mn = Mn (R), l’espace vectoriel des matrices carrées de taille n à coefficients réels.
– Pour A ∈ Mn , on notera ker(A) le noyau de A vu comme endomorphisme de En .
– Dans Mn , on notera0n la matrice nulle et In la matrice unité. Le déterminant est noté det.
– Gn = GLn (R) = {M ∈ Mn , det(M ) 6= 0} désigne le groupe linéaire des matrices inversibles de
Mn .
– On = {M ∈ Mn , M T M = In } désigne le groupe orthogonal d’indice n, formé des matrices
orthogonales de Mn .
– On sera enfin amené à utiliser des décompositions par blocs. On rappelle en particulier que si
A, B, C, D, A0 , B 0 , C 0 , D0 ∈ Mn on a alors dans M2n :
0
A B0 AA0 + BC 0 AB 0 + BD0
A B
=
C D C 0 D0 CA0 + DC 0 CB 0 + DD0
A C A 0n
det = det = det(A) det(D)
0n D C D
1 Le groupe symplectique
Soit n ∈ N∗ et soit Jn ou simplement J la matrice de M2n définie par
0n −In
J=
In 0n
On note
Sp2n = {M ∈ M2n , M T JM = J}
1. Calculer J 2 et J T en fonction de I2n et J. Montrer que J est inversible et identifier son inverse.
2. Vérifier que J ∈ Sp2n et que pour tout réel α,
In 0n
K(α) = ∈ Sp2n
−αIn In
U 0n
3. Pour tout U ∈ Gn , vérifier que LU = est dans Sp2n .
0n (U −1 )T
4. Si M ∈ Sp2n , préciser les valeurs possibles de det(M ).
5. Montrer que le produit de deux éléments de Sp2n est un élément de Sp2n .
6. Montrer qu’un élément de Sp2n est inversible et que son inverse appartient à Sp2n .
7. Montrer que si M ∈ Sp2n alors M T ∈ Sp2n .
Soit M une matrice de M2n écrite sous la forme
A B
M= avec A, B, C, D ∈ Mn
C D
8. Déterminer les relations sur A, B, C, D caractérisant l’appartenance de M à Sp2n .
2 Centre de Sp2n
On s’intéresse ici au centre Z de Sp2n c’est à dire
Z = {M ∈ Sp2n , ∀N ∈ Sp2n , M N = N M }
9. Justifier l’inclusion suivante : {−I2n , I2n } ⊂ Z.
1
Récirpoquement, soit M ∈ Z écrite sous la forme
A B
M= avec A, B, C, D ∈ Mn
C D
In In
10. En utilisant L = et sa transposée, obtenir B = C = 0n et D = A, A étant inversible.
0n In
U 0n
11. Soit U ∈ Gn . En utilisant LU = , montrer que A commute avec toute matrice
0n (U −1 )T
U ∈ Gn .
12. Conclure que A ∈ {−In , In } et Z = {−I2n , I2n }. Indication : on montrera d’abord que les
matrices In + Ei,j commutent avec A, où (Ei,j , 1 ≤ i, j ≤ n) est la base canonique de Mn .
Soit m un entier, m ≤ n. Soit s1 , . . . , sm des réels non nuls et deux à deux distincts et V1 , . . . , Vm
des vecteurs non nuls tels que
(D − si B)Vi = 0 pour i = 1, . . . , m
17. Montrer que pour tout i ∈ {1, . . . , m}, DVi 6= 0 et que la famille (DVi , i = 1, . . . , m) forme un
système libre de En .
18. En déduire qu’il existe un réel α tel que D − αB soit inversible.
19. Montrer alors que toute matrice de Sp2n est de déterminant égal à 1.
2
PSI* Problème de révision n°5
Année scolaire
2018/2019
Problème
Problématique. Lorsque f est un endomorphisme d'un K-espace vectoriel E, on peut se demander
à quelle(s) condition(s) les sous-espaces vectoriels
⊕ ker(f ) et Im(f ) sont supplémentaires dans E (càd
E = ker(f ) Im(f )).
L'objectif de ce problème est de donner une caractérisation des endomorphismes satisfaisant cette
condition.
2. Calcul matriciel. Dans cette question, on considère le K-espace E = Mn (K) des ma-
vectoriel
trices carrées de taille n à coecients dans K (où n > 2). On considère
désigne un entier naturel
1( )
l'endomorphisme π de E déni en posant : ∀ A ∈ Mn (K) , π(A) = A + tA .
2
a. Déterminer le noyau et l'image de π (le résultat concernant l'image de π devra être très soigneu-
sement justié).
⊕
3. Résultat préliminaire. Soit E un K-espace vectoriel de dimension n > 2. On considère deux sev
H1 et H2 de E tels que :
dim(H1 ) = dim(H2 ) = n − 1 et H1 ̸= H2 .
a. Démontrer que E = H1 + H2 .
b. Déduire de la question précédente la dimension de H1 ∩ H2 .
1( 2 )
f (P ) = X − 1 P ′′ − XP ′ + P
2
Montrer que f un endomorphisme de E.
5. On note B = (1, X, X 2 , X 3 ) la base canonique de E . Ecrire la matrice M = MB (f ) de l'endomor-
phisme f dans la base B (on donnera le détail des calculs permettant de l'obtenir).
6. Montrer que f est un projecteur de E.
7. Montrer que ker(f ) est un plan vectoriel de E dont on donnera une base.
1/3
8. Détermination de l'image de f. On considère la partie G de E suivante :
G = {Q ∈ E / Q′ (1) = Q′ (−1) = 0}
12. Grâce à un raisonnement utilisant le théorème du rang (mais pas exclusivement), montrer que
⊕
E = ker(p) Im(p) lorsque E est de dimension nie.
⊕
13. Grâce à un raisonnement n'utilisant surtout pas le théorème du rang, montrer que E = ker(p) Im(p)
même si on ne fait plus l'hypothèse que E est de dimension nie.
Partie IV
On considère l'endomorphisme f de R4 déni en posant :
x x 0
y −3y
∀ y =
z ∈ R , f z
4
3x − 3z
t t y
2/3
Partie V Une condition nécessaire et susante en dimension nie
Dans cette partie, on suppose que E est un K-espace vectoriel de dimension nie, et f désigne un
endomorphisme de E.
L'objectif est d'établir que les trois assertions suivantes sont équivalentes :
⊕
(i) E = ker(f ) Im(f )
22. Question bonus. Donner un exemple prouvant que les assertions (i) et (iii) ne sont pas équivalentes
lorsque E est un K-espace vectoriel de dimension innie.
3/3
Problème de révision n°5 -Corrigé donc ¨
M = A+ S
M = −A + S.
t
1 Deux exemples gentils pour démarrer
1 1
n
Ainsi, A = 2 (M − tM ) et S = 2 (M + tM ). ∗
1. a. Soit P = ak X k ∈ K[X ].
P
1 1
Synthèse. On pose A = 2 (M − tM ) et S = 2 (M + tM ). Nous devons vérifier que A ∈
k=0
On a An (K), S ∈ Sn (K) et A + S = M . Ces vérifications ne posent aucun problème. †
P ∈ Ker(∆) ⇐⇒ ∆(P ) = 0̃ ⇐⇒ P 0 = 0̃ ⇐⇒ P ∈ K0 [X ] Conclusion. Mn (K) = An (K) ⊕ Mn (K), autrement dit E = Ker(π) ⊕ Im(π).
donc Ker(∆) = K0 [X ] (ici, 0̃ désigne le polynôme nul).
n
D’autre part, si Q =
P ak
k+1
X k+1 , alors Q 0 = P , c’est-à-dire, Q est un antécédent de P 2 Un exemple plus consistant
k=0
par ∆. Donc ∆ est surjective (i.e. Im(∆) = K[X ]). 3. a. Puisque H1 6= H2 , alors ou bien il existe un vecteur u~ ∈ H1 \ H2 ou bien il existe un
b. On a E = Ker(∆) + Im(∆) puisque Im(∆) = K[X ] = E mais la somme n’est pas directe vecteur u~ ∈ H2 \ H1 . SPDG ‡ , on suppose l’existence d’un vecteur u~ ∈ H2 \ H1 .
puisque Ker(∆) ∩ Im(∆) = K0 [X ] 6= {0̃}. H1 est un sous-espace vectoriel de E de dimension n − 1 donc H1 admet une base B1 =
2. a. Notons An (K) (respectivement Sn (K)) le sous-espace vectoriel de Mn (K) constitué (~e1 , . . . , ~en−1 ) (de cardinal n − 1). En particulier, la famille B1 est libre.
des matrices anti-symétriques (respectivement symétriques) et soit A ∈ Mn (K). Montrons que la famille B = (~e1 , . . . , ~en−1 , u~) est elle aussi libre. Si elle était liée, puisque
On a B1 est une famille libre, le vecteur u~ serait combinaison linéaire des vecteurs ~e1 , . . . , ~en−1 ,
π(A) = 0n ⇐⇒ tA = −A ⇐⇒ A ∈ An (K) autrement dit, le vecteur u~ serait un élément de Vect(~e1 , . . . , ~en−1 ) = H1 . Mais ceci contre-
donc Ker(π) = An (K). dirait l’hypothèse faite sur u~.
D’autre part, puisque t(tA) = A, tπ(A) = π(A) et l’on a l’inclusion Im(π) ⊂ Sn (K). Il Ainsi, la famille B est une famille libre de cardinal n de l’espace vectoriel E de dimen-
y a deux façons d’obtenir l’autre inclusion. La plus rapide est d’observée que si A ∈ sion n, B est donc une base de E.
Sn (K), alors π(A) = A donc tout élément de Sn (K) admet un antécédent par π ; cela Par ailleurs, Vect( u~) ⊂ H2 et l’on obtient ainsi,
prouve l’inclusion Sn (K) ⊂ Im(π). Il est aussi possible d’utiliser le théorème du rang
n(n−1) n(n+1)
en utilisant le fait que dim(An (K) = 2 et dim(Sn (K)) = 2 . On a ainsi prouvé E = Vect(~e1 , . . . , ~en−1 , u~) = Vect(~e1 , . . . , ~en−1 ) + Vect( u~) ⊂ H1 + H2 .
} | {z }
que Im(π) = Sn (K).
| {z
=H1 ⊂H2
b. Montrons que E = Ker(π) ⊕ Im(π). Cela revient à montrer que An (K) ⊕ Sn (K) =
Mn (K). C’est un résultat très classique ; nous allons en donner deux démonstrations. L’inclusion H1 + H2 ⊂ E étant trivialement vraie, on en conclut que H1 + H2 = E.
1re démonstration (en utilisant la dimension finie). b. Appliquons la formule de Grassman en utilisant le fait que H1 + H2 = E :
On commence par montrer que la somme est directe. Soit M ∈ An (K) ∩ Sn (K). On a
dim(E) = dim(H1 ) + dim(H2 ) − dim(H1 ∩ H2 ).
t t
M = −M et M =M | {z }
=n
| {z } | {z }
=n−1 =n−1
donc M = −M et M = 0n . Donc An (K) ∩ Sn (K) = {0n } donc la somme est directe. On en déduit que dim(H1 ∩ H2 ) = n − 2.
n(n−1) n(n+1)
On a dim(Mn (K)) = n 2 , dim(An (K)) = et dim(Sn (K)) = donc
2 2 4. Soient (P, Q) ∈ R3 [X ]2 et (λ, µ) ∈ R2 .
dim(Mn (K)) = dim(An (K)) + dim(Sn (K)). 1
Vérifions tout d’abord que 2 (X 2 − 1)P 00 − X P 0 + P ∈ R3 [X ] (on vérifie que l’application f
est correctement définie). On a deg(P ) ≤3 donc deg(P 0 ) ≤ 2 et deg(P
) ≤ 1. Donc deg((X −
00 2
Ainsi, An (K) et Sn (K) sont des sous-espaces vectoriels supplémentaires de Mn (K). 1
1)P 00 ) ≤ 3, deg(X P 0 ) ≤ 3. Ainsi, deg 2 (X 2 − 1)P 00 − X P 0 + P ≤ 3. L’application f est
2e démonstration (sans utiliser la dimension).
Soit M ∈ Mn (K). correctement définie.
Analyse. On suppose qu’il existe (A, S) ∈ An (K) × Sn (K) tel que M = A + S. Alors, ∗. À ce stade, nous savons que la somme est directe.
†. Mais vous deviez les faire !
t
M = tA + tS = −A + S ‡. Sans perte de généralité... ou SNALG !
1
On a Donc Ker( f ) = Vect(X , X 2 + 1) et dim(Ker( f )) = 2 puisque les polynômes X et X 2 + 1
sont clairement linéairement indépendants (ils n’ont pas le même degré). Ker( f ) est donc un
1 2
f (λP + µQ) = (X − 1)(λP 00 + µQ 00 ) − X (λP 0 + µQ 0 ) + λP + µQ plan vectoriel de E.
2
Enfin, C1 = (X , X 2 + 1) est une base de Ker( f ).
1 1
= λ (X 2 − 1)P 00 − X P 0 + P + µ (X 2 − 1)Q 00 − XQ 0 + Q 8. a. Soit Q ∈ Im( f ), montrons que Q ∈ G. Il existe P ∈ E tel que Q = f (P ). Alors, Q =
2 2
1 2
= λ f (P ) + µ f (Q). (X − 1)P 00 − X P 0 + P et
2
Donc f est une application linéaire de E dans E, f est donc un endomorphisme de E. 1 1
Q 0 = X P 00 + (X 2 − 1)P 000 − P 0 − X P 00 + P 0 = (X 2 − 1)P 000 .
5. Déterminons les images par f des éléments de la base canonique. On a 2 2
Si P = 1, alors P 0 = P 00 = 0̃ donc f (1) = 1.
On constate ainsi que Q 0 (−1) = Q 0 (1) = 0 puisque les racines de X 2 − 1 sont ±1. Ainsi,
Si P = X , alors P 0 = 1 et P 00 = 0̃ donc f (X ) = −X + X = 0̃. Im( f ) ⊂ G.
1
Si P = X 2 , alors P 0 = 2X et P 00 = 2 donc f (X 2 ) = (X 2 − 1) × 2 − X × 2X + X 2 = −1. b. On a, pour tout a ∈ R, ϕ(aX ) = a donc ϕ est une forme linéaire surjective. §
2
Si P = X 3 , alors P 0 = 3X 2 et P 00 = 6X donc c. D’après la question précédente, rg(ϕ) = 1 et par le théorème du rang, on obtient
dim(Ker(ϕ)) = dim(E) − rg(ϕ) = 4 − 1 = 3. ¶
1 2 On montre de même que dim(Ker(ψ)) = 3.
f (X 3 ) = (X − 1) × 6X − X × 3X 2 + X 3 = X 3 − 3X .
2 d. Tout d’abord, observons que G = Ker(ϕ) ∩ Ker(ψ) donc G est un sous-espace vectoriel
Ainsi, la matrice de l’endomorphisme f dans la base B est de E.
De plus, on a dim(E) = 4, dim(Ker(ϕ)) = dim(Ker(ψ)) = 3 et Ker(ϕ) 6= Ker(ψ) (le
1 0 −1 0 polynôme (X − 1)2 est un élément de Ker(ϕ) qui n’appartient pas à Ker(ψ)).
0 0 0 −3 Ainsi, d’après le résultat de la question 3b, dim(G) = 4 − 2 = 2.
M = 0 0 0
.
0
e. On a vu à la question 8a que Im( f ) ⊂ G. Puisque E est un espace vectoriel de dimension
0 0 0 1
finie 4, il suffit de vérifier que dim(Im( f )) = dim(G).
6. Montrons que f ◦ f = f . Il suffit pour cela de vérifier que M 2 = M , ce que l’on fait aisé- On vient de voir que dim(G) = 2.
ment... De plus, on a vu à la question 7 que dim(Ker( f )) = 2 donc en appliquant le théorème
du rang, dim(Im( f )) = 2.
7. Déterminons Ker( f ). Soient P = d X 3 + cX 2 + b X + a ∈ R3 [X ] et
Ainsi, dim(Im( f )) = dim(G) et Im( f ) = G.
Enfin, Im( f ) = Vect( f (1), f (X ), f (X 2 ), f (X 3 )) = Vect(1, X 3 − 3X ) donc
a
b C2 = (1, X 3 − 3X ) est une base de Im( f ).
A= c
9. Puisque f est un projecteur, Ker( f ) et Im( f ) = Ker( f −IdE ) sont des sous-espaces vectoriels
d supplémentaires de E. k
la matrice des coordonnées de P dans la base B. On a P ∈ Ker( f ) si et seulement si
M × A = 04,1 et l’on se ramène à la résolution du système de 4 équations à 4 inconnues 3 Une condition suffisante...
(d’inconnues a, b , c, d ) suivant :
10. Dire que p est un projecteur revient à dire que p ∈ L (E) et que p ◦ p = p.
a − c = 0
y ) = ~0 et il existe x~ ∈ E tel que y~ = p(~
Soit y~ ∈ Ker( p) ∩ Im( p). On a p(~ x ). Alors,
S : −3d = 0
d = 0. y~ = p(~
x ) = ( p ◦ p)(~
x ) = p( p(~ y ) = ~0.
x )) = p(~
§. Autrement, on peut invoquer le fait qu’une forme linéaire non nulle est toujours surjective.
Ainsi, P ∈ Ker( f ) si et seulement si a = c et d = 0, si et seulement si ¶. On rappelle que dim(Rn [X ]) = n + 1.
k. Il valait mieux savoir son cours pour répondre à cette question car montrer que Ker( f ) et Im( f ) sont en
P = a(X 2 + 1) + b X . situation de somme directe dans ce cas précis est un peu pénible.
2
15. D’après la question précédente et en appliquant le théorème du rang, dim(Im( f )) = 2. De
Ainsi, Ker( p) ∩ Im( p) = {~0}. plus,
11. Théorème du rang.
1 0 0 0
0
0
Soient E un K-espace vectoriel de dimension finie, F un K-espace vectoriel de dimension 0 1 0 0 0 −3
f 0 , f 0 , f 1 , f 0 = Vect u~3 = 1 , u~4 = 0
Im( f ) = Vect
quelconque et f ∈ L (E, F ). Alors, Im( f ) est un sous-espace vectoriel de dimension finie
de F et l’on a 0 0 0 1 0 1
dim(E) = dim(Ker( f )) + dim(Im( f )) .
| {z } (il suffit de garder deux vecteurs non colinéaires puisque dim(Im( f )) = 2) et C2 = ( u~3 , u~4 ) est
rg( f )
une base de Im( f ).
12. On suppose dans cette question que E est de dimension finie. 16. Grâce aux dimensions, il suffit de montrer que Ker( f ) et Im( f ) sont en situation de somme
D’après la question 10, Ker( p) et Im( p) sont en situation de somme directe. De plus, d’après directe.
le théorème du rang, dim(E) = dim(Ker( f )) + dim(Im( f )) donc Ker( p) et Im( p) sont des On peut montrer que la famille C = ( u~1 , u~2 , u~3 , u~4 ) est une famille libre de R4 . Ainsi,
sous-espaces vectoriels supplémentaires de E. Vect( u~1 , u~2 ) et Vect( u~3 , u~4 ) sont en situation de somme directe.
13. Pour tout vecteur x~ ∈ E, on a Conclusion : R4 = Ker( f ) ⊕ Im( f ).
17. L’endomorphisme f n’est pas un projecteur. En effet, on a
x~ = x~ − p(~
x ) + p(~
x ).
| {z }
x~0 0 0 0 0 0 0 0
1 −3 2 1 −3 9 −3 1
0 = 0 et f 0 = f 0 = 0 6= 0 = f 0 .
f
x ) ∈ Im( p) ; montrons que x~0 ∈ Ker( p). On a
Bien entendu, p(~
0 1 0 1 −3 1 0
x0 ) = p(~
p(~ x ) − p( p(~
x )) = p(~ x ) = ~0
x ) − p(~
donc x~0 ∈ Ker( p). 5 Une condition nécessaire et suffisante en dimension finie
Ainsi, tout vecteur x~ ∈ E se décompose en la somme d’un élément de Ker( p) et d’un
élément de Im( p) ; c’est-à-dire, E = Ker( p) + Im( p). Le fait que la somme soit directe a été x ) = ~0 donc
18. Montrons que Ker( f ) ⊂ Ker( f 2 ). Soit x~ ∈ Ker( f ), on a f (~
montré à la question 10.
f 2 (~ x )) = f (~0) = ~0
x ) = f ( f (~
Conclusion : E = Ker( p) ⊕ Im( p).
donc x~ ∈ Ker( f 2 ) ( f (~0) = ~0 car f est un endomorphisme). Ainsi, Ker( f ) ⊂ Ker( f 2 ).
4 Montrons que Im( f 2 ) ⊂ Im( f ). Soit z~ ∈ Im( f 2 ), il existe x~ ∈ E tel que z~ = f 2 (~ x ) et
z~ = f (~
y ) avec y~ = f (~x ). Donc z~ ∈ Im( f ). Ainsi, Im( f 2 ) ⊂ Im( f ). ∗∗
19. Puisque l’on a toujours les inclusions Ker( f ) ⊂ Ker( f 2 ) et Im( f 2 ) ⊂ Im( f ) et que l’on
x
y travaille en dimension finie, alors
14. Soit u~ = 4
z ∈ R . On a
3
et l’on montre de même que si rg( f ) = rg( f 2 ), alors dim(Ker( f )) = dim(Ker( f 2 )). Ainsi,
les assertions (ii0 ) et (iii0 ) sont équivalentes.
Conclusion : les assertions (ii0 ) et (iii0 ) sont équivalentes.
20. On suppose que Ker( f ) = Ker( f 2 ), montrons que E = Ker( f ) ⊕ Im( f ).
Grâce au théorème du rang (et parce que l’on travaille en dimension finie), il suffit de
montrer que la somme est directe.
Pour cela, montrons que Ker( f ) ∩ Im( f ) = {~0}. Soit y~ ∈ Ker( f ) ∩ Im( f ) ; on a f (~
y ) = ~0 et
il existe x~ ∈ E tel que y~ = f (~
x ). Alors, f 2 (~ y ) = ~0 donc x~ ∈ Ker( f 2 ).
x ) = f (~
Or, on a fait l’hypothèse Ker( f ) = Ker( f 2 ), donc x~ ∈ Ker( f ). Cela signifie que
x ) = ~0.
y~ = f (~
On a donc montré que Ker( f ) ∩ Im( f ) = {~0}. Ainsi, la somme est directe et l’on en conclut
que E = Ker( f ) ⊕ Im( f ).
21. On suppose que E = Ker( f ) ⊕ Im( f ), montrons que Ker( f ) = Ker( f 2 ). Puisque l’inclusion
Ker( f ) ⊂ Ker( f 2 ) est toujours vraie, il suffit de montrer l’inclusion Ker( f 2 ) ⊂ Ker( f ).
x )) = ~0 donc f (~
Soit x~ ∈ Ker( f 2 ) ; on a f ( f (~ x ) ∈ Ker( f ). Or, f (~
x ) est bien-sûr un élément
de Im( f ) donc
f (~x ) ∈ Ker( f ) ∩ Im( f ).
Mais puisque l’on a fait l’hypothèse que Ker( f ) et Im( f ) sont supplémentaires, en particu-
liers en situation de somme directe, l’intersection Ker( f ) ∩ Im( f ) est nulle.
Donc f (~ x ) = ~0, c’est-à-dire, x~ ∈ Ker( f ). Ainsi, Ker( f ) = Ker( f 2 ).
22. Question bonus. Il faut bien entendu se placer en dimension infinie. Utilisons l’exemple
de la première partie : soit l’endomorphisme
∆ : K[X ] −→ K[X ] .
P 7−→ P0
∆2 : K[X ] −→ K[X ]
P 7−→ P 00
ak
(ou alors, si P = , alors Q = est tel que Q 00 = P ).
Pn k Pn
a X
k=0 k k=0 (k+1)(k+2)
X k+2
Ici on a (iii) : Im(∆) = Im(∆2 ) pourtant Ker(∆) ∩ Im(∆) 6= {0̃} (puisque Ker(∆) ∩ Im(∆) =
K0 [X ]) donc nous n’avons pas (i) : K[X ] = Ker(∆) ⊕ Im(∆) (la somme n’est pas directe).
4
PSI* Problème de révision n°5
Année scolaire
2018/2019
Problème
Tout au long de ce problème, on note E l'espace vectoriel R3 [X] des polynômes à coecients réels de
2 3
degré au plus 3. On note B0 = (1, X, X , X ) la base canonique de E .
R0 = (1 − X)3 ; R1 = X (1 − X)2 ; R2 = X 2 (1 − X) ; R3 = X 3 .
∑3 ( ) ( ) ( ) ( )
3 k 1 2
Φ (P ) = P Rk = P (0) R0 + 3P R1 + 3P R2 + P (1) R3
k 3 3 3
k=0
Partie I
1. Montrer que (R0 , R1 , R2 , R3 ) est une base de E.
2. Vérier que Φ (1) = 1 et Φ (X) = X .
1 0 0 0
0 1 1/3 1/9
3. Montrer que la matrice de Φ dans la base B0 est A=
0
0 2/3 2/3
0 0 0 2/9
4. Quel est le rang de A? Que peut-on en déduire pour l'endomorphisme Φ?
* 2
5. Déterminer Q2 et Q3 , polynômes unitaires de degrés respectifs 2 et 3 tels que Φ (Q2 ) = Q2 et
3
2
Φ (Q3 ) = Q3 .
9
6. On pose B1 = (1, X, Q2 , Q3 ). On admet que B1 est une base de E. Ecrire la matrice A′ de Φ dans
la base B1 .
*. Un polynôme est dit unitaire (ou normalisé ) lorsque son coecient dominant est égal à 1.
1/2
10. On pose :
α1,1 α1,2 α1,3 α1,4
α2,1 α2,2 α2,3 α2,4
N =
α3,1
α3,2 α3,3 α3,4
α4,1 α4,2 α4,3 α4,4
Calculer N A′ et A′ N . Montrer que N commute avec A′ si et seulement si α1,3 , α1,4 , α2,3 , α2,4 , α3,1 ,
α3,2 , α3,4 , α4,1 , α4,2 et α4,3 sont nuls.
11. En déduire la dimension de F ′ = {N ∈ M4 (R) | N A′ = A′ N }.
12. Déterminer la dimension de F.
• • • FIN • • •
2/2
PSI* Problème de révision n°6
Correction
Année scolaire
2018/2019
Partie I
∑
3
1. Soit (α0 , α1 , α2 , α3 ) ∈ R tel que
4
αk Rk = 0. L'évaluation en 0 (resp. en 1) du terme de gauche
k=0
donne α0 = 0 (resp. α3 = 0). De plus :
= [X + (1 − X)]3
⇐⇒ Φ (X) = X 3 − 2X 2 + X + 2X 2 − 2X 3 + X 3 ⇐⇒ Φ (X) = X .
3. Il reste à calculer les images par Φ de X 2 et de X 3 pour obtenir la matrice de Φ dans la base
canonique de R3 [X]. En premier lieu :
1 4 ( ) 1 4
Φ (X 2 ) = R1 + R2 + R3 ⇐⇒ Φ X 2 = X (1 − X)2 + X 2 (1 − X) + X 3
3 3 3 3
X 3 − 2X 2 + X 4X 2 − 4X 3 1 2
⇐⇒ Φ (X 2 ) = + + X 3 ⇐⇒ Φ (X 2 ) = X + X 2 .
3 3 3 3
En second lieu :
1 8 ( ) 1 8
Φ (X 3 ) = R1 + R2 + R3 ⇐⇒ Φ X 3 = X (1 − X)2 + X 2 (1 − X) + X 3
9 9 9 9
X 3 − 2X 2 + X 8X 2 − 8X 3 1 2 2
⇐⇒ Φ (X 3 ) = + + X 3 ⇐⇒ Φ (X 3 ) = X + X 2 + X 3 .
9 9 9 3 9
De ces calculs et de la question précédente, on déduit que la matrice de Φ dans la base B0 est :
1 0 0 0
0 1 1/3 1/9
A=
0
.
0 2/3 2/3
0 0 0 2/9
4. La matrice A est de rang 4 , puisqu'elle est triangulaire supérieure et que tous ses coecients
diagonaux sont non nuls, ou encore en montrant (c'est aisé) que ses colonnes sont linéairement indé-
pendantes. Par conséquent, elle est inversible, et Φ est bijective (c'est un automorphisme de R3 [X])
.
5. On cherche un(polynôme Q2 ,)unitaire et de degré 2, donc de la forme Q2 = X 2 + aX + b (avec a
2
et b réels), tel que Φ − idR3 [X] (Q2 ) = 0R3 [X] . Cette équation peut se réécrire matriciellement :
3
( ) b 0 1/3 0 0 0 b 0 {
2 a 0 0 1/3 1/3 1/9 a 0 b = 0
A− I4 = ⇐⇒ = ⇐⇒
3 1 0 0 0 0 2/3 1 0 a = −1
0 0 0 0 0 −4/9 0 0
−1
⇐⇒ K −1 M KA′ K ′ −1 −1 ′ ′ −1 ′ ′
| {zK} = A K M K ⇐⇒ K M KA = A K M K ⇐⇒ N A = A N
I4
0 −α1,3 /3 −7α1,4 /9
0 0 0 0 0
0 −α 0 /3 −7α /9 0
2,3 2,4 = 0 0 0
α3,1 /3 α3,2 /3 0 −4α3,4 /9 0 0 0 0
7α4,1 /9 7α4,2 /9 4α4,3 /9 0 0 0 0 0
Conclusion : N commute avec A′ SSI α1,3 , α1,4 , α2,3 , α2,4 , α3,1 , α3,2 , α3,4 , α4,1 , α4,2 et α4,3 sont nuls .
11. Soit N ∈ M4 (R). D'après la question précédente, N ∈ F ′ si et seulement s'il existe six scalaires (αk )k∈[[1;6]]
tels que :
α1 α2 0 0
α3 α4 0 0
N =
0 0 α5 0 ⇐⇒ N = α1 E11 + α2 E12 + α3 E21 + α4 E22 + α5 E33 + α6 E44
¶
0 0 0 α6
On en déduit que (E11 , E12 , E21 , E22 , E33 , E44 ) est une famille génératrice de F′ ; et comme c'est une une
= λK −1 M K + µK −1 M ′ K = λΨ (M ) + µΨ (M ′ )
′ −1
( ) −1
) (
toujours ça de pris. Réciproquement, soit N ∈ F : alors N = K KN K K , et KN K −1 ∈ F , toujours
d'après la question 9. En posant M = KN K
−1 , on a donc : N = Ψ (M ) avec M ∈ F , d'où N ∈ Ψ (F ). Par
′
suite : F ⊂ Ψ (F ) .
Matrices quasi-nilpotentes
Notations
Objectifs
Définition 2 Soit A ∈ Mn (K). On dit que A est quasi-nilpotente lorsqu’elle ne possède aucune
valeur propre non nulle dans K. Une partie V de Mn (K) est dite quasi-nilpotente lorsque tous ses
éléments sont quasi-nilpotents.
On se propose d’étudier les sous-espaces vectoriels quasi-nilpotents de Mn (K). En particulier, le résultat
principal que nous souhaitons établir s’énonce comme suit.
Théorème (Dimension des espaces quasi-nilpotents) Pour tout sous-espace vectoriel quasi-nilpotent
V de Mn (K), on a
n (n − 1)
dim V ≤ (QN)
2
La clé pour démontrer ce résultat réside dans le lemme suivant, démontré dans la partie C.
Lemme (Lemme des colonnes) Pour tout sous-espace vectoriel quasi-nilpotent V de Mn (K),
il existe un élément j de [[1, n]] tel que Cj (V ) = {0}.
PSI* — 2018/2019 Page 2/3
A — Exemples
1 i
2) Montrer que la matrice B = est quasi-nilpotente, vue comme matrice de M2 (C).
i −1
3) Montrer que Sn (K), An (K) et Tn++ (K) sont des sous-espaces vectoriels de Mn (K).
Montrer que la dimension de Sn (K) est n(n + 1)/2.
4) Montrer que Tn++ (K) est quasi-nilpotent dans Mn (K). Vérifier que
n(n − 1)
dim Tn++ (K) = .
2
5) Soit A ∈ An (R). Montrer que, pour tout X ∈ Mn,1 (R), t XAX = 0.
En déduire que An (R) est quasi-nilpotent dans Mn (R).
6) Montrer qu’il n’existe pas de matrice inversible P ∈ GLn (R) telle que
An (R) = P MP −1 , M ∈ Tn++ (R)
Indication : on pourra commencer par étudier le cas n = 2, en utilisant par exemple la matrice D
introduite à la question 1.
B — Cas réel
8) Soit V un sous-espace vectoriel de Mn (R), quasi-nilpotent dans Mn (R). Déduire de la question précé-
dente que
n(n − 1)
dim V ≤ .
2
On se propose ici de démontrer le lemme des colonnes par récurrence sur l’entier n.
9) Justifier que le lemme des colonnes est vrai dans le cas n =1.
Dans la suite, on fixe un entier naturel n ≥ 2 et on suppose le lemme des colonnes vrai pour l’entier
n − 1. On se donne un sous-espace vectoriel quasi-nilpotent V de Mn (K). On raisonne par l’absurde
en supposant que Cj (V ) = {0} pour tout j ∈ [[1, n]].
On introduit le sous-ensemble V ′ de V constitué de ses matrices de dernière colonne nulle.
Toute matrice M de V ′ s’écrit donc par blocs comme suit
K(M) 0
M=
L(M) 0
PSI* — 2018/2019 Page 3/3
10) Montrer que l’ensemble K(V ′ ) = K(M), M ∈ V ′ est un sous-espace vectoriel quasi-nilpotent de
Mn−1 (K).
11) En déduire qu’il existe un entier j ∈ [[1, n]] tel que En,j ∈ V .
Soit σ une bijection de [[1, n]] dans lui même. Soit (e1 , . . . , en ) la base canonique de Kn . On considère
l’application linéaire uσ de Kn dans Kn définie sur la base canonique par
∀j ∈ [[1, n]] , uσ (ej ) = eσ(j)
On considère la matrice Pσ de Mn (K) :
Pσ = δ i,σ(j) 1≤i,j≤n
13) Vérifier que Pσ est la matrice de uσ dans la base canonique de Kn . Montrer que Pσ est inversible et
préciser les coefficients de son inverse.
14) Pour M ∈ Mn (K), préciser les coefficients de Pσ−1 MPσ en fonction de ceux de M et de σ.
On pourra utiliser un changement de base.
16) En déduire que, pour tout j ∈ [[1, n]], on peut choisir un f(j) ∈ [[1, n]] \ {j} tel que Ej,f (j) ∈ V . On
obtient ainsi une fonction
f : [[1, n]] → [[1, n]] .
17) En considérant les images successives de 1, montrer qu’il existe une suite finie (j1 , . . . , jp ) d’éléments
deux à deux distincts de [[1, n]] telle que
∀k ∈ [[1, n]] , f(jk ) = jk+1 et f (jp ) = j1 .
18) Écrire un algorithme qui permet d’identifier une telle suite connaissant les valeurs de f.
p
19) Démontrer que 1 est valeur propre de la matrice N = Ejk ,f (jk ) et conclure.
k=1
D — Cas général
On va ici prouver l’inégalité (QN) par récurrence sur n. Le cas n = 1 est trivialement vrai. On fixe
donc un entier naturel n ≥ 2 et on suppose l’inégalité (QN) établie au rang n−1. Soit V un sous-espace
vectoriel quasi-nilpotent de Mn (K).
On rappelle qu’on peut écrire toute matrice M ∈ Mn (K), et en particulier de V , sous la forme (1)
et qu’en particulier, les applications K : V → Mn−1 (K) et L : V → M1,n−1 (K) sont linéaires. On
introduit le sous-espace vectoriel
W = {M ∈ V | L(M) = 0}
Jusqu’à la question 21 incluse, on suppose que Cn (V ) = {0}.
n(n − 1)
21) En déduire que dim V ≤ .
2
On ne suppose plus désormais que Cn (V ) = {0}.
n(n − 1)
22) Démontrer que dim V ≤ .
2
PSI* Problème de révision n°7
Correction
Matrices quasi-nilpotentes
Année scolaire
2018/2019
A. Exemples
3) Sn (K) est le noyau de l’application linéaire M → M − t M, An (K) est le noyau de l’application linéaire
M → M + t M.
Enfin Tn++ (K) est non vide (il contient 0) et est stable par combinaisons linéaires. En conclusion
Sn (K), An (K) et Tn++ (K) sont des sous-espaces vectoriels de Mn (K).
Montrons que
Sn (K) = Vect ((Ei,j + Ej,i )1≤i<j≤n , (Ei,i )1≤i≤n )
-L’inclusion réciproque est vraie car les Ei,j + Ej,i et Ei,i sont symétriques et car Sn (K) est un
sous-espace.
-Soit S ∈ Sn (R). J’ai
n
S= si,j (Ei,j + Ej,i ) + si,i Ei,i ∈ Vect (Ei,j + Ej,i )1≤i<j≤n , (Ei,i )1≤i≤n
1≤i<j≤n i=1
J’ai donc aussi l’inclusion directe.
Je remarque ensuite que la famille ((Ei,j + Ej,i )1≤i<j≤n , (Ei,i )1≤i≤n ) est libre (je considère une combi-
naison linéaire nulle et j’ai immédiatement la nullité des coefficients). Il reste alors à compter le nombre
des éléments de cette famille qui est une base de Sn (K) :
n n(n − 1)
dim Sn (K) = +n= +n
2 2
soit
n(n + 1)
dim Sn (K) = .
2
4) Les valeurs propres d’une matrice triangulaire sont ses coefficients diagonaux et donc
∀T ∈ Tn++ (K), SpT = {0}.
Ceci montre que
Tn++ (K) est quasi-nilpotent dans Mn (K).
Comme à la question précédente, je montrerais que
Tn++ (K) = Vect (Ei,j , 1 ≤ i < j ≤ n)
La famille étant libre, c’est une base et
n(n − 1)
dim Tn++ (K) = .
2
PSI* — 2018/2019 — Corrigé Page 2
5) Notons que, pour X ∈ Mn,1 (R), t XAX est une matrice carrée d’ordre 1, que l’on identifie classiquement
à un scalaire (son unique coefficient !). Par ailleurs, selon les propriétés de la transposition,
t t
XAX = t X t AX = −t XAX
d’où, t t XAX s’identifiant au même scalaire que t XAX,
∀X ∈ Mn,1 (K) t XAX = 0.
En particulier, si λ est une valeur propre de A et X un vecteur propre associé alors
x1
n
..
0 = XAX = λ XX or, si X = . j’ai t XX =
t t
x2k
k=1
xn
et comme X = 0 (vecteur propre), t XX > 0 d’où λ = 0. 0 est donc la seule valeur propre réelle possible
pour A. En conclusion
An (R) est quasi-nilpotent dans Mn (R).
6) Je procède par l’absurde, en supposant que toute matrice antisymétrique de Mn (R) s’écrit sous la forme
P MP −1 , où P ∈ GLn (R) et M ∈ Tn++ (R). La matrice D étant antisymétrique d’ordre 2 et n ≥ 2, je
D 0
dispose de la matrice définie par blocs A = ∈ An (R). J’ai immédiatement (déterminant par
0 0
blocs)
χA = X 2 + 1 X n−2
et donc −i et i sont des valeurs propres non nulles de A. Or deux matrices semblables ont même
polynôme caractéristique (immédiat) et les matrices de Tn++ (R) ont 0 pour unique valeur propre, d’où
une contradiction. En conclusion
Il n’existe pas de matrice P vérifiant la propriété de l’énoncé.
B — Cas réel
7) Soit S ∈ Sn (R). S est alors semblable dans Mn (R) à une matrice diagonale (théorème spectral). Si 0
est sa seule valeur propre réelle, S est alors semblable à une matrice diagonale nulle et est donc nulle.
Réciproquement, 0 est symétrique et quasi-nilpotente.
La matrice nulle est la seule matrice symétrique quasi-nilpotente dans Mn (R).
La question 2 montre que le résultat est faux dans le cas complexe (S est une matrice symétrique
quasi-nilpotente dans M2 (C) qui n’est pas la matrice nulle).
8) Soit V un sous-espace vectoriel de Mn (R), quasi-nilpotent dans Mn (R). D’après la question précédente
V ∩ Sn (R) = {0} et donc V et Sn (R) sont en somme directe. Ainsi
n(n − 1)
dim V ≤ dim Mn (R) − dim Sn (R) = .
2
9) La seule matrice quasi-nilpotente de M1 (K) est la matrice nulle (puisqu’une matrice de taille 1 a une
unique valeur propre égale à son unique coefficient).
Le lemme des colonnes est donc vrai dans le cas n = 1.
11) D’après l’hypothèse de récurrence appliquée à K(V ′ ) (sous-espace de Mn−1 (K)), je dispose d’un élément
j ∈ [[1, n − 1]] tel que Cj (K(V ′ )) = {0}. Or par hypothèse Cj (V ) = {0}, je dispose donc d’une matrice
M non nulle dans Cj (V ). Comme j < n, M ∈ V ′ et donc K(M) ∈ K(V ′ ). Comme M ∈ Cj (V ), j’ai
aussi K(M) qui a toutes ses colonnes nulles sauf peut-être la j-ième. Finalement, K(M) ∈ Cj (K(V ′ ))
et donc K(M) = 0.
M a ainsi une unique colonne qui peut être non nulle (celle de numéro j) et seul le dernier coefficient
de cette colonne peut être non nul. Comme M = 0, il existe c = 0 tel que M = cEn,j . Enfin, V ′ est un
1
sous-espace vectoriel donc En,j = M ∈ V ′ , or V ′ ⊂ V d’où finalement
c
Il existe j ∈ [[1, n]] tel que En,j ∈ V .
12) uσ transforme la base (e1 , . . . , en ) en eσ(1) , . . . , eσ(n) qui est aussi une base. Cette application linéaire
est donc un automorphisme de Kn .
σ envoie eσ(i) sur ei pour tout i et donc ek sur eσ−1 (k) pour tout k. J’ai donc
u−1
uσ ∈ GL (Kn ) et u−1
σ = uσ −1 .
13) La colonne j de la matrice de uσ dans la base canonique est la colonne eσ(j) . Elle a tous ses coefficients
nuls sauf celui de la ligne σ(j). Son coefficient générique est donc δ i,σ(j) . J’ai ainsi
M(e1 ,...,en ) (uσ ) = Pσ .
J’en déduis que Pσ est inversible et que
Pσ−1 = M(e1 ,...,en ) (u−1
σ ) = Pσ−1 = δ i,σ −1 (j) 1≤i,j≤n
= δ σ(i),j 1≤i,j≤n
.
15) V σ est l’image de V par l’application linéaire M → Pσ−1 MP , c’est donc un sous-espace vectoriel de
Mn (K).
Deux matrices semblables ayant même spectre, le caractère quasi-nilpotent des éléments de V entraîne
celui des éléments de V σ :
V σ est un sous-espace quasi-nilpotent de Mn (K).
Enfin, fixons j ∈ [[1, n]]. Par hypothèse, je dispose de M non nulle dans Cσ(j) (V ). J’ai en particulier
mℓ,c qui est nul si c = σ(j) ce que l’on peut écrire mσ(ℓ),σ(c) = 0 si σ(c) = σ(j) ou encore si c = j.
La matrice Pσ−1 MPσ est donc dans Cj (V σ ). Elle est non nulle car M l’est (et A → Pσ−1 AP est un
isomorphisme). J’ai montré que
∀j ∈ [[1, n]] Cj (V σ ) = {0}.
16) V σ et V ont les mêmes propriétés (sous-espaces quasi-nilpotents tels que pour tout j, Cj (V σ ) = {0}).
Pour tout σ, on peut donc appliquer la question 11 à V σ et dire qu’il existe k ∈ [|1, n − 1|] tel que
En,k ∈ Vσ ou encore que Pσ En,k Pσ−1 ∈ V .
D’après la question 14, pour tout choix de σ j’ai Pσ−1 Eu,v Pσ = Eσ−1 (u),σ−1 (v) (en effet en notant
N = Pσ−1 Eu,v Pσ , j’ai Ni,j qui est égal au coefficient (σ(i), σ(j)) de Eu,v et est nul sauf si σ(i) = u et
σ(j) = v).
PSI* — 2018/2019 — Corrigé Page 4
Nous avons ainsi défini une application f : [[1, n]] → [[1, n]] telle que, pour tout j, f(j) = j (pas besoin
d’axiome du choix : puisqu’il y a un ensemble fini non vide de valeurs qui conviennent, on peut choisir
par exemple son plus petit élément pour définir précisément f(j). . . ).
17) Posons i1 = 1 et, pour tout k ≥ 2, ik = f(ik−1 ). L’ensemble {ik , k ∈ N∗ } est inclus dans [[1, n]] et
donc fini. Or, N∗ est infini. Il existe donc deux ik égaux pour des valeurs de k différentes : ia = ib avec
a < b. En partant de ia et en calculant les images itérées par f, je finis donc par retomber sur ia . Je
regarde la première fois où je retrouve ia et ce n’est pas à la première itération car f(j) = j pour tout
j. Je trouve ainsi des indices ia , ia+1 , . . . , ia+p−1 avec p ≥ 2 deux à deux distincts, chacun étant l’image
du précédent par f et avec f(ia+p−1 ) = ia .
En posant j1 = ia , j2 = ia+1 , . . . , jp = ia+p−1 , j’ai obtenu des éléments deux à deux distincts tels que
∀k ∈ [[1, p − 1]] f(jk ) = jk+1 et f (jp ) = j1 .
18) J’applique le procédé décrit ci-dessus. Je gère un tableau r de booléens à n + 1 cases numéroté à partir
de 0 et dont la case 0 sera inutile (mais cela permet de respecter la notation Python). Initialement
toutes les cases contiennent False.
Je pars de 1 et je mets True dans r[1] (l’indice 1 a été rencontré).
Ensuite je mets dans i les itérés successifs de 1, à l’aide d’une boucle while dont je sors dès que f(i)
a déjà été rencontré (à chaque nouvelle valeur de f(i) rencontrée, je mets True dans r[f(i)]).
À la sortie de la boucle, i contient ainsi un indice qui a déjà été rencontré (parmi les itérés de 1), il
suffit alors de repartir de cet indice, ses images successives par f redonneront i en un temps fini, par
construction.
Je n’ai plus qu’à les stocker dans une liste jusqu’au “bouclage” et à renvoyer cette liste.
Pour le code Python, je suppose que l’entier n et la fonction f ont été définis !
r=[False]*(n+1)
i=1
r[1]=True
S=[i]
k=f(i)
while k!=i:
S.append(k)
k=f(k)
print(S)
19) N est une matrice comportant p valeurs non nulles qui sont égales à 1. Il y a un coefficient 1 sur chaque
ligne j1 , . . . , jp et aussi un sur chaque colonne f(j1 ), . . . , f(jp ) = j2 , . . . , jp , j1 . On en déduit que le
p
vecteur ejk est vecteur propre de N associé à la valeur propre 1.
k=1
Ceci est contradictoire car N ∈ V (comme somme d’éléments de V qui est un espace vectoriel) et ne
devrait posséder aucune valeur propre non nulle. Cela clôt le raisonnement par l’absurde !
PSI* — 2018/2019 — Corrigé Page 5
D — Cas général
22) D’après le lemme des colonnes, je dispose de j tel que Cj (V ) = {0}. Considérons la permutation σ qui
échange j et n. V σ est alors isomorphe à V et est un espace vectoriel quasi-nilpotent auquel je peux
appliquer le résultat précédent. J’ai donc
n(n − 1)
dim V = dim V σ ≤ .
2
PSI* Problème de révision n°8
Année scolaire
2018/2019
Notations et rappels
• Dans tout le problème n désigne un entier supérieur ou égal à 2 et E un C-espace vectoriel de dimension n.
On notera L(E) le C-espace vectoriel des endomorphismes de E et GL(E) le sous-ensemble de L(E) formé
des automorphismes de E.
• À tout f ∈ L(E), on associe sa matrice MatB (f ) dans la base B choisie dans E.
On rappelle que l’application f 7→ MatB (f ) est un isomorphisme de L(E) sur le C-espace vectoriel, noté
Mn (C), formé des matrices carrées d’ordre n à coefficients complexes.
De la même façon, GL(E) s’identifie, moyennant l’isomorphisme précédent, à l’ensemble GLn (C) des matrices
carrées d’ordre n qui sont inversibles.
On rappelle également que GL(E) (respectivement GLn (C)), muni de la composition des applications (res-
pectivement muni du produit des matrices), possède une structure de groupe.
• Soit A = (aij )16i,j6n ∈ Mn (C). On dit que A est triangulaire supérieure si aij = 0 dès que i > j. On note
Tn (C) le sous-espace vectoriel de Mn (C) formé des matrices triangulaires supérieures.
Soit f ∈ L(E). On sera amené à utiliser la propriété (T) suivante :
(T) : il existe une base B 0 de E telle que MatB0 (f ) ∈ Tn (C)
• On rappelle que, par convention : ∀A ∈ Mn (C), A0 = I (matrice identité).
• Soit f ∈ L(E). Alors, f admet n valeurs propres en comptant chacune avec son ordre de multiplicité.
• On rappelle enfin que l’exponentielle d’un nombre complexe z peut être noté ez ou exp z et que, pour tout
nombre complexe z, exp z 6= 0.
Page 1/4
(k)
b) Montrer, plus généralement, que N k ∈ Tn (C) et que nij = 0 si j 6 i + k − 1.
c) En déduire que N ∈ Nn (C).
I.B.5) Soient f ∈ L(E) et N ∈ Tn (C) la matrice de f dans une base appropriée B de E donnée par la
propriété (T) rappelée en préliminaire.
a) En explicitant le polynôme caractéristique de N , déterminer les valeurs propres de f en fonction des
termes diagonaux de N .
b) Montrer que f est nilpotent si et seulement si 0 est sa seule valeur propre.
I.B.6) Montrer qu’une matrice triangulaire supérieure est nilpotente si et seulement si tous ses termes
diagonaux sont nuls.
I.C – Soit A = (aij ) ∈ Mn (C).
Xn
On rappelle que la trace de A est le nombre complexe Tr(A) = aii .
i=1
I.C.1) Soit f ∈ L(E).
Montrer que le nombre complexe Tr(MatB (f )) ne dépend pas du choix de la base B dans E.
On appelle « trace de l’endomorphisme f » ce nombre complexe, noté Tr(f ).
Ainsi on a, pour toute base B de E, Tr(f ) = Tr(MatB (f )).
I.C.2) Soit f ∈ L(E). On désigne par λ1 , . . . , λn , les valeurs propres (éventuellement égales) de f .
Montrer, à l’aide de la question I.B.5 a, que :
n
X
Tr(f ) = λk
k=1
II.A.1)
a) Représenter la matrice de exp f sur la base Bp .
b) Montrer que exp f appartient à GL(E).
Cet endomorphisme est appelé « exponentielle de l’endomorphisme f ». On admet qu’il ne dépend que de f et
pas de la base de vecteurs propres de f utilisée pour le définir.
Si D est une matrice diagonale de termes diagonaux µ1 , . . . , µn , on note exp D la matrice diagonale dont les
termes diagonaux sont exp µ1 , . . . , exp µn .
II.A.2) Soit M ∈ Mn (C). On suppose que M est diagonalisable.
Soient P1 , P2 deux matrices inversibles et D1 , D2 deux matrices diagonales telles que :
M = P1 D1 P1−1 = P2 D2 P2−1
Page 2/4
II.B.1) Déterminer les termes diagonaux de la matrice exp M .
II.B.2) En déduire l’ensemble des valeurs propres de exp f puis montrer que exp f ∈ GL(E).
L’endomorphisme exp f est encore appelé l’exponentielle de f et la matrice exp M l’exponentielle de M .
II.C – On suppose enfin que f satisfait à la propriété (P ) suivante :
2
(P) : ∃(d, g) ∈ (L(E)) , d diagonalisable, g nilpotent, d ◦ g = g ◦ d / f = d + g
On admettra que, si f satisfait à (P), alors le couple (d, g) donné par (P) est unique.
II.C.1)
a) Montrer que : exp d ◦ exp g = exp g ◦ exp d.
On pose alors : exp f = exp d ◦ exp g et on l’appelle encore l’exponentielle de f .
On désigne par Γn (E) le sous-ensemble de L(E) formé des endomorphismes f satisfaisant à (P ).
De même, on désigne par Γn (C) le sous-ensemble de Mn (C) formé des matrices M qui peuvent s’écrire
M = D + N avec D diagonalisable, N nilpotente et DN = N D.
b) Montrer que, pour toute matrice M de Γn (C), le couple (D, N ) associé est unique.
On pose exp M = exp D exp N et on l’appelle l’exponentielle de M .
II.C.2) Soient M ∈ Γn (C) et P ∈ GLn (C).
Démontrer que P M P −1 ∈ Γn (C) et que exp(P M P −1 ) = P (exp M )P −1 .
On a ainsi défini deux applications exp : Γn (E) −→ GL(E) et exp : Γn (C) −→ GLn (C).
Notre but est maintenant d’étudier un peu plus précisément ces applications dans les cas n = 2 et n = 3.
III Le cas n = 2
On suppose dans toute cette partie que E désigne un C espace-vectoriel de dimension 2.
III.A – Soient f ∈ L(E), λ et µ ses valeurs propres, Eλ le sous-espace propre associé à la valeur propre λ.
On suppose f non diagonalisable.
III.A.1) Montrer que λ = µ et que dim Eλ = 1.
Montrer, de plus, que (f − λIdE )2 = 0. (On pourra utiliser la question I.B.5 a).
III.A.2) Soient v ∈ E un vecteur n’appartenant pas à Eλ et u = f (v) − λv.
Montrer que u ∈ Eλ \{0} et que B = (u, v) est une base de E. Déterminer MatB (f ).
III.B – Pour tout couple (a, b) ∈ C2 , on définit les matrices suivantes :
a 0 a 1
D(a, b) = et M (a) =
0 b 0 a
Montrer que tout élément de M2 (C) est semblable à une matrice de J2 (C).
III.C – Montrer que J2 (C) ⊂ Γ2 (C) puis calculer exp D(a, b) et exp M (a) pour tout couple (a, b) ∈ C2 .
III.D – Montrer que Γ2 (C) = M2 (C).
On admettra de même que Γ2 (E) = L(E).
L’application exponentielle est ainsi une application de L(E) dans GL(E).
III.E –
III.E.1) Soient θ un réel non nul et A(θ) la matrice définie par :
0 −θ
A(θ) =
θ 0
Page 3/4
∀M ∈ L0 (C) , exp M ∈ SL2 (C)
IV Le cas n = 3
Dans toute cette partie, on suppose que E est un C-espace vectoriel de dimension 3.
L’objectif est ici de montrer que l’on a encore, dans ce cas, les égalités : L(E) = Γ3 (E) et M3 (C) = Γ3 (C).
Soient f ∈ L(E), λ, µ et ν ses valeurs propres.
IV.A – On suppose que λ, µ et ν sont trois valeurs propres distinctes.
Montrer que f ∈ Γ3 (E).
IV.B – On suppose que λ = µ = ν.
IV.B.1) Montrer que f − λIdE est nilpotent.
IV.B.2) Montrer que f ∈ Γ3 (E).
IV.C – On suppose que λ = µ, µ 6= ν.
IV.C.1) Justifier l’existence de trois complexes a, b, c et d’une base (e1 , e2 , e3 ) de E tels qu’on ait :
f (e1 ) = λe1
f (e2 ) = ae1 + λe2
f (e3 ) = be1 + ce2 + νe3
Page 4/4
PSI* Devoir surveillé n◦ 1
Corrigé
Année scolaire
2017/2018
2) Comme E est dimension finie, f est injective si et seulement si f est bijective. Donc :
0∈
/ Sp(f ) ⇔ f ∈ GL(E).
M ∈ GLn (C) ⇔ 0 ∈
/ Sp(M ).
0 1 2 0 1 2 0 0 3
B. 1) N 2 = 0 0 3 0 0 3 = 0 0 0 et N 3 = 0. Donc :
0 0 0 0 0 0 0 0 0
k(N ) = 3.
∀p ∈ N, M p et N p sont semblables.
(k)
b) Soit k ∈ N∗ . Montrons par récurrence que, si j ≤ i + k − 1, nij = 0. Cela est vrai
pour k = 0 (N k = In ), 1 et 2.
Supposons la propriété vraie au rang k.
n
(k+1) P (k)
On a alors : nij = nil nlj .
l=1
(k) (k+1)
- Si i + k > n, pour tout l ∈ J1, nK , l ≤ i + k − 1 et nij = 0, donc nij = 0.
n
(k+1) P (k) (k)
- Si i + k ≤ n, nij = nil nlj car pour l ≤ i + k − 1, nil = 0.
l=i+k
(k+1)
Or pour i + k ≤ l et j ≤ i + k, l’on a j ≤ l et nlj = 0. D’où nij = 0.
La propriété est donc vraie au rang k + 1 et
(k)
en particulier, ∀k ∈ N, N k ∈ Tn (C) et nij = 0 si j ≤ i + k − 1.
(n)
c) Pour k = n, ∀i, j ∈ J1, nK , i + k − 1 = i + n − 1 ≥ n et j ≤ i + k − 1. Donc nij = 0,
ce qui montre :
N n = 0 et N ∈ Nn (C)
n
Q
5) a) χf (X) = χN (X) = (nii − X). Donc :
i=1
n
X n
X
Tr(f ) = nkk = λk .
k=1 k=1
Page 3 sur 10
b) det(exp(f )) = det(MatB (f ))
n
eλk
Q
=
k=1
Pn
= exp λk
k=1
6= 0
Donc : exp(f ) ∈ GL(E).
2) Soit f l’endomorphisme de E de matrice M dans la base B.
Soient B1 et B2 les bases de E telles que les matrices de passages respectives de B à B1
et de B à B2 soient P1 et P2 .
Alors, comme M = P1 D1 P1−1 et M = P2 D2 P2−1 , l’on a MatB1 (f ) = D1 , respectivement
MatB2 (f ) = D2 ; ces matrices étant diagonales, B1 et B2 sont des bases de vecteurs
propres de f .
D’où, d’après la définition de exp(f ),
MatB1 (exp(f )) = exp(D1 ) et MatB2 (exp(f )) = exp(D2 ), ce qui prouve :
MatB (exp(f )) = P1 exp(D1 )P1−1 = P2 exp(D2 )P2−1 . Donc :
exp(P M P −1 ) = P exp(M )P −1
III Le cas n = 2
III. A. 1) Si les valeurs propres λ et µ de f étaient distinctes, f serait diagonalisable. Comme f
est supposé non diagonalisable, λ = µ .
Si dim Eλ = 2, alors Eλ = E et f est une homothétie, diagonalisable. Donc 1 ≤
dim Eλ ≤ 1, ce qui prouve dim Eλ = 1 .
La seule valeur propre de f − λIdE est donc 0 et d’après I.B.5), f − λIdE est nilpotent.
doncune base de E dans laquelle la matrice de f − λIdE est de la forme
Il existe
0 a
M= d’après la question I.B.5).
0 0
Or M 2 = 0. Donc :
(f − λIdE )2 = 0
B. Soit A ∈ M2 (C).
Si A est diagonalisable, A est semblable à une matrice du type D(a, b).
Si A n’est pas diagonalisable, soit (e1 , e2 ) une base de E et f l’endomorphisme de E
de matrice A dans la base (e1 , e2 ). Comme A n’est pas diagonalisable, f ne l’est pas et
d’après
question III.A., il existe une base B dans laquelle f admet une matrice du type
la
λ 1
= M (λ). Donc A est semblable à une matrice de J2 (C). On a montré :
0 λ
Tout élément de M2 (C) est semblable à une matrice de J2 (C).
C. ∀a, b ∈ C, D(a, b) = D(a, b) + N avec N = 0, donc N est nilpotente : D(a, b) ∈ Γ2 (C).
0 1
∀a ∈ C, M (a) = aI2 + N avec N = .
0 0
On a alors aI2 est diagonale et N 2 = 0, donc N est nilpotente ; enfin (aI2 )N = N (aI2 ) =
aN : M (a) ∈ Γ2 (C). D’où :
J2 (C) ⊂ Γ2 (C).
ea 0
exp(D(a, b)) = par définition de l’exponentielle d’une matrice diagonale.
0 eb
0 1
exp(M (a)) = exp(aI2 ) exp
a 0 0
e 0 1 0 0 1
= a +
0a e 0 1 0 0
e 0 1 1
= a
0a ea 0 1
e e
=
0 ea
a a
e e
Donc exp(M (a)) =
0 ea
D. On a bien sur Γ2 (C) ⊂ M2 (C).
Inversement, soit M ∈ M2 (C). M est alors semblable à une matrice de J2 (C), donc de
Γ2 (C). D’où d’après II.C.2), M ∈ Γ2 (C). D’où :
Γ2 (C) = M2 (C).
1
- Eiθ (A(θ)) = Vect
i
iθ 0 −1 1 1
D’où A(θ) = P P avec P = et
0 −iθ −i i
iθ
1 1 e 0 1 i −1
exp(A(θ)) =
−i
iiθ 0 e−iθ 2i i 1
−iθ
1 e e i −1
=
2i −ieiθ ie−iθ i 1
1 2i cos θ −2i sin θ
=
2i 2i sin θ 2
cos θ
cos θ − sin θ
=
sin θ cos θ
Donc :
cos θ − sin θ
exp(A(θ)) = .
sin θ cos θ
1 0
2) L’on a alors exp(A(0)) = exp(A(2π)) = .
0 1
Comme A(0) 6= A(2π), exp n’est pas injective.
3) Une matrice M de J2 (C) ∩ GL2 (C) est de la forme D(a, b) avec ab 6= 0 ou M (a) avec
a 6= 0.
- Si M est de la forme D(a, b) ; posons a = |a|eiα et b = |b|eiβ .
exp(ln(|a| + iα) 0
On a alors M =
0 exp(ln(|b| +iβ)
ln(|a|) + iα 0
= exp
0 ln(|b|) + iβ
= exp(D(ln(|a|) + iα, ln(|b|) + iβ)).
- Si M est de la forme M (a) ; posons a = |a|eiα .
exp(ln(|a| + iα) 1 exp(λ) 1
On a alors M = = exp .
0 exp(ln(|a| + iα) 0 exp(λ)
exp(λ) exp(λ)
Or la matrice n’est pas diagonalisable et l’on a vu III.B. que cette
0 exp(λ)
exp(λ) 1
matrice est semblable à une matrice de la forme .
0 exp(λ)
exp(λ) exp(λ) λ 1
Donc M est semblable à = exp = exp(M (λ)).
0 exp(λ) 0 λ
J’ai montré :
Tout élément de J2 (C) ∩ GL2 (C) est semblable à l’exponentielle d’un élément de J2 (C).
4) Soit M ∈ GL2 (C) ; d’après la question III.B., il existe P1 ∈ GL2 (C) et M1 ∈ J2 (C) telle
que M = P1 M1 P1−1 . Comme M est inversible, M1 l’est aussi et M1 ∈ J2 (C) ∩ GL2 (C).
D’après la question III.E.2), il existe P2 ∈ GL2 (C) et M2 ∈ J2 (C) telle que
M1 = P2 exp(M2 )P2−1 .
D’où M = (P1 P2 ) exp(M2 )(P1 P2 )−1 = P exp(M2 )P −1 en posant P = P1 P2 , matrice
inversible.
Page 8 sur 10
a 0
Tout élément de L0 (C) est semblable à une matrice du type D(a) =
0 −a
0 1
avec a ∈ C ou N = .
0 0
eg
xp n’est ni surjective, ni injective.
Page 9 sur 10
IV Le cas n = 3
IV. A. f admet 3 valeurs propres 2 à 2 distinctes ; donc f est diagonalisable : il s’écrit f + 0 où
0 représente l’endomorphisme nul qui est nilpotent et, par ailleurs, f et l’endomorphisme
nul commutent, donc :
f ∈ Γ3 (E).
2) f s’écrit alors λIdE +(f −λIdE ). Comme λIdE est diagonalisable, f −λIdE est nilpotent
et λIdE et f − λIdE commutent,
f ∈ Γ3 (E).
1 0 α
2) dete (e1 , e2 , e03 ) = 0 1 β = 1 6= 0. Donc (e1 , e2 , e03 ) est une famille libre maximale :
0 0 1
Γ3 (E) = L(E).
E. 1) Le polynôme caractéristique de R(θ) vaut :
χR(θ) = −X(X 2 + θ2 ) et le spectre de R(θ) est {iθ, −iθ, 0}.
Par des calculs analogues à ceux de III.E.1), on obtient :
iθ 0 0 1 1 0
R(θ) = P 0 −iθ 0 P −1 avec P = −i i 0 .
0 0 0 0 0 1
On a alors : iθ
e 0 0
exp(R(θ)) = P 0 e−iθ 0 P −1
0 0 e0
cos(θ) − sin(θ) 0
= sin(θ) cos(θ) 0
0 0 1
J’ai montré :
cos(θ) − sin(θ) 0
exp(R(θ)) = sin(θ) cos(θ) 0 .
0 0 1
2) Comme exp(R(0)) = exp(R(2π)) et que R(0) 6= R(2π),
∆∆∆
Centrale 2018 PSI maths 1
avec les ti décrivant C. Bref : Toepn (C) est l'espace engendré par les D(k) . Comme cette famille est
clairement libre (prendre une combinaison linéaire libre ; regarder le coecient (1, 1 + k) si k ≥ 0 et
(1 − k, 1) sinon...) elle en constitue une base, et il ne reste plus qu'à compter sur ses petits doigts :
χA = (X − a)2 − bc
Q 4. Les valeurs propres de A sont les racines du polynôme caractéristique, c'est-à-dire les λ tels que
(λ − a)2 = bc.
On évite de sortir les racines de complexes, sauf à vouloir faire rire l'examinateur.
Si bc 6= 0 alors il existe deux complexes dont le carré vaut bc, donc A possède deux valeurs
propres donc (dimension) est diagonalisable.
Si bc = 0, alors A possède a comme unique valeur propre. Elle est donc diagonalisable si
et seulement si elle est semblable à aI2 , donc égale à aI2 , ce qui est vrai si et seulement si
b = c = 0.
A est diagonalisable si et seulement si b et c sont tous les deux non nuls ou tous les deux nuls.
Q 5. Discutons (bien entendu) sur le nombre de valeurs propres de A. Puisque le corps de base est C il
y en a au moins une, et puisque qu'on est dans M2 (C), il y en a au plus 2.
α 0
Si A possède deux valeurs propres α 6= β , alors A est semblable à .
0 β
Si A possède une seule valeur propre α, on se contente de trigonaliser A (rappel : c'est possible
car on est dans M2 (C)), et A est bien semblable à une matrice triangulaire supérieure avec
sur la diagonale l'unique valeur propre.
1
α 0 α γ
Toute matrice de M2 (C) est semblable à une matrice de la forme (avec α 6= β ) ou
0 β 0 α
Q 6. La question précédente nous invite à ne traiter que les deux matrices de la conclusion précédente
(si A et B sont semblables ainsi que B et C , alors A et C sont semblables 1 ).
α γ
La deuxième est directement une matrice de Toeplitz.
0 α
La première a pour polynôme caractéristique
2
α+β
(X − α)(X − β) = · · · = X− − γ,
2
2 α+β
α+β γ
avec γ = + αβ . Considérons alors α+β : cette matrice est de Toeplitz et
2
2 1 2
2
α+β
a pour polynôme caractéristique X − − γ = (X − α)(X − β), donc (α 6= β ) est
2
α 0
diagonalisable, et même semblable à ; c'est ce qu'on voulait montrer.
0 β
c.q.f.d.
Q 9. Supposons par l'absurde que (I.1) possède une unique racine r0 . Avec les notations précédentes, la
condition x0 = 0 donne K1 = 0 ; la condition xn+1 = 0 fournit alors K2 r0n+1 = 0. On s'inquiète
alors de la nullité éventuelle de r0 . Mais 0 n'est pas solution de (I.1) (car c 6= 0), donc r0 6= 0, puis
K2 = 0. On a alors tous les xi nuls, donc X aussi, ce qui n'est pas raisonnable pour un vecteur
propre.
2
Q 10. On a déjà vu que 0 n'est pas racine de (I.1), donc r1 et r2 sont non nuls. Ensuite, les conditions
x0 = 0 et xn+1 = 0 fournissent successivement (avec les notations vues plus haut) : K2 = −K1 ,
n+1
r1
puis K1 (r1n+1 − r2n+1 ) = 0. Puisque X 6= 0, on a K1 6= 0, donc r1n+1 = r2n+1 puis : = 1.
r2
r1
r1 et r2 sont non nuls et ∈ Un+1 .
r2
Q 11. Si par malheur on a oublié son cours de terminale/sup/spé/whatever, ça doit pouvoir se retrouver,
en partant de la factorisation d'un polynôme (et pas d'un réel, bien entendu...) dont on connaît le
coecient dominant et les racines :
bX 2 + (a − λ)X + c = b(X − r1 )(X − r2 ) = bX 2 − b(r1 + r2 )X + br1 r2 ,
et en identiant les coecients de ces polynômes (et toujours grâce au fait que b 6= 0) :
λ−a c
r1 + r2 = et r1 r2 = ·
b b
r1
Puisque ∈ Un+1 , il existe ` ∈ [[0, n]] tel que r1 = r2 e2i`π/(n+1) ; le produit r1 r2 vaut alors d'une
r2
c
part r12 e−2i`π/(n+1) et d'autre part , donc :
b
c bc ρ 2
r12 = e2i`π/(n+1) = 2 e2i`π/(n+1) = e
0 i`π/(n+1)
,
b b b
où on a choisi ρ0 un complexe dont le carré vaut bc (et un tel complexe existe bien). Il existe donc
ρ0
ε ∈ {−1, 1} tel que r1 = ε ei`π/(n+1) . On a alors :
b
λ = a + b(r1 + r2 ) = a + ερ0 ei`π/(n+1) + e−i`π/(n+1) ,
| {z }
2 cos(`π/(n+1))
et il reste à poser ρ = ερ0 (dont le carré vaut toujours bc). Remarquons enn que r2 6= r1 , donc
r1
6= 1 donc ` 6= 0.
r2
`π
Il existe ` ∈ [[1, n]] et ρ ∈ C tels que ρ2 = bc et λ = a + 2ρ cos
n+1
ρk
`kπ
Il existe α ∈ C tel que pour tout k ∈ [[0, n + 1]], xk = 2iα k sin ·
b n+1
3
pour 0 ≤ k ≤ n + 1, considérer le vecteur X = (xk )1≤k≤n ∈ Mn,1 (C) et essayer de montrer que
X est vecteur propre pour la valeur propre λ` . Tout d'abord, X est non nul 2 ; il s'agit alors de
vérier : AX = λ` X .
Cette équation est équivalente (grâce aux valeurs aux bords) aux n équations bxk+2 +(a−λ` )xk+1 +
k k
ρei`π/(n+1)
− ρe
−i`π/(n+1) 2
cxk = 0 (0 ≤ k ≤ n − 1). Mais xk = avec t1 t2 = ρ = c et
b b b2 b
| {z } | {z }
t1 t2
2ρ cos(`π/(n + 1)) λl − a
t1 + t2 = = , donc b(X − t1 )(X − t2 ) = bX 2 + (a − λ` )X + c, donc t1 et
b b
t2 sont les racines (oui, elles sont diérentes) de (I.1), donc la relation de récurrence souhaitée est
bien vériée, ce qui achève la synthèse : les λ` sont toutes valeurs propres de A.
`π
Il reste tout de même à noter que lorsque ` ∈ [[1, n]], on a ∈ [0, π], intervalle sur lequel la
n+1
fonction cos est injective, donc les λ` sont distincts.
`π
A(a, b, c) est diagonalisable avec n valeurs propres distinctes : a + 2ρ cos , pour 1 ≤ ` ≤ n.
n+1
II Matrices circulantes
Q 14. Chaque multiplication par Mn remonte les diagonales (ou les décale vers la droite) :
···
0 0 1 0 0
.. .. .. .. ..
. . . 1 . .
.. .. .. .. ..
.
Mn2 = . . . ., ... Mn = In .
n
. .. ..
.. . .
1
..
0 ··· ··· ··· . 0
Pour les grincheux, Mnk est constitué de zéros, sauf en les positions (i, i+k) (pour 1 ≤ i ≤ n−1−k)
et (i − k, i) (pour i + 1 ≤ k ≤ n) où il y a des 1.
La question 30 donnera l'occasion de prouver ce genre de choses.
La relation Mnn = In fournit pour le même prix :
Q 15. Puisqu'on travaille sur C, X n − 1 est scindé à racines simples (les n racines nèmes de l'unité) donc :
Mn est diagonalisable.
4
Pour obtenir des vecteurs propres, on peut résoudre Mn X = ωnk X , ou bien regarder
la question
1
ωnk
2k
ωn
suivante, et être pris d'une furieuse envie de considérer (pour 0 ≤ k ≤ n − 1) Xk = : il
..
.
(n−1)k
ωn
vérie Mn Xk = ωnk Xk ! (Et bien entendu il est non nul).
(Xk )0≤k≤n−1 constitue une base de vecteurs propres de Mn .
Ben oui c'est une base : n vecteurs propres associés à des valeurs propres diérentes, en dimension
n.
Q 16. Bien entendu, Φn est la matrice dont les colonnes sont les Xk . Il s'agit donc de la matrice de passage
de la base canonique de Cn vers la base de diagonalisation vue plus haut. On a alors directement :
1 (0)
ωn
Φ−1 M Φ = ..
n n n
.
(0) ωnn−1
Les matrices circulantes constituent un sous-espace de Toepn (C) stable par produit et transposition.
Q 20. Puisque Mn Xk = ωnk Xk , on a Mn2 Xk = ωn2k Xk , puis Mnr Xk = ωnrk Xk et enn (pour P ∈ C[X]) :
P (Mn )Xk = P (ωnk )Xk
La famille (X0 , ..., Xn−1 ) est donc une
base de vecteurs propres pour la matrice circulante P (Mn ),
associée aux valeurs propres P (ωnk ) 0≤k≤n−1 .
5
III Étude des matrices cycliques
III.A Endomorphismes et matrices cycliques
Q 21. Tout d'abord, si x0 , ..., fM (n−1)
(x0 ) est une base de Cn , alors la matrice de fM dans cette base est
bien de la forme C(a0 , ..., an−1 ) (puisque f f (k) (x0 ) = f (k+1) (x0 )). M et cette matrice cyclique
représentant le même endomorphisme dans deux bases diérentes, elles sont semblables.
Réciproquement, si M = P C(a0 , ..., an−1 )P −1 avec P inversible : P représente une base G =
(g1 , ..., gn ) dans la base canonique de Cn , et P −1 M P = C représente alors fM dans la base G . Mais
on a alors (lire la matrice !) fM (gk ) = gk+1 pour tout k ∈ [[1, n − 1]], et donc : gk = fM k−1
(g1 ) pour
tout k ∈ [[1, n]], donc G = (g1 , fM (g1 ), ..., fM (g1 )), ce qui prouve la deuxième implication.
n−1
λn−1
u1 λ1 u1 ··· 1 u1
u2 λ2 u2 ··· λn−1
2 u2
. ..
.. .
n−1
un λn un ··· λ n un
C'est presque une matrice de Vandermonde. Par multilinéarité, son déterminant se ramène d'ailleurs
à celui d'une Vandermonde : il vaut
Y
u1 · · · un (λj − λi )
1≤i<j≤n
Et ce déterminant est donc non nul si et seulement si les ui sont tous non nuls et les λi distincts. Ce
déterminant non nul caractérise l'inversibilité de la matrice donc le fait que la famille de vecteurs
représentée soit une base.
(u) est une base si et seulement si les ui sont tous non nuls et les λi distincts.
(n−1)
u, fM (u), ..., fM
Q 23. Tout
d'abord, si les λi ne sont pas distincts, on ne pourra pas trouver de vecteur u tel que
(u) soit une base. Mais réciproquement, si les λi sont distincts, alors en pre-
(n−1)
u, fM (u), ..., fM
nant u = e1 + · · · + en (bref : ui = 1 pour tout i), alors u, fM (u), ..., fM
(n−1)
(u) est une base
d'après la question précédente.
n
Lorsqu'il est cyclique, ses vecteurs cycliques sont ceux de la forme ui ei , où ui 6= 0 pour tout i.
P
i=1
6
Si xn = 0 alors (en remontant les équations de la dernière à la seconde) tous les xk sont nuls, donc
X n'est pas vecteur propre.
Supposons que λ est valeur propre, et prenons pour X un vecteur propre associé. Il est donc non
nul, donc xn 6= 0. La dernière équation fournit xn−1 = (λ − an−1 )xn , puis l'avant-dernière
xn−2 = (λ2 − an−1 λ − an−2 )xn ,
puis en remontant jusqu'à la seconde équation : x1 = (λn−1 − an−1 λn−2 − · · · − a1 )xn . Combinée
avec la première équation, et puisque xn 6= 0, on obtient donc la condition nécessaire :
λn − an−1 λn−1 − · · · − a1 λ − a0 = 0.
Un calcul de polynôme caractéristique aurait probablement fait gagner un peu de temps : pour les
candidats d'une part ; et pour le jury d'autre part : on savait avant de corriger les copies que le si
et seulement si serait traité n'importe comment...
Q 25. On a vu dans la résolution précédente que lorsque CX = λX , alors les xk sont tous imposés par la
valeur de xn : le sous-espace propre (lorsque λ est valeur propre) est donc de dimension 1.
n−1
− an−1 λn−2 − · · · − a1
λ
..
.
Lorsque λ ∈ Sp(C), Ker(C − In ) est une droite dirigée par
2
λ − an−1 λ − an−2
λ − an−1
1
Q 26. Puisque chaque sous-espace propre est de dimension 1, leur somme sera tout l'espace si et seulement
s'il y en a n :
L'implication (diagonalisable et cyclique) ⇒ (à spectre simple) était déjà établie à la question 23, et
(cyclique et à spectre simple) ⇒ (diagonalisable) est évidente (sans le caractère cyclique !) ; WTF ?
Q 27. Relisons la question 2 : Si A et B commutent (par exemple si B = A) alors tout polynôme en
A commute avec tout polynôme en B (par exemple B ) ; bref : P (A) commute avec A. La version
géométrique de ce résultat matriciel est le résultat demandé.
7
Q 28. Suivons l'indication en décomposant eectivement g(x0 ) dans la base suggérée : il existe (α0 , ..., αn−1 ) ∈
Cn tel que
n−1
X
g(x0 ) = α0 x0 + α1 fM (x0 ) + · · · + αn−1 f n−1 (x0 ) = i
α0 fM (x0 ).
i=0
Déjà, g et h coïncident en x0 , ce qui est un bon début. Pour peu qu'ils coïncident en chaque fM k
(x0 )
(pour 0 ≤ k ≤ n − 1), on devrait pouvoir conclure. Et en l'occurrence g ◦ fM k
= fMk
◦ g , donc :
n−1
k
k
X
k i
n−1
X
i k
k
g fM (x0 ) = fM (g(x0 )) = α0 fM fM (x0 ) = α0 fM fM (x0 ) = h fM (x0 ) ,
i=0 i=0
Q 30. Le polynôme caractéristique de N est X n : son spectre est réduit à {0}. L'unique sous-espace
propre est donc le noyau, qui contient en (dernier vecteur de la base canonique) et est de dimension
(théorème du rang) n − (n − 1) (n − 1 colonnes échelonnées).
0
..
.
Sp(N ) = {0}, et Ker(N ) = Vect
0
1
8
Si A ∈ ∆i et B ∈ ∆j alors AB ∈ ∆i+j
n−1 n−1
Soient A ∈ Hi et B ∈ Hj . On peut écrire A = Ak et B = B` (avec Ak ∈ ∆k et B` ∈ ∆` ).
P P
Q 34.
k=i `=j
On a alors :
n−1
X n−1
X
AB = Ak B` ;
k=i `=j
mais chaque Ak B` est dans ∆k+` (question précédente) donc dans Hi+j (car k + ` ≥ i + j ), donc
la (double-)somme aussi.
Si A ∈ Hi et B ∈ Hj alors AB ∈ Hi+j .
n−1
En regardant la preuve précédente, on peut écrire : P −1 = In + Q avec Q ∈ ∆p(k+1) ⊂ Hk+1 ;
M
Q 37.
p=1
on a alors :
ϕ(M ) − M = (In + Q)M (In + C) − M = QM + M C + QM C.
Mais d'après la question 34, ces trois termes sont respectivement dans Hk+1+i , Hi+k+1 et H2(k+1)−1 ,
donc (2(k + 1) − 1 ≥ k + 1) dans Hk+1 .
B ∈ H−1
n−1
On peut ensuite écrire T = T (i) , et la propriété ϕ(M ) − M ∈ Hk+1 reste vraie dès que M ∈ ∆i
P
i=0
avec i ≥ 0 (reprendre la preuve : la condition i ≤ k est inutile), donc ϕ(T ) − T ∈ Hk+1 . Ainsi :
B = ϕ(N ) + ϕ(T ) = A + (N C − CN ) + B 0 ,
9
avec B 0 ∈ Hk+1 .
Bien entendu pour i ≤ k, B 0(i) = 0 ; il reste donc à montrer :
(
(i) 0 si − 1 ≤ i ≤ k − 1
(N C − CN ) =
N C − CN si i = k
ce qui revient à dire que N C − CN ∈ ∆k . Mais puisque N ∈ ∆−1 et C ∈ ∆k+1 , c'est une
conséquence directe de la question 33.
Q 41. Soit X ∈ ∆k+1 : S(X) = N X − XN et N ∈ ∆−1 ; la question 33 nous assure que S(X) est la
diérence de deux éléments de ∆(k+1)−1 donc est dans ∆k . En notant que tN ∈ ∆1 on montre la
deuxième inclusion demandée.
S(∆k+1 ) ⊂ ∆k et S ∗ (∆k ) ⊂ ∆k+1 .
et d'autre part :
hX, Sk∗ (Y )i = tr tX(tN Y − Y tN ) = tr(tX tN Y ) − tr(tXY tN ).
Mais
tr(tN tXY ) = tr tN (tXY ) = tr (tXY )tN ) = tr tXY tN ,
donc :
Pour X ∈ ∆k+1 et Y ∈ ∆k : hSk+1 (X), Y i = hX, Sk∗ (Y )i
Prenons alors A ∈ Ker(Sk∗ ) et B ∈ Im(Sk+1 ). Il existe X ∈ ∆k+1 tel que B = Sk+1 (X), et on a
donc :
hA, Bi = hA, Sk+1 (X)i = hSk+1 (X), Ai = hX, Sk∗ (A)i = 0
car A ∈ Ker(Sk∗ ).
Ensuite, Ker(Sk∗ ) est bien un sous-espace de ∆k par dénition, ainsi que Im(Sk+1 ) (question 41 :
S(∆k+1 ) ⊂ ∆k ) ; il reste donc à vérier que la somme de leurs dimensions vaut celle de ∆k , à savoir
n − k.
Ker(Sk∗ ) = Ker(S ∗ ) ∩ ∆k est la droite engendré par Dk , donc est de dimension 1 ;
Im(Sk+1 ) est de dimension :
dim(∆k+1 ) − dim(Ker(Sk+1 )) = (n − (k + 1)) − dim(Ker(S) ∩ ∆k+1 ) = n − k − 1
| {z }
0
(Ker(S) ∩ ∆k+1 est constitué des matrices triangulaires inférieures qui sont dans ∆k+1 , ce qui
est un tout petit espace).
10
On a bien dim (Ker(Sk∗ )) + dim (Im(Sk+1 )) = dim(∆k ), ce qui permet de conclure puisque les deux
sous-espaces sont en somme directe (orthogonale) :
∆k = Ker(Sk∗ ) ⊕⊥ Im(Sk+1 )
Q 43. Avec un peu de hauteur, on voit qu'il sut (partie III.B.1) de construire C ∈ ∆k+1 (ce qui nous
laisse n − (k + 1) degrés de liberté) tel que A(k) + N C − CN ait ses n − k éléments diagonaux
d'ordre k égaux, ce qui fait... n − k − 1 équations (ça sent bon). Si on y arrive, alors en posant
P = In + C on aura B = ϕ(A) = P −1 AP qui vériera exactement les conditions souhaitées sur les
diagonales d'ordre i ∈ [[−1, k]].
J'ai dans un premier temps commencé à écrire des n − k − 1 équations (d'inconnues les ci,i+k+1
pour 1 ≤ i ≤ n − (k + 1))... avant de réaliser que parfois dans un problème on utilise ce qui précède !
Observons donc A(k) : cette matrice est dans ∆k , donc la question précédente nous donne l'exis-
tence de C1 ∈ ∆k+1 tel que A(k) − (N C1 − C1 N ) soit dans Ker(Sk∗ ), c'est-à-dire dans Vect(Dk ).
Considérons alors P = In − C1 . La partie III.B.1 nous assure que B = P −1 AP vérie : pour tout
i ∈ [[−1, k − 1]], B (i) = A(i) , et B (k) = A(k) − N C1 + C1 N , donc B (k) ∈ Vect(Dk ) possède comme
requis tous ses coecients diagonaux d'ordre k égaux...
Q 44. Il sut évidemment de montrer que toute matrice cyclique A0 = C(a0 , ..., an−1 ) est semblable à
une matrice de Toeplitz.
On applique le résultat de la question précédente à A0 (qui
est bien de la forme N+ T ) avec
a0
1 a0 ?
.. ..
k = 0 : A0 est semblable à une matrice de la forme A1 = . .
0
.. .. ..
. . .
(0) 0 1 a0
On applique le résultat de la question précédente à A1 (qui est toujours de la forme N +
) avec cette fois k =
T 1 : A1 (donc A0 ) est semblable à une matrice de la forme A2 =
a0 a01 ?
..
.
1 a0
.. .. ..
. . .
0
.. .. ..
. . .
0
a1
(0) 0 1 a0
On continue ainsi en appliquant le résultat de la question précédente à la matrice obtenue à
l'étape précédente, pour k allant jusqu'à n−1, et C(a0 , ..., an−1 ) = A0 est nalement semblable
à une matrice de Toeplitz.
11
Concours Centrale-Supélec 2018 filière PSI
Mathématiques 1
Présentation du sujet
Le sujet porte sur les matrices de Toeplitz. Il est constitué de trois grandes parties :
− une première partie qui permet de se familiariser avec cette classe de matrices, notamment
par l’étude du cas des matrices de Toeplitz de taille 2, ou encore par quelques propriétés des
matrices tri-diagonales qui sont un cas particulier des matrices de Toeplitz ;
− une deuxième partie dont l’objectif est l’étude des matrices circulantes qui sont un autre cas
particulier des matrices de Toeplitz. On étudie notamment la structure de cet ensemble et la
diagonalisabilité de ces matrices ;
− une troisième et dernière partie qui propose l’étude des matrices cycliques et les relie aux
matrices de Toeplitz.
Conclusion
Le sujet est long mais sa progressivité a permis à tous les candidats de traiter de nombreuses
questions et de mettre en évidence leurs compétences en algèbre. Quelques lacunes sur des notions
de base (nombres complexes notamment) ont malheureusement aussi été repérées.
Les correcteurs encouragent vivement les candidats à utiliser un brouillon et à ne pas commencer
systématiquement la rédaction aussitôt l’énoncé lu. De nombreuses erreurs grossières pourraient
ainsi être évitées. De même, quelques exemples simples vus tout au long de l’année donneraient
aux candidats des idées élémentaires permettant de comprendre de nombreuses questions et d’en
mesurer la difficulté.
Notations et définitions :
Dans tout le problème K désigne R ou C et n est un entier naturel.
Si u est un endomorphisme d’un K-espace vectoriel E, on note u0 = idE et ∀n ∈ N, un+1 = un ◦ u.
On note Kn [X] la K-algèbre des polynômes de degré inférieur ou égal à n, Mn (K) la K-algèbre
des matrices carrées de taille n à coefficients dans K de matrice unité In et GLn (K) le groupe des
matrices inversibles de Mn (K) ; les éléments de Mn (K) sont notés M = (mi,j ).
Pour une matrice A de Mn (K), on note tA la transposée de la matrice A, rg(A) son rang, χA =
det (XIn − A ) son polynôme caractéristique et Sp (A) l’ensemble de ses valeurs propres.
Si P = X n + an−1 X n−1 + . . . + a1 X + a0 est un polynôme unitaire de Kn [X] on lui associe
0 0 . . 0 −a0
1 0 . . 0 −a1
0 1 0 . 0 −a2
la matrice compagnon CP = ∈ Mn (K)
. . . . . .
0 . 0 1 0 −an−2
0 . . 0 1 −an−1
(c’est-à-dire la matrice CP = (ci,j ) est définie par ci,j = 1 pour i − j = 1, ci,n = −ai−1 et ci,j = 0
dans les autres cas).
Les parties II. III. et IV. utilisent les résultats de la partie I. et sont indépendantes entre elles.
I. Propriétés générales
Dans cette partie on considère le polynôme P = X n + an−1 X n−1 + . . . + a1 X + a0 de Kn [X] et CP
sa matrice compagnon associée.
1. Montrer que CP est inversible si et seulement si P (0)6=0.
2. Montrer que χCp = P .
3. Soit Q un polynôme de Kn [X], déterminer une condition nécessaire et suffisante pour qu’il existe
une matrice A de Mn (K) telle que χA = Q.
4. On note tCP la transposée de la matrice CP .
(a) Justifier la proposition : Sp (CP ) = Sp tCP .
(c) Montrer que tCP est diagonalisable si et seulement si P est scindé sur K et a toutes ses
racines simples.
(d) On suppose que P admet n racines λ1 , λ2 , . . ., λn deux à deux distinctes,
montrer que tCP est
1 1 . . 1
λ1 λ2 . . λn
2
diagonalisable et en déduire que le déterminant de Vandermonde λ1 λ22 . . λ2n
. . . . .
λn−1 λn−1 . . λn−1
1 2 n
est non nul.
5. Exemples :
(a) Déterminer une matrice A (dont on précisera la taille n) vérifiant :
A2018 = A 2017 + A2016 + 2015In .
(b) Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E vérifiant :
f n−1 6=0 et f n = 0 ; montrer que l’on peut trouver une base de E dans laquelle la matrice
de f est une matrice compagnon que l’on déterminera.
Page 1/3
II. Localisation des racines d’un polynôme
Soit A = (ai,j ) une matrice de Mn (C), on pose pour tout entier 1 6 i 6 n :
Pn
ri = |ai,j | et Di = {z ∈ C, |z| 6 ri }.
j=1
x1
x2
Pour X = . ∈ Mn,1 (C), on note kXk∞ = 1 max |xi |.
6i6n
xn
x1
x2
6. Soit λ ∈ Sp (A) et X = . un vecteur propre associé à λ.
xn
Montrer que pour tout entier 1 6 i 6 n : |λxi | 6 ri kXk∞ .
Sn
7. Démontrer que Sp (A) ⊂ Dk .
i=1
8. Soit P = X n +an−1 X n−1 +. . .+a1 X +a0 un polynôme de C[X], établir que toutes les racines de P
sont dans le disque fermé de centre 0 et de rayon R = max {|a0 | , 1 + |a1 | , 1 + |a2 | , . . ., 1 + |an−1 |}.
9. Application :
Soit a, b, c et d quatre entiers naturels distincts et non nuls, montrer que l’équation d’inconnue
n:
na + nb = nc + nd
n’admet pas de solution sur N \ {0, 1}.
III. Suites récurrentes linéaires
On note E = CN l’espace vectoriel des suites de complexes et si u est une suite de E, on écrira
u(n) à la place de un pour désigner l’image de n par u.
On considère le polynôme P = X p + ap−1 X p−1 + . . . + a0 de C[X] avec a0 6=0 et on lui associe le
sous-espace vectoriel F de E formé des éléments u vérifiant la relation :
∀n ∈ N : u(n + p) = −ap−1 u(n + p − 1) − . . . − a0 u(n).
13. Si u est un élément de E, on définit l’élément f (u) de E par : f (u) : n 7→ u(n + 1). Montrer que
l’application f ainsi définie est un endomorphisme de E et que F est stable par f .
14. Si g est l’endomorphisme de F induit par f , montrer que la matrice de g dans la base (e0 , e1 , . . ., ep−1 )
est tCP .
15. On suppose que P admet p racines non nulles et deux à deux distinctes : λ0 , λ1 , . . ., λp−1 .
(a) Déterminer une base de F formée de vecteurs propres de g.
(b) En déduire que, si u est élément de F , il existe des constantes complexes k0 , k1 , . . ., kp−1
telles que : ∀n ∈ N, u(n) = k0 λn0 + k1 λn1 + . . . + kp−1 λnp−1 .
16. Exemple : (On revient à la notation usuelle un )
Soit a, b et c trois réels distincts.
Déterminer une base de l’espace vectoriel des suites définies par u0 , u1 et u2 et par la relation
de récurrence valable pour tout n ∈ N :
un+3 = (a + b + c)un+2 − (ab + ac + bc)un+1 + abc.
Page 2/3
IV. Matrices vérifiant : rg(U − V ) = 1
Dans cette partie, pour une matrice A, on notera CA la matrice compagnon du polynôme χA .
17. Une matrice A est-elle nécessairement semblable à la matrice compagnon CA ?
Pour tout couple (U, V ) de matrices de GLn (K), on considère les deux propositions suivantes,
que l’on identifie chacune par un symbole :
(*) : rg(U − V ) = 1
(**) : Il existe une matrice inversible P telle que U = P −1 CU P et V = P −1 CV P .
18. Montrer qu’un couple (U, V ) de matrices distinctes de GLn (K) vérifiant (**) vérifie (*).
19. Déterminer un couple (U, V ) de matrices de GL2 (K) (n = 2) vérifiant (*) mais ne vérifiant pas
(**) et déterminer le plus grand commun diviseur des polynômes χU et χV .
Dans la suite de cette partie, (U, V ) est un couple de matrices de GLn (K) vérifiant (*) et tel
que χU et χV sont deux polynômes premiers entre eux.
Soit E un K-espace vectoriel de dimension n et de base B, on désigne par u et v les automor-
phismes de E tels que U (respectivement V ) soit la matrice de u (respectivement v) dans la base
B.
Enfin on pose H = Ker(u − v).
20. Montrer que H est un hyperplan vectoriel de E.
Fin de l’énoncé.
Page 3/3
PSI* Problème de révision n°9
Correction
Année scolaire
2018/2019
I. Propriétés générales
1. En développant det(CP ) suivant sa première ligne, on obtient :
χCP = P .
3. Si Q est un tel polynôme, il est nécessaire que Q soit un polynôme de degré n et de coefficient dominant (−1)n . La
question 2. montre alors que cette condition est suffisante.
4. a) On sait que CP et t Cp ont même polynôme caractéristique (à savoir (−1)n P) et donc même spectre.
Sp(Cp ) = Sp(t Cp ).
1
b) Soit λ une valeur propre de t CP . Soit X = (xi )1≤i≤n ∈ Mn,1 (K).
n−1
X
t
CP X = λX ⇔ ∀k ∈ J1, n − 1K, xk+1 = λxk et − ai xi+1 = λxn
i=0
n−1
X
⇔ ∀k ∈ J2, nK, xk = λk−1 x1 et − a i λi x 1 = λn x 1
i=0
n−1
X
k−1 n
⇔ ∀k ∈ J2, nK, xk = λ x1 et (λ + ai λi )x1 = 0
i=0
⇔ ∀k ∈ J2, nK, xk = λk−1 x1 et P(λ)x1 = 0
⇔ ∀k ∈ J2, nK, xk = λk−1 x1 (car P(λ) = 0).
Donc, le sous-espace propre de t CP associé à la valeur propre λ est Vect((1, λ, λ2 , . . . , λn−1 )). En particulier, tout sous-
espace propre de CP est une droite vectorielle.
c) t CP est diagonalisable (dans K) si et seulement si χt CP = χCP = (−1)n P est scindé sur K et pour toute valeur propre
λ, la dimension du sous-espace propre associé est l’ordre de multiplicité de cette valeur propre.
D’après b), tout sous-espace propre de t CP est de dimension 1, et donc
t
CP est diagonalisable si et seulement si P est scindé sur K, à racines simples.
d) D’après b), pour 1 ≤ k ≤ n, le sous-espace propre associé à la valeur propre λk est engendré par le vecteur
ek = (λi−1 t
k )1≤i≤n . D’après c), CP est diagonalisable. On en déduit que la famille (ek )1≤k≤n est une base de E et donc
que le déterminant de Vandermonde det(λki−1 )1≤i,k≤n est non nul.
0 ... ... 0 1999
1 0 ... ... 0 0
.. ..
0 ... ...
. .
5. a) D’après 2., si A est la matrice compagnon . . .. , de format 2002, le polynôme ca-
.. .. ..
. . 0
. . .
.. .. ..
0 1
0 ... ... 0 1 1
ractéristique de A est PA = X2002 − X2001 − X2000 − 1999. D’après le théorème de Cayley-Hamilton, la matrice A
vérifie
b) Soit x0 un vecteur de E tel que fn−1 (x0 ) 6= 0. Montrons que la famille (x0 , f(x0 ), . . . , fn−1 (x0 )) est libre.
n−1
X
Supposons par l’absurde que cette famille soit liée. Alors, il existe (λ0 , . . . , λn−1 ) 6= (0, . . . , 0) tel que λk fk (x0 ) = 0.
k=0
n−1
X
Soit p = Min{k ∈ J0, n − 1K/ λk 6= 0}. Par définition, 0 ≤ p ≤ n − 1 et λk fk (x0 ) = 0. En prenant l’image des deux
k=p
n−1
X
membres par fn−1−p (n−1−p est un entier positif), on obtient λk fk+n−p−1 (x0 ) = 0 et donc λp fn−1 (x0 ) = 0 (puisque,
k=p
pour k ≥ n, fk (x0 ) = 0). Comme fn−1 (x0 ) 6= 0, on obtient λp = 0 ce qui contredit la définition de p.
Donc, la famille (x0 , f(x0 ), . . . , fn−1 (x0 )) est libre. Etant de cardinal n = dim(E), cette famille est une base de E.
2
0 ... ... 0
. ..
1 ..
.
..
.
Dans cette base, la matrice de f est la matrice compagnon 0 .. .
.
.. . . .. .. ..
. . . . .
0 ... 0 1 0
7. Soient λ une valeur propre de A et X = (xi )1≤i≤n un vecteur propre associé. Soit i0 un indice tel que ||X||∞ = |xi0 |.
D’après 6., on a
Mais X est un vecteur propre et donc X 6= 0. Par suite, ||X||∞ > 0 et l’inégalité |λ|.||X||∞ ≤ ri0 ||X||∞ fournit
|λ| ≤ ri0 .
On a ainsi montré que, pour toute valeur propre λ, il existe un indice i0 tel que |λ| ≤ ri0 ou encore tel que λ ∈ Di0 . Par
suite, toute valeur propre de A appartient à ∪1≤i≤n Di . Finalement,
Sp(A) ⊂ ∪1≤i≤n Di .
8. Notons (λ1 , . . . , λn ) la famille des racines (distinctes ou confondues) de P dans C. Puisque (−1)n P est le polynôme
caractéristique de CP , (λ1 , . . . , λn ) est aussi la famille des valeurs propres de CP .
D’après 7. chaque valeur propre λ a un module inférieur ou égal à au moins l’un des ri de la matrice CP . Or, pour la
matrice CP , r1 = |a0 | et pour i ≥ 2, ri = |1| + | − ai−1 | = 1 + |ai−1 |. Ainsi, toute racine de P a un module inférieur ou égal
au plus grand des nombres |a0 |, 1 + |a1 |, . . . , 1 + |an−1 | ou encore
toutes les racines de P sont dans le disque fermé de centre O et de rayon R = max{|a0 |, 1 + |a1 |, . . . , 1 + |an |}.
9. Soit P le polynôme Xd + Xc − Xb − Xa . D’après 8., les racines de P ont un module au plus égal à 1 + | ± 1| = 2. Une
racine de P, qui est de plus un nombre entier supérieur ou égal à 2 ne peut donc être que 2.
Réciproquement, on n’a jamais 2a + 2b = 2c + 2d . En effet, dans le cas contraire, on peut diviser les deux membres de
cette égalité par 2α où α est le plus petit des quatre nombres a, b, c ou d. L’un des quatre termes est alors 1 et les trois
autres sont des puissances strictement positives de 2 et donc des nombres pairs. Ainsi, l’un des deux membres de l’égalité
2a−α + 2b−α = 2c−α + 2d−α est un nombre pair et l’autre est un nombre impair, ce qui est impossible.
3
11. • Soient (u, v) ∈ F2 et (α, β) ∈ C2 .
ϕ(λu + µv) = (λu0 + µv0 , . . . , λup−1 + µup−1 ) = λ(u0 , . . . , up−1 ) + µ(v0 , . . . , vp−1 ) = λϕ(u) + µϕ(v).
Donc, ϕ est une application linéaire de F dans Cp .
• Soit u ∈ F. Si u ∈ Ker(ϕ), alors u0 = u1 = . . . = up−1 = 0. Montrons alors par récurrence que ∀n ∈ N, un = 0.
C’est vrai pour n ∈ J0, p − 1K. Soit n ≥ 0. Supposons que ∀k ∈ Jn, n + p − 1K, un = 0. Alors,
On a montré par récurrence que ∀n ∈ N, un = 0. Ainsi, si u ∈ Ker(ϕ), alors u = 0. Donc, ϕ est injective.
• Soit (α0 , . . . , αp−1 ) ∈ Cp . Soit u la suite définie par :
et en particulier,
dim F = dimCp = p.
p−1
X p−1
X
12. a) ei (p) = − ak ei (k) = − ak δi,k = −ai .
k=0 k=0
b) La famille (ei )0≤i≤p−1 est l’image de la base canonique de Cp par l’isomorphisme ϕ−1 et est donc une base de F.
c) Soit u ∈ F.
p−1
X
Puisque la famille (e0 , . . . , ep−1 ) est une base de F, il existe (α0 , . . . , αp−1 ) ∈ Cp tel que u = αi ei . Mais alors, pour
i=0
k ∈ J0, p − 1K,
p−1
X
u(k) = αi ei (k) = αk .
i=0
Ainsi,
p−1
X
∀u ∈ F, u = u(i)ei .
i=0
4
Ceci montre que f(u) ∈ F. On a montré que F est stable par f.
f ∈ L (E) et f(F) ⊂ F.
D’autre part,
p−2
X
g(e0 ) = δ0,k+1 ek + e0 (p)ep−1 = −a0 ep−1 .
k=0
0 1 0 ... ... 0
.. .. .. .. ..
. . . . .
..
..
La matrice de g dans la base (e0 , . . . , ep−1 ) est donc
. . qui est t CP .
.. .. ..
. . . 0
0 ... ... 0 1
−a0 ... . . . −ap−2 −ap−1
15. a) Pour i ∈ J0, p − 1K, posons vi = (λn i )n∈N . Tout d’abord, d’après 10., chaque vi est élément de F. Ensuite, d’après
12.c), la matrice de la famille (v0 , . . . , vp−1 ) est la matrice de Vandermonde (λji )0≤i,j≤p−1 . Puisque les λi sont deux à
deux distincts, le déterminant de cette matrice est non nul d’après 4.d). On en déduit que la famille (v0 , . . . , vp−1 ) est une
base de F. Enfin, pour n ∈ N,
ce qui montre que vi est un vecteur propre de g associé à la valeur propre λi . Finalement, la famille (v0 , . . . , vp−1 ) est une
base de F formée de vecteurs propres de g.
b) Par suite, pour chaque u ∈ F, il existe des constantes comples k0 , . . . , kp−1 telles que u = k0 v0 + . . . kp−1 vp−1 ou
encore telles que ∀n ∈ N, un = k0 λn n
0 + . . . + kp−1 λp−1 .
Il est de degré 3 et a trois racines simples à savoir a, b et c. D’après ce qui précède, les éléments de F sont les suites de la
forme
18. Si U et V vérifient (∗∗), alors U − V = P−1 (CU − CV )P. La matrice U − V est donc semblable à la matrice CU − CV
et a en particulier même rang que celle dernière matrice. Maintenant, la matrice CU − CV a n − 1 colonnes nulles et le
rang de CU − CV , et donc le rang de U − V, vaut au plus 1. Comme U − V n’est pas la matrice nulle, U − V est de rang
exactement 1.
5
19. On prend U = I2 . On a U ∈ GL2 (K) et Cu 6= I2 . Donc U n’est pas semblable à CU .
On prend ensuite V = diag(1, −1) ∈ GL2 (K). On a rg(U − V) = rg(diag(0, 2)) = 1. U et V sont donc deux éléments de
GL2 (K) vérifiant (∗) et pas (∗∗).
On a dans ce cas
χU ∧ χV = (X − 1)2 ∧ (X − 1)(X + 1) = X − 1.
20. U − V est de rang 1 et donc u − v est de rang 1. D’après le théorème du rang, H = Ker(u − v) est de dimension n − 1
et donc un hyperplan vectoriel de E.
21. a) (H est constitué des x de E tels que u(x) = v(x) et donc u et v coïncident sur H) Puisque F 6= {0}, χuF est de
degré au moins 1. Il en est de même de χvF . Si F ⊂ H, alors u et v coïncident sur F et en particulier χUF = χVF . Mais
alors, χUF = χVF est un polynôme de degré au moins 1 divisant à la fois χU et χV . Ceci contredit le fait que χU et χV
sont premiers entre eux. Donc,
b) D’après a), F n’est pas inclus dans H. Donc, F ∩ H ⊂ F et en particulier, dim(F ∩ H) ≤ dim F − 1.
6=
F + H = E.
E = F + H = F + (F ∩ H + G) = (F + F ∩ H) + G = F + G.
E = F ⊕ G.
Soit alors B une base de E adaptée à la décomposition E = F ⊕ G. B est une base de E obtenue en complétant une base BF
de F par des vecteurs de H.
c) D’après ce qui précède, les seuls sous-espaces stables à la fois par u et par v sont {0} et E.
22. a) Pour tout j de N, Gj est l’image de H par l’automorphisme u−j . On en déduit que Gj a même dimension que H
et donc que Gj est un hyperplan vectoriel.
k
\
b) Montrons par récurrence que ∀k ∈ J0, n − 2K, dim Gj ≥ n − k − 1.
j=0
n−2
\
Gj 6= {0}.
j=0
6
c) Soit A = {k ∈ N∗ / (y, u(y), . . . , uk−1 (y)) est libre}. A est une partie non vide de N (car 1 ∈ A puisque y 6= 0) et
majorée (par n = dim(E)). Donc, A admet un plus grand élément noté p.
Soit F = Vect(y, u(y), . . . , up−1 (y)). Tout d’abord F 6= {0} (car y 6= 0 et y ∈ F).
Ensuite, pour 0 ≤ k ≤ p − 2, u(uk (y)) = uk+1 (y) ∈ F. D’autre part, par définition de p, la famille (y, u(y), . . . , up−1 (y))
est libre et la famille (y, u(y), . . . , up−1 (y), up (y)) est liée.
On en déduit que u(up−1 (y)) = up (y) est dans Vect(y, u(y), . . . , up−1 (y)) = F. Finalement, l’image par u d’une famille
génératrice de F est dans F, et donc u(F) ⊂ F. Ainsi, F est un sous-espace non nul de E stable par u. D’après 21.c), F = E
ou encore B ′′ est une base de E.
d) La matrice de u dans B ′′ est une matrice compagnon. Les coefficients de la dernière colonne de cette matrice sont alors,
d’après I.2), les opposés des coefficients du polynôme caractéristique de u. Cette matrice est CU . De même, la matrice de
v dans B ′′ est CV .
e) Si P est la matrice de passage de la base B ′′ à la base B alors U = P−1 CU P et V = P−1 CV P. Par suite, si U et V sont
deux matrices inversibles telles que rg(U − V) = 1 et telles que χU et χV soient premiers entre eux, alors il existe une
matrice inversible P telle que U = P−1 CU P et V = P−1 CV P.
7
PSI* Sujet d’entrainement n◦2
un corrigé
Année scolaire
2018/2019
u ◦ v(a x + b y) = u(av(x) + bv( y)) = a(u ◦ v)(x) + b(u ◦ v)( y) = a(u ◦ v)(x) + b(u ◦ v)( y)
n
X n
X
I.2 a) On s’inspire fortement du cours sur les applications linéaires : y = u(x) = u x j ej = x j u(e j ) ; d’autre
j=1 j=1
n
X n
X Xn n
X
part, u(e j ) = ai j ei , donc on a y = ai j x j ei , soit yi = ai j x j .
i=1 i=1 j=1 j=1
Ainsi, Y = AX .
b) S étant la matrice de passage de la base B = (e1 , . . . , en ) à la base B ′ = ( f1 , . . . , f n ) , si on note X le vecteur
colonne des coordonnées de x dans B et X′ le vecteur colonne des coordonnées de x dans B ′ , on a, d’après
le cours : X = SX′ .
Avec des notations évidentes : la relation y = u(x) s’écrit Y = AX soit SY′ = ASX′ = A.S.X′ et, puisque on a
aussi Y′ = BX′ , on en tire B = S−1 AS .
I.3 Exemples :
¨
−1 a 0 a −b = µa
a) Matriciellement le problème posé s’écrit =µ soit ; la première équation
0 b 1 b a = µb
2
équivaut par conjugaison à b = −µa qui en reportant dans la seconde donne a = − µ a ; or a 6= 0, sinon on
aurait aussi b = 0 donc X = 0 ce qui est exclu.
2
Ainsi, µ = −1, ce qui est impossible. Il n’y a pas de solution : une matrice réelle n’a donc pas nécessairement
de valeur co-propre...
b) Si A est réelle et admet une valeur propre réelle λ , elle possède donc un vecteur propre réel associé à λ , noté
X (X 6= 0). Si AX = λX alors AX = AX = λX : X est ainsi un vecteur co-propre associé à la valeur co-propre λ .
2
I.4 a) L’hypothèse s’écrit AX = µX soit par conjugaison AX = µX et donc AAX = µAX = µµX = µ X cqfd.
b) • cas (i) : Si les vecteurs A.X et X sont liés, puisque X 6= 0, il existe k ∈ C tel que AX = kX , ce qui implique
que k est une valeur co-propre de A . Alors, comme ci-dessus, AAX = |k|2 X , donc λX = |k|2 X et λ = |k|2
puisque X 6= 0.
p iθ
p θ tel que k = λe . Comme k est une valeur co-propre de A , il résulte de I.1.b qu’il en est de
Il existe donc
même de λ .
• cas (ii) : on considère le vecteur Y = aAX + bX qui n’est nul que si (a, b) = (0, 0) ; on a Y = aAX + bX et
ainsi AY = aAAX + bAX = aλX + bAX ;
p p p p
Donc AY = λY si et seulement si b = λa et aλ = λb . Par exemple Y = AX + λX convient.
p
c) La condition est nécessaire d’après (a), et suffisante d’après (b) (µ étant un réel positif, µ2 = µ...).
1/3
d) D’après la question précédente, il suffit d’étudier les valeurs propres réelles positives de la matrice
2
2 m − 1 −m
Am .Am = Am = .
m −1
Le polynôme caractéristique de cette matrice est X2 − (m2 − 2)X + 1, de discriminant ∆ = m2 (m2 − 4) .
Les deux racines lorsqu’elles existent dans R sont de produit 1 et donc de mêmes signes, ce signe étant aussi
celui de leur somme S = m2 − 2.
Ainsi il y a des racines réelles (qui sont aussi les valeurs propres) si et seulement si m = 0 (−1 est alors valeur
propre double) ou m2 ¾ 4, et dans ce dernier cas, elles sont positives puisque S = m2 − 2 ¾ 2.
La condition |m| ¾ 2 est donc nécessaire
È et suffisante pour que la matrice Am admette des valeurs co-propres
p
2
m − 2 + m m2 − 4 1
réelles positives, qui sont alors µ = et (dans le cas m = ±2, il y a une valeur propre
2 µ
double 1 et donc une valeur co-propre réelle de Am égale à 1).
Remarquons que le cas m = 0 correspond à l’exemple du 3.a pour lequel la matrice A n’a pas de valeur co-propre.
I.5 Cas d’une matrice triangulaire supérieure :
a) D’après la question I.1.b il suffit de montrer que |λ| est valeur co-propre de A , car λeiθ = |λ|ei(θ+ϕ) (ϕ étant
un argument de λ ).
Mais, d’après I.4.c il suffit de prouver que |λ|2 est valeur propre de AA . Ce qui est clair car les valeurs propres
d’une matrice triangulaire sont ses coefficients diagonaux et les coefficients diagonaux d’un produit de matrices
triangulaires supérieures sont les produits des coefficients diagonaux de chacune de ces matrices.
2
b) Si µ est une valeur co-propre de A , il en est de même de µ d’après I.1.b, donc µ est une valeur propre de
AA d’après I.4. Comme les valeurs propres de AA sont (elle est triangulaire) les |a j j |2 , on a |µ|2 = |a j j |2 pour
un certain j ; ayant deux nombres complexes de mêmes modules, ils diffèrent seulement par leurs arguments
(modulo 2π) (éventuellement arbitraires si les nombres sont nuls) et on a a j j = µeiθ . Donc µeiθ figure sur la
diagonale de A , c’en est une valeur propre.
En résumé : Soit A triangulaire. Si λ est valeur propre de A alors λeiθ est valeur co-propre de A pour tout réel
θ.
Réciproquement, si µ est valeur co-propre de A , il existe θ ∈ R tel que µeiθ soit valeur propre de A .
Seconde Partie
II.1 La relation est en effet réflexive, symétrique et transitive :
• Réflexivité : prendre S = I
• Symétrie : changer S en S−1
• Transitivité : Si B = SA(S)−1 et C = TB(T)−1 , alors C = TSA(S)−1 (T)−1 = TSA(TS)−1 ...
Rem : on pouvait aussi dire, plus simplement, sue deux matrices sont vérifient la relation si et seulement si elles
représentent la même application semi-linéaire dans deux bases différentes...
2/3
2
II.2 D’après I-4, ces vecteurs sont des vecteurs propres de la matrice AA pour les valeurs propres µi , donc linéairement
indépendants, puisque vecteurs propres associés à des valeurs propres distinctes (th. du cours).
Avec l’hypothèse faite,et d’après
p I.4, il existe
p alors une base de E formée de vecteurs co-propres de A associés aux
valeurs co-propres distinctes λ1 , . . . , λn (puisque une famille de n vecteurs indépendants dans un espace de
p p
dimension n en est une base). A est donc co-semblable à diag( λ1 , . . . , λn ) .
−1 −1
II.3 a) Si A = SS alors AA = S.S .S.(S)−1 = In .
b) • Le spectre de A est fini (au plus n éléments), tandis que l’ensemble des nombres complexes de module 1 ne
l’est pas. Il est donc possible de trouver t ∈ C tel que |t| = 1 et A + tIn ∈ GLn (C) .
Soit eiθ une racine carrée de t . Alors |d et(S(θ))| = | det(A + tIn )| =
6 0 et S(θ) est inversible.
• Un calcul immédiat donne alors AS(θ) = S(θ) , en utilisant la relation AA = In .
S étant inversible, S l’est aussi et la relation AS = S s’écrit A = S(θ)(S(θ))−1 .
−1
En résumé : AA = In si et seulement si il existe S ∈ GLn (C) telle que A = SS c’est-à-dire A co-semblable à In .
II.4 Condition nécessaire pour que A soit co-diagonalisable :
2 2
Posant D = S−1 AS = diag(λ1 , . . . , λn ) , il est immédiat que DD = S−1 AAS ; comme DD = diag(λ1 , . . . , λn ) , AA
2
est bien diagonalisable, de valeurs propres les λ , réels positifs ou nuls.
i
Le rang de A est égale à celui de D, puisque S est inversible ; il est donc égal au nombre des λi non nuls, donc au
2 2
rang de DD = diag(λ1 , . . . , λn ) , donc au rang de AA (ces deux dernières matrices étant semblables).
II.5 II-5 une condition suffisante.
−1
a) • BB = (S−1 AS).(S AS) = S−1 AAS = S−1 SΛS−1 S = Λ .
Donc BB = BB = Λ = Λ = BB car Λ est réelle.
• En multipliant BB = Λ à droite par B, on a BBB = ΛB ; de même en multipliant BB = Λ à gauche par B on
a BBB = BΛ ;
Par conséquent, BΛ = ΛB : B et Λ commutent.
b) Comme la matrice B commute avec la matrice Λ , les sous-espaces propres de Λ sont stables par B. Donc la
matrice B s’écrit par blocs sous la forme proposée.
c) Notons d’abord que, compte tenu de l’énoncé, on a λi > 0 si 1 ¶ i ¶ k − 1, et λk ¾ 0.
La relation BB = Λ donne, après un calcul par blocs :Bi Bi = λi Ini
1 1
On applique alors à chaque bloc la question II-3.b, en remarquant que si λi > 0, p Bi p Bi = Ini ;
λi λi
p p
−1 −1
donc il existe une matrice inversible Si carrée d’ordre ni telle que Bi = λi Si Si = Si ( λi Ini )Si .
Si λk = 0 on prend Sk inversible quelconque. Si nous montrons que Bk est nulle nous aurons alors
Bk = Sk 0S−1k
. Pour cela on utilise l’hypothèse sur le rang. B et A ont même rang, noté r , qui est aussi celui de
AA ou celui de Λ . On a r = rg(Λ) = n − nk . Puisque chaque Bi , 1X ¶ i ¶ k − 1, est inversible, elle est de rang
ni . La structure diagonale par bloc de B donne alors r = rg(B) = rg(Bi ) = n − nk + rg(Bk ) . Par conséquent
i
rg(Bk ) = 0 et Bk = 0
La matrice P d’ordre n diagonale par blocs et formée des blocs S1 , ..., Sk est inversible (chacun des blocs
diagonaux l’est) et répond à la question posée, avec ∆ la matrice obtenue en remplaçant dans Λ les λi par
p
λi .
A est donc co-semblable à ∆ , elle est bien co-diagonalisable.
II.6 II-6 Exemples.
i 1 −i 1
AA = = I2 , donc d’après I.3.a, A est co-diagonalisable.
0 i 0 −i
0 2 0 2
BB = B2 = . Or les valeurs propres de ne sont pas des réels positifs ou nuls. Donc B n’est pas
−2 0 −2 0
co-diagonalisable.
CC = 0. C et CC n’ont pas même rang, donc C n’est pas co-diagonalisable.
1 i 1 −i 2 0
DD = = . DD est diagonalisable et ses valeurs propres sont des réels positifs. De plus D
i 1 −i 1 0 2
et DD sont inversibles et par conséquent de même rang. D est donc co-diagonalisable.
3/3
1 - MATHÉMATIQUES
I) REMARQUES GENERALES
Le problème proposé porte sur la co-réduction d’une application semi-linéaire définie sur un C-espace
vectoriel E de dimension finie, à valeurs dans E. Pour cela, les notions de valeur co-propre, vecteur co-propre,
co-diagonalisabilité sont définies. Un lien est établi entre les valeurs co-propres de la matrice A et les valeurs
propres de A A ; il est ensuite demandé de montrer une condition nécessaire de co-diagonalisabilité, et pour
terminer quelques exemples sont proposés pour illustrer ces notions. La co-réduction est une notion assez
ancienne puisque Takagi a montré en 1925, qu’une matrice symétrique complexe est co-diagonalisable.
La résolution de ce problème nécessite une bonne connaissance du cours et des techniques de base
d’algèbre linéaire. Aucun candidat n’a traité le problème en entier, par contre toutes les questions ont été
abordées avec plus ou moins de succès. Les calculs erronés ont été nombreux, en conséquence les candidats qui
ont mené correctement à terme leurs calculs ont été récompensés. Les questions dont le résultat à démontrer est
fourni par l’énoncé ont presque toujours reçu une réponse , et certains candidats n’hésitent pas à écrire des
phrases incohérentes pour tenter de justifier ce qui leur est demandé.
Nous avons constaté la présence de copies d’une pauvreté affligeante mettant en évidence des lacunes en
algèbre linéaire. A l’inverse, les copies rédigées clairement et de manière rigoureuse ont reçu d’excellentes
notes.
Le choix du barème a permis d’étaler les notes de 0.5 sur 20 à 20 sur 20 , avec une moyenne proche de 8.
La question 1-a a été bien traitée dans la majorité des copies. Signalons l’erreur suivante : des candidats
u ( x)
ont écrit que m est unique car m = !
x
La question 1-b a été discriminante ; les candidats méticuleux ont trouvé que m eiq est une valeur co –
- iq
2
propre associée au vecteur e x , ils ont été récompensés.
Le vecteur e-iq x a assez souvent été proposé comme vecteur co – propre associé à meiq, ce qui est
incorrect.
Toutes les réponses possibles ont été obtenues dans la question 1-c ; certains candidats ont affirmé que Em
est un espace vectoriel complexe car c’est une partie d’un C-espace vectoriel, d’autres pensent que Em est un
espace vectoriel complexe mais n’est pas un espace vectoriel réel. Les correcteurs se sont montrés indulgents
envers les candidats qui ont oublié le cas particulier m = 0, qui permet de conclure que Em est un espace vectoriel
complexe.
La question 1-d était très facile, et pourtant quelques candidats ont affirmé que u o v n’était pas
linéaire.
Dans la question 2-a, il était demandé de montrer la relation Y = A X ; des candidats ont paraphrasé
l’énoncé pour conclure péremptoirement que l’on obtient la relation demandée ! Par contre, les candidats qui ont
adapté correctement leur cours (fait dans le cas d’une application linéaire) à une application semi-linéaire ont
obtenu sans difficulté le résultat demandé ; cela leur a permis d’obtenir : B = S-1A S ; voici quelques réponses
obtenues par des candidats : B = SA , B = AS , B = SAS-1, B = S-1AS ; certains candidats ont même
invoqué un théorème classique du cours, sans autre précision, pour affirmer que B = S-1AS .
La question 3-a, sélective, a clairement mis en évidence les candidats soigneux et méticuleux qui ont
conclu à la non–existence de valeurs co – propres. Beaucoup de candidats n’ayant peut-être pas lu avec
suffisamment d’attention l’énoncé ont confondu valeurs propres et co-propres, ce qui a conduit à des résultats
faux.
La question 3-b, qui est une simple application du cours, a révélé des surprises ; des candidats n’ont pas
vu qu’il existe un vecteur propre réel X associé à l.
La première partie de la question 4-b a été abordée par de nombreux candidats, mais peu ont conclu
rigoureusement en appliquant la question 1-b. La deuxième partie de cette question a été très peu abordée, il est
vrai que cette question était plus difficile, et il n’est pas immédiat de penser à chercher un vecteur co-propre dans
l’espace vectoriel engendré par X et A X .
Quant à la question 4-c, qui est une synthèse des résultats précédents, elle a été traitée correctement par de
nombreux candidats, sous réserve d’admettre le résultat précédent .
La question 4-d a été très discriminante ; les calculs faux ont été nombreux. Cette question pouvait être
résolue de deux manières ; les deux possibilités ont été trouvées dans les copies :
a) soit en utilisant la question précédente et en recherchant pour quelles valeurs du réel m, la matrice
Am A m = A 2m a des valeurs propres positives ou nulles, ce qui conduit au polynôme caractéristique de cette
matrice :
P (l) = l2 - (m2 –2 ) l + 1
Que d’erreurs ont été constatées dans le calcul, élémentaire, du discriminant de ce trinôme ! Voici une
liste non exhaustive des conditions trouvées pour m : ÷ m ç ³ 2 , m > 2 , ç m ç ³ 1, ç m ç ³ 2 . Des
2
candidats, en nombre non négligeable , se sont trompés dans le calcul de A m.
æaö æaö
b) soit en résolvant : A m çç ÷÷ = m çç ÷÷ où m ³ 0 ; ici aussi, les erreurs de calcul furent nombreuses .
è bø èbø
Les questions 5-a et 5-b nécessitaient une bonne compréhension des questions précédentes (4 et 1-b) et
ont été traitées dans les bonnes copies.
La question 5-c a été résolue correctement par de nombreux candidats, elle ne présentait pas de difficulté ;
certains candidats ont remarqué que 1 est valeur co-propre de A, en utilisant conjointement 5-a et le fait que i est
valeur propre de A.
La dernière question de cette partie a été assez peu traitée ; une solution correcte a été trouvée dans
quelques bonnes copies.
La deuxième question a souvent été l’occasion de longs bavardages utilisant des récurrences qui
n’aboutissent pas. Par contre, des candidats ont montré que X1 ,..… , Xk sont des vecteurs propres de
2 2 2
A A associés aux valeurs propres m 1 , m 2 , .…. m k et ont utilisé le résultat afférent à des valeurs
propres distinctes , ce qui est tout à fait correct.
Le corollaire de cette question a connu plus de succès et a été plus souvent mieux traité.
La question 3-a est immédiate. A quelques exceptions près, les candidats qui ont traité cette question ont
trouvé A A = In.
La question 3-b a été très sélective. Quelques candidats ont résolu correctement cette question, en
écrivant : S ( q) = e i q ( A + e -2iq In ) et en faisant intervenir les valeurs propres de A.
Par contre, écrire qu’une somme de matrices inversibles est inversible est une argumentation non
recevable ; la fin de la question a été mieux traitée sous réserve d’admettre l’existence de q Î R tel que S ( q )
soit inversible.
Signalons qu’un candidat a affirmé : « une matrice symétrique réelle n’est pas
nécessairement diagonalisable , il faudrait que son polynôme caractéristique soit scindé sur R ».
Dans cette dernière question , beaucoup de candidats ont eu des erreurs de vision en affirmant que A était
symétrique, voire diagonale ! Idem pour C.
Peu ont été capables de justifier correctement que A n’est pas diagonalisable ; certains n’ont pas hésité à
affirmer que A est diagonalisable car son polynôme caractéristique est scindé.
Le cas de B a été mieux traité en ce qui concerne sa diagonalisabilité, quant à D , le fait qu’elle soit
symétrique complexe ne permet pas d’emblée d’affirmer qu’elle est diagonalisable.
Voici une erreur non isolée, concernant A et que nous laissons aux candidats le soin de méditer : PA ( X)
= ( i – X )2 – 1 = ( i – X –1 ) ( i – X + 1 ), par conséquent le polynôme caractéristique de A est scindé à racines
simples, donc A est diagonalisable.
Les conseils à donner aux futurs candidats ont déjà été énoncés dans les rapports des deux dernières
années ; ils restent d’actualité. Nous allons les rappeler :
1) La pratique régulière du calcul est indispensable ; il est anormal de se tromper dans le calcul d’un
discriminant, d’un produit de matrices d’ordre 2, du déterminant d’une matrice d’ordre 2.
2) La connaissance du cours est fondamentale, les énoncés des théorèmes doivent être cités avec précision.
PSI* Problème de révision n°10
Année scolaire
2018/2019
I. Résultats préliminaires
1. Donner la classe de similitude d’une matrice scalaire, c’est-à-dire une matrice de la forme
xI2 avec x ∈ K.
1 λ 1 0
2. Pour tout λ ∈ K, on pose Eλ = et Fλ =
0 1 λ 1
(a) Justifier que, pour tout λ ∈ K, Eλ et Fλ sont inversibles et exprimer leur inverse.
a b
(b) Soit A = ∈ M2 (K); calculer les produits Eλ AEλ−1 et Fλ AFλ−1 ou λ ∈ K.
c d
(c) On suppose que la classe de similitude SK (A) de A ∈ M2 (K) est réduite a un
singleton. Montrer que A est une matrice scalaire.
a b 1/2
3. Pour A = ∈ M2 (R) , on pose ||A||S = |a|2 + |b|2 + |c|2 + |d|2 . Montrer que
c d
A 7→ ||A||S est une norme sur M2 (R).
On admettra que c’est toujours le cas lorsque K = C et dans la suite M2 (K) sera muni
de cette norme.
4. On suppose que la classe de similitude SK (A) de la matrice A ∈ M2 (K) est bornée.
(a) Justifier que les parties {Eλ AEλ−1 ; λ ∈ K} et {Fλ AFλ−1 ; λ ∈ K} de M2 (K) sont
bornées.
(b) En déduire que A est une matrice scalaire.
5. Que peut-on dire d’une matrice B ∈ M2 (K) dont la classe de similitude est fermée et
bornée ?
6. Montrer que les applications A 7→ Tr(A) et A 7→ det A sont continues sur M2 (K).
7. Montrer que si A et B sont deux matrices semblables de M2 (K), elles ont le même
déterminant, la même trace et le même polynôme caractéristique.
8. Soit G ∈ M2 (R) une matrice telle que SpR (G) 6= ∅. Justifier que les racines du polynôme
caractéristique χG sont toutes réelles.
9. Justifier que la partie {P AP −1S ; P ∈ GL2 (R)} possède une borne inférieure.
1. Soit A ∈ M2 (K).
λ 0
(a) Si SpK (A) = {λ, µ}, justifier que A est semblable dans M2 (K) à la matrice .
0 µ
(b) Si SpK (A) = {λ}, montrer que A est diagonalisable dans M2 (K) si et seulement si
A = λI2 .
1
(c) Si SpK (A) = {λ} et A n’est pasune matrice
scalaire, montrer que A est semblable
λ 1
dans M2 (K) a la matrice A = ∈ M2 (K)
0 λ
2. Soit A ∈ M2 (K).
(a) Si A est une matrice scalaire, justifier que la classe de similitude SK (A) de A dans
M2 (K) est fermée.
−k k
2 0 λ 1 2 0
(b) Si SpK (A) = {λ} et A non diagonalisable, on pose Ak =
0 1 0 λ 0 1
Étudier la suite (Ak )n∈N et en déduire que la classe de similitude SK (A) n’est pas
fermée.
(c) Si SpK (A) = {λ, µ}, soit Pk APk−1 k∈N une suite d’éléments de SK (A) qui converge
vers une matrice B ∈ M2 (K). Soit α ∈ {λ, µ}.
i. Étudier la suite Pk (A − αI2 )Pk−1 k∈N et en déduire que det(B − αI2 ) = 0.
ii. Montrer alors que B ∈ SK (A) et conclure que SK (A) est fermée.
3. Montrer que si A ∈ M2 (C) alors SC (A) est fermée si et seulement si A est diagonalisable
dans M2 (C).
5. Montrer que si A ∈ M2 (R) alors SR (A) est fermée dans M2 (R) si et seulement si A est
diagonalisable dans M2 (R) ou bien SpR (A) = ∅.
2
PSI* Problème de révision n10
Correction
Année scolaire
2018/2019
Partie I
est un produit scalaire (laissé au lecteur). || ||S sera donc une norme euclidienne donc une norme.
4. (a) Ils sont bornés comme sous parties de SK (A) qui est borné.
(b) Les polynômes de la question 2c sont bornées. Or seuls les polynômes constants le sont (sinon on a une
limite infinies en +∞). D’où b = c = 0 et a = b et par suite A = aI2 .
5. D’après la question précédente, B est donc scalaire.
Partie II
(c) D’après les question précédentes, A n’est donc pas diagonalisable. Or d’après la première question, on a
χA = (λ − X)2 . χA étant scindé, A est trigonalisable. Ainsi A ∼ λ b
= T où b 6= 0.
0 λ
En considérant l’endomorphisme canoniquement associé à A, il existe donc une base (e1 , e2 ) telle que
f (e1 ) = λe1 et f (e2 ) = be1 + λe2 .
En considérant la base β = (e1 , e′2 ) = (e1 , 1b e2 ), on a alors f (e1 ) = λe1 et f (e′2 ) = e1 + λe′2 .
λ 1
D’où matβ f = et A est donc semblable à cette matrice.
0 λ
2. (a) D’après I.1, Sk (xI2 ) = {xI2 } qui est fermé dans M2 (K) (toute suite convergente de {xI2 } est constante et
donc converge vers xI2 ).
λ 1
(b) D’après la question 1c, A est semblable à T = . Donc T ∈ Sk (A).
0 λ
−k −1 k
2 0 2 0
De plus comme = , on en déduit que ∀ k ∈ N, Ak ∈ Sk (A).
0 1 0 1
λ 2−k λ 0
Or ∀ k ∈ N, Ak = −−−−−→ = λI2 .
0 λ k→+∞ 0 λ
Mais A est non diagonalisable par hypothèse, donc A n’est pas semblable à la matrice diagonale λI2 ,
c’est-à-dire λI2 6∈ SK (A).
(Ak )k∈N est donc une suite convergente d’éléments de SK (A) dont la limite n’est pas élément de SK (A).
SK (A) n’est donc pas fermé.
(c) i. ∀ k ∈ N, Pk (A − αI2 )Pk−1 = Pk APk−1 − αI2 −−−−−→ B − αI2 .
k→+∞
Or le déterminant est continue, donc lim det Pk (A − αI2 )Pk = det(B − αI2 ).
k→+∞
De plus det Pk (A−αI2 )Pk = det A−αI2 = 0 car α ∈ Sp(A). Par unicité de la limite det(B −αI2 ) =
0.
ii. la question précédente montre que {λ, µ} ⊂ SpK (B) puisque det(B − λI2 ) = det(B − µI2 ) = 0.
Mais comme deg χA = 2 et que λ 6= µ, on a SpK (B) =SpK (A) = {λ, µ}.
λ 0
D’après 1a, A et B sont donc semblable à la matrice . Ainsi B ∈ SK (A).
0 µ
On a donc montrer que toute suite d’élément de SK (A) converge dans SK (A). Ainsi SK (A) est fermé.
3. χA est scindé dans M2 (C), il a donc deux valeurs propres λ, µ distinctes ou confondues.
• Si λ 6= µ, la question 2c montre que Sk (A) est fermé et la question 1a montre que A est diagonalisable.
• Si λ = µ et que A n’est pas diagonalisable, la question 2b montre que Sk (A) n’est pas fermé.
• Enfin, si λ = µ et que A est diagonalisable, les questions 1b et 2a montrent que A est scalaire et que Sk (A)
est fermé.
Au final on obtient par disjonction des cas que SC (A) est fermé si, et seulement si A est diagonalisable.
4. (a) χA = X 2 − Tr(A)X + det(A). Mais Sp A 6= ∅ si, et seulement si χA n’ a aucune racines réelles c’est-à-dire
si, et seulement si ∆ = Tr(A)2 − 4 det(A) < 0.
4 Tr2 (A)
(b) A′2 = 2 A2 − Tr(A)A + I2 .
δ 4
2
Mais d’après le théorème de Cayley-Hamilton χA (A) = 0 = A2 − Tr(A)A + det(A)I2 .
′2 4 Tr2 (A) 4 (−δ 2 )
Ainsi A = 2 det(A) + I2 = A′2 = 2 I2 = −I2
δ 4 δ 4
(c) Remarquons que A′ annule le polynôme X 2 + 1. Ainsi SpC (A) ⊂ {−i, i} d’où SpR (A) = ∅.
Si e, f (e) était lié, alors on aurait l’existence d’un réel λ tel que f (e) = λe puisque e 6= 0. Ainsi, on aurait
λ ∈ SpR (A) d’où SpR (A) 6= ∅, ce qui est absurde.
Ainsi β = e, f (e) est libre dans R2 et donc, pour des raisons de cardinal, est une base de R2 .
0 −1
2
On a f f (e) = f (e) = − id(e) = −e d’où mat f= .
e,f (e) 1 0
β
(d) On a A1 = P −1 A′ P où P = Pcan . Ainsi
Tr(A) δ Tr(A) δ Tr(A) δ
A′′ = I2 + A1 = I2 + P −1 A′ P = P −1 I2 + A′ P = P −1 AP
2 2 2 2 2 2
e
lim Tr(Pk APk ) = Tr(A) et e
lim det(Pk APk ) = det(A)
k→+∞ k→+∞
Or ∀ k ∈ N, Tr(Pk APk ) = Tr(A) et det(Pk APk ) = det(A) puisque deux matrices semblables ont même
trace et même déterminant. On termine par unicité de la limite.
′
ii. La question précédente donne χA =χA (car χM = X 2 − Tr(M )X + det(M )). Ainsi SpR (A) e = ∅.
e e e′′ . Donc
Donc, d’après 4d, A est semblables à A . Mais toujours d’après la question précédente, A′′ = A
′′
e
A et A sont semblables à la même matrice donc sont semblables.
5. La question I.8 nous dit que soit A possède deux valeurs propres réelles (distinctes ou confondues), soit ne
possède pas de valeurs propres réelles.
• Si A possède deux valeurs propres distinctes ou confondues, le raisonnement fait en 3 montre que SR (A)
est fermée si, et seulement si A est diagonalisable.
• Si SpR (A) = ∅, la question 4e nous montre que toute suite d’éléments de SR (A) converge vers une matrice
e ∈ SR (A).
A
Ainsi SR (A) est fermé
X-ENS PC 2017
Question 1.a. Soit M ∈ Mn (C). Soit C > 0.
||Mx||1
On fait l’hypothèse ||M|| 6 C, c’est-à-dire sup 6 C.
x∈Cn \{0} ||x||1
||Mx||1
Pour tout x non nul de Cn , on a donc la majoration 6 C. On multiplie par ||x||1 , qui est positif,
||x||1
ce qui donne ||Mx||1 6 C||x||1 .
||Mx||1
Pour tout vecteur x non nul de Cn , on en déduit l’inégalité 6 C car ||x||1 > 0, donc ||M|| 6 C.
||x||1
Au final, remarquons qu’on a prouvé en particulier l’inégalité ||Mx||1 6 ||M|| × ||x||1 et qu’on possède
une méthode pour majorer ||M|| dans le cas général. Ces deux points serviront fréquemment dans ce qui
suit.
2 Soit M ∈ Mn (C) tel que ||M|| = 0. À la question précédente, on n’a pas utilisé le caractère strict de
l’inégalité C > 0. On peut donc écrire
∀x ∈ Cn : ||Mx||1 6 0.
Par positivité de la norme, on obtient donc ∀x ∈ Cn : ||Mx||1 = 0, c’est-à-dire ∀x ∈ Cn : Mx = 0. Les
colonnes de la matrice M sont les produits Mei , où (e1 , . . . , en ) désigne la base canonique de Cn . Ainsi, les
colonnes de M sont nulles donc M est la matrice nulle.
Si λ 6= 0, on effectue la substitution (M, λ) ← (λM, 1/λ) dans l’inégalité ||λM|| 6 |λ| × ||M||, pour obtenir
||M|| 6 ||λM||/|λ|, c’est-à-dire ||λM|| > |λ| × ||M||.
On obtient donc ||λM|| = |λ| × ||M|| dans tous les cas.
Remarque. Ce raisonnement est encore valable si on prend λ dans C. Ce n’est pas requis par la définition
d’une norme mais cette extension est utile plus loin (à la question 8).
En appliquant 1.a dans le sens ⇐, on en déduit l’inégalité ||A × B|| 6 ||A|| × ||B||.
n
!
X
Question 3. Posons S(A) = max |ai,j | et notons j0 un indice qui réalise ce maximum.
16j6n
i=1
En notant de nouveau (e1 , . . . , en ) la base canonique de Cn , on observe l’égalité
a1,j0
Aej0 = ... puis S(A) = ||Aej0 ||1 .
an,j0
||Aej0 ||1
L’égalité ||ej0 ||1 = 1 donne alors S(A) = 6 ||A||.
||ej0 ||1
donc
n
X
||Ax||1 6 |xj | × S(A) = S(A) × ||x||1 .
k=1
n
!
X
Par double inégalité, on a prouvé l’égalité ||A|| = max |ai,j | .
16j6n
i=1
1 On commence par supposer que la suite (A(k) )k∈N converge vers la matrice B. Pour tout k ∈ N, on
remarque l’encadrement
n Xn
X (k)
0 6 ||A(k) − B|| 6 a − bi,j .
i,j
j=1 i=1
Chaque terme du membre de droite tend vers 0 quand k tend vers +∞ donc, par le théorème des
gendarmes, on voit que ||A(k) − B|| tend vers 0 quand k tend vers +∞.
3
2 Réciproquement, on suppose que ||A(k) − B|| tend vers 0 quand k tend vers +∞.
Soit (i, j) ∈ [[1, n]]2 . Pour tout k ∈ N, on observe l’encadrement
X n
(k) (k)
0 6 ai,j − bi,j 6 as,j − bs,j 6 ||A(k) − B||.
s=1
(k)
On en déduit que ai,j tend vers bi,j quand k tend vers +∞.
Ainsi, la suite (A(k) )k∈N converge vers la matrice B.
Question 5.b. La norme || || est une fonction continue de Mn (C) dans R (car elle est 1-lipschitzienne).
On en déduit que ||P−1 b APb || tend vers ||diag(a1,1 , . . . , an,n )|| quand b tend vers 0. Cette limite, notée `, est
égale à max(|aj,j |; 1 6 j 6 n).
Cette limite est strictement inférieure à 1 par hypothèse. Notons r = (1 + `)/2, ce qui est dans ]`, 1[.
D’après la définition de la limite, il existe b0 > 0 tel que pour tout b dans ]0, b0 ], le nombre ||P−1 b APb ||
soit majoré par r. On obtient donc en particulier l’inégalité ||P−1 b0 APb0 || < 1.
Question 5.c. Gardons la notation b de la question précédente. Une itération de l’inégalité de la question 2
donne
∀k ∈ N∗ , 0 6 ||(P−1 k −1
b APb ) || 6 ||Pb APb || .
k
L’inégalité ||P−1 −1 k
b APb || < 1 donne que ||Pb APb || tend vers 0 quand k tend vers +∞.
√ √ √
0 −1
Pour la matrice A4 = , on trouve Sp(A4 ) = {i 2; −i 2} donc ρ(A4 ) = 2.
2 0
3 2
Pour la matrice A5 = , on trouve Sp(A5 ) = {1; 4} donc ρ(A5 ) = 4.
1 2
4
Pour prouver cette égalité, on remarque pour commencer l’égalité Sp(0 × A) = {0} puis, si µ 6= 0, on
remarque l’égalité
Les propriétés (iv) et (v) sont vraies car les matrices P−1 AP et tA ont le même spectre que A.
Question 8. Soit A ∈ Mn (C). Soit λ une valeur propre de A telle que |λ| = ρ(A). Soit x un vecteur propre
de A associé à la valeur propre λ.
Les relations Ax = λx et x 6= 0 donnent
||Ax||1
|λ| =
||x||1
Question 9. On fait l’hypothèse ρ(A) < 1. La matrice A est trigonalisable dans Mn (C) (car son polynôme
caractéristique est scindé sur C) donc il existe une matrice P de GLn (C) telle que la matrice T = P−1 AP
soit triangulaire supérieure. Les coefficients diagonaux de T sont les valeurs propres de A donc leurs modules
sont strictement inférieurs à 1.
La matrice T vérifie donc les hypothèses de la question 5, si bien que la suite de matrices (Tk )k∈N∗
converge vers la matrice nulle.
Par le même raisonnement qu’en 5.c, on en déduit que la suite (Ak )k∈N∗ converge vers la matrice nulle.
Question 10.a. On reprend le raisonnement de la question 8 : soit λ ∈ Sp(A) telle que |λ| = ρ(A). Soit x
un vecteur propre de A associé à la valeur propre λ.
Soit k ∈ N∗ . On trouve
Ak x = Ak−1 λx = Ak−2 λ2 x = . . . = λk x
puis, le vecteur x étant non nul, on obtient |λk | = ||Ak x||1 /||x||1 donc ρ(A)k 6 ||Ak ||.
Question 10.b. 1 Soit α ∈ ]0, ρ(A)]. Pour tout k ∈ N∗ , on observe alors l’inégalité
A k ||A||k
ρ(A) k
= > >1
α αk α
d’après 10.a.
On en déduit que ||(A/α)k || ne tend vers pas 0 quand k tend vers +∞ donc α n’est pas dans EA .
2 Soit α ∈ ]ρ(A), +∞[. L’identité 7.i donne ρ(A/α) = ρ(A)/α < 1 donc la suite ((A/α)k )k∈N∗ converge
vers la matrice nulle d’après le résultat de la question 9, si bien que α est dans EA .
Question 11. Pour tout k ∈ N∗ , on connaı̂t l’inégalité ρ(A) 6 ||Ak ||1/k , qui découle de 10.a.
k
A
Soit ε > 0. D’après 10.b, la suite de matrices de terme général tend vers la matrice nulle.
ρ(A) + ε
Il existe donc un entier kε > 1 tel que
Ak
∀k > kε , (ρ(A) + ε)k 6 1,
Récapitulons :
∀ε > 0, ∃kε ∈ N∗ , ∀k > kε , ρ(A) 6 ||Ak ||1/k 6 ρ(A) + ε.
Soit k ∈ N∗ . On suppose que l’énoncé Ik est vrai. Soit (i, j) un couple d’indices entre 1 et n. La formule
du produit matriciel donne
n
(k+1) (k)
X
ai,j = ai,` a`,j .
`=1
Question 13. Encore un raisonnement par récurrence. Pour tout entier k > 2, notons Jk l’énoncé Pour
tout (z1 , . . . , zn ) de Cn qui vérifie l’égalité |z1 +· · ·+zn | = |z1 |+· · ·+|zn |, le vecteur (z1 , . . . , zn ) est colinéaire
à (|z1 |, . . . , |zn |).
Soit (z1 , z2 ) ∈ C2 tel que |z1 + z2 | = |z1 | + |z2 |. Notons r1 = |z1 | et r2 = |z2 | et introduisons θ1 et θ2
dans R tels que
z1 = r1 eiθ1 et z2 = r2 eiθ2 .
6
Le calcul donne |z1 + z2 |2 = r12 + r22 + 2r1 r2 cos(θ1 − θ2 ) et (|z1 | + |z2 |)2 = r12 + r22 + 2r1 r2 . On en déduit
que le produit r1 r2 (1 − cos(θ1 − θ2 )) = 0 est nul.
Si cos(θ1 − θ2 ) = 0, alors θ1 et θ2 sont congrus modulo 2π donc eiθ1 = eiθ2 donc (z1 , z2 ) = eiθ1 (|z1 |, |z2 |).
Soit k > 2 pour lequel Jk est vrai. Prenons (z1 , . . . , zn+1 ) tel que |z1 + · · · + zk+1 | = |z1 | + · · · + |zk+1 |.
Supposons dans un premier temps que zk+1 est nul, ce qui donne |z1 + · · · + zk | = |z1 | + · · · + |zk |.
L’hypothèse Jk donne alors l’existence de λ ∈ C tel que (z1 , . . . , zk ) = λ(|z1 |, . . . , |zk |). La nullité de zk+1
donne alors (z1 , . . . , zk+1 ) = λ(|z1 |, . . . , |zk+1 |).
L’hypothèse Jk permet d’en déduire qu’il existe λ ∈ C tel que (z1 , . . . , zk ) = λ(|z1 |, . . . , |zk |).
et en déduire l’égalité |z2 + . . . + zk+1 | = |z2 | + · · · + |zk+1 |. L’hypothèse Jk permet d’en déduire qu’il existe
un µ ∈ C tel que (z2 , . . . , zk+1 ) = µ(|z2 |, . . . , |zk+1 |).
Le fait que z2 soit non nul donne λ = z2 /|z2 | = µ donc finalement (z1 , . . . , zk+1 ) = λ(|z1 |, . . . , |zk+1 |).
L’énoncé Jk+1 est prouvé. Par récurrence, l’énoncé Jk est vrai pour tout entier k > 2.
On en tire l’égalité (λ − µ) tyx = 0 puis tyx = 0 car λ 6= µ. On remarque enfin l’égalité tyx = txy, qui
donne finalement txy = 0.
Question 15.a. La récurrence est déjà initialisée par l’hypothèse Aw > µw.
Remarquons pour plus tard que le produit de deux matrices positives est une matrice positive. Idem
avec une somme.
Soit k ∈ N∗ tel que Ak w > µk w. La colonne Ak w − µk w est positive et la matrice A est positive donc la
colonne Ak+1 w − µk Aw est positive. De même, la colonne µk (Aw − µw) est positive.
Par somme, la colonne Ak+1 w − µk+1 w est positive, ce qui donne Ak+1 > µk+1 w.
Les vecteurs en présence sont à coefficients positifs. On en déduit l’inégalité ||Ak w||1 > µk ||w||1 puis
||Ak w||1
> µk puis ||Ak || > µk et ||Ak ||1/k > µ,
||w||1
Notons λ le plus petit des nombres (Aw)i /wi où i décrit l’ensemble (non vide) des indices tels que wi > 0.
On a alors Aw > λw et λ > µ.
Le résultat de la question précédente donne ρ(A) > λ donc ρ(A) > µ.
Le nombre xk vaut (Aw)k − wk . Il est donc strictement positif, ce qui permet de choisir ε > 0 de sorte
que xk − (µ − ak,k )ε > 0, comme précisé ci-dessous.
Si µ − ak,k 6 0, il suffit de prendre ε = 1.
Si µ − ak,k > 0, il suffit de prendre ε = xk /(2(µ − ak,k )).
Pour un tel choix de ε, on a alors Aw0 > µw0 et w0 est un vecteur positif non nul donc ρ(A) > µ
d’après 15.b.
Si on suppose que cette inégalité n’est pas une égalité alors on est dans le cadre des hypothèses de la
question 15.c avec µ = ρ(A) et w = v0 donc ρ(A) > ρ(A), ce qui est absurde.
Question 16.b. Soit k un indice tel que xk 6= 0. On obtient alors les relations
n
(Av0 )k 1 X
ρ(A) = = ak,j |xj | > ak,k > 0.
(v0 )k |xk |
j=1
8
Question 16.c. L’inégalité triangulaire écrite à la question 16.a est finalement une égalité. En particulier,
on a
n n
X X
a x
1,j j
= |ai,j xj | .
j=1 j=1
Le cas d’égalité de la question 13 donne donc l’existence de µ ∈ C tel que
Ainsi, le vecteur x est colinéaire à v0 . Ces vecteurs sont donc associés à la même valeur propre. Cela
prouve l’égalité λ = ρ(A).
Le sous-espace F est le noyau de ϕ : x 7→ txw0 , application linéaire de Cn dans C. Ce n’est pas l’appli-
cation nulle donc son rang vaut au moins 1 ; son image est incluse dans C et de dimension au moins 1 donc
son image est C. La formule du rang donne donc dim(F) = n − 1.
On en déduit l’égalité dim(F) + dim(Cv0 ) = dim(Cn ). La somme de F et Cv0 étant directe, on en déduit
que ces deux sous-espaces sont supplémentaires dans Cn .
Question 17.b. Soit µ une valeur propre de A telle que µ 6= ρ(A). Soit v un vecteur propre associé.
Le résultat de la question 14 donne tvw0 = 0 donc v ∈ F.
Supposons que v ait tous ses coefficients réels et positifs (l’un d’entre eux au moins est alors strictement
positifs). On obtient alors tvw0 > 0, ce qui est contradictoire.
Un tel vecteur propre ne peut donc être associé qu’à la valeur propre ρ(A) : l’énoncé (iii) est démontré.
Question 18.a. Soit (v2 , . . . , vn ) une base de F. La famille V = (v0 , v2 , . . . , vn ) est alors une base de Cn car
Cv0 et F sont supplémentaires. La matrice de ϕA relativement à cette base s’écrit
ρ(A) 0
,
0 B
Aucun élément de F n’est à coordonnées strictement positives donc ρ(A) n’est pas une valeur propre
de ψ. Or les autres valeurs propres de A ont un module strictement inférieur à ρ(A) donc les racines de χψ
ont un module strictement inférieur à ρ(A).
9
Question 18.b. Le raisonnement de la question précédente donne ρ(ψ) < ρ(A) donc ρ(ψ/ρ(A)) < 1 en
exploitant 7.i.
Le résultat de la question 9 permet d’en déduire que la suite de terme général (ψ/ρ(A))k converge vers
l’endomorphisme nul de F.
Soit x ∈ F. L’application linéaire f 7→ f (x), définie de L(F) vers F, est continue donc la suite de vecteurs
de terme général ψ/ρ(A))k (x) converge vers le vecteur nul de F.
En d’autres termes, la suite de vecteurs (Ak x/ρ(A)k )k>1 converge vers le vecteur nul.
x = x1 + x2 , x1 ∈ F, x2 ∈ Cv0 .
∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
1 Généralités
1.1 Définition
Remarque 1.1. 1. Une serie n ’ est autre qu’une suite , on peut donc lui appliquer tout les résultats connues
sur les suites réelles ou complexes
2. Dans ce chapitre on ne s’intéresse qu ’ au séries dont le terme général est définie à partir d’un certain rang .
X
3. Lorsque u n est définie à partir de n 0 , la serie de terme general ( u n )n≥n0 est notee u k , ses sommes
n≥ n 0
n
X X
partielles sont S n = u k . (C’est en fait la série u k+n0 .)
k= n 0
4. La nature d’une série est sa convergence éventuelle, c ’est - à - dire sa propriété d’être ou non convergente.
page:1/ 13
PSI Séries numériques
X n
X ∞
X
Attention 1.1. uk, u k et u k désignent des objets radicalement différents. Le premier est une suite, le
k=0 k=0
deuxième son n-ième terme et le dernier sa limite.
X +∞
X
Définition 1.2. Soit u n une série convergente et notons S = uk.
k=0
On appelle reste de la série la suite (R n )n∈N définie par Rn = S − Sn
+∞
X
On note R n = uk
k= n+1
1 − z n−n0 +1
z n0 si z 6= 1
n
Preuve : ∀ n ∈ N,
X
zp = 1− z .
n= n 0
n sinon
+∞ z n0
— Si | z| < 1, lim z n = 0 d’où la convergence de la série et on a alors zk =
X
.
+∞
k= n 0 1− z
— Si | z| ≥ 1 alors la série diverge
µ ¶n
1 1
e−n est une serie geometrique convergente puisque e−n =
X
Exemple 1.1. La serie et 0 < < 1
e e
1 1 X1
Exercice 1. Montrer que ∀k ∈ N∗ ≤ ln( k + 1) − ln( k) ≤ puis en déduire la nature de la série .
k+1 k k
1 1 1
Solution : Soit k ∈ N∗ , pour tout t ∈ [k, k + 1] on a ≤ ≤ ,
k+1 t k
1 1
on intégrant entre k et k + 1 on obtien ≤ ln(k + 1) − ln(k) ≤
k+1 k
page:2/ 13
PSI Séries numériques
n
X 1 Xn 1
on sommant pur de k = 1 à k = n on obtiens finalement ≤ ln(n + 1) ≤ ,
k=1 k + 1 k=1 k
or lim ln(n + 1) = +∞ ,
+∞
Xn 1 X1
donc lim = +∞ c ’est - à - dire la série est divergente.
+∞
k=1 k k
X1
Proposition 1.3. La série harmonique est divergente
k
X 1
Théorème 1.1 (Série de Riemann). α
converge si et seulement si α > 1
n≥1 n
X zn
Théorème 1.2. Pour tout z ∈ C, converge et
n!
+∞
X zn
exp( z) =
n=0 n!
Preuve : Le cas réel est démontré dans le chapitre sur l’ intégration . On utilise la formule de Taylor avec reste-intégral.
X
Proposition 1.4. La série ( u k+1 − u k ) est convergente si et seulement si ;la suite ( u n )n∈N est convergente . En
cas de convergence
+∞
X
( u k+1 − u k ) = lim u n − u 0
+∞
k=0
nX
−1
S n−1 = (u k+1 − u k ) = u n − u 0 .
k=0
X
Remarque 1.4. Les séries de type ( u n+1 − u n ) sont appelées séries télescopiques
page:3/ 13
PSI Séries numériques
X 1 π
Exemple 1.2. la série arctan converge vers .
n2 + n + 1 2
1
en effet, on a arctan = arctan( n + 1) − arctan n. C’est donc une série télescopique et par suite S n = arctan( n +
n2 + n + 1
1) − arctan 0.
X
Définition 1.3. Si ( u n )n∈N ne tend pas vers 0, on dit que u n diverge grossièrement.
X1
Attention 1.2. La réciproque est fausse comme le montre l’exemple de la série harmonique .
n
X X X¡
vn convergent, Alors pour tout λ, µ ∈ K, la série λ u n + µvn est convergente et
¢
Proposition 1.6. si u n et
on a :
+∞
X¡ +∞
X +∞
X
λ u n + µvn = λ un + µ
¢
vn
n=0 n=0 n=0
X X
Preuve : si u n et vn convergent, alors
n ¡ n n
∀ n ∈ N, ∀ λ, µ ∈ K,
X X X
λ u k + µvk = λ uk + µ
¢
vk .
k=0 k=0 k=0
X¡
λ u n + µvn converge (comme somme de deux suites convergentes) et en passant la relation précédente à la limite, il vient
¢
D’où
+∞
X¡ +∞
X +∞
X
∀ λ, µ ∈ K, λ u n + µvn = λ un + µ
¢
vn .
n=0 n=0 n=0
Proposition 1.7. L’ensemble des séries convergentes est un espace vectoriel et l’ application qui associe à une série
sa somme est une application linéaire .
page:4/ 13
PSI Séries numériques
X +∞
X +∞
X +∞
X
Attention 1.4. Si ( u n + vn ) converge, ne JAMAIS écrire ( u n + vn ) = un + vn sans avoir préalablement
X X n=0 n=0 n=0
justifié la convergence de u n et vn .
u n et vn diverge, comme le montre l’exemple des suites définies pour n ∈ N par u n = −vn = n.
X X
Il se peut que
Corollaire 1.1. La somme d’une série convergente et d’une série divergente est divergente.
X X
Preuve : Supposons u n diverge et vn converge.
X X X X X
Si (u n + vn ) converge, alors on a u n = (u n + vn ) − vn d’où u n serait convergente.
Remarque 1.5. Comme pour les suites, on a les règle : Cv+Cv =Cv, Dv+Cv=Dv et la forme indéterminée Dv+Dv= F.I
N
Proposition
X 1.8. Soit ( u n )n∈N ∈ CX . X
u n converge si et seulement si Re( u n ) et Im( u n ) convergent.
n n n
Preuve : Provient directement de la relation ∀ n ∈ N,
X X X
un = Re(u n ) + i Im(u n ) et du fait qu’une suite complexe converge
k=0 k=0 k=0
si et seulement si sa partie réelle et imaginaire convergent.
X
Théorème 2.1. Si u n est à termes positifs alors elle converge si et seulement si ses sommes partielles sont ma-
jorées. On a alors
+∞
X
u n = lim S p = sup S p .
p→+∞ p∈N
n=0
Preuve : ∀ n ∈ N, S n+1 − S n = u n+1 ≥ 0. (S n )n∈N est alors croissante. D’après le programme de première année, elle converge
si et seulement si elle est majorée et converge alors vers sa borne supérieure.
Corollaire 2.1. Si une série de termes positifs diverge, elle tend vers +∞.
page:5/ 13
PSI Séries numériques
n n +∞
1. ∀ n ∈ N, 0 ≤
X X X X
Preuve : uk ≤ vk ≤ vk et la suite des sommes partielles de u n est alors majorée. D’après la
kX
=0 k=0 k=0
proposition précédente, u n converge.
2. C’est la contraposée de la proposition précédente.
¡ ¢
X 2.2. Soit ( u n )n∈NXet (vn )n∈N deux suites positives telles que u n = O (vn ) ou u n = o(vn ) .
Proposition
— Si X vn converge alorsX u n converge.
— Si u n diverge alors vn diverge.
Preuve : Si u n = o(vn ) alors u n = O(vn ). Il suffit donc de montrer la proposition dans le cas u n = O(vn ).
D’après le cours, u n = O(vn ) si et seulement si ∃ M > 0, ∀ n ∈ N, 0 ≤ u n ≤ Mvn .
X
Mais comme Mvn est le terme général d’une série convergente, on en déduit que u n est convergente .
X
Attention
X 2.1. Sous les hypothèses
X des propositions 2.1X
et 2.2, la divergence de vn n’entraîne pas la divergence
de u n ; la convergence de u n n’ entraîne pas celle de vn .
Proposition
X 2.3. Soit ( u n )n∈N et (vn )n∈N deux suites positives telles que u n ∼ vn .
X
Alors u n et vn sont de même nature.
Remarque 2.1. Le dernier résultat (avec l’équivalence) est encore vrai si u n ∼ c.vn avec c ∈ R∗
X − n2 2
converge car ∀ n ∈ N, e−n < e−n et
X −n
Exemples 2.1. 1. e e converge (série géométrique).
X 1 1 1
2. p diverge puisque passé un certain rang, p >p .
n≥1 n − ln n n − ln n n
1 1 1
µ ¶ µ ¶
X
3. la série ln 1 + 2 converge puisque ln 1 + 2 ∼ 2
n n n
1 −1 1
µ ¶ µ ¶
X
4. ln 1 − ∼ donc ln 1 − diverge.
n n n
(−1)n
¯ ¯
X ¯ 1 ¯ ∼ 1 ≥ 0.
¯
5. 2 n converge car ¯ 2
¯
n + (−1) n n
n + (−1) n ¯ n2
La série est donc absolument convergente donc convergente.
page:6/ 13
PSI Séries numériques
u n+1
u n une série à termes dans R∗+ telle que lim
X
Proposition 2.4 (Règle de d’Alembert). Soit = λ.
X +∞ un
— Si λ < 1 alors X u n est convergente .
— Si λ > 1 alors u n diverge .
— Si λ = 1, on ne peut rien dire.
1 Y n
Exemples 2.3. 1. • u n = (a + k)2 où a > 0.
(2 n)! k=1
u n+1 (a + n + 1)2 1 X
On a = −→ donc u n converge.
un (2 n + 1)(2 n + 2) 4
X xn
2. • est définie sur R d’après le critère de d’Alembert. On retrouve notamment que pour tout x ∈ R, x n =
n!
o( n!).
De la même manière, on retrouve les comparaisons de référence
ln n ¿ n ¿ a n ¿ n! ¿ n n
¡ ¢
Remarque 2.2. La règle de d’Alembert n’est pas une panacée. Elle ne s’applique pas à bon nombre de suite comme
par exemple les séries de Riemann où lim uun+n 1 = 1.
+∞
X u n+1
Proposition 2.5 (Complément à la règle de d’Alembert). Soit u n une série à terme > 0 tel que lim = 1 et
+∞ un
u n+1 X
≥ 1 . Alors u n diverge grossièrement.
un
Xn 1
Application 1 : convergence de la suite − ln( n).
k=1 k
page:7/ 13
PSI Séries numériques
On a pour n ∈ N
1 1 1 1 1 1 1
µ ¶ µ µ ¶¶ µ ¶ µ ¶ µ ¶
u n+1 − u n = − ln 1 + = 1+O − +O =O .
n+1 n n n n n 2 n2
X
Donc (u n+1 − u n ) converge absolument donc converge d’où (u n )n∈N converge.
n! e n
Application 2 : convergence de la suite p .
nn n
Proposition 2.6. Soit f continue par morceaux sur [0, +∞[, positive et décroissante. Alors :
Z n
1. La série de terme général wn = f ( n) − f ( t) dt converge
n−1
2. Pour tout n ∈ N∗ on a :
Z n+1 n
X Z n
f ( t) dt ≤ f ( n) ≤ f (0) + f ( t) dt
0 n=0 0
Z n
f ( t) dt existe dans R.
X
3. f ( n) converge si et seulement si lim
+∞ 0
n≥0
X1
Exemple 2.1. est divergente .
n ln( n)
1
En effet la fonction x 7→ est continue positive décroissante sur [2, +∞[ et cmme
x ln( x)
Z +∞
1
d x = [ln(ln( x))]+∞
2 = +∞
2 x ln( x)
On déduit que la série diverge .
X 1
converge si et seulement si α>1
nα
page:8/ 13
PSI Séries numériques
Solution : Si α > 0 on a :
Z k
1 1 1
∀ k ≥ 2, 0≤ α ≤ α
dt ≤
k k−1 t (k − 1)α
Z N +1
1 N
X 1
Z N
1
∀ n ≥ 2, ∀ N > n, dt ≤ ≤ dt
n tα k= n+1 k α
n −1 t α
b1−α a1−α
Z b
dt
Or tα = 1 − α − 1 − α , d’où, en prenant la limite de N vers l’infini on a :
a
n1−α (n − 1)1−α
∀ n ≥ 2, ≤ Rn ≤
α−1 α−1
(n − 1)1−α
On et comme lim = 1, on a
+∞ n1−α
n1−α
Rn ∼ .
α−1
2. Pour 0 < α < 1 on a Z n+1
1 n 1 Z n
1
∀ n ∈ N,
X
α
dt ≤ α
≤ 1+ α
dt
1 t k=1 k 1 t
d’où
(n + 1)1−α − 1 n1−α − 1
∀ n ∈ N, ≤ Sn ≤
1−α 1−α
On aboutit
n1−α
Sn ∼ .
1−α
3. pour α = 1 on aboutit de même à
S n ∼ ln n
Théorème 3.1 (critère spécial des séries alternées). Soit ( u n )n∈N une suite positive, décroissante,
convergente vers 0.
Alors
(−1)n u n est une série convergente
X
1.
2. ∀ n ∈ N, |R n | ≤ u n+1 .
3. R n a le meme signe que (−1)n+1
X (−1)n
Exemple 3.1. la série de terme général α
converge si et seulement si α > 0.
n≥1 n
¡En1
¢effet, pour α ≤ 0 la série diverge grossièrement, et pour α > 0 il suffit d’utiliser le théorème précédent puisque
n n∈N∗ et positive, décroissante et tend vers 0.
α
page:9/ 13
PSI Séries numériques
X (−1)n
Exemple 3.2. Étude de : p .
n + (−1)n
(−1)n (−1)n (−1)n
On a p ∼ p mais ceci n’est pas exploitable puisque p change de signe. on a ici :
n + (−1)n n n
n
³ ´
(−
p1) 1
D’où la divergence de la série puisque n
définie une série convergente, vn = O n3/2
une série absolument conver-
gente donc convergente et − n1
une série divergente.
X (−1)n X ³ (− n
´
Exemple 3.3. Les séries p et ln 1 + p1) dont les termes généraux sont équivalents. Mais la première
n n
n≥1
converge d’après le critère spécial de séries alternées et la seconde diverge car
1
µ ¶
n n
³ ´
ln 1 + (−p1)n = (−
p1)
n
+ +O 1
3
n n2
n n
³ ´
(−
p1) ln 1 + (−p1)n convergent puisque 1 1
X X X
n
et 3 est le terme d’une série convergente et n diverge.
n≥1 n≥1 n2 n≥1
Attention 3.1. L’exemple précédent montre que les résultats sur les séries positives sont faux si le signe des suites
n’est pas constant. Dans ce cas on effectue souvent un développement asymptotique .
X X
Définition 4.1. On dit que la série u n est absolument convergente si | u n | est convergente.
X e in
Exemple 4.1. La série est convergente car absolument convergente d’après les séries de Riemann.
n2
u n une série à termes dans K et a n une série convergente à termes R+
X X
Remarque 4.1. Soit
X
1. Si | u n | ≤ a n alors u n est absolument convergente
X
2. Si | u n | = O (a n ) alors u n est absolument convergente
X
3. Si | u n | = o(a n ) alors u n est absolument convergente
page:10/ 13
PSI Séries numériques
X
4. Si | u n | ∼ a n alors u n est absolument convergente
¯ ¯
X ¯ u n+1 ¯
Proposition 4.1 (Règle de d’Alembert). Soit u n une série à termes non nuls telle que lim ¯¯ ¯ = λ.
X +∞ un ¯
— Si λ < 1 alors X u n est absolument convergente donc convergente.
— Si λ > 1 alors u n diverge grossièrement.
— Si λ = 1, on ne peut rien dire.
X X X
Définition 4.2. On appelle produit de Cauchy des séries u n et vn la série wn de terme général wn =
Xn n
X X
u k v n− k = u n− k v k = u p vq .
k=0 k=0 p+ q= n
X
Remarque 4.2. Si, par exemple, les suites ne sont définies qu’à partir du rang 1, on a toujours wn = u p vq
p+ q= n
nX
−1
mais n’est défini qu’à partir de n = 2. On a alors wn = u k vn−k (on pourrait aussi poser u 0 = v0 = 0 pour conserver
k=1
la formule initiale).
X X
Attention 4.2. Soit u n et vn deux séries numériques de nombres complexes convergentes. Alors en général
à ! à !
+∞
X +∞
X +∞
X
( u n vn ) 6= un × un
n=0 n=0 n=0
X X X
Théorème 4.2. Si u n et vn sont absolument convergente alors leur produit de Cauchy wn est aussi conver-
gente et on a : Ã !Ã !
+∞
X +∞
X +∞
X
wn = un un
n=0 n=0 n=0
Attention 4.3. C’est faux si les séries ne sont pas absolument convergentes comme le montre l’exemple ci dessous :
page:11/ 13
PSI Séries numériques
(−1)n
Exemple 4.2 (CCP MP 2005 :). Les series de TG ∀ n ∈ N∗ , u n = vn = 1
sont semi convertes et leurs produit de
n4
cauchy est divergente .
En effet :
Elles définissent des séries convergentes ( critère spéciale des séries alternées ), qui ne sont pas absolument conver-
gente (série de Riemann).
On a pour n ∈ N∗
nX
−1 (−1)k (−1)n−k nX
−1 (−1)n
wn = 1 1
= ¢1
k ( n − k)
¡
k=1 4 4 k=1 k( n − k) 4
1
Comme ∀ x, y ∈ R∗+ , 0 ≤ x y ≤ ( x + y)2 , il vient
2
1 1
nX
−1 1 nX
−1 2 4 2 4 ( n + 1)
|wn | = ¢1 ≥ p = p −→ + ∞
k=1 n n
¡
k=1 k( n − k) 4
Preuve : Soit z, z0 ∈ C.
X zn X z0n P
Les deux séries numériques et converge absolument donc le produit de Cauchy wn est absolument convergent et
n! n!
vérifie à !à !
+∞
X X z n +∞
+∞ X z0n
wn =
n=0 n=0 n! n=0 n!
Mais
n z k z n− k 1 X n n! (z + z0 )n
∀ n ∈ N, w n = z k z n− k =
X
=
k=0 k!(n − k)! n! k=0 k!(n − k)! n!
Ainsi
X (z + z0 )n
+∞
(exp z)(exp z0 ) = = exp(z + z0 )
n=0 n!
page:12/ 13
PSI Séries numériques
Xn 1
1. Montrer que ∼ ln( n).
k=1 k
Xn 1 Xn 1 1
2. Montrer que − ln( n) = 1 + ( + ln(1 − )).
k=1 k k=2 k k
Xn 1
3. En déduire que la suite ( ) est convergente . On note γ sa limite (c’est la constante γ d’Euler ).
k=1 k
Xn 1 −1
4. Montrer que − ln( n) − γ ∼ .
k=1 k 2n
Xn 1 1 1
5. En déduire que = ln( n) + γ − + o( ) .
k=1 k 2 n n
page:13/ 13
PSI* Devoir surveillé n°2
Corrigé du problème n°1
Année scolaire
2018/2019
Propriétés élémentaires
1. Puisque A est une matrice nilpotente, il existe un entier naturel p tel que Ap = 0; ainsi det(Ap ) = 0, et
det(A) = 0 : A n’est pas inversible.
2. Soit (λ, X) un couple (valeur propre, vecteur propre) de A dans C : X = 0 et AX = λX. Par récurrence
sur l’entier naturel k, on démontre alors que Ak X = λk X pour tout k. En particulier, Ap X = 0 = λp X, et, puisque
X = 0, λp = 0, soit λ = 0 : Sp(A) = {0}.
Comme χA est scindé dans C, que son terme de plus haut degré est X n , et enfin que χA n’admet qe 0 comme
racine, χA = X n .
3. Si A est diagonalisable, A est semblbable à la matrice diagonale dont tous les éléments diagonaux sont nuls :
A est la matrice nulle. Ainsi, A est diagonalisable et nilpotente si et seulement si A est la matrice nulle.
4. Vect(A) est l’ensemble des matrices de la forme kA, où k est un réel. Or (kA)p = k p Ap = 0 quel que soit le
réel k. Ainsi Vect(A) ⊂ N .
5. t Ap =t (Ap ) =t 0 = 0 : t A ∈ N .
6. Si M est semblable à A, il existe une matrice P de E, inversible, telle que M = P −1 AP . On démontre alors
que M k = P −1 Ak P pour tout entier naturel k, et l’on en déduit que M p = 0 : M ∈ N .
7.
Puisque χA = X n , χA est scindé dans R, A est semblable à une matrice triangulaire supérieure de la forme
0 • ... •
.. . . . . . . ...
T = .. . . • .
.. .
0 ... ... 0
On démontre alors par récurrence sur n, en utilisant par exemple le produit matriciel par blocs, que T n = 0, et
donc que An = 0.
10.1. Il existe un entier naturel q tel que (BC)q = 0, ce qui s’écrit encore B(CB)q−1 C = 0 par associativité du
produit matriciel. Ainsi CB(CB)q−1 CB = 0, soit (CB)q+ 1 = 0, et CB est nilpotente.
10.2. Il existe un entier naturel q tel que B q = 0. On calcule alors (AB)m ax(p,q) = Am ax(p,q)
Bm ax(p,q)
= 0, et
(A + B)p+ q que l’on développe par la formule du binôme, puisque A et B commutent :
p+ q
p+q
(A + B)p+ q
= Ak B p+ q−k
k
k= 0
.
p + q
p−1 p+ q
p+q
= Ak B p+ q−k
+ Ak B p+ q−k
k k
k= 0 k= p
La première somme vaut 0 puisque les puissances de B y sont supérieures à q, et la seconde car les puissances de
A sont supérieures à p.
11. Une matrice symétrique réelle étant toujours diagonalisable, elle n’est nilpotente que si elle est nulle (3.).
12.2. On se souvient que tr(t AA) est la somme des carées de tous les éléments de A. Mais c’est aussi − tr(A2 ),
soit 0...
Exemples
1.1. 0 est valeur propre de M, d’ordre de multiplicité n. La dimension du sous-espace propre de M associé à la
valeur propre 0 est n − rg(M ) = n − (n − 1) = 1.
1.2. M +t M est une matrice symétrique non nulle : elle n’est pas nilpotente.
S = J − In , où J est la matrice de E dont tous les éléments valent 1. On vérifie aisément que J 2 = nJ, et, puisque
J et In commutent, S 2 = nJ + In − 2J = In + (n − 2)J = (n − 2)S + (n − 1)In ∈ Vect(In , S).
Les valeurs propres de S sont donc à chercher parmi les racines du polynôme annulateur X 2 − (n − 2)X − (n − 1) =
(X + 1)(X − (n− 1)). Comme S est diagonalisable et n’est pas une matrice d’homthétie, -1 ET n-1 sont valeurs propres
de S, la première
avec comme sous-espace propre l’hyperplan d’équation x1 + . . . +xn = 0, la seconde la droite engendrée
1
par X = ... .
1
1.3. M est t M sont toutes deux nilpotentes (cf I.7), mais leur somme ne l’est pas : N n’est pas un sous-espace
vectoriel de E.
2.1. Puisque M est de rang 1, il existe une matrice ligne C et une matrice colonne L telles que M = CL. On
vérifie alors que LC = tr(M ), puis que M 2 = (LC)CL = tr(M )M .
Si tr(M ) = 0, M est nilpotente. Sinon, M annule le polynôme scindé à racines simples X(X − tr(M )), et M est
diagonalisable.
1 −1
2.2. M = doit convenir.
1 −1
2.3. Soit A ∈ M2 (R), nilpotente et non nulle. D’après I.9., A est de rang 1 et, d’après
la question
précédente, de
a b
trace nulle. Finalement, les matrices nilpotentes de M2 (R) sont les matrices de la forme avec a2 + bc = 0.
c −a
2. Une matrice nilpotente de E est semblable à une matrice triangulaire à éléments diagonaux nuls : sa trace est
nulle, de même que la trace de toute combinaison linéaire de matrices nilpotentes.
1 0 ... 0 1 0 ... 0
0 0 ..
.. .
. .. ..
. .
0 0 ..
3.1. Fj = . est une matrice de rang 1. Donc Fj2 = tr(Fj )Fj = 0 puisque tr(Fj ) = 0.
−1 0 . . . 0 −1 0 . . . 0
..
0 .
. ..
.. .
0 ... 0 0
3.2. Fj , E1,j et Ej,1 sont nilpotentes. Gj est donc une combinaison linéaire de matrices nilpotentes, et Gj ∈ V .
3.3. On remarque que Gk = Ek,k − E1,1 . Une combinaison linéaire nulle de matrices de la famille F est donc une
combinaison linéaire nulle des matrices élémentaires, avec les mêmes coefficients concernant celles autres que E1,1 . Ces
coefficients, qui sont ceux de la combinaison initiale, sont donc tous nuls, et F est libre, dans V puisque que toutes
les matrices de F sont dans V.
3. Tout d’abord, Sn (R) ∩ T1 = {0Mn (R) }. Ensuite la somme des dimensions de ces deux sous-espaces de E vaut
n2 , soit la dimension de E. Ainsi, Sn (R) et T1 sont supplémentaires dans E.
4.1. Par l’absurde, si on suppose que dim (Sn (R) ∩ F ) = 0, alors Sn (R) et F sont en somme directe, et la
n(n + 1)
dimension de Sn (R) ⊕ F est égale à 2 + d > n2 , ce qui n’est guère raisonnable pour un sous-espace de E. Donc
dim (Sn (R) ∩ F ) > 0, mézalors il y a dans F des matrices symétriques, nilpotentes, autres que la matrice nulle. C’est
n(n − 1)
à nouveau absurde, et cette fois, c’est l’hypothèse d > 2 qui est fausse.
n(n − 1)
Finalement (ouf), d 6 2 ...
n(n − 1)
4.2. La dimension d’un sous-espace de E contenu dans N est inférieure à 2 . Puisque T1 est un sous-espace
n(n − 1)
de E contenu dans N et de dimension 2 , la dimension maximale d’un sous-espace de E contenu dans N est
n(n − 1)
exactement 2 .
Un peu de topologie
1. Soit (Ak ) une suite convergente d’éléments de N . Notons A sa limite. Pour tout k, Ank = 0 d’après I.7., et,
par continuité de l’application X ∈ E → X n , polynômiale en les éléments de X, An = 0. Tout point adhérent à N est
dans N , et N est une partie fermée de E.
2. In +αA est semblable à une matrice In +αT , où T ∈ T1 . Cette matrice, triangulaire avec des 1 sur la diagonale,
est de déterminant 1.
Toute les normes étant équivalentes, je décide d’utiliser sur E la norme M = (mi,j ) → max(|mi,j |), pour laquelle
In est de norme 1. Soit r un réel strictement positif, et t ∈] − r, r[ non nul. La matrice A + tIn est à une distance de A
égale à |t|, donc inférieure strictement à r, et appartient à la boule ouverte de centre A et de rayon r. Son déterminant
vaut tn , c’est une matrice inversible, c’est-à-dire de rang n, et donc non nilpotente. On en déduit qu’aucun point de
N n’est intérieur à N , ou encore que N est d’intérieur vide.
3. On considère un sous-espace F de E d’intérieur non vide : F contient une boule ouverte, B(M, r).
Soit alors M ∈ E, différente de M . Notons α la distance de M à M . La matrice M + t(M − M ) appartient à
B(M, r) dès que |t| < α .r
Prenons t = 0 vérifiant cette condition. Alors M = 1 . M + t(M − M ) + t − 1 .M , qui est une combinaison
t t
∈ F et F = E.
linéaire d’éléments de F . Ainsi M
Supposons alors N d’intérieur non vide. Le sous-espace V engendré par N, contient N, et st donc lui aussi
d’intérieur non vide. C’est donc E, ce qui contredit les résultats de la partie III.
PSI* Devoir surveillé n°2
Corrigé du problème n°2
Partie I
Année scolaire
2018/2019
1) Soit A ∈ Mn (C) et (λ1 , . . . , λn ) un système de valeurs propres de A. Nous sommes sur C, A est donc
trigonalisable, fixons T ∈ Tn (C) semblable à A, de diagonale (λ1 , . . . , λn ). Pour tout k ∈ N∗ , Ak est
semblable à T k . Or, par une récurrence immédiate sur k, les éléments diagonaux de T k sont λk1 , . . . , λkn
et donc
k
k
ρ A k
=ρ T k
= max λki = max |λi | = max |λi | = [ρ (A)]k .
1≤i≤n 1≤i≤n 1≤i≤n
En conclusion,
ρ Ak = [ρ (A)]k .
2) L’application M → P −1 MP est un endomorphisme de Mn (C), qui est de dimension finie, c’est donc
une application continue sur Mn (C). Par conséquent, si une suite (Ak ) converge vers A, alors la suite
image P −1 Ak P converge vers l’image de la limite, à savoir P −1 AP . La réciproque se montre de même,
en utilisant la continuité de la bijection réciproque de l’endomorphisme précédent, N → P NP −1 .
(Ak ) converge vers A si et seulement si P −1 Ak P converge vers P −1 AP .
0 µ
3) a) T = λ.I2 + N, avec N = qui vérifie N 2 = 0. Comme λI2 et N commutent, la formule du
0 0
binôme donne T k = λk I2 + kλk−1 N, soit
λk kλk−1 µ
∀k ∈ N∗ Tk = .
0 λk
∗ Si |λ| < 1, il est clair que T k converge vers 0 (toutes les suites coordonnées convergent vers 0,
car k |λ|k−1 −→ 0, du fait des croissances comparées des puissances et exponentielles).
k→∞
∗ Si |λ| > 1, il est clair que T k diverge, car elle n’est pas bornée.
∗ Reste le cas |λ| = 1. Analyse : supposons que T k converge. Alors en particulier λk converge,
soit ℓ sa limite. Par continuité du module (application 1-lipschitzienne), |ℓ| = 1.
Mais la suite
λk+1 converge, d’une part vers ℓ (en tant que suite extraite), d’autre part versλ · ℓ (puisque
λk+1 = λ · λk et par linéarité de la limite). Donc, par unicité de la limite, λ · ℓ = ℓ, d’où
1 kµ
nécessairement λ = 1 (ℓ est non nul car de module 1). T k est donc de la forme et
0 1
doit être bornée, ainsi nécessairement µ = 0.
Synthèse : si λ = 1 et µ = 0, alors T = I2 et T k converge vers I2 .
En conclusion,
T k converge si et seulement si (|λ| < 1) ou (λ = 1 et µ = 0).
λ 0
b) Soit A ∈ M2 (C) diagonalisable et D = semblable à A. On a vu au 4) que Ak converge
0 µ
si et seulement si Dk converge, soit si et seulement si les deux suites λk et µk convergent.
Autrement dit, d’après le résultat précédent,
Ak converge ssi chaque valeur propre est, soit égale à 1, soit de module strictement inférieur à 1.
λ µ
c) Si A est non diagonalisable, elle est trigonalisable et semblable à une matrice T de la forme
0 λ
avec µ = 0 (en effet, si A admettait deux valeurs propres distinctes, elle serait diagonalisable et, si
µ était nul, elle serait aussi diagonalisable !). Alors, d’après les résultats précédents, Ak converge
si et seulement si T k converge, et cela si et seulement si |λ| < 1 (puisqu’ici µ = 0). Ainsi
Ak converge si et seulement si ρ (A) < 1, auquel cas Ak converge vers 02 .
d) J’ai vu au b) que, dans le cas diagonalisable, Ak converge vers 02 si et seulement si ses deux valeurs
propres sont de module strictement inférieur à 1. Finalement
Ak converge vers 02 si et seulement si ρ (A) < 1.
PSI*— Corrigé Page 2
Partie II
d) Donc, si Ak converge vers 0, alors ρ Ak également, d’où d’après I-1) ρ (A)k converge vers
0, ce qui nécessite ρ (A) < 1 :
Si Ak converge vers 0, alors ρ (A) < 1.
On admet la réciproque, banale si A est diagonalisable et qui se démontre par exemple à partir de la
forme de Jordan sinon.
c) D’après b),
1
ρ (Aε ) = · ρ (A) < 1,
ρ (A) + ε
donc, grâce au résultat admis ci-dessus, Akε converge vers 0, en particulier pour la norme N, d’où
par définition de la limite l’existence de kε dans N tel que
∀k ≥ kε N Akε ≤ 1 soit N Ak ≤ (ρ (A) + ε)k .
Ainsi,
ρ (Aε ) < 1 et ∃kε ∀k ≥ kε N Ak ≤ (ρ (A) + ε)k .
d) En combinant a) et c), j’ai,
1/k 1/k
∀ε > 0 ∃kε ∀k ≥ kε ρ (A) ≤ N Ak ≤ ρ (A) + ε d’où N Ak − ρ (A) ≤ ε.
• On dit qu’une suite (an )n∈N à valeurs complexes vérifie la propriété (P1 ) si, pour toute suite
complexe (un )n∈N bornée, la série n≥0 an un converge.
P
Soit (εn )n∈N une suite réelle qui converge vers 0. Prouver la convergence de la série
c. P
n≥0 (an+1 − an )εn .
1
7. Caractériser les suites réelles (an )n∈N vérifiant (P2 ).
8. Soit x ∈ R.
À quelle condition nécessaire et suffisante sur x la suite (xn )n∈N vérifie-t-elle (P1 ) ?
À quelle condition nécessaire et suffisante sur x la suite (xn )n∈N vérifie-t-elle (P2 ) ?
9. En utilisant l’égalité établie à la questionP3, proposer une nouvelle démonstration du résultat
de convergence pour une série alternée n≥0 (−1)n an vérifiant les hypothèses du théorème
spécial des séries alternées, avec an ≥ 0 pour tout n ∈ N.
On ne demande pas de démontrer le résultat sur le signe et la majoration de la somme et des
restes.
10. Démonstration du théorème (T ).
Soit (an )n∈N une suite de réels positifs telle que la série diverge.
P
n≥0 an
On définit par récurrence trois suites (pn )n∈N , (εn )n∈N et (An )n∈N comme suit :
• p0 = 0, ε0 = 1, A0 = a0 .
pn = 1 + pn−1 et εn = εn−1 si An−1 ≥ pn−1
• Pour n ≥ 1 :
2
n−1 et εn = εn−1 sinon,
p = p
n
et dans tous les cas, An = An−1 + an εn .
a. Montrer que pour tout entier naturel N , il existe un entier n > N tel que pn = 1 + pn−1
(on pourra raisonner par l’absurde).
b. En déduire que l’on peut définir une suite (nk )k∈N strictement croissante d’entiers natu-
rels par :
(
n0 = 0
Pour k ≥ 0 : nk+1 = min{n ∈ N; n > nk et pn = 1 + pn−1 }